Changeset 11795
- Timestamp:
- 01/19/15 11:34:50 (10 years ago)
- File:
-
- 1 edited
Legend:
- Unmodified
- Added
- Removed
-
branches/HeuristicLab.Problems.GrammaticalOptimization/Main/Program.cs
r11793 r11795 1 using System;1 using System; 2 2 using System.Collections.Generic; 3 3 using System.Data; … … 160 160 // TODO: in contextual MCTS store a bandit info for each node in the _graph_ and also update all bandit infos of all parents 161 161 // TODO: exhaustive search with priority list 162 // TODO: warum funktioniert die alte Implementierung von GaussianThompson besser f ür SantaFe als neue? Siehe Vergleich: alte vs. neue implementierung GaussianThompsonSampling162 // TODO: warum funktioniert die alte Implementierung von GaussianThompson besser fÃŒr SantaFe als neue? Siehe Vergleich: alte vs. neue implementierung GaussianThompsonSampling 163 163 // TODO: why does GaussianThompsonSampling work so well with MCTS for the artificial ant problem? 164 // TODO: wie kann ich sampler noch vergleichen bzw. was kann man messen um die qualit ät des samplers abzuschätzen (bis auf qualität und iterationen bis zur besten lösung) => ziel schnellere iterationen zu gutem ergebnis164 // TODO: wie kann ich sampler noch vergleichen bzw. was kann man messen um die qualitÀt des samplers abzuschÀtzen (bis auf qualitÀt und iterationen bis zur besten lösung) => ziel schnellere iterationen zu gutem ergebnis 165 165 // TODO: research thompson sampling for max bandit? 166 // TODO: ausf ührlicher test von strategien für numCorrectPhrases-armed max bandit166 // TODO: ausfÃŒhrlicher test von strategien fÃŒr numCorrectPhrases-armed max bandit 167 167 // TODO: verify TA implementation using example from the original paper 168 168 // TODO: separate policy from MCTS tree data structure to allow sharing of information over disconnected parts of the tree (semantic equivalence) 169 169 // TODO: implement thompson sampling for gaussian mixture models 170 // TODO: implement inspection for MCTS (eventuell interactive command line f ür statistiken aus dem baum anzeigen)170 // TODO: implement inspection for MCTS (eventuell interactive command line fÃŒr statistiken aus dem baum anzeigen) 171 171 // TODO: implement ACO-style bandit policy 172 172 // TODO: gleichzeitige modellierung von transformierter zielvariable (y, 1/y, log(y), exp(y), sqrt(y), ...) 173 // TODO: vergleich bei complete-randomly m öglichst kurze sätze generieren vs. einfach zufällig alternativen wählen174 // TODO: reward discounting (f ür veränderliche reward distributions über zeit). speziellen unit-test dafür erstellen173 // TODO: vergleich bei complete-randomly möglichst kurze sÀtze generieren vs. einfach zufÀllig alternativen wÀhlen 174 // TODO: reward discounting (fÃŒr verÀnderliche reward distributions ÃŒber zeit). speziellen unit-test dafÃŒr erstellen 175 175 // TODO: constant optimization 176 176 … … 191 191 // var problem = new FindPhrasesProblem(random, 15, numPhrases, phraseLen, numOptimalPhrases: numPhrases, numDecoyPhrases: 0, correctReward: 1.0, decoyReward: 0.0, phrasesAsSets: true); 192 192 193 //var problem = new SymbolicRegressionPoly10Problem(); // good results e.g. 10 randomtries and EpsGreedyPolicy(0.2, (aInfo)=>aInfo.MaxReward) 194 // Ant 195 // good results e.g. with var alg = new MctsSampler(problem, 17, random, 1, (rand, numActions) => new ThresholdAscentPolicy(numActions, 500, 0.01)); 196 // GaussianModelWithUnknownVariance (and Q= 0.99-quantil) also works well for Ant 197 193 // good results for symb-reg 194 // prev results: e.g. 10 randomtries and EpsGreedyPolicy(0.2, (aInfo)=>aInfo.MaxReward) 195 // 2015 01 19: grid test with canonical states: 196 // - EpsGreedyPolicy(0.20,max) 197 // - GenericThompsonSamplingPolicy("") 198 // - UCTPolicy(0.10) (5 of 5 runs, 35000 iters avg.) 199 200 // good results for artificial ant: 201 // prev results: 202 // - var alg = new MctsSampler(problem, 17, random, 1, (rand, numActions) => new ThresholdAscentPolicy(numActions, 500, 0.01)); 203 // - GaussianModelWithUnknownVariance (and Q= 0.99-quantil) also works well for Ant 204 // 2015 01 19: grid test with canonical states (non-canonical slightly worse) 205 // - Threshold Ascent (best 100, 0.01; all variants relatively good 206 207 //var problem = new SymbolicRegressionPoly10Problem(); 208 198 209 var problem = new SantaFeAntProblem(); 199 210 //var problem = new SymbolicRegressionProblem("Tower");
Note: See TracChangeset
for help on using the changeset viewer.