Changeset 11795


Ignore:
Timestamp:
01/19/15 11:34:50 (5 years ago)
Author:
gkronber
Message:

#2283: added some notes on observed performance on problem instances

File:
1 edited

Legend:

Unmodified
Added
Removed
  • branches/HeuristicLab.Problems.GrammaticalOptimization/Main/Program.cs

    r11793 r11795  
    1 using System;
     1using System;
    22using System.Collections.Generic;
    33using System.Data;
     
    160160      // TODO: in contextual MCTS store a bandit info for each node in the _graph_ and also update all bandit infos of all parents
    161161      // TODO: exhaustive search with priority list
    162       // TODO: warum funktioniert die alte Implementierung von GaussianThompson besser für SantaFe als neue? Siehe Vergleich: alte vs. neue implementierung GaussianThompsonSampling
     162      // TODO: warum funktioniert die alte Implementierung von GaussianThompson besser fÃŒr SantaFe als neue? Siehe Vergleich: alte vs. neue implementierung GaussianThompsonSampling
    163163      // TODO: why does GaussianThompsonSampling work so well with MCTS for the artificial ant problem?
    164       // TODO: wie kann ich sampler noch vergleichen bzw. was kann man messen um die qualität des samplers abzuschätzen (bis auf qualität und iterationen bis zur besten lösung) => ziel schnellere iterationen zu gutem ergebnis
     164      // TODO: wie kann ich sampler noch vergleichen bzw. was kann man messen um die qualitÀt des samplers abzuschÀtzen (bis auf qualitÀt und iterationen bis zur besten lösung) => ziel schnellere iterationen zu gutem ergebnis
    165165      // TODO: research thompson sampling for max bandit?
    166       // TODO: ausführlicher test von strategien für numCorrectPhrases-armed max bandit
     166      // TODO: ausfÃŒhrlicher test von strategien fÃŒr numCorrectPhrases-armed max bandit
    167167      // TODO: verify TA implementation using example from the original paper     
    168168      // TODO: separate policy from MCTS tree data structure to allow sharing of information over disconnected parts of the tree (semantic equivalence)
    169169      // TODO: implement thompson sampling for gaussian mixture models
    170       // TODO: implement inspection for MCTS (eventuell interactive command line für statistiken aus dem baum anzeigen)
     170      // TODO: implement inspection for MCTS (eventuell interactive command line fÃŒr statistiken aus dem baum anzeigen)
    171171      // TODO: implement ACO-style bandit policy
    172172      // TODO: gleichzeitige modellierung von transformierter zielvariable (y, 1/y, log(y), exp(y), sqrt(y), ...)
    173       // TODO: vergleich bei complete-randomly möglichst kurze sätze generieren vs. einfach zufällig alternativen wählen
    174       // TODO: reward discounting (für veränderliche reward distributions über zeit). speziellen unit-test dafür erstellen
     173      // TODO: vergleich bei complete-randomly möglichst kurze sÀtze generieren vs. einfach zufÀllig alternativen wÀhlen
     174      // TODO: reward discounting (fÃŒr verÀnderliche reward distributions ÃŒber zeit). speziellen unit-test dafÃŒr erstellen
    175175      // TODO: constant optimization
    176176
     
    191191      // var problem = new FindPhrasesProblem(random, 15, numPhrases, phraseLen, numOptimalPhrases: numPhrases, numDecoyPhrases: 0, correctReward: 1.0, decoyReward: 0.0, phrasesAsSets: true);
    192192
    193       //var problem = new SymbolicRegressionPoly10Problem();   // good results e.g. 10 randomtries and EpsGreedyPolicy(0.2, (aInfo)=>aInfo.MaxReward)
    194       // Ant
    195       // good results e.g. with       var alg = new MctsSampler(problem, 17, random, 1, (rand, numActions) => new ThresholdAscentPolicy(numActions, 500, 0.01));
    196       // GaussianModelWithUnknownVariance (and Q= 0.99-quantil) also works well for Ant
    197 
     193      // good results for symb-reg
     194      // prev results: e.g. 10 randomtries and EpsGreedyPolicy(0.2, (aInfo)=>aInfo.MaxReward)
     195      // 2015 01 19: grid test with canonical states:
     196      // - EpsGreedyPolicy(0.20,max)
     197      // - GenericThompsonSamplingPolicy("")
     198      // - UCTPolicy(0.10) (5 of 5 runs, 35000 iters avg.)
     199     
     200      // good results for artificial ant:
     201      // prev results:
     202      // - var alg = new MctsSampler(problem, 17, random, 1, (rand, numActions) => new ThresholdAscentPolicy(numActions, 500, 0.01));
     203      // - GaussianModelWithUnknownVariance (and Q= 0.99-quantil) also works well for Ant
     204      // 2015 01 19: grid test with canonical states (non-canonical slightly worse)
     205      // - Threshold Ascent (best 100, 0.01; all variants relatively good
     206
     207      //var problem = new SymbolicRegressionPoly10Problem();   
     208     
    198209      var problem = new SantaFeAntProblem();
    199210      //var problem = new SymbolicRegressionProblem("Tower");
Note: See TracChangeset for help on using the changeset viewer.