Free cookie consent management tool by TermsFeed Policy Generator

Changeset 8484 for trunk


Ignore:
Timestamp:
08/14/12 13:25:17 (12 years ago)
Author:
gkronber
Message:

#1902 changed interface for covariance functions to improve readability, fixed several bugs in the covariance functions and in the line chart for Gaussian process models.

Location:
trunk/sources
Files:
1 added
16 edited

Legend:

Unmodified
Added
Removed
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis.Views/3.4/GaussianProcessRegressionSolutionLineChartView.cs

    r8475 r8484  
    9191        // series of remaining points
    9292        int[] allIndices = Enumerable.Range(0, Content.ProblemData.Dataset.Rows).Except(Content.ProblemData.TrainingIndices).Except(Content.ProblemData.TestIndices).ToArray();
    93         var estimatedValues = Content.EstimatedValues.ToArray();
    94         List<double> allEstimatedValues = allIndices.Select(index => estimatedValues[index]).ToList();
     93        mean = Content.EstimatedValues.ToArray();
     94        s2 = Content.EstimatedVariance.ToArray();
     95        lower = mean.Zip(s2, (m, s) => m - 1.96 * Math.Sqrt(s)).ToArray();
     96        upper = mean.Zip(s2, (m, s) => m + 1.96 * Math.Sqrt(s)).ToArray();
     97        List<double> allLower = allIndices.Select(index => lower[index]).ToList();
     98        List<double> allUpper = allIndices.Select(index => upper[index]).ToList();
    9599        this.chart.Series.Add(ESTIMATEDVALUES_ALL_SERIES_NAME);
    96100        this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].LegendText = ESTIMATEDVALUES_ALL_SERIES_NAME;
    97101        this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].ChartType = SeriesChartType.Range;
    98         this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].Points.DataBindXY(allIndices, allEstimatedValues);
    99         this.InsertEmptyPoints(this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME]);
     102        if (allIndices.Count() > 0) {
     103          this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].Points.DataBindXY(allIndices, allLower, allUpper);
     104          this.InsertEmptyPoints(this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME]);
     105        }
    100106        this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].Tag = Content;
    101107
     
    127133        if ((int)p2.XValue - (int)p1.XValue != 1) {
    128134          // insert an empty point between p1 and p2 so that the line will be invisible (transparent)
    129           var p = new DataPoint((int)((p1.XValue + p2.XValue) / 2), 0.0) { IsEmpty = true };
     135          var p = new DataPoint((int)((p1.XValue + p2.XValue) / 2), new double[] { 0.0, 0.0 }) { IsEmpty = true };
     136          // insert
    130137          series.Points.Insert(i + 1, p);
    131138        }
     
    236243        }
    237244      } else if (Content != null) {
    238         string targetVariableName = Content.ProblemData.TargetVariable;
    239245
    240246        IEnumerable<int> indices = null;
     
    268274            break;
    269275        }
    270         series.Points.DataBindXY(indices, lower, upper);
    271         this.InsertEmptyPoints(series);
    272         chart.Legends[series.Legend].ForeColor = Color.Black;
    273         UpdateCursorInterval();
    274         chart.Refresh();
     276        if (indices.Count() > 0) {
     277          series.Points.DataBindXY(indices, lower, upper);
     278          this.InsertEmptyPoints(series);
     279          chart.Legends[series.Legend].ForeColor = Color.Black;
     280          UpdateCursorInterval();
     281          chart.Refresh();
     282        }
    275283      }
    276284    }
     
    300308    private void chart_CustomizeLegend(object sender, CustomizeLegendEventArgs e) {
    301309      if (chart.Series.Count != 4) return;
    302       e.LegendItems[0].Cells[1].ForeColor = this.chart.Series[TARGETVARIABLE_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
    303       e.LegendItems[1].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_TRAINING_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
    304       e.LegendItems[2].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_TEST_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
    305       e.LegendItems[3].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
     310      e.LegendItems[0].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_TRAINING_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
     311      e.LegendItems[1].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_TEST_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
     312      e.LegendItems[2].Cells[1].ForeColor = this.chart.Series[ESTIMATEDVALUES_ALL_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
     313      e.LegendItems[3].Cells[1].ForeColor = this.chart.Series[TARGETVARIABLE_SERIES_NAME].Points.Count == 0 ? Color.Gray : Color.Black;
    306314    }
    307315  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceConst.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using HeuristicLab.Common;
    2425using HeuristicLab.Core;
     
    5758
    5859    public void SetParameter(double[] hyp) {
     60      if (hyp.Length != 1) throw new ArgumentException("CovarianceConst has only one hyperparameter", "k");
    5961      this.sf2 = Math.Exp(2 * hyp[0]);
    60     }
    61     public void SetData(double[,] x) {
    62       // nothing to do
    6362    }
    6463
    6564
    66     public void SetData(double[,] x, double[,] xt) {
    67       // nothing to do
    68     }
    69 
    70     public double GetCovariance(int i, int j) {
     65    public double GetCovariance(double[,] x, int i, int j) {
    7166      return sf2;
    7267    }
    7368
    74     public double GetGradient(int i, int j, int k) {
    75       if (k != 0) throw new ArgumentException("CovarianceConst has only one hyperparameters", "k");
    76       return 2 * sf2;
     69    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     70      yield return 2 * sf2;
     71    }
     72
     73    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     74      return sf2;
    7775    }
    7876  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceLinear.cs

    r8455 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using HeuristicLab.Common;
    2425using HeuristicLab.Core;
     
    2930  [Item(Name = "CovarianceLinear", Description = "Linear covariance function for Gaussian processes.")]
    3031  public class CovarianceLinear : Item, ICovarianceFunction {
    31     [Storable]
    32     private double[,] x;
    33     [Storable]
    34     private double[,] xt;
    35 
    36     private double[,] k;
    37     private bool symmetric;
    38 
    3932    public int GetNumberOfParameters(int numberOfVariables) {
    4033      return 0;
     
    4437    protected CovarianceLinear(CovarianceLinear original, Cloner cloner)
    4538      : base(original, cloner) {
    46       if (original.x != null) {
    47         this.x = new double[original.x.GetLength(0), original.x.GetLength(1)];
    48         Array.Copy(original.x, this.x, x.Length);
    49 
    50         this.xt = new double[original.xt.GetLength(0), original.xt.GetLength(1)];
    51         Array.Copy(original.xt, this.xt, xt.Length);
    52 
    53         this.k = new double[original.k.GetLength(0), original.k.GetLength(1)];
    54         Array.Copy(original.k, this.k, k.Length);
    55       }
    56       this.symmetric = original.symmetric;
    5739    }
    5840    public CovarianceLinear()
     
    6648    public void SetParameter(double[] hyp) {
    6749      if (hyp.Length > 0) throw new ArgumentException("No hyperparameters are allowed for the linear covariance function.");
    68       k = null;
    6950    }
    7051
    71     public void SetData(double[,] x) {
    72       SetData(x, x);
    73       this.symmetric = true;
     52    public double GetCovariance(double[,] x, int i, int j) {
     53      return Util.ScalarProd(Util.GetRow(x, i), Util.GetRow(x, j));
    7454    }
    7555
    76     public void SetData(double[,] x, double[,] xt) {
    77       this.x = x;
    78       this.xt = xt;
    79       this.symmetric = false;
    80 
    81       k = null;
     56    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     57      yield break;
    8258    }
    8359
    84     public double GetCovariance(int i, int j) {
    85       if (k == null) CalculateInnerProduct();
    86       return k[i, j];
    87     }
    88 
    89     public double GetGradient(int i, int j, int k) {
    90       throw new NotSupportedException("CovarianceLinear does not have hyperparameters.");
    91     }
    92 
    93 
    94     private void CalculateInnerProduct() {
    95       if (x.GetLength(1) != xt.GetLength(1)) throw new InvalidOperationException();
    96       int rows = x.GetLength(0);
    97       int cols = xt.GetLength(0);
    98       k = new double[rows, cols];
    99       if (symmetric) {
    100         for (int i = 0; i < rows; i++) {
    101           for (int j = i; j < cols; j++) {
    102             k[i, j] = Util.ScalarProd(Util.GetRow(x, i),
    103                                       Util.GetRow(x, j));
    104             k[j, i] = k[i, j];
    105           }
    106         }
    107       } else {
    108         for (int i = 0; i < rows; i++) {
    109           for (int j = 0; j < cols; j++) {
    110             k[i, j] = Util.ScalarProd(Util.GetRow(x, i),
    111                                       Util.GetRow(xt, j));
    112           }
    113         }
    114       }
     60    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     61      return Util.ScalarProd(Util.GetRow(x, i), Util.GetRow(xt, j));
    11562    }
    11663  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceNoise.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using HeuristicLab.Common;
    2425using HeuristicLab.Core;
     
    5960      this.sf2 = Math.Exp(2 * hyp[0]);
    6061    }
    61     public void SetData(double[,] x) {
    62       // nothing to do
     62
     63    public double GetCovariance(double[,] x, int i, int j) {
     64      return sf2;
    6365    }
    6466
    65 
    66     public void SetData(double[,] x, double[,] xt) {
    67       // nothing to do
     67    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     68      yield return 2 * sf2;
    6869    }
    6970
    70     public double GetCovariance(int i, int j) {
    71       if (i == j) return sf2;
    72       else return 0.0;
    73     }
    74 
    75     public double GetGradient(int i, int j, int k) {
    76       if (k != 0) throw new ArgumentException("CovarianceConst has only one hyperparameters", "k");
    77       if (i == j)
    78         return 2 * sf2;
    79       else
    80         return 0.0;
     71    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     72      return 0.0;
    8173    }
    8274  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovariancePeriodic.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using HeuristicLab.Common;
    2425using HeuristicLab.Core;
     
    2930  [Item(Name = "CovariancePeriodic", Description = "Periodic covariance function for Gaussian processes.")]
    3031  public class CovariancePeriodic : Item, ICovarianceFunction {
    31     [Storable]
    32     private double[,] x;
    33     [Storable]
    34     private double[,] xt;
    3532    [Storable]
    3633    private double sf2;
     
    4340    public double Period { get { return p; } }
    4441
    45     private bool symmetric;
    46 
    47     private double[,] sd;
    4842    public int GetNumberOfParameters(int numberOfVariables) {
    4943      return 3;
     
    5347    protected CovariancePeriodic(CovariancePeriodic original, Cloner cloner)
    5448      : base(original, cloner) {
    55       if (original.x != null) {
    56         x = new double[original.x.GetLength(0), original.x.GetLength(1)];
    57         Array.Copy(original.x, x, x.Length);
    58         xt = new double[original.xt.GetLength(0), original.xt.GetLength(1)];
    59         Array.Copy(original.xt, xt, xt.Length);
    60       }
    6149      sf2 = original.sf2;
    6250      l = original.l;
    6351      p = original.p;
    64       symmetric = original.symmetric;
    6552    }
    6653    public CovariancePeriodic()
     
    7764      this.p = Math.Exp(hyp[1]);
    7865      this.sf2 = Math.Exp(2 * hyp[2]);
    79       // sf2 = Math.Min(10E6, sf2); // upper limit for the scale
    80 
    81       sd = null;
    82     }
    83     public void SetData(double[,] x) {
    84       SetData(x, x);
    85       this.symmetric = true;
    8666    }
    8767
    88     public void SetData(double[,] x, double[,] xt) {
    89       this.x = x;
    90       this.xt = xt;
    91       this.symmetric = false;
    92 
    93       sd = null;
    94     }
    95 
    96     public double GetCovariance(int i, int j) {
    97       if (sd == null) CalculateSquaredDistances();
    98       double k = sd[i, j];
     68    public double GetCovariance(double[,] x, int i, int j) {
     69      double k = i == j ? 0.0 : GetDistance(x, x, i, j);
    9970      k = Math.PI * k / p;
    10071      k = Math.Sin(k) / l;
     
    10475    }
    10576
    106     public double GetGradient(int i, int j, int k) {
    107       double v = Math.PI * sd[i, j] / p;
    108       switch (k) {
    109         case 0: {
    110             double newK = Math.Sin(v) / l;
    111             newK = newK * newK;
    112             return 4 * sf2 * Math.Exp(-2 * newK) * newK;
    113           }
    114         case 1: {
    115             double r = Math.Sin(v) / l;
    116             return 4 * sf2 / l * Math.Exp(-2 * r * r) * r * Math.Cos(v) * v;
    117           }
    118         case 2: {
    119             double newK = Math.Sin(v) / l;
    120             newK = newK * newK;
    121             return 2 * sf2 * Math.Exp(-2 * newK);
    122 
    123           }
    124         default: {
    125             throw new ArgumentException("CovariancePeriodic only has three hyperparameters.", "k");
    126           }
    127       }
     77    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     78      double v = i == j ? 0.0 : Math.PI * GetDistance(x, x, i, j) / p;
     79      double gradient = Math.Sin(v) / l;
     80      gradient *= gradient;
     81      yield return 4.0 * sf2 * Math.Exp(-2.0 * gradient) * gradient;
     82      double r = Math.Sin(v) / l;
     83      yield return 4.0 * sf2 / l * Math.Exp(-2 * r * r) * r * Math.Cos(v) * v;
     84      yield return 2.0 * sf2 * Math.Exp(-2 * gradient);
    12885    }
    12986
    130     private void CalculateSquaredDistances() {
    131       if (x.GetLength(1) != xt.GetLength(1)) throw new InvalidOperationException();
    132       int rows = x.GetLength(0);
    133       int cols = xt.GetLength(0);
    134       sd = new double[rows, cols];
     87    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     88      double k = GetDistance(x, xt, i, j);
     89      k = Math.PI * k / p;
     90      k = Math.Sin(k) / l;
     91      k = k * k;
    13592
    136       if (symmetric) {
    137         for (int i = 0; i < rows; i++) {
    138           for (int j = i; j < cols; j++) {
    139             sd[i, j] = Math.Sqrt(Util.SqrDist(Util.GetRow(x, i), Util.GetRow(x, j)));
    140             sd[j, i] = sd[i, j];
    141           }
    142         }
    143       } else {
    144         for (int i = 0; i < rows; i++) {
    145           for (int j = 0; j < cols; j++) {
    146             sd[i, j] = Math.Sqrt(Util.SqrDist(Util.GetRow(x, i), Util.GetRow(xt, j)));
    147           }
    148         }
    149       }
     93      return sf2 * Math.Exp(-2.0 * k);
     94    }
     95
     96    private double GetDistance(double[,] x, double[,] xt, int i, int j) {
     97      return Math.Sqrt(Util.SqrDist(Util.GetRow(x, i), Util.GetRow(xt, j)));
    15098    }
    15199  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceProd.cs

    r8463 r8484  
    7373    public int GetNumberOfParameters(int numberOfVariables) {
    7474      this.numberOfVariables = numberOfVariables;
    75       return factors.Select(t => t.GetNumberOfParameters(numberOfVariables)).Sum();
     75      return factors.Select(f => f.GetNumberOfParameters(numberOfVariables)).Sum();
    7676    }
    7777
    7878    public void SetParameter(double[] hyp) {
     79      if (factors.Count == 0) throw new ArgumentException("at least one factor is necessary for the product covariance function.");
    7980      int offset = 0;
    8081      foreach (var t in factors) {
     
    8485      }
    8586    }
    86     public void SetData(double[,] x) {
    87       SetData(x, x);
     87
     88    public double GetCovariance(double[,] x, int i, int j) {
     89      return factors.Select(f => f.GetCovariance(x, i, j)).Aggregate((a, b) => a * b);
    8890    }
    8991
    90     public void SetData(double[,] x, double[,] xt) {
    91       foreach (var t in factors) {
    92         t.SetData(x, xt);
     92    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     93      //if (cachedParameterMap == null) {
     94      //  CalculateParameterMap();
     95      //}
     96      //int ti = cachedParameterMap[k].Item1;
     97      //k = cachedParameterMap[k].Item2;
     98      //double gradient = 1.0;
     99      //for (int ii = 0; ii < factors.Count; ii++) {
     100      //  var f = factors[ii];
     101      //  if (ii == ti) {
     102      //    gradient *= f.GetGradient(x, i, j, k);
     103      //  } else {
     104      //    gradient *= f.GetCovariance(x, i, j);
     105      //  }
     106      //}
     107      //return gradient;
     108      var covariances = factors.Select(f => f.GetCovariance(x, i, j)).ToArray();
     109      for (int ii = 0; ii < factors.Count; ii++) {
     110        foreach (var g in factors[ii].GetGradient(x, i, j)) {
     111          double res = g;
     112          for (int jj = 0; jj < covariances.Length; jj++)
     113            if (ii != jj) res *= covariances[jj];
     114          yield return res;
     115        }
    93116      }
    94117    }
    95118
    96     public double GetCovariance(int i, int j) {
    97       return factors.Select(t => t.GetCovariance(i, j)).Aggregate((a, b) => a * b);
     119    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     120      return factors.Select(f => f.GetCrossCovariance(x, xt, i, j)).Aggregate((a, b) => a * b);
    98121    }
    99122
    100123    private Dictionary<int, Tuple<int, int>> cachedParameterMap;
    101     public double GetGradient(int i, int j, int k) {
    102       if (cachedParameterMap == null) {
    103         CalculateParameterMap();
    104       }
    105       int ti = cachedParameterMap[k].Item1;
    106       k = cachedParameterMap[k].Item2;
    107       double res = 1.0;
    108       for (int ii = 0; ii < factors.Count; ii++) {
    109         var f = factors[ii];
    110         if (ii == ti) {
    111           res *= f.GetGradient(i, j, k);
    112         } else {
    113           res *= f.GetCovariance(i, j);
    114         }
    115       }
    116       return res;
    117     }
    118 
    119124    private void ClearCache() {
    120125      cachedParameterMap = null;
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceRQiso.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using System.Linq;
    2425using HeuristicLab.Common;
     
    3233  public class CovarianceRQiso : Item, ICovarianceFunction {
    3334    [Storable]
    34     private double[,] x;
    35     [Storable]
    36     private double[,] xt;
    37     [Storable]
    3835    private double sf2;
    3936    public double Scale { get { return sf2; } }
     
    4441    private double alpha;
    4542    public double Shape { get { return alpha; } }
    46     [Storable]
    47     private bool symmetric;
    48     private double[,] d2;
    4943
    5044    [StorableConstructor]
     
    5549    protected CovarianceRQiso(CovarianceRQiso original, Cloner cloner)
    5650      : base(original, cloner) {
    57       if (original.x != null) {
    58         this.x = new double[original.x.GetLength(0), original.x.GetLength(1)];
    59         Array.Copy(original.x, this.x, x.Length);
    60 
    61         this.xt = new double[original.xt.GetLength(0), original.xt.GetLength(1)];
    62         Array.Copy(original.xt, this.xt, xt.Length);
    63 
    64         this.d2 = new double[original.d2.GetLength(0), original.d2.GetLength(1)];
    65         Array.Copy(original.d2, this.d2, d2.Length);
    66         this.sf2 = original.sf2;
    67       }
    6851      this.sf2 = original.sf2;
    6952      this.l = original.l;
    7053      this.alpha = original.alpha;
    71       this.symmetric = original.symmetric;
    7254    }
    7355
     
    8567
    8668    public void SetParameter(double[] hyp) {
     69      if (hyp.Length != 3) throw new ArgumentException("CovarianceRQiso has three hyperparameters", "k");
    8770      this.l = Math.Exp(hyp[0]);
    8871      this.sf2 = Math.Exp(2 * hyp[1]);
    8972      this.alpha = Math.Exp(hyp[2]);
    90       d2 = null;
    91     }
    92     public void SetData(double[,] x) {
    93       SetData(x, x);
    94       this.symmetric = true;
    9573    }
    9674
    9775
    98     public void SetData(double[,] x, double[,] xt) {
    99       this.symmetric = false;
    100       this.x = x;
    101       this.xt = xt;
    102       d2 = null;
     76    public double GetCovariance(double[,] x, int i, int j) {
     77      double lInv = 1.0 / l;
     78      double d = i == j
     79                   ? 0.0
     80                   : Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(x, j).Select(e => e * lInv));
     81      return sf2 * Math.Pow(1 + 0.5 * d / alpha, -alpha);
    10382    }
    10483
    105     public double GetCovariance(int i, int j) {
    106       if (d2 == null) CalculateSquaredDistances();
    107       return sf2 * Math.Pow(1 + 0.5 * d2[i, j] / alpha, -alpha);
     84    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     85      double lInv = 1.0 / l;
     86      double d = i == j
     87                   ? 0.0
     88                   : Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(x, j).Select(e => e * lInv));
     89
     90      double b = 1 + 0.5 * d / alpha;
     91      yield return sf2 * Math.Pow(b, -alpha - 1) * d;
     92      yield return 2 * sf2 * Math.Pow(b, -alpha);
     93      yield return sf2 * Math.Pow(b, -alpha) * (0.5 * d / b - alpha * Math.Log(b));
    10894    }
    10995
    110     public double GetGradient(int i, int j, int k) {
    111       switch (k) {
    112         case 0: return sf2 * Math.Pow(1 + 0.5 * d2[i, j] / alpha, -alpha - 1) * d2[i, j];
    113         case 1: return 2 * sf2 * Math.Pow((1 + 0.5 * d2[i, j] / alpha), (-alpha));
    114         case 2: {
    115             double g = (1 + 0.5 * d2[i, j] / alpha);
    116             g = sf2 * Math.Pow(g, -alpha) * (0.5 * d2[i, j] / g - alpha * Math.Log(g));
    117             return g;
    118           }
    119         default: throw new ArgumentException("CovarianceRQiso has three hyperparameters", "k");
    120       }
    121     }
    122 
    123     private void CalculateSquaredDistances() {
    124       if (x.GetLength(1) != xt.GetLength(1)) throw new InvalidOperationException();
    125       int rows = x.GetLength(0);
    126       int cols = xt.GetLength(0);
    127       d2 = new double[rows, cols];
     96    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
    12897      double lInv = 1.0 / l;
    129       if (symmetric) {
    130         for (int i = 0; i < rows; i++) {
    131           for (int j = i; j < rows; j++) {
    132             d2[i, j] = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
    133             d2[j, i] = d2[i, j];
    134           }
    135         }
    136       } else {
    137         for (int i = 0; i < rows; i++) {
    138           for (int j = 0; j < cols; j++) {
    139             d2[i, j] = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
    140           }
    141         }
    142       }
     98      double d = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
     99      return sf2 * Math.Pow(1 + 0.5 * d / alpha, -alpha);
    143100    }
    144101  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceSEard.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using System.Linq;
    2425using HeuristicLab.Common;
     
    3031  [Item(Name = "CovarianceSEard", Description = "Squared exponential covariance function with automatic relevance determination for Gaussian processes.")]
    3132  public class CovarianceSEard : Item, ICovarianceFunction {
    32     [Storable]
    33     private double[,] x;
    34     [Storable]
    35     private double[,] xt;
    3633    [Storable]
    3734    private double sf2;
     
    4946    }
    5047
    51     private double[,] sd;
    52     private bool symmetric;
    53 
    5448    public int GetNumberOfParameters(int numberOfVariables) {
    5549      return numberOfVariables + 1;
     
    5953    protected CovarianceSEard(CovarianceSEard original, Cloner cloner)
    6054      : base(original, cloner) {
    61       if (original.x != null) {
    62         this.x = new double[original.x.GetLength(0), original.x.GetLength(1)];
    63         Array.Copy(original.x, this.x, x.Length);
    64 
    65         this.xt = new double[original.xt.GetLength(0), original.xt.GetLength(1)];
    66         Array.Copy(original.xt, this.xt, xt.Length);
    67 
    68         this.sd = new double[original.sd.GetLength(0), original.sd.GetLength(1)];
    69         Array.Copy(original.sd, this.sd, sd.Length);
    70 
     55      if (original.l != null) {
    7156        this.l = new double[original.l.Length];
    7257        Array.Copy(original.l, this.l, l.Length);
    7358      }
    7459      this.sf2 = original.sf2;
    75       this.symmetric = original.symmetric;
    7660    }
    7761    public CovarianceSEard()
     
    8670      this.l = hyp.Take(hyp.Length - 1).Select(Math.Exp).ToArray();
    8771      this.sf2 = Math.Exp(2 * hyp[hyp.Length - 1]);
    88       // sf2 = Math.Min(10E6, sf2); // upper limit for the scale
    89 
    90       sd = null;
    9172    }
    9273
    93     public void SetData(double[,] x) {
    94       SetData(x, x);
    95       this.symmetric = true;
     74    public double GetCovariance(double[,] x, int i, int j) {
     75      double d = i == j
     76                   ? 0.0
     77                   : Util.SqrDist(Util.GetRow(x, i).Select((e, k) => e / l[k]),
     78                                  Util.GetRow(x, j).Select((e, k) => e / l[k]));
     79      return sf2 * Math.Exp(-d / 2.0);
    9680    }
    9781
    98     public void SetData(double[,] x, double[,] xt) {
    99       this.x = x;
    100       this.xt = xt;
    101       this.symmetric = false;
     82    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     83      double d = i == j
     84                   ? 0.0
     85                   : Util.SqrDist(Util.GetRow(x, i).Select((e, ii) => e / l[ii]),
     86                                  Util.GetRow(x, j).Select((e, ii) => e / l[ii]));
    10287
    103       sd = null;
     88      for (int ii = 0; ii < l.Length; ii++) {
     89        double sqrDist = Util.SqrDist(x[i, ii] / l[ii], x[j, ii] / l[ii]);
     90        yield return sf2 * Math.Exp(d / 2.0) * sqrDist;
     91      }
     92      yield return 2.0 * sf2 * Math.Exp(d / 2.0);
    10493    }
    10594
    106     public double GetCovariance(int i, int j) {
    107       if (sd == null) CalculateSquaredDistances();
    108       return sf2 * Math.Exp(-sd[i, j] / 2.0);
    109     }
    110 
    111     public double GetGradient(int i, int j, int k) {
    112       if (k < l.Length) {
    113         double sqrDist = Util.SqrDist(x[i, k] / l[k], xt[j, k] / l[k]);
    114         return sf2 * Math.Exp(-sd[i, j] / 2.0) * sqrDist;
    115       } else if (k == l.Length) {
    116         return 2.0 * sf2 * Math.Exp(-sd[i, j] / 2.0);
    117       } else {
    118         throw new ArgumentException("CovarianceSEard has dimension+1 hyperparameters.", "k");
    119       }
    120     }
    121 
    122 
    123     private void CalculateSquaredDistances() {
    124       if (x.GetLength(1) != xt.GetLength(1)) throw new InvalidOperationException();
    125       int rows = x.GetLength(0);
    126       int cols = xt.GetLength(0);
    127       sd = new double[rows, cols];
    128       if (symmetric) {
    129         for (int i = 0; i < rows; i++) {
    130           for (int j = i; j < cols; j++) {
    131             sd[i, j] = Util.SqrDist(Util.GetRow(x, i).Select((e, k) => e / l[k]),
    132                                     Util.GetRow(xt, j).Select((e, k) => e / l[k]));
    133             sd[j, i] = sd[i, j];
    134           }
    135         }
    136       } else {
    137         for (int i = 0; i < rows; i++) {
    138           for (int j = 0; j < cols; j++) {
    139             sd[i, j] = Util.SqrDist(Util.GetRow(x, i).Select((e, k) => e / l[k]),
    140                                     Util.GetRow(xt, j).Select((e, k) => e / l[k]));
    141           }
    142         }
    143       }
     95    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     96      double d = Util.SqrDist(Util.GetRow(x, i).Select((e, k) => e / l[k]), Util.GetRow(xt, j).Select((e, k) => e / l[k]));
     97      return sf2 * Math.Exp(-d / 2.0);
    14498    }
    14599  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceSEiso.cs

    r8473 r8484  
    2121
    2222using System;
     23using System.Collections.Generic;
    2324using System.Linq;
    2425using HeuristicLab.Common;
     
    3233  public class CovarianceSEiso : Item, ICovarianceFunction {
    3334    [Storable]
    34     private double[,] x;
    35     [Storable]
    36     private double[,] xt;
    37     [Storable]
    3835    private double sf2;
    3936    public double Scale { get { return sf2; } }
     
    4138    private double l;
    4239    public double Length { get { return l; } }
    43     [Storable]
    44     private bool symmetric;
    45     private double[,] sd;
    4640
    4741    [StorableConstructor]
     
    5246    protected CovarianceSEiso(CovarianceSEiso original, Cloner cloner)
    5347      : base(original, cloner) {
    54       if (original.x != null) {
    55         this.x = new double[original.x.GetLength(0), original.x.GetLength(1)];
    56         Array.Copy(original.x, this.x, x.Length);
    57 
    58         this.xt = new double[original.xt.GetLength(0), original.xt.GetLength(1)];
    59         Array.Copy(original.xt, this.xt, xt.Length);
    60 
    61         this.sd = new double[original.sd.GetLength(0), original.sd.GetLength(1)];
    62         Array.Copy(original.sd, this.sd, sd.Length);
    63         this.sf2 = original.sf2;
    64       }
    6548      this.sf2 = original.sf2;
    6649      this.l = original.l;
    67       this.symmetric = original.symmetric;
    6850    }
    6951
     
    8163
    8264    public void SetParameter(double[] hyp) {
     65      if (hyp.Length != 2) throw new ArgumentException("CovarianceSEiso has two hyperparameters", "k");
    8366      this.l = Math.Exp(hyp[0]);
    8467      this.sf2 = Math.Exp(2 * hyp[1]);
    85       sd = null;
    86     }
    87     public void SetData(double[,] x) {
    88       SetData(x, x);
    89       this.symmetric = true;
    9068    }
    9169
    9270
    93     public void SetData(double[,] x, double[,] xt) {
    94       this.symmetric = false;
    95       this.x = x;
    96       this.xt = xt;
    97       sd = null;
     71    public double GetCovariance(double[,] x, int i, int j) {
     72      double lInv = 1.0 / l;
     73      double d = i == j
     74                   ? 0.0
     75                   : Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(x, j).Select(e => e * lInv));
     76      return sf2 * Math.Exp(-d / 2.0);
    9877    }
    9978
    100     public double GetCovariance(int i, int j) {
    101       if (sd == null) CalculateSquaredDistances();
    102       return sf2 * Math.Exp(-sd[i, j] / 2.0);
     79    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     80      double lInv = 1.0 / l;
     81      double d = i == j
     82                   ? 0.0
     83                   : Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(x, j).Select(e => e * lInv));
     84      double g = Math.Exp(-d / 2.0);
     85      yield return sf2 * g * d;
     86      yield return 2.0 * sf2 * g;
    10387    }
    10488
    105     public double GetGradient(int i, int j, int k) {
    106       switch (k) {
    107         case 0: return sf2 * Math.Exp(-sd[i, j] / 2.0) * sd[i, j];
    108         case 1: return 2.0 * sf2 * Math.Exp(-sd[i, j] / 2.0);
    109         default: throw new ArgumentException("CovarianceSEiso has two hyperparameters", "k");
    110       }
    111     }
    112 
    113     private void CalculateSquaredDistances() {
    114       if (x.GetLength(1) != xt.GetLength(1)) throw new InvalidOperationException();
    115       int rows = x.GetLength(0);
    116       int cols = xt.GetLength(0);
    117       sd = new double[rows, cols];
     89    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
    11890      double lInv = 1.0 / l;
    119       if (symmetric) {
    120         for (int i = 0; i < rows; i++) {
    121           for (int j = i; j < rows; j++) {
    122             sd[i, j] = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
    123             sd[j, i] = sd[i, j];
    124           }
    125         }
    126       } else {
    127         for (int i = 0; i < rows; i++) {
    128           for (int j = 0; j < cols; j++) {
    129             sd[i, j] = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
    130           }
    131         }
    132       }
     91      double d = Util.SqrDist(Util.GetRow(x, i).Select(e => e * lInv), Util.GetRow(xt, j).Select(e => e * lInv));
     92      return sf2 * Math.Exp(-d / 2.0);
    13393    }
    13494  }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/CovarianceSum.cs

    r8463 r8484  
    7777
    7878    public void SetParameter(double[] hyp) {
     79      if (terms.Count == 0) throw new ArgumentException("At least one term is needed for sum covariance function.");
    7980      int offset = 0;
    8081      foreach (var t in terms) {
     
    8485      }
    8586    }
    86     public void SetData(double[,] x) {
    87       SetData(x, x);
    88     }
    8987
    90     public void SetData(double[,] x, double[,] xt) {
    91       foreach (var t in terms) {
    92         t.SetData(x, xt);
    93       }
    94     }
    95 
    96     public double GetCovariance(int i, int j) {
    97       return terms.Select(t => t.GetCovariance(i, j)).Sum();
     88    public double GetCovariance(double[,] x, int i, int j) {
     89      return terms.Select(t => t.GetCovariance(x, i, j)).Sum();
    9890    }
    9991
    10092    private Dictionary<int, Tuple<int, int>> cachedParameterMap;
    101     public double GetGradient(int i, int j, int k) {
    102       if (cachedParameterMap == null) {
    103         CalculateParameterMap();
    104       }
    105       int ti = cachedParameterMap[k].Item1;
    106       k = cachedParameterMap[k].Item2;
    107       return terms[ti].GetGradient(i, j, k);
     93    public IEnumerable<double> GetGradient(double[,] x, int i, int j) {
     94      //if (cachedParameterMap == null) {
     95      //  CalculateParameterMap();
     96      //}
     97      //int ti = cachedParameterMap[k].Item1;
     98      //k = cachedParameterMap[k].Item2;
     99      //return terms[ti].GetGradient(x, i, j, k);
     100      return terms.Select(t => t.GetGradient(x, i, j)).Aggregate(Enumerable.Concat);
    108101    }
     102
     103    public double GetCrossCovariance(double[,] x, double[,] xt, int i, int j) {
     104      return terms.Select(t => t.GetCrossCovariance(x, xt, i, j)).Sum();
     105    }
     106
    109107    private void ClearCache() {
    110108      cachedParameterMap = null;
    111109    }
    112110
    113     private void CalculateParameterMap() {
    114       cachedParameterMap = new Dictionary<int, Tuple<int, int>>();
    115       int k = 0;
    116       for (int ti = 0; ti < terms.Count; ti++) {
    117         for (int ti_k = 0; ti_k < terms[ti].GetNumberOfParameters(numberOfVariables); ti_k++) {
    118           cachedParameterMap[k++] = Tuple.Create(ti, ti_k);
    119         }
    120       }
    121     }
     111    //private void CalculateParameterMap() {
     112    //  cachedParameterMap = new Dictionary<int, Tuple<int, int>>();
     113    //  int k = 0;
     114    //  for (int ti = 0; ti < terms.Count; ti++) {
     115    //    for (int ti_k = 0; ti_k < terms[ti].GetNumberOfParameters(numberOfVariables); ti_k++) {
     116    //      cachedParameterMap[k++] = Tuple.Create(ti, ti_k);
     117    //    }
     118    //  }
     119    //}
    122120  }
    123121}
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/GaussianProcessModel.cs

    r8475 r8484  
    3939    public double NegativeLogLikelihood {
    4040      get { return negativeLogLikelihood; }
     41    }
     42
     43    [Storable]
     44    private double[] hyperparameterGradients;
     45    public double[] HyperparameterGradients {
     46      get {
     47        var copy = new double[hyperparameterGradients.Length];
     48        Array.Copy(hyperparameterGradients, copy, copy.Length);
     49        return copy;
     50      }
    4151    }
    4252
     
    125135
    126136      meanFunction.SetData(x);
    127       covarianceFunction.SetData(x);
    128137
    129138      // calculate means and covariances
     
    131140      for (int i = 0; i < n; i++) {
    132141        for (int j = i; j < n; j++) {
    133           l[j, i] = covarianceFunction.GetCovariance(i, j) / sqrSigmaNoise;
     142          l[j, i] = covarianceFunction.GetCovariance(x, i, j) / sqrSigmaNoise;
    134143          if (j == i) l[j, i] += 1.0;
    135144        }
     
    153162        alpha[i] = alpha[i] / sqrSigmaNoise;
    154163      negativeLogLikelihood = 0.5 * Util.ScalarProd(ym, alpha) + diagSum + (n / 2.0) * Math.Log(2.0 * Math.PI * sqrSigmaNoise);
    155     }
    156 
    157     public double[] GetHyperparameterGradients() {
     164
    158165      // derivatives
    159       int n = x.GetLength(0);
    160166      int nAllowedVariables = x.GetLength(1);
    161167
    162       int info;
    163168      alglib.matinvreport matInvRep;
    164169      double[,] lCopy = new double[l.GetLength(0), l.GetLength(1)];
     
    183188      if (covGradients.Length > 0) {
    184189        for (int i = 0; i < n; i++) {
     190          for (int j = 0; j < i; j++) {
     191            var g = covarianceFunction.GetGradient(x, i, j).ToArray();
     192            for (int k = 0; k < covGradients.Length; k++) {
     193              covGradients[k] += lCopy[i, j] * g[k];
     194            }
     195          }
     196
     197          var gDiag = covarianceFunction.GetGradient(x, i, i).ToArray();
    185198          for (int k = 0; k < covGradients.Length; k++) {
    186             for (int j = 0; j < i; j++) {
    187               covGradients[k] += lCopy[i, j] * covarianceFunction.GetGradient(i, j, k);
    188             }
    189             covGradients[k] += 0.5 * lCopy[i, i] * covarianceFunction.GetGradient(i, i, k);
     199            // diag
     200            covGradients[k] += 0.5 * lCopy[i, i] * gDiag[k];
    190201          }
    191202        }
    192203      }
    193204
    194       return
     205      hyperparameterGradients =
    195206        meanGradients
    196207        .Concat(covGradients)
    197208        .Concat(new double[] { noiseGradient }).ToArray();
     209
    198210    }
    199211
     
    219231      int newN = newX.GetLength(0);
    220232      int n = x.GetLength(0);
    221       // var predMean = new double[newN];
    222       // predVar = new double[newN];
    223 
    224 
    225 
    226       // var kss = new double[newN];
    227233      var Ks = new double[newN, n];
    228       //double[,] sWKs = new double[n, newN];
    229       // double[,] v;
    230 
    231 
    232       // for stddev
    233       //covarianceFunction.SetParameter(covHyp, newX);
    234       //kss = covarianceFunction.GetDiagonalCovariances();
    235 
    236       covarianceFunction.SetData(x, newX);
    237234      meanFunction.SetData(newX);
    238235      var ms = meanFunction.GetMean(newX);
    239236      for (int i = 0; i < newN; i++) {
    240237        for (int j = 0; j < n; j++) {
    241           Ks[i, j] = covarianceFunction.GetCovariance(j, i);
    242           //sWKs[j, i] = Ks[i, j] / Math.Sqrt(sqrSigmaNoise);
    243         }
    244       }
    245 
    246       // for stddev
    247       // alglib.rmatrixsolvem(l, n, sWKs, newN, true, out info, out denseSolveRep, out v);
     238          Ks[i, j] = covarianceFunction.GetCrossCovariance(x, newX, j, i);
     239        }
     240      }
    248241
    249242      return Enumerable.Range(0, newN)
    250243        .Select(i => ms[i] + Util.ScalarProd(Util.GetRow(Ks, i), alpha));
    251       //for (int i = 0; i < newN; i++) {
    252       //  // predMean[i] = ms[i] + prod(GetRow(Ks, i), alpha);
    253       //  // var sumV2 = prod(GetCol(v, i), GetCol(v, i));
    254       //  // predVar[i] = kss[i] - sumV2;
    255       //}
    256 
    257244    }
    258245
     
    266253
    267254      // for stddev
    268       covarianceFunction.SetData(newX);
    269255      for (int i = 0; i < newN; i++)
    270         kss[i] = covarianceFunction.GetCovariance(i, i);
    271 
    272       covarianceFunction.SetData(x, newX);
     256        kss[i] = covarianceFunction.GetCovariance(newX, i, i);
     257
    273258      for (int i = 0; i < newN; i++) {
    274259        for (int j = 0; j < n; j++) {
    275           sWKs[j, i] = covarianceFunction.GetCovariance(j, i) / Math.Sqrt(sqrSigmaNoise);
     260          sWKs[j, i] = covarianceFunction.GetCrossCovariance(x, newX, j, i) / Math.Sqrt(sqrSigmaNoise);
    276261        }
    277262      }
    278263
    279264      // for stddev
    280       int info;
    281       alglib.densesolverreport denseSolveRep;
    282       double[,] v;
    283 
    284       alglib.rmatrixsolvem(l, n, sWKs, newN, false, out info, out denseSolveRep, out v);
     265      alglib.ablas.rmatrixlefttrsm(n, newN, l, 0, 0, false, false, 0, ref sWKs, 0, 0);
    285266
    286267      for (int i = 0; i < newN; i++) {
    287         var sumV = Util.ScalarProd(Util.GetCol(v, i), Util.GetCol(v, i));
     268        var sumV = Util.ScalarProd(Util.GetCol(sWKs, i), Util.GetCol(sWKs, i));
    288269        kss[i] -= sumV;
    289270        if (kss[i] < 0) kss[i] = 0;
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/GaussianProcessRegressionModelCreator.cs

    r8473 r8484  
    6565        ModelParameter.ActualValue = model;
    6666        NegativeLogLikelihoodParameter.ActualValue = new DoubleValue(model.NegativeLogLikelihood);
    67         HyperparameterGradientsParameter.ActualValue = new RealVector(model.GetHyperparameterGradients());
     67        HyperparameterGradientsParameter.ActualValue = new RealVector(model.HyperparameterGradients);
    6868        return base.Apply();
    6969      }
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/GaussianProcess/ICovarianceFunction.cs

    r8455 r8484  
    2020#endregion
    2121
     22using System.Collections.Generic;
    2223using HeuristicLab.Core;
    2324
     
    2627    int GetNumberOfParameters(int numberOfVariables);
    2728    void SetParameter(double[] hyp);
    28     void SetData(double[,] x);
    29     void SetData(double[,] x, double[,] xt);
     29    double GetCovariance(double[,] x, int i, int j);
     30    IEnumerable<double> GetGradient(double[,] x, int i, int j);
     31    double GetCrossCovariance(double[,] x, double[,] xt, int i, int j);
     32    //void SetData(double[,] x);
     33    //void SetData(double[,] x, double[,] xt);
    3034
    31     double GetCovariance(int i, int j);
    32     double GetGradient(int i, int j, int k);
     35    //double GetCovariance(int i, int j);
     36    //double GetGradient(int i, int j, int k);
    3337  }
    3438}
  • trunk/sources/HeuristicLab.Algorithms.DataAnalysis/3.4/Interfaces/IGaussianProcessModel.cs

    r8473 r8484  
    3131    IMeanFunction MeanFunction { get; }
    3232    ICovarianceFunction CovarianceFunction { get; }
    33     double[] GetHyperparameterGradients();
     33    double[] HyperparameterGradients { get; }
    3434
    3535    IEnumerable<double> GetEstimatedVariance(Dataset ds, IEnumerable<int> rows);
  • trunk/sources/HeuristicLab.Tests/HeuristicLab.Algorithms.DataAnalysis-3.4/GaussianProcessFunctionsTest.cs

    r8473 r8484  
    904904      var hyp = Enumerable.Repeat(hypValue, nHyp).ToArray();
    905905      cf.SetParameter(hyp);
    906       cf.SetData(x, xt);
    907906
    908907      int rows0 = x.GetLength(0);
     
    911910      for (int i = 0; i < rows0; i++)
    912911        for (int j = 0; j < rows1; j++)
    913           actualCov[i, j] = cf.GetCovariance(i, j);
     912          actualCov[i, j] = cf.GetCrossCovariance(x, xt, i, j);
    914913
    915914      AssertEqual(expectedCov, actualCov, delta);
     
    917916      for (int i = 0; i < rows0; i++)
    918917        for (int j = 0; j < rows1; j++) {
     918          var g = cf.GetGradient(x, i, j).ToArray();
    919919          for (int k = 0; k < nHyp; k++)
    920             Assert.AreEqual(expectedGradients[k][i, j], cf.GetGradient(i, j, k), delta);
     920            Assert.AreEqual(expectedGradients[k][i, j], g[k], delta);
    921921        }
    922922    }
  • trunk/sources/HeuristicLab.Tests/HeuristicLab.Algorithms.DataAnalysis-3.4/GaussianProcessModelTest.cs

    r8473 r8484  
    5555        Assert.AreEqual(4.3170e+004, model.NegativeLogLikelihood, 1);
    5656
    57         var dHyp = model.GetHyperparameterGradients();
     57        var dHyp = model.HyperparameterGradients;
    5858        Assert.AreEqual(-248.7932, dHyp[0], 1E-2);
    5959        var dHypCovExpected = new double[] { -0.5550e4, -5.5533e4, -0.2511e4, -2.7625e4, -1.3033e4, 0.0289e4, -2.7625e4 };
     
    7676        Assert.AreEqual(872.8448, model.NegativeLogLikelihood, 1e-3);
    7777
    78         var dHyp = model.GetHyperparameterGradients();
     78        var dHyp = model.HyperparameterGradients;
    7979        Assert.AreEqual(-0.0046, dHyp[0], 1e-3);
    8080        var dHypCovExpected = new double[] { 0.2652, -0.2386, 0.1706, -0.1744, 0.0000, 0.0000, -0.1744 };
Note: See TracChangeset for help on using the changeset viewer.