高斯过程
此条目可参照英语维基百科相应条目来扩充。 (2018年5月24日) |
在概率论和统计学中,高斯过程(英语:Gaussian process)是观测值出现在一个连续域(例如时间或空间)的随机过程。在高斯过程中,连续输入空间中每个点都是与一个常态分布的随机变量相关联。此外,这些随机变量的每个有限集合都有一个多元常态分布,换句话说他们的任意有限线性组合是一个常态分布。高斯过程的分布是所有那些(无限多个)随机变量的联合分布,正因如此,它是连续域(例如时间或空间)上函数的分布。
高斯过程被认为是一种机器学习算法,是以惰性学习方式,利用点与点之间同质性的度量作为核函数,以从输入的训练数据预测未知点的值。其预测结果不仅包含该点的值,而同时包含不确定性的资料-它的一维高斯分布(即该点的边际分布)。[1][2]
对于某些核函数,可以使用矩阵代数(见克里金法条目)来计算预测值。若核函数有代数参数,则通常使用软件以拟合高斯过程的模型。
由于高斯过程是基于高斯分布(正态分布)的概念,故其以卡尔·弗里德里希·高斯为名。可以把高斯过程看成多元正态分布的无限维广义延伸。
高斯过程常用于统计建模中,而使用高斯过程的模型可以得到高斯过程的属性。举例来说,如果把一随机过程用高斯过程建模,我们可以显示求出各种导出量的分布,这些导出量可以是例如随机过程在一定范围次数内的平均值,及使用小范围采样次数及采样值进行平均值预测的误差。
定义
编辑一统计学分布定义为{Xt, t∈T}是一个高斯过程,当且仅当对下标集合T的任意有限子集t1,...,tk,
是一个多元常态分布,这等同于说 的任一线性组合是一单变量正态分布。更准确地,取样函数Xt 的任一线性泛函均会得出正态分布。可以写成X ~ GP(m,K),即随机函数X 以高斯过程(GP)方式分布,且其平均数函数为m 及其协方差函数为K。[3]当输入向量t为二维或多维时,高斯过程亦可能被称为高斯自由场(高斯场)。[4]
有些人[5] 假设随机变量 Xt 平均为0;其可以在不失一般性的前提下简化运算,且高斯过程的均方属性可完全由协方差函数K得出。[6]
协方差函数
编辑高斯过程的关键事实是它们可以完全由它们的二阶统计量来定义.[4]因此,如果高斯过程被假定为具有平均值零, defining 协方差函数完全定义了过程的行为。重要的是,这个函数的非负定性使得它的谱分解使用了 K-L转换.
可以通过协方差函数定义的基本方面是过程的平稳过程, 各向同性, 光滑函数 和 周期函数。[7][8]
平稳过程指的是过程的任何两点x和x'的分离行为。如果过程是静止的,取决于它们的分离x-x',而如果非平稳则取决于x和x'的实际位置。例如,一个特例 Ornstein–Uhlenbeck 过程, 一个 布朗运动 过程,是固定的。
如果过程仅依赖于 ,x和x'之间的欧几里德距离(不是方向),那么这个过程被认为是各向同性的。同时存在静止和各向同性的过程被认为是 同质与异质;[9]在实践中,这些属性反映了在给定观察者位置的过程的行为中的差异(或者更确切地说,缺乏这些差异)。
最终高斯过程翻译为功能先验,这些先验的平滑性可以由协方差函数引起。如果我们预期对于“接近”的输入点x和x',其相应的输出点y和y'也是“接近”,则存在连续性的假设。如果我们希望允许显著的位移,那么我们可以选择一个更粗糙的协方差函数。行为的极端例子是Ornstein-Uhlenbeck协方差函数和前者不可微分和后者无限可微的平方指数。 周期性是指在过程的行为中引发周期性模式。形式上,这是通过将输入x映射到二维向量 来实现的。
常见的协方差函数
编辑一些常见的协方差函数:[8]
- 常值:
- 线性:
- 高斯噪声:
- 平方指数:
- Ornstein–Uhlenbeck :
- Matérn:
- 定期:
- 有理二次方:
相关
编辑注译
编辑- ^ Platypus Innovation: A Simple Intro to Gaussian Processes (a great data modelling tool). [2016-11-02]. (原始内容存档于2018-05-01).
- ^ Chen, Zexun; Wang, Bo; Gorban, Alexander N. Multivariate Gaussian and Student-t process regression for multi-output prediction. Neural Computing and Applications. 2019-12-31. ISSN 0941-0643. doi:10.1007/s00521-019-04687-8 (英语).
- ^ Rasmussen, C. E. Gaussian Processes in Machine Learning. Advanced Lectures on Machine Learning. Lecture Notes in Computer Science 3176. 2004: 63–71. ISBN 978-3-540-23122-6. doi:10.1007/978-3-540-28650-9_4.
- ^ 4.0 4.1 Bishop, C.M. Pattern Recognition and Machine Learning. Springer. 2006. ISBN 0-387-31073-8.
- ^ Simon, Barry. Functional Integration and Quantum Physics. Academic Press. 1979.
- ^ Seeger, Matthias. Gaussian Processes for Machine Learning. International Journal of Neural Systems. 2004, 14 (2): 69–104. doi:10.1142/s0129065704001899.
- ^ Barber, David. Bayesian Reasoning and Machine Learning. Cambridge University Press. 2012 [2018-06-26]. ISBN 978-0-521-51814-7. (原始内容存档于2020-11-11).
- ^ 8.0 8.1 Rasmussen, C.E.; Williams, C.K.I. Gaussian Processes for Machine Learning. MIT Press. 2006 [2018-06-26]. ISBN 0-262-18253-X. (原始内容存档于2021-05-22).
- ^ Grimmett, Geoffrey; David Stirzaker. Probability and Random Processes. Oxford University Press. 2001. ISBN 0198572220.