高斯过程
此條目可参照英語維基百科相應條目来扩充。 (2018年5月24日) |
在概率论和统计学中,高斯过程(英語:Gaussian process)是观测值出现在一个连续域(例如时间或空间)的随机过程。在高斯过程中,连续输入空间中每个点都是与一个正态分布的随机变量相关联。此外,这些随机变量的每个有限集合都有一个多元正态分布,换句话说他们的任意有限线性组合是一个正态分布。高斯过程的分布是所有那些(無限多个)随机变量的联合分布,正因如此,它是连续域(例如时间或空间)上函数的分布。
高斯過程被認為是一種機器學習算法,是以惰性學習方式,利用點與點之間同質性的度量作為核函數,以從輸入的訓練數據預測未知點的值。其預測結果不僅包含該點的值,而同時包含不確定性的資料-它的一維高斯分佈(即該點的邊際分佈)。[1][2]
對於某些核函數,可以使用矩陣代數(見克里金法條目)來計算預測值。若核函數有代數參數,則通常使用軟體以擬合高斯過程的模型。
由於高斯過程是基於高斯分佈(正態分佈)的概念,故其以卡爾·弗里德里希·高斯為名。可以把高斯過程看成多元正態分佈的無限維廣義延伸。
高斯過程常用於統計建模中,而使用高斯過程的模型可以得到高斯過程的屬性。举例来说,如果把一隨機過程用高斯過程建模,我们可以显示求出各種導出量的分布,这些导出量可以是例如隨機過程在一定範圍次數內的平均值,及使用小範圍採樣次數及採樣值進行平均值預測的誤差。
定義
编辑一統計學分佈定義為{Xt, t∈T}是一个高斯过程,当且仅当对下标集合T的任意有限子集t1,...,tk,
是一个多元正态分布,这等同于说 的任一线性组合是一单变量正態分佈。更準確地,取樣函數Xt 的任一線性泛函均會得出正態分佈。可以寫成X ~ GP(m,K),即隨機函數X 以高斯過程(GP)方式分佈,且其平均數函數為m 及其協方差函數為K。[3]當輸入向量t為二維或多維時,高斯過程亦可能被稱為高斯自由场(高斯場)。[4]
有些人[5] 假設隨機變量 Xt 平均為0;其可以在不失一般性的前提下簡化運算,且高斯過程的均方屬性可完全由協方差函數K得出。[6]
协方差函数
编辑高斯過程的關鍵事實是它們可以完全由它們的二階統計量來定義.[4]因此,如果高斯過程被假定為具有平均值零, defining 協方差函數完全定義了過程的行為。重要的是,這個函數的非負定性使得它的譜分解使用了 K-L轉換.
可以通過協方差函數定義的基本方面是過程的平穩過程, 各向同性, 光滑函數 和 週期函數。[7][8]
平穩過程指的是過程的任何兩點x和x'的分離行為。如果過程是靜止的,取決於它們的分離x-x',而如果非平穩則取決於x和x'的實際位置。例如,一個特例 Ornstein–Uhlenbeck 過程, 一個 布朗運動 過程,是固定的。
如果過程僅依賴於 ,x和x'之間的歐幾里德距離(不是方向),那麼這個過程被認為是各向同性的。同時存在靜止和各向同性的過程被認為是 同質與異質;[9]在實踐中,這些屬性反映了在給定觀察者位置的過程的行為中的差異(或者更確切地說,缺乏這些差異)。
最終高斯過程翻譯為功能先驗,這些先驗的平滑性可以由協方差函數引起。如果我們預期對於“接近”的輸入點x和x',其相應的輸出點y和y'也是“接近”,則存在連續性的假設。如果我們希望允許顯著的位移,那麼我們可以選擇一個更粗糙的協方差函數。行為的極端例子是Ornstein-Uhlenbeck協方差函數和前者不可微分和後者無限可微的平方指數。 週期性是指在過程的行為中引發週期性模式。形式上,這是通過將輸入x映射到二維向量 來實現的。
常見的协方差函數
编辑一些常見的协方差函數:[8]
- 常值:
- 線性:
- 高斯噪聲:
- 平方指數:
- Ornstein–Uhlenbeck :
- Matérn:
- 定期:
- 有理二次方:
相关
编辑註譯
编辑- ^ Platypus Innovation: A Simple Intro to Gaussian Processes (a great data modelling tool). [2016-11-02]. (原始内容存档于2018-05-01).
- ^ Chen, Zexun; Wang, Bo; Gorban, Alexander N. Multivariate Gaussian and Student-t process regression for multi-output prediction. Neural Computing and Applications. 2019-12-31. ISSN 0941-0643. doi:10.1007/s00521-019-04687-8 (英语).
- ^ Rasmussen, C. E. Gaussian Processes in Machine Learning. Advanced Lectures on Machine Learning. Lecture Notes in Computer Science 3176. 2004: 63–71. ISBN 978-3-540-23122-6. doi:10.1007/978-3-540-28650-9_4.
- ^ 4.0 4.1 Bishop, C.M. Pattern Recognition and Machine Learning. Springer. 2006. ISBN 0-387-31073-8.
- ^ Simon, Barry. Functional Integration and Quantum Physics. Academic Press. 1979.
- ^ Seeger, Matthias. Gaussian Processes for Machine Learning. International Journal of Neural Systems. 2004, 14 (2): 69–104. doi:10.1142/s0129065704001899.
- ^ Barber, David. Bayesian Reasoning and Machine Learning. Cambridge University Press. 2012 [2018-06-26]. ISBN 978-0-521-51814-7. (原始内容存档于2020-11-11).
- ^ 8.0 8.1 Rasmussen, C.E.; Williams, C.K.I. Gaussian Processes for Machine Learning. MIT Press. 2006 [2018-06-26]. ISBN 0-262-18253-X. (原始内容存档于2021-05-22).
- ^ Grimmett, Geoffrey; David Stirzaker. Probability and Random Processes. Oxford University Press. 2001. ISBN 0198572220.