高斯過程簡介
首先解釋什麼是高斯過程,然後將貝葉斯回歸一般化到高斯過程回歸,比較容易理解。
高斯過程模型描述了函數的概率分布,更嚴格地說是函數實例的概率分布。對於函數 ,當以
作為輸入時,函數被實例化為
,簡單來說就是把
帶入到
中。有了一個函數的實例後,我們假設
服從均值為
,協方差為
的高斯分布,即:
。這個分布我們稱作(先驗)高斯過程,其中協方差矩陣
是由以
作為自變數的協方差函數決定的。協方差函數的一種形式為Squared Exponential(SE)或者Radius Basis Function(RBF),即
熟悉支持向量機的同學可以看出來,RBF的形式和高斯核函數的形式是一樣的。RBF協方差函數使相距較近的點有較高的協方差,相距較遠的點有較低的協方差。
說完了高斯過程的定義,看起來很玄幻,那麼它有什麼實際的應用呢?
現在我們回到貝葉斯回歸模型。在貝葉斯回歸中,我們有一組採樣的輸入值和它們對應的輸出 ,為了在下次得到採樣值時預測輸出,我們假設輸出與採樣值之間有如下關係
,方便起見這裡認為輸出是沒有噪音的。接下來是對參數
進行預測。認為參數是一個隨機變數,那麼在已知數據集
的情況下,參數
的分布為
其中 為數據集的似然,
為
的先驗分布。在得到參數
的條件分布之後,我們可以對所有可能的
進行積分,以得到輸入
的預測值
的概率:
那麼高斯過程和貝葉斯回歸有什麼關係呢?現在我們把貝葉斯回歸推廣到高斯過程回歸。在貝葉斯回歸中,我們把輸出和輸出的關係表示成 然後給參數
一個先驗分布。在高斯過程回歸中,我們不顯示的表達輸入與輸出的關係,而是認為
。這個函數的形式我們不知道,但是當有了一組觀測值
之後,先驗高斯過程給出了
的分布,這樣我們就可以利用貝葉斯回歸的思想對輸入值給出預測。假設我們現在有一組完整輸入輸出的觀測值
和僅有輸入
的採樣值,想要估計
個採樣點的輸出值,就可以用高斯過程回歸來進行預測。高斯過程可以給出
維函數
的聯合概率密度
,然後將聯合概率密度
除以已知的
就可以得到我們想要的預測值的條件概率密度
。在實際中,我們的觀測總是受到雜訊的影響,因此輸入和輸出的關係不是簡單地設為
而是加一個噪音項。不過加入噪音只會改變高斯過程回歸的數學形式,思想和上述方法是一樣的。
推薦閱讀:
※如何六個月內學會深度學習
※【最優化】無約束優化方法-阻尼牛頓法
※1-2 Welcome
※反向傳播演算法和梯度下降理解
※【翻譯】Brian2高級指導_狀態更新
TAG:機器學習 |
