應用於最佳化的牛頓法
牛頓法是微積分學中, 通過疊代以求解可微函式的零點的一種演算法 (即求使得). 而在最佳化中, 牛頓法通常被運用於求解一個二次可微函式的一階導數的零點 (即求使得), 同時也是的駐點. 因此從另一個角度而言,應用於最佳化的牛頓法是搜尋函式的最小值或最大值的一種演算法。
一維問題的牛頓法主要步驟如下:
取一個點為初值, 依如下公式疊代:
直至滿足一定條件 (如或, 其中為一個給定的足夠小的常數) 後, 演算法終止。
方法描述
編輯在一維問題中, 牛頓法將構造一個以 為首項, 收斂到 的數列 , 其中 使得 成立.
在 處的二階泰勒展開式 為:
我們希望找到 使 為 的一個駐點。則將上式對 進行求導:
上述方程式的解 滿足
收斂於 的駐點 .
幾何意義
編輯牛頓法的幾何意義為: 在每一次疊代中,均以一個二次函式去逼近 . 具體而言: 在一維問題中,已知 , , 及 , 設二次函式表逹式為 , 依下列方程式求解未知數
而在高維問題中, 上述的極值點也可以是鞍點. 值得一提的是, 如果 恰為一個二次函式, 則其極值點只需一次疊代中即可找到.
高維問題求解
編輯上述的一維問題的疊代法可以被推廣至多維問題. 只需將導數替換為梯度 ( ), 並將二階導數的倒數替換為Hessian矩陣的逆矩陣 ( ), 即:
通常, 使用牛頓法時會加入一個步長變數 作微調以使每一步疊代都滿足Wolfe條件, 即,
這個方法被稱為無約束牛頓法, 通常用於第一步之後的疊代.
只要牛頓法適用, 其收斂於最小值或最大值的速度均頗快於最速下降法. 事實上, 對於每一個極小值, 都存在一個鄰域 使得, 只要Hessian矩陣是可逆的且是一個關於 的Lipschitz連續函式, 以 為初值, 步長 的牛頓法是二次收斂的.
求一個高維問題的Hessian矩陣的逆矩陣是一件頗費工夫的事情. 在實際應用中, 通常會用向量 作為線性方程組
的解. 這個求解過程中, 透過使用各種矩陣分解方法同近似求解方法, 求解速度可以大大提升. 然而, 這些矩陣分解方法或近似求解方法的使用需要滿足一定條件; 例如, Cholesky分解同共軛梯度法只有在 是正定矩陣時才適用. 這看似是一個限制, 但有時也能充當檢定答案的工具; 例如, 在一個最小化問題 ( ) 中, 求出一個 使得 但 不是正定矩陣, 那麽 只是 的一個鞍點而非極小值點.
另一方面, 一個有約束的問題的求解過程可能會遇到當前解陷入一個鞍點的情況, 這時的Hessian矩陣是對稱不定的; 此時則要使用其他方法, 例如Cholesky分解的 變形或共軛梯度法等的方法, 來疊代得出 .
此外, 為規避求Hessian矩陣的繁瑣, 也存在多種擬牛頓法, 通過調整梯度以求出Hessian矩陣的近似.
如果Hessian矩陣 接近一個奇異矩陣, 則其逆矩陣會變得數值不穩定且疊代不會收斂. 此種情形下, 前人探索出了很多成功的方法來解決問題. 目標之一是通過引入修正矩陣 使得 是對稱正定的. 其中一種方法是將 對角化, 選擇 使 有相同的特徵向量, 但每一個 的負特徵值都被替換成
一個應用於萊文貝格-馬夸特方法 (其中用到了近似的Hessian矩陣) 的方法是引入一個帶係數的單位矩陣 , 係數在每一步疊代中調整. 對於較大的 及較小的Hessian矩陣, 疊代將變得與以 為步長的最速下降法相似, 這將使得疊代收斂變慢, 但在Hessian矩陣不定或半定的情況下, 收斂更穩定.
參閱
編輯參考文獻
編輯- Avriel, Mordecai. Nonlinear Programming: Analysis and Methods. Dover Publishing. 2003. ISBN 0-486-43227-0.
- Bonnans, J. Frédéric; Gilbert, J. Charles; Lemaréchal, Claude; Sagastizábal, Claudia A. Numerical optimization: Theoretical and practical aspects. Universitext Second revised ed. of translation of 1997 French. Berlin: Springer-Verlag. 2006: xiv+490 [2017-08-07]. ISBN 3-540-35445-X. MR 2265882. doi:10.1007/978-3-540-35447-5. (原始內容存檔於2013-07-19).
- Fletcher, Roger. Practical methods of optimization 2nd. New York: John Wiley & Sons. 1987. ISBN 978-0-471-91547-8.
- Nocedal, Jorge; Wright, Stephen J. Numerical Optimization. Springer-Verlag. 1999. ISBN 0-387-98793-2.
外部連結
編輯- Korenblum, Daniel. Newton-Raphson visualization (1D). Bl.ocks. Aug 29, 2015 [2017-08-07]. ffe9653768cb80dfc0da. (原始內容存檔於2014-07-14).