非線性降維也稱作流形學習,為各種相關技術中的一種,是將高維數據投射到低維潛流形上,目的是在低維空間中實現數據可視化,或學習映射(高維到低維嵌入或反之)本身。[1][2]下面介紹的技術可理解概括用於降維的線性分解法(如奇異值分解主成分分析)。

非線性降維
上級分類機器學習、​降維 編輯
左上:由螺旋帶(又稱瑞士卷)中的1000個點組成的3維數據集,中間有矩形孔。右上:用於生成3維數據集的原始2維數據集。左下和右下:分別使用模塊化數據處理(Modular Data Processing)工具箱實現的LLE(鄰近線性嵌入)和黑塞LLE,對流形進行的2維復原。

非線性降維的應用

編輯

考慮以矩陣(或數據庫)表示的數據集,其中每行都代表描述某物特定實例的一組屬性(或特徵)。如果屬性的數量很大,那麼可行行空間的增長速度是指數級的(例如有 個屬性,每個屬性均具有 種可能的選擇,則所有可能的屬性為 )。維度越大,對空間進行採樣就越困難。這導致了處理高維數據的算法時間複雜性非常高。許多機器學習算法在處理高維數據時很吃力,而將數據縮降維會使算法更有效率,並能幫助機器學習算法做出更準確的預測。

人類往往難以理解高維數據。因此將數據減進行降維對於可視化非常有用。

 
使用非線性降維算法(Manifold Sculpting)產生的二維(縮放和旋轉)散點圖。

數據的降維表示通常被稱為「內蘊變量」(intrinsic variable),即它們是數據產生的價值。例如,考慮一個包含字母「A」經過縮放和旋轉的圖像的數據集,每張圖片有32×32像素,可以表示為長度為1024的向量;每行都是1024維的空間(漢明空間英語Hamming_space)中,二維流形上的一個樣本。由於數據僅通過縮放和旋轉得到,所以內蘊維度是2;而字母「A」的形狀或外觀則不是內蘊變量(因為數據集中所有元素該特徵均相同)。非線性降維將拋棄相關信息(字母「A」),只保留變化的信息(縮放和旋轉)。右圖展示了該數據集的部分樣本,及通過使用非線性降維算法(Manifold Sculpting)將數據降到二維的結果散點圖。

 
使用線性降維算法PCA產生的二維散點圖,數據分佈並不那麼有條理

作為對比,右圖使用線性降維算法PCA(主成分分析),將同樣的數據集降為二維,可以發現結果並沒有採用非線性降維算法好。這表明從該流形上採樣得到的高維向量以一種非線性的方式變化。

非線性降維在計算機視覺領域有所應用。例如一個使用相機在封閉的靜態環境中導航的機械人,相機得到的圖像可以視為從高維空間流形採樣得到的樣本,流形的內蘊變量代表機械人的位置和朝向。

不變流形動力系統中的模型降階具有普遍意義。特別是,若相空間中存在吸引不變流形,附近的軌跡便會匯聚其上並停留,使其稱為動力系統降維的候選流形。一般情形下不能保證存在這樣的流形,不過譜子流形理論給出了一大類動力系統中存在唯一吸引不變對象的條件。[3]非線性降維的積極研究旨在展開與動力系統相關的觀測流形,以開發建模技術。[4]

下面列舉了一些非線性降維技巧。

重要概念

編輯

薩蒙映射

編輯

薩蒙映射英語Sammon mapping是最早也是最流行的非線性降維技術之一。

 
1維SOM的主曲線近似圖(紅色方格折線,20個節點)。第一主成分表為藍色直線。數據點為灰色圓圈。對PCA,此例中的未解釋方差比是23.23%,而SOM則是6.86%。[5]

自組織映射

編輯

自組織映射(SOM,也稱作科赫寧映射,Kohonen map)及其概率變體生成拓撲圖(GTM)使用嵌入空間中的點表示,根據從嵌入空間到高位空間的非線性映射形成潛變量模型[6]這些技術與同樣基於概率模型的密度網絡相關。

核主成分分析

編輯

核主成分分析可能是應用最廣泛的降維算法。[7]PCA首先要計算 矩陣 的協方差矩陣

 

然後將數據投影到矩陣的前k個特徵向量上。相比之下,KPCA首先計算數據轉換到高維空間後的協方差矩陣

 

然後將變換後的數據投影到矩陣的前k個特徵向量上,這一步與PCA相同。它用核技巧將大部分計算分解,這樣整個過程就可在不實際計算 的情況下完成。當然 必須選擇已知的對應核,不幸的是為已知問題找到好的核並不容易,因此KPCA用標準核時對某些問題的處理並不理想。例如,在瑞士卷流形上便表現不佳。不過,可構造與數據相關的核矩陣,將某些在此類環境中表現良好的其他方案(如拉普拉斯特徵映射、LLE)視作核PCA的特例。[8] KPCA有內部模型,因此可用於將訓練時未見的點映射到其嵌入上。

主曲線與流形

編輯
 
主曲線的應用:生活質量指數。[9]點代表聯合國171個國家在4維空間中的數據,由4項指標構成:人均GDP、預期壽命嬰兒死亡率結核病發病率。不同樣式與顏色對應不同的地理位置。紅色粗線是主曲線(principal curve),與數據集近似,用彈性映射法繪製。[10]

主曲線與流形給出了非線性降維的自然幾何框架,並通過明確構建嵌入流形、使用流形上的標準幾何投影進行編碼,推廣了PCA的幾何解釋。這種方法最早由Trevor Hastie (1984)提出,[11]在1989年正式引入了這一方法。[12]許多學者對這一想法進行了進一步探索。[13] 如何定義流形的「簡單性」取決於具體問題,常用流形的內蘊維度和/或光滑度來衡量。通常主流形定義為優化問題的解,目標函數如數據近似的質量和流形彎曲的一些懲罰項。常用的初始近似值由線性PCA和Kohonen SOM生成。

拉普拉斯特徵映射

編輯

拉普拉斯特徵映射用譜技術降維。[14]這種技術依賴於一個基本假設:數據位於高維空間的低維流形之中。[15]這種算法無法嵌入樣本外的點,但基於再生核希爾伯特空間正則化的技術可以增加這種能力。[16]這種技術也可用於其他非線性降維算法。

主成分分析等傳統技術不考慮數據的內蘊幾何。拉普拉斯特徵映射根據數據集的鄰域信息構造了圖,數據點是圖中的節點,連通性取決於鄰點的距離(如用k鄰近算法),生成的圖可視作低維流形在高位空間中的離散近似。基於圖的代價函數最小化確保流形上相近的點映射到低維空間也相近,從而保留了局部距離。流形上拉普拉斯-貝爾特拉米算子的特徵函數可作為嵌入維度,因為在溫和的條件下算子具有可數譜,是流形上平方可積函數的基礎(與單位圓流形上的傅立葉級數比較)。拉普拉斯特徵映射的理論化取得了部分成功,因為在某些非限制性假設下,隨着點數趨向無窮多,已經證明圖拉普拉斯矩陣收斂到拉普拉斯-貝爾特拉米算子。[15]

等距特徵映射

編輯

等距特徵映射[17]Floyd-Warshall算法與經典多維標度(MDS)的結合。經典MDS採用所有點之間的成對距離矩陣,計算每個點的位置;等距特徵映射假設只知道相鄰點之間的成對距離,並用Floyd–Warshall算法計算其他點的距離,這樣就能有效估算出所有點之間的成對測地距離矩陣。然後等距特徵映射用經典MDS計算所有點的降維位置。地標等距特徵映射是這種算法的變體,用地標提高計算速度,但會犧牲一定精度。

流形學習中,輸入數據被假定是從嵌入高維向量空間的低維流形中採樣的。MVU背後的主要原理是利用流形的局部線性,在底流形的每點創建保留局部鄰域的映射。

局部線性嵌入

編輯

局部線性嵌入(LLE)與等距特徵映射大約同時問世。[18]與等距特徵映射相比,LLE有幾個優點,如利用係數矩陣算法時優化速度更快、很多問題上的結果更好等等。LLE也始於尋找每個點的最近鄰點,接着為每個點計算一組權重,其能將點描述為鄰點的線性組合。最後用基於特徵向量的優化技術,求得點的低維嵌入,這樣每個點仍用鄰點的相同線性組合描述。LLE處理非均勻樣本密度時往往效果不佳,因為沒有固定單位防止權重漂移。LLE沒有內蘊模型。

LLE根據點 的鄰域計算其重心坐標。原始點由鄰點的權重矩陣 給出的線性組合構建,誤差表為成本函數 

 

權重  點在構建 時的貢獻量。成本函數的最小化有兩條約束: (a) 數據點 只從其鄰點構建,因此若點 不是 的鄰點,則 必為0; (b) 權重矩陣每行之和都為1。

 

原數據點是D維空間中收集的,算法的目標是將維度降低到d使 。在D維空間構建第i個數據點的權重 將用於在d維空間中構建同一點。基於這種想法,我們創建了一個保鄰域映射:D維空間中的每點 都映射到d維空間中的某點 ,並使成本函數最小化:

 

這個成本函數中,權重 是固定的,最小化在 上進行以優化坐標。此最小化問題可由求解稀疏N特徵值問題N為數據點數量)解決,其底部d個非零特徵向量提供了坐標的一組正交集。一般來說,數據點是根據歐氏距離測量的K個最近鄰點構建的,這時算法只有一個自由參數K,可通過交叉驗證來選擇。

黑塞局部線性嵌入(Hesian LLE)

編輯

黑塞LLE也是基於稀疏矩陣技術,[19]結果質量往往比LLE高得多。遺憾的是,其計算複雜度非常高,不適合樣本數較多的流形。黑塞LLE沒有內蘊模型。

改進局部線性嵌入(MLLE)

編輯

改進局部線性嵌入(MLLE)[20]是另一種LLE變體,在每個鄰域用多重權重解決權重矩陣的局部調節。大致說,多重權重是原LLE權重的局部正交投影。MLLE的創造者也是局部切空間對齊(LTSA)的作者,認識到每個權重向量的正交投影的全局優化本質上是對齊每個數據點的局部切空間時,LTSA就蘊含於MLLE的表述中。正確應用此算法的理論與經驗意義深遠。[21]

局部切空間對齊

編輯

局部切空間對齊(LTSA)[22]是基於這樣一種直覺:流形正確展開時,所有切超平面都會對齊。它首先計算每個點的k個最近鄰域。通過計算每個局部鄰域中的前d個主成分,獲得每個點的切空間。然後進行優化,找到能使切空間對齊的嵌入。

最大方差展開

編輯

最大方差展開、等距特徵映射、LLE有共同的直覺:若流形被適當展開,則各點的方差會最大化。第一步是找到每個點的最近鄰點;然後最大化所有非鄰點間距離,約束是鄰點間距不變。此算法的主要貢獻在於將問題轉化為半定規劃問題。然而,半定規劃求解器的計算成本很高。與LLE類似,最大方差展開沒有內蘊模型。

自編碼器

編輯

自編碼器是一個前饋神經網絡,其訓練目標為恆等映射,即從向量映射到同一個向量。用於降維時,其部分隱藏層只包含少量神經元。此時,網絡必須學會用較少的維度編碼向量,並同時能將將其解碼。因此,網絡的前半部分(編碼器,Encoder)從高維空間映射到低維空間,後半部分(解碼器,Decoder)從低維空間映射到高維空間。自編碼器的概念由來已久,[23]不過深度自編碼器的訓練到最近才由受限玻爾茲曼機和堆疊降噪自編碼器成為可能。與自編碼器相關的是NeuroScale算法,其使用多維標度薩蒙映射學習高維空間到嵌入空間的非線性映射。mappings in NeuroScale中的映射基於徑向基函數網絡

高斯過程潛變量模型

編輯

高斯過程潛變量模型(GPLVM)[24]是一種概率降維方法,用高斯過程(GPs)求高維數據的低維非線性嵌入,是PCA概率公式的推廣。模型以概率方式定義,並將潛變量邊緣化(marginalize),用最大似然法獲得參數。與核PCA類似,用核函數形成非線性映射(高斯過程形式)。不過,GPLVM中,映射是從嵌入(潛)空間到數據空間(如密度網絡與GTM),而在核PCA中,映射方向正好相反。它最初是為高維空間的可視化提出的,但已被推廣為構造兩觀測空間中間的共享流形模型。GPLVM及其許多變體都是專為人類運動建模而提出的,如後約束GPLVM、GP動態模型(GPDM)、平衡GPDM(B-GPDM)、拓撲約束GPDM等等。為在步態分析中捕捉姿態與步態流形的耦合效應,提出了多層步態-姿態聯合流形。[25]

t分佈隨機鄰域嵌入

編輯

t分佈隨機鄰域嵌入(t-SNE)[26]被廣泛應用。它是一種隨機鄰域嵌入法,計算高位空間中數據點對相關的概率,然後選擇產生相似分佈的低維嵌入。

其他算法

編輯

關係透視映射

編輯

關係透視映射是一種多維標度算法。算法通過模擬閉流形上的多粒子動態系統,在流形上找到數據點的構型,其中數據點被映射為粒子,間距(或差異)表為排斥力。隨着流形逐漸增大,多粒子系統逐漸冷卻,收斂到反映數據點距離信息的構型。

關係透視映射的靈感來自物理模型,當中帶正電的粒子在球表面自由移動。在庫侖力的引導下,粒子的最小能量構型將反映粒子間斥力的強度。

關係透視映射是1976年提出的。[27] 算法最初用平面環面作為像流形,後來VisuMap軟件中進行了擴展,使用球面射影空間克萊因瓶等其他閉流形作為像流形。

傳播圖

編輯

傳播圖使用網絡上的多個傳播源,將節點映射為點雲。[28]全局級聯模型中,傳播速度可通過閾值參數 進行調整。對 ,傳播圖等同於等距特徵映射算法。

曲線成分分析

編輯

曲線成分分析(CCA)在輸出空間中尋找點的構型,儘可能保留原始距離,並關注輸出空間中的小距離(與薩蒙映射相反,後者關注原空間的小距離)[29]

注意CCA作為一種迭代學習算法,實際上是先關注大距離(與薩蒙映射類似),逐漸轉向小距離。若要在兩者間做出妥協,小距離信息將覆蓋大距離信息。

CCA的壓力函數與右Bregman散度之和有關。[30]

曲線距離分析

編輯

CDA[29]訓練一個自組織神經網絡來擬合流形,並力求在其嵌入中保留測地距離。它基於曲線成分分析(推廣了薩蒙映射),但使用測地距離。

微分同胚降維

編輯

微分同胚降維或Diffeomap[31]學習光滑的微分同胚映射,將數據轉移到低維線性子空間。此方法求解光滑的時間索引向量場,這樣以數據點為起點的向量場流將以低維線性子空間為終點,從而試圖在正、逆映射下保留逐對差。

流形對齊

編輯

流形對齊利用的假設是:相似過程產生的數據集將共享相似的底流形表示。學習從原空間到共享流形的投影,可以恢復對應關係,並可將知識在領域間轉移。大多數流形對齊技術只考慮兩個數據集,不過遮蓋奶奶可推廣到任意多的初數據集。[32]

擴散映射

編輯

擴散映射利用熱擴散隨機遊走馬爾可夫鏈)之間的關係;流形上的擴散算子類似於對圖上的函數進行操作的馬爾可夫轉移矩陣,圖的節點從流形中採樣而來。[33]具體說,將數據集表為 。擴散映射的基本假設是高維數據位於 維流形上。令X表示數據集, 表示X上的數據點分佈,定義代表X中點的某種相似性(affinity)。核 具有如下性質[34]

 

k對稱

 

k是保正的

因此可將單個數據點視作圖的節點,核k則定義了圖上的某種親和性(affinity)。由於核對稱,圖在構造上也是對稱的。從這裏不難看出,通過元組 可以構造可逆馬爾可夫鏈。這種技術在很多領域都有應用,稱作圖拉普拉斯(graph Laplacian)。

例如,圖 可由高斯核構造。

 

上式中, 表示  的最近鄰點。更嚴謹地說,測地距離應用來實際測量流形上的距離。由於不能獲得流形的精確結構,對於最近鄰點,測地距可用歐氏距離近似表示。 的選擇可以調節相鄰的概念:若 ,則 ;若 ,則 。前者意味着幾乎沒有發生擴散,後者則意味着擴散基本完成。選擇 的不同策略可參看[35]

要忠實表示馬爾可夫矩陣,K必須被相應的度數矩陣D歸一化:

 

現在P表示馬爾可夫鏈。 是在一個時間步內從 轉移到 的概率。同樣,在t時間步內從 轉移到 的概率表為 ,其中 是矩陣Pt次冪。

馬爾可夫矩陣P構成了數據集X的某種局部集合概念。擴散映射與主成分分析的主要區別在於,前者只考慮數據的局部特徵,而不考慮整個數據集的相關性。

K定義了數據集上的隨機遊走,這是說核捕捉到了數據集的某些局部幾何特徵。馬爾可夫鏈定義了通過核值傳播的快慢方向:遊走在時間上向前傳播時,局部幾何信息會以與動力系統的局部變換(由微分方程定義)相同的方式聚集起來。[34]擴散的隱喻來自族擴散距離 

 

對固定的t值, 根據路徑連通性定義了數據集中任意兩點的距離:xy間相連的路徑越多, 值就越小,反之亦然。由於 的量設計長度為t的所有路徑綜合,因此 比測地距更能抵禦噪聲。 在計算距離時考慮xy點之間的所有關係,是比歐氏距離、甚至測地距離更好的鄰近度概念。

局部多維標度

編輯

局部多維標度在局部進行多維標度,再用凸優化將所有小塊拼接在一起。[36]

非線性PCA

編輯

非線性PCA(NLPCA)用反向傳播算法訓練多層感知機(MLP),使其與流形相匹配。[37]不同於只更新權重的典型MLP,NLPCA同時會更新權重和輸入:權重和輸入都被視作潛值。訓練後,潛輸入是觀測向量的低維表示,MLP從低維表示映射到高維觀測空間。

數據驅動的高維縮放

編輯

數據驅動的高維縮放(DD-HDS)[38]薩蒙映射與曲線成分分析密切相關,不同之處在於:(1) DD-HDS會關注原空間與輸出空間中的小距離,同時懲罰假鄰域與撕裂;(2) DD-HDS通過距離分佈調整權函數,以考慮度量集中現象。

流形雕刻

編輯

流形雕刻(manifold sculpting)[39]分級優化尋找嵌入。與其他算法類似,它也會計算k個最近鄰點,並試圖求出能保留局部鄰域關係的嵌入。流形雕刻可以緩慢地將方差從高維縮放出來,同時調整低維的點,以保留其關係。若縮放率很小,則就能找到很精確的嵌入。流形雕刻與其他算法相比,在解決部分問題時表現出更高的經驗精度,還可完善其他流形學習算法的結果。不過,除非哦用非常慢的縮放速率,否則展開某些流形時會非常吃力。流形雕刻沒有內蘊模型。

RankVisu

編輯

RankVisu[40]設計的目的是保留鄰域的秩,而非距離,因此特別適用於對保距困難的任務。事實上,鄰域秩的信息量比距離小(秩可從距離中推導出來,反之則不行),因此保留鄰域秩是更容易的。

拓撲約束等距嵌入

編輯

拓撲約束等距嵌(TCIE)[41]是一種基於濾去與歐氏度量不一致的測地線後近似測地距的算法。TCIE用加權最小二乘MDS獲得更精確的映射,只在糾正等距特徵映射用於非凸數據時產生的扭曲。TCIE算法首先檢測數據中可能存在的邊界點,並在計算測地距時標出不一致的測地線,以便在之後的加權壓力最大化中基於較小的權重。

均勻流形近似與投影

編輯

均勻流形近似與投影(UMAP)[42]從外觀上看與t-SNE很像,但它嘉定數據均勻分佈在局部連通黎曼流形上,且黎曼度量是局部常或近似局部常的。[43]

基於近似矩陣的方法

編輯

基於近似矩陣的方法是指數據以相似性矩陣距離矩陣的形式呈現給算法。這些方法都屬於度量多維縮放(metric multidimensional scaling),主要差別在於如何計算近似,如等距特徵映射局部線性嵌入最大方差展開薩蒙映射(實際上不是映射)等等,都屬於度量多維縮放。

另見

編輯

引用

編輯
  1. ^ Lawrence, Neil D. A unifying probabilistic perspective for spectral dimensionality reduction: insights and new models. Journal of Machine Learning Research. 2012, 13 (May): 1609–38. Bibcode:2010arXiv1010.4830L. arXiv:1010.4830 . 
  2. ^ Lee, John A.; Verleysen, Michel. Nonlinear Dimensionality Reduction. Springer. 2007. ISBN 978-0-387-39350-6. 
  3. ^ Haller, George; Ponsioen, Sten. Nonlinear normal modes and spectral submanifolds: Existence, uniqueness and use in model reduction. Nonlinear Dynamics. 2016, 86 (3): 1493–1534. S2CID 44074026. arXiv:1602.00560 . doi:10.1007/s11071-016-2974-z. 
  4. ^ Gashler, M.; Martinez, T. Temporal Nonlinear Dimensionality Reduction (PDF). Proceedings of the International Joint Conference on Neural Networks IJCNN'11: 1959–66. 2011. 
  5. ^ The illustration is prepared using free software: Mirkes, E.M. Principal Component Analysis and Self-Organizing Maps: applet. University of Leicester. 2011. 
  6. ^ Yin, Hujun. 3. Learning Nonlinear Principal Manifolds by Self-Organising Maps. Gorban, A.N.; Kégl, B.; Wunsch, D.C.; Zinovyev, A. (編). Principal Manifolds for Data Visualization and Dimension Reduction. Lecture Notes in Computer Science and Engineering 58. Springer. 2007: 68–95. ISBN 978-3-540-73749-0. 
  7. ^ Schölkopf, B.; Smola, A.; Müller, K.-R. Nonlinear Component Analysis as a Kernel Eigenvalue Problem. Neural Computation (MIT Press). 1998, 10 (5): 1299–1319. S2CID 6674407. doi:10.1162/089976698300017467. 
  8. ^ Ham, Jihun; Lee, Daniel D.; Mika, Sebastian; Schölkopf, Bernhard. A kernel view of the dimensionality reduction of manifolds. Proceedings of the 21st International Conference on Machine Learning, Banff, Canada, 2004. doi:10.1145/1015330.1015417. 
  9. ^ Gorban, A. N.; Zinovyev, A. Principal manifolds and graphs in practice: from molecular biology to dynamical systems. International Journal of Neural Systems. 2010, 20 (3): 219–232. PMID 20556849. S2CID 2170982. arXiv:1001.1122 . doi:10.1142/S0129065710002383. 
  10. ^ A. Zinovyev, ViDaExpert - Multidimensional Data Visualization Tool Institut Curie, Paris.
  11. ^ Hastie, T. Principal Curves and Surfaces (PDF) (學位論文). Stanford Linear Accelerator Center, Stanford University. November 1984. (原始內容存檔 (PDF)於2019-08-02). 
  12. ^ Hastie, T.; Stuetzle, W. Principal Curves (PDF). Journal of the American Statistical Association. June 1989, 84 (406): 502–6. doi:10.1080/01621459.1989.10478797. 
  13. ^ Gorban, A. N.; Kégl, B.; Wunsch, D. C.; Zinovyev, A. (編). Principal Manifolds for Data Visualisation and Dimension Reduction. Lecture Notes in Computer Science and Engineering (LNCSE) 58. Springer. 2007. ISBN 978-3-540-73749-0. 
  14. ^ Belkin, Mikhail; Niyogi, Partha. Laplacian Eigenmaps and Spectral Techniques for Embedding and Clustering (PDF). Advances in Neural Information Processing Systems (MIT Press). 2001, 14: 586–691. ISBN 0-262-27173-7. OCLC 52710683. 
  15. ^ 15.0 15.1 Belkin, Mikhail. Problems of Learning on Manifolds (學位論文). Department of Mathematics, The University of Chicago. August 2003.  Matlab code for Laplacian Eigenmaps can be found in algorithms at Ohio-state.edu
  16. ^ Bengio, Yoshua; Paiement, Jean-Francois; Vincent, Pascal; Delalleau, Olivier; Le Roux, Nicolas; Ouimet, Marie. Out-of-Sample Extensions for LLE, Isomap, MDS, Eigenmaps, and Spectral Clustering (PDF). Advances in Neural Information Processing Systems 16. MIT Press. 2004. ISBN 0-262-20152-6. 
  17. ^ Tenenbaum, J B.; de Silva, V.; Langford, J.C. A Global Geometric Framework for Nonlinear Dimensionality Reduction (PDF). Science. 2000, 290 (5500): 2319–23. Bibcode:2000Sci...290.2319T. PMID 11125149. S2CID 221338160. doi:10.1126/science.290.5500.2319. 
  18. ^ Roweis, S. T.; Saul, L. K. Nonlinear Dimensionality Reduction by Locally Linear Embedding. Science. 2000, 290 (5500): 2323–6. Bibcode:2000Sci...290.2323R. PMID 11125150. S2CID 5987139. doi:10.1126/science.290.5500.2323. 
  19. ^ Donoho, D.; Grimes, C. Hessian eigenmaps: Locally linear embedding techniques for high-dimensional data. Proc Natl Acad Sci U S A. 2003, 100 (10): 5591–6. Bibcode:2003PNAS..100.5591D. PMC 156245 . PMID 16576753. doi:10.1073/pnas.1031596100 . 
  20. ^ Zhang, Z.; Wang, J. MLLE: Modified Locally Linear Embedding Using Multiple Weights. NIPS'06: Proceedings of the 19th International Conference on Neural Information Processing Systems. 2006: 1593–1600. 
  21. ^ Sidhu, Gagan. Locally Linear Embedding and fMRI feature selection in psychiatric classification. IEEE Journal of Translational Engineering in Health and Medicine. 2019, 7: 1–11. PMC 6726465 . PMID 31497410. S2CID 201832756. arXiv:1908.06319 . doi:10.1109/JTEHM.2019.2936348. 
  22. ^ Zhang, Zhenyue; Hongyuan Zha. Principal Manifolds and Nonlinear Dimension Reduction via Local Tangent Space Alignment. SIAM Journal on Scientific Computing. 2005, 26 (1): 313–338. CiteSeerX 10.1.1.211.9957 . doi:10.1137/s1064827502419154. 
  23. ^ DeMers, D.; Cottrell, G.W. Non-linear dimensionality reduction. Advances in neural information processing systems 5. 1993: 580–7. ISBN 1558600159. OCLC 928936290. 
  24. ^ Lawrence, N. Probabilistic Non-linear Principal Component Analysis with Gaussian Process Latent Variable Models. Journal of Machine Learning Research. 2005, 6: 1783–1816. 
  25. ^ Ding, M.; Fan, G. Multilayer Joint Gait-Pose Manifolds for Human Gait Motion Modeling. IEEE Transactions on Cybernetics. 2015, 45 (11): 2413–24. PMID 25532201. S2CID 15591304. doi:10.1109/TCYB.2014.2373393. 
  26. ^ van der Maaten, L.J.P.; Hinton, G.E. Visualizing High-Dimensional Data Using t-SNE (PDF). Journal of Machine Learning Research. 2008, 9: 2579–2605. 
  27. ^ Li, James X. Visualizing high-dimensional data with relational perspective map (PDF). Information Visualization. 2004, 3: 49–59. S2CID 7566939. doi:10.1057/palgrave.ivs.9500051. 
  28. ^ Taylor, D.; Klimm, F.; Harrington, H. A.; Kramár, M.; Mischaikow, K.; Porter, M. A.; Mucha, P. J. Topological data analysis of contagion maps for examining spreading processes on networks. Nature Communications. 2015, 6: 7723. Bibcode:2015NatCo...6.7723T. PMC 4566922 . PMID 26194875. arXiv:1408.1168 . doi:10.1038/ncomms8723. 
  29. ^ 29.0 29.1 Demartines, P.; Hérault, J. Curvilinear Component Analysis: A Self-Organizing Neural Network for Nonlinear Mapping of Data Sets (PDF). IEEE Transactions on Neural Networks. 1997, 8 (1): 148–154. PMID 18255618. doi:10.1109/72.554199. 
  30. ^ Sun, Jigang; Crowe, Malcolm; Fyfe, Colin. Curvilinear component analysis and Bregman divergences (PDF). European Symposium on Artificial Neural Networks (Esann). d-side publications. 2010: 81–86. 
  31. ^ Walder, Christian; Schölkopf, Bernhard. Diffeomorphic Dimensionality Reduction (PDF). Advances in Neural Information Processing Systems 22. MIT Press. 2009: 1713–20. 
  32. ^ Wang, Chang; Mahadevan, Sridhar. Manifold Alignment using Procrustes Analysis (PDF). The 25th International Conference on Machine Learning: 1120–7. July 2008. 
  33. ^ Lafon, Stephane. Diffusion Maps and Geometric Harmonics (學位論文). Yale University. May 2004. 
  34. ^ 34.0 34.1 Coifman, Ronald R.; Lafon, Stephane. Diffusion Maps (PDF). Applied and Computational Harmonic Analysis. July 2006, 21 (1): 5–30. S2CID 17160669. doi:10.1016/j.acha.2006.04.006. 
  35. ^ Bah, B. Diffusion Maps: Applications and Analysis (學位論文). University of Oxford. 2008. 
  36. ^ Venna, J.; Kaski, S. Local multidimensional scaling. Neural Networks. 2006, 19 (6–7): 889–899. PMID 16787737. doi:10.1016/j.neunet.2006.05.014. 
  37. ^ Scholz, M.; Kaplan, F.; Guy, C. L.; Kopka, J.; Selbig, J. Non-linear PCA: a missing data approach. Bioinformatics (Oxford University Press). 2005, 21 (20): 3887–95. PMID 16109748. doi:10.1093/bioinformatics/bti634 . hdl:11858/00-001M-0000-0014-2B1F-2 . 
  38. ^ S. Lespinats, M. Verleysen, A. Giron, B. Fertil, DD-HDS: a tool for visualization and exploration of high-dimensional data, IEEE Transactions on Neural Networks 18 (5) (2007) 1265–1279.
  39. ^ Gashler, M. and Ventura, D. and Martinez, T., Iterative Non-linear Dimensionality Reduction with Manifold Sculpting, In Platt, J.C. and Koller, D. and Singer, Y. and Roweis, S., editor, Advances in Neural Information Processing Systems 20, pp. 513–520, MIT Press, Cambridge, MA, 2008
  40. ^ Lespinats S., Fertil B., Villemain P. and Herault J., Rankvisu: Mapping from the neighbourhood network, Neurocomputing, vol. 72 (13–15), pp. 2964–2978, 2009.
  41. ^ Rosman, G.; Bronstein, M.M.; Bronstein, A.M.; Kimmel, R. Nonlinear Dimensionality Reduction by Topologically Constrained Isometric Embedding (PDF). International Journal of Computer Vision. 2010, 89 (1): 56–68. S2CID 1365750. doi:10.1007/s11263-010-0322-1. 
  42. ^ McInnes, Leland; Healy, John; Melville, James. Uniform manifold approximation and projection for dimension reduction. 2018-12-07. arXiv:1802.03426 . 
  43. ^ UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction — umap 0.3 documentation. umap-learn.readthedocs.io. [2019-05-04]. 
  44. ^ ELastic MAPs. [2016-05-30]. (原始內容存檔於2011-07-20). 

閱讀更多

編輯

外部連結

編輯