流形向量機 (w:Manifold Vector Machine, 簡稱w:MVM) 是據態疊加原理組建而成的機器學習算法。據相對論,同源數據的數據點間距保持相對性,繼而提供了定義量子指針的可能,這可以用來人工架構疊加態流形的時空構象並保證流形變換的映射關係。這從本質上區別於非線性降維和支持向量機,後者運作機制依靠維度(DIB-N: 升N維,DDB-N: 降N維),而MVM維度不變,見[1]。哲學體系上對於數據源的理解雖然有相似之處,實則也與傑弗里·辛頓的w:Capsule neural network概念有本質上的不同,後者的根本定位於維度。
流形向量機 或 MVM 需要依靠兩個基本假設(1) 同源數據點間距保持相對性; (2) 存在離散體系連續性以完成 數據點間向量全集的單向重複操作,以此構成迭代器。此時定義單次遊歷數據集為一次振盪 O . {\displaystyle {\overset {.}{O}}} ,那麼我們可以得到: 一個完整的ETE向量全集: A → 0 , A → 1 , A → 2 {\displaystyle {\vec {A}}{_{0}},{\vec {A}}{_{1}},{\vec {A}}{_{2}}} ,... A → n {\displaystyle {\vec {A}}{_{n}}} ,…, A → ∞ {\displaystyle {\vec {A}}{_{\infty }}} :≡ {\displaystyle :\equiv } ⊝ ∞ n = 0 A → n {\displaystyle {\underset {n=0}{\overset {\infty }{\circleddash }}}{\vec {A}}{_{n}}} ( ‖ A → n ‖ ≠ 0 , ∀ n ∈ [ 0 , ∗ ∞ ] ) {\displaystyle (\lVert {\vec {A}}{_{n}}\rVert \neq 0,\forall n\in [0,*\infty ])} 繼而: I t e r a t i o n {\displaystyle Iteration} ( d δ {\displaystyle d\delta } ) = F l o o r {\displaystyle Floor} ( N × o . ‖ c o n c a t ( ⊝ ∞ n = 0 A → n ) ‖ ) {\displaystyle \left({\frac {N\times {\overset {.}{o}}}{\lVert concat({\underset {n=0}{\overset {\infty }{\circleddash }}}{\vec {A}}{_{n}})\rVert }}\right)} . N {\displaystyle N} : 一次遊歷N次振盪 F l o o r {\displaystyle Floor} : 代數取底 那麼, d M T d δ = ‖ λ → ⋅ M T ‖ d H {\displaystyle {\frac {dM_{T}}{d\delta }}={\frac {\lVert {\vec {\lambda }}\cdot M_{T}\rVert }{d_{H}}}} ,Hausdorff可定義: ∃ d H t o t a l := m a x { m i n { d ( A → 0 , A → ∞ ) , d ( A → ∞ , A → 0 ) } } {\displaystyle \exists d_{H}{_{total}}:={max}\lbrace {min}\lbrace d({\vec {A}}{_{0}},{\vec {A}}{_{\infty }}),d({\vec {A}}{_{\infty }},{\vec {A}}{_{0}})\rbrace \rbrace } , ∃ d H l o c a l := m a x { m i n { d ( A → ∞ − 1 , A → ∞ ) , d ( A → ∞ , A → ∞ − 1 ) } } = ‖ A → n ‖ {\displaystyle \exists d_{H}{_{local}}:={max}\lbrace {min}\lbrace d({\vec {A}}{_{\infty }{_{-}{_{1}}}},{\vec {A}}{_{\infty }}),d({\vec {A}}{_{\infty }},{\vec {A}}{_{\infty }{_{-}{_{1}}}})\rbrace \rbrace =\lVert {\vec {A}}{_{n}}\rVert } 特例: ∃ d H t o t a l := ‖ A 0 → − A ∞ → ‖ {\displaystyle \exists d_{H}{_{total}}:=\lVert {\vec {A_{0}}}-{\vec {A_{\infty }}}\rVert } , iff ⊝ ∞ n = 0 A → n = ⊚ ∞ n = 0 A → n {\displaystyle {\underset {n=0}{\overset {\infty }{\circleddash }}}{\vec {A}}{_{n}}={\underset {n=0}{\overset {\infty }{\circledcirc }}}{\vec {A}}{_{n}}} .
不同的數據集所對應最有效流形向量架構存在個別差異。 例子: 奇點 d H t o t a l := ‖ 0 → ‖ {\displaystyle d_{H}{_{total}}:=\lVert {\vec {0}}\rVert } , (見 引力奇點) 線段 d H t o t a l := ∑ n = 0 ∞ ‖ A → n ‖ {\displaystyle d_{H}{_{total}}:=\sum _{n=0}^{\infty }\lVert {\vec {A}}{_{n}}\rVert } , (見 數組) 閉合有向/非有向流形 d H t o t a l := ‖ A 0 → − A ∞ → ‖ {\displaystyle d_{H}{_{total}}:=\lVert {\vec {A_{0}}}-{\vec {A_{\infty }}}\rVert } , (見 流形, 及w:Amplitude amplification), 因: ⊝ ∞ n = 0 A → n ≡ ⊚ ∞ n = 0 A → n {\displaystyle {\underset {n=0}{\overset {\infty }{\circleddash }}}{\vec {A}}{_{n}}\equiv {\underset {n=0}{\overset {\infty }{\circledcirc }}}{\vec {A}}{_{n}}} ,局部 ∣ φ i ⟩ {\displaystyle \mid \varphi _{i}\rangle } = ∑ ‖ A → k ‖ × ∣ ⊛ k ⟩ {\displaystyle \sum _{}^{}\lVert {\vec {A}}{_{k}}\rVert \times \mid \circledast _{k}\rangle }
MVM可以單獨使用或者嵌入到更大體系的機器學習策略中生效,回歸分析,支持向量機,和深度學習等。 例如: