ViBe是一種在IEEE ICASSP 2009大會中提出並在此後發布版本中改進了的背景剪除算法[1][2][3][4] 更確切地說,它是從運動圖像中提取背景信息的軟件模塊。它由比利時列日大學的Montefiore研究所的Oliver Barnich和Marc Van Droogenbroeck開發。[5]

ViBe已獲得專利:[6] 專利涵蓋各個方面,如隨機置換、空間擴散和非時序處理。

ViBe使用C語言寫成的,並已在CPUGPUFPGA上實現。[7]

技術說明[2]

編輯

像素模型和分類過程

編輯

有很多先進的技術可以用來提供像素 x 對時間的概率密度函數的估計值。ViBe與那些方法不同,它規定多色空間中一個值的影響限制在局部鄰域內。在實踐中,ViBe不去估計概率密度函數,而是採用一組先前觀測到的樣本值作為像素模型。它通過與樣本集內相鄰的值進行比較來對 pt(x) 的值分類。

模型的更新:樣本值的生命周期策略

編輯

ViBe保證了構成像素模型的樣本值的生命周期呈平滑指數衰減。這使得ViBe用每個像素都大小合理的一個模型來能夠成功地處理伴隨事件。這是通過在更新像素模型時,隨機選取決定用替代的樣本來實現的。一旦選定了要丟棄的樣本,就會用新值替代丟棄的樣本。有趣的是要注意到,因為將要丟棄的值是隨機選取的,所以一個給定像素樣本的像素模型更新產生的像素模型無法預測。

模型的更新:空間一致性

編輯

為了確保整個圖像模型的空間一致性,並處理諸如相機抖動及背景物體的緩慢變化的實際情況,ViBe採用了類似於更新過程的技術,隨機選取然後再當前像素的鄰域內更新像素模型。分別用 NG(x) 和 p(x) 來表示像素 x 的空間鄰域和它的值,並假設已決定通過加入 p(x) 更新 x 的樣本集,則ViBe同樣適用 p(x) 這個值來更新鄰域 NG(x) 中一個隨機選取的像素的樣本集。其結果是,ViBe能夠不適用任何後期處理方法直接產生空間一致的結果。

模型的初始化

編輯

雖然該模型可以容易地從任何類型的初始化中恢復,例如選擇一組隨機值,可以很方便地儘快得到一個準確的背景估計。理想情況下,一個分割算法可以從第二幀開始分割視頻序列,第一幀用來初始化模型。由於第二幀之前沒有可用的臨時信息,ViBe在像素模型中填入每個像素空間鄰域中的值;更確切地說,它用第一幀中隨機從每個像素鄰域中抽取的值初始化了背景模型。這樣背景估計從視頻序列的第二幀就有效了。

參考文獻

編輯
  1. ^ Barnich, Olivier; Van Droogenbroeck, Marc. ViBe: A powerful random technique to estimate the background in video sequences: 945–948. 2009. doi:10.1109/ICASSP.2009.4959741. 
  2. ^ 2.0 2.1 Barnich, O; Van Droogenbroeck, M. ViBe: A Universal Background Subtraction Algorithm for Video Sequences. IEEE Transactions on Image Processing. 2011, 20 (6): 1709–1724. ISSN 1057-7149. doi:10.1109/TIP.2010.2101613. 
  3. ^ Van Droogenbroeck, M.; Paquot, O. Background subtraction: Experiments and improvements for ViBe: 32–37. 2012. doi:10.1109/CVPRW.2012.6238924. 
  4. ^ Van Droogenbroeck, Marc; Barnich, Olivier. ViBe: A Disruptive Method for Background Subtraction: 7.1–7.23. 2014. doi:10.1201/b17223-10. 
  5. ^ 存档副本. [2015-03-18]. (原始內容存檔於2015-05-03). 
  6. ^ World Intellectual Property Organization. ViBe patents頁面存檔備份,存於網際網路檔案館
  7. ^ Kryjak, Tomasz; Gorgon, Marek. "Real-time Implementation of the ViBe Foreground Object Segmentation Algorithm"頁面存檔備份,存於網際網路檔案館). In Proceedings of the 2013 Federated Conference on Computer Science and Information Systems (FedCSIS) pp. 591–596