我正想通過這個文件的背景減法:用於實時跟蹤(1999年),由克里斯·斯托弗,W.埃裏克L. Grimson 自適應背景混合模型短視頻,
他們的方法是確定了長視頻在高斯混合模型穩定一段時間後,人們可以開始製作斑點。
但是這不適用於短視頻例如http://cvrc.ece.utexas.edu/SDHA2010/videos/human_interaction.zip 從第一幀本身來看,有些部分實際上是前景的一部分。
任何人都可以指出我已經處理了這個問題的一些紙張嗎?
感謝, 考希克
我正想通過這個文件的背景減法:用於實時跟蹤(1999年),由克里斯·斯托弗,W.埃裏克L. Grimson 自適應背景混合模型短視頻,
他們的方法是確定了長視頻在高斯混合模型穩定一段時間後,人們可以開始製作斑點。
但是這不適用於短視頻例如http://cvrc.ece.utexas.edu/SDHA2010/videos/human_interaction.zip 從第一幀本身來看,有些部分實際上是前景的一部分。
任何人都可以指出我已經處理了這個問題的一些紙張嗎?
感謝, 考希克
Monocular Video Foreground/Background Segmentation by Tracking Spatial-Color Gaussian Mixture Models看起來像一個真正快到初始化方法。我不確定它能在第一幀實現細分。
Statistical Background Subtraction for a Mobile Observer(第4節)也處理這個尚未確認的背景問題。瞭解一些issues。
我有同樣的問題。我所做的就是通過算法運行視頻一次以初始化背景模型,然後再次(保留初始化的背景模型)進行分割。對於離線分割,這很好。 – 2011-05-02 09:15:17