expectation-maximization

    1熱度

    2回答

    您能否介紹一下如何證明期望最大化算法的收斂性? 例如EM硬幣問題:https://math.stackexchange.com/questions/25111/how-does-expectation-maximization-work

    5熱度

    3回答

    背景: 我有一組圖像中的兩組彩色像素,一組對應於背景,另一組對應於前景。接下來,我使用來自OpenCV的EM爲每組訓練2個高斯混合模型。我的目標是找到隨機像素屬於前景和背景的概率。因此,我在像素上爲每個EM使用函數「預測」。 問: 我不明白這個函數返回的值。在OpenCV中的文檔,它被寫: 該方法返回一個兩元素雙載體。零元素是樣本的似然對數值。第一個元素是給定樣本最可能的混合成分的索引。 http

    0熱度

    1回答

    我試圖找到一個配方工作,我發現網上做期望最大化(http://code.activestate.com/recipes/577735-expectation-maximization/)。我遇到了以下錯誤: Traceback (most recent call last): File "./runem.py", line 7, in <module> print expect

    2熱度

    3回答

    我必須使用EM來估計兩個類別的高斯分佈的均值和協方差。他們也有一些缺失的屬性。 每個對象的類是已知的。因此,問題基本上簡化爲擬合缺少元素的高斯模型。 哪一個是最好的圖書館使用? ECM算法不同於EM算法?

    0熱度

    1回答

    我已經實現了具有良好文本過濾的樸素貝葉斯文檔分類,並且我接受了具有良好準確性的統計結果,我需要使用EM算法來提高我的結果。 但我不知道我是否可以申請EM算法與樸素貝葉斯結果或應用對數據的算法,並開始遍佈因此,我可以比較結果 在這兩種情況下,我需要到了解在這個問題上的EM算法的原因,而是真的困惑我 任何好解釋的文件可以理解

    0熱度

    2回答

    通常,重新估計迭代過程在lambda.bar - lambda小於某個epsilon值時停止。 如何確定這個epsilon值?我經常看到的是在論文中被寫爲一般的epsilon符號,並且從來沒有使用過的實際值,我認爲這會根據數據而改變。例如,如果我第一次迭代的λ值是5 * 10^-22,第二次迭代是1.3 * 10^-15,第三次是8.45 * 10^-15,第四次是1.65 * 10^-15, -

    0熱度

    1回答

    我可以看到很多與EXPECTATION-MAXIMIZATION算法相關的示例。 幾個環節是 Expectation Maximization coin toss examples https://math.stackexchange.com/questions/81004/how-does-expectation-maximization-work-in-coin-flipping-proble

    6熱度

    1回答

    任何人都可以提供EM算法的簡單數字示例,因爲我不確定給出的公式是什麼?一個非常簡單的具有4或5個笛卡爾座標系的座標將完全可以做到。

    3熱度

    1回答

    我想在伯努利分佈的混合情況下寫下EM的MAP更新。 我知道,對於ML估計,我們有: E-step: compute P(Z|X,p,t) M-Step: (p,t)<-argmax sum(over Z): p(Z|X,p,t)log p(X,Z|p,t) 其中P是每一類向量參數(其中K,每種尺寸d的,其中K爲類和d是多少特徵數量)和t是每個類別的多項參數。 但是,如何獲得MAP估計? p(

    0熱度

    1回答

    我很難理解EM算法。我需要對一系列觀測進行聚類,並且已經爲此實施了Kmeans算法! 不過,我希望能夠開發出EM,以及和我知道有庫,如Weka的,可以這樣做,但我需要(並希望)有我自己的實現。 我要感謝的人誰可以給我提供基本指導的話題,因爲我已經瀏覽網頁,但一切我發現了完整的公式,它們是很難理解沒有適當的知識。