在壓縮和信息理論方面,信源的熵是來自信源的符號可以傳達的平均信息量(以比特爲單位)。非正式地說,如果我們確定一個事件的結果,那麼熵就更少了。熵和信息關係
J. Principe, D. Xu, and J. Fisher, 「Information theoretic learning,」 in Unsupervised Adaptive Filtering, S. Haykin, Ed. New York: Wiley, 2000, vol. I, pp. 265–319.
熵(Shannon和Renyis)已經通過最小化誤差的熵作爲目標函數,而不是均方誤差在學習中使用。
我的問題是
- 什麼是誤差最小化熵的原理是什麼?當熵最大時,我們可以說什麼信息? 謝謝
家庭作業? –
不,這與家庭作業無關。我在論文中遇到了參數估計的熵 - Deniz Erdogmus,IEEE成員和Jose C. Principe,用於非線性自適應系統的監督訓練的誤差 - 熵最小化算法 J.Pirecipe,D.Xu和J.Fisher,「信息理論學習」,在無監督自適應濾波中,S.Haykin,Ed。紐約:威利,2000年,第一卷。 I,265-319頁。 –
問題是基於這些論文,我會更新我的問題,並請求在更新適當之後,好心刪除否定的投票。 –