2014-11-06 153 views
0

我在IEEE交易的一個軟件學習關於機器學習,統計學習算法

閱讀這些線路

「研究人員採用了衆多不同的技術來構建軟件故障預測模型,其中包括各種差異混亂統計技術如邏輯迴歸和樸素貝葉斯明確地構建了一個潛在的概率模型,此外,不同的機器學習技術,如決策樹,基於感知器概念的模型,支持向量機以及未明確構建預測模型的技術但相反看一組最相似的 已知案件也已被調查。

任何人都可以解釋他們真的想傳達什麼。 請舉例。 Thanx提前。

+0

並非所有的內容都彙總在_「...構建一個預測模型**而是看看一組最相似的已知案例......」_。讓我們設想挑選一個糖果:第一種情況是你收集它的屬性,餵食一個模型,**計算**一個預測結果(類似於你建模時所做的事情,例如,一個電子元件和你的預測或模擬它的輸出)。在第二種情況下,你選擇一個糖果,你** **比較**與衆所周知的糖果列表,當你找到最相似的一個,然後你有你的比賽,你知道預期的結果。 – 2014-11-06 11:37:28

+0

我敢打賭,不同之處在於作者對這些模型的理解。另一個人可以對它們進行不同的分類。 – 2014-11-06 12:38:22

回答

1

作者似乎區分概率模型與非概率模型,即產生分佈p(output | data)的模型與僅產生輸出output = f(data)的模型。儘管如此,非概率算法的描述對我來說有點奇怪。 (線性)支持向量機,感知器和邏輯迴歸模型和算法角度之間的差異並不是很大。暗示前者「看一組最相似的已知案例」,而後者似乎並不奇怪。

0

作者似乎是區分計算每類概率的模型(從中可以推導出分類規則以將輸入分配給最可能的類,或者更復雜的是,將輸入分配給具有最小誤分類成本)以及那些直接將輸入分配給類而不經過每類概率的結果作爲中間結果。

分類任務可以被視爲一個決策問題;在這種情況下,需要每類概率和錯誤分類成本矩陣。我認爲這種方法在很多關於機器學習的文章中都有描述,例如Br​​ian Ripley的「模式識別和神經網絡」以及Hastie,Tibshirani和Friedman的「統計學習元素」。

作爲一個元評論,您可能會對stats.stackexchange.com上的這個問題獲得更多的關注。