講座安德魯Ng還表示,Logistic迴歸:偏置和在tensorflow成本函數
J = -1 /米*總和(Y *日誌(H(X))+(1-y)的日誌(1 -H(X)))
但https://www.tensorflow.org/get_started/mnist/beginners他們的狀態:
爲什麼他們使用這個公式?
講座安德魯Ng還表示,Logistic迴歸:偏置和在tensorflow成本函數
J = -1 /米*總和(Y *日誌(H(X))+(1-y)的日誌(1 -H(X)))
但https://www.tensorflow.org/get_started/mnist/beginners他們的狀態:
爲什麼他們使用這個公式?
這是二進制與分類方法。 Andrew Ng的成本函數是二元交叉熵(或logloss),而tensorflow教程中使用的是分類交叉熵。他們使用一個熱門的矢量編碼來使用這種跨多個類別。因此,即使對於2個類別,您也有這樣的標籤:[0,1]。
在二進制情況下,0是假情況的標籤。這在分類情況下不存在,因爲softmax分類器中只有第一個元素很重要,因爲無論如何,所有元素都需要總計爲1。
但哪種方法最適合使用? –
取決於您的數據。您只能對二類問題使用二進制交叉熵,而將分類問題用於多類問題。 –
你能告訴我在哪裏可以閱讀關於分類方法嗎? –
這似乎是關於數學,而不是Python。 – khelwood