backpropagation

    0熱度

    1回答

    我建立一個神經網絡與架構的執行情況: input layer - >fully connected layer - >ReLU - >fully connected layer - >softmax 我使用的公式概述這裏用DeepLearningBook來實現backprop。我認爲我的錯誤在於方程式。 1.區分時,我是否會考慮每個例子獨立地產生一個N×C(例子的數量x個類的數量)矩陣或一起產生一

    2熱度

    1回答

    我正在設計一個帶有22個輸入和1個輸出(1或0)的前饋BackPropogation ANN。神經網絡有3層,使用10個隱藏的神經元。當我運行NN時,它只會輕微改變權重,輸出的總誤差約爲40%。在本質上,我認爲它是在過度/不足之下,但在改變了隱藏的神經元的數量之後,沒有任何變化。 N是輸入(22) 數目M是在輸出計算隱藏神經元(10) 這是我使用的backpropagate OIN代碼的數投入雙曲

    0熱度

    1回答

    網絡的總錯誤在超過100,000次迭代中沒有變化。 輸入是22個值,輸出是單個值。輸入數組是[195] [22],輸出數組是[195] [1]。 BasicNetwork network = new BasicNetwork(); network.addLayer(new BasicLayer(null,true,22)); network.addLayer(new Basic

    0熱度

    1回答

    我目前正在嘗試編程神經網絡...學習我想使用反向傳播算法!我的問題是,我不知道我的錯誤在哪裏。 我試着訓練它是合乎邏輯的。第一輪過後, 我的網絡錯誤是: 28.68880035284087輸入1 | 1 22.17048518538824輸入1 | 0 21.346787829014342輸入0 | 1 20.44791655274438輸入0 | 0 如果我做了幾次迭代,我的錯誤是這樣的: 34

    4熱度

    1回答

    我的疑惑是如何在Pooling層中反向傳播錯誤,因爲當我計算導數時,只有1個元素爲4(例如,當使用2x2匯聚內核)會影響前饋的結果。

    1熱度

    1回答

    錯誤的向後傳播我試圖理解的錯誤的傳播有多麼的落後工作的,所以我想用上面顯示的非常簡單的神經網絡來做到這一點。 我已經做了以下至今: import numpy as np def forward_propagation(X, theta_1, theta_2): z2 = np.dot(X, theta_1) a2 = sigmoid(z2) z3 = np.dot

    0熱度

    1回答

    我有一個數據組具有11特徵與以下範圍: 1000001 < feature 1 < 1560504 10000 < feature 2 < 15151 1 < feature 3 < 8 1001 < feature 4 < 3051 100 < feature 5 < 136 100 < feature 6 < 323 1 < feature 7 < 179 0 < feature

    0熱度

    1回答

    我目前正試圖瞭解TensorFlow中LSTM的BPTT。我得到參數「num_steps」用於RNN推出的範圍和錯誤反向傳播。我對這是如何工作有一個普遍的問題。 供公式重新參考。我指的是: Formulas LSTM(https://arxiv.org/abs/1506.00019) 問: 什麼路徑backpropagated很多步驟是什麼?常數誤差傳送帶由公式5創建,反向傳播的導數(s(t) -

    -1熱度

    1回答

    我最近完成了Coursera的吳教授的機器學習課程,但是我對理解反向傳播算法有些問題。所以我嘗試使用sigmoid函數讀取Bishop代碼進行反向傳播。我搜查,發現乾淨的代碼,其試圖解釋所做的反向傳播,但還是有問題,理解代碼 任何一個可以解釋我這是什麼真正的反向傳播嗎?還解釋我的代碼? here是我在github上找到的代碼和我

    1熱度

    1回答

    我必須爲一個學校項目創建一個OCR Programm,所以我開始在維基百科的幫助下創建反向傳播算法。爲了訓練我的網絡,我使用了幾天前提取的MNIST數據庫,以便獲得真實的圖像文件。但現在錯誤總是在237左右,訓練一段時間後,錯誤和權重變成了NaN。我的代碼有什麼問題? A screenshot of my images folder 這裏是我的主類,其中應培養我網: package de.Marc