backpropagation

    0熱度

    3回答

    我開發了一個ANN BP的代碼來分類打鼾片段。我有10個輸入功能和1個隱藏層,有10個神經元和一個輸出神經元。我將1表示爲無打鼾,0表示爲打鼾部分。我有3000個網段,其中2500個是沒有打鼾的網段,標記爲1和500個打鼾網段,標記爲0.我已經將數據集分爲三組(70%的訓練,15%的驗證和15%的測試) 。 現在,在訓練網絡時,首先我洗牌訓練集並將打鼾和無打鼾的段混合在一起。所以,在我訓練了網絡之

    0熱度

    1回答

    我正在寫這個代碼用於學習ANN(多層反向傳播)的過程,但是學習的結果非常糟糕,它在任何時候都不是1我知道我們不能提供任何保證讓學習成功,但我想知道我是否在此代碼中出現錯誤,或者如果我可以使這些步驟具有更高的性能。 步驟: 1-上傳我的數據集 2-選擇從225 170行的學習和其餘50行測試(隨機地) 3-創建用於輸入權重和隱藏層隨機和1之間的0 4- -1之間,用於隱藏層和輸出層創建偏置隨機和1

    -2熱度

    1回答

    我想在Keras中複製此文章https://arxiv.org/pdf/1606.07659v1.pdf。它使用自動編碼器作爲推薦系統。這個想法是掩蓋一些已知的值(評級),以便教您的網絡預測未知值,同時正確重建其他值。 因此,您有三種評分類型:非屏蔽已知值,已屏蔽已知值(變爲0)和未知值(變爲0)。 您的損失函數只需包含非屏蔽已知值和已屏蔽已知值的錯誤,但如果我理解正確,您還需要屏蔽後向傳播未知值

    21熱度

    1回答

    通過將底部和頂部blob設置爲相同,我們可以告訴Caffe執行「就地」計算以保留內存消耗。 目前我知道我可以安全地在原地使用"BatchNorm","Scale"和"ReLU"圖層(如果我錯了,請讓我知道)。雖然它似乎有其他層的一些問題(this issue似乎是一個例子)。 何時使用Caffe中的就地層? 它如何與反向傳播一起工作?

    0熱度

    1回答

    我喜與神經網絡,現在玩。我做了那種本教程的重新實現的: http://www.ai-junkie.com/ann/evolved/nnt5.html,但隨着魚類和食品也有不同的編程語言。但重點是一樣的。 我有一堆魚(20)和一堆foos(40)。每條魚都有大腦(神經網絡(我將從現在開始使用ANN))。目前,神經網絡不使用backprop,並通過遺傳alghoritm進行訓練。它工作正常。我想通過使

    0熱度

    1回答

    我有一個有很多輸入的神經網絡,我想訓練它意識到只有一個輸入很重要。首先我訓練它與輸入[1] = 1並給出結果10 然後我訓練與完全相同的輸入,除了輸入[1] = 0,並給出結果爲0. 我訓練他們,直到錯誤爲0之前我切換到另一個,但他們只是不斷地改變不同的權重,直到輸出等於給定的結果,他們從不知道只有與輸入[1]相關的權重需要關注。 這是一個常見的錯誤,可以說,可以繞過某種方式嗎? Ps。我正在使用

    1熱度

    2回答

    我想使用這個函數來計算神經網絡的成本函數作爲我的編程任務的一部分。 其中K是標籤的數量。因爲我有5000個訓練樣例和10個標籤,所以hTheta和y都是大小(5000,10)的矩陣。我使用八度和我得到我的成本函數爲NaN。 (這也是期望的,因爲hTheta和Y的所有值都是0或1,所以log(0)* 0將不被定義)。 但是我應該怎樣計算成本? 注 - hTheta由神經網絡上的前饋算法生成,y是輸入

    -1熱度

    1回答

    我是神經網絡中的新手,並且閱讀了關於反向傳播的內容,但沒有得到爲什麼反向傳播算法陷入局部最小值?

    -3熱度

    1回答

    是不是反向傳播算法獨立算法,還是我們需要任何其他算法,如貝葉斯一起用於神經網絡學習?我們是否需要任何概率方法來實現反向傳播算法?

    0熱度

    1回答

    我在python中編寫了一個神經網絡來解決mnist任務。 但錯誤率變化真的很小(逗號後的第6位數)在一個紀元後,並且網絡在10000個紀元後沒有學習太多...... 你能幫我解決我做錯了什麼,以及如何改進我的代碼來解決MNIST? 我將學習率eta設置爲0.05。 import numpy as np import pickle import time class FeedForward