backpropagation

    2熱度

    1回答

    我從this blog 查看以下code它給使用的選項均sigmoid和tanh激活功能。 的XOR測試似乎好工作與tanh功能產生〜(0,1,1,0) 但是一旦轉到sigmoid我得到錯誤的輸出〜(0.5,0.5,0.5,0.5) 我已經與another piece of code我在網上找到和嘗試這個完全相同的問題發生。 似乎唯一改變的是激活函數(及其派生)。改變這種方式是否需要其他改變,比如

    1熱度

    1回答

    使用標準背景,我可以訓練一個網絡,使用多達8個二進制輸入來學習異或。所以這是一個總的256個輸入集,並且輸出正確地識別8個輸入設置與僅由8個輸入爲1之一,其餘爲0。 佈局: •8個輸入; •1個具有2個或更多節點的隱藏層; •輸出:1點 如果我用更多的隱藏節點將在培訓約500時代,少。但是,無論我使用多少個隱藏節點,我都無法在9個輸入節點上訓練它。 8有防止這種內在的限制嗎?我懷疑我可能需要另一個

    0熱度

    1回答

    最近我試圖實現Lenet-5 CNN。但我堅持如何將錯誤從conv層傳播到前一層,例如從C3層到S2層。有誰能幫我嗎?

    1熱度

    1回答

    前幾天我試圖把我今年在一個關於神經網絡的AI講座中學到的東西加以實踐。我試圖做一個簡單的,只有2個神經元,它會複製它的輸入信號。下面是網絡的一個小圖,我的計算結果如下:http://imgur.com/a/RixAH(對法語的評論感到抱歉,它們並不重要) 奇怪的是它確實收斂,但對於一個簡單的二進制輸入信號,當信號爲0,網絡有效發送〜0,但是當它爲1時,發送〜0.5,我不明白爲什麼。此外,我必須將學

    2熱度

    1回答

    我剛開始學習機器學習和神經網絡,所以我仍在努力理解反向傳播是如何工作的。 我試圖在Java中開發一個簡單的NN,使用簡單的基於矩陣的方法。如果我只放一個訓練樣例,則網絡完美工作,但如果我嘗試使用更多,則輸出始終是訓練期望輸出的平均值。 http://neuralnetworksanddeeplearning.com/images/tikz21.png package neuralnetwork;

    5熱度

    1回答

    我正在玩一個我自己實現的神經網絡:它是一個簡單的前向網絡,與基本設計相比,它使用RPROP作爲學習算法的唯一「加號」。 當我對MNIST進行測試時,或者當我嘗試進行圖像壓縮時,但是當我嘗試對XOR函數進行簡單模擬時,網絡得分會得分,有時在學習過程中會陷入局部最小值,以下真值表: 0 XOR 0 = 1.4598413968251171e-171 1 XOR 0 = 0.9999999999999

    2熱度

    1回答

    我想修改一個在純python中編碼爲tensorflow的強化學習腳本。 我設計了它,當我開始通過它進行採樣時,我在前向傳播(對於第一個採樣)中獲得了完全相同的值,但後向傳播和梯度值不相同(甚至不是接近)。 我在想,它通過RELU非線性與backprop有關,但後來我不完全確定。 什麼是一步一步反向傳播網絡體系結構的最簡單方法?

    1熱度

    1回答

    我想訓練一個神經網絡,在NOTMNIST上有超過1個隱藏層。當我有一個隱藏層時,它可以正常工作,但是當我添加多個隱藏層時,我開始獲取損失的nan。下面是我使用 from __future__ import print_function import numpy as np import tensorflow as tf from six.moves import cPickle as pic

    0熱度

    1回答

    我實現了具有梯度下降的神經網絡的偏倚單位。但我不是100%確定如果我已經以正確的方式實施它。如果你可以快速查看我的代碼,那麼將是空曠的。只有 如果偏置部分: 是很重要的。 而我的第二個問題: 不應該softmax函數的導數爲1-x,因爲x是softmax函數的輸出嗎? 我用1-x試過了我的網,但其性能更差。 每一個幫助表示讚賞。 在此先感謝。 import numpy as np import

    1熱度

    1回答

    長話短說。代碼接下來和平介紹所期望的行爲,即變量值由優化 x = tf.Variable(5.0) # x = x.assign(tf.constant(5.0)) opt = tf.train.MomentumOptimizer(learning_rate=0.0001, momentum=0.9) train_op = opt.minimize(x) w