chainer

    0熱度

    2回答

    首先我講述你的問題和情況。 我想在chainer中做多標籤分類,我的班級不平衡問題非常嚴重。 在這種情況下,我必須切片矢量來計算損失函數,例如,在多標籤分類中,地面真值標籤矢量大多數元素爲0,其中只有少數爲1,在這種情況下直接使用F .sigmoid_cross_entropy應用所有0/1元素可能會導致訓練不收斂,所以我決定使用[[xx,xxx,...,xxx]]切片(a是上一個FC層的chai

    0熱度

    1回答

    我在我的研究中實現了一個非常複雜的函數,它在這一層使用信念傳播。我已經推導出梯度w.r.t.這個層的W(參數),但是因爲它的複雜性,我沒有導出漸變w.r.t. input_data(數據來自前一層)。 我對於反向傳播的細節非常混亂。我搜索了很多關於BP算法的知識,有些筆記說只有差分w.r.t才行。 W(參數)並使用殘差得到梯度?你的例子似乎也需要計算漸變w.r.t.輸入數據(前一層輸出)。我很困惑

    1熱度

    1回答

    咖啡可以做到這一點。由於某一層神經網絡需要較大的學習速率,而conv層需要很小的lr。如何控制不同的層在鏈接器中有不同的lr,以便優化器可以根據相應的lr進行更新?

    0熱度

    1回答

    我希望通過組合一些現有的函數在Chainer中創建一個新的函數對象。我無法在文檔中找到任何方法來執行此操作。我可以直接實現複合函數,這在計算上可能更有效。或者我可以使用現有函數的現有向前和向後方法。 推薦的方法是什麼?

    1熱度

    1回答

    作爲這個thread,我們可以通過設置函數(f:trainer - > bool)作爲培訓師的stop_triger來停止迭代循環。 但是通過這種方式,我認爲我們不能使用其他擴展,如LogReport,它使用stop_trigger =((args.epoch,'10'))。 所以,我的問題是如何實現提前停止作爲擴展,以及如何發送信號來阻止來自擴展的教練迭代。 謝謝。

    0熱度

    1回答

    我找到了chainercv項目:https://github.com/chainer/chainercv 我已經閱讀了這段代碼,評論和代碼非常好,但是很少有細節仍然讓我感到困惑。我想知道: 這個代碼是否與https://github.com/rbgirshick/py-faster-rcnn 完全一樣的邏輯這是一個orignal caffe實現。

    0熱度

    2回答

    版本:2.0.2 chainer我 使用亞當優化,然後報告錯誤,我發現它是由代碼(fix1 == 0?)造成的: 在adam.py: @property def lr(self): fix1 = 1. - math.pow(self.hyperparam.beta1, self.t) fix2 = 1. - math.pow(self.hyperparam.bet

    0熱度

    1回答

    我首先使用L.LSTM,後來我發現這個NStepLSTM,這是官方教程文檔的露出部分。 https://docs.chainer.org/en/stable/reference/generated/chainer.links.NStepLSTM.html?highlight=Nstep 爲什麼chainer.links.NStepLSTM或chainer.links.NStepBiLSTM沒有re

    0熱度

    1回答

    這個問題如下Does slice or index of chainer.Variable to get item in chainer has backward ability? 考慮一個典型的例子問題:假設我有卷積層+ FC層,我的最後一個FC層輸出向量。因爲在某些情況下我必須切片矢量來計算損失函數,例如,在多標籤分類中,地面真值標籤矢量大多數元素爲0,其中只有少數爲1,在這種情況下,直接使用

    0熱度

    1回答

    使用澤維爾重量初始化我已經找到了這個網頁:https://docs.chainer.org/en/stable/reference/initializers.html 如何使用澤維爾重量初始化在chainer初始化重?