gradients

    1熱度

    1回答

    我正在嘗試使用Python實現本文 - https://arxiv.org/abs/1610.02391。爲此,我想獲得相對於最後一個卷積層的特定類輸出的漸變。我遇到了backward()函數的以下用法。 label = np.zeros((1, 6)) label[0, interested_class] = 1 net.backward(**{net.output[0]: label})

    1熱度

    2回答

    概述:我只想更新網絡中選定的變量。該網絡有部分A→B(正向),並且他們每個人都有單獨的損失La和Lb。我想訓練a的A以優化Lb。在做這件事時,B的權重b應該是固定的。我怎樣才能做到這一點? 方法1:只選擇a作爲變量在使用optimizer.minimize(loss, var_list=[a])到var_list減少。 https://github.com/tensorflow/tensorflo

    0熱度

    1回答

    目前,我有一個腳本(through .py plug-ins in GIMP),可以生成SVG path with a gradient(通過具有不同寬度和顏色的相同路徑的多個路徑來模擬)。 不過,我想知道是否有語法產生,而不需要定義多個路徑類似的東西。 就像定義一個漸變和單個路徑一樣。 我搜索了像svg路徑漸變這樣的關鍵字,到目前爲止我發現的所有漸變都沿着路徑變化,沒有類似於上面顯示的內容,所以

    2熱度

    1回答

    我已經搜索了很多關於如何計算在使用多層感知器時Keras中的微型批次的梯度,但似乎無法找到答案。我想知道每個小批量的梯度平均值是用來更新權重和偏差還是它是梯度的總和? 希望如果有人能幫助,如果他們知道答案,如果可能告訴我在哪裏可以找到這些信息。

    0熱度

    1回答

    假設我有百分比的熱圖,並且我已經指定了藍色 - 橙色漸變,所以100%是藍色,0%是橙色,並且其間的所有內容都是這些顏色之一的陰影。 現在,如果我選擇一個過濾器刪除每個高於50%的值,則漸變將會更新。 0%仍然是橙色,但現在50%是最黑的。 是否可以保留包含所有數據時分配的顏色,而不管它是如何過濾的?我希望能夠過濾到底部25%,並且所有這些值仍然是橙色。

    7熱度

    2回答

    我使用TensorFlow構建深度學習模型。對TensorFlow來說是新的。 由於某種原因,我的模型的批量大小有限,那麼這個有限的批量大小將使模型具有很高的方差。 所以,我想用一些技巧來增大批量。我的想法是存儲每個小批量的梯度,例如64個小批量,然後將梯度求和在一起,使用這64個小批量訓練數據的平均梯度來更新模型的參數。 這意味着對於前63個小批次,不要更新參數,並且在64個小批量後,只更新一次

    1熱度

    1回答

    我有下面的代碼: theta=0.05 n=1000 m=200 r=rnorm(2000) #ER check function nu=Vectorize(function(a,tau){return(abs(tau-(a<0))*a^2)}) #Selecting 10 lowest sum values (lowest10 function returns indices)

    0熱度

    1回答

    tf.gradients在傳遞張量列表作爲第一個參數時的表現如何?就拿這個非常小的例子: a = tf.constant(5) b = tf.constant(7) c = a + 2 * b 如果我計算一個張量,c的梯度,相對於[a,b],我得到預期的答案: grads = tf.gradients(c, [a, b]) with tf.Session() as sess:

    0熱度

    1回答

    我有一個使用苗條創建的完全連接圖層的深層網絡。我想逐漸對網絡進行培訓 - 首先允許優化第一層,然後再優化第二層。在閱讀中,我發現這可能是使用tf.stop_gradient完成的,儘管這怎麼做還不清楚。 也許更好的方法是在苗條的調用中使用可訓練標誌 - 只需設置第一層以外的所有層都是假的。不幸的是,隨着培訓的進展,這將需要逐漸將後續圖層設置爲真,從而改變圖形。不知道這是否合法。 我的問題: - 這

    0熱度

    1回答

    我正在開發一個DDPG實現,它需要計算一個網絡(下圖:critic)與另一個網絡(下圖:actor)輸出的梯度。我的代碼已經利用隊列,而不是飼料類型的字典大部分,但我不能爲這個特定部分這樣做還: import tensorflow as tf tf.reset_default_graph() states = tf.placeholder(tf.float32, (None,)) acti