loss-function

    0熱度

    1回答

    有人可以解釋機器學習中損失函數和RMSE(均方根誤差)之間的區別嗎?

    1熱度

    2回答

    我新的神經網絡和keras時遇到了問題寫這個自定義損失函數: 我使用TensorFlow作爲後端。我看到其他的例子並以這種方式編寫的損失函數: from keras import backend as K def depth_loss_func(pred_depth,actual_depth): n = pred_depth.shape[0] di = K.log(pred_

    3熱度

    1回答

    我想在TF/Keras中生成自定義丟失函數,如果在會話中運行並傳遞常量,則丟失函數將工作,但編譯時會停止工作進入凱拉斯。 成本函數(感謝利奧爾用於將其轉換爲TF) def ginicTF(actual,pred): n = int(actual.get_shape()[-1]) inds = K.reverse(tf.nn.top_k(pred,n)[1],axes=[0]

    3熱度

    1回答

    我正在嘗試爲奧賽羅構建一個時間差異學習代理。雖然我的其他實現似乎按預期運行,但我想知道用於訓練我的網絡的損失函數。在Sutton的「增強學習:導論」一書中,均方誤差值(MSVE)是標準損失函數,它基本上是一個均方誤差乘以策略分佈(所有狀態之和(onPolicyDistribution(s )* [V(s)-V'(s,w)] 2)) 我現在的問題是:當我的策略是學習值函數的e-greedy函數時,如

    2熱度

    1回答

    我想結合由同一網絡產生的4個類任務和10類任務的預測產生的兩個輸出。然後我想結合這些輸出來給出一個長度爲14的陣列,我將其用作我的最終目標。 雖然這似乎有效地工作,但預測總是針對一個類別,因此它產生的概率dist只關心選擇14個選項中的1個而不是2個。我實際需要做的是提供2個預測,每個班級一個。我希望這一切都是由同一模型生產。 input = Input(shape=(100, 100), nam

    0熱度

    1回答

    最近我讀了培訓甘斯紙改進的技術,筆者定義的損失如下: 後來我查看文章的代碼,損失定義的相應代碼: output_before_softmax_lab = ll.get_output(disc_layers[-1], x_lab, deterministic=False) output_before_softmax_unl = ll.get_output(disc_layers[-1], x_un

    2熱度

    1回答

    我試圖應用蒸餾的概念,基本上是爲了訓練一個新的小型網絡來做與原來的一樣,但計算量較少。 我有softmax輸出爲每個樣品,而不是logits。 我的問題是,如何實現分類交叉熵損失函數? 喜歡它需要原始標籤的最大值和在相同的索引與對應的預測值相乘,或它的總和遍佈logits(一個熱編碼)作爲式表示: 由於!

    4熱度

    1回答

    我正在處理時間序列數據,輸出60個預測的日子。 我目前使用的均方誤差爲我的損失函數,結果是壞 我想要實現的加權均方誤差,例如,早期的產出比後來者更重要。 加權均方根公式: 所以我需要一些方法來遍歷一個張量元素,與索引(因爲我需要通過迭代都在預測和真實值然後把結果寫成只有一個元素的張量,他們都是(?,60),但是真的是(1,60)個列表。代碼爲破碎版本 def weighted_mse(y_true

    1熱度

    1回答

    我想編寫自定義指標函數編譯步驟設置這樣寫道: self.model.compile(optimizer=sgd,loss='categorical_crossentropy',metrics=[self.dice_similarity_coefficient_metric,self.positive_predictive_value_metric,self.sensitivity_metric])

    0熱度

    1回答

    我想實現一個SSIM丟失函數,因爲邊界由卷積中止,我想保留寄宿生並計算邊界像素的L1損失。代碼從這裏學到。 SSIM/MS-SSIM for TensorFlow 例如我們hava img1和img2的大小[batch,32,32,32,1],以及高斯11的window_size,結果ssim映射將是[batch,22,22,22,1] ,L1圖[批處理,32,32,32,1]如何將ssim分配給