keras

    1熱度

    1回答

    我有一個前饋DNN模型,有幾個圖層來執行二進制分類。輸出層是1 sigmoid單位和損失函數binary_crossentropy。作爲預測,我期望一個帶有零/一個的矢量。爲此,我圍繞預測並對他們進行打擊。然後我使用sklearn分數函數來計算(f1score,rocauc,precision,recall,mcc)。問題是我得到的預測向量與我假裝的單熱編碼不匹配。儘管如果我使用一個mse損失函數

    0熱度

    1回答

    我正在迴歸問題。我的數據集的標籤範圍從[0,1]。由於設計目的,價值超過0.3的標籤被轉換爲負值,即0.35轉換爲-0.35。 在凱拉斯,我第一次嘗試mse作爲損失函數,但表現並不好。在我意識到標籤的標誌後,我也嘗試了二元交叉熵。但表現依然不佳。 正如我上面所解釋的,似乎我們可以利用兩個損失函數並將它們相加。但我不知道如何編寫代碼。此外,如果您對此特定數據集有任何其他建議,請讓我知道。

    0熱度

    1回答

    我正在嘗試每半小時填充一次碳通量。我想通過訓練測試驗證交叉驗證來識別最簡約的LSTM模型,方法是訓練帶有所有可用輸入的模型,然後對其進行修剪,直到得分停止改進。對於每個模型,我使用k-fold CV來分割90%的訓練,10%的驗證,然後在model.fit()中將火車進一步分割成火車和測試集。我正在使用提前停止以幫助最小化運行時間,並使用ModelCheckpoint保存最佳權重(具有最低「val

    1熱度

    1回答

    我使用Keras訓練了DNN。但是,我無法保存和加載模型。 from keras.models import load_model model.save('/home/ubuntu/pynb/savedmodel.tfl') #model.load('/home/ubuntu/pynb/savedmodel.tfl') 但我發現,而不是savedmodel.tfl文件,我覺得3個文件與.M

    1熱度

    1回答

    在具有Keras的神經網絡中,在model.fit_generator()中,如果最小批量爲12,且總訓練樣本數爲195,是否意味着3個樣本不會用於訓練,因爲列車steps_per_epoch是16(len(訓練樣本)/ batch_size)?

    2熱度

    1回答

    我想在Keras中使用圖像增強。我當前的代碼如下所示: # define image augmentations train_datagen = ImageDataGenerator( featurewise_center=True, featurewise_std_normalization=True, zca_whitening=True) # generate image batc

    -2熱度

    1回答

    我有一個任務需要使用計算機視覺來解決,但我無法弄清楚哪種特徵是理想的提取。我可以訓練一個可以做分類的CNN網絡,然後可以知道它使用了什麼樣的特徵,以及用什麼來區分A類和B類? 然後用openCV或類似的方法做同樣的事情嗎?

    0熱度

    1回答

    我使用python keras構建cnn模型。 我遵循cnn mnist的例子,並修改爲我的代碼。 這是我發現 # Read MNIST data (X_Train, y_Train), (X_Test, y_Test) = mnist.load_data() # Translation of data X_Train40 = X_Train.reshape(X_Train.shape[0]

    0熱度

    1回答

    這行: z = random_normal(shape = (-1, 8, 8, 256), mean = 0.0, stddev = 1.0, dtype = None, seed = None) 給出了錯誤: AttributeError: 'Tensor' object has no attribute '_keras_history'. 有任何人任何我怎麼能解決它

    4熱度

    1回答

    我想解決時間序列預測問題。我嘗試過使用ANN和LSTM,在各種參數上玩了很多,但我所能得到的結果比持久性預測好8%。 所以我想知道:既然你可以在keras中保存模型;對於時間序列預測,是否有預先訓練的模型(LSTM,RNN或任何其他ANN)?如果是這樣,我如何得到它們? Keras有沒有? 我的意思是這將是,如果有包含預先訓練的模型,使人們就不必speent太多時間訓練他們網站.. 同樣,另一個問