keras

    9熱度

    1回答

    由於某些原因,儘管我設置了衰減因子,但我的學習速度似乎沒有改變。我添加了一個回調來查看學習速率,並且在每個時代後它看起來都是一樣的。爲什麼不改變 class LearningRatePrinter(Callback): def init(self): super(LearningRatePrinter, self).init() def on_epoch_begi

    6熱度

    1回答

    由於某些原因,當我使用帶keras的ImageDataGenerator時,它會在我開始貼合時凍結。我得到以下輸出。它只是掛就行了Epoch 1/5 Using Theano backend. Using gpu device 0: GeForce GTX TITAN (CNMeM is disabled, cuDNN not available) Loading Data Compilin

    4熱度

    1回答

    我用Theano作爲後端使用Keras,我有Sequential神經網絡模型。 我不知道以下是否有區別? model.add(Convolution2D(32, 3, 3, activation='relu')) 和 model.add(Convolution2D(32, 3, 3)) model.add(Activation('relu'))

    0熱度

    1回答

    我使用Keras功能API來實現一個簡單的多輸入多輸出網絡。但是有一些錯誤發生在我身上,我無法弄清楚如何解決它。 這裏是代碼: import numpy as np from keras.layers import Dense, Activation, Input, merge, Lambda from keras.models import Model from keras.optimiz

    4熱度

    2回答

    我只是想知道在優化時保存模型狀態的最佳方式是什麼。我想這樣做,所以我可以運行它一段時間,保存它,並在一段時間後再回來。我知道有一個函數來保存重量,另一個函數將模型保存爲JSON。在學習期間,我需要保存模型的權重和參數。這包括動力和學習率等參數。有沒有辦法在同一個文件中保存模型和權重。我讀過使用泡菜不被認爲是好習慣。 JSON模型或權重中也包含了重要體面的勢頭嗎?

    7熱度

    1回答

    我學習和神經網絡的實驗,並希望有從別人的意見就以下問題更有經驗: 當我訓練的Keras自動編碼(「mean_squared_error」損失函數和SGD優化),驗證損失正在逐漸下降。驗證的準確性正在提高。到現在爲止還挺好。 然而,過了一段時間,損失持續下降,但準確度突然回落到低得多的低水平。 這是'正常的'或預期的行爲,準確度上升非常快,並保持高突然回落? 即使驗證損失仍在下降,我是否應該停止最大

    5熱度

    1回答

    我一直使用Keras從我的神經網絡獲得幾個NaN輸出。我每10,000個結果只得到一個NaN。最初我有一個relu活化層進入最終的softmax層。這產生了更多的NaN結果。我將憲法網絡中最後兩個密集層的激活函數從relu改爲sigmoid。這使問題更好,但我仍然得到NaN。對於我如何完全消除楠的任何建議? model = Sequential() model.add(InputLayer((1

    10熱度

    3回答

    我有幾千個音頻文件,我想用Keras和Theano對它們進行分類。到目前爲止,我生成了每個音頻文件的28x28譜圖(更大可能更好,但我只是試圖讓算法在這一點上工作)並將圖像讀入矩陣。所以最終我得到了這個大的圖像矩陣來饋送到網絡中進行圖像分類。 在教程中,我發現這個MNIST分類代碼: import numpy as np from keras.datasets import mnist fr

    5熱度

    2回答

    我想將我的keras模型轉換爲theano函數,以便我可以計算輸入上的梯度。我認爲這對於可視化網絡可能很酷。我想使用這些漸變來增強原始圖像中基於神經網絡認爲它們的特徵。我不明白我在做什麼錯了下面的代碼。 model = Sequential() model.add(InputLayer((3, H, W))) model.add(GaussianNoise(0.03)) model.add

    18熱度

    4回答

    我有一個「單熱編碼」(全1和零)的數據矩陣,有260,000行和35列。我正在使用Keras來訓練一個簡單的神經網絡來預測一個連續變量。使網絡中的代碼如下: model = Sequential() model.add(Dense(1024, input_shape=(n_train,))) model.add(Activation('relu')) model.add(Dropout(0.