training-data

    0熱度

    2回答

    我正在做一個簡單的二進制分類,我給你一個我有問題的例子:可以說我們有n文檔(Doc 1,Doc 2, ...,Doc n。)我們將使用TF-IDF作爲特徵值來訓練一個二進制分類器,使用bag-of-words。我們有m我們的培訓文件的功能(從技術上來說,這是我們在清理和預處理之後在所有這n個文件中具有的唯一令牌的數量)。 現在,讓我們說我們有一個訓練有素的模型,我們要預測一個新文檔的標籤。我們應該

    0熱度

    1回答

    我嘗試使用TensorFlow和TensorFlow示例中的MNIST數據集來訓練模型。這工作正常。 但是每次我開始運行模型訓練的python腳本時,訓練圖像都有不同的順序(順序)。 我怎樣才能定義訓練圖像的序列是每次相同,當我開始我的python腳本?

    1熱度

    1回答

    我正在學習如何使用Keras和CIFAR-10數據集實現數據增強。我在網上教程和本書的幫助下學習Deep learning with Keras. 代碼的具體細節是here。 這裏是我的問題,我確信它涉及到對我而言有些誤會: 這是我CONV成立。 IMG_CHANNELS = 3 IMG_ROWS = 32 IMG_COLS = 32 BATCH_SIZE = 128 NB_EPOCH =

    0熱度

    1回答

    我的時間一定時間與時間戳跟蹤多個信號和關聯他們像以下: t0 1 10 2 0 1 0 ... t1 1 10 2 0 1 0 ... t2 3 0 9 7 1 1 ... // pressed a button to change the mode t3 3 0 9 7 1 1 ... t4 3 0 8 7 1 1 ... // pressed button to adjust a ce

    0熱度

    1回答

    我正在對LIDC-IDRI數據集上的分割網絡U-net進行培訓。目前有兩種訓練策略: 從頭開始訓練整個訓練集的模型(40k步,180k步)。 對整個訓練集的10%進行訓練。收斂後(30k步),繼續在整個訓練集上訓練模型(10k步)。 隨着Dice coefficient作爲損失函數,這也是在V-網架構(paper)使用的,模型方法2訓練總是比用方法1.前者可以實現一個骰子得分的0.735更好,而後

    1熱度

    1回答

    我正在使用非負矩陣分解(NMF)主題模型爲客戶反饋構建主題模型。 它創建話題羣集如下: [(0, [u'reserved block', u'reserved block available', u'reserved block week', u'need reserved block']), (1, [u'hour block', u'package hour block', u'bring h

    2熱度

    1回答

    我面臨的問題無法用我在互聯網上找到的解決。 我建立了我的神經網絡,並將它連接到輸入管道。從tfrecord 讀取數據,與tf.train.batch和queueRunners,COORDS等。 我建立我的NN到一個名爲 「模型」,我喜歡使用Python類: 模型=模型(...所有超參數在這裏...) ... model.predict() 或 model.step() 所有訓練階段工作得很好。 但

    1熱度

    1回答

    我正在使用keras來實現一個簡單的二進制分類網絡。我有一個包含2個類別的數據集,我正在嘗試使用這些數據來訓練我的網絡。我沒有龐大的數據集。在這兩個類別的圖像總數是500左右 網絡是如下: self.model = Sequential() self.model.add(Conv2D(128, (2, 2), padding='same', input_shape=dataset.X_

    0熱度

    1回答

    我想實現數據集劃分到培訓和測試集,但在從第45行開始的功能我遇到了問題。 「KeyError異常:667952」運行,具有程序返回後(在錯誤的數量我每次運行的程序是不同的) 1 import numpy as np 2 import pandas as pd 3 import random 4 5 data_file = pd.read_csv('loan.csv') 6 7 # va

    1熱度

    1回答

    我正在使用LSTM和tensorflow的翻譯模型來訓練會話代理。我使用批次式訓練,導致每次紀元開始後訓練數據困惑度顯着下降。這種下降可以通過我批量讀取數據的方式來解釋,因爲我保證訓練數據中的每個訓練對在每個紀元處理一次。當一個新紀元開始時,模型在以前的時代中所做的改進將再次遇到訓練數據,從而顯示其利潤,表現爲圖中的下降。其他分批方法(如張量流的翻譯模型中使用的方法)不會導致相同的行爲,因爲他們的