training-data

    0熱度

    1回答

    我想從Matlab腳本調用java函數,我嘗試了所有解決方案放在網站上,但我沒有得到一個問題。 我的類很簡單: package testMatlabInterface; public class TestFunction { private double value; public TestFunction() { value=0; }

    0熱度

    1回答

    我的特徵是歸一化的rgb值,它包含0到0.1範圍內的值。我已聲明訓練矩陣爲CV_64FC1。它包含1000行和60列,但有十進制值,如0.3333或0.2789。現在我在OpenCv文檔中看到,訓練矩陣必須是浮點類型,但是我的矩陣是double類型的。如何把這個矩陣的SVM進行訓練,無須轉換爲浮動

    0熱度

    2回答

    我由1輸出NN訓練的4個輸入1個月,然後在同一NN被升級了由1 O.成爲5 I I應當重複與新配置的訓練或我仍然可以使用舊訓練?

    0熱度

    1回答

    輸入的是一個可變尺寸的陣列。我只能在train_model中一次處理一個給定示例。我想累積批次中元素的目標總和,然後應用正則化和漸變下降。 目前,這就是更新每個元素喜完成訓練階段。 for epoch in range(n_epochs): minibatch_avg_cost = 0 for xi in dataset.get_next_xi(batch_size): miniba

    1熱度

    2回答

    當開發一個神經網絡人們通常劃分訓練數據到列車,測試,和堅持數據集(很多人都稱這些列車,驗證和測試分別。同樣的事情,不同的名字)。許多人建議根據測試數據集中的性能選擇超參數。我的問題是:爲什麼?爲什麼不最大化訓練數據集中超參數的性能,並且當我們通過測試數據集中的性能下降來檢測過度擬合時,停止訓練超參數?由於訓練通常比測試大,因此與訓練測試數據集上的超參數相比,這不會產生更好的結果嗎? UPDATE

    1熱度

    1回答

    我試圖適應多類分類神經網絡模型,但我有 IndexError: indices are out-of-bounds 錯誤。 我的訓練數據的維度爲(26728, 450),有450個功能。輸出大小爲5(5類)。我用to_categorical(train_Y)將它轉換爲5列的矩陣。 的代碼是 model = Sequential() model.add(Dense(64, input_dim

    0熱度

    1回答

    使用train()和preProcess()我想用前7個主成分作爲預測因子,使用PCA構建預測模型。 下面的作品,但我不能指定PC數量: predModel2 <- train(diagnosis~., data=training2, method = "glm", preProcess = "pca") 我已經試過這指定PC的數量,但我不知道如何將其納入火車(): predModel2 <-

    3熱度

    1回答

    dlib是否能夠用於訓練對象檢測器的大型數據集。我有> 450K人臉圖像來訓練人臉檢測器。是否可以使用Dlib或我需要指向另一個替代方案?

    2熱度

    1回答

    我試圖用大小爲50 MB的數據來訓練我的模型。 我只是想知道是否有規則/算法來確定算法的維度的大小。

    0熱度

    1回答

    我正在用scala編寫的spark項目中的MySQL數據庫中讀取一個表。這是我的第一週,所以我真的不適合。當我試圖運行 val clusters = KMeans.train(parsedData, numClusters, numIterations) 我得到了parsedData一個錯誤,指出:「類型不匹配;發現:org.apache.spark.rdd.RDD [地圖[字符串,任何]要求