training-data

    -1熱度

    1回答

    有誰知道我該如何訓練一個數據集並測試另一個數據集? 到目前爲止,我只知道,我們可以將一個數據集分成訓練和測試這一行代碼: X_train, X_test, y_train, y_test = \ train_test_split(X, y, test_size=0.30, random_state=1) 我不知道是什麼的一部分,如果我們培養的一個數據集和測試,我應該在該行改變在另一

    0熱度

    2回答

    當傳遞給tf.train.batch時,它看起來像元素的形狀必須嚴格定義,否則它會抱怨All shapes must be fully defined如果存在形狀爲Dimension(None)的張量。那麼,如何在不同尺寸的圖像上進行一次訓練呢?

    2熱度

    3回答

    這個問題已被部分詢問here和here沒有跟進,所以也許這不是問這個問題的地點,但我已經想出了更多的信息,我希望能得到這些答案的問題。 我一直在試圖在大約1k張照片上自己的庫上訓練object_detection。我一直在使用提供的管道配置文件「ssd_inception_v2_pets.config」。 我相信,我已經正確設置了培訓數據。該計劃似乎開始訓練很好。當它無法讀取數據時,它會以錯誤提醒

    0熱度

    1回答

    正如您現在所見,Apple在今年的WWDC中引入Core ML爲iOS 11。此框架使用已經訓練過的ML模型,如果您的源模型與您的模型不匹配,您可以將其轉換爲特定格式。 Apple也可用於下載並直接集成一些已經培訓的ML型號here。 另一方面,他們在WWDC 2017也提到,您可以使用工具(如Caffe或Keras)來訓練模型。 我想培訓一個比Apple已經培訓和提供的模型更具體的目的,看起來很

    1熱度

    1回答

    我想使用XGBoost的early_stopping_rounds做非過度訓練。爲此,我使用下面的代碼: parameters = {'nthread': 4,'objective': 'binary:logistic','learning_rate': 0.06,'max_depth': 6,'min_child_weight': 3, 'silent': 0,'gamma': 0,

    3熱度

    1回答

    我正在訓練一個網絡,該網絡有多個損失,並使用生成器創建數據並將其饋入我的網絡。 我檢查過數據的結構,它看起來一般都很好,它也像預期的那樣大部分時間訓練,但是在幾乎每一次的隨機時代,每次預測的訓練損失突然跳躍從說 # End of epoch 3 loss: 2.8845 到 # Beginning of epoch 4 loss: 1.1921e-07 我認爲它可能是數據,但是,從我可

    0熱度

    2回答

    目標是在不同的訓練數據框上執行多個logit迴歸,然後評估各個測試數據集的性能。 首先,我們從df創建多個(5)隨機取樣的數據幀: for(i in 1:5) { nr <- paste("random_df", i, sep = "_") assign(nr, random_df[sample(nrow(df)),]) } 然後,我們創建用於分離指標分成訓練 - 和測試集: train

    1熱度

    1回答

    我正在進行面部表情識別,我正在使用Keras。我收集了許多數據集,然後在圖像上應用了數據增強功能,在.csv文件(與fer2013.csv格式相同)上保存了約500 000個圖像(以像素爲單位)。 這是我使用的代碼: def Zerocenter_ZCA_whitening_Global_Contrast_Normalize(list): Intonumpyarray = numpy.a

    1熱度

    1回答

    我想移動我的文件並創建一個新文件夾來將這些文件放在那裏。 我在我的MATLAB目錄中的圖像文件夾中有許多.png文件。我想隨機選擇其中的80%,並將它們移動到另一個名爲training folder的文件夾中,位於我的matlab目錄中。下面是我的代碼,這是行不通的。它不能找到該文件移動:( data_add = fullfile(cd,'images'); all_files = dir(da

    0熱度

    2回答

    如上所述,既 tf.nn.conv2d與步幅= 2 和 tf.nn.max_pool以2x2池 可以將輸入的大小減少到一半,並且我知道輸出可能不同,但我不知道的是影響最終的訓練結果與否,對此的任何線索,謝謝。