cntk

    1熱度

    1回答

    我正在訓練一個疊加了一個在另一個頂部的S形層的NN。我有與每個圖層相關的標籤,我希望在減少第一層損失和最小化第二層損失的培訓之間進行交替。我期望不管我是否訓練第二層,我在第一層獲得的結果都不會改變。但是,我確實有顯着的不同。我錯過了什麼? 下面是代碼: dim = Xtrain.shape[1] output_dim = Ytrain.shape[1] categories_dim = Ctr

    1熱度

    1回答

    分類錯誤 我理解人們通常使用的損失及以下的錯誤培養 ce = cross_entropy_with_softmax(z, label_var) pe = classification_error(z, label_var) trainer = Trainer(z, (ce, pe), ...) 我們可以覆蓋或定義自己的損失和錯誤的方法呢?我們真正需要的是在計算損失和錯誤時添加權重。例如,我

    -2熱度

    1回答

    設定我稱爲 「https://github.com/Microsoft/CNTK/blob/master/Tests/UnitTests/V2LibraryTests/FeedForwardTests.cpp」 在 「TestFeedForwardNetworkCreation」 功能,我無法找到設置學習率的方法。 std::vector<float> inputData(inputDim * n

    1熱度

    1回答

    我在將Keras + Tensorflow後端完成的圖像分割代碼遷移到Keras + CNTK後端時遇到了一些問題。代碼與TF後端完美結合,但與CNTK崩潰。 該模型是從https://github.com/jocicmarko/ultrasound-nerve-segmentation/blob/master/train.py 模型輸入激勵被定義爲inputs = Input((img_widt

    0熱度

    1回答

    我對機器學習和作爲學習練習很陌生我試圖在CNTK中實現卷積遞歸神經網絡來識別圖像中的可變長度文本。其基本思想是獲取CNN的輸出,從中創建一個序列並將其饋送到RNN,然後使用CTC作爲丟失函數。我遵循'CNTK 208:培訓聲學模型和連接主義時間分類(CTC)標準'教程,該教程顯示了CTC使用的基本知識。不幸的是,在訓練過程中,我的網絡收斂爲只輸出空白標籤,沒有其他東西,因爲出於某種原因造成的損失最

    2熱度

    1回答

    我試圖在CNTK中實現一個注意力集中的Seq2Seq模型,這與CNTK Tutorial 204非常相似。然而,一些小的差異導致了各種問題和錯誤信息,我不明白。這裏有很多問題,這些問題可能是相互關聯的,都來自我不理解的單一事物。 注意(萬一它很重要)。我的輸入數據來自MinibatchSourceFromData,由適合內存的NumPy數組創建,我沒有將它存儲在CTF中。 ins = C.sequ

    1熱度

    1回答

    我是ML新手,一直在玩CNTK教程。我已經成功訓練了幾個模型。 我完成了轉移學習教程(https://github.com/Microsoft/CNTK/blob/v2.1/Tutorials/CNTK_301_Image_Recognition_with_Deep_Transfer_Learning.ipynb)並創建了一個花卉識別模型。 當我將此模型導入CNTKAzureTutorial01

    1熱度

    1回答

    內兩層我目前使用重新實現的CNTK我Jonathan Longs FCN8-s實施TensorFlow。雖然TensorFlow是非常同時所熟悉我,我在使用微軟的CNTK但非常缺乏經驗。我讀了幾CNTK Github上教程,但現在我在這裏我想與upscore層添加pool4_score點。在TensorFlow我會簡單地使用tf.add(pool4_score, upscore1)但CNTK我必須

    0熱度

    1回答

    設置我超級迷糊中cntk 勢頭工作從文檔我看看到底怎麼會有兩種方式 1.勢頭,時間常數 #使用的固定勢頭1100所有樣本 m = momentum_as_time_constant_schedule(1100) 我在哪裏設置動量值? 這個固定動量的價值是什麼? '正常方式',即:一個我明白 C.adam(參數= res.parameters,LR = 0.4,動量= 0.9,variance_mo

    0熱度

    1回答

    我正在加載一個模型,現在我想測試每個節點與圖的其餘部分隔離,因此我使用克隆(CloneMethod.clone)方法,但是我發現這重新創建了整個模型。例如,當我克隆BatchNormalization層時,我得到了這個圖。那麼如何克隆BatchNormalization,但將其與父Minus節點斷開?