1
我對Keras示例pretrained_word_embeddings有幾個疑問,以提高對其工作原理的理解程度。關於keras示例的疑問pretrained_word_embeddings
在這樣的模型中使用
dropout
層是否合理?最後
MaxPooling1D
層每次都要覆蓋所有的輸出形狀嗎?在原始模型中,最後的conv層輸出是35,我們將maxpool設置爲相同的35值。我說得對,如果增加值128(內核數)會提高準確度嗎?
是否有意義增加額外的轉換層來提高準確度?即使它會減少模型訓練階段。
謝謝!
感謝您的時間!將根據這個答案進行調查。 –
這對你有幫助嗎? –