0
有人可以告訴我爲什麼密集層和輸出層的大小分別是256和10?如何計算卷積神經網絡中密集和輸出層的尺寸?
input = 1x28x28
conv2d1 (28-(5-1))=24 -> 32x24x24
maxpool1 32x12x12
conv2d2 (12-(3-1))=10 -> 32x10x10
maxpool2 32x5x5
dense 256
output 10
閱讀這些概念並觀看動畫後,我仍然有一個問題。如果我有2個輸入通道,第一個只包含偶數像素,第二個只包含奇數像素。然後在他們存儲的順序卷積後?因爲我想將這些偶數像素與完全連接層的W矩陣中的奇數像素分開。你能解釋他們的存儲順序嗎?卷積輸出對應於兩個通道 –
在這種情況下,當你跨頻道進行卷積時。他們總結 - 所以,很難再分裂他們。 – hars
你能告訴我有什麼辦法可以將它們分開嗎?如果是的話,我們該怎麼做? –