2017-05-14 67 views

回答

1

卷積層與完全連接層不同。對於完全連接,您將矢量重塑爲單一維度,並將矩陣乘法與fc層權重(W * x + B)應用。

你應該清楚地閱讀和理解這裏的概念(最好的教程,瞭解如何convnets作品):http://cs231n.github.io/convolutional-networks/#conv

對於緻密層

在你的情況,第一致密層具有權重的大小[32 * 5 * 5256]。將池圖層的輸出重新整形爲一個矢量,並通過密集圖層輸入。第一個密集層的輸出是256個dim矢量 - 通過第二個FC層(weights_size = [256,10])饋送它以獲得10個dim矢量

Conv,Pool,Relu,完全連接層和計算的所有細節在上面的鏈接中清楚地解釋了每層的輸出尺寸。

請通過它。我希望有所幫助。

+0

閱讀這些概念並觀看動畫後,我仍然有一個問題。如果我有2個輸入通道,第一個只包含偶數像素,第二個只包含奇數像素。然後在他們存儲的順序卷積後?因爲我想將這些偶數像素與完全連接層的W矩陣中的奇數像素分開。你能解釋他們的存儲順序嗎?卷積輸出對應於兩個通道 –

+0

在這種情況下,當你跨頻道進行卷積時。他們總結 - 所以,很難再分裂他們。 – hars

+0

你能告訴我有什麼辦法可以將它們分開嗎?如果是的話,我們該怎麼做? –