0

我正在研究python中的圖像識別項目。我已經在期刊上看到,如果將自組織映射(SOM)執行的聚類輸入到監督神經網絡中,與監督網絡本身相反,圖像識別的準確性會提高。我已經嘗試過使用庫來執行聚類,並在每次迭代後使用獲勝神經元的座標作爲來自keras的多層感知器的輸入。但是準確度很差。如何結合python中的自組織映射和多層感知器

有誰知道另一種方法來結合SOM和多層感知器,而不是使用獲勝的SOM座標嗎?

+0

我現在沒有,如果我正確理解。你首先訓練SOM層和其他無監督訓練,你給MLP贏得神經元座標? – viceriel

+0

是的,我首先訓練將我輸入的圖像聚集在一起的SOM。在無監督訓練SOM之後,我將獲勝的x,y座標存儲在一個2d numpy數組中,並將其作爲輸入提供給MLP,但MLP的測試精度非常低,因此我想知道是否有另一種方法結合SOM和MLP,除了提供座標 –

+0

[混合SOM(含MLP)]的可能重複](https://stackoverflow.com/questions/36434218/hybrid-som-with-mlp) –

回答

1

另一種使用SOM的方法是矢量量化。而不是使用獲勝的SOM座標,使用獲勝神經元的碼本值。不知道你正在閱讀哪篇文章,但我會說,進入MLP的SOM只會在某些情況下提供更好的準確性。此外,您需要明智地選擇維度和地圖大小等參數。

對於圖像處理,我會說Autoencoders或卷積神經網絡(CNNs)是SOM更前沿的替代方案,用於調查您是否確定SOM + MLP架構。

0

我一直在想,是否有任何里程訓練一個單獨的監督神經網絡的輸入映射到SOM中的每個節點。然後,您將在輸入數據映射的子集上對每個SOM節點分別進行有監督的學習。連接到每個節點的網絡可能比一個必須處理整個輸入空間的大網絡更小,更容易受到訓練。包括映射到相鄰SOM節點的輸入向量也可能有益處。

有人知道這是研究的主題嗎?