autoencoder

    0熱度

    1回答

    我試圖在不同體系結構中共享體系結構的編碼器/解碼器子網絡與其他編碼器/解碼器之間的參數。這對我的問題是必要的,因爲在測試時間,它需要大量的計算(和時間)在原始體系結構上執行正向傳遞,然後提取解碼器結果。然而,我注意到雖然我在做clone()時明確要求參數共享,但參數不共享,每個架構在訓練時都有自己的參數。 我通過向前傳播一些隨機向量到兩個體系結構的解碼器和編碼器(您也可以比較它們的權重),通過一些

    0熱度

    1回答

    我試圖通過增加一層來使Keras VAE例子適應深層網絡。 原始代碼:Original VAE code 變化: batch_size = 200 original_dim = 784 latent_dim = 2 intermediate_dim_deep = 384 # <<<<<<< intermediate_dim = 256 nb_epoch = 20 # x = Inpu

    7熱度

    1回答

    我試圖根據Andrew Ng的演講筆記實現稀疏自動編碼器,如here所示。 它要求通過引入懲罰項(K-L發散度)來對自動編碼器層應用稀疏約束。我嘗試使用here提供的方向執行此操作,稍作更改後。 下面是SparseActivityRegularizer類實現的K-L散度和稀疏懲罰項,如下所示。 def kl_divergence(p, p_hat): return (p * K.log(p/p_

    5熱度

    1回答

    我想構建一個卷積自動編碼器,其中輸入的大小不是恆定的。我通過疊加conv-pool圖層直到達到編碼層,然後用upsample-conv圖層進行相反操作。問題是無論我使用什麼設置,我都無法在輸出層中獲得與輸入層完全相同的大小。原因在於UpSampling層(給出了(2,2)的大小),使輸入的大小加倍,所以我不能得到奇數維。有沒有一種方法可以將給定圖層的輸出尺寸與前一圖層的輸入尺寸(針對單個樣本)相關

    7熱度

    1回答

    我學習和神經網絡的實驗,並希望有從別人的意見就以下問題更有經驗: 當我訓練的Keras自動編碼(「mean_squared_error」損失函數和SGD優化),驗證損失正在逐漸下降。驗證的準確性正在提高。到現在爲止還挺好。 然而,過了一段時間,損失持續下降,但準確度突然回落到低得多的低水平。 這是'正常的'或預期的行爲,準確度上升非常快,並保持高突然回落? 即使驗證損失仍在下降,我是否應該停止最大

    1熱度

    1回答

    我正嘗試使用Keras基於文檔[this example][1]構建自編碼器。因爲我的數據很大,所以我想使用生成器來避免將其加載到內存中。 我的模型看起來像: model = Sequential() model.add(Convolution2D(16, 3, 3, activation='relu', border_mode='same', input_shape=(3, 256, 256)

    2熱度

    1回答

    我最近了解了自動編碼器,並計劃構建一個用作隱式反饋的推薦系統的一部分。 基於如何經典作品自動編碼,就好像他們可以用來恢復其分量並不一定是0或1。然而,所有的介紹材料載體在那裏似乎表明,自動編碼的二進制矢量操作,X = [0,1]^d,如here,或paper中的第2.2節。 爲了對非二進制向量使用自動編碼器,在我看來,唯一的區別是應該使用L2錯誤函數代替適合於二進制情況的交叉熵。 我很感激,如果有

    0熱度

    1回答

    在Andrew Ng的講義中,他們使用LBFGS並獲得一些隱藏功能。我可以使用漸變下降來產生相同的隱藏功能嗎?所有其他參數都是相同的,只需更改優化算法即可。 因爲當我使用LBFGS時,我的autoencoder可以產生與講義中相同的隱藏特性,但是當我使用梯度下降時,隱藏層中的特徵不見了,看起來完全是隨機的。具體來說,爲了優化成本函數,我實現了1)成本函數,2)每個權重和偏差的梯度。並將它們投入到s

    0熱度

    1回答

    我目前是一名學生,我正在開發一個神經網絡項目來分類圖像數據集。由於這些圖像沒有標記,我需要一種無監督的學習方法。 有人建議我應該使用自動編碼器,是否可以使用自動編碼器來「發現」重要特徵,然後將「隱藏層」中學習到的特徵用於多層感知器網絡,例如我可以分類圖像? 謝謝大家的幫助。

    13熱度

    1回答

    根據我的理解,通常情況下,自動編碼器在編碼和解碼網絡中使用相關的權重? 我看了一眼Caffe's auto-encoder example,但我沒有看到權重是如何相關的。我注意到編碼和解碼網絡共享相同的斑點,但是它如何保證權重正確更新? 如何在Caffe中實現綁定權重自動編碼器?