autoencoder

    1熱度

    1回答

    我想其中輸入基本應用了高斯噪聲的向量訓練的一些模擬數據自動編碼。該代碼是幾乎完全一樣在這個例子:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3_NeuralNetworks/autoencoder.py 唯一的區別是,我改變了網絡參數和成本函數: n_hidden_1 = 32 # 1st la

    0熱度

    2回答

    編碼器執行自動編碼器被示出爲下面的訓練時不改變: # One Layer Autoencoder # Parameters learning_rate = 0.01 training_epochs = 20 batch_size = 256 display_step = 1 examples_to_show = 10 # Network Parameters n_hidden=

    0熱度

    1回答

    我試圖在張量流中實現堆棧降噪自動編碼器。這是我得到的代碼。它與一層一起工作,但是當我試圖堆疊它時(通過改變參數n_neuron的列表)。它不再工作了。我試圖調試很長一段時間,但仍然無法得到答案。 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #Reading MNIST data fr

    0熱度

    1回答

    我使用tensorflow建立一個簡單的自動編碼模型負輸出,但是有這個奇怪的錯誤,我不能診斷 我有一個看起來像這樣的損失函數: def loss_func(x,y): return 0.5 * tf.reduce_mean(tf.pow(x-y, 2)) 總損耗然後通過計算: return self.loss_func(x , input) + self.reg_fac * reg

    1熱度

    1回答

    在原始的自動編碼變分貝葉斯paper中,作者描述了2.4節中的「重新參數化技巧」。訣竅是將你的潛在狀態z分解成可學習的均值和西格瑪(由編碼器學習)並添加高斯噪聲。然後,您從z中採樣數據點(基本上可以生成編碼圖像),並讓解碼器將編碼數據點映射回原始圖像。 我有一個很難得到這是多麼奇怪。有人可以解釋一下潛變量模型,具體如下: 爲什麼我們假設潛伏態是高斯? 高斯可以如何生成圖像? Backprop如何破

    1熱度

    1回答

    我有兩個模型foo和bar。假設bar被預訓練並加載。我想爲foo定義成本函數,大致在下面的代碼中描繪出來(它實際上是一個自動編碼器)。請注意,這是重現我的問題的一個最小示例,因此它們在數學上沒有意義。 import tensorflow as tf def foo(X): with tf.variable_scope("foo"): A = tf.get_vari

    1熱度

    1回答

    我想要它的數學證明。有沒有人知道它的一篇論文。或者可以鍛鍊數學?

    6熱度

    1回答

    我正在使用tf.slim來實現自動編碼器。我是用下面的架構完全卷積: [conv, outputs = 1] => [conv, outputs = 15] => [conv, outputs = 25] => => [conv_transpose, outputs = 25] => [conv_transpose, outputs = 15] => [conv_transpose, outp

    0熱度

    1回答

    我想做一個隱藏層的價值發揮關鍵作用的項目。我正在嘗試使用本教程中的示例自動編碼器,我能夠進行漸變下降並且它也在收斂,但我不確定如何打印隱藏層的值。當我在model.outputs上使用打印狀態時,我得到tf.Tensor'add:0'shape =(?,30)dtype = float32,其中30是隱藏層中的節點數。誰能幫忙?謝謝。

    0熱度

    1回答

    我想製作一個只有1層的自動編碼器,它有100個隱藏單元。而且,我使用了由tensorflow給出的MNIST數據集。 但是,它不起作用。我不知道問題是什麼。 當我調試時,我的解碼器層只填滿了全部1。 反向傳播更新不起作用嗎? 或者,單層自動編碼器不能操作? 請給我一些幫助。 import tensorflow as tf import numpy as np import matplotlib