convolution

    0熱度

    1回答

    我已經在tensorflow中建立了CNN,用於在人與非人之間進行分類。我有相同數量的負面和正面訓練數據,我隨機化了訓練集中的圖像,並且也使用網絡中的丟失。問題是,在訓練過程中,經過100步後,小批量精度爲40%,在200步時已達85%。爲什麼它增長如此之快?

    -1熱度

    1回答

    所以我在CUDA中實現了(或者至少試過)Sobel濾波器,我的代碼如下。當我執行這個文件時,我得到一個正確的Sobel過濾圖像的一半,另一半是黑色的。我無法上傳圖片,因爲它們的格式爲.pgm。因此,代碼所執行的操作是以.pgm格式的灰度圖像讀取的,並使用共享內存概念將Sobel濾鏡遮罩與其進行卷積。我用一個1024×1024的圖像作爲輸入,它返回一個Sobel濾波圖像,其邊緣有一半水平切割,因此它

    1熱度

    1回答

    任何人請告訴我如何可視化每個CNN圖層的學習過濾器? 以下答案告訴我如何僅將第一個CNN圖層的學習過濾器可視化,但不能看見其他CNN圖層。 1)你可以恢復過濾器,並使用Matlab的函數顯示它們爲圖像。例如從http://www.vlfeat.org/matconvnet/pretrained/加載預訓練後的淨額: imshow(net.layers{1}.filters(:, :, 3, 1),

    -1熱度

    1回答

    我使用TensorFLow的C++版本和已經建立「TensorFlow爲Android」成功使用以下命令 「巴澤勒建立-c選擇// tensorflow /示例/機器人:tensorflow_demo」作爲https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/android#bazel 描述 我試圖優化卷積

    2熱度

    1回答

    我正在嘗試瞭解GAN,並正在通過the example here進行工作。 下面使用ADAM優化的代碼給我 "ValueError: Variable d_w1/Adam/ does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?" 我使用TF 1.1

    1熱度

    1回答

    我有兩個問題: (1)當只使用一個GPU時,Tensorflow如何分配GPU內存?我有這樣的(全球使用GPU)卷積2D的實現: def _conv(self, name, x, filter_size, in_filters, out_filters, strides): with tf.variable_scope(name): n = filter_size * fil

    2熱度

    1回答

    我試圖將Conv2D圖層與圖像上的LSTM圖層相結合。 問題在於Conv2D圖層需要輸入包括通道數量的4D張量,而我的LSTM網絡需要3D張量。 問題是我使用bucketing,所以我的輸入沒有預定義的時間步數。我想這樣做: input_data = Input(shape=[None, nb_features, 1]) cnn1 = Conv2D(nb_filters, kernel_size

    1熱度

    2回答

    我有一個分類問題,其中感興趣的類只有數據集的7%,整個人口大約有1200個觀察值。 據我所知,來自Keras的ImageDataGenerator有助於增加數據以在訓練模型之前增加觀察次數,但是是否可以只增加一個類,如增加噪聲,模糊或僅對少數類進行變換?

    0熱度

    1回答

    我使用CNN(卷積神經網絡)模型來訓練cifar10。 我試圖在每次執行時更改批量大小以查看其對時間的影響 我的結論是:批量越大,模型執行的時間就越多。 這個問題似乎符合邏輯,因爲在我們應用BP算法每一批的結束,具有較大批量大小意味着我們施加較小梯度下降所以邏輯上,我們應該有較少的執行時間。 我發現相反。你們覺得怎麼樣 ! 感謝 這裏是我的會話代碼: with tf.Session() as s

    1熱度

    1回答

    我正在研究生成敵對網絡。最近,在閱讀Radford等人的論文的同時, here,我發現他們的發電機網絡的輸出層使用Tanh()。 Tanh()的範圍是(-1,1),但是,雙精度格式的圖像的像素值位於[0,1]。有人可以解釋爲什麼Tanh()用於輸出層,以及發生器如何生成具有適當像素值的圖像?