2016-02-01 59 views
1

我試圖訓練一個簡單的網絡張量流MNIST數據集。 目前雖然它不工作。 它基本上是在TensorFlow網站上給出的示例的修改版本。我只是改變了幾行,並刪除了一層看看發生了什麼。 這裏是我的代碼:與TensorFlow無效的參數錯誤(不兼容的形狀)

#!/usr/bin/python 

import input_data 
import tensorflow as tf 
#MNIST dataset 
def weight_variable(shape): 
    initial=tf.truncated_normal(shape,stddev=0.1) 
    return tf.Variable(initial) 

def bias_variable(shape): 
    initial=tf.constant(0.1,shape=shape) 
    return tf.Variable(initial) 
def conv2d(x,W): 
    return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME') 
def max_pool_2x2(x): 
    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME') 
mnist=input_data.read_data_sets('MNIST_data',one_hot=True) 
x=tf.placeholder("float",shape=[None,784]) 
y=tf.placeholder("float",shape=[None,10]) 
x_image=tf.reshape(x,[-1,28,28,1]) 

#Layer 1: convolutional+max pooling 

W_conv2=weight_variable([5,5,1,64]) 
b_conv2=bias_variable([64]) 

h_conv2=tf.nn.relu(conv2d(x_image,W_conv2)+b_conv2) 
h_pool2=max_pool_2x2(h_conv2) 

#Layer 2: ReLU+Dropout 

W_fc1=weight_variable([7*7*64,1024]) 
b_fc1=bias_variable([1024]) 
h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64]) 
h_fc1=tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1) 

keep_prob=tf.placeholder("float") 
h_fc1_drop=tf.nn.dropout(h_fc1,keep_prob) 

#Layer 3: softmax 

W_fc4=weight_variable([1024,10]) 
b_fc4=bias_variable([10]) 
y_hat=tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc4)+b_fc4) 

cross_entropy=-tf.reduce_sum(y*tf.log(y_hat)) 
train_step=tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 
sess=tf.InteractiveSession() 
sess.run(tf.initialize_all_variables()) 
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(y_hat,1)) 
accuracy=tf.reduce_mean(tf.cast(correct_prediction,"float")) 

for n in range(20000): 
    batch=mnist.train.next_batch(50) 
    if n % 100 == 0: 
     train_accuracy = accuracy.eval(feed_dict={x:batch[0],y:batch[1],keep_prob:1.0}) 
     print "step %d,training accuracy %g" % (n,train_accuracy) 
    sess.run(train_step,feed_dict={x:batch[0],y:batch[1],keep_prob:0.5}) 

print "test accuracy %g" % accuracy.eval(feed_dict={x:mnist.test.images, y:mnist.test.labels,keep_prob:1.0}) 

當我試着執行它時它崩潰給我一個ArgumentError:

W tensorflow/core/common_runtime/executor.cc:1027] 0x7fceb58a4200 Compute status: Invalid argument: Incompatible shapes: [50] vs. [200] 
+0

能否請你周圍添加錯誤一些更多的背景?特別是,它將有助於瞭解哪個操作會引發該錯誤。 (其中一個建議是,將'None'值替換爲'50'(您使用的批量大小)傳遞給'x'和'y'的初始佔位符的值,這樣您應該得到更早的錯誤。 ) – mrry

+0

「一個跟蹤這個問題的建議是用50代替傳遞給x和y的初始佔位符的None值 - 這個評論幫了我很多。謝謝。 –

回答

1

你需要爲你的步幅大小,以減少你的輸出到正確的形狀 - 這應該修復它(注意相比,你的進步):

def conv2d(x, W): 
    return tf.nn.conv2d(x, W, strides=[1, 2, 2, 1], padding='SAME') 

要解決這種問題,嘗試打印.get_shape()你所有的變量。 Tensor和Variable都有這個功能 - 它可以讓你更好地瞭解正在發生的事情,並將極大地幫助解決問題。

下面是一些代碼,這將有助於 - 把這個你的h_pool2聲明後,它將打印每個瓦爾的名稱和形狀:

from tensorflow.python.ops.variables import Variable 

for k, v in locals().items(): 
    if type(v) is Variable or type(v) is tf.Tensor: 
     print("{0}: {1}".format(k, v)) 
+0

非常感謝!它像魅力一樣工作,關於getShape()方法的信息非常有用! :d –

相關問題