2016-02-27 49 views
9
import tensorflow as tf 
import numpy as np 
import os 
from PIL import Image 
cur_dir = os.getcwd() 

def modify_image(image): 
    #resized = tf.image.resize_images(image, 180, 180, 3) 
    image.set_shape([32,32,3]) 
    flipped_images = tf.image.flip_up_down(image) 
    return flipped_images 

def read_image(filename_queue): 
    reader = tf.WholeFileReader() 
    key,value = reader.read(filename_queue) 
    image = tf.image.decode_jpeg(value) 
    return key,image 

def inputs(): 
filenames = ['standard_1.jpg', 'standard_2.jpg' ] 
filename_queue = tf.train.string_input_producer(filenames) 
filename,read_input = read_image(filename_queue) 
reshaped_image = modify_image(read_input) 
reshaped_image = tf.cast(reshaped_image, tf.float32) 
label=tf.constant([1]) 
return reshaped_image,label 

def weight_variable(shape): 
initial = tf.truncated_normal(shape, stddev=0.1) 
return tf.Variable(initial) 

def bias_variable(shape): 
initial = tf.constant(0.1, shape=shape) 
return tf.Variable(initial) 

def conv2d(x, W): 
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') 

def max_pool_2x2(x): 
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], 
        strides=[1, 2, 2, 1], padding='SAME') 

x = tf.placeholder(tf.float32, shape=[None,32,32,3]) 
y_ = tf.placeholder(tf.float32, shape=[None, 1]) 
image,label=inputs() 
image=tf.reshape(image,[-1,32,32,3]) 
label=tf.reshape(label,[-1,1]) 
image_batch=tf.train.batch([image],batch_size=2) 
label_batch=tf.train.batch([label],batch_size=2) 

W_conv1 = weight_variable([5, 5, 3, 32]) 
b_conv1 = bias_variable([32]) 

image_4d=x_image = tf.reshape(image, [-1,32,32,3]) 

h_conv1 = tf.nn.relu(conv2d(image_4d, W_conv1) + b_conv1) 
h_pool1 = max_pool_2x2(h_conv1) 

W_conv2 = weight_variable([5, 5, 32, 64]) 
b_conv2 = bias_variable([64]) 

h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) 
h_pool2 = max_pool_2x2(h_conv2) 

W_fc1 = weight_variable([8 * 8 * 64, 1024]) 
b_fc1 = bias_variable([1024]) 
h_pool2_flat = tf.reshape(h_pool2, [-1, 8*8*64]) 
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) 
keep_prob = tf.placeholder(tf.float32) 
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) 

W_fc2 = weight_variable([1024, 2]) 
b_fc2 = bias_variable([2]) 

y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) 
cross_entropy= -tf.reduce_sum(tf.cast(image_batch[1],tf.float32)*tf.log(y_conv)) 
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 

init = tf.initialize_all_variables() 
sess = tf.Session() 
sess.run(init) 

for i in range(20000): 
sess.run(train_step,feed_dict={x:image_batch[0:1],y_:label_batch[0:1]}) 

我想在我自己的[32x32x3]圖像尺寸圖像上運行tensorflow卷積模型。正在正確讀取圖像並在訓練期間將圖像分配給佔位符。在運行train_step操作期間出現問題。當我執行圖形時,出現以下錯誤。Tensorflow錯誤「shape Tensorshape()must have rank 1」

TensorShape([Dimension(2), Dimension(1), Dimension(32), Dimension(32), Dimension(3)]) must have rank 1 

但是,當我看到的例子here,圖像是在[batch_size時,高度,寬度,深度]僅張量的形式。這個例子工作正常。 我錯過了什麼嗎?

+4

這個問題仍然是有用的,但包含*方式*代碼比展示問題所需要的更多代碼 - 現在很難將其縮小到失敗的切片操作,因爲答案解決了其他位發佈的代碼與問題無關。下次請將您的代碼修改爲最低限度的示例;這不需要8行來重現,更不用說80了。 –

回答

13

我認爲錯誤是從該線到來:

cross_entropy= -tf.reduce_sum(tf.cast(image_batch[1],tf.float32)*tf.log(y_conv)) 

image_batch是一個5-d張量,具有形狀[2, 1, 32, 32, 3],其中2爲batch_size參數tf.train.batch(),和由前面添加的1 image = tf.reshape(image, [-1, 32, 32, 3])。 (N.B.此重新設定是不必要的,因爲tf.train.batch()已經添加了一個批次維度,並且當您稍後構造image_4d時,最終不得不重新設置重新整形的效果。

在TensorFlow中,切片操作(即image_batch[1])比NumPy稍微靈活。切片中指定的維數必須等於張量的等級:即您必須指定所有五個維才能使其工作。您可以指定image_batch[1, :, :, :, :]以獲得image_batch的4-D切片。

我在你的程序注意到了一些其他問題,但是:

  1. cross_entropy計算似乎很奇怪。通常,這使用預測標籤並將其與已知的標籤進行比較,而不是圖像數據。

  2. 訓練步驟中的飼料似乎沒有效果,因爲佔位符xy_未在您的程序中使用。此外,您似乎正在餵食tf.Tensor(實際上,image_batch的非法片),因此執行該語句時會失敗。如果您打算使用饋送,您應該輸入保存輸入數據的NumPy數組。

  3. 如果你不使用使用tf.WholeFileReader在你的程序中所示—你需要調用tf.train.start_queue_runners()上手餵養—即。否則你的程序會掛起,等待輸入。