你要找的是不是一個熱編碼。也許這就是你想要達到的目標:
a = tf.constant([20, 1, 5, 3, 123, 4])
c = tf.cast(tf.equal(a, 3), tf.int32) # 3 is your matching element
with tf.Session() as sess:
print(c.eval())
# [0 0 0 1 0 0]
編輯
如果您有關於指數知識已經,您可以通過多種方式做到這一點。 如果在您的張量的值可以重複的機會,你可以做這樣的事情:
a = tf.constant([20, 1, 5, 3, 123, 4, 3])
c = tf.cast(tf.equal(a, a[3]), tf.int32)
with tf.Session() as sess:
print(c.eval())
# [0 0 0 1 0 0 1]
但如果你確信值不重複,就可以構造這個張量numpy的陣列狀的幫助這樣的:
import numpy as np
c = np.zeros((7), np.int32)
c[3] = 1
c_tensor = tf.constant(c)
with tf.Session() as sess:
print(c_tensor.eval())
# [0 0 0 1 0 0 0]
EDIT 2
基於新編輯的問題,做一個分類的任務,因爲在我看來,你是不是做定製backpropogation,讓我給ÿ ou是你正在尋找的部分的骨架代碼。
tf.reset_default_graph()
X = tf.placeholder(tf.float32, (None, 224, 224, 3))
y = tf.placeholder(tf.int32, (None))
one_hot_y = tf.one_hot(y, n_outputs) # Generate one-hot vector
logits = My_Network(X) # This function returns your network.
cross_entropy = tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits, one_hot_y))
# This function will compute softmax and get the loss function which you
# would like to minimize.
optimizer = tf.train.AdamOptimizer(learning_rate = 0.01).minimize(cross_entropy)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for **each epoch**:
for **generate batches of your data**:
sess.run(optimizer, feed_dict = {X: batch_x, y: batch_y})
請花一些時間瞭解代碼。我還建議你遵循一些分類任務的教程,因爲它們很豐富。我建議你CNN by TensorFlow。
我不清楚地理解,'A'僅限定輸出數組的大小? 'index_number'是0維度的'Tensor'? –
@VladimirBystricky我編輯後。 – user3595632
如果你想得到好的答案,給我們更多的例子。現在你的問題沒有很好的定義。 –