tensor

    1熱度

    1回答

    我有一個矩陣A = [x1, x2, ..., xm]其中每個xi是大小爲[n, 1]的列向量。所以A已經形成[n, m]。我試圖找到每個列向量的協方差矩陣,以便如果結果是另一個矩陣C,C的形狀爲[n, n, m]和C[:,:,i] = np.outer(xi, xi)。 有人可以告訴我如何在numpy中完成上述操作,或者指向我應該檢查的張量操作嗎?

    1熱度

    1回答

    我剛剛下載了數據集caltech101,我想將圖像調整爲(200,300,3)的形狀。正如我讀過的,我首先需要將圖像轉換爲張量,然後使用tf.image.decode_jpeg調整它的大小。但我不知道如何從頭開始,並將圖像變成張量。 (我在學習機學習的初學者)

    0熱度

    1回答

    我認爲這應該是一個非常簡單的事情,但我沒有得到它解決。我試圖做兩個二元秩序特徵張量的雙重收縮。一切正常,但雙收縮的結果是一個Eigen類型: Eigen::TensorContractionOp<const std::array<Eigen::IndexPair<int>, 2ul>, const Eigen::TensorFixedSize<double, Eigen::Sizes<3l, 3l

    0熱度

    2回答

    我有一個神經網絡,在這個網絡中我構建了自己的圖層,並給出了形狀爲A = [10, 5]的結果。 我想將結果提供給另一個輸入形狀爲B = [10, 9, 5]的圖層。 輸入B是基於先前的結果A,例如,選擇從A 9個不同行10次,使得一個新的張量與形狀[10, 9, 5]。 有沒有辦法做到這一點?

    3熱度

    1回答

    a = tf.random_uniform([5, 3, 5]) b = tf.random_uniform([5, 1, 6]) tiled_b = tf.tile(b, [1, 3, 1]) c = tf.concat([a, tiled_b], 2) d = tf.layers.dense(c, 10, activation=tf.nn.relu) 這裏的輸出形狀竟然是5x3x

    1熱度

    2回答

    在我訓練PyTorch模型的推理代碼中,出了什麼問題? 有一個運行時錯誤信息: 「預計CPU張量(GOT CUDA張量)」 import torch import torch.nn as nn #from __future__ import print_function import argparse from PIL import Image import torchvision.mo

    1熱度

    1回答

    我已經以下代碼: import numpy as np import tensorflow as tf series = tf.placeholder(tf.float32, shape=[None, 5]) series_length = tf.placeholder(tf.int32, shape=[None]) useful_series = tf.magic_slice_func

    1熱度

    1回答

    我有一個自制的數據集,數百萬行。我正在嘗試製作截斷的副本。所以我剪下我用來製作原始數據集並創建一個新數據集的張量。但是,當我保存只有20K行的新數據集時,它與原始數據集的磁盤大小相同。否則一切似乎猶太教,包括,當我檢查,新張量的大小。我究竟做錯了什麼? #original dataset - 2+million rows dataset = D.TensorDataset(training_da

    1熱度

    1回答

    我想在「無」維度中切割張量。 例如, tensor = tf.placeholder(tf.float32, shape=[None, None, 10], name="seq_holder") sliced_tensor = tensor[:,1:,:] # it works well! 但 # Assume that tensor's shape will be [3,10, 10]

    1熱度

    2回答

    我想對張量應用過濾器並刪除不符合我的標準的值。例如,可以說我有一個張,看起來像這樣: softmax_tensor = [[ 0.05 , 0.05, 0.2, 0.7], [ 0.25 , 0.25, 0.3, 0.2 ]] 眼下,分類挑選張量argmax預測: predictions = [[3],[2]] 但是這ISN」這正是我想要的,因爲我放棄了有關該預測信心的信息。我寧願不做出預測,也不