我這樣的串聯數據到numpy的陣列的速度:numpy的數組的大小與串聯
xdata_test = np.concatenate((xdata_test,additional_X))
這樣做是一千倍。該陣列具有D型細胞float32
,並且它們的尺寸如下所示:
xdata_test.shape : (x1,40,24,24) (x1 : [500~10500])
additional_X.shape : (x2,40,24,24) (x2 : [0 ~ 500])
的問題是,當x1
大於〜2000-3000,級聯需要花費很多時間。
下面生成的圖表串聯時間與該x2
尺寸大小:
這是內存問題或numpy的一個基本特徵?
是的,整個列表的一個級聯操作比重複的二元操作要好得多。 'concatenate'創建一個正確大小的空結果數組,然後複製每個數據源的數據。一次連接導致更少的副本。 – hpaulj