3
我有許多hdf5文件,每個文件上都有一個數據集。我想將它們組合成一個數據集,其中數據全部位於同一個卷中(每個文件都是一個圖像,我想要一個大的延時圖像)。將hdf5文件組合成單個數據集
我寫了一個python腳本將數據提取爲一個numpy數組,然後將它們寫入一個新的h5文件。但是,這種方法將不起作用,因爲組合數據使用的內存超過了我擁有的32 GB RAM。
我也嘗試使用h5copy命令行工具。
h5copy -i file1.h5 -o combined.h5 -s '/dataset' -d '/new_data/t1'
h5copy -i file2.h5 -o combined.h5 -s '/dataset' -d '/new_data/t2'
哪些工作,但它導致新文件中的許多數據集,而不是所有的數據集串聯。
是什麼<根據f讓您的數據> – user1241241
這將是無論您需要做什麼命令或步驟來從每個文件獲取數據,都將取決於它的文件類型。例如,如果您使用的是HDF5文件列表,則需要使用h5py.File來創建文件對象,然後使用file_object [「dataset_name」] [slice]等文件從文件中讀取數據。 –