因此,我有幾個.txt文件,其中有超過+80.000行的數據。 然而,對於Python來說,這可能不是太多,所以我需要在R中使用這些數據,我需要某個包。在那裏加載一個文件需要大約30秒 - 而且我有1200個這樣的文件。多次刪除陣列的每第二行
但是,這些文件中的數據相當密集。沒有必要有這麼小的步驟,即我想刪除一些文件,以使文件變小。
我現在使用如下:
np.delete(np.array(data_lines), np.arange(1, np.array(data_lines).size, 2))
我使它開始行索引1處,以及移除包含80.000線數據的data_lines
陣列的每隔一行。但是,正如您所看到的,這隻會減少1/2的行。我可能至少需要1/10減少。所以原則上我可能只是做一些循環來做到這一點,但我想知道是否有一個更聰明的方法來實現它?
你必須使用numpy的?你是否將數據放入了一個numpy的ndarray中以減少它的影響?你有沒有嘗試過一個切片'data_lines [:: 10]'? – wwii