2016-08-20 37 views
5

我有一個大的CSV文件,我用pd.read_csv打開它,因爲它遵循:打開選定的行

df = pd.read_csv(path//fileName.csv, sep = ' ', header = None) 

由於該文件是真正的大我希望能在行

from 0 to 511 
from 512 to 1023 
from 1024 to 1535 
... 
from 512*n to 512*(n+1) - 1 

其中n = 1,2,3,打開它...

如果我添加CHUNKSIZE = 512到read_csv的論點

df = pd.read_csv(path//fileName.csv, sep = ' ', header = None, chunksize = 512) 

和I型

df.get_chunk(5) 

比我能夠從0開行到5或I可以使用能夠將文件分割中的512行部分for循環

data = [] 
for chunks in df: 
    data = data + [chunk] 

但是這樣做還是無用的,因爲文件必須完全打開並且需要時間。我如何只讀取512 * n到512 *(n + 1)的行。

環顧四周,我經常看到「CHUNKSIZE」與「迭代」一起使用,因爲它遵循

df = pd.read_csv(path//fileName.csv, sep = ' ', header = None, iterator = True, chunksize = 512) 

但多次嘗試後,我還是不明白其中的好處提供給我這個布爾變量。你能解釋一下嗎?

回答

6

如何只讀取512 * n到512 *(n + 1)行?

df = pd.read_csv(fn, header=None, skiprows=512*n, nrows=512) 

你能做到這樣(和它是非常有用的):

for chunk in pd.read_csv(f, sep = ' ', header = None, chunksize = 512): 
    # process your chunk here 

演示:

In [61]: fn = 'd:/temp/a.csv' 

In [62]: pd.DataFrame(np.random.randn(30, 3), columns=list('abc')).to_csv(fn, index=False) 

In [63]: for chunk in pd.read_csv(fn, chunksize=10): 
    ....:  print(chunk) 
    ....: 
      a   b   c 
0 2.229657 -1.040086 1.295774 
1 0.358098 -1.080557 -0.396338 
2 0.731741 -0.690453 0.126648 
3 -0.009388 -1.549381 0.913128 
4 -0.256654 -0.073549 -0.171606 
5 0.849934 0.305337 2.360101 
6 -1.472184 0.641512 -1.301492 
7 -2.302152 0.417787 0.485958 
8 0.492314 0.603309 0.890524 
9 -0.730400 0.835873 1.313114 
      a   b   c 
0 1.393865 -1.115267 1.194747 
1 3.038719 -0.343875 -1.410834 
2 -1.510598 0.664154 -0.996762 
3 -0.528211 1.269363 0.506728 
4 0.043785 -0.786499 -1.073502 
5 1.096647 -1.127002 0.918172 
6 -0.792251 -0.652996 -1.000921 
7 1.582166 -0.819374 0.247077 
8 -1.022418 -0.577469 0.097406 
9 -0.274233 -0.244890 -0.352108 
      a   b   c 
0 -0.317418 0.774854 -0.203939 
1 0.205443 0.820302 -2.637387 
2 0.332696 -0.655431 -0.089120 
3 -0.884916 0.274854 1.074991 
4 0.412295 -1.561943 -0.850376 
5 -1.933529 -1.346236 -1.789500 
6 1.652446 -0.800644 -0.126594 
7 0.520916 -0.825257 -0.475727 
8 -2.261692 2.827894 -0.439698 
9 -0.424714 1.862145 1.103926 

在這種情況下, 「迭代」 可能是有用的?

當使用chunksize時 - 所有塊將具有相同的長度。使用iterator參數,你可以定義多少數據(get_chunk(nrows))要在每次迭代閱讀:

In [66]: reader = pd.read_csv(fn, iterator=True) 

讓我們讀出的第3行

In [67]: reader.get_chunk(3) 
Out[67]: 
      a   b   c 
0 2.229657 -1.040086 1.295774 
1 0.358098 -1.080557 -0.396338 
2 0.731741 -0.690453 0.126648 

現在我們看接下來的5行:

In [68]: reader.get_chunk(5) 
Out[68]: 
      a   b   c 
0 -0.009388 -1.549381 0.913128 
1 -0.256654 -0.073549 -0.171606 
2 0.849934 0.305337 2.360101 
3 -1.472184 0.641512 -1.301492 
4 -2.302152 0.417787 0.485958 

未來7行:

In [69]: reader.get_chunk(7) 
Out[69]: 
      a   b   c 
0 0.492314 0.603309 0.890524 
1 -0.730400 0.835873 1.313114 
2 1.393865 -1.115267 1.194747 
3 3.038719 -0.343875 -1.410834 
4 -1.510598 0.664154 -0.996762 
5 -0.528211 1.269363 0.506728 
6 0.043785 -0.786499 -1.073502 
+0

我不需要合併任何東西,我只需要打開從... 512 * 10到512 * 11 -1的行,而無需打開其他任何東西,是否有可能? –

+0

我在IPython上覆制並過去了你的代碼,我嘗試了一次「iterator = True」,而另一次「iterator = False」,它們之間沒有區別。在這種情況下,「迭代器」可能有用嗎? –

+0

@StefanoFedele,我用一個例子更新了我的答案,它應該澄清'chunksize'和'iterator'之間的區別...... – MaxU