假設一個有效的分割,這是我的文件:尋找的文件
$ cat file.txt
A:1:i
B:2:ii
X:9:iv
有了一個for循環這樣我可以打印單獨所有字段和重定向到子文件
$ for i in $(seq 1 3); do echo $i; awk -F ":" -v FL=$i '{print $FL}' file.txt > $i.out; done
所以即:
$ cat 1.out
A
B
X
$ cat 2.out
1
2
9
$ cat 3.out
i
ii
iv
問: 我執行此的近70列和文件大小Ø f近10 GB。它有效,但速度很慢。 任何人都可以提出一個更好/高效的拆分來處理這個大數據集。謝謝。
$ for i in $(seq 1 70); do echo $i; awk -F ":" -v FL=$i '{print $FL}' *.data > $i.out; done
您是否僅限於shell腳本? – jedwards
謝謝jedwards。即使python也很好。 –