2
data_input=open(ratingsfilepath,'r')
for row in data_input:
cur_load.execute("INSERT INTO "+ratingstablename+" VALUES (%s, %s, %s)", (row.split('::')[0],row.split('::')[1],row.split('::')[2]))
我在.dat文件中有1000萬條記錄我使用python腳本將它們加載到表中。但加載它們需要將近1小時。有沒有什麼可以減少時間如何加快postgresql中插入值的執行速度