2
我想使用SQLalchemy讀取200 MB csv文件。每行有大約30列,其中,我使用下面的代碼只使用8列。但是,代碼運行非常慢!有沒有辦法改善這一點?我想使用地圖/列表理解或其他技術。正如你所說,我是一個新手。謝謝你的幫助。使用SQLalchemy讀取大文件
for ddata in dread:
record = DailyData()
record.set_campaign_params(pdata) #Pdata is assigned in the previous step
record.set_daily_data(ddata) #data is sent to a class method where only 8 of 30 items in the list are used
session.add(record)
session.commit() #writing to the SQL database.
謝謝!這導致了速度的大幅提升。我還將使用分析器來更多地瞭解SQLalchemy優化 – user1347835 2012-04-23 20:37:27