我正在使用csv格式(大約2900萬行)的皇家郵件PAF數據庫,並且需要使用php將數據拆分爲sql服務器。使用php導入paf
任何人都可以推薦最好的方法來防止超時?
下面是數據的一個樣本:https://gist.github.com/anonymous/8278066
我正在使用csv格式(大約2900萬行)的皇家郵件PAF數據庫,並且需要使用php將數據拆分爲sql服務器。使用php導入paf
任何人都可以推薦最好的方法來防止超時?
下面是數據的一個樣本:https://gist.github.com/anonymous/8278066
要禁用腳本的執行時間限制,這個啓動腳本關閉:
set_time_limit(0);
,你可能會遇到的另一個問題是一個內存限制。確保你正在一行一行地讀取文件,而不是一次讀取整個文件。你可以用fgets()
來做到這一點。
與
ini_set('max_execution_time', 0);
啓動腳本中的命令行運行腳本如SSH並運行:
pushd /path/to/directory/containing/script/
php script-name.php
執行不會超時,如果通過命令行運行(在每個配置我遇到反正)
我使用設定時限的嘗試和fgetcsv,但它仍然超時,fgetcsv和fgets之間有一個主要區別嗎? –
你的主機可能不允許你使用'set_time_limit()'。看看你是否可以編輯你的PHP.ini文件的'max_execution_time'條目,或者與你的主機通話,看它們是否允許你使用'set_time_limit()'。 – Brad