我們正在開發一個功能,讓我們的用戶導入自己的客戶/市場營銷數據庫到我們的系統從他們上傳到我們的服務器CSV文件。 我們在Amazon RDS上的MySQL支持的Amazon EC2上使用Ubuntu 10.04上的PHP。導入CSV通過客戶數據庫,以RDS(MySQL的)
什麼我們目前得到的是使用LOAD DATA LOCAL INFILE一個腳本,但它有點慢,而且會很慢,當用戶真正開始上載有超過10萬行的CSV文件。
我們確實有在後臺運行多個任務,支持了應用程序的自動化服務器,所以也許這是東西是交給該服務器(或服務器組)? 所以用戶會上傳CSV文件,我們會堅持在一個S3桶,要麼丟棄在數據庫中的行的地方,文件鏈接到一個特定用戶,或使用SQS什麼讓自動化服務器知道將其導入,那麼我們只是告訴用戶他們的記錄正在導入,並會在接下來的幾分鐘/幾小時內逐漸顯示出來?
有其他人有這種經驗嗎?我的邏輯是正確的,還是應該朝一個完全不同的方向發展?
在此先感謝。
啊,很高興聽到我們正走在正確的道路上。一旦cron看到它,通過LOAD DATA LOCAL INFILE將一個相對較大的CSV文件加載到MySQL中需要多長時間? – user1265617