這是我的問題: 我有很多已知的位置(我對這些沒有影響)有大量的數據。每個地點都爲我提供了大量新數據的個別時段。一些給我差異更新,一些只是整個數據集,一些通過XML,一些我必須建立一個webscrapper,一些需要認證等... 這些收集的數據應該存儲在數據庫中。我必須編寫一個API來將請求的數據以xml格式發回。收集,管理數據並通過api使其可用
許多道路通往羅馬,但我應該選擇哪一條?
你會建議我使用哪種軟件?
我熟悉C++,C#,Java,PHP,MySQL,JS,但新東西仍然可以。
我的想法是使用cron作業+ php(或shell腳本)+ curl來獲取數據。 然後,我需要一個模塊來解析和插入數據到數據庫(MySQL)。 來自客戶端的數據請求可以回答一個php腳本。
我認爲輸入數據量約爲1-5GB /天。
一個正確的答案不存在,但你能給我一些建議嗎? 如果你能告訴我更聰明的方法來做到這一點,那將是非常棒的。
非常感謝你:-)
也許這將有助於更多地瞭解你的數據結構..有文件或表格數據或數據庫等一般我也想解決過去類似的問題,但我不知道任何框架/等等,這些都符合要求。 – rokdd
它具有更多傳感器時間線,具有不同更新時間的> 30000個傳感器。 – vo1d
從我的角度來看它看起來不那麼複雜..因爲你需要一箇中央數據庫。因爲您的所有數據具有相同的結構(id,userid,timestamp,sensorid,sensorvalue,sourceid,source_timestamp)。如果你將使用一種可用於很多語言的API,有時候編碼很難,但它應該可以工作。我在過去的json中使用,這是沒有API,但它是標準的。一個好的起點也許是認證的方式,以及你是否需要會話或每天只推送一次..也許你也可以在沒有任何api的情況下運行,如果你通過ftp或http從客戶端讀取文件。 – rokdd