我正在寫我的碩士論文,並正在與一家數字標牌公司聯繫,我在那裏撰寫關於大量數據的分發。我需要一些想法或一些記錄的經驗來將大量數據(這是圖像和視頻,〜100Mb - 〜1Gb--但任何數據都可以,大型數據集會給出一些相同的問題)傳輸給多個客戶端。轉移大量數據的策略
有沒有人知道我可以研究如何以結構化的方式來解決這個問題,或者至少指向一個方向(其他論文,書籍,論文,人物)。
我的主要做法,現在是解決幾件事情:1。 我如何確保數據是完整的,當它到達(不corruptet,其中.png仍將工作) 2.如何確定我是否收到所有數據? 3 ...?
歡迎任何輸入,目前的方法是通過WebServices進行流式傳輸,即時查看BitTorrent aproach(P2P),但這似乎不是一個合適的策略,因爲每個客戶端都可能顯示不同的內容。
難道你們中的任何一個人都在爲數字標牌公司工作嗎?告訴我一些關於你的方法嗎?或者,如果您有將大型數據集從服務器移動到客戶端的經驗......您的方法是什麼?
謝謝你的回答。現在我們正在使用WebServices來傳輸數據,但是您已經有了一個基本點。最簡單的事情,將工作! – 2010-10-10 20:00:31
SFTP對於安全性方面的完整性會更好 – 2010-10-10 21:38:18