streaming

    0熱度

    1回答

    我有一個小場景,我讀取文本文件並根據日期計算平均值並將總結存儲到Mysql數據庫中。 以下是代碼 val repo_sum = joined_data.map(SensorReport.generateReport) repo_sum.show() --- STEP 1 repo_sum.write.mode(SaveMode.Overwrite).jdbc(url,

    0熱度

    1回答

    我不明白StreamExecutionEnvironment.readFile方法。 FileProcessingMode有2個選項:PROCESS_ONCE和PROCESS_CONTINUOUSLY。如果我們選擇前者,它只處理一次文件,並在execute()後退出。如果我們選擇後者,即使我們只是在文件中添加一些行,它會再次處理整個文件(添加所有文件,例如,在最後一次處理之前的每個單詞的計數)。我

    0熱度

    2回答

    Kinesis Firehose以及Kinesis Streams用於根據AWS博客中提到的細節加載流式數據。在Firehose的情況下沒有碎片或維護的概念。在這種情況下,Kinesis Firehose是Kinesis Streams的替代品嗎?

    1熱度

    1回答

    我想從Apache Flink DataStream捕獲事件,每個「自然」小時。也就是說,我想捕捉事件從12:00:00窗口,直到12:59:59,13:00:00,直到13點59分59秒...... 我一直在使用: datastream.keyBy(0) .timeWindow(Time.minutes(60)) 但是,我怎麼知道那些每分鐘開始的60分鐘,並且窗口不是例如從12:30:00

    -2熱度

    1回答

    我正在使用ApachePOI,但它並沒有解決ms字流的機制,所以我越來越OutMemeory異常(我正在使用4GB的RAM)

    0熱度

    1回答

    假設我有ň製片人,對於每一個時間戳噸卡夫卡發送數據。消費者獲取時間戳t的數據的條件是從所有生產者接收到用於時間戳t的數據。 卡夫卡是否讓消費者做這樣的檢查?或者讓卡夫卡爲這樣的問題提供任何策略?

    0熱度

    1回答

    我一直在尋找網絡,看着各種WCF書籍而沒有找到答案 - 所以現在我在這裏嘗試我的運氣。 我正在創建一個WCF服務,該服務向其他利益相關者公開了一些方法。其中一種方法是連續的實時數據流,它將通過MessagePack序列化(請參見下面的示例)。 [ServiceContract] public interface IMyHappyStreamingService { [Operatio

    2熱度

    4回答

    我是Java的新手,我想用它做一些很酷的事情。作爲第一步,我想出了爲我的家建立本地服務器的想法。我想要一個簡單的服務器在沒有互聯網的情況下運行,所有連接到家庭WiFi的設備都可以查看。 在稍後的階段,我打算用它做各種各樣的東西,比如初學者一個簡單的聊天應用程序。或者在我的設備之間共享文件的門戶。 而在最終產品中,我想做流式傳輸。就像主機在服務器上播放音樂一樣,所有連接的設備都可以進入該頁面並聽完完

    4熱度

    1回答

    有沒有人與koa.js和流一起工作? 考慮這個例子 const fs = require('fs'); const Koa = require('koa'); const app = new Koa(); app.use(async (ctx) => { ctx.body = fs.createReadStream('really-large-file'); }); ap

    0熱度

    1回答

    我正在iOS中做轉錄應用。所以,我必須將音頻記錄在緩衝區中,並通過套接字將它們傳輸到服務器。所以,我用AudioQueue將音頻錄製在緩衝區中。 音頻正在本地文件中正確記錄。對於流媒體,我將音頻數據轉換爲NSData並通過套接字發送。但是,服務器中的音頻質量並不好,尤其是語音不清晰。它包含很多聲音的地方的噪音。同樣的邏輯在Android中正常工作。所以,服務器端代碼工作正常。但是,iOS流式轉換是