apache-flink

    0熱度

    1回答

    當我想用Flink sinkFunction寫入或讀取一些數據到MySQL時,Flink數據庫連接出現問題。每次操作的數據量都很小。但同時可能會調用很多sinkFuction。我想知道是否有更好的方法來以低成本解決這個問題?

    2熱度

    1回答

    有什麼方法可以限制對Apache Flink提供的REST API的訪問,例如:使用基本身份驗證,Api-Key等? 我指的是「監視REST API」(這不僅令人困惑,而且監視也是工作控制)。

    1熱度

    1回答

    我想從Apache Flink DataStream捕獲事件,每個「自然」小時。也就是說,我想捕捉事件從12:00:00窗口,直到12:59:59,13:00:00,直到13點59分59秒...... 我一直在使用: datastream.keyBy(0) .timeWindow(Time.minutes(60)) 但是,我怎麼知道那些每分鐘開始的60分鐘,並且窗口不是例如從12:30:00

    0熱度

    1回答

    我想在Flink中實現Markov模型。首先我從卡夫卡讀取數據。我怎樣才能用flink實現trigram馬爾可夫模型?

    0熱度

    0回答

    我我的本地機器上運行elasticsearch通過碼頭工人和可以正常訪問它在REST API端口連接到elasticsearch在端口9300 9200 阿帕奇弗林克與elasticsearch了用於通信端口9300 我的目標是把數據從阿帕奇弗林克到elasticsearch在一個水槽,但在我的程序每次執行我得到的Java錯誤: Elasticsearch client is not connec

    0熱度

    1回答

    我想獲得多個字段的總和。我用這個代碼來解釋我的痛苦: // parse the data, group it, window it, and aggregate the counts val windowCounts = text .flatMap { w => w.split("\\s") } .map { w => WordWithCount(w, 1, 2) }

    1熱度

    1回答

    當我嘗試使用窗口和摺疊功能聚合元素時,元素的某些 從獲取聚合中錯過。使用來自卡夫卡(value:0, value:1, value:2, value:3)的元素 ,並將它們合併爲奇數和偶數值 。 輸出爲:10-13之間 {even=[0, 2, 4], odd=[1, 3]} {even=[6, 8], odd=[5, 7, 9]} {even=[14, 16, 18], odd=[15, 1

    1熱度

    1回答

    我是Flink的新手。我有這個代碼來映射,組和輸入JSON的總和。 這與詞計數示例非常相似。 我有望獲得(vacant,1) (occupied,2) 但是,由於某種原因,我得到(occupied,1) (vacant,1) (occupied,2) public static void main(String[] args) throws Exception { String s =

    0熱度

    1回答

    我給了保存點文件夾的完全訪問權限,然後它也得到訪問被拒絕異常,但在Linux中它按預期工作。

    0熱度

    1回答

    我們計劃使用Flink處理來自kafka主題的數據流(Logs in Json格式)。 但是,對於那個處理,我們需要使用每天都在變化的輸入文件,而內部的信息可以完全改變(不是格式,而是內容)。 每當其中一個輸入文件發生更改時,我們將不得不將這些文件重新加載到程序中並保持流處理正在進行。數據 重新加載可以做同樣的方式,因爲它現在已經完成: DataSet<String> globalData = e