apache-flink

    0熱度

    2回答

    我從cqlsh外殼 CREATE KEYSPACE data WITH replication= {'class':'SimpleStrategy', 'replication_factor':1; CREATE TABLE test.patient(id int, heart_rate int, PRIMARY KEY(id)); 我想,如果不從弗林克代碼存在,它創建密鑰空間和表創建密鑰

    7熱度

    1回答

    我有兩個要合併的數據流。問題是一個數據流的頻率比另一個高得多,並且有時候一個數據流根本沒有接收到事件。是否有可能使用來自一個流的最後一個事件並將其與每個即將到來的事件的另一個流加入? 我發現的唯一解決方案是使用連接函數,但您必須指定一個公共窗口,您可以在其中應用連接函數。這是未達到的窗口,當一個流沒有收到任何事件。 是否有可能將連接函數應用於來自任何一個流或另一個流的每個事件,並維護上次使用事件的

    0熱度

    1回答

    我使用弗林克1.1.2和Maven中已經添加ElesticSearch依賴性如下 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-elasticsearch2_2.10</artifactId> <version>1.2.0</version> </

    0熱度

    1回答

    Apache flink有設置庫來計算歐幾里德距離。我想在n維空間上使用相同的API來進行距離計算。我有兩個包含3個特徵的數據集。 一個= {0.1,0.3,0.8} B = {0.2,0.4,0.7} 如何可以計算的距離之間的兩個矢量此使用Apache弗林克。

    0熱度

    1回答

    我有一個需要實時流式傳輸數據的項目。我已經將流量數據寫入了一個kafka主題。現在我需要讀取這些數據並對其進行處理。爲此,我打算使用Flink。 我的兩難處境是我不知道Java,Scala或Kotlin。我必須學習其中的一個使用Flink,因爲Kotlin是最新的,我認爲我應該學習,但它實際上是否與Flink兼容? 我對任何類型的數據流都是全新的,所以請原諒我的問題中的任何錯誤,如果我錯了,絕對糾

    0熱度

    1回答

    Apache Flink有可能在運行時動態添加新數據流而不重新啓動作業嗎? 據我瞭解,通常弗林克程序是這樣的: val env = StreamExecutionEnvironment.getExecutionEnvironment() val text = env.socketTextStream(hostname, port, "\n") val windowCounts = text.m

    0熱度

    1回答

    ubuntu新手在這裏。 幾天前,我在一個ubuntu集羣上安裝了Flink版本1.3.1。 我絕對需要最新版本1.3.2,但我沒有找到任何程序在谷歌安全卸載flink。我沒有建立應用程序,但我想確保我沒有剩菜。 刪除文件夾就夠了嗎?

    1熱度

    1回答

    推拉窗我用這個代碼來執行我的測試(Flink Quick Start): val text = env.socketTextStream("localhost", port, '\n') // parse the data, group it, window it, and aggregate the counts val windowCounts = text

    0熱度

    1回答

    我創建一個測試,看看我的弗林克模式功能超時正確。我使用這個弗林克斯佩克特和我有以下測試用例: @Test public void SameDoor_TwoStatuses_OneSecondTimeoutPattern() { // Arrange long now = new Date().getTime(); DoorEvent event1 = new Doo

    0熱度

    1回答

    我在三個節點的集羣上執行Apache Flink程序。 其中一個作爲jobmanager和taskmanager也是如此。另外兩個只是taskmanager。 當我開始我的程序(我做它jobmanager)我得到以下錯誤(節目的無實際執行的一分鐘後): java.lang.Exception: TaskManager was lost/killed: c4211322e77548b791c70d4