apache-flink

    0熱度

    1回答

    是否可以序列化ElasticSearch片和甲流 我有類似 stream.addSink(new ElasticsearchSink<>(config, transports, new IndexRequestBuilder<ObjectNode>() { ... } return eventStream; ,但它說,ElasticsearchSink在Apache中弗林克

    1熱度

    1回答

    我正在嘗試運行Apache Flink,但因爲依賴項不可用而出現錯誤。 模塊flink-streaming-java仍然可用。 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-streaming-java</artifactId> <version>0.10-SNAPSHOT</ve

    4熱度

    2回答

    我嘗試在Apache Zeppelin中運行以下簡單命令。 %flink var rabbit = env.fromElements( "ARTHUR: What, behind the rabbit?", "TIM: It is the rabbit!", "ARTHUR: You silly sod! You got us all worked up!", "TIM: Well, t

    1熱度

    1回答

    我正在使用Flink交互式Shell執行WordCount。它適用於10MB的文件大小。但隨着一個100MB的文件殼拋出一個NullPointerException: : java.lang.NullPointerException at org.apache.flink.api.common.accumulators.SerializedListAccumulator.deserial

    7熱度

    1回答

    雖然使用Apache弗林克用下面的代碼: DataStream<List<String>> result = source.window(Time.of(1, TimeUnit.SECONDS)).mapWindow(new WindowMapFunction<String, List<String>>() { @Override public void mapWindow(

    5熱度

    2回答

    Spark DStream有mapPartition API,而Flink DataStream API沒有。有沒有人可以幫助解釋原因。我想要做的是在Flink上實現類似於Spark reduceByKey的API。

    1熱度

    1回答

    我使用Scala和弗林克1.0快照上的數據組執行leftOuterJoin,我得到以下異常: 11:54:15,921 INFO org.apache.flink.runtime.taskmanager.Task - CHAIN DataSource (at com.mycompany.FlinkTest$.main(FlinkTest.scala:99) (org.apache.flink.ap

    5熱度

    1回答

    我有一些數據作爲id,float,float,float進來。我想按順序分別(),max()和sum()字段,並按ID值分組。 使用flatMap我有一個Tuple4與位,但我不知道如何將它發送到下一個步驟。 我有什麼: dataStream.flatMap(new mapper()).keyBy(0) .timeWindowAll(Time.of(5, TimeUnit.SECONDS

    0熱度

    1回答

    我讀到了Google Cloud Dataflow管道轉輪上的Cloudera adapted以在Spark上運行,還有Data Artisans adapted它在Flink上運行。目前還不清楚Cloudera是否實現了批量和窗口流式傳輸,一個職位表示不支持,但其他職位似乎不提及它,就好像它包含在內,而Data Artisan清楚地表明流式支持正在爲Flink工作。 是否有來自Google或另一

    4熱度

    1回答

    的弗林克DOC給出了SVM算法Scala的例子: val trainingDS: DataSet[LabeledVector] = env.readLibSVM(pathToTrainingFile) val svm = SVM() .setBlocks(10) // Learn the SVM model svm.fit(trainingDS) 將如何調用「適合」轉換爲Java?