1
我試圖通過kafka將json文件解析爲spark流。我需要將org.apache.spark.rdd.RDD [Array [Byte]]轉換爲Spark Streaming中的Array [Byte]
我寫了一個函數,需要Array[Byte]
。
stream.foreachRDD(rdd=>
parseAVROToString(rdd)
)
ssc.start
要使用parseAVROToString
我需要Array[Byte]
。 我收到以下錯誤消息:
found : org.apache.spark.rdd.RDD[Array[Byte]] required: Array[Byte] parseAVROToString(rdd)
我能夠傳遞這個函數,但是我無法打印通過parseAVROToString函數得到的字符串,因爲它進入流中,有什麼辦法嗎? –
嘗試此'stream.foreachRDD(rdd => {rdd.foreach(record => {}}}}} ** **注意,這將打印記錄在從屬節點控制檯** – avr
工作沒有錯誤,但我無法看到任何輸出! –