我已經開始從Spark引擎學習Spark流,並且很新的數據分析和火花。我只是想創建一個小IOT應用程序,我想要預測未來的數據。Java Spark Streaming JSON解析
我有TIVA硬件,它發送實時傳感器JSON數據如下,
[{"t":1478091719000,"sensors":[{"s":"s1","d":"+253.437"},{"s":"s2","d":"+129.750"},{"s":"s3","d":"+45.500"},{"s":"s4","d":"+255.687"},{"s":"s5","d":"+290.062"},{"s":"s6","d":"+281.500"},{"s":"s7","d":"+308.250"},{"s":"s8","d":"+313.812"}]}]
在此T是其中數據被張貼UNIX時間戳。 傳感器是一組傳感器,每個傳感器('s')的數據都是'd'。
我想要做的就是消費這些數據並創建對象,然後使用Spark的Mlib(機器學習)或等效庫來預測未來數據。
我希望有一個總體思路,這是否將有可能與所有的技術選擇
- 我已經決定使用?
- 如何使用嵌套的JSON?我嘗試使用SQLContext但沒有成功。
- 一般準則,以實現我在這裏要做的。
這是我用來使用來自KAFKA的消息的代碼。 PS:我想在Java中這樣做,以保持線性和良好的性能。
你能後的代碼,你嘗試過什麼到目前爲止?它可以使用Spark SQL和Streaming。 – Shankar
發佈代碼有問題。 –
當您嘗試'sqlContext'來讀取json字符串時,您遇到了什麼問題?該任務不是可序列化的問題? – Shankar