2017-07-18 22 views
1

我的代碼Scala的火花讀JSON等作爲下面

val sparkConf = new SparkConf().setAppName("Json Test").setMaster("local[*]") 
val sc = new SparkContext(sparkConf) 
val sqlContext = new org.apache.spark.sql.SQLContext(sc) 
import sqlContext.implicits._ 

val path = "/path/log.json" 
val df = sqlContext.read.json(path) 
df.show() 

樣品JSON數據

{ 「IFAM」: 「EQR」, 「KTM」:1430006400000 「COL」:21, 「DATA」 :[{「MLrate」:「30」,「Nrout」:「0」,「up」:null,「Crate」:「2」},{「MLrate」:「31」,「Nrout」 , 「上」:NULL, 「板條箱」: 「2」},{ 「MLrate」: 「30」, 「Nrout」: 「5」, 「上」:NULL, 「板條箱」: 「2」},{」 MLrate 「:」 34" , 「Nrout」: 「0」, 「上」:NULL, 「板條箱」: 「4」},{ 「MLrate」: 「33」, 「Nrout」: 「0」, 「上」 :null,「Crate」:「2」},{「MLrate」:「30」,「Nrout」:「8」,「up」:null,「Crate」:「2」}]}

In scala ide發生錯誤,我無法理解是:

INFO SharedState: Warehouse path is 'file:/C:/Users/ben53/workspace/Demo/spark-warehouse/'. Exception in thread "main" java.util.ServiceConfigurationError: org.apache.spark.sql.sources.DataSourceRegister: Provider org.apache.spark.sql.hive.orc.DefaultSource could not be instantiated at java.util.ServiceLoader.fail(Unknown Source) at java.util.ServiceLoader.access$100(Unknown Source) at java.util.ServiceLoader$LazyIterator.nextService(Unknown Source) at java.util.ServiceLoader$LazyIterator.next(Unknown Source) at java.util.ServiceLoader$1.next(Unknown Source) at scala.collection.convert.Wrappers$JIteratorWrapper.next(Wrappers.scala:43) at scala.collection.Iterator$class.foreach(Iterator.scala:893) at scala.collection.AbstractIterator.foreach(Iterator.scala:1336) at scala.collection.IterableLike$class.foreach(IterableLike.scala:72) at scala.collection.AbstractIterable.foreach(Iterable.scala:54) at scala.collection.TraversableLike$class.filterImpl(TraversableLike.scala:247) at scala.collection.TraversableLike$class.filter(TraversableLike.scala:259) at scala.collection.AbstractTraversable.filter(Traversable.scala:104) at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:575) at org.apache.spark.sql.execution.datasources.DataSource.providingClass$lzycompute(DataSource.scala:86) at org.apache.spark.sql.execution.datasources.DataSource.providingClass(DataSource.scala:86) at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:325) at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:152) at org.apache.spark.sql.DataFrameReader.json(DataFrameReader.scala:298) at org.apache.spark.sql.DataFrameReader.json(DataFrameReader.scala:251) at com.dataflair.spark.QueryLog$.main(QueryLog.scala:27) at com.dataflair.spark.QueryLog.main(QueryLog.scala) Caused by: java.lang.VerifyError: Bad return type Exception Details: Location: org/apache/spark/sql/hive/orc/DefaultSource.createRelation(Lorg/apache/spark/sql/SQLContext;[Ljava/lang/String;Lscala/Option;Lscala/Option;Lscala/collection/immutable/Map;)Lorg/apache/spark/sql/sources/HadoopFsRelation; @35: areturn Reason: Type 'org/apache/spark/sql/hive/orc/OrcRelation' (current frame, stack[0]) is not assignable to 'org/apache/spark/sql/sources/HadoopFsRelation' (from method signature) Current Frame: bci: @35 flags: { } locals: { 'org/apache/spark/sql/hive/orc/DefaultSource', 'org/apache/spark/sql/SQLContext', '[Ljava/lang/String;', 'scala/Option', 'scala/Option', 'scala/collection/immutable/Map' } stack: { 'org/apache/spark/sql/hive/orc/OrcRelation' } Bytecode: 0x0000000: b200 1c2b c100 1ebb 000e 592a b700 22b6 0x0000010: 0026 bb00 2859 2c2d b200 2d19 0419 052b 0x0000020: b700 30b0

at java.lang.Class.getDeclaredConstructors0(Native Method) at java.lang.Class.privateGetDeclaredConstructors(Unknown Source) at java.lang.Class.getConstructor0(Unknown Source) at java.lang.Class.newInstance(Unknown Source) ... 20 more


+0

是您的JSON有效嗎? –

+0

你能分享你的pom文件或sbt文件和json文件的樣本嗎? –

+0

雅,它是一個有效的json,我編譯和運行使用eclipse scala ide scala版本2.1 – hpkong

回答

0

我很確定你的路徑不正確。檢查文件是否存在於指定的路徑中。 Json是有效的。

+0

我的路徑100%正確 – hpkong

+0

我試着用你的json文件。它爲我工作 –

1

該路徑應該是正確的。但提供的JSON無效。請更正示例JSON,然後嘗試。 您可以驗證JSON https://jsonlint.com/

它顯示了JSON的無效部分。

雖然我嘗試了樣品,並得到了輸出如下:

+---+--------------------+----+-------------+ 
|COL|    DATA|IFAM|   KTM| 
+---+--------------------+----+-------------+ 
| 21|[[2,30,0,null], [...| EQR|1430006400000| 
+---+--------------------+----+-------------+ 

使用的代碼如下:

object Test { 

    def main(args: Array[String]) { 
    val sparkConf = new SparkConf().setAppName("Json Test").setMaster("local[*]") 
    val sc = new SparkContext(sparkConf) 
    val sqlContext = new org.apache.spark.sql.SQLContext(sc) 
    import sqlContext.implicits._ 

    val path = "/home/test/Desktop/test.json" 
    val df = sqlContext.read.json(path) 
    df.show() 
    } 
} 
+0

JSON是正確的。我已經測試過它,並用上面的代碼和json形成了數據框。 :) –

+0

我測試JSON的https://jsonlint.com/說這是不正確的。 – Sonu

+0

我更新的JSON是正確的,我認爲管理員編輯錯誤的JSON部分,錯誤似乎不是關於JSON格式,它關於火花設置 – hpkong