我在CentOS 6.2上安裝了Spark的CDH5 1.0.0版,並且運行時沒有錯誤。爲什麼在sql schema create時出現「error:not found:value StructType」?
當試圖運行一些Spark SQL時,我遇到一個錯誤。我開始我的星火殼細...
spark-shell --master spark://mysparkserver:7077
然後我跑在Spark SQL Programming Guide從節目指南的例子斯卡拉腳本之一。
scala> val sqlContext = new org.apache.spark.sql.SQLContext(sc)
scala> val vehicle = sc.textFile("/tmp/scala.csv")
scala> val schemaString = "year manufacturer model class engine cylinders fuel consumption clkm hlkm cmpg hmpg co2lyr co2gkm"
scala> import org.apache.spark.sql._
scala > val schema =
StructType
(
schemaString.split(" ").map(fieldName =>
StructField(fieldName, StringType, true))
)
但是,導入語句似乎並沒有奏效?由於最後一行給出
scala> StructType
<console>:14: error: not found: value StructType
StructType
^
我知道StructType
是org.apache.spark.sql.api.java.StructType
錯誤。如果我在模式行中將StructType
替換爲全名,則錯誤會更改。
是否有其他人遇到此錯誤?是否有一個額外的步驟需要我失蹤?
謝謝!這解決了我的問題。 – 2014-09-14 02:25:07