0
我正嘗試使用spark-sql從配置單元表中加載數據。但是,它不會返回任何東西。我試圖在配置單元中執行相同的查詢,並打印出結果。下面是我想要在scala中執行的代碼。無法將配置單元表加載到Spark中
sc.setLogLevel("ERROR")
import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.Row
import org.apache.spark.sql.types.{StructField, StructType, LongType}
import org.apache.spark.sql.hive.HiveContext
import sqlContext.implicits._
val sqlContext = new HiveContext(sc)
sqlContext.setConf("spark.sql.hive.convertMetastoreOrc", "false")
val data = sqlContext.sql("select `websitename` from db1.table1 limit 10").toDF
請讓我知道可能是什麼原因。 火花版本:1.6.2 Scala - 2.10
你能否詳細說明「它不會回報我」?你有'data.show'嗎? –