2016-05-17 98 views

回答

4

星火2.0+

由於databricks/spark-csv已經融入星火,閱讀.CSVs是非常簡單的使用SparkSession

val spark = .builder() 
    .master("local") 
    .appName("Word Count") 
    .getOrCreate() 
val df = spark.read.option("header", true).csv(path) 

舊版本

重啓後我火星殼我自己想通了 - 可能對其他人有幫助:

安裝等記載here和啓動使用./spark-shell --packages com.databricks:spark-csv_2.11:1.4.0火花後殼:

scala> val sqlContext = new org.apache.spark.sql.SQLContext(sc) 
scala> val df = sqlContext.read.format("com.databricks.spark.csv") 
    .option("header", "true") 
    .option("inferSchema", "true") 
    .load("/home/vb/opt/spark/data/mllib/mydata.csv") 
scala> df.printSchema() 
root 
|-- col1: double (nullable = true) 
|-- col2: string (nullable = true) 
|-- col3: integer (nullable = true) 
+0

什麼火花嗎?這是一個火花環境嗎? –

+0

不,啓動Spark 2.0 spark引用新的'SparkSession',請參閱https://spark.apache.org/docs/2.1.0/api/scala/index.html#org.apache.spark.sql.SparkSession - I補充說,答案。謝謝 ! – Boern