2017-03-11 88 views
1

我安裝了Spark 2.0版本。我在Python 2.7上使用Pyspark。我似乎沒有創建SparkContext的困難,但由於某種原因,我無法導入SparkSession。有誰知道我做錯了什麼?Pyspark中的SparkSession導入錯誤

import pyspark 
import pyspark.sql 
from pyspark.sql import SparkSession 
Traceback (most recent call last): 
    File "<stdin>", line 1, in <module> 
ImportError: cannot import name SparkSession 

回答

0

奇怪的是,這完全從一個不同的目錄。從此路徑運行文件不會導致錯誤!

/Users/.../spark-2.1.0-bin-hadoop2.7/python/