2015-06-20 331 views
2

我在Databrick的Cloud中運行Spark 1.4。我將一個文件加載到我的S3實例中並加載它。安裝工作。但我無法創建RDD: enter image description here enter image description here「remoteContext對象沒有屬性」

dbutils.fs.mount("s3n://%s:%[email protected]%s" % (ACCESS_KEY, SECRET_KEY, AWS_BUCKET_NAME), "/mnt/%s" % MOUNT_NAME) 

任何想法?

sc.parallelize([1,2,3]) 
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv") 

回答

2

你已經做了偉大的工作,讓你的數據裝入DBFS這是偉大的,它看起來像你只是一個小錯字。我懷疑你想要使用sc.textFile而不是sc.textFiles。祝您與Spark一起幸運。