我已經在ubuntu virtualbox上以獨立模式安裝spark和hadoop以供我學習。我能夠在不使用火花的情況下對hdfs進行正常的hadoop mapreduce操作。但是,當我使用下面的火花shell代碼,無法使用ubuntu中的spark shell從HDFS讀取文件
val file=sc.textFile("hdfs://localhost:9000/in/file")
scala>file.count()
我得到「輸入路徑不存在。」錯誤。 core-site.xml具有值爲hdfs:// localhost:9000的fs.defaultFS。如果我給了沒有端口號的本地主機,我在默認端口8020上聽到「連接被拒絕」錯誤。主機名和本地主機在etc/hosts中設置爲環回地址127.0.0.1和127.0.1.1。 請讓我知道如何解決這個問題。 在此先感謝!
嘗試這種在終端'FS Hadoop的HDFS -ls://本地主機:9000 /中/' 。文件是否可用? – WoodChopper