1
A
回答
0
object d29 {
def main(args: Array[String]){
val name : String ="myspark"
val master : String ="local[1]"
val conf : SparkConf = new SparkConf().setAppName(name).setMaster(master)
val spContext = new SparkContext(conf)
val file = spContext.textFile("zed/text.csv")
val mapped = file.map(s=>s.length)
}
}
JavaSparkContext
是SparkContext的Java包裝。既然你使用Scala,不需要包裝。
+0
謝謝兄弟 –
4
:當我嘗試此代碼
object d29 {
def main(args: Array[String]){
val name : String ="myspark"
val master : String ="local[1]"
val conf : SparkConf = new SparkConf().setAppName(name).setMaster(master)
val spContext : JavaSparkContext = new JavaSparkContext(conf)
val file = spContext.textFile("zed/text.csv")
val mapped = file.map(s=>s.length)
}
}
我得到這個錯誤爲氏。改爲使用SparkContext
:
val spContext: SparkContext = new SparkContext(conf)
然後您的代碼將工作。
如果您使用的是Spark 2,請使用新的SparkSession
而不是SparkContext
。
+0
我使用spark 1.6否SparkSession –
相關問題
- 1. 斯卡拉分佈式地圖Spark Spark
- 2. 斯卡拉類型錯誤
- 3. 斯卡拉比較錯誤
- 4. 奇怪斯卡拉錯誤
- 5. 斯卡拉在IntelliJ錯誤
- 6. 斯卡拉匹配錯誤
- 7. 斯卡拉java.lang.NoSuchElementException錯誤
- 8. 斯卡拉編譯錯誤
- 9. 斯卡拉,SBT錯誤
- 10. 斯卡拉語法錯誤?
- 11. 斯卡拉翻譯錯誤
- 12. 斯卡拉列表錯誤
- 13. 斯卡拉JsonDeserialize錯誤
- 14. 斯卡拉Spark流代碼中的錯誤
- 15. 斯卡拉/ Spark可串行化錯誤 - 加入不起作用
- 16. 比較與Spark和斯卡拉
- 17. Apache Spark:問題與斯卡拉示例
- 18. spark flatmap - 斯卡拉java代碼
- 19. 斯卡拉Spark中的BinaryType支持
- 20. Apache spark中的Dataframe示例斯卡拉
- 21. 斯卡拉Spark中的ETL過程
- 22. 斯卡拉,卡斯巴:MongoCollection.insert編譯錯誤
- 23. 斯卡拉Implicits編譯錯誤
- 24. 斯卡拉長字符串錯誤
- 25. 斯卡拉導入類錯誤
- 26. 隱含斯卡拉錯誤還是我?
- 27. 斯卡拉繼續類型錯誤
- 28. 錯誤打開`在斯卡拉IDE
- 29. 斯卡拉堆棧溢出錯誤
- 30. 斯卡拉列表類錯誤
當你指定s的類型時它有幫助嗎? 'val mapped = file.map((s:String)=> s.length)' – Harald
不,它不能幫助'類型不匹配;發現:字符串⇒Int要求:org.apache.spark.api.java.function.Function [String ,?]' –