當我在spark-shell中執行我的代碼時遇到問題。增加任務大小spark
[Stage 1:> (0 + 0)/16]
17/01/13 06:09:24 WARN TaskSetManager: Stage 1 contains a task of very large size (1057 KB). The maximum recommended task size is 100 KB.
[Stage 1:> (0 + 4)/16]
在此警告之後執行被阻止。
我可以解決誰?
我試過這個,但它不能解決問題。
val conf = new SparkConf()
.setAppName("MyApp")
.setMaster("local[*]")
.set("spark.driver.maxResultSize", "3g")
.set("spark.executor.memory" ,"3g");
val sc = new SparkContext(conf);`
呀我讀出了這個帖子,但我不知道如何使用它。你能給我一個例子plz – user7375007
當我嘗試我有一個錯誤,像笛卡爾不是廣播的成員 – user7375007
爲此,要麼創建一個新的問題(最好)或發佈您的代碼並更新您的問題。也請接受答案;) – code