scala-ide

    0熱度

    1回答

    在Scala IDE中創建了一個Spark程序。拋出一個錯誤,當我嘗試執行 package sidSparkPackage import org.apache.spark.SparkConf import org.apache.spark.SparkContext object firstSparkProgram { def main(args: Array[String]): Uni

    -1熱度

    1回答

    我試圖在我的Cloudera VM 5.10中安裝Scala IDE 4.7,它分別預先配置了JDK 1.7,Spark 1.6版本。 因此,我通過卸載Cloudera提供的位於/usr/java/jdk1.7的默認JDK,在/ opt/location中安裝了jdk 1.8。我在.bash_profile中添加了Java環境變量。我成功地安裝了Scala IDE。 但現在Hadoop的所有生態系

    2熱度

    1回答

    我剛剛開始在Scala IDE(Eclipse)上進行我的Scala開發。我正在嘗試創建一個新項目並編寫一個示例hello world program來解決問題。這是我的示例程序: object hello { def main(args: String) = { println("Hello World!"); } } 我正在使用Java 8.我沒有在程序中看

    0熱度

    1回答

    我剛剛開始scala和我使用Scala IDE來運行我的腳本。 我創建了一些基本的scala worksheets,它編譯並顯示了IDE右側的輸出。 說出來的默認階版本內置使用Scala IDE是2.12.2 我決定搬到scala version 2.11.8面臨的一些依賴問題之後(這也來到建在與IDE)。 我改變了Scala Installation爲「Fixed Scala Installat

    1熱度

    1回答

    我可以看到下面的消息在問題選項卡在我的Eclipse(斯卡拉的Eclipse IDE編譯),即使Maven構建(乾淨安裝)成功。但是由於這個錯誤,我無法執行主要方法。請幫忙。 項目建設者不正確的順序(應該是斯卡拉 建設者之後)的項目和問題類型 - Scalastyle 問題

    0熱度

    2回答

    我在Spark的Spark中工作。我已成功在Windows中設置了spark和環境變量,並且我的程序在Scala IDE中運行,沒有任何問題。現在我需要使用Mahout庫函數進行機器學習。我試圖用這個鏈接讓Mahout爲windows here工作,但我沒有運氣,它不工作。我的Scala IDE說:「無法讀取」mahout -spark classpath「的輸出,是否設置了SPARK_HOME?

    1熱度

    1回答

    我正在使用macroparadise在我的項目中生成方法和案例類(宏本身在我的核心文件中使用它們的單獨項目中定義)。 所有內容都按預期編譯並運行,但Eclipse無法解析由我的宏生成的變量和方法。但是,當我關閉並重新打開Eclipse時,它可以完美地識別所有內容;我可以將鼠標懸停在類和方法上並獲取正確的信息。但是,只要我改變任何東西,甚至關閉並重新打開引用generate方法的文件,Eclipse

    0熱度

    1回答

    這是我的問題,我知道類似的問題有很多答案,但是在我嘗試之後,它們都沒有工作。我正在使用Scala IDE 4.6和eclipse Oxygen來運行代碼,並且在這個錯誤中都失敗了。 這裏是我的Scala編譯器配置: 這裏是我的運行配置: 這裏是我的代碼,文件結構和錯誤控制檯顯示: 這裏是信息問題控制檯: 從網上的答案,我已經嘗試構建之前,清理項目,我也試過JVM和Scala編譯器的所有版本,所有那

    1熱度

    1回答

    最後一天,我用lift framework和Eclipse IDE啓動Scala。檢查這個鏈接後: http://scala-ide.org/docs/tutorials/lift24scalaide20/ 我用eclipse設置我的項目。第一次升降機基本運行以及任何項目。但試圖啓動一個新項目蝕之後得到了12個錯誤,我有這樣的內容: lift_parsing_web構建路徑的升actor_2.12

    0熱度

    2回答

    我想在Ubuntu啓動器中設置Scala IDE的右側圖標,因爲它出現在?圖標。 我的Ubuntu版本是16.04。 在此先感謝您的幫助! :)