sbt-assembly

    3熱度

    2回答

    我使用了SBT組件插件創建一個JAR文件中,我有以下文件夾結構: src -main -scala -resources -application.conf 現在,當我做 sbt clean assembly 我可以在生成的Jar文件中看到包含application.conf文件。我有兩個問題: 爲什麼inluded application.conf沒有在最

    1熱度

    1回答

    我試圖在使用sbt-assembly的微服務級別綁定Lagom中的jar(使用Play)。 Play中的傳遞依賴性是sbt-assembly's GitHub README上列出的已知問題。每對README的指示,我嵌入我的build.sbt libraryDependencies ~= { _ map { case m if m.organization == "com.typesaf

    0熱度

    2回答

    我正在使用netty創建一個使用ClusterActorRefProvider的簡單akka羣集。當我從想法運行代碼時,一切正常。但是,當我將應用程序作爲jar運行時,突然間一切都失敗了。它會拋出一個錯誤「沒有找到配置設置的關鍵'akka.remote.artery'」。我正在使用sbt程序集創建jar。 我在這裏錯過了什麼?任何幫助,請....

    1熱度

    1回答

    我使用sbt assembly生成了jar但是當我試圖運行jar時,出現以下錯誤。我正在使用scala 2.12.0,sbt 0.13.8和assembly 0.14.2。任何人都可以幫我解決這個錯誤的含義和解決方案嗎? Error: java.lang.ClassFormatError: Extra bytes at the end of class file

    0熱度

    1回答

    當我用戶SBT組件,它打印錯誤是這樣的(類java.lang.String的): [error] (*:assembly) scala.MatchError: org\apache\commons\io\IOCase.class (of class java.lang.String) 而這些是我的配置: 1,assembly.sbt: import AssemblyKeys._ assemb

    0熱度

    1回答

    name := "pta-accuracy-ocean" version := "0.0.1" scalaVersion := "2.11.11" libraryDependencies ++= Seq( // Spark dependencies "org.apache.spark" % "spark-hive_2.11" % "2.1.1", "org.ap

    0熱度

    1回答

    我的應用程序使用的是commons-configuration2和commons-beanutils1.9,但是當我嘗試使用我的應用程序罐進行火花流作業時,它拋出以下異常。 java.lang.NoSuchMethodError:org.apache.commons.beanutils.PropertyUtilsBean.addBeanIntrospector(Lorg /阿帕奇/公地/ Bean

    2熱度

    1回答

    我被告知我可以用Spark的一個版本創建一個Spark應用程序,只要我使用sbt assembly來構建它,比我可以在任何Spark集羣上使用spark-submit運行它。 所以,我用Spark 2.1.1構建了我的簡單應用程序。你可以在下面看到我的build.sbt文件。比我開始在我的羣集上: cd spark-1.6.0-bin-hadoop2.6/bin/ spark-submit -

    0熱度

    1回答

    我是scala和sbt的新手,所以我的問題可能聽起來很愚蠢。 所以我有複雜的play/scala項目。編譯可能需要15-25分鐘(我只運行一個sbt實例)。 我用這個https://github.com/jrudolph/sbt-optimizer插件來識別問題的根源。 我發現,常春藤鎖需要大量的時間: 所以我GOOGLE了約常春藤,發現some info about ivy locks. 後來我

    1熱度

    1回答

    我使用Cloudera的集羣與Apache星火2.1.0.cloudera1安裝,但我需要從最新的一類新的Apache的星火git倉庫承諾: BlockMatrix.scala 我只是複製粘貼整個文件到我的SBT斯卡拉項目但我不知道如何創建SBT組裝MergeStrategy排除集羣提供的類:從 org.apache.spark.mllib.linalg.distributed.BlockMatr