sbt-assembly

    1熱度

    1回答

    你好〜我對SPARK感興趣。 我在火花外殼中使用下面的代碼。 val data = sc.parallelize(Array(Array(1,2,3), Array(2,3,4), Array(1,2,1)) res6: org.apache.spark.rdd.RDD[Array[Int]] = ParallelCollectionRDD[0] at parallelize at <conso

    3熱度

    1回答

    我有一個多項目SBT構建,其中common項目包含一個與logback相關的擴展,而logback.xml放置在全局資源文件夾中。 我有一個結構如下,但運行應用程序時(App)它不是應用LogbackCompositeConverterEx。 如何獲得Logback CompositeConverter在運行時影響依賴項目? build.sbt |- Common |-- src |---

    1熱度

    1回答

    在我的build.sbt我有一個跨項目(js + jvm),我依賴於我的另一個項目中的jvm部分(我們稱之爲events)。下面是我的build.sbt部分: lazy val common = (crossProject in file(「common」)).enablePlugins(ScalaJSPlugin) lazy val common_js = common.js lazy va

    1熱度

    1回答

    我已經打包使用SBT組裝我的春天啓動的應用程序,並嘗試運行jar當我收到 Application startup failed org.springframework.context.ApplicationContextException: Unable to start embedded container; nested exception is org.springframewo

    1熱度

    1回答

    當sbt-assembly構建一個fat jar時,它將所有依賴關係放在主文件夾中。我需要構建一個罐子,看起來像這樣 --domain 域類 - LIB 依賴類 是可以用sbt程序集或其他任何方式來做到這一點lugin?

    0熱度

    1回答

    當我在build.sbt文件中的以下內容: import AssemblyKeys._ assemblySettings name := "acme-get-flight-delays" version := "0.0.1" scalaVersion := "2.10.5" libraryDependencies ++= Seq( "org.apache.spark" %%

    1熱度

    2回答

    我有一個根項目,我想用sbt-assembly構建一個胖JAR。它有一個子項目,它依賴於我想爲胖JAR忽略的根目錄(就像它不存在一樣)。我該怎麼做呢? 基本上我想根項目包好像有從build.sbt沒有localMode子項目中嘗試的1 嘗試1 我build.sbt是 import sbt.Keys._ name := "myprojectname" version := "0.0.1-SNA

    0熱度

    1回答

    有沒有什麼方法可以用一個jar而不是一個項目來運行sbt命令? 我一直在使用scopt與java或scala命令的問題,它似乎只與sbt一起工作。 理想像 sbt --jar <jar name>/"run-main <options"

    0熱度

    1回答

    我試圖將這個可怕的Scala應用部署爲Docker容器。 https://github.com/OlegIlyenko/graphql-toolbox 它使用sbt構建系統。我嘗試使用此Dockerfile在容器中運行sbt。 https://gist.github.com/rzachariah/77eb927f650347ef06d0009dc220cd4a 容器會建立並啓動,但會立即退出。 我

    0熱度

    1回答

    我無法將測試依賴關係打包到我的測試程序集jar中。下面是我的build.sbt的摘錄: ... name := "project" scalaVersion := "2.10.6" assemblyOption in (Compile, assembly) := (assemblyOption in (Compile, assembly)).value.copy(includeScal