scalatest

    1熱度

    1回答

    我有一個嵌套的forAll調用,它取決於前一個生成的值。這個值是一個集合根據其產生的定義不應該是空的: "test" in { val listGen: Gen[List[Int]] = Gen.listOfN(3, Gen.choose(0, 100)) def intGen(list: List[Int]) = Gen.oneOf(list) implicit v

    0熱度

    1回答

    的方法正在返回的元組的一個Map,對於此測試通過我需要檢查地圖包含n鍵數以及該密鑰值相匹配。 我從result.foreach(f=> f._ == "value"))開始,但我似乎無法檢查相同循環中的其他值。

    1熱度

    2回答

    我想在Scala中建立一個測試,創建一個模擬配置來提供某些值。我正在使用ScalaTest 3.0.1,ScalaMock 3.4.2, 和1.3a類型安全。目標是在運行測試之前模擬配置值。在 http://www.scalatest.org/user_guide/testing_with_mock_objects和http://scalamock.org/user-guide/features/

    0熱度

    1回答

    我想DRY原則適用於我ScalaTest測試定義。具體而言,我想定義一個抽象測試類定義了一系列測試。所有測試都使用指示要測試的條件的參數調用某個函數。該函數的定義留給擴展類。到目前爲止,這是可行的。 接下來,我想標記一個曾經失敗,被定爲「迴歸」測試任何測試,所以如果我是這樣的傾向,我可以只運行這些測試。 但測試最初標記在抽象類。我需要在實現類中覆蓋標籤或添加標籤。 是否有這樣做的一個乾淨的方式?文

    0熱度

    1回答

    試圖測試解析multipartFormData播放功能 def requestBulkSiteSbcActionConfirm = Action.async(parse.multipartFormData) { request => .... 我創建了測試 val temporartyFile = TemporaryFile("test") val filePart = FileP

    3熱度

    1回答

    我測試時,Spark流應用程序以「com.holdenkarau.spark測試基地」和scalatest幫助。 import com.holdenkarau.spark.testing.StreamingSuiteBase import org.apache.spark.rdd.RDD import org.scalatest.{ BeforeAndAfter, FunSuite } c

    2熱度

    1回答

    在我Scala 2.12的sbt項目中,我使用IntelliJ IDEA並想導入scalatest。 爲了安裝推薦的SuperSafe Community Edition Scala編譯器插件。我遵循指令here。 我plugin.sbt: addSbtPlugin("com.artima.supersafe" % "sbtplugin" % "1.1.2") 表明由進口的IntelliJ的錯誤是

    2熱度

    2回答

    我有Double值在價值上相似,但不是確切的。通常情況下,我會做: val a: Double = ??? val b: Double = ??? a shouldEqual b +- 0.25 如果我只是比較單一的情況下類,我會做: case class Data(label: String, value: Double) val a: Data = ??? val b: Data

    1熱度

    1回答

    我有一個簡單的Scala 2.11.8 + ScalaTest 3.0.1 + SBT項目。 我想運行一個單獨的ScalaTest Suite類。我創建了一個簡單的例子,測試套件org.example.TestSuite: package org.example import org.scalatest.FunSuite class TestSuite extends FunSuite {

    0熱度

    2回答

    這讓我感到困惑。我正在使用「spark-testing-base_2.11」%「2.0.0_0.5.0」進行測試。任何人都可以解釋爲什麼如果使用數據集,地圖功能會改變模式,但如果我使用RDD則可以工作嗎?任何見解非常感謝。 import com.holdenkarau.spark.testing.SharedSparkContext import org.apache.spark.sql.{ E