我希望以下簡單的Hello World程序在Apache Spark中並行執行100次。Apache Spark併發程序示例
public class SimpleHelloWorld {
public static void main(String[] args) {
System.out.println("Hello World");
}
}
所以在並行執行後,它應該打印「Hello World」100次。
我該如何在獨立的Apache Spark中執行此操作?
你意識到你將不會看到「Hello World」,因爲這些語句在工作節點上執行? –
感謝您的評論! 我可以在哪裏定義將運行此程序的線程/節點的數量?我的意思是如何在這裏啓動多線程? – pankaj