我試圖從一個可訪問的數據湖複製文件到Blob存儲,同時啓動羣集。azure HDInsight腳本動作
我使用Azure的從文檔
的Hadoop DistCp使用ADL命令://data_lake_store_account.azuredatalakestore.net:443/MyFolder文件wasb://[email protected]_account_name.blob.core.windows.net/example/data/gutenberg
現在,如果我試圖自動化而不是硬編碼,我該如何在腳本操作中使用它。具體如何在啓動集羣時動態獲取關聯的容器名稱和storage_account_name。
謝謝彼得。這是我正在嘗試的。我使用門戶創建了一個集羣。現在,當我上傳要在頭節點上運行的shell文件時,腳本操作失敗。該腳本的目標是從數據湖下載一個tar文件。所以我想測試一下,寫了一個單行shell文件(mkdir test),即使這個腳本失敗了。我在這裏做錯了什麼? – kmk1
@ kmk1我想你是在談論這個線程http://stackoverflow.com/questions/43142391/script-action-to-install-spark-job-server-on-hdinsight-head-node。它似乎是你的。 –