1
是否有可能從Apache Spark中的IBM GPFS(全局並行文件系統)中讀取數據?在Apache Spark中使用的HDFS-GPFS連接器
我的目的是用這樣的
sc.textFile("gfps://...")
代替
sc.textFile("hdfs://...")
是打算採用的是Hortonworks數據平臺的環境。我讀過一些articles, deploying IBM Spectrum Scale File System,說你可以在HDP上配置一個連接到GPFS的連接器,它可以讓你讀/寫GPFS(也許是MAPR-FS對它的文件系統)。有沒有人這樣做?
感謝
可以使用GPFS作爲本地文件'文件:///「'或者您也可以通過安裝點直接不'HDFS://或'GPFS://'在我們的平臺我們直接使用例如'BINS/FILESOURCE' –