我正試圖部署新的數據發佈者汽車。我看着裏邊反APIM_LAST_ACCESS_TIME_SCRIPT.xml火花腳本(通過API管理器使用),不明白創建的兩個臨時工表之間的差異:API_LAST_ACCESS_TIME_SUMMARY_FINAL和APILastAccessSummaryDataWSO2 DAS火花腳本
2
A
回答
2
兩個星火臨時表代表不同的JDBC表(可能在不同的數據源中),其中一個用作Spark的源,另一個用作目的地。
爲了說明這一點比較好,有問題看看簡化腳本:
create temporary table APILastAccessSummaryData using CarbonJDBC options (dataSource "WSO2AM_STATS_DB", tableName "API_LAST_ACCESS_TIME_SUMMARY", ...);
CREATE TEMPORARY TABLE API_LAST_ACCESS_TIME_SUMMARY_FINAL USING CarbonAnalytics OPTIONS (tableName "API_LAST_ACCESS_TIME_SUMMARY", ...);
INSERT INTO TABLE APILastAccessSummaryData select ... from API_LAST_ACCESS_TIME_SUMMARY_FINAL;
正如你所看到的,我們首先建立在星火臨時表的名稱APILastAccessSummaryData
,這代表實際在WSO2AM_STATS_DB
數據源中名稱爲API_LAST_ACCESS_TIME_SUMMARY
的關係數據庫表。請注意,using CarbonJDBC
關鍵字可用於在Spark中直接映射JDBC表。這些表格(及其行)不被編碼,並且可以由用戶讀取。
其次,我們正在創建另一個名爲API_LAST_ACCESS_TIME_SUMMARY_FINAL
的Spark臨時表。然而,在這裏,我們使用CarbonAnalytics
分析提供程序,這意味着此表不會是一個vanilla JDBC表,而是一個類似於previous question的編碼表。
現在,從第三條語句可以看出,我們正在從第二個表API_LAST_ACCESS_TIME_SUMMARY_FINAL
中讀取(SELECT)一些字段並將它們插入(第一個),即APILastAccessSummaryData
。這代表Spark總結過程。
有關CarbonAnalytics
和CarbonJDBC
分析提供程序之間差異或Spark如何處理此類表格的更多詳細信息,請參閱文檔頁面Spark Query Language。
相關問題
- 1. WSO2 DAS Spark腳本無法執行
- 2. WSO2 DAS工具
- 3. WSo2 AM + DAS + Docker
- 4. 連接WSO2 ESB和WSO2 DAS的錯誤
- 5. WSO2 - DAS消費MQTT消息
- 6. 使用MongoDB的WSO2 DAS
- 7. WSO2 DAS不支持Postgres?
- 8. WSO2 DAS - 發送使用JSON
- 9. WSO2 DAS:刪除小工具
- 10. REST服務wso2 DAS或CEP
- 11. WSO2 DAS:證書不匹配
- 12. 火花2到火花1.6
- 13. 通過持久流在WSO2 DAS
- 14. WSO2 DAS +使用mysql集羣APIM
- 15. WSO2 DAS - oracleDB 11g的高CPU使用率
- 16. wso2-das無法實現實時分析
- 17. WSO2 BAM 2.4.1升級到DAS 3.0.0
- 18. wso2 DAS儀表板的架構
- 19. 檢索wso2 das API使用信息
- 20. 如何在WSO2上創建報告DAS
- 21. wso2 das清除配置 - 不工作?
- 22. WSO2 DAS性能緩慢惡化
- 23. WSO2 DAS 3.0.1代理服務器配置
- 24. 將數據從WSO2 ESB發佈到WSO2 DAS
- 25. WSO2 ML之間設置整合與WSO2 DAS
- 26. 通過與wso2 DAS集成在wso2 ML中創建數據集
- 27. WSO2 DAS是WSO2 BAM的新名稱或後續產品嗎?
- 28. 火花根本不啓動
- 29. 本地火花簇的sparkcontext
- 30. 支票火花包版本
非常感謝Gokul對此解釋:) – Zizou