bigsql

    0熱度

    1回答

    我正在使用IBM BigInsights 4.1.0版。 我用下面的命令從teradata中提取數據。 LOAD HADOOP USING JDBC CONNECTION URL 'jdbc:teradata://<<ip_address>>/database=<<db_name>>' WITH PARAMETERS ('user' = '<<user_name>>','password'='<<

    0熱度

    1回答

    我想創建一個將訪問BigSQL(BigInsights 4.2)表的Hive表/視圖。數據將被加載到BigSQL表中,並且我試圖從Hive中獲取這些數據。是否有任何程序來同步來自BigSQL和Hive表的數據?

    0熱度

    1回答

    我正在嘗試使用LOAD HADOOP命令從teradata源複製數據。 LOAD HADOOP USING JDBC CONNECTION URL 'jdbc:teradata://<<ip_address>>/database=EDW01_V_LV_BASE' WITH PARAMETERS ('user' = 'USR1','password'='pass1') FROM SQL QUERY

    0熱度

    1回答

    使用Python 我試圖連接蟒蛇BigSQL.I有一個Java代碼,可以連接蟒蛇BigSQL &檢索BigSQL.Below數據是我的示例代碼 public class Hello { public static void main(String[] args) { try(Connection con = DriverManager.getConnection("conne

    0熱度

    1回答

    我有一個要求,處理文件,因爲它是指因爲它出現在文件中的文件內容應處理。 例如:我有一個文件和大小是700MBs。我們如何確保文件將按照出現的順序進行處理,因爲它取決於Datanode的可用性。在某些情況下,如果有任何Datanode緩慢處理文件(低配置)。 一種方式來解決這個問題,將文件中的唯一ID /關鍵,但我們不希望添加什麼文件中新的。 任何想法:)

    -1熱度

    1回答

    我有一個字符串像「泰盧固語,Praveen庫馬爾」。我需要拆分這個字符串,如First_Name = Praveen,Last_Name = Telugu,Middle_Name = Kumar。請幫助我!

    2熱度

    2回答

    類別 記錄要選擇N個記錄每一個類可以做: SELECT category, category_id, value FROM ( SELECT category, value, row_number() OVER (PARTITION by category) as category_id FROM myTable ) WHERE category_id < N; 內部的

    0熱度

    1回答

    我是pyspark的新手。我在Ubuntu 16.0上使用python 3.5 & spark2.2.0。我寫了下面的代碼使用pyspark連接BigSQL from pyspark.sql.session import SparkSession spark = SparkSession.builder.getOrCreate() spark_train_df = spark.read.jd

    1熱度

    2回答

    我試圖從Bluemix Spark上的iPython筆記本作爲服務連接BigSQL Cloud上的BigSQL羣集。 我的筆記本電腦看起來是這樣的: import os cwd = os.getcwd() with open('certificate', 'w') as f: f.write('''-----BEGIN CERTIFICATE----- XXXXXXXXXXXXX

    0熱度

    3回答

    這可能是一個非常愚蠢的問題,但我很難找出一種方法來將我的BIGSQL table中的數據複製到本地文件系統中的.txt。