我有一個寬表作爲Spark數據框(pyspark)和每個單元格,我需要將數據轉換爲格式column_name:column_name:value。我正在嘗試使用map函數,但我無法獲取列名。即使這不工作: map_dummy(c, v):
return c+":"+c+":"+v
metadata.select(*(map_dummy(c, col(c)) for c in meta
加盟pyspark 2個dataframes我有兩個dataframes,我需要一列加入,並採取從第一數據框中只有一排排如果該ID被包含在第二個數據幀的同一列: DF1 : id a b
2 1 1
3 0.5 1
4 1 2
5 2 1
DF2: id c d
2 fs a
5 fa f
希望的輸出: df: