Acyally正在處理spark 2.0.2 我想知道,例如基於Spark ML的邏輯迴歸工作。我想將數據幀的每一行都放到一個向量中作爲邏輯迴歸的輸入,你可以幫助獲得行數據框中的每一行到一個密集的向量。謝謝。我在做什麼來獲取數據幀。dataframe into dense vector火花
import org.apache.spark.ml.classification.LogisticRegression
import org.apache.spark.ml.linalg.{Vector, Vectors}
import org.apache.spark.ml.param.ParamMap
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.Row
import org.apache.hadoop.fs.shell.Display
object Example extends App {
val sparkSession = SparkSession.builder.master("local").appName("my-spark-app").getOrCreate()
val data=sparkSession.read.option("header", "true").csv("C://sample_lda_data.csv").toDF()
val data2=data.select("col2","col3","col4","col5","col6","col7","col8","col9")
在我想這樣的事情作爲輸入邏輯迴歸 在第一位置將是數據框的第一列的任何幫助,請
val data=sparkSession.read.option("header", "true").csv("C://sample_lda_data.csv").toDF()
val data2=data.select("col2","col3","col4","col5","col6","col7","col8","col9")
val assembler = new VectorAssembler().setInputCols(Array("col2", "col3", "col4")).setOutputCol("features")
val output = assembler.transform(data2)
main" java.lang.IllegalArgumentException: Data type StringType is not supported.
我將結束所以gratefull.Thank你們
你可以使用[VectorAssembler](https://spark.apache.org/docs/2.0.2/ml-features.html#vectorassembler)。 – mtoto
@mtoto我用你說什麼,我編輯我得到這個錯誤代碼主」 java.lang.IllegalArgumentException異常:數據類型StringType不supported.Any幫助 –
所有的cols應該是數字 – mtoto