1
我正在編譯與Spark-Scala包一起編譯'TokenizerExample'時遇到問題。Spark Scala - TokenizerExample - Intellij錯誤
我有我的設置環境的IntelliJ,我能夠成功編譯其他火花Scala的例子,如NaiveBayes,餘弦相似性等
但是當我加載「TokenizerExample」成的IntelliJ IDE,系統將顯示錯誤在下面的說明行「無法解析這樣的特徵參考變換」消息:
val tokenized = tokenizer.transform(sentenceDataFrame)
val regexTokenized = regexTokenizer.transform(sentenceDataFrame)
我沒有做任何編輯,我可以觀察到的問題是與變換方法。你能幫我解決這個問題嗎?感謝您的支持。
謝謝!