我有一個集羣kafka與3個經紀人,我有300個主題。卡夫卡流API:KStream到KTable 1
我想開始使用每個主題API卡夫卡流獨立處理與他人和每個輸入話題的結果寫入到特定的主題
inputtopic1 to outputtopic1
inputtopic2 to outputtopic2
inputtopic3 to outputtopic3
inputtopic4 to outputtopic4
等
任何想法?
我有一個集羣kafka與3個經紀人,我有300個主題。卡夫卡流API:KStream到KTable 1
我想開始使用每個主題API卡夫卡流獨立處理與他人和每個輸入話題的結果寫入到特定的主題
inputtopic1 to outputtopic1
inputtopic2 to outputtopic2
inputtopic3 to outputtopic3
inputtopic4 to outputtopic4
等
任何想法?
http://docs.confluent.io/current/streams/developer-guide.html#writing-streams-back-to-kafka
向() - >終端的操作。將記錄寫入Kafka主題。 (KStream細節,KTable細節)
時,明確規定SERDES:
如果你沒有明確指定SERDES,用於從配置默認的SERDES。 如果KStream或KTable的鍵和/或值類型與配置的缺省serdes不匹配,則必須明確指定serdes。 有關配置缺省serdes,可用serdes和實現自己的自定義serdes的信息,請參閱數據類型和序列化。 存在的幾種變體例如指定一個自定義的StreamPartitioner,使您可以控制輸出記錄如何分佈在輸出主題的分區中。
謝謝,這是非常有益的,我有另一個問題,我想寫這些處理的數據到C *使用火花cassandra連接器這是我的代碼 –
http://docs.confluent.io/current/streams/developer-guide.html#writing-streams-back-to-kafka this? –