是否可以從Spark流中將gzip壓縮數據寫入Kafka?是否有任何示例/示例說明如何在Spark流作業中從Kafka寫入和讀取壓縮數據?如何在Spark Streaming中將壓縮數據寫入Kafka?
2
A
回答
2
是的,這是可能的。只需將compression.type
設置爲gzip
即可。
查看here的完整示例。
// Zookeeper connection properties
val props = new HashMap[String, Object]()
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers)
props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, "gzip")
// add other props as needed
val producer = new KafkaProducer[String, String](props)
1
您可以使用CLI或在server.properties文件中設置。
--compression-codec [壓縮編解碼器]壓縮編解碼器:'none','gzip','snappy'或'lz4'。如果沒有指定值,則默認爲'gzip'。 0是默認值。
https://cwiki.apache.org/confluence/display/KAFKA/Compression
相關問題
- 1. 從Spark Streaming將數據推送到Kafka
- 2. Spark Streaming Kafka java.lang.ClassNotFoundException:org.apache.kafka.common.serialization.StringDeserializer
- 3. Spark Streaming Kafka backpressure
- 4. 在Spark Streaming中的Kafka createDirectStream
- 5. Spark-Streaming Kafka Direct Streaming API&Parallelism
- 6. Spark + Kafka streaming NoClassDefFoundError kafka/serializer/StringDecoder
- 7. Spark Streaming + kafka「JobGenerator」java.lang.NoSuchMethodError
- 8. Spark Streaming - Kafka- createStream - RDD到數據幀
- 9. Spark Streaming - Java - 從Kafka插入JSON到Cassandra
- 10. Kafka Streaming + Spark Streaming +機器學習
- 11. Kafka Spark-Streaming偏移問題
- 12. java.lang.NoClassDefFoundError:org/apache/spark/streaming/kafka/KafkaUtils
- 13. 在Spark Streaming中重用kafka製作者
- 14. spark-streaming-kafka-0-10:如何限制Spark分區的數量
- 15. 如何從Spark Streaming腳本寫入HDFS
- 16. 將Spark Streaming輸出寫入套接字
- 17. Spark Streaming + Kafka:如何從kafka消息檢查主題名稱
- 18. 使用Snappy壓縮以ORC格式寫入Spark數據幀
- 19. Pyspark Kafka Streaming
- 20. 如何將二進制數據寫入壓縮文件
- 21. 在Python中將數據寫入zip壓縮文件
- 22. Kafka Streaming Concurrency?
- 23. 是否支持spark-streaming-kafka-0-10 lib?
- 24. 由於InvalidClassException,Spark Kafka Streaming作業失敗
- 25. Spark Streaming Kafka初始偏移量
- 26. apache spark streaming - kafka - 閱讀舊信息
- 27. 從kafka-Spark-Streaming讀取數據時獲得空集
- 28. Kafka - Spark Streaming - 僅從一個分區讀取數據
- 29. 如何使用docker在Mac上設置kafka和spark-streaming?
- 30. 將numpy.bool數組寫入壓縮文件?
感謝您的指針。 – vijay