kafka单条数据过大时报错

  • Post author:
  • Post category:其他


flume采集数据到kafka单条数据过大时报错




flume采集数据到kafka单条数据过大时报错:

*



*

java.util.concurrent.ExecutionException:org.apache.kafka.common.errors.RecordTooLargeException:The request included a message larger than the max message size the server will accept


错误,及如下图错误;

在这里插入图片描述


解决办法:


说明:当出现以上问题flume会向kakfa不停的发一条重复数据。

1:使用kafka命令

bin/kafka-configs.sh –zookeeper localhost:2181 –alter –topic topicName –config max.message.bytes=10000555【根据实际数据增大这个参数】**,当执行不成功时可以删除当前使用的topic重新创建这个topic或者创建一个新的topic;

2:由于生产环境不能随便删除topic,因为里面有历史数据,博主强力建议创建新的topic来替换历史的topic接收数据;

相关创建命令:

bin/kafka-topic.sh –zookeeper ip:端口… –replication 2 –partition 3 –topic topicName –config max.message.bytes=10000555

【根据实际数据增大这个参数,实在不知道怎么填你就填博主这个。嘿嘿】,核心参数

max.message.bytes

3:当然可以在kafka的配置文件增加这个参数,不过在使用的topic是不生效的只有新的topic才生效,博主不建议在配置文件中设置这个参数过大不然会导致整个kafka集群压力过大,具体大家可以看看kafka的相关介绍及源码。

***



希望对你有帮助,如有问题可以联系博主及留言。




版权声明:本文为weixin_40341521原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。