ok,一般第一次出现的比较多,你关注下集群物理资源的瓶颈(比如磁盘io,网络,内存),接近物理极限的话只能扩节点,而不是调整配置了。
可调整:
request.timeout.ms
该配置控制客户端等待请求响应的最长时间。如果在超时之前未收到响应,客户端将在必要时重新发送请求,如果重试耗尽,则该请求将失败。 这应该大于replica.lag.time.max.ms
,以减少由于不必要的生产者重试引起的消息重复的可能性。
参考来自:Kafka Producer配置
这个已经改过了 是数据量大的时候就会报出这个问题
查看下你的kafka节点的server.xml
中
listeners=PLAINTEXT://192.168.14.140:9092
或者
advertised.listeners=PLAINTEXT://192.168.14.140:9092
配置,你的命令的ip和端口要它的一样。
如果没有配置,ip则使用默认的localhost:9092
这个错误是kafka进程占用了文件,又起了新的就会报,之前的没死掉了,文件被占用。