吼吼嘿哈

0 声望

这家伙太懒,什么都没留下

个人动态
  • 半兽人 回复 吼吼嘿哈Kafka Connect配置 中 :

    是的,该错误表明,有很多信息被缓冲,在超时之前无法刷新。为了解决这个问题,你可以

    • 增加Kafka Connect Worker Configs中的offset.flush.timeout.ms配置参数。
    • 或者你可以通过减少Kafka Connect Worker Configs中的producer.buffer.memory来减少被缓冲的数据量。

    当你有相当大的消息时,这将是最好的选择。

    1年前
  • 吼吼嘿哈 回复 半兽人Kafka Connect配置 中 :

    您好,我的消费日志中出现大量commit of offsets timed out.而且消费数据很慢造成了数据积压。这个超时时间是由offset.flush.timeout.ms控制的吗?如果是,我增大它的值有什么约束条件吗?

    1年前