Kafka报too many open files.

一如乞人不需要形象 发表于: 2021-03-02   最后更新时间: 2021-03-02 21:26:28   176 游览
0

问题描述:

最近cluster里有台机器挂了报too many open files, 以前遇到过,改配置,改成ulimit -n 10000000,重启kafka,还是不行,lsof | wc -l 从平常的80000多涨到挂掉(ulimit -a 看open files已经改到1000万,然后无意中看到磁盘快满了,还剩2G左右,因为kafka起不来,就直接删/logs底下超过一天的文件,然后再起,目前还没挂。

问题:

  1. 是因为磁盘满了的原因吗?
  2. 观察其他环境的open files,都是20w左右的,唯独这台,即使work了,也是300多w,而且ulimit -a 显示是配置的204800,这是什么情况。。

感谢大佬回复。



发表于 1月前

  • lsof -p 你kafka的进程号 | wc -l
    

    先确定是不是kafka占用的。

    日志里是否有什么异常?

    • 我用的这个命令watch “lsof | wc -l” ,在start kafka后明显增加至百万级别,kafka挂了后恢复至8万左右,log就是too many open files的Excpetion, 有次出现kafka.zookeeper.ZooKeeperClientTimeoutException: Timed out waiting for connection,重启之后就没报了

      • 找不到想要的答案?

        我要提问
        相关