我们遇到“不能分配内存的问题”导致Kafka Crash,观察kafka maps数超过了6w,实际RedHat 6.4(包括7.2和7.4)默认是65530,即使重启Kafka,也无法运行。于是我们在sysctl.conf文件中,将vm.max_map_count设置为262144。再重启Kafka,成功启动Kafka。于是问题来了,maps资源不够,是个直接原因,那根本原因是什么呢?
1)记录Broker的maps数。
2)重启Broker,记录maps数,观察重启之后,是否有变化。
3)通过性能测试工具’./bin/kafka-producer-perf-test.sh’,向集群中写入数据,观察maps是否有变化。
5)通过性能测试工具’./bin/kafka-producer-perf-test.sh’,向集群中写入数据,观察maps是否有变化。
测试结果如下:
【关注】
如果觉得文章对你有用,请关注本微信公众号 - 全栈生涯
领取专属 10元无门槛券
私享最新 技术干货