Kafka报错org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

news/2024/11/6 7:09:23/

问题描述

kafka producer/consumer连接kafka broker超时,报错日志:

org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

解决办法

假如:kafka broker部署在172.17.162.198(主机名为myhost01)机器。

方式1:修改producer/consumer本机的hosts文件,添加broker机器的host配置。

在/etc/hosts(linux)文件下,添加配置:

172.17.162.198 myhost01

方式2:修改kafka broker配置文件,设置advertised.listeners属性。(推荐)

在~/kafka/config/server.properties中,修改配置:

advertised.listeners=PLAINTEXT://172.17.162.198:9092

问题原因

如果kafka broker没有设置advertised.listeners属性,则默认将broker主机名发布到zookeeper。当kafka客户端(producer/consumer)连接到kafka集群之后,虽然刚开始通过ip直连broker成功,但是之后会更新为zookeeper中存储的meta元信息(为hostname主机名),所以通过hostname主机名称来连接会报错TimeoutException超时。


http://www.ppmy.cn/news/601610.html

相关文章

kafka生产者报错Failed to update metadata after 60000 ms.

背景 由于新增一个对接渠道,系统要对Kafka的消息进行消费,由于对接方目前没有环境,所以自己本地开发,并且使用环境中的一台kafka作为开发使用,本地自己设置producer和consumer,分别作为生产者和消费者。 …

关于mysql报 loopWaitCount 0, wait millis 60000 错误的解决办法

最近遇到个比较奇怪的问题,用户的网站百万级访问量,最近没有修改程序,也没有改过其他地方,最近总是运行20几个小时左右tomcat就假死一次,访问无响应!!经常过检查 日志发现 里面报了一个错误 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30…

Kafka问题(3):Failed to allocate memory within the configured max blocking time 60000 ms

记录kafka出现的问题,原因,与对应场景下的解决方案. 造成问题方式有很多种,这里只是记录遇到的或已知的,若有遗漏情况欢迎补充 由于问题很多出现在生产环境,故敏感信息已屏蔽,不影响问题介绍 文章目录 环境…

com.alibaba.druid.pool.GetConnectionTimeoutException:loopWaitCount 0, wait millis 60000,active 50

druid异常—— Caused by: com.alibaba.druid.pool.GetConnectionTimeoutException: loopWaitCount 0, wait millis 60000, active 50at com.alibaba.druid.pool.DruidDataSource.pollLast(DruidDataSource.java:1375)at com.alibaba.druid.pool.DruidDataSource.getConnectio…

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决 今天在测试自己编写的kafka消息发送接收小例子时,一直报org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 …

kafka连接异常org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

前言:网上很多说是hosts的问题,我经过测试发现不是,经过我自己测试,介绍三种针对大部分问题的解决方法 1.未开放防火墙端口或关闭防火墙 防火墙一般本地测试才会关闭,线上一般都是开启的,建议还是添加端口…

canal Failed to update metadata after 60000 ms 等问题解决

问题排查了一天,很长 问题描述: 需求 需要将mysql数据通过canal传入kafka 测试将正则匹配的表按照字段动态存入不同topic中 例如存在两类表 A_1 , A_2 , A_3 , B_1 , B_2 , B_3 A类表 -> topic_1 B类表 -> topic_2 canal最初对应配置如下 cana…

DataNode日志出现 60000 millis timeout while waiting for channel to be ready for read. ch

DataNode是Hadoop分布式文件系统(HDFS)中的节点,它负责存储文件系统中的数据块并处理来自客户端的数据读写请求。 如果在DataNode日志中出现“60000 millis timeout while waiting for channel to be ready for read. ch”,这意味着DataNode在等待与客户…