Springboot连接kafka异常Failed to update metadata after 60000 ms.

news/2024/11/6 7:11:50/

异常信息:

[Consumer clientId=consumer-1, groupId=test] Connection to node -1 could not be established. Broker may not be available.
 WARN 10176 --- [ad | producer-1] org.apache.kafka.clients.NetworkClient   : [Producer clientId=producer-1] Connection to node -1 could not be established. Broker may not be available.

org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

今天使用springboot整合kafka连接的时候异常

是因为我kafka的config/server.properties文件中配置的是

listeners=PLAINTEXT://localhots:9092

只要将将其修改为listeners=PLAINTEXT://你的ip地址:9092

即可


http://www.ppmy.cn/news/601612.html

相关文章

MemoryError: Unable to allocate array with shape (60000, 28, 28) and data type float 32等类似情况

MemoryError: Unable to allocate array with shape (60000, 28, 28) and data type float 32等类似情况,不要担心,办法很简单,解决办法如下: 1.引起此类问题的原因是电脑虚拟内存占用太大,因此只需要修改电脑的虚拟内…

Kafka报错org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

问题描述 kafka producer/consumer连接kafka broker超时,报错日志: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 解决办法 假如:kafka broker部署在172.17.162.198(主机名为…

kafka生产者报错Failed to update metadata after 60000 ms.

背景 由于新增一个对接渠道,系统要对Kafka的消息进行消费,由于对接方目前没有环境,所以自己本地开发,并且使用环境中的一台kafka作为开发使用,本地自己设置producer和consumer,分别作为生产者和消费者。 …

关于mysql报 loopWaitCount 0, wait millis 60000 错误的解决办法

最近遇到个比较奇怪的问题,用户的网站百万级访问量,最近没有修改程序,也没有改过其他地方,最近总是运行20几个小时左右tomcat就假死一次,访问无响应!!经常过检查 日志发现 里面报了一个错误 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30…

Kafka问题(3):Failed to allocate memory within the configured max blocking time 60000 ms

记录kafka出现的问题,原因,与对应场景下的解决方案. 造成问题方式有很多种,这里只是记录遇到的或已知的,若有遗漏情况欢迎补充 由于问题很多出现在生产环境,故敏感信息已屏蔽,不影响问题介绍 文章目录 环境…

com.alibaba.druid.pool.GetConnectionTimeoutException:loopWaitCount 0, wait millis 60000,active 50

druid异常—— Caused by: com.alibaba.druid.pool.GetConnectionTimeoutException: loopWaitCount 0, wait millis 60000, active 50at com.alibaba.druid.pool.DruidDataSource.pollLast(DruidDataSource.java:1375)at com.alibaba.druid.pool.DruidDataSource.getConnectio…

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决 今天在测试自己编写的kafka消息发送接收小例子时,一直报org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 …

kafka连接异常org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

前言:网上很多说是hosts的问题,我经过测试发现不是,经过我自己测试,介绍三种针对大部分问题的解决方法 1.未开放防火墙端口或关闭防火墙 防火墙一般本地测试才会关闭,线上一般都是开启的,建议还是添加端口…