Kafka集群部署

news/2024/12/4 20:38:38/

  Kafka是一个高吞吐量、基于ZooKeeper(ZooKeeper维护Kafka的broker信息)的分布式发布订阅信息系统,它可以处理消费者在网站中的所有动作(网页浏览,搜索和其他用户的行动)流数据。通常情况下,使用Kafka构建系统或应用程序之间的数据管道,用来转换或响应实时数据,使数据能够及时地进行业务计算,得出相应结果。

一、Kafka集群部署

  1. 下载Kafka
    访问Apache资源网站下载Linux操作系统的Kafka安装包kafka_2.11-2.0.0.tgz。

  2. 上传Kafka安装包
    使用SecureCRT远程连接工具连接虚拟机Spark01,在存放应用安装包的目录/export/software/下执行“rz”命令上传Kafka安装包。

  3. 安装Kafka
    在虚拟机Spark01中,通过解压缩的方式安装Kafka,将Kafka安装到存放应用的目录/export/servers/。
    tar -zxvf /export/software/kafka_2.11-2.0.0.tgz -C /export/servers/

  4. 修改配置文件server.properties
    在Kafka安装目录下的config目录,执行“vi server.properties”命令编辑Kafka配置文件server.properties,配置Kafka的相关参数。

broker.id=0
listeners=PLAINTEXT://spark01:9092
log.dirs=/export/data/kafka
zookeeper.connect=spark01:2181,spark02:2181,spark03:2181/kafka

broker.id:broker的全局唯一编号,每个kafka节点的编号值不能重复。
listeners:定义外部连接者通过指定主机名和端口号访问开放的Kafka服务。
log.dirs:存储Kafka日志存储目录。
zookeeper.connect:配置ZooKeeper集群地址。

  1. 分发Kafka安装包
    为了便于快速配置集群中其它服务器,将虚拟机Spark01中的Kafka安装目录分发到虚拟机Spark02和Spark03。
scp -r /export/servers/kafka_2.11-2.0.0/ root@spark02:/export/servers/
scp -r /export/servers/kafka_2.11-2.0.0/ root@spark03:/export/servers/

Kafka安装包分发完成后,需要分别在虚拟机Spark02和虚拟机Spark03中修改配置文件内容,将参数broker.id的值分别修改为“1”和“2”,参数listeners的值分别修改为“PLAINTEXT://spark02:9092”和“PLAINTEXT://spark03:9092”。

二、启动Kafka集群
  启动Kafka集群时,需要确保ZooKeeper集群是正常启动的。下面分别在虚拟机Spark01、Spark02和Spark03的Kafka安装目录下,执行启动Kafka命令。如下图所示:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
  好了,Kafka的集群部署我们就讲到这里了,这几篇主要针对大数据集群环境的搭建进行了讲解,包括创建虚拟机、Linux操作系统的安装与配置、安装JDK、ZooKeeper集群部署、Hadoop集群部署、Spark集群部署、HBase集群部署以及Kafka集群部署。通过这几篇的学习,希望读者熟悉大数据集群环境的搭建流程,并掌握ZooKeeper、Hadoop、Spark、HBase和Kafka集群的部署,为后续项目的开展奠定基础。

转载自:https://blog.csdn.net/u014727709/article/details/130918183
欢迎start,欢迎评论,欢迎指


http://www.ppmy.cn/news/407084.html

相关文章

深入理解深度学习——Transformer:整合编码器(Encoder)和解码器Decoder)

分类目录:《深入理解深度学习》总目录 相关文章: 注意力机制(Attention Mechanism):基础知识 注意力机制(Attention Mechanism):注意力汇聚与Nadaraya-Watson核回归 注意力机制&…

37 # commonjs 规范流程梳理

require 源码大致过程 mod.require 会默认调用 require 语法Module.prototype.require 模块的原型上有 require 方法Module._load 调用模块的加载方法,最终返回的是 module.exportsModule._resolveFilename 解析文件名,将文件名变成绝对路径&#xff0c…

广告数仓:数仓搭建(二)

系列文章目录 广告数仓:采集通道创建 广告数仓:数仓搭建 广告数仓:数仓搭建(二) 文章目录 系列文章目录前言DWD层创建1.建表广告事件事实表 2.数据装载初步解析日志解析IP和UA标注无效流量编写脚本 总结 前言 这次我们完成数仓剩下的内容 D…

2345文件粉碎,文件强力删除工具无捆绑纯净提取版

前言 对比起其余文件粉碎工具来说,这款速度更快,成功率也更高,还是不错的 这里提供无捆绑并且纯净的2345文件粉碎工具,除去AvShellExt64.dll和AvShellExt.dll修改过几处十六进制,其余都是软件原版文件,可…

Unlocker - 文件粉碎工具

Unlocker 文件粉碎工具 上传安装包

粉碎文件BAT

粉碎文件BAT DEL /F /A /Q \\?\%1 RD /S /Q \\?\%1 看到很多粉碎文件的软件,要么重启后才能粉碎成功,要么就不能粉碎~有的粉碎文件软件甚至要你付钱。。。。其实,只要编36字节的代码就可以粉碎windows系统里的任何文件!而且无用…

怎样用计算机粉碎文件夹,电脑粉碎文件用什么软件好,怎么彻底粉碎电脑文件...

想要把在电脑中的一些垃圾或是多余的软件删除时,经常会遇到这样的一种情况,就是有一些文件是无法彻底删除掉的,这些文件要么是显示系统正在运行中,要么就是因病毒等等删除起来比较费劲,在这里我将教大家一种比较简单的…

手机和电脑数据恢复,粉碎删除,电脑恢复文件教程

1. 只删除, 没有清空回收站. 这咱情况比较简单, 有一点电脑知识的朋友都知道, 文件还是存在的, 只不过躺在回收站而已. 只要到回收站把文件找出来拖回或还原就行了. 2. 删除文件后还清空了回收站 很多朋友碰到的就是这种情况,也是我们主要这中恢复误删文件的恢复. 清…