多应用+插件架构,代码干净,二开方便,首家独创一键云编译技术,文档视频完善,免费商用码云13.8K 广告
## 1. 集群规划 在node1、node2和node3三个节点上部署Zookeeper。 | 服务器node1 | 服务器node2 | 服务器node3 | | --- | --- | --- | | Zk | Zk | Zk | | Kafka | Kafka | Kafka | ## 2. 集群部署 1. 解压Kafka安装包到/opt/module/目录下 ``` tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/ ``` 2.修改/opt/module/kafka_2.12-3.0.0名称为kafka ``` mv kafka_2.12-3.0.0/ kafka ``` 3. 进入到/opt/module/kafka目录,修改配置文件 ``` cd config/ vim server.properties ``` 输入以下内容: ``` #broker的全局唯一编号,不能重复,只能是数字。 broker.id=1 #kafka运行日志(数据)存放的路径,路径不需要提前创建,kafka自动帮你创建,可以配置多个磁盘路径,路径与路径之间可以用","分隔 log.dirs=/opt/module/kafka/datas #配置连接Zookeeper集群地址(在zk根目录下创建/kafka,方便管理) zookeeper.connect=node1:2181,node2:2181,node3:2181/kafka ``` 4. 分发安装包 ``` /home/atguigu/bin/xsync kafka/ ``` 5. 分别在node2和node3上修改配置文件/opt/module/kafka/config/server.properties中的broker.id=2、broker.id=3 **注:broker.id不得重复,整个集群中唯一。** 6. 配置环境变量 1) 在/etc/profile文件中增加kafka环境变量配置 ``` vim /etc/profile ``` 增加如下内容: ``` #KAFKA_HOME export KAFKA_HOME=/opt/module/kafka export PATH=$PATH:$KAFKA_HOME/bin ``` 2) 刷新一下环境变量 ``` source /etc/profile ``` 3)分发环境变量文件到其他节点,并source。 ``` /home/atguigu/bin/xsync /etc/profile source /etc/profile ``` 7. 启动集群 1)先启动Zookeeper集群,然后启动Kafka。 2)依次在node1、node2、node3节点上启动Kafka。 ``` cd /opt/module/kafka nohup bin/kafka-server-start.sh config/server.properties > kafka.log 2>&1 & ``` **注意:配置文件的路径要能够到server.properties。** 8. 关闭集群 ``` bin/kafka-server-stop.sh ```