企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
[TOC] # 1. Zookeeper正常部署启动 首先保证Zookeeper集群的正常部署,并启动: ```shell -- 启动Zookeeper集群 [hadoop@hadoop102 ~]$ zkServer.sh start [hadoop@hadoop103 ~]$ zkServer.sh start [hadoop@hadoop104 ~]$ zkServer.sh start -- 查看状态 [hadoop@hadoop102 ~]$ zkServer.sh status JMX enabled by default Using config: /opt/install/zookeeper/bin/../conf/zoo.cfg Mode: follower [hadoop@hadoop103 ~]$ zkServer.sh status JMX enabled by default Using config: /opt/install/zookeeper/bin/../conf/zoo.cfg Mode: leader [hadoop@hadoop104 ~]$ bin/zkServer.sh status JMX enabled by default Using config: /opt/install/zookeeper/bin/../conf/zoo.cfg Mode: follower ``` # 2. Hadoop集群正常部署启动 ```sql -- 到hadoop102主机启动hdfs集群,因为我将namenode配置在hadoop102上了 [root@hadoop102 hadoop]# sbin/start-dfs.sh -- 到hadoop103机器上启动yarn集群,因为我将resourcemanager配置在hadoop103上了 [root@hadoop103 hadoop]# sbin/start-yarn.sh ``` # 3. HBase的上传解压 将hbase安装包上传到hadoop102机器上,上传目录为:/opt/software/ ```sql -- 解压HBase到指定目录 [root@hadoop102 software]# tar -zxf hbase-1.2.0-cdh5.14.2.tar.gz -C /opt/install -- 我嫌解压后的名字太长,所以创建HBase软连接 [root@hadoop102 install]# ln -s /opt/install/hbase-1.2.0-cdh5.14.2 /opt/install/hbase ``` # 4. 修改HBase配置文件 1. 在 {hbase_home}/conf/hbase-env.sh 指定jdk和Zookeeper ```sql [root@hadoop102 conf]# vim hbase-env.sh #JDK路径 export JAVA_HOME=/usr/local/software/jdk1.8.0_171 #使用外部ZooKeeper, false不使用 export HBASE_MANAGES_ZK=false ``` 2. 在 {hbase_home}/conf/hbase-site.xml 指定hbase集群信息 ```sql [root@hadoop102 conf]# vim hbase-site.xml <property>   <name>hbase.rootdir</name>   <value>hdfs://hadoop102:9000/hbase</value>   </property> <property>   <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 --> <property> <name>hbase.master.port</name> <value>16000</value> </property> <property>   <name>hbase.zookeeper.quorum</name> <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value> </property> <property>   <name>hbase.zookeeper.property.dataDir</name> <value>/opt/install/zookeeper/zkData</value> </property> ``` 3. 在 {hbase_home}/conf/regionservers 文件中指定hadoop102、hadoop103、hadoop104三台机器 ```sql [root@hadoop102 conf]# vim regionservers hadoop102 hadoop103 hadoop104 ``` 4. 将hadoop的core-site.xml、hdfs-site.xml两个配置文件软连接到{hbase_home}/conf/目录下 ```sql [root@hadoop102 conf]# ln -s /opt/install/hadoop/etc/hadoop/core-site.xml /opt/install/hbase/conf/core-site.xml [root@hadoop102 conf]# ln -s /opt/install/hadoop/etc/hadoop/hdfs-site.xml /opt/install/hbase/conf/hdfs-site.xml ``` # 5. 将配置好的HBase远程发送到其他机器 1. 发送 ```sql -- 发送到hadoop103机器 [root@hadoop102 hbase]# scp -r /opt/install/hbase root@hadoop103:/opt/install/ -- 发送到hadoop104机器 [root@hadoop102 hbase]# scp -r /opt/install/hbase root@hadoop104:/opt/install/ ``` 2. 在hadoop102、hadoop103、hadoop104上都将hbase配置到各自的环境变量中 ```sql # vim /etc/profile export HBASE_HOME=/opt/install/hbase export PATH=$HBASE_HOME/bin:$HBASE_HOME/sbin:$PATH -- 让更改生效 # source /etc/profile ``` # 6. HBase服务的启动 ```sql -- 在hadoop102上,切换到hbase的安装目录 [root@hadoop102 /]# cd /opt/install/hbase ``` **启动方式1:单独启动hadoop102一台机器上的hbase** ``` -- 启动 bin/hbase-daemon.sh start master bin/hbase-daemon.sh start regionserver -- 查看进程 [root@hadoop102 hbase]# jps 4032 HMaster -- 新增的hbase进程 2984 DataNode 2874 NameNode 4267 HRegionServer -- 新增的hbase进程 2604 QuorumPeerMain 4543 Jps -- 对应的停止命令 bin/hbase-daemon.sh stop master bin/hbase-daemon.sh stop regionserver ``` **启动方式2:启动三台机器上的hbase** ```sql -- 启动hbase集群 [root@hadoop102 hbase]# bin/start-hbase.sh -- 查看进程 [root@hadoop102 hbase]# jps 5090 HRegionServer -- 新增的hbase进程 4931 HMaster -- 新增的hbase进程 5412 Jps 2984 DataNode 2874 NameNode 2604 QuorumPeerMain [root@hadoop103 install]# jps 2752 ResourceManager 2609 DataNode 3528 Jps 3355 HRegionServer -- 新增的hbase进程 2492 QuorumPeerMain [root@hadoop104 install]# jps 2707 SecondaryNameNode 3431 Jps 2605 DataNode 3277 HRegionServer -- 新增的hbase进程 2494 QuorumPeerMain -- 对应的停止命令 [root@hadoop102 hbase]# bin/stop-hbase.sh ``` 访问:http://hadoop102:60010/ ,显示的hbase页面如下 ![](https://img.kancloud.cn/14/d4/14d46cad76eeb41df3f12dcd2990cae7_1659x452.png)<br/> Hbase的分布式环境搭建完成!