多应用+插件架构,代码干净,二开方便,首家独创一键云编译技术,文档视频完善,免费商用码云13.8K 广告
1. 配置workers文件 ``` # 进入配置文件目录 cd etc/hadoop # 编辑workers文件 vim workers # 填入如下内容 node1 node2 node3 ``` 2. 配置hadoop-env.sh文件 # 填入如下内容 ``` export JAVA_HOME=/export/server/jdk export HADOOP_HOME=/export/server/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HADOOP_LOG_DIR=$HADOOP_HOME/logs ``` 3. 配置core-site.xml文件 ![](https://img.kancloud.cn/32/56/325686d077e791b7e4bdfb35b88120e7_748x492.png) ![](https://img.kancloud.cn/6c/c5/6cc5038e1ad053fc0b71bec1df29dc50_640x490.png) * hdfs://node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议) * 表明DataNode将和node1的8020端口通讯,node1是NameNode所在机器 * 此配置固定了node1必须启动NameNode进程 4. 配置hdfs-site.xml文件 ![](https://img.kancloud.cn/9d/e3/9de375802d782edefb0811e19f9f34c2_953x587.png) ![](https://img.kancloud.cn/94/66/946685590a806514359b64bfa52c1a5d_984x564.png) ![](https://img.kancloud.cn/9d/e3/9de375802d782edefb0811e19f9f34c2_953x587.png) ![](https://img.kancloud.cn/7b/77/7b77bd79592ad5d8e4abb655f412313e_1262x551.png) ![](https://img.kancloud.cn/15/15/151584a6176b18dc35151b79b35f84b1_928x564.png) ![](https://img.kancloud.cn/5d/5c/5d5c908f25c85d614cf2b93397696d19_1262x600.png)