ThinkChat🤖让你学习和工作更高效,注册即送10W Token,即刻开启你的AI之旅 广告
[toc] ### 提前准备 最少2~3台服务器(演示均以RedHa(3台)t示例) 所需软件均在百度云 ``` 链接:https://pan.baidu.com/s/1t9wAiPMnJtJhc6qw9tlntw 提取码:rbx6 复制这段内容后打开百度网盘手机App,操作更方便哦 ``` 在服务器与你本地修改host文件 ### JDK的安装 由于redhat自带安装了jdk,我们需要现将其进行卸载 * 先卸载自带的JDK ``` rpm -qa|grep java ``` ![](https://img.kancloud.cn/d0/dd/d0dde8735bd523d0827bc5579bb02733_626x67.png) 使用`rpm -e --nodeps` 命令删除上面查找的内容: ``` rpm -e --nodeps java-1.4.2-gcj-compat-1.4.2.0-40jpp.115 ``` * 上传JDK 上传到`/root`目录下 ![](https://img.kancloud.cn/9b/7a/9b7ae4b633fb555a4dbfbb392b4715a3_1056x186.png) 在`/root`目录下,创建`apps`目录,将jdk解压进去 ``` mkdir apps tar -xzvf jdk-8u5-linux-i586.tar.gz -C apps ``` 配置环境变量 ``` vi /etc/profile ``` 进入编辑模式在文件最后,新换一行添加如下内容( ``` JAVA_HOME=/root/apps/jdk1.8.0_05 CLASSPATH=$JAVA_HOME/lib/ PATH=$PATH:$JAVA_HOME/bin export PATH JAVA_HOME CLASSPATH ``` 使修改的内容立即生效 ``` source /etc/profile ``` 输入`java -version` 检查是否配置成功 ![](https://img.kancloud.cn/6a/6d/6a6d5d2f77fcc84394192553dab8cca9_817x243.png) 在其余两台电脑上也按照如上步骤,安装JDK。尽可能保证安装目录 ### hadoop安装 上传hadoop安装包到`/root`目录中 ![](https://img.kancloud.cn/c7/d3/c7d31f5407a628af4e7c8c584f1f02d3_1157x245.png) 解压到`apps`目录中 ``` tar -xzvf hadoop-2.8.5.tar.gz -C apps/ ``` 配置环境变量 ``` vi /etc/profile ``` 同样,在最后面,另起一行,添加如下内容 ``` HADOOP_HOME=/root/apps/hadoop-2.8.5 PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export PATH HADOOP_HOME ``` 修改配置文件 * 指定hadoop的默认文件系统 :hdfs * 指定hdfs的`namenode`节点是哪台机器 * 指定namenode软件存储元数据的目录 * 指定datanode软件存储数据的目录 hadoop的配置文件目录 /root/apps/hadoop-2.8.5/etc/hadoop 修改`hadoop-env.sh`,指定JDK的路径 ![](https://img.kancloud.cn/3d/68/3d68bb3ac1ee941efcd99a4a706a16ec_952x122.png) 修改`core-site.xml`,修改参数(指定namenode ```xml <property> <name>fs.defaultFS</name> <value>hdfs://192.168.0.251:9000</value> </property> ``` 修改`hdfs-site.xml ` ```xml <configuration> <property> <name>dfs.namenode.name.dir</name> <value>/root/hadoop_data/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/root/hadoop_data/data</value> </property> </configuration> ``` 然后依次在其余两台服务器上完成以上操作。 * 启动 第一次启动时,需要初始化一下 在namenode服务器上,先格式化一下 ``` hadoop namenode -format ``` ![](https://img.kancloud.cn/e3/3a/e33ab63e3aacee72762646967ee62a73_1698x493.png) 启动namenode与datanode ``` hadoop-daemon.sh start namenode ``` 启动之后然后,在windows中用浏览器访问namenode提供的web端口:50070即可访问 ``` hadoop-daemon.sh start datanode ``` ### 安装mysql ![](https://img.kancloud.cn/f2/22/f22210d0a614f1b28c795378804491ca_803x494.png) ``` mkdir /mnt/cdrom mount /dev/cdrom /mnt/cdrom cd /mnt/cdrom/Server rpm -ivh perl-DBI-1.52-2.el5.i386.rpm rpm -ivh mysql-5.0.77-3.el5.i386.rpm rpm -ivh perl-DBD-MySQL-3.0007-2.el5.i386.rpm rpm -ivh mysql-server-5.0.77-3.el5.i386.rpm ``` 设置密码 ``` /usr/bin/mysql_secure_installation ``` 开启允许远程访问 ``` mysql -u root -p GRANT ALL PRIVILEGES ON *.* TO '用户名'@'%'IDENTIFIED BY '密码' WITH GRANT OPTION; FLUSH PRIVILEGES; ``` ### hive安装 上传文件至服务器 ![](https://img.kancloud.cn/71/d1/71d101b158f1533f0e9ae81b500d41e8_682x264.png) ``` tar -xzf apache-hive-1.2.1-bin.tar.gz -C apps/ ``` 在`conf`添加如下配置文件`hive-site.xml`· ```xml <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://192.168.0.251:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>admin123</value> </property> </configuration> ```