[toc]
### 提前准备
最少2~3台服务器(演示均以RedHa(3台)t示例)
所需软件均在百度云
```
链接:https://pan.baidu.com/s/1t9wAiPMnJtJhc6qw9tlntw
提取码:rbx6
复制这段内容后打开百度网盘手机App,操作更方便哦
```
在服务器与你本地修改host文件
### JDK的安装
由于redhat自带安装了jdk,我们需要现将其进行卸载
* 先卸载自带的JDK
```
rpm -qa|grep java
```
![](https://img.kancloud.cn/d0/dd/d0dde8735bd523d0827bc5579bb02733_626x67.png)
使用`rpm -e --nodeps` 命令删除上面查找的内容:
```
rpm -e --nodeps java-1.4.2-gcj-compat-1.4.2.0-40jpp.115
```
* 上传JDK
上传到`/root`目录下
![](https://img.kancloud.cn/9b/7a/9b7ae4b633fb555a4dbfbb392b4715a3_1056x186.png)
在`/root`目录下,创建`apps`目录,将jdk解压进去
```
mkdir apps
tar -xzvf jdk-8u5-linux-i586.tar.gz -C apps
```
配置环境变量
```
vi /etc/profile
```
进入编辑模式在文件最后,新换一行添加如下内容(
```
JAVA_HOME=/root/apps/jdk1.8.0_05
CLASSPATH=$JAVA_HOME/lib/
PATH=$PATH:$JAVA_HOME/bin
export PATH JAVA_HOME CLASSPATH
```
使修改的内容立即生效
```
source /etc/profile
```
输入`java -version` 检查是否配置成功
![](https://img.kancloud.cn/6a/6d/6a6d5d2f77fcc84394192553dab8cca9_817x243.png)
在其余两台电脑上也按照如上步骤,安装JDK。尽可能保证安装目录
### hadoop安装
上传hadoop安装包到`/root`目录中
![](https://img.kancloud.cn/c7/d3/c7d31f5407a628af4e7c8c584f1f02d3_1157x245.png)
解压到`apps`目录中
```
tar -xzvf hadoop-2.8.5.tar.gz -C apps/
```
配置环境变量
```
vi /etc/profile
```
同样,在最后面,另起一行,添加如下内容
```
HADOOP_HOME=/root/apps/hadoop-2.8.5
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export PATH HADOOP_HOME
```
修改配置文件
* 指定hadoop的默认文件系统 :hdfs
* 指定hdfs的`namenode`节点是哪台机器
* 指定namenode软件存储元数据的目录
* 指定datanode软件存储数据的目录
hadoop的配置文件目录
/root/apps/hadoop-2.8.5/etc/hadoop
修改`hadoop-env.sh`,指定JDK的路径
![](https://img.kancloud.cn/3d/68/3d68bb3ac1ee941efcd99a4a706a16ec_952x122.png)
修改`core-site.xml`,修改参数(指定namenode
```xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.0.251:9000</value>
</property>
```
修改`hdfs-site.xml `
```xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hadoop_data/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hadoop_data/data</value>
</property>
</configuration>
```
然后依次在其余两台服务器上完成以上操作。
* 启动
第一次启动时,需要初始化一下
在namenode服务器上,先格式化一下
```
hadoop namenode -format
```
![](https://img.kancloud.cn/e3/3a/e33ab63e3aacee72762646967ee62a73_1698x493.png)
启动namenode与datanode
```
hadoop-daemon.sh start namenode
```
启动之后然后,在windows中用浏览器访问namenode提供的web端口:50070即可访问
```
hadoop-daemon.sh start datanode
```
### 安装mysql
![](https://img.kancloud.cn/f2/22/f22210d0a614f1b28c795378804491ca_803x494.png)
```
mkdir /mnt/cdrom
mount /dev/cdrom /mnt/cdrom
cd /mnt/cdrom/Server
rpm -ivh perl-DBI-1.52-2.el5.i386.rpm
rpm -ivh mysql-5.0.77-3.el5.i386.rpm
rpm -ivh perl-DBD-MySQL-3.0007-2.el5.i386.rpm
rpm -ivh mysql-server-5.0.77-3.el5.i386.rpm
```
设置密码
```
/usr/bin/mysql_secure_installation
```
开启允许远程访问
```
mysql -u root -p
GRANT ALL PRIVILEGES ON *.* TO '用户名'@'%'IDENTIFIED BY '密码' WITH GRANT OPTION;
FLUSH PRIVILEGES;
```
### hive安装
上传文件至服务器
![](https://img.kancloud.cn/71/d1/71d101b158f1533f0e9ae81b500d41e8_682x264.png)
```
tar -xzf apache-hive-1.2.1-bin.tar.gz -C apps/
```
在`conf`添加如下配置文件`hive-site.xml`·
```xml
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.0.251:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>admin123</value>
</property>
</configuration>
```