Hadoop+Hive(MySQL)+Hbase+zooke
一、hadoop安装
成都创新互联是一家专注于成都网站设计、成都网站制作、外贸网站建设与策划设计,西城网站建设哪家好?成都创新互联做网站,专注于网站建设10多年,网设计领域的专业建站公司;建站业务涵盖:西城等地区。西城做网站价格咨询:028-86922220
虚拟机(centos7)
Master:192.168.0.228
Slave:192.168.0.207
软件
apache-hive-1.2.1-bin.tar.gz
hadoop-2.6.0-cdh6.4.8.tar.gz
jdk-8u65-linux-x64.tar.gz
MySQL-connector-java-5.1.31-bin.jar
hbase-0.98.15-hadoop2-bin.tar
zookeeper-3.4.6.tar
1.关闭防火墙
Systemctl disable firewalld.service
Systemctl stop firewalld.service
Setenforce 0
Vim /etc/selinux/config 永久关闭
将SELINUX=enforce改为SELINUX=disable
2.配置主机名
192.168.0.228: echo “master” > /etc/hostname
192.168.0.207: echo “slave” > /etc/hostname
3.主机间解析
在两台机器/etc/hosts文件下添加ip地址和主机名
4.配置SSH互信
master
yum -y install sshpass
ssh-keygen 一路回车
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.220
slave
yum -y install sshpass
ssh-keygen 一路回车
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.201
如图,OK
5.安装JDK
两台机器都需要配置
tar zxvf jdk-8u65-linux-x64.tar.gz
mv jdk1.8.0_65 /usr/jdk
设置环境变量
Vim /etc/profile
export JAVA_HOME=/usr/jdk
export JRE_HOME=/usr/jdk/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
执行 source /etc/profile
测试
java -version,如图
6.安装Hadoop
tar zxvf hadoop-2.6.0-cdh6.4.8.tar.gz
mv hadoop-2.6.0-cdh6.4.8 /usr/hadoop
cd /usr/hadoop
mkdir -p dfs/name
mkdir -p dfs/data
mkdir -p tmp
6.1编辑配置文件
Salves
yarn-env.sh
Yarn-site.xml
mapred-site.xml
hdfs-env.sh
core-site.xml
Hadoop-env.sh
cd /usr/hadoop/etc/hadoop
vim slaves
192.168.0.220 #添加slaveIP
vim hadoop-env.sh / vim yarn-env.sh
export JAVA_HOME=/usr/jdk #加入java变量
Vim core-site.xml
Vim hdfs-site.xml
Vim mapred-site.xml
Vim yarn-site.xml
把目录拷贝到slave机器上
scp -r /usr/hadoop root@192.168.0.207:/usr/
格式化namenode
./bin/hdfs namenode -format
启动hdfs
./sbin/start-dfs.sh ./sbin/start-yarn.sh
使用jps测试
访问192.168.0.228:50070
192.168.0.228:8088
安装MySQL和Hive
本地模式:这种模式是将元数据保存在本地数据库中(一般是MySQL)。这样可以支持多用户,多会话。
MySQL:
wget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm
rpm -ivh mysql-community-release-el7-5.noarch.rpm
yum -y install mysql-community-server
systemctl start mysql 启动
mysqladmin -uroot password ‘password’为root设置密码
mysql -uroot -ppassword
Create database hive; 创建hive库
grant all on hive.* to 'hive'@'localhost' identified by ‘hive’; 授权
Hive
tar zxf apache-hive-1.2.1-bin.tar.gz
mv apache-hive-1.2.1-bin/ /usr/hadoop/hive
配置变量
vim /etc/profile
export HIVE_HOME=/usr/hadoop/hive
export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH
执行 source /etc/profile
mv mysql-connector-java-5.1.31-bin.jar /usr/hadoop/hive/lib
将JDBC驱动包拷贝到hive的lib下
cd /usr/hadoop/hive/conf
Cp hive-default.xml.template hive-site.xml
Vim hive-site.xml 更改配置文件
Cd /usr/hadoop/hive/bin/
启动Hive
安装zookeeper和Hbase
1.Zookeeper
Master配置如下:
tar zxf zookeeper-3.4.6.tar
mv zookeeper-3.4.6 /usr/hadoop/zookeeper
更改文件的拥有者
Chown -R root:root /usr/hadoop/zookeeper
cd /usr/hadoop/zookeeper
mkdir data 创建zookeeper数据存储目录
配置变量 vim /etc/profile
加入export ZOOKEEPER_HOME=/usr/hadoop/zookeeper
export PATH=$PATH:$ZOOKEEPER_HOME/bin
执行 source /etc/profile
配置文件存放在conf/目录下,将zoo_sample.cfd文件名称改为zoo.cfg, 配置如下:
Cp zoo_sample.cfd zoo.cfg
Vim zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/hadoop/zookeeper/data
clientPort=2181
输入master和slave的ip地址或主机名:
server.1=192.168.0.228:2888:3888
server.2=192.168.0.207:2888:3888
mkdir data/myid 创建myid文件
Vim myid
填写zoo.cfg中本机ip前面server.后边的数字
1
将文件拷贝器slave节点
scp -r /usr/hadoop/zookeeper/ root@192.168.0.207:/root/hadoop/
Slave配置:
配置变量 vim /etc/profile
加入export ZOOKEEPER_HOME=/usr/hadoop/zookeeper
export PATH=$PATH:$ZOOKEEPER_HOME/bin
执行 source /etc/profile
Cd /usr/hadoop/zookeeper/data
mkdir data/myid 创建myid文件
Vim myid
填写zoo.cfg中本机ip前面server.后边的数字
2
启动:
[root@master bin]# /usr/hadoop/zookeeper/bin/zkServer.sh start
输入jps查看,如图
安装Hbase
1、tar解压hbase安装包
2、配置hbase
a、/conf/hbase-env.sh
export JAVA_HOME= /usr/jdk
export HBASE_MANAGES_ZK=false (可以启用hbase自带的zookeeper,这样也 不用单独安装zookeeper了,如单独安装了,配为false)
b、conf/hbase-site.xml
该配置采用了hbase自带的zookeeper
单独安装的zookeeper采用如下配置
regionservers
/home/hadoop/zk
注意hbase.rootdir配置需要与hadoop的配置一致。
c、conf/regionservers
slave1
slave2
slave3
到此hbase的配置已完成,用scp命令复制到slave1~salve3中。
启动hbase,
start-hbase.sh
用jps观看是否启动正常,或通过浏览器查看,master:60010。
标题名称:Hadoop+Hive(MySQL)+Hbase+zooke
文章URL:http://scyanting.com/article/pscpod.html