Hadoop中yarn和mapreduce的示例分析
这篇文章主要介绍了Hadoop中yarn和mapreduce的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
成都创新互联是一家专业提供凤山企业网站建设,专注与网站设计、网站制作、H5高端网站建设、小程序制作等业务。10年已为凤山众多企业、政府机构等服务。创新互联专业的建站公司优惠进行中。
准备Linux环境
1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok
回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.100 子网掩码:255.255.255.0 -> 点击确定
在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
1.1修改主机名
vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=itcast ###
1.2修改IP
两种方式:
第一种:通过Linux图形界面进行修改(强烈推荐)
进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
第二种:修改配置文件方式(屌丝程序猿专用)
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static" ###
HWADDR="00:0C:29:3C:BF:E7"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
IPADDR="192.168.1.101" ###
NETMASK="255.255.255.0" ###
GATEWAY="192.168.1.1" ###
1.3修改主机名和IP的映射关系
vim /etc/hosts
192.168.1.101 hadoop02
1.4关闭防火墙
#查看防火墙状态
service iptables status
#关闭防火墙
service iptables stop
#查看防火墙开机启动状态
chkconfig iptables --list
#关闭防火墙开机启动
chkconfig iptables off
1.5重启Linux
reboot
2.安装JDK
2.1上传alt+p 后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz
2.2解压jdk
#创建文件夹
mkdir /home/hadoop/app
#解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
2.3将java添加到环境变量中
vim /etc/profile
#在文件最后添加
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile
3.安装hadoop2.4.1
先上传hadoop的安装包到服务器上去/home/hadoop/(注意32位和64位的区别)cp hadoop-2.4.1.tar.gz /home/hadoop/
cd /home/hadoop/
tar -zxvf hadoop-2.4.1.tar.gz
[root@hadoop02 hadoop]# cd hadoop-2.4.1
[root@hadoop02 hadoop-2.4.1]# cd etc
[root@hadoop02 etc]# cd hadoop
伪分布式需要修改5个配置文件
3.1配置hadoop
第一个:hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/usr/lib/java/java-7-sun
第二个:core-site.xml
fs.defaultFS
hdfs://hadoop02:9000
hadoop.tmp.dir
/home/hadoop/hadoop-2.4.1/tmp
第三个:hdfs-site.xml hdfs-default.xml (3)
dfs.replication
1
第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
mapreduce.framework.name
yarn
第五个:yarn-site.xml
yarn.resourcemanager.hostname
hadoop0
yarn.nodemanager.aux-services
mapreduce_shuffle
3.2将hadoop添加到环境变量
vim /etc/profile
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export HADOOP_HOME=/home/hadoop/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
3.3格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
3.4启动hadoop
先启动HDFS[root@hadoop02 hadoop]# cd /home/hadoop/hadoop-2.4.1
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
3.5验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.1.101:50070 (HDFS管理界面)
http://192.168.1.101:8088 (MR管理界面)伪分布式集群的测试[root@hadoop02 hadoop-2.6.0]# hadoop fs -ls hdfs://hadoop02:9000/
[root@hadoop02 hadoop]#cd /home/hadoop
[root@hadoop02 hadoop]#hadoop fs -put hadoop-2.6.0-x64.tar.gz hdfs://hadoop02:9000/
[root@hadoop02 hadoop]# hadoop fs -ls hdfs://hadoop02:9000/-rw-r--r-- 1 root supergroup 180197035 2015-12-01 05:06 hdfs://hadoop02:9000/hadoop-2.6.0-x64.tar.gz
文件的存放目录[root@hadoop02 subdir0]# pwd
/home/hadoop/hadoop-2.6.0/tmp/dfs/data/current/BP-493792533-192.168.88.155-1448973412341/current/finalized/subdir0/subdir0下载文件hadoop fs -get /hadoop-2.6.0-x64.tar.gz
mappreduce程序测试
[root@hadoop02 subdir0]#/home/hadoop/hadoop-2.6.0/share/hadoop/mapreduce
[root@hadoop02 mapreduce]# vi test.data
文件内容如下
hello tom
hello jim
hello kitty
hello angelababy
hello dingcheng
how are you .baby .do you have kong today wangshan?
can you have supper with me?
if you can't
na sure you are gen xiaoming haave supper
i will shengqi de[root@hadoop02 mapreduce]# hadoop fs -mkdir /wc
[root@hadoop02 mapreduce]# hadoop fs -mkdir /wc/srcdata
[root@hadoop02 mapreduce]# hadoop -put test.data /wc/srcdata
[root@hadoop02 mapreduce]# hadoop fs -put test.data /wc/srcdata
[root@hadoop02 mapreduce]# hadoop fs -ls /
[root@hadoop02 mapreduce]# hadoop fs -ls /wc/srcdata
[root@hadoop02 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /wc/srcdata /wc/output
[root@hadoop02 mapreduce]# hadoop fs -ls /wc/outputhadoop fs -cat /wc/output/part-r-00000
hadoop fs#相当于帮助命令
感谢你能够认真阅读完这篇文章,希望小编分享的“Hadoop中yarn和mapreduce的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,更多相关知识等着你来学习!
文章标题:Hadoop中yarn和mapreduce的示例分析
标题链接:http://scyanting.com/article/jsohhp.html