hadoop安装文件配置教程

这篇文章主要讲解了“hadoop安装文件配置教程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop安装文件配置教程”吧!

这篇文章主要讲解了“hadoop安装文件配置教程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop安装文件配置教程”吧!

成都创新互联是专业的山东网站建设公司,山东接单;提供成都网站建设、成都做网站,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行山东网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

1.目前只是单机环境,namenode和datanode都在一台机器。hadoop版本选的是2.7.2,jdk选的是jdk-8u131-linux-64.rpm

2.安装jdk 

rpm-ivh jdk-8u111-linux-x64.rpm

3.

安装密钥

ssh-keygen -t rsa

在root目录下会自动生成.ssh

目录

4.把公钥写到authorized_keys

里面5.

修改权限

6.

关闭防火墙7.解压hadoop

安装包

tarzxf hadoop-2.7.2.tar.gz

8.修改 /etc/profile


#java
JAVA_HOME=/usr/java/default
export PATH=$PATH:$JAVA_HOME/bin
#hadoop
export HADOOP_HOME=/hadoop_soft/hadoop-2.7.2
export HADOOP_OPTS="$HADOOP_OPTS-Djava.library.path=/hadoop_soft/hadoop-2.7.2/lib/native"
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
exportHADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
##export LD_LIBRARY_PATH=/hadoop_soft/hadoop-2.7.2/lib/native/:$LD_LIBRARY_PATHexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

9.修改配置文件 hadoop-2.7.2/etc/hadoop/

(1)core-site.xml  fs.defaultFS  就是namenode

的节点名称和地址
  fs.defaultFS

hdfs://192.168.1.120:9000

 hadoop.tmp.dir

/hadoop_soft/hadoop-2.7.2/current/tmp

 fs.trash.interval

 4320

 (2)hdfs-site.xml

   dfs.namenode.name.dir

    /hadoop_soft/hadoop-2.7.2/current/dfs/name

    dfs.namenode.data.dir

    /hadoop_soft/hadoop-2.7.2/current/data
 

    dfs.replication

      1
 

    dfs.webhdfs.enabled

    true

    dfs.permissions.superusergroup

 
   staff

    dfs.permissions.enabled

    false

 (3).yarn-site.xml

  yarn.resourcemanager.hostname

    192.168.1.115

  

   yarn.nodemanager.aux-services

    mapreduce_shuffle


   yarn.nodemanager.aux-services.mapreduce.shuffle.class

  org.apache.hadoop.mapred.ShuffleHandler


    yarn.resourcemanager.address

 192.168.1.120:18040

  yarn.resourcemanager.scheduler.address

 192.168.1.120:18030

  yarn.resourcemanager.resource-tracker.address

  192.168.1.120:18025

  yarn.resourcemanager.admin.address

 192.168.1.120:18141


   yarn.resourcemanager.webapp.address

 192.168.1.120:18088

yarn.log-aggregation-enable

 true

yarn.log-aggregation.retain-seconds

 86400

yarn.log-aggregation.retain-check-interval-seconds

 86400

yarn.nodemanager.remote-app-log-dir

 /tmp/logs

yarn.nodemanager.remote-app-log-dir-suffix

 logs


 (4).复制mapred-site.xml.template到mapred-site.xml


  mapreduce.framework.name

 yarn

mapreduce.jobtracker.http.address

 192.168.1.120:50030

mapreduce.jobhistory.address

 192.168.1.120:10020

 mapreduce.jobhistory.webapp.address

 192.168.1.120:19888

mapreduce.jobhistory-done-dir

 /jobhistory/done

mapreduce.intermediate-done-dir

 /jobhistory/done_intermediate

 mapreduce.job.ubertask.enable

 true

 (5).编辑slaves,添加主机的IP

192.168.1.120

(6).在hadoop-env.sh文件中添加java_home,找到文件JAVA_HOME

这一行

10.

格式化文件系统

Hdfs namenode –format

11.启动 hadoop-2.7.2/sbin/start-all.sh

12.验证 jps

6433NameNode

6532DataNode

7014NodeManager

6762SecondaryNameNode

6910ResourceManager

7871Jps

13.hadoop

基本命令

hadoop fs –mkdir /hadoop-test

hadoop fs -find /-name hadoop-test

hadoop fs -putNOTICE.txt /hadoop-test/

hadoopfs –rm -R


当前文章:hadoop安装文件配置教程
当前地址:http://scyanting.com/article/sgdgcs.html