centos6.4设备hadoop-2.5.1(完全分布式)

centos6.4设备hadoop-2.5.1(完全分布式)

大家好,又见面了,我是全栈君,今天给大家准备了Idea注册码。

环境介绍:

在这两种装备centos6.4(32位置)的server安装Hadoop-2.5.1分布式集群(2台机器,主要试验用。哈哈)。


1.改动主机名和/etc/hosts文件

1)改动主机名(非必要)

vi /etc/sysconfig/network
HOSTNAME=XXX

重新启动后生效。

2)/etc/hosts是ip地址和其相应主机名文件,使机器知道ip和主机名相应关系。格式例如以下:

#IPAddress HostName
192.168.1.67 MasterServer
192.168.1.241 SlaveServer


2.配置免password登陆SSH

1)生成密钥:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

以上是两个单引號。

2)将id_dsa.pub(公钥)追加到授权的key中:

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3)将认证文件拷贝到其他节点上:

scp ~/.ssh/authorized_keys hadooper@192.168.1.241:~/.ssh/

4)測试:

ssh SlaveServer

第一次要确认连接。输入yes就可以。

但我的仍要求输入password。原因是.ssh和authorized_keys权限不正确,详细见:http://blog.csdn.net/hwwn2009/article/details/39852457

3.各节点上安装jdk
1)选择的版本号是
jdk-6u27-linux-i586.bin。下载地址:http://pan.baidu.com/s/1mgICcFA
2上传到hadooper用户文件夹下。加入运行权限

chmod 777 jdk-6u27-linux-i586.bin

3
安装

./jdk-6u27-linux-i586.bin

4
配置环境变量:vi /etc/profile增加下面三行

#JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH

5
运行source /etc/profile使环境变量的配置生效

6
运行java –version查看jdk版本号,验证是否成功。


4. Hadoop安装

每台节点都要安装hadoop。

上传hadoop-2.5.1.tar.gz到用户hadooper文件夹下。

1)解压

tar -zvxf hadoop-2.5.1.tar.gz

2)加入环境变量:vi  /etc/profile,尾部加入例如以下

export HADOOP_HOME=/home/hadooper/hadoop/hadoop-2.5.1
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

设置马上生效:

source /etc/profile

3)改动Hadoop配置文件

(1)core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://MasterServer:9000</value>
</property>

(2)hdfs-site.xml 

<property>
    <name>dfs.replication</name>  #值不应大于datanode数量
    <value>1</value>
 </property>
 <property>
   <name>dfs.namenode.name.dir</name>         #设置分布式文件系统存放于/home/hadooper/hadoop/dfs 的本地文件夹
   <value>/home/hadooper/hadoop/dfs/name</value>
   <description>  </description>
 </property>

 <property>
   <name>dfs.datanode.data.dir</name>
   <value>/home/hadooper/hadoop/dfs/data</value>
   <description> </description>
 </property>
   
 <property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
 </property>  

注:訪问namenode的hdfs使用50070port,訪问datanode的webhdfs使用50075port。要想不区分port,直接使用namenode的IP和port进行全部的webhdfs操作,就须要在全部的datanode上都设置hdfs-site.xml中的dfs.webhdfs.enabled为true。

(3)mapred-site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>
 <property>
    <name>mapreduce.jobhistory.address</name>
    <value>MasterServer:10020</value>
 </property>
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>MasterServer:19888</value>
 </property><span style="font-family: Arial, Helvetica, sans-serif;">         </span>

jobhistory是Hadoop自带了一个历史server,记录Mapreduce历史作业。

默认情况下。jobhistory没有启动。可用下面命令启动:

 sbin/mr-jobhistory-daemon.sh start historyserver

(4)yarn-site.xml

 <property>  
    <name>yarn.nodemanager.aux-services</name>  
    <value>mapreduce_shuffle</value>  
 </property>  
 <property>  
    <name>yarn.resourcemanager.address</name>  
    <value>MasterServer:8032</value>  
 </property>  
 <property>  
    <name>yarn.resourcemanager.scheduler.address</name>  
    <value>MasterServer:8030</value>  
 </property>  
 <property>  
    <name>yarn.resourcemanager.resource-tracker.address</name>  
    <value>MasterServer:8031</value>  
 </property>  
 <property>  
    <name>yarn.resourcemanager.admin.address</name>  
    <value>MasterServer:8033</value>  
 </property>  
 <property>  
    <name>yarn.resourcemanager.webapp.address</name>  
    <value>MasterServer:8088</value>  
 </property>  

(5)slaves

SlaveServer

(6)分别在hadoop-env.sh和yarn-env.sh中加入JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27


5.执行Hadoop

1)格式化

hdfs namenode –format

2)启动Hadoop

start-dfs.sh 
start-yarn.sh

也能够用一条命令:

start-all.sh

3)停止Hadoop

stop-all.sh

4)jps查看进程

7692 ResourceManager
8428 JobHistoryServer
7348 NameNode
14874 Jps
7539 SecondaryNameNode

5)通过浏览器查看集群执行状态

(1)http://192.168.1.67:50070
centos6.4设备hadoop-2.5.1(完全分布式)

(2)http://192.168.1.67:8088/

centos6.4设备hadoop-2.5.1(完全分布式)

(3)http://192.168.1.67:19888

centos6.4设备hadoop-2.5.1(完全分布式)


6. 执行Hadoop自带的wordcount演示样例

1)建立输入文件:

echo "My first hadoop example. Hello Hadoop in input. " > input

2)建立文件夹

hadoop fs -mkdir /user/hadooper

3)上传文件

hadoop fs -put input /user/hadooper

4)运行wordcount程序

 hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.1.jar wordcount /user/hadooper/input /user/hadooper/output

5)查看结果

hadoop fs -cat /user/hadooper/output/part-r-00000
Hadoop	1
My	1
example.Hello	1
first	1
hadoop	1
in	1
input.	1

转载请注明:http://blog.csdn.net/hwwn2009/article/details/39889465

版权声明:本文博主原创文章,博客,未经同意不得转载。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/116771.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • MAMP “403 Forbidden You don’t have permission to access / on this server.”

    MAMP “403 Forbidden You don’t have permission to access / on this server.”

    2021年10月19日
  • Centos7 利用yum安装卸载软件常用命令「建议收藏」

    Centos7 利用yum安装卸载软件常用命令「建议收藏」一、使用yum安装和卸载软件,有个前提是yum安装的软件包都是rpm格式的。安装的命令是,yuminstall~,yum会查询数据库,有无这一软件包,如果有,则检查其依赖冲突关系,如果没有依赖冲突,那么最好,下载安装;如果有,则会给出提示,询问是否要同时安装依赖,或删除冲突的包,你可以自己作出判断;删除的命令是,yumremove~,同安装一样,yum也会查询数据库,给出解决依赖关…

  • java 成绩管理系统 报告_Java学生成绩管理系统实验报告

    java 成绩管理系统 报告_Java学生成绩管理系统实验报告实验名称实验类型实验编号学生成绩管理系统□验证实验学时√综合1分组号指导教师8+101实验日期实验时间实验地点6A-413一、实验目的和要求(1)掌握java的基本数据类型;掌握数组的定义和使用;(2)掌握java语言中的控制结构的使用;(3)掌握java语言中的类的定义与使用;(4)掌握java语言中继承、多态、接口、抽象类、异常处理等;…

  • Hsql函数下_sql nvl函数

    Hsql函数下_sql nvl函数Hsql函数.下(窗口函数、分析函数、增强group)参考链接:https://blog.csdn.net/scgaliguodong123_/article/details/601353851.窗口函数与分析函数应用场景:(1)用于分区排序(2)动态GroupBy(3)TopN(4)累计计算(5)层次查询1.1、窗口函数FIRST_VALUE:取分组内排序后,…

  • 计算机夏令营、预推免面试经验【北理cs,北航cs,复旦cs大数据,浙大cs】「建议收藏」

    计算机夏令营、预推免面试经验【北理cs,北航cs,复旦cs大数据,浙大cs】「建议收藏」这是一篇非寻常经验贴,因为今年疫情影响下的保研实在是太奇怪了,这里主要说说我了解到的一些学校的一些特点,可以做参考首先推荐一个计算机保研群,和各大机构的不一样,里边全是历届保研的同学们,大家都知道的很多,在这个群里我真的学到了不少,群主虎哥也很nice个人状况末流211物联网工程专业1/64夏令营入营:南方科技大学(优营)听说这个学校很有钱,这里有一个很好的老师,好像是搞,如果是冲老师去的可以报,但知名度实在不高,也没有牌子,自己权衡吧南开人工智能学院(杰出营员):感谢南开ai,是我梦开始

  • 大数据开发面试知识点总结[通俗易懂]

    大数据开发面试知识点总结[通俗易懂]​本文详细介绍大数据hadoop生态圈各部分知识,包括不限于hdfs、yarn、mapreduce、hive、sqoop、kafka、flume、spark、flink等技术,总结内容适合大数据开发者学习,希望能够和大家多多交流。

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号