centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx

上传人:b****3 文档编号:6837968 上传时间:2023-05-07 格式:DOCX 页数:35 大小:3.26MB
下载 相关 举报
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第1页
第1页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第2页
第2页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第3页
第3页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第4页
第4页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第5页
第5页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第6页
第6页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第7页
第7页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第8页
第8页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第9页
第9页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第10页
第10页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第11页
第11页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第12页
第12页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第13页
第13页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第14页
第14页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第15页
第15页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第16页
第16页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第17页
第17页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第18页
第18页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第19页
第19页 / 共35页
centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx_第20页
第20页 / 共35页
亲,该文档总共35页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx

《centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx》由会员分享,可在线阅读,更多相关《centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx(35页珍藏版)》请在冰点文库上搜索。

centOS下hadoop完全分布式安装hadoop261版亲测自己总结文档格式.docx

8、Hostname填写格式“英文名.姓”

9、网络设置安装图示顺序点击就可以了

这里可以不设置在安装完毕后可以通过Linux命令进行设置

10、时区可以在地图上点击,选择“shanghai”并取消SystemclockusesUTC前面的对勾

11、设置root的密码(重要必须牢记密码)

12、硬盘分区,一定要按照图示点选

如果想安装双系统这里不能这么选,请查找资料进行选择

13、调整分区,必须要有/home这个分区,如果没有这个分区,安装部分软件会出现不能安装的问题

14、询问是否格式化分区

15、将更改写入到硬盘

16、引导程序安装位置

17、最重要的一步,也是本教程最关机的一步,也是其他教程没有提及的一步,按图示顺序点击

18、取消以下内容的所有选项

根据自己的需要进行选择这些都是系统提供的一些工具可以选择安装这些工具

Applications

BaseSystem

Servers

并对Desktops进行如下设置

即取消如下选项:

DesktopDebuggingandPerformanceTools

DesktopPlatform

RemoteDesktopClients

InputMethods中仅保留ibus-pinyin-1.3.8-1.el6.x86_64,其他的全部取消

19、选中Languages,并选中右侧的ChineseSupport然后点击红色区域

20、调整完成后如下图所示

21、至此,一个最精简的桌面环境就设置完成了,

22、安装完成,重启

23、重启之后,的LicenseInformation

24、CreateUser

Username:

填写您的英文名(不带.姓)

FullName:

填写您的英文名.姓(首字母大写)

25、"

DateandTime"

选中“Synchronizedataandtimeoverthenetwork”

Finsh之后系统将重启

26、第一次登录,登录前不要做任何更改,这个很重要!

登录之后紧接着退出

第二次登录,选择语言,在红色区域选择下拉小三角,选other,选中“汉语(中国)”

27、登录之后,请一定按照如下顺序点击!

至此,CentOS安装完成,如有其他问题,请随时与我联系!

二、安装hadoop

1.新建运行hadoop专属用户名cast503,修改主节点为master,从节点名称为slave*

这里使用三台主机进行搭建,分别为

Master10.0.4.70

Slave110.0.4.71

Slave210.0.4.72

以下设置均在root权限下进行设置

2.将所有的主机进行组网

1修改所有的主机文件/etc/hosts添加主机名称和对应的IP,形式如下所示

127.0.0.1localhostlocalhost.localdomainlocalhost4localhost4.localdomain4

:

1localhostlocalhost.localdomainlocalhost6localhost6.localdomain6

10.0.4.70Master

10.0.4.71Slave1

10.0.4.72Slave2

2修改/etc/sysconfig/network-script/ifcgf-eth0文件,定义网卡的IPDNS工作组IP地址类型(动态或者静态)广播地址等信息

注意当一台主机有多张网卡时/etc/sysconfig/netrok-script/文件中包含多个ifcgf-文件,修改接入网络的那张网卡的对应文件,文件内容的正确与否直接关系到时否能正确组网

文件内容包括

DEVICE=eth0#网卡名称

BOOTPROTO=static#静态/动态IP

IPADDR=10.0.4.70#网卡的IP地址

NETMASK=255.255.255.0#子网掩码

GATEWAY=192.168.0.1#默认网关

TYPE=Ethernet

3关闭防火墙(如果对防火墙有很好的认识可以对防火墙规则进行配置,在满足Hadoop需要的同时增强系统的安全性,这里只介绍完全关闭防火墙)

关闭所有机器上的防火墙,不然会导致datanode起不来

临时关闭:

serviceiptablesstop

永久关闭:

chkconfigiptablesoff

经过上面步骤后,计算机组网已经完成,我们可以通过pingIP地址/主机名如ping10.0.4.71或者pingslave1的方式来验证网络是否联通

3.安装JDK

注意:

各主机JDK安装版本和安装位置必须相同

JDK可以去Oracl官网进行下载,可以根据自己电脑安装的是Linux系统来选择是64位还是32位JDKforLinux

这里以jdk-7u45-linux-x64.gz为例下载JDK存放在/home/cast503/目录下

JDK安装在/usr/java录下(需要新建文件mkdir/usr/java

1进入/usr/java文件cd/usr/java

2解压软件包jdk-7u45-linux-x64.gzgunzip/home/cast503/jdk-7u45-linux-x64.gz

3解压后会在/usr/java/目录下生成jdk1.8.0_60文件夹

4配置Java系统环境变量,在root权限下打开/etc/profile文件vim/etc/profile

5在文件的末尾添加上如下内容(包含hadoop环境变量)

exportJAVA_HOME=/usr/java/jdk1.8.0_60

exportHADOOP_HOME=/home/cast503/hadoop-2.6.1

exportCLASSPATH=.:

$JAVA_HOME/lib:

$JRE_HOME/lib:

$CLASSPATH

exportPATH=$JAVA_HOME/bin:

$JRE_HOME/bin:

$PATH:

$HADOOP_HOME/sbin

exportJRE_HOME=$JAVA_HOME/jre

6由于Linux系统默认安装openJDK所以这里要修改默认JDK为我们安装的JDK

在cast503账户下输入下列命令

sudoupdate-alternatives--install/usr/bin/javajava/user/java/jdk1.7.0_45/bin/java300

sudoupdate-alternatives--install/usr/bin/javacjavac/user/java/jdk1.7.0_45/bin/javac300

(注意红色部分是设置的JAVA_HOME的文件路径,也就是Java的安装路径)

Sudoupdate-alternatives--configjava

会出现Linux中所有可用的JDK我们选择自己安装的JDK安回车键即可

7查看Linux是否是我们安装的JDK输入命令

Java-version

如果出现如下图所示即为安装成功

4配置SSH免密码登录

如果出现agentadmittedfailuretosignusingthekey解决方式为使用ssh-add指令将私钥加进来

ssh-add/home/cast503/.ssh/id_rsa

.ssh目录的权限为700chmod700/home/cast503/.ssh

authorized_keys文件的权限为600chmod600/home/cast503/.ssh/authorized_keys

5.配置hadoop

4.1.1配置hadoop-env.sh

#cd/usr/lib/hadoop

#vimetc/hadoop/hadoop-env.sh(注意,此处不是系统的etc目录)

将JAVA_HOME修改为刚才配置的位置

4.1.2配置core-site.xml

#vimetc/hadoop/core-site.xml

添加以下内容:

<

configuration>

property>

name>

fs.defaultFS<

/name>

value>

hdfs:

//h1m1:

9000<

/value>

/property>

hadoop.tmp.dir<

/usr/lib/hadoop/tmp<

io.file.buffer.size<

4096<

/configuration>

4.1.3配置hdfs-site.xml

#vimetc/hadoop/hdfs-site.xml

dfs.replication<

2<

dfs.namenode.name.dir<

file:

///usr/lib/hadoop/dfs/name<

dfs.datanode.data.dir<

///usr/lib/hadoop/dfs/data<

dfs.nameservices<

h1<

dfs.namenode.secondary.http-address<

h1m1:

50090<

dfs.webhdfs.enabled<

true<

4.1.4配置mapred-site.xml

#cpmapred-site.xml.templatemapred-site.xml

#vimetc/hadoop/mapred-site.xml

mapreduce.framework.name<

yarn<

final>

/final>

mapreduce.jobtracker.http.address<

50030<

mapreduce.jobhistory.address<

10020<

mapreduce.jobhistory.webapp.address<

19888<

mapred.job.tracker<

http:

9001<

4.1.5配置yarn-site.xml

#vimetc/hadoop/yarn-site.xml

!

--SitespecificYARNconfigurationproperties-->

yarn.resourcemanager.hostname<

h1m1<

yarn.nodemanager.aux-services<

mapreduce_shuffle<

yarn.resourcemanager.address<

8032<

yarn.resourcemanager.scheduler.address<

8030<

yarn.resourcemanager.resource-tracker.address<

8031<

yarn.resourcemanager.admin.address<

8033<

yarn.resourcemanager.webapp.address<

8088<

4.2将hadoop添加到环境变量

#vim/etc/profile

exportHADOOP_HOME=/usr/lib/hadoop

exportPATH=$PATH:

$JAVA_HOME/bin:

$HADOOP_HOME/bin:

#source/etc/profile

6.启动Hadoop

1.将master结点上配置好的hadoop文件夹拷贝到所有的slave结点上

以slave1为例:

命令如下:

scp-r 

~/hadoop-2.6.1 

hadoop@slave1:

~/

安装完成后,我们要格式化HDFS然后启动集群所有节点。

2.格式化HDFS文件系统的namenode

(这里要进入hadoop-2.6.1目录来格式化好些):

cdhadoop-2.6.1 

//进入hadoop-2.6.1目录

bin/hdfsnamenode-format 

//格式化

3.启动Hadoop集群

启动hdrs命令如下:

sbin/start-dfs.sh//开启进程

成功的话输入jps会出现如下界面:

如果不能启动,需要把hadoop目录下tmp、dfs目录删除,重新格式化NN再启动

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > PPT模板 > 自然景观

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2