Hadoop详细安装配置过程Word下载.docx

上传人:b****1 文档编号:4923041 上传时间:2023-05-04 格式:DOCX 页数:15 大小:20.74KB
下载 相关 举报
Hadoop详细安装配置过程Word下载.docx_第1页
第1页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第2页
第2页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第3页
第3页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第4页
第4页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第5页
第5页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第6页
第6页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第7页
第7页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第8页
第8页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第9页
第9页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第10页
第10页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第11页
第11页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第12页
第12页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第13页
第13页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第14页
第14页 / 共15页
Hadoop详细安装配置过程Word下载.docx_第15页
第15页 / 共15页
亲,该文档总共15页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

Hadoop详细安装配置过程Word下载.docx

《Hadoop详细安装配置过程Word下载.docx》由会员分享,可在线阅读,更多相关《Hadoop详细安装配置过程Word下载.docx(15页珍藏版)》请在冰点文库上搜索。

Hadoop详细安装配置过程Word下载.docx

$JAVA_HOME/lib/:

$JAVA_HOME/lib/

exportPATH=$JAVA_HOME/bin:

$PATH

配置完成后,保存退出。

●不重启,更新命令

#source/etc/profile

●测试是否安装成功

#Java–version

其他问题:

出现unabletoresolvehost解决方法

参考?

开机时停在Startingsendmail不动了的解决方案

安装软件时出现E:

Unabletolocatepackagevsftpd

vi/vim使用方法讲解

分类:

Hadoop

 

--------------------------------------------

克隆master虚拟机至node1、node2

分别修改master的主机名为master、node1的主机名为node1、node2的主机名为node2

(启动node1、node2系统默认分配递增ip,无需手动修改)

分别修改/etc/hosts中的ip和主机名(包含其他节点ip和主机名)

---------

配置ssh免密码连入

hadoop@node1:

~$ssh-keygen-tdsa-P'

'

-f~/.ssh/id_dsa

Generatingpublic/privatedsakeypair.

Createddirectory'

/home/hadoop/.ssh'

.

Youridentificationhasbeensavedin/home/hadoop/.ssh/id_dsa.

Yourpublickeyhasbeensavedin/home/hadoop/.ssh/.

Thekeyfingerprintis:

SHA256:

B8vBju/uc3kl/v9lrMqtltttttCcXgRkQPbVoUhadoop@node1

Thekey'

srandomartimageis:

+---[DSA1024]----+

|....|

|o+.E.|

|.oo+|

|..++|

|o+.oooo+|

|=o..o.ooo.o.|

|*o....+=o.+++.+|

+----[SHA256]-----+

~$cd.ssh

~/.ssh$ll

总用量16

drwx------2hadoophadoop4096Jul2420:

31./

drwxr-xr-x18hadoophadoop4096Jul2420:

31../

-rw-------1hadoophadoop668Jul2420:

31id_dsa

-rw-r--r--1hadoophadoop602Jul2420:

31

~/.ssh$cat>

>

authorized_keys

总用量20

32./

-rw-rw-r--1hadoophadoop602Jul2420:

32authorized_keys

单机回环ssh免密码登录测试

~/.ssh$sshlocalhost

Theauthenticityofhost'

localhost()'

can'

tbeestablished.

ECDSAkeyfingerprintisSHA256:

daO0dssyqt12tt9yGUauImOh6tt6A1SgxzSfSmpQqJVEiQTxas.

Areyousureyouwanttocontinueconnecting(yes/no)yes

Warning:

Permanentlyadded'

localhost'

(ECDSA)tothelistofknownhosts.

WelcometoUbuntu(GNU/Linuxx86_64)

*Documentation:

packagescanbeupdated.

178updatesaresecurityupdates.

Newrelease'

LTS'

available.

Run'

do-release-upgrade'

toupgradetoit.

Lastlogin:

SunJul2420:

21:

392016from

~$exit

注销

Connectiontolocalhostclosed.

~/.ssh$

出现以上信息说明操作成功,其他两个节点同样操作

让主结点(master)能通过SSH免密码登录两个子结点(slave)

~/.ssh$scphadoop@master:

~/.ssh/./

master()'

daO0dssyqtt9yGUuImOh646A1SgxzSfatSmpQqJVEiQTxas.

master,'

hadoop@master'

spassword:

100%603s00:

00

如上过程显示了node1结点通过scp命令远程登录master结点,并复制master的公钥文件到当前的目录下,

这一过程需要密码验证。

接着,将master结点的公钥文件追加至authorized_keys文件中,通过这步操作,

如果不出问题,master结点就可以通过ssh远程免密码连接node1结点了。

在master结点中操作如下:

hadoop@master:

~/.ssh$sshnode1

node1()'

daO0dssyqt9yGUuImOh3466A1SttgxzSfSmpQqJVEiQTxas.

node1,'

39:

302016from

Connectiontonode1closed.

~/.ssh$

由上图可以看出,node1结点首次连接时需要,“YES”确认连接,

这意味着master结点连接node1结点时需要人工询问,无法自动连接,

输入yes后成功接入,紧接着注销退出至master结点。

要实现ssh免密码连接至其它结点,

还差一步,只需要再执行一遍sshnode1,如果没有要求你输入”yes”,就算成功了,过程如下:

47:

202016from

如上图所示,master已经可以通过ssh免密码登录至node1结点了。

对node2结点也可以用上面同样的方法进行

表面上看,这两个结点的ssh免密码登录已经配置成功,但是我们还需要对主结点master也要进行上面的同样工作,

这一步有点让人困惑,但是这是有原因的,具体原因现在也说不太好,据说是真实物理结点时需要做这项工作,

因为jobtracker有可能会分布在其它结点上,jobtracker有不存在master结点上的可能性。

对master自身进行ssh免密码登录测试工作:

daO0dssttqt9yGUuImOahtt166AgxttzSfSmpQqJVEiQTxas.

master'

authorized_key

~/.ssh$sshmaster

242016from

Connectiontomasterclosed.

至此,SSH免密码登录已经配置成功。

-------------------------

解压hadoop

然后更新环境变量

vi/etc/profile

exportJAVA_HOME=/opt/CLASSPATH=.:

exportHADOOP_HOME=/opt/hadoop

exportPATH=$PATH:

$JAVA_HOME/bin:

$HADOOP_HOME/bin:

$HADOOP_HOME/sbin

exportHADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

exportHADOOP_OPTS="

"

aliasviprofile='

vi/etc/profile'

aliassourceprofile='

source/etc/profile'

aliascatprofile='

cat/etc/profile'

aliascdhadoop='

cd/opt/hadoop/'

aliasstartdfs='

$HADOOP_HOME/sbin/'

aliasstartyarn='

aliasstopdfs='

aliasstopyarn='

------------------

步骤六:

修改配置

一共有7个文件要修改:

$HADOOP_HOME/etc/hadoop/

$HADOOP_HOME/etc/hadoop/slaves

其中$HADOOP_HOME表示hadoop根目录

a)、

这二个文件主要是修改JAVA_HOME后的目录,改成实际本机jdk所在目录位置

vietc/hadoop/(及vietc/hadoop/)

找到下面这行的位置,改成(jdk目录位置,大家根据实际情况修改)

exportJAVA_HOME=/opt/另外中,建议加上这句:

exportHADOOP_PREFIX=/opt/hadoop

b)参考下面的内容修改:

<

xmlversion="

encoding="

UTF-8"

xml-stylesheettype="

text/xsl"

href="

configuration>

<

property>

name>

/name>

value>

/property>

/opt/hadoop/tmp<

/value>

/configuration>

注:

/opt/hadoop/tmp目录如不存在,则先mkdir手动创建

的完整参数请参考

:

50020<

50075<

2<

注:

表示数据副本数,一般不大于datanode的节点数。

的完整参数请参考

yarn<

version="

mapreduce_shuffle<

另外,hadoop与相比,中的很多参数已经被标识为过时,具体可参考

最后一个文件slaves暂时不管(可以先用mvslaves将它改名),上述配置弄好后,就可以在master上启用NameNode测试了,方法:

$HADOOP_HOME/bin/hdfsnamenode–format先格式化

16/07/25。

16/07/2520:

34:

42INFO:

AllocatednewBlockPoolId:

BP-

Storagedirectory/opt/hadoop/tmp/dfs/namehasbeensuccessfullyformatted.

43INFO:

Goingtoretain1imageswithtxid>

=0

Exitingwithstatus0

SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG:

ShuttingdownNameNodeatmaster/

************************************************************/

等看到这个时,表示格式化ok

$HADOOP_HOME/sbin/

启动完成后,输入jps(ps-ef|grep...)查看进程,如果看到以下二个进程:

5161SecondaryNameNode

4989NameNode

表示master节点基本ok了

再输入$HADOOP_HOME/sbin/,完成后,再输入jps查看进程

5320ResourceManager

如果看到这3个进程,表示yarn也ok了

f)修改/opt/hadoop/etc/hadoop/slaves

如果刚才用mvslaves对该文件重命名过,先运行mvslaves把名字改回来,再

vislaves编辑该文件,输入

node1

node2

保存退出,最后运行

停掉刚才启动的服务

步骤七:

将master上的hadoop目录复制到node1,node2

仍然保持在master机器上

cd先进入主目录cd/opt

zip-rhadoop

scp-rhadoop@node1:

/opt/

scp-rhadoop@node2:

unzip

node1、node2上的hadoop临时目录(tmp)及数据目录(data),仍然要先手动创建。

-----

步骤八:

验证

master节点上,重新启动

$HADOOP_HOME/sbin/

------

/opt/hadoop/sbin$

Startingnamenodeson[master]

master:

startingnamenode,loggingto/opt/hadoop/logs/

node1:

startingdatanode,loggingto/opt/hadoop/logs/

node2:

Startingsecondarynamenodes[]

startingsecondarynamenode,loggingto/opt/hadoop/logs/

startingyarndaemons

startingresourcemanager,loggingto/opt/hadoop/logs/

startingnodemanager,loggingto/opt/hadoop/logs/

顺利的话,master节点上有几下3个进程:

ps-ef|grepResourceManager

ps-ef|grepSecondaryNameNode

ps-ef|grepNameNode

7482ResourceManager

7335SecondaryNameNode

7159NameNode

slave01、slave02上有几下2个进程:

ps-ef|grepDataNode

ps-ef|grepNodeManager

2296DataNode

2398NodeManager

同时可浏览:

bin/hdfsdfsadmin-report查看hdfs的状态报

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 总结汇报 > 学习总结

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2