HadoopSpark集群部署手册Word格式文档下载.docx

上传人:b****1 文档编号:1053315 上传时间:2023-04-30 格式:DOCX 页数:23 大小:422.77KB
下载 相关 举报
HadoopSpark集群部署手册Word格式文档下载.docx_第1页
第1页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第2页
第2页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第3页
第3页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第4页
第4页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第5页
第5页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第6页
第6页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第7页
第7页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第8页
第8页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第9页
第9页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第10页
第10页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第11页
第11页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第12页
第12页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第13页
第13页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第14页
第14页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第15页
第15页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第16页
第16页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第17页
第17页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第18页
第18页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第19页
第19页 / 共23页
HadoopSpark集群部署手册Word格式文档下载.docx_第20页
第20页 / 共23页
亲,该文档总共23页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

HadoopSpark集群部署手册Word格式文档下载.docx

《HadoopSpark集群部署手册Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《HadoopSpark集群部署手册Word格式文档下载.docx(23页珍藏版)》请在冰点文库上搜索。

HadoopSpark集群部署手册Word格式文档下载.docx

spark03.yun

3.2环境搭建(每台机器都要操作)

3.2.1修改HostName(非必须)

vim/etc/sysconfig/network

修改HOSTNAME为需要的名称

重启服务器,进行生效

reboot

3.2.2设置Host映射文件

1. 

 

使用root身份编辑/etc/hosts映射文件,设置IP地址及机器名的映射,设置信息如下:

vim/etc/hosts

172.16.158.24DashDB01.yun

172.16.158.25spark01.yun

172.16.158.26spark02.yun

172.16.158.27spark03.yun

2. 

使用如下命令对网络设置进行重启

/etc/init.d/networkrestart

3. 

验证设置是否成功

3.2.3设置操作系统环境

3.2.3.1关闭防火墙

在Hadoop安装过程中需要关闭防火墙和SElinux,否则会出现异常

serviceiptablesstatus 

查看防火墙状态,如下所示表示iptables已经开启

以root用户使用如下命令关闭iptables

chkconfigiptablesoff

3.2.3.2关闭SElinux

使用getenforce命令查看是否关闭

修改/etc/selinux/config 

文件

将SELINUX=enforcing改为SELINUX=disabled,执行该命令后重启机器生效

3.2.3.3JDK安装及配置

赋予vod用户/usr/lib/java目录可读写权限,使用命令如下:

sudochmod-R777/usr/lib/java

把下载的安装包,上传到/usr/lib/java 

目录下,使用如下命令进行解压

tar-zxvfjdk-7u55-linux-x64.tar.gz

解压后目录如下图所示:

使用root用户配置 

/etc/profile,该设置对所有用户均生效

vim/etc/profile

添加以下信息:

exportJAVA_HOME=/usr/lib/java/jdk1.7.0_55

exportPATH=$PATH:

$JAVA_HOME/bin:

$JAVA_HOME/jre/bin

exportCLASSPATH=.:

$CLASSPATH:

$JAVA_HOME/lib:

$JAVA_HOME/jre/lib

修改完毕后,使用

source/etc/pro-version

3.2.3.4更新OpenSSL

yumupdateopenssl

3.2.3.5无密码验证配置

以root用户使用vim/etc/ssh/sshd_config,打开sshd_config配置文件,开放4个配置,如下图所示:

RSAAuthenticationyes

PubkeyAuthenticationyes

AuthorizedKeys

StrictModesno

配置后重启服务

servicesshdrestart

3.使用root用户登录在4个节点,在/home/common目录下,执行命令

mkdir.ssh

4. 

使用vod用户登录在4个节点中使用如下命令生成私钥和公钥;

sudochown-Rvod.ssh

ssh-keygen-trsa

5. 

进入/home/common/.ssh目录在4个节点中分别

使用如下命令cpid_rsa.pubauthorized_keys_DashDB01.yun

把公钥命名

authorized_keys_DashDB01.yun

authorized_keys_spark01.yun

authorized_keys_spark02.yun

authorized_keys_spark03.yun

6. 

把3个从节点(spark01,spark02,spark03)的公钥使用scp命令传送到DashDB01.yun节点的/home/common/.ssh文件夹中;

scpauthorized_keys_spark01.yun:

/home/common/.ssh

最终DashDB01.yun节点中文件如下

7. 

把4个节点的公钥信息保存到authorized_key文件中

使用catauthorized_keys_DashDB01.yun>

>

authorized_keys 

命令

8. 

把该文件分发到其他两个从节点上

使用scpauthorized_keys:

/home/common/.ssh把密码文件分发出

其余三台机器的.ssh文件包含如下:

9. 

在4台机器中使用如下设置authorized_keys读写权限

chmod775authorized_keys

10. 

测试ssh免密码登录是否生效

3.3配置Hadooop设置

3.3.1准备hadoop文件

把hadoop-2.2.0目录移到/usr/local目录下

cd/home/hadoop/Downloads/

sudocphadoop-2.2.0/usr/local

使用chown命令遍历修改hadoop-1.1.2目录所有者为hadoop

sudochown-Rvod/usr/local/hadoop-2.2.0

chmod775-R/usr/local/hadoop-2.2.0/

3.3.2在Hadoop目录下创建子目录

使用vod用户在hadoop-2.2.0目录下创建tmp、name和data目录,保证目录所有者为vod

cd/usr/local/hadoop-2.2.0

mkdirtmp

mkdirname

mkdirdata

ls

配置/etc/provim/etc/profile

添加以下内容

exportHADOOP_HOME=/usr/local/hadoop-2.2.0

$HADOOP_HOME/bin

exportYARN_HOME=$HADOOP_HOME

exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

exportYARN_CONF_DIR=$HADOOP_HOMR/etc/hadoop

使用命令使其生效

source/etc/profile

3.3.3配置hadoop-env.sh

打开配置文件hadoop-env.sh

cd/usr/local/hadoop-2.2.0/etc/hadoop

sudovimhadoop-env.sh

加入配置内容,设置了hadoop中jdk和hadoop/bin路径

/usr/local/hadoop-2.2.0/bin

编译配置文件hadoop-env.sh,并确认生效

sourcehadoop-env.sh

3.3.4配置yarn-env.sh

在/usr/local/hadoop-2.2.0/etc/hadoop打开配置文件yarn-env.sh

sudovimyarn-env.sh

编译配置文件yarn-env.sh,并确认生效

sourceyarn-env.sh

3.3.5配置core-site.xml

使用如下命令打开core-site.xml配置文件

sudovimcore-site.xml

在配置文件中,按照如下内容进行配置

<

configuration>

<

property>

name>

fs.default.name<

/name>

value>

hdfs:

//172.16.158.24:

9000<

/value>

/property>

fs.defaultFS<

io.<

131072<

hadoop.tmp.dir<

description>

Abaseforothertemporarydirectories.<

/description>

hadoop.proxyuser.hduser.hosts<

*<

hadoop.proxyuser.hduser.groups<

/configuration>

3.3.6配置hdfs-site.xml

使用如下命令打开hdfs-site.xml配置文件

sudovimhdfs-site.xml

dfs.namenode.secondary.http-address<

172.16.158.24:

9001<

dfs.namenode.name.dir<

dfs.datanode.data.dir<

dfs.replication<

2<

dfs.webhdfs.enabled<

true<

dfs.permissions<

false<

3.3.7配置mapred-site.xml

默认情况下不存在mapred-site.xml文件,可以从模板拷贝一份

cpmapred-site.xml.templatemapred-site.xml

使用如下命令打开mapred-site.xml配置文件

sudovimmapred-site.xml

mapreduce.framework.name<

yarn<

mapreduce.jobhistory.address<

10020<

mapreduce.jobhistory.webapp.address<

19888<

3.3.8配置yarn-site.xml

使用如下命令打开yarn-site.xml配置文件

sudovimyarn-site.xml

yarn.nodemanager.aux-services<

mapreduce_shuffle<

yarn.nodemanager.aux-services.mapreduce.shuffle.class<

org.apache.hadoop.mapred.ShuffleHandler<

yarn.resourcemanager.address<

8032<

yarn.resourcemanager.scheduler.address<

8030<

yarn.resourcemanager.resource-tracker.address<

8031<

yarn.resourcemanager.admin.address<

8033<

yarn.resourcemanager.webapp.address<

8088<

3.3.9配置slaves文件

设置从节点

sudovimslaves

修改为

spark03.yun 

3.3.10向各节点分发hadoop程序

在spark01.yunspark02.yunspark03.yun 

机器中创建/usr/local/hadoop-2.2.0目录,然后修改该目录所有权限

sudomkdir/usr/local/hadoop-2.2.0

sudochown 

-Rvod/usr/local/hadoop-2.2.0

sudochmod775-R/usr/local/hadoop-2.2.0/

在DashDB01.yun机器上进入/usr/local/hadoop-2.2.0目录,使用如下命令把hadoop文件夹复制到其他3台

使用命令

scp-r*:

/usr/local/hadoop-2.2.0

在从节点查看是否复制成功

执行chmod775-R/usr/local/hadoop-2.2.0/

4.每个节点配置/etc/provim/etc/profile

3.4启动hadoop

3.4.1格式化namenode

./bin/hdfsnamenode-format

3.4.2启动hadoop

cd/usr/local/hadoop-2.2.0/sbin

./start-all.sh

3.4.3验证当前进行

此时执行jps命令

在DashDB01.yun上运行的进程有:

namenode,secondarynamenode,resourcemanager

spark01.yunspark02.yun和spark03.yun上面运行的进程有:

datanode,nodemanager

4Hive1.2.1安装和配置

4.1拷贝项目

sudocp-r/home/common/Downloads/hive-1.2.1/hive-1.2.1

更改文件夹所属

sudochown-Rvod/usr/local/hive-1.2.1

sudochmod775-R/usr/local/hive-1.2.1

exportHIVE_HOME=/usr/local/hive-1.2.1

exportPATH=$HIVE_HOME/bin:

$PATH

exportHIVE_CONF_DIR=$HIVE_HOME/conf

4.2配置hive(使用mysql数据源)

前提条件:

在mysql数据库建立hive用户并赋予相关权限

mysql>

CREATEUSER'

hive'

IDENTIFIEDBY'

mysql'

;

GRANTALLPRIVILEGESON*.*TO'

@'

%'

WITHGRANTOPTION;

flushprivileges;

cd$HIVE_CONF_DIR/

cphive-default.xml.templatehive-site.xml

vimhive-site.xml

修改下列参数:

javax.jdo.option.ConnectionURL<

jdbc:

mysql:

//192.168.15.150:

3306/hive?

createDatabaseIfNotExist=true<

javax.jdo.option.ConnectionDriverName<

com.mysql.jdbc.Driver<

javax.jdo.option.ConnectionUserName<

hive<

javax.jdo.option.ConnectionPassword<

执行命令

chmod775-R/usr/local/hive-1.2.1/

4.3启动HiveServer2(后台启动)

cd$HIVE_HOME/bin

nohuphive--servicehiveserver2&

测试:

netstat-an|grep10000或者使用jdbc连接测试

4.4测试

输入hive命令,启动hive

hive>

showtables;

OK

Timetaken:

4.824seconds

createtablehwz(idint,namestring);

0.566seconds

select*fromhwz;

0.361seconds

$hadoopdfs-lsr/user/hive

Warning:

$HADOOP_HOMEisdeprecated.

drwxr-xr-x-hadoopsupergroup02012-03-2212:

36/user/hive/warehouse

36/user/hive/warehouse/hwz

5Scala安装和配置

5.1拷贝安装包

cd/usr/lib

sudocp/home/common/Downloads/scala-2.10.4.tgzscala-2.10.4.tgz

5.2解压安装包

sudotar-xvfscala-2.10.4.tgz

sudormscala-2.10.4.tgz

给scala文件夹赋予相应的权限

sudochown-R

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 工程科技 > 能源化工

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2