第10课Hive安装部署实验.docx

上传人:b****0 文档编号:17547568 上传时间:2023-07-26 格式:DOCX 页数:9 大小:143.44KB
下载 相关 举报
第10课Hive安装部署实验.docx_第1页
第1页 / 共9页
第10课Hive安装部署实验.docx_第2页
第2页 / 共9页
第10课Hive安装部署实验.docx_第3页
第3页 / 共9页
第10课Hive安装部署实验.docx_第4页
第4页 / 共9页
第10课Hive安装部署实验.docx_第5页
第5页 / 共9页
第10课Hive安装部署实验.docx_第6页
第6页 / 共9页
第10课Hive安装部署实验.docx_第7页
第7页 / 共9页
第10课Hive安装部署实验.docx_第8页
第8页 / 共9页
第10课Hive安装部署实验.docx_第9页
第9页 / 共9页
亲,该文档总共9页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

第10课Hive安装部署实验.docx

《第10课Hive安装部署实验.docx》由会员分享,可在线阅读,更多相关《第10课Hive安装部署实验.docx(9页珍藏版)》请在冰点文库上搜索。

第10课Hive安装部署实验.docx

第10课Hive安装部署实验

Hive安装部署实验

【实验名称】

Hive安装部署实验

【实验目的】

1.理解Hive存在的原因;

2.理解Hive的工作原理;

3.理解Hive的体系架构;

4.学会如何进行内嵌模式部署;

5.启动Hive,然后将元数据存储在HDFS上

【实验要求】

1.完成Hive的内嵌模式部署;

2.完成mysql安装;

3.能够将Hive数据存储在HDFS上;

4.Hive环境搭建好后,能够启动并执行一般命令

【实验环境】

在第2课hadoop集群的基础上在hadoop1主节点上安装部署Hive

【实验步骤】

注:

安装所需要的软件都在/opt/hadoop-package目录下安装前需要先安装hadoop和mysql参考之前对应的安装文档

1.安装Mysql

1.1首先进入软件包目录

[root@hadoop1~]#cd/opt/hadoop-package/

1.2解压缩mysql到/usr/local目录

[root@hadoop1haoodp-install]#tar-zxvfmysql-5.6.40-linux-glibc2.12-x86_64.tar.gz-C/usr/local/

1.3进入到/usr/local目录并重命名

[root@hadoop1haoodp-install]#cd/usr/local/

[root@hadoop1local]#mvmysql-5.6.40-linux-glibc2.12-x86_64mysql

1.4添加组用户

[root@hadoop1local]#groupaddmysql

添加用户mysql到用户组mysql

[root@hadoop1local]#useradd-gmysqlmysql

1.5安装mysql

1.5.1进入到安装包目录

[root@hadoop1local]#cd/usr/local/mysql

1.5.2创建data目录下mysql文件夹

[root@hadoop1mysql]#mkdir./data/mysql

1.5.3授权并执行脚本

[root@hadoop1mysql]#chown-Rmysql:

mysql./

./scripts/mysql_install_db--user=mysql--datadir=/usr/local/mysql/data/mysql

1.5.4复制mysql服务文件到/etc/init.d目录下并重命名

[root@hadoop1mysql]#cpsupport-files/mysql.server/etc/init.d/mysqld

1.5.5修改服务文件权限

[root@hadoop1mysql]#chmod777/etc/init.d/mysqld

1.5.6复制mysql的配置文件并重命名

[root@hadoop1mysql]#cpsupport-files/my-f/etc/f

1.5.7修改mysql启动脚本

[root@hadoop1mysql]#vi/etc/init.d/mysqld

修改下面内容

basedir=/usr/local/mysql/

datadir=/usr/local/mysql/data/mysql

修改后如下:

1.5.8配置环境变量加入mysql的安装路径

[root@hadoop1conf]#vi/etc/profile

在文件的最底部加入下面内容

exportPATH=$PATH:

/usr/local/mysql/bin

修改后如下:

退出后执行source/etc/profile命令更新环境变量

[root@hadoop1conf]#source/etc/profile

1.5.10给mysql添加远程登录

[root@hadoop1mysql]#vi/etc/f

在[mysqld]下面加

skip-name-resolve

修改后如下:

1.5.11初始化mysql

[root@hadoop1mysql]#/usr/local/mysql/scripts/mysql_install_db--user=mysql

1.5.12启动mysql服务

[root@hadoop1mysql]#servicemysqldstart

查看mysql服务状态

[root@hadoop1~]#servicemysqldstatus

1.5.13登录mysql

[root@hadoop1~]#mysql-uroot-p

第一次登录不需要密码,直接回车

1.5.14设置本机mysql用户名和密码

mysql>usemysql;

mysql>updateusersetpassword=password('root')whereuser='root';

1.5.15添加远程登录用户

mysql>GRANTALLPRIVILEGESON*.*TO'root'@'%'IDENTIFIEDBY'root'WITHGRANTOPTION;

mysql>FLUSHPRIVILEGES;

1.5.14创建hive数据库,来存储hive元数据信息

mysql>createdatabasehive;

 

可以直接Ctrl+c退出mysql

2.安装Hive

2.1首先进入软件包目录

[root@hadoop~]#cd/opt/hadoop-package/

2.2解压安装压缩包 将hive安装包(apache-hive-2.3.3-bin.tar.gz)解压缩到/opt目录下

[root@hadoophadoop-package]#tar-zxvfapache-hive-2.3.3-bin.tar.gz-C/opt

2.3进入到/opt目录

[root@hadoop~]#cd/opt

2.4将解压的安装包重命名

[root@hadoopopt]#mvapache-hive-2.3.3-binhive

2.5配置环境变量加入hive的安装路径

[root@hadoopconf]#vi/etc/profile

在文件的最底部加入下面内容

exportHIVE_HOME=/opt/hive

exportPATH=$HIVE_HOME/bin:

$HIVE_HOME/conf:

$PATH

配置如图:

退出后执行source/etc/profile命令更新环境变量

[root@hadoopconf]#source/etc/profile

2.6.配置hive

2.6.1进入到hive的配置文件目录

[root@hadoopopt]#cd/opt/hive/conf/

2.6.2复制hive-env.sh.template一份并重命名为hive-env.sh

[root@hadoopconf]#cphive-env.sh.templatehive-env.sh

修改hive-env.sh,设置加入HADOOP_HOME=/opt/hadoop-3.1.0

[root@hadoopconf]#vihive-env.sh

修改后如下:

2.6.3新建hive-site.xml

[root@hadoopconf]#vihive-site.xml

需要在hive-site.xml文件中配置MySQL数据库连接信息复制下面内容到新建文件中

javax.jdo.option.ConnectionURL

jdbc:

mysql:

//localhost:

3306/hive?

createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

javax.jdo.option.ConnectionUserName

root

javax.jdo.option.ConnectionPassword

root

配置如下:

2.6.4配置mysql的驱动将mysql驱动放到hive安装路径的lib目录下

[root@hadoop1conf]#cp/opt/hadoop-package/mysql-connector-java-5.1.32.jar/opt/hive/lib/

2.6.5hive在启动前到进行元数据初始化

[root@hadoop1conf]#schematool-dbTypemysql-initSchema

看到schemaToolcompleted则初始化完成 

检测hive是否成功直接在命令行输入hive即可hive(需要hadoop安装并启动)

启动成功如下:

 

至此,本节实验结束!

 

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2