大数据技术基础实验报告HDFS常用操作命令.docx

上传人:b****8 文档编号:12994911 上传时间:2023-06-10 格式:DOCX 页数:10 大小:421.07KB
下载 相关 举报
大数据技术基础实验报告HDFS常用操作命令.docx_第1页
第1页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第2页
第2页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第3页
第3页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第4页
第4页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第5页
第5页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第6页
第6页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第7页
第7页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第8页
第8页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第9页
第9页 / 共10页
大数据技术基础实验报告HDFS常用操作命令.docx_第10页
第10页 / 共10页
亲,该文档总共10页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

大数据技术基础实验报告HDFS常用操作命令.docx

《大数据技术基础实验报告HDFS常用操作命令.docx》由会员分享,可在线阅读,更多相关《大数据技术基础实验报告HDFS常用操作命令.docx(10页珍藏版)》请在冰点文库上搜索。

大数据技术基础实验报告HDFS常用操作命令.docx

大数据技术基础实验报告HDFS常用操作命令

大数据技术基础实验报告-HDFS常用操作命令

实验内容:

1.开启HDFS

start-dfs.sh

2.查看在终端中我们操作HDFS的命令

hdfsdfs

3.命令行客户端支持的命令参数

hadoopfs[-appendToFile...]

[-cat[-ignoreCrc]...]

[-checksum...]

[-chgrp[-R]GROUPPATH...]

[-chmod[-R]PATH...]

[-chown[-R][OWNER][:

[GROUP]]PATH...]

[-copyFromLocal[-f][-p]...]

[-copyToLocal[-p][-ignoreCrc][-crc]...]

[-count[-q]...]

[-cp[-f][-p]...]

[-createSnapshot[]]

[-deleteSnapshot]

[-df[-h][...]]

[-du[-s][-h]...]

[-expunge]

[-get[-p][-ignoreCrc][-crc]...]

[-getfacl[-R]]

[-getmerge[-nl]]

[-help[cmd...]]

[-ls[-d][-h][-R][...]]

[-mkdir[-p]...]

[-moveFromLocal...]

[-moveToLocal]

[-mv...]

[-put[-f][-p]...]

[-renameSnapshot]

[-rm[-f][-r|-R][-skipTrash]...]

[-rmdir[--ignore-fail-on-non-empty]

...]

[-setfacl[-R][{-b|-k}{-m|-x}]|[--set]]

[-setrep[-R][-w]...]

[-stat[format]...]

[-tail[-f]]

[-test-[defsz]]

[-text[-ignoreCrc]...]

[-touchz...]

[-usage[cmd...]]

 

图中显示很多命令选项信息,以上截图补全,下面的表格能够完整的列出了支持的命令选项。

选项名称使用格式含义

 

-ls-ls<路径>查看指定路径的当前目录结构

-lsr-lsr<路径>递归查看指定路径的目录结构

-du-du<路径>统计目录下个文件大小

-dus-dus<路径>汇总统计目录下文件(夹)大小

-count-count[-q]<路径>统计文件(夹)数量

-mv-mv<源路径><目的路径>移动

-cp-cp<源路径><目的路径>复制

-rm-rm[-skipTrash]<路径>删除文件/空白文件夹

-rmr-rmr[-skipTrash]<路径>递归删除

-put-put<多个linux上的文件>上传文件

-copyFromLocal-copyFromLocal<多个linux上的文件>

从本地复制

-moveFromLocal-moveFromLocal<多个linux上的文件>

从本地移动

-getmerge-getmerge<源路径>合并到本地

-cat-cat查看文件内容

-text-text查看文件内容

-copyToLocal-copyToLocal[-ignoreCrc][-crc][hdfs源路径][linux目的路径]从本地复制

-moveToLocal-moveToLocal[-crc]从本地移动

-mkdir-mkdir创建空白文件夹

-setrep-setrep[-R][-w]<副本数><路径>修改副本数量

-touchz-touchz<文件路径>创建空白文件

-stat-stat[format]<路径>显示文件统计信息

-tail-tail[-f]<文件>查看文件尾部信息

-chmod-chmod[-R]<权限模式>[路径]修改权限

-chown-chown[-R][属主][:

[属组]]路径修改属主

-chgrp-chgrp[-R]属组名称路径修改属组

-help-help[命令选项]帮助

3.对目录的操作

 

创建目录:

 

hdfsdfs-mkdir/input

如果我们需要创建多级目录,我们可以在使用hdfsdfs-mkdir-p/user/hadoop

 

查看HDFS上的目录:

 

hdfsdfs-ls/

hdfsdfs-ls/user

hdfsdfs-ls-R/查看HDFS根目录下所有文件,以及子文件

删除目录:

 

hdfsdfs-rm-r/input

 

4.对文件的操作

 

上传文件:

hdfsdfs-mkdir/input

hdfsdfs-put/apps/hadoop/etc/hadoop/*.xml/input

hdfsdfs-ls/input

下载文件:

 

mkdir/root/input

hdfsdfs-get/input/*.xml/root/input

ls/root/input

 

复制文件:

 

hdfsdfs-mkdir/in

hdfsdfs-cp/input/*.xml/in

hdfsdfs-ls/in

修改文件名:

hdfsdfs-mv/in/in_put

hdfsdfs-ls/

修改文件权限,所属主,

hdfsdfs-mkdir/mydata

hdfsdfs-ls/

hdfsdfs-chmod777/mydata

hdfsdfs-chownhadoop:

hadoop/mydata

 

实验基本过程:

1.打开虚拟机,进入Linux系统。

2.启动hadoop:

cd/usr/local/hadoop./sbin/start-dfs.sh

3.开启hdfs:

start-dfs.sh

4.查看在终端中我们操作HDFS的命令

5.命令行客户端支持的命令参数

6.对目录进行操作

7.对文件进行操作

 

实验结果:

 

疑难小结(总结实验中遇到的问题):

1、集群启动后,可以查看文件,但是上传文件时报错,打开web页面可看到namenode正处于safemode状态,怎么处理?

1##模拟场景如下

2[yun@mini04~]$hdfsdfsadmin-safemodeget

3SafemodeisOFF

4[yun@mini04~]$hdfsdfsadmin-safemodeenter

5SafemodeisON

6[yun@mini04~]$hdfsdfsadmin-safemodeget

7SafemodeisON

8[yun@mini04~]$hdfsdfsadmin-safemodeleave#关闭safemode状态

9SafemodeisOFF

10[yun@mini04~]$hdfsdfsadmin-safemodeget

11SafemodeisOFF

2、hadoopdatanode节点超时时间设置?

datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。

HDFS默认的超时时长为10分钟+30秒。

如果定义超时时间为timeout,则超时时长的计算公式为:

timeout=2*heartbeat.recheck.interval+10*dfs.heartbeat.interval。

而默认的heartbeat.recheck.interval大小为5分钟,dfs.heartbeat.interval默认为3秒

主要操作过程:

打开Hadoop:

cd/usr/local/hadoop

./sbin/start-dfs.sh

查看在终端中我们操作HDFS的命令:

hdfsdfs

创建目录:

hdfsdfs-mkdir/input

查看HDFS上的目录:

hdfsdfs-ls/

hdfsdfs-ls/user

hdfsdfs-ls-R/

删除目录:

hdfsdfs-rm-r/input

上传文件:

hdfsdfs-mkdir/input

hdfsdfs-put/apps/hadoop/etc/hadoop/*.xml/input

hdfsdfs-ls/input

下载文件:

mkdir/root/input

hdfsdfs-get/input/*.xml/root/input

ls/root/input

复制文件:

hdfsdfs-mkdir/in

hdfsdfs-cp/input/*.xml/in

hdfsdfs-ls/in

修改文件名:

hdfsdfs-mv/in/in_put

hdfsdfs-ls/

修改文件权限,所属主,

hdfsdfs-mkdir/mydata

hdfsdfs-ls/

hdfsdfs-chmod777/mydata

hdfsdfs-chownhadoop:

hadoop/mydata

 

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 医药卫生 > 预防医学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2