继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

HDFS shell 快查

慕标5832272
关注TA
已关注
手记 1232
粉丝 229
获赞 1001

HDFS设计的主要目的是对海量数据进行处理,也就是说在其上能够储存很大量文件,HDFS提供多种的访问的策略,首先我们来认识其通过shell接口的访问方式。

hdfs shell与linux命令基本相同。

创建文件夹
hdfs dfs -mkdir /data
上传文件
hdfs dfs -put me.txt /data//保留原文件hdfs dfs -copyFromLocal weibo.txt /middle/weibo//不保留原文件hdfs dfs -moveFromLocal weibo.txt /middle/weibo
查看文件内容
hadoop dfs -text /middle/weibo/weibo.txt
文件复制到本地
hdfs dfs  -get /middle/weibo/weibo.txt
hadoop fs -copyToLocal /middle/weibo/weibo.txt
删除文件或文件夹
hadoop fs -rmr /middle/weibo
集群间传数据
hadoop distcp hdfs://qq58053439:9000/weather   hdfs://qq:9000/middle

HDFS fsck

  • move: 移动损坏的文件到/lost+found目录下

  • delete: 删除损坏的文件

  • openforwrite: 输出检测中的正在被写的文件

  • list-corruptfileblocks: 输出损坏的块及其所属的文件

  • files: 输出正在被检测的文件

  • blocks: 输出block的详细报告 (需要和-files参数一起使用)

  • locations: 输出block的位置信息 (需要和-files参数一起使用)

  • racks: 输出文件块位置所在的机架信息(需要和-files参数一起使用

查看HDFS中某个文件的块block分布

hadoop fsck /your_file_path -files -blocks -locations -racks

检测存在那些坏块

 hdfs fsck /

删除坏块

hdfs fsck / -delete

HDFS balancer

机器其实非常容易出现机器与磁盘利用率不平衡的情况,比如在集群中添加新的数据节点。机器与磁盘利用率不平等会导致很多问题,比如程序无法更好的利用本地计算机的优势。

HDFS balancer可以使计算机达到平衡状态,如果磁盘利用率偏差小于10%,我们认为达到了平衡状态。可以使用下面命令

$HADOOP_HOME/bin/start-balancer.sh –t 10

另外需要注意的地方是,由于HDFS需要启动单独的Rebalance Server来执行Rebalance操作,所以尽量不要在NameNode上执行start-balancer.sh,而是找一台比较空闲的机器。
1) hadoop balance工具的用法:
To start:
bin/start-balancer.sh [-threshold <threshold>]
Example: bin/ start-balancer.sh
start the balancer with a default threshold of 10%
bin/ start-balancer.sh -threshold 5
start the balancer with a threshold of 5%

To stop:
bin/ stop-balancer.sh
影响hadoop balance工具的几个参数:

-threshold 默认设置:10,参数取值范围:0-100,参数含义:判断集群是否平衡的目标参数,每一个 datanode 存储使用率和集群总存储使用率的差值都应该小于这个阀值 ,理论上,该参数设置的越小,整个集群就越平衡,但是在线上环境中,hadoop集群在进行balance时,还在并发的进行数据的写入和删除,所以有可能无法到达设定的平衡参数值。
dfs.balance.bandwidthPerSec  默认设置:1048576(1 M/S),参数含义:设置balance工具在运行中所能占用的带宽,设置的过大可能会造成mapred运行缓慢

加入和移除Datanode

增加

  • 在一个节点中安装已存在的datanode安装包

  • 如果需要连接yarn需要在yarn-site.xml文件中添加参数yarn.resourcemanager.nodes.include-path指定的文件中添加需要添加的NodeManager

  • sbin/hadoop-deamon.sh start datanode

  • yarn-daemon.sh  start  nodemanager

  • hadoop dfsadmin

  • report的输出来确定新节点是否已连接

删除

  • 将datanode加入黑名单中,配置在dfs.hosts.exclude中

  • bin/hadoop dfsadmin -refreshNodes

添加或者删除DataNode后,可能会需要调节已上传文件的副本数:

  • hadoop fs -setrep -R replicationNumber /



作者:张晓天a
链接:https://www.jianshu.com/p/612d9e121613


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP