写点什么

最全 Hadoop HDFS 解析(一)

发布于: 17 小时前

1. HDFS 概述

Hadoop 分布式系统框架中,首要的基础功能就是文件系统,在 Hadoop 中使用 FileSystem 这个抽象类来表示我们的文件系统,这个抽象类下面有很多子实现类,究竟使用哪一种,需要看我们具体的实现类,在我们实际工作中,用到的最多的就是 HDFS(分布式文件系统)以及 LocalFileSystem(本地文件系统)了。


在现代的企业环境中,单机容量往往无法存储大量数据,需要跨机器存储。统一管理分布在集群上的文件系统称为分布式文件系统


HDFS(Hadoop Distributed File System)是 Hadoop 项目的一个子项目。是 Hadoop 的核心组件之一, Hadoop 非常适于存储大型数据 (比如 TB 和 PB),其就是使用 HDFS 作为存储系统. HDFS 使用多台计算机存储文件,并且提供统一的访问接口,像是访问一个普通文件系统一样使用分布式文件系统。


2. HDFS 架构


HDFS 是一个主/从(Mater/Slave)体系结构,由三部分组成: NameNodeDataNode 以及 SecondaryNamenode


  • NameNode 负责管理整个文件系统的元数据,以及每一个路径(文件)所对应的数据块信息。

  • DataNode 负责管理用户的文件数据块,每一个数据块都可以在多个 DataNode 上存储多个副本,默认为 3 个。

  • Secondary NameNode 用来监控 HDFS 状态的辅助后台程序,每隔一段时间获取 HDFS 元数据的快照。最主要作用是辅助 NameNode 管理元数据信息


3. HDFS 的特性

首先,它是一个文件系统,用于存储文件,通过统一的命名空间目录树来定位文件;


其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。


1. master/slave 架构(主从架构)


HDFS 采用 master/slave 架构。一般一个 HDFS 集群是有一个 Namenode 和一定数目的 Datanode 组成。Namenode 是 HDFS 集群主节点,Datanode 是 HDFS 集群从节点,两种角色各司其职,共同协调完成分布式的文件存储服务。


2. 分块存储


HDFS 中的文件在物理上是分块存储(block)的,块的大小可以通过配置参数来规定,默认大小在 hadoop2.x 版本中是 128M。


3. 名字空间(NameSpace)


HDFS 支持传统的层次型文件组织结构。用户或者应用程序可以创建目录,然后将文件保存在这些目录里。文件系统名字空间的层次结构和大多数现有的文件系统类似:用户可以创建、删除、移动或重命名文件。

Namenode 负责维护文件系统的名字空间,任何对文件系统名字空间或属性的修改都将被 Namenode 记录下来。

HDFS 会给客户端提供一个统一的抽象目录树,客户端通过路径来访问文件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data。


4. NameNode 元数据管理


我们把目录结构及文件分块位置信息叫做元数据。NameNode 负责维护整个 HDFS 文件系统的目录树结构,以及每一个文件所对应的 block 块信息(block 的 id,及所在的 DataNode 服务器)。


5. DataNode 数据存储


文件的各个 block 的具体存储管理由 DataNode 节点承担。每一个 block 都可以在多个 DataNode 上。DataNode 需要定时向 NameNode 汇报自己持有的 block 信息。 存储多个副本(副本数量也可以通过参数设置 dfs.replication,默认是 3)


6. 副本机制


为了容错,文件的所有 block 都会有副本。每个文件的 block 大小和副本系数都是可配置的。应用程序可以指定某个文件的副本数目。副本系数可以在文件创建的时候指定,也可以在之后改变。


7. 一次写入,多次读出


HDFS 是设计成适应一次写入,多次读出的场景,且不支持文件的修改。正因为如此,HDFS 适合用来做大数据分析的底层存储服务,并不适合用来做网盘等应用,因为修改不方便,延迟大,网络开销大,成本太高。

4. HDFS 的命令行使用

如果没有配置 hadoop 的环境变量,则在 hadoop 的安装目录下的 bin 目录中执行以下命令,如已配置 hadoop 环境变量,则可在任意目录下执行


help


格式:  hdfs dfs -help 操作命令作用: 查看某一个操作命令的参数信息
复制代码


ls


格式:hdfs dfs -ls  URI作用:类似于Linux的ls命令,显示文件列表
复制代码


lsr


格式  :   hdfs  dfs -lsr URI作用  : 在整个目录下递归执行ls, 与UNIX中的ls-R类似
复制代码


mkdir


格式 : hdfs  dfs  -mkdir [-p] <paths>作用 :   以<paths>中的URI作为参数,创建目录。使用-p参数可以递归创建目录
复制代码


put


格式   : hdfs dfs -put <localsrc >  ... <dst>作用 :  将单个的源文件src或者多个源文件srcs从本地文件系统拷贝到目标文件系统中(<dst>对应的路径)。也可以从标准输入中读取输入,写入目标文件系统中
复制代码


hdfs dfs -put  /rooot/bigdata.txt  /dir1
复制代码


moveFromLocal


格式: hdfs  dfs -moveFromLocal  <localsrc>   <dst>作用:  和put命令类似,但是源文件localsrc拷贝之后自身被删除
复制代码


hdfs  dfs -moveFromLocal  /root/bigdata.txt  /
复制代码


copyFromLocal


格式:  hdfs dfs -copyFromLocal <localsrc> ... <dst>作用: 从本地文件系统中拷贝文件到hdfs路径去
复制代码


appendToFile


格式: hdfs dfs -appendToFile <localsrc> ... <dst>作用: 追加一个或者多个文件到hdfs指定文件中.也可以从命令行读取输入.
复制代码


 hdfs dfs -appendToFile  a.xml b.xml  /big.xml
复制代码


moveToLocal


在 hadoop 2.6.4 版本测试还未未实现此方法格式:hadoop  dfs  -moveToLocal [-crc] <src> <dst>作用:将本地文件剪切到 HDFS
复制代码


get


格式   hdfs dfs  -get [-ignorecrc ]  [-crc]  <src> <localdst>
作用:将文件拷贝到本地文件系统。 CRC 校验失败的文件通过-ignorecrc选项拷贝。 文件和CRC校验可以通过-CRC选项拷贝
复制代码


hdfs dfs  -get   /bigdata.txt  /export/servers
复制代码


getmerge


格式: hdfs dfs -getmerge <src> <localdst>作用: 合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
复制代码


copyToLocal


格式:  hdfs dfs -copyToLocal <src> ... <localdst>作用:  从hdfs拷贝到本地
复制代码


mv


格式  : hdfs  dfs -mv URI   <dest>作用: 将hdfs上的文件从原路径移动到目标路径(移动之后文件删除),该命令不能跨文件系统
复制代码


hdfs  dfs  -mv  /dir1/bigdata.txt   /dir2
复制代码


rm


格式: hdfs dfs -rm [-r] 【-skipTrash】 URI 【URI 。。。】作用: 删除参数指定的文件,参数可以有多个。  此命令只删除文件和非空目录。如果指定-skipTrash选项,那么在回收站可用的情况下,该选项将跳过回收站而直接删除文件;否则,在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中。
复制代码


hdfs  dfs  -rm  -r  /dir1
复制代码


cp


格式: hdfs  dfs  -cp URI [URI ...] <dest>作用: 将文件拷贝到目标路径中。如果<dest>  为目录的话,可以将多个文件拷贝到该目录下。-f选项将覆盖目标,如果它已经存在。-p选项将保留文件属性(时间戳、所有权、许可、ACL、XAttr)。
复制代码


hdfs dfs -cp /dir1/a.txt  /dir2/bigdata.txt
复制代码


cat


hdfs dfs  -cat  URI [uri  ...]作用:将参数所指示的文件内容输出到stdout
复制代码


hdfs dfs  -cat /bigdata.txt
复制代码


tail


格式: hdfs dfs -tail path作用: 显示一个文件的末尾
复制代码


text


格式:hdfs dfs -text path作用: 以字符形式打印一个文件的内容
复制代码


chmod


格式:hdfs  dfs  -chmod  [-R]  URI[URI  ...]作用:改变文件权限。如果使用  -R 选项,则对整个目录有效递归执行。使用这一命令的用户必须是文件的所属用户,或者超级用户。
复制代码


hdfs dfs -chmod -R 777 /bigdata.txt
复制代码


chown


格式:  hdfs  dfs  -chmod  [-R]  URI[URI ...]作用:  改变文件的所属用户和用户组。如果使用  -R 选项,则对整个目录有效递归执行。使用这一命令的用户必须是文件的所属用户,或者超级用户。
复制代码


hdfs  dfs  -chown  -R hadoop:hadoop  /bigdata.txt
复制代码


df


格式: hdfs dfs  -df  -h  path作用: 统计文件系统的可用空间信息
复制代码


du


格式: hdfs dfs -du -s -h path作用: 统计文件夹的大小信息
复制代码


count


格式: hdfs dfs -count path作用: 统计一个指定目录下的文件节点数量
复制代码


setrep


格式:  hdfs dfs -setrep num filePath作用: 设置hdfs中文件的副本数量注意: 即使设置的超过了datanode的数量,副本的数量也最多只能和datanode的数量是一致的
复制代码


expunge (慎用)


格式:  hdfs dfs  -expunge作用: 清空hdfs垃圾桶 
复制代码

5. hdfs 的高级使用命令

5.1 HDFS 文件限额配置

在多人共用 HDFS 的环境下,配置设置非常重要。特别是在 Hadoop 处理大量资料的环境,如果没有配额管理,很容易把所有的空间用完造成别人无法存取。HDFS 的配额设定是针对目录而不是针对账号,可以让每个账号仅操作某一个目录,然后对目录设置配置


HDFS 文件的限额配置允许我们以文件个数,或者文件大小来限制我们在某个目录下上传的文件数量或者文件内容总量,以便达到我们类似百度网盘网盘等限制每个用户允许上传的最大的文件的量。


 hdfs dfs -count -q -h /user/root/dir1  #查看配额信息
复制代码


结果:


5.1.1 数量限额

hdfs dfs  -mkdir -p /user/root/dir    #创建hdfs文件夹hdfs dfsadmin -setQuota 2  dir      # 给该文件夹下面设置最多上传两个文件,发现只能上传一个文件
复制代码




hdfs dfsadmin -clrQuota /user/root/dir  # 清除文件数量限制
复制代码

5.1.2 空间大小限额

在设置空间配额时,设置的空间至少是 block_size * 3 大小


hdfs dfsadmin -setSpaceQuota 4k /user/root/dir   # 限制空间大小4KBhdfs dfs -put  /root/a.txt  /user/root/dir 
复制代码


生成任意大小文件的命令:


dd if=/dev/zero of=1.txt  bs=1M count=2     #生成2M的文件
复制代码


清除空间配额限制


hdfs dfsadmin -clrSpaceQuota /user/root/dir
复制代码


用户头像

还未添加个人签名 2021.03.07 加入

还未添加个人简介

评论

发布
暂无评论
最全Hadoop HDFS解析(一)