Hadoop05【命令操作】
在 datanode 的 hdfsdata 目录下查看:

| 文件 | 说明 |
| --- | :-- |
| BP-1867776167-
192.168.88.61-1554050717516 | BP-random integer-NameNode-IP address-creation time |
| finalized/rbw | 这两个目录都是用于实际存储 HDFS BLOCK 的数据,里面包含许多 block_xx 文件以及相应的.meta 文件,.meta 文件包含了 checksum 信息。rbw 是“replica being written”的意思,该目录用于存储用户当前正在写入的数据 |
| dncp_block_verification.log.curr | 该文件用于追踪每个 block 最后修改后的 checksum 值,该文件会定期滚动,滚动后会移到.prev 文件 |
| in_use.lock | 防止一台机器同时启动多个 Datanode 进程导致目录数据不一致 |
[](()2.浏览器快速查看


[](()常用命令
==================================================================
[](()1.查看根目录下的所有文件
hadoop fs -ls /
[](()2.上传文件
将 a.txt 文件上传到 hdfs 中

上传命令
hadoop fs -put a.txt /

浏览器中查看上传的文件


hadoop-node03 节点存储结构中查看文件


[](()3.查看上传文件内容
hadoop fs -cat /a.txt

[](()4.下载文件
hadoop fs -get /a.txt

[](()5.删除文件
hadoop fs -rm /a.txt


[](()6.创建目录
[root@hadoop-node04 subdir0]# hadoop fs -mkdir /aaa
[root@hadoop-node04 subdir0]# hadoop fs -mkdir -p /a1/b1/c1

[](()大文件操作
===================================================================
[](()上传一个超过 128M 的文件



评论