ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
[TOC] # 命令行 HDFS命令行客户端使用 HDFS提供shell命令行客户端,使用方法如下: 可以使用一下两种形式: ~~~ hadoop fs -… <args> hdfs dfs -… <args> ~~~ ## hadoop fs、hadoop dfs与hdfs dfs命令的区别 Hadoop fs:使用面最广,可以操作任何文件系统 hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后者 ## 命令行参数 ~~~ [-appendToFile <localsrc> ... <dst>] [-cat [-ignoreCrc] <src> ...] [-checksum <src> ...] [-chgrp [-R] GROUP PATH...] [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-copyFromLocal [-f] [-p] <localsrc> ... <dst>] [-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-count [-q] <path> ...] [-cp [-f] [-p] <src> ... <dst>] [-createSnapshot <snapshotDir> [<snapshotName>]] [-deleteSnapshot <snapshotDir> <snapshotName>] [-df [-h] [<path> ...]] [-du [-s] [-h] <path> ...] [-expunge] [-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-getfacl [-R] <path>] [-getmerge [-nl] <src> <localdst>] [-help [cmd ...]] [-ls [-d] [-h] [-R] [<path> ...]] [-mkdir [-p] <path> ...] [-moveFromLocal <localsrc> ... <dst>] [-moveToLocal <src> <localdst>] [-mv <src> ... <dst>] [-put [-f] [-p] <localsrc> ... <dst>] [-renameSnapshot <snapshotDir> <oldName> <newName>] [-rm [-f] [-r|-R] [-skipTrash] <src> ...] [-rmdir [--ignore-fail-on-non-empty] <dir> ...] [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setrep [-R] [-w] <rep> <path> ...] [-stat [format] <path> ...] [-tail [-f] <file>] [-test -[defsz] <path>] [-text [-ignoreCrc] <src> ...] [-touchz <path> ...] [-usage [cmd ...]] ~~~ ## 常用命令行参数介绍 ### 查 ~~~ -help 功能:输出这个命令参数手册 ~~~ ~~~ -ls 功能:显示目录信息 示例: hadoop fs -ls hdfs://hadoop-server01:9000/ 备注:这些参数中,所有的hdfs路径都可以简写 -->hadoop fs -ls / 等同于上一条命令的效果 -lsr 递归查看 ~~~ ~~~ -cat 功能:显示文件内容 hadoop fs -cat /hello.txt ~~~ ~~~ -tail 功能:显示一个文件的末尾 hadoop fs -tail /weblog/access_log.1 ~~~ ~~~ -text 功能:以字符形式打印一个文件的内容 hadoop fs -text /weblog/access_log.1 ~~~ ~~~ -df 功能:统计文件系统的可用空间信息 hadoop fs -df -h / -du 功能:统计文件夹的大小信息 hadoop fs -du -s -h /aaa/* -count 功能:统计一个指定目录下的文件节点数量 hadoop fs -count /aaa/ ~~~ ~~~ hdfs dfsadmin -report 查看dfs集群工作状态的命令 ~~~ ### 增 ~~~ -mkdir 功能:在hdfs上创建目录 hadoop fs -mkdir -p /aaa/bbb/cc/dd ~~~ ~~~ -copyFromLocal 功能:从本地文件系统中拷贝文件到hdfs路径去 hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/ -copyToLocal 功能:从hdfs拷贝到本地 hadoop fs -copyToLocal /aaa/jdk.tar.gz -cp 功能:从hdfs的一个路径拷贝hdfs的另一个路径 hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 ~~~ ~~~ -get 功能:等同于copyToLocal,就是从hdfs下载文件到本地 hadoop fs -get /aaa/jdk.tar.gz ~~~ ~~~ -getmerge 功能:合并下载多个文件 比getmerge 如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,... hadoop fs -getmerge /aaa/log.* ./log.sum ~~~ ~~~ -put 功能:等同于copyFromLocal hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 ~~~ ### 改 ~~~ --appendToFile 功能:追加一个文件到已经存在的文件末尾 hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt ~~~ ~~~ -chgrp -chmod -chown 功能:linux文件系统中的用法一样,对文件所属权限 hadoop fs -chmod 666 /hello.txt hadoop fs -chown someuser:somegrp /hello.txt hadoop fs -ls / 这个查权限,权限所属者是linux上的用户,组是hadoop中的 ~~~ ~~~ -moveFromLocal 功能:从本地剪切粘贴到hdfs hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd -moveToLocal 功能:从hdfs剪切粘贴到本地 hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt ~~~ ~~~ -mv 功能:在hdfs目录中移动文件 hadoop fs -mv /aaa/jdk.tar.gz / ~~~ ~~~ -setrep 功能:设置hdfs中文件的副本数量 设置文件的副本数为3 hadoop fs -setrep 3 /aaa/jdk.tar.gz ~~~ ### 删 ~~~ -rm 功能:删除文件或文件夹 hadoop fs -rm -r /aaa/bbb/ -rmdir 功能:删除空目录 hadoop fs -rmdir /aaa/bbb/ccc ~~~ ## acl权限 首先在hdfs-site.xml中配置 ~~~ dfs.namenode.acls.enabled ~~~ 用hdfs的shell命令 ~~~ hdfs dfs -setfacl -m user:bufdata:rw- /data ~~~ 类似linux命令 ~~~ hadoop fs -chmod XX hadoop fs -chown someuser:someuser xx ~~~