共计 12459 个字符,预计需要花费 32 分钟才能阅读完成。
1 Hadoop fs
——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root
——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help
2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name
3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。
4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir
5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format
6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。
7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。
8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。
9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。
2 DFS Shell
——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”
11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay
12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt
3 DFSAdmin
——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter
14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report
15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename
16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。
*-finalizeUpgrade:删除上一次升级时制作的集群备份。
17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode
18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade
19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status
20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade
21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback
22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。
*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。
*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。
23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。
24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl 源 Url
desturl 目标 Url
相关阅读:
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13
4 Hadoop fsck
——————————————————————————–
25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite][-files [-blocks [-locations | -racks]]]
命令选项 描述
<path> 检查的起始目录。
-move 移动受损文件到 /lost+found
-delete 删除受损文件。
-openforwrite 打印出写打开的文件。
-files 打印出正被检查的文件。
-blocks 打印出块信息报告。
-locations 打印出每个块的位置信息。
-racks 打印出 data-node 的网络拓扑结构。
5 用于 Map Reduce 作业交互命令(jar)
——————————————————————————–
26、用于和 MapReduce 作业交互和命令 (jar)
用法:hadoopjob [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>]| [-counter <job-id> <group-name> <counter-name>] |[-kill <job-id>] | [-events <job-id> <from-event-#><#-of-events>] | [-history [all] <jobOutputDir>] | [-list[all]] | [-kill-task <task-id>] | [-fail-task<task-id>]
命令选项 描述
-submit <job-file> 提交作业
-status <job-id> 打印 map 和 reduce 完成百分比和所有计数器。
-counter<job-id> <group-name> <counter-name> 打印计数器的值。
-kill<job-id> 杀死指定作业。
-events<job-id> <from-event-#><#-of-events> 打印给定范围内 jobtracker 接收到的事件细节。
-history[all] <jobOutputDir> -history 打印作业的细节、失败及被杀死原因的细节。更多的
<jobOutputDir> 关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定 [all] 选项查看
-list [all] -list all 显示所有作业。-list 只显示将要完成的作业。
-kill-task<task-id> 杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task<task-id> 使任务失败。被失败的任务会对失败尝试不利。
6 运行 pipes 作业
——————————————————————————–
27、运行 pipes 作业
用法:
hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>,…] [-input <path>] [-output <path>] [-jar <jarfile>] [-inputformat <class>] [-map <class>][-partitioner <class>] [-reduce <class>] [-writer<class>] [-program <executable>] [-reduces<num>]
命令选项 描述
-conf<path> 作业的配置
-jobconf<key=value>, <key=value>, … 增加 / 覆盖作业的配置项
-input<path> 输入目录
-output<path> 输出目录
-jar<jar file> Jar 文件名
-inputformat<class> InputFormat 类
-map<class> Java Map 类
-partitioner<class> Java Partitioner
-reduce <class> Java Reduce 类
-writer<class> Java RecordWriter
-program <executable> 可执行程序的 URI
-reduces<num> reduce 个数
7 其他命令
——————————————————————————–
28、打印版本信息。
用法:hadoop version
29、hadoop 脚本可用于调用任何类。
用法:hadoop CLASSNAME
运行名字为 CLASSNAME 的类。
30、运行集群平衡工具。管理员可以简单的按 Ctrl- C 来停止平衡过程 (balancer)
用法:hadoop balancer [-threshold <threshold>]
命令选项 描述
-threshold<threshold> 磁盘容量的百分比。这会覆盖缺省的阀值。
31、获取或设置每个守护进程的日志级别 (daemonlog)。
用法:hadoop daemonlog -getlevel <host:port> <name>
用法:hadoop daemonlog -setlevel <host:port> <name><level>
命令选项 描述
-getlevel<host:port><name> 打印运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
-setlevel<host:port> <name><level> 设置运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
32、运行一个 HDFS 的 datanode。
用法:hadoop datanode [-rollback]
命令选项 描述
-rollback 将 datanode 回滚到前一个版本。这需要在停止 datanode,分发老的 hadoop 版本之后使用。
33、运行一个 HDFS 的 dfsadmin 客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get |wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status |details | force] [-metasave filename] [-setQuota <quota><dirname>…<dirname>] [-clrQuota <dirname>…<dirname>][-help[cmd]]
命令选项 描述
-report 报告文件系统的基本信息和统计信息。
-safemodeenter | leave | get |wait 安全模式维护命令。安全模式是 Namenode 的一个状态,这种状态下,Namenode:1. 不接受对名字空间的更改(只读);2. 不复制或删除块。Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes 重新读取 hosts 和 exclude 文件,更新允许连到 Namenode 的或那些需要退出或入编的 Datanode 的集合。
-finalizeUpgrade 终结 HDFS 的升级操作。Datanode 删除前一个版本的工作目录,之后 Namenode 也这样做。这个操作完结整个升级过程。
-upgradeProgressstatus | details | force 请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasavefilename 保存 Namenode 的主要数据结构到 hadoop.log.dir 属性指定的目录下的 <filename> 文件。对于下面的每一项,<filename> 中都会一行内容与之对应:
1.Namenode 收到的 Datanode 的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota<quota> <dirname>…<dirname> 为每个目录 <dirname> 设定配额 <quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1.N 不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。
-clrQuota<dirname>…<dirname> 为每一个目录 <dirname> 清除配额设定。命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help[cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。
34、运行 MapReducejob Tracker 节点 (jobtracker)。
用法:hadoop jobtracker
35、运行 namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] |[-importCheckpoint]
命令选项 描述
-format 格式化 namenode。它启动 namenode,格式化 namenode,之后关闭 namenode。
-upgrade 分发新版本的 hadoop 后,namenode 应以 upgrade 选项启动。
-rollback 将 namenode 回滚到前一版本。这个选项要在停止集群,分发老的 hadoop 版本后使用。
-finalizefinalize 会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再不可用,升级终结操作之后,它会停掉 namenode。
-importCheckpoint 从检查点目录装载镜像并保存到当前检查点目录,检查点目录由 fs.checkpoint.dir 指定。
36、运行 HDFS 的 secondarynamenode。
用法:hadoop secondarynamenode [-checkpoint [force]] |[-geteditsize]
命令选项 描述
-checkpoint [force] 如果 EditLog 的大小 >= fs.checkpoint.size,启动 Secondarynamenode 的检查点过程。如果使用了 -force,将不考虑 EditLog 的大小。
-geteditsize 打印 EditLog 大小。
37、运行 MapReduce 的 taskTracker 节点。
用法:hadoop tasktracker
8 总结
——————————————————————————–
此文只做参考,具体的命令行可自行 man。
1 Hadoop fs
——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root
——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help
2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name
3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。
4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir
5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format
6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。
7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。
8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。
9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。
2 DFS Shell
——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”
11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay
12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt
3 DFSAdmin
——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter
14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report
15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename
16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。
*-finalizeUpgrade:删除上一次升级时制作的集群备份。
17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode
18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade
19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status
20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade
21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback
22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。
*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。
*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。
23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。
24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl 源 Url
desturl 目标 Url
相关阅读:
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13