1、列出正在运行的job
nange@ubuntu:~$ hadoop job -list 0 jobs currently running JobId State StartTime UserName Priority SchedulingInfo
2、kill掉job(1234指jobid)
nange@ubuntu:~$ hadoop job -kill 1234
3、查看hdfs块状态
nange@ubuntu:~$ hadoop fsck / FSCK started by nange from /127.0.0.1 for path / at Mon Apr 21 22:26:29 CST 2014 ................................ /hdfs/test/avg/out/part-r-00000: Under replicated blk_958972218415296316_1141. Target Replicas is 3 but found 1 replica(s). . /hdfs/test/hdfsoper/2.f: Under replicated blk_1024136243155007162_1126. Target Replicas is 3 but found 1 replica(s).
4、查看hdfs状态,并删除损坏块
nange@ubuntu:~$ hadoop fsck / -delete
5、检查dfs状态,以及datanode信息
nange@ubuntu:~$ hadoop dfsadmin -report Configured Capacity: 155277496320 (144.61 GB) Present Capacity: 138432897024 (128.93 GB) DFS Remaining: 138429386752 (128.92 GB) DFS Used: 3510272 (3.35 MB) DFS Used%: 0% Under replicated blocks: 14 Blocks with corrupt replicas: 0 Missing blocks: 0 ------------------------------------------------- Datanodes available: 1 (1 total, 0 dead) Name: 127.0.0.1:50010 Decommission Status : Normal Configured Capacity: 155277496320 (144.61 GB) DFS Used: 3510272 (3.35 MB) Non DFS Used: 16844599296 (15.69 GB) DFS Remaining: 138429386752(128.92 GB) DFS Used%: 0% DFS Remaining%: 89.15% Last contact: Mon Apr 21 22:33:15 CST 2014
6、进入离开安全模式
nange@ubuntu:~$ hadoop dfsadmin -safemode enter Safe mode is ON nange@ubuntu:~$ hadoop dfsadmin -safemode leave Safe mode is OFF
7、hadoop 并行拷贝(将a节点数据拷贝到b节点)
hadoop distcp hdfs://a:9000/a hdfs://b:9000/b
8、平衡集群文件
nange@ubuntu:~$ start-balancer.sh starting balancer, logging to /home/nange/programs/hadoopWS/hadoop-1.2.1/libexec/../logs/hadoop-nange-balancer-ubuntu.out
相关推荐
Hadoop常用命令 Hadoop常用命令 Hadoop常用命令
> hadoop jar test-1.0-SNAPSHOT-jar-with-dependencies.jar /user/test/input /user/test/out 2.运行Jar包指定类中的主函数 > java -cp test-1.0-SNAPSHOT-jar-with-dependencies.jar com.test.main.MainTest
hadoop的常用命令详解,并配有例子说明详细信息
hadoop常用的开发命令,windows编程,自己留着用,也分享给自己
Hadoop
hadoop HBaseshell常用shell命令,这是工作中整理的一份文档,使用价值很高
该文档记录了在linux的shell环境下执行的hadoop的相关操作命令,包括多hafs文件的相关操作
【⼤数据】 【⼤数据】Hadoop常⽤启动命令 常⽤启动命令 Hadoop常⽤启停命令 常⽤启停命令 最近在装⼤数据环境,不知由于年纪⼤的问题还是笨的缘故,⽼师记不住⼀些常⽤命令,在这⾥就单独记⼀下Hadoop常⽤的启停命 ...
Hadoop命令手册,总结了hadoop常用的hadoop指令,是初学者入门很好的工具书。
大数据课程自备资料:Hadoop安装指南 + Linux常用操作命令
Hadoop HDFS分布式文件系统 常用命令汇总
专业的大数据命令使用文档,详细的介绍了hadoop的使用命令方法
hadoop常用命令,在hadoop日常使用中轻松掌握
EasyHadoop集群部署文档\Hadoop常用命令\hadoop大数据架构生态技术简介\Hadoop权威指南\Hadoop实战
hadoop2安装和常用shell命令,
大数据Hadoop常用组建安装配置手册、包含了Hadoop、Hive、HBase、Sqoop、Spark、Storm、Kafka等常用分布系统、查询、计算、分析组件的安装、配置详细步骤,共73页,大数据入门安装利器。
Hadoop平台的搭建和常用指令3.x
hadoop fs -ls [path] #递归显示当前目录结构 hadoop fs -ls -R [path] #显示根目录下内容 hadoop fs -ls / 创建目录 #创建 lgc 文件夹 hadoop fs -mkdir /lgc #递归创建目录 hadoop fs -mkdir -p [path] 删除操作 ...