当前位置: 首页 > news >正文

hadoop 测试第一个mapreduce程序

说明:测试hadoop自带的实例 wordcount程序(此程序统计每个单词在文件中出现的次数)

2.6.0版本jar程序的路径是

/usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar



一、在本地创建目录和文件

创建目录:

mkdir /home/hadoop/input

cd /home/hadoop/input

创建文件:

touch wordcount1.txt

touch wordcount2.txt

二、添加内容

echo "Hello World" > wordcount1.txt

echo "Hello Hadoop" > wordcount2.txt


三、在hdfs上创建input目录

hadoop fs -mkdir /input


四、拷贝文件到/input目录

hadoop fs -put /home/hadoop/input/* /input


五、执行程序

hadoop jar /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /input /output


说明:wordcount为程序的主类名, /input  输入目录  /output 输出目录(输出目录不能存在)


六、执行过程信息

15/04/14 15:55:03 INFO client.RMProxy: Connecting to ResourceManager at hdnn140/192.168.152.140:8032

15/04/14 15:55:04 INFO input.FileInputFormat: Total input paths to process : 2

15/04/14 15:55:04 INFO mapreduce.JobSubmitter: number of splits:2

15/04/14 15:55:05 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1428996061278_0002

15/04/14 15:55:05 INFO impl.YarnClientImpl: Submitted application application_1428996061278_0002

15/04/14 15:55:05 INFO mapreduce.Job: The url to track the job: http://hdnn140:8088/proxy/application_1428996061278_0002/

15/04/14 15:55:05 INFO mapreduce.Job: Running job: job_1428996061278_0002

15/04/14 15:55:17 INFO mapreduce.Job: Job job_1428996061278_0002 running in uber mode : false

15/04/14 15:55:17 INFO mapreduce.Job:  map 0% reduce 0%

15/04/14 15:56:00 INFO mapreduce.Job:  map 100% reduce 0%

15/04/14 15:56:10 INFO mapreduce.Job:  map 100% reduce 100%

15/04/14 15:56:11 INFO mapreduce.Job: Job job_1428996061278_0002 completed successfully

15/04/14 15:56:11 INFO mapreduce.Job: Counters: 49

        File System Counters

                FILE: Number of bytes read=55

                FILE: Number of bytes written=316738

                FILE: Number of read operations=0

                FILE: Number of large read operations=0

                FILE: Number of write operations=0

                HDFS: Number of bytes read=235

                HDFS: Number of bytes written=25

                HDFS: Number of read operations=9

                HDFS: Number of large read operations=0

                HDFS: Number of write operations=2

        Job Counters 

                Launched map tasks=2

                Launched reduce tasks=1

                Data-local map tasks=2

                Total time spent by all maps in occupied slots (ms)=83088

                Total time spent by all reduces in occupied slots (ms)=7098

                Total time spent by all map tasks (ms)=83088

                Total time spent by all reduce tasks (ms)=7098

                Total vcore-seconds taken by all map tasks=83088

                Total vcore-seconds taken by all reduce tasks=7098

                Total megabyte-seconds taken by all map tasks=85082112

                Total megabyte-seconds taken by all reduce tasks=7268352

        Map-Reduce Framework

                Map input records=2

                Map output records=4

                Map output bytes=41

                Map output materialized bytes=61

                Input split bytes=210

                Combine input records=4

                Combine output records=4

                Reduce input groups=3

                Reduce shuffle bytes=61

                Reduce input records=4

                Reduce output records=3

                Spilled Records=8

                Shuffled Maps =2

                Failed Shuffles=0

                Merged Map outputs=2

                GC time elapsed (ms)=1649

                CPU time spent (ms)=4260

                Physical memory (bytes) snapshot=280866816

                Virtual memory (bytes) snapshot=2578739200

                Total committed heap usage (bytes)=244625408

        Shuffle Errors

                BAD_ID=0

                CONNECTION=0

                IO_ERROR=0

                WRONG_LENGTH=0

                WRONG_MAP=0

                WRONG_REDUCE=0

        File Input Format Counters 

                Bytes Read=25

        File Output Format Counters 

                Bytes Written=25


七、完成后查看输出目录

hadoop fs -ls /output


八、查看输出结果

hadoop fs -cat /output/part-r-00000


九、完成











本文转自 yntmdr 51CTO博客,原文链接:http://blog.51cto.com/yntmdr/1632323,如需转载请自行联系原作者

相关文章:

  • 【原】iOSCoreAnimation动画系列教程(二):CAKeyFrameAnimation【包会】
  • mockcpp的ApiHook实现原理
  • MySQL数据库字符集由utf8修改为utf8mb4一例
  • IDEA 9.0.2整合Tomcat开发
  • Tomcat多域名访问
  • bootstrap模态框垂直居中
  • 如何让你的python爬虫“拟人化”, 突破60秒不被ban,绝地求生!
  • python(58):python下划线
  • HIVE,PV,UV分析
  • unity如何实现一个固定宽度的orthagraphic相机
  • 世界上最简单的无等待算法(getAndIncrement)
  • 项目Alpha冲刺Day1
  • RHEL6基础三十二之系统默认语言修改
  • [转]建行B2B支付回调参数乱码现象解析
  • 制作简易无限魔方
  • 《用数据讲故事》作者Cole N. Knaflic:消除一切无效的图表
  • 【407天】跃迁之路——程序员高效学习方法论探索系列(实验阶段164-2018.03.19)...
  • CentOS6 编译安装 redis-3.2.3
  • ESLint简单操作
  • Gradle 5.0 正式版发布
  • java B2B2C 源码多租户电子商城系统-Kafka基本使用介绍
  • JavaSE小实践1:Java爬取斗图网站的所有表情包
  • Mac 鼠须管 Rime 输入法 安装五笔输入法 教程
  • MySQL Access denied for user 'root'@'localhost' 解决方法
  • React-redux的原理以及使用
  • Work@Alibaba 阿里巴巴的企业应用构建之路
  • 成为一名优秀的Developer的书单
  • 多线程事务回滚
  • 翻译 | 老司机带你秒懂内存管理 - 第一部(共三部)
  • 和 || 运算
  • 解析 Webpack中import、require、按需加载的执行过程
  • 名企6年Java程序员的工作总结,写给在迷茫中的你!
  • 前端路由实现-history
  • 前端学习笔记之原型——一张图说明`prototype`和`__proto__`的区别
  • 世界上最简单的无等待算法(getAndIncrement)
  • 双管齐下,VMware的容器新战略
  • 腾讯大梁:DevOps最后一棒,有效构建海量运营的持续反馈能力
  • 一个6年java程序员的工作感悟,写给还在迷茫的你
  • 400多位云计算专家和开发者,加入了同一个组织 ...
  • kubernetes资源对象--ingress
  • ​TypeScript都不会用,也敢说会前端?
  • ​决定德拉瓦州地区版图的关键历史事件
  • # 数论-逆元
  • #设计模式#4.6 Flyweight(享元) 对象结构型模式
  • (16)UiBot:智能化软件机器人(以头歌抓取课程数据为例)
  • (Matlab)基于蝙蝠算法实现电力系统经济调度
  • (阿里巴巴 dubbo,有数据库,可执行 )dubbo zookeeper spring demo
  • (板子)A* astar算法,AcWing第k短路+八数码 带注释
  • (已解决)vue+element-ui实现个人中心,仿照原神
  • .babyk勒索病毒解析:恶意更新如何威胁您的数据安全
  • .bat批处理(十):从路径字符串中截取盘符、文件名、后缀名等信息
  • .Family_物联网
  • .net操作Excel出错解决
  • .net网站发布-允许更新此预编译站点
  • [04] Android逐帧动画(一)