1、Mapper类

  • 用户自定义一个Mapper类继承Hadoop的Mapper类
  • Mapper的输入数据是KV对的形式(类型可以自定义)
  • Map阶段的业务逻辑定义在map()方法中
  • Mapper的输出数据是KV对的形式(类型可以自定义)

注意:map()方法是对输入的一个KV对调用一次!!

2、Reducer类

  • 用户自定义Reducer类要继承Hadoop的Reducer类
  • Reducer的输入数据类型对应Mapper的输出数据类型(KV对)
  • Reducer的业务逻辑写在reduce()方法中
  • Reduce()方法是对相同K的一组KV对调用执行一次

3、Driver阶段

创建提交YARN集群运行的Job对象,其中封装了MapReduce程序运行所需要的相关参数入输入数据路径,输出数据路径等,也相当于是一个YARN集群的客户端,主要作用就是提交我们MapReduce程序运行。

4、WordCount代码实现

4.1、需求

  • 在给定的文本文件中统计输出每一个单词出现的总次数
  • 输入数据:wc.txt;
  • 输出:

    apache 2
    clickhouse 2
    hadoop 1
    mapreduce 1
    spark 2
    xiaoming 1

4.2、具体步骤

按照MapReduce编程规范,分别编写Mapper,Reducer,Driver。

(1)新建maven工程

  • 导入hadoop依赖

    <?xml version="1.0" encoding="UTF-8"?>
    <project xmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>com.lagou</groupId><artifactId>Wordcount</artifactId><version>1.0-SNAPSHOT</version><dependencies><dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-core</artifactId><version>2.8.2</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.9.2</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.9.2</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.9.2</version></dependency></dependencies><build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><version>3.5.1</version><configuration><source>1.8</source><target>1.8</target></configuration></plugin><!--maven打包插件 --><plugin><artifactId>maven-compiler-plugin</artifactId><version>2.3.2</version><configuration><source>1.8</source><target>1.8</target></configuration></plugin><plugin><artifactId>maven-assembly-plugin</artifactId><configuration><descriptorRefs><descriptorRef>jar-with-dependencies</descriptorRef></descriptorRefs></configuration><executions><execution><id>make-assembly</id><phase>package</phase><goals><goal>single</goal></goals></execution></executions></plugin></plugins></build></project>
  • 添加log4j.properties
    log4j.rootLogger=INFO, stdout
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
    log4j.appender.logfile=org.apache.log4j.FileAppender
    log4j.appender.logfile.File=target/spring.log
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

(2)整体思路梳理(仿照源码)

Map阶段:

  1. map()方法中把传入的数据转为String类型
  2. 根据空格切分出单词
  3. 输出<单词,1>

Reduce阶段:

  1. 汇总各个key(单词)的个数,遍历value数据进行累加
  2. 输出key的总数

Driver

  1. 获取配置文件对象,获取job对象实例
  2. 指定程序jar的本地路径
  3. 指定Mapper/Reducer类
  4. 指定Mapper输出的kv数据类型
  5. 指定最终输出的kv数据类型
  6. 指定job处理的原始数据路径
  7. 指定job输出结果路径
  8. 提交作业

(3)编写Mapper类

package com.lagou.mr.wc;import org.apache.hadoop.io.*;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;// 继承Mapper类
// Mapper类的泛型参数共四个,2对kv
/**  第一对kv:map输入参数类型*  第二队kv:map输出参数类型*  LongWritable, Text ->文本偏移量(后面不会用到),一行文本内容*  Text, IntWritable ->单词,1*/
public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> {// 重写Mapper类的map方法/*** 1、接收文本内容,转为String类型* 2、按照空格进行拆分* 3、输出<单词, 1>*/// 提升为全局方法,避免每次执行map方法,都执行此操作Text word = new Text();IntWritable one = new IntWritable(1);// LongWritable, Text ->文本偏移量,一行文本内容,map方法的输入参数,一行文本调用一次map方法@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {// 1、接收文本内容,转为String类型String str = value.toString();// 2、按照空格进行拆分String[] words = str.split(" ");// 3、输出<单词, 1>// 遍历数据for (String s : words) {word.set(s);context.write(word, one);}}
}

继承的Mapper类型选择新版本API:

(4)编写Reducer类

package com.lagou.mr.wc;import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.io.*;import java.io.IOException;// 继承的Reducer类有四个泛型参数 2对kv
// 第一对kv:类型要与Mapper输出类型一致:Text, IntWritable
public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> {// 1、重写reduce方法// Text key:map方法输出的key,本案中就是单词,// Iterable<IntWritable> values: 一组key相同的kv的value组成的集合/*** 假设map方法:hello 1; hello 1; hello 1* reduce的key和value是什么* key:hello* values:<1,1,1>* <p>* 假设map方法输出:hello 1, hello 1, hadoop 1, mapreduce 1, hadoop 1* reduce的key和value是什么?* reduce方法何时调用:一组key相同的kv中的value组成集合然后调用一次reduce方法* 第一次:key:hello ,values:<1,1,1>* 第二次:key:hadoop ,values<1,1>* 第三次:key:mapreduce ,values<1>*/IntWritable total = new IntWritable();@Overrideprotected void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {// 2、遍历key对应的values,然后累加结果int sum = 0;for (IntWritable value : values) {int i = value.get();sum += 1;}// 3、直接输出当前key对应的sum值,结果就是单词出现的总次数total.set(sum);context.write(key, total);}
}

选择继承的Reducer类

(5) 编写Driver驱动类

package com.lagou.mr.wc;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.io.IOException;// 封装任务并提交运行
public class WordCountDriver {public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {/*1. 获取配置文件对象,获取job对象实例2. 指定程序jar的本地路径3. 指定Mapper/Reducer类4. 指定Mapper输出的kv数据类型5. 指定最终输出的kv数据类型6. 指定job处理的原始数据路径7. 指定job输出结果路径8. 提交作业*/// 1. 获取配置文件对象,获取job对象实例Configuration conf = new Configuration();Job job = Job.getInstance(conf, "WordCountDriver");/// jobName可以自定义// 2. 指定程序jar的本地路径job.setJarByClass(WordCountDriver.class);//  3. 指定Mapper/Reducer类job.setMapperClass(WordCountMapper.class);job.setReducerClass(WordCountReducer.class);//  4. 指定Mapper输出的kv数据类型job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(IntWritable.class);// 5. 指定最终输出的kv数据类型job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);// 6. 指定job处理的原始数据路径FileInputFormat.setInputPaths(job, new Path(args[0])); // 指定读取数据的原始路径//  7. 指定job输出结果路径FileOutputFormat.setOutputPath(job, new Path(args[1])); // 指定结果数据输出路径//  8. 提交作业boolean flag = job.waitForCompletion(true);// jvm退出:正常退出0,非0值则是错误退出System.exit(flag ? 0 : 1);}
}

运行任务

1、本地模式

直接Idea中运行驱动类即可

idea运行需要传入参数:

选择editconfiguration

在program arguments设置参数

运行时报错 ---->  参见博文org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z的解决办法_zhouang770377的博客-CSDN博客

运行结束,去到输出结果路径查看结果

注意本地idea运行mr任务与集群没有任何关系,没有提交任务到yarn集群,是在本地使用多线程方式模拟的mr的运行。

2、Yarn集群模式

把程序打成jar包,改名为wc.jar;上传到Hadoop集群

选择合适的Jar包

准备原始数据文件,上传到HDFS的路径,不能是本地路径,因为跨节点运行无法获取数据!!

启动Hadoop集群(Hdfs,Yarn)

使用Hadoop 命令提交任务运行

hadoop jar wc.jar com.lagou.wordcount.WordcountDriver /user/lagou/input /user/lagou/output

Yarn集群任务运行成功展示图

MapReduce编程规范及示例编写相关推荐

  1. Hadoop大数据--Mapreduce编程规范及入门示例

    Mapreduce是一个分布式的运算编程框架,核心功能是将用户编写的核心逻辑代码分布式地运行在一个集群的很多服务器上. Mapreduce的存在价值 (1)海量数据在单机上处理因为硬件资源限制,无法胜 ...

  2. MapReduce编程规范及实践(流量统计)

    一.MapReduce编码规范 Map阶段2个步骤 设置 InputFormat 类, 将数据切分为 Key-Value(K1和V1) 对, 输入到第二步 自定义 Map 逻辑, 将第一步的结果转换成 ...

  3. 大数据培训课程MapReduce编程规范

    MapReduce编程规范 用户编写的程序分成三个部分:Mapper.Reducer和Driver. Mapper阶段 (1)用户自定义的Mapper要继承自己的父类 (2) Mapper的输入数据是 ...

  4. mapreduce编程规范_大数据之MapReduce详解

    今天要讲的是MapReduce 目录 今天先总体说下MapReduce的相关知识,后续将会详细说明对应的shuffle.mr与yarn的联系.以及mr的join操作的等知识.以下内容全是个人学习后的见 ...

  5. MapReduce编程规范

    用户编写的程序分成三个部分:Mapper.Reducer和Driver. 1.Mapper阶段 1.用户自定义的Mapper要继承基类 2.Mapper的输入数据是KV对的形式(KV的类型可自定义) ...

  6. 4 MapReduce编程框架

    MapReduce编程框架 第 1 节 MapReduce思想 MapReduce思想在⽣活中处可见.我们或多或少都曾接触过这种思想.MapReduce的思想核⼼是分而治之,充分利用了并⾏处理的优势. ...

  7. MapReduce编程模型

    1.MapReduce简介 MapReduce是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在Hadoop集群上. 一个完整的 ...

  8. MapReduce的编程规范

    MapReduce 编程规范 MapReduce 的开发一共有八个步骤, 其中 Map 阶段分为 2 个步骤,Shuffle 阶段 4个步骤,Reduce 阶段分为 2 个步骤 Map 阶段 2 个步 ...

  9. 一个wordcount程序轻松玩转MapReduce编程模型

    可以毫不夸张的说,几乎开发中绝大部分的MR程序都是基于wordcount编程模型而来,或者说用wordcount变化而来(改变的主要是业务方面的逻辑).所以,熟练掌握wordcount编程模型,是掌握 ...

最新文章

  1. IBM开源了5亿行代码数据集,里面最多的编程语言却不是Python
  2. 红黑树(一)之 原理和算法详细介绍
  3. 视频分解图片原理;图片合成视频原理
  4. UDP对应的应用层协议之DNS、DHCP
  5. ACM的fflush(stdin)的问题
  6. Flowable 数据库表结构 ACT_HI_COMMENT
  7. 网络IO演变发展过程和模型介绍
  8. Scalaz(1)- 基础篇:隐式转换解析策略-Implicit resolution
  9. Github Star 9.7K,超级好用的OCR数据合成与半自动标注工具,强烈推荐!
  10. JAVA:DOM解析XML和修改XML
  11. Linux内核部件分析 记录生命周期的kref
  12. 地表净辐射通量数据、太阳辐射量数据、降雨量数据、气温数据、日照时长、水汽压分布、风速风向数据、地表温度
  13. Java基础算法--排序
  14. python王者荣耀
  15. 从0开发豆果美食小程序——listItem组件列表
  16. hiredis——Redis的C++库(使用教程
  17. Windows打印机驱动删除不了,怎么办?
  18. 好心情:长期服用精神药物,需监测哪些指标?
  19. HTML进阶(2)- 在页面中使用flash
  20. 2022电大国家开放大学网上形考任务-企业集团财务管理非免费(非答案)

热门文章

  1. matlab中exist函数用法
  2. 怎么把jpg转换成pdf格式?实用又简单的方法来了
  3. 变步长复化梯形法求积
  4. Word控件Spire.Doc 【文档操作】教程(五):在 C#、VB.NET 中合并、设置多个 Word 文档
  5. VS2015输入反斜杠显示成人民币符号的问题
  6. 前端基础学习之h5-canvas入门3-曲线的绘制及绘制完整饼状图
  7. i7 1260p和酷睿i7 12700h选哪个好?区别对比评测
  8. python怎么全选_python练习题之全选框全不选反选
  9. java常见引用类型
  10. 第十七章 书房自习