1)需求:

统计每一个手机号耗费的总上行流量、下行流量、总流量

2)数据准备

1363157985066    13726230503 00-FD-07-A4-72-B8:CMCC  120.196.100.82  i02.c.aliimg.com        24  27  2481    24681   200
1363157995052   13826544101 5C-0E-8B-C7-F1-E0:CMCC  120.197.40.4            4   0   264 0   200
1363157991076   13926435656 20-10-7A-28-CC-0A:CMCC  120.196.100.99          2   4   132 1512    200
1363154400022   13926251106 5C-0E-8B-8B-B1-50:CMCC  120.197.40.4            4   0   240 0   200
1363157993044   18211575961 94-71-AC-CD-E6-18:CMCC-EASY 120.196.100.99  iface.qiyi.com  视频网站    15  12  1527    2106    200
1363157995074   84138413    5C-0E-8B-8C-E8-20:7DaysInn  120.197.40.4    122.72.52.12        20  16  4116    1432    200
1363157993055   13560439658 C4-17-FE-BA-DE-D9:CMCC  120.196.100.99          18  15  1116    954 200
1363157995033   15920133257 5C-0E-8B-C7-BA-20:CMCC  120.197.40.4    sug.so.360.cn   信息安全    20  20  3156    2936    200
1363157983019   13719199419 68-A1-B7-03-07-B1:CMCC-EASY 120.196.100.82          4   0   240 0   200
1363157984041   13660577991 5C-0E-8B-92-5C-20:CMCC-EASY 120.197.40.4    s19.cnzz.com    站点统计    24  9   6960    690 200
1363157973098   15013685858 5C-0E-8B-C7-F7-90:CMCC  120.197.40.4    rank.ie.sogou.com   搜索引擎    28  27  3659    3538    200
1363157986029   15989002119 E8-99-C4-4E-93-E0:CMCC-EASY 120.196.100.99  www.umeng.com   站点统计    3   3   1938    180 200
1363157992093   13560439658 C4-17-FE-BA-DE-D9:CMCC  120.196.100.99          15  9   918 4938    200
1363157986041   13480253104 5C-0E-8B-C7-FC-80:CMCC-EASY 120.197.40.4            3   3   180 180 200
1363157984040   13602846565 5C-0E-8B-8B-B6-00:CMCC  120.197.40.4    2052.flash2-http.qq.com 综合门户    15  12  1938    2910    200
1363157995093   13922314466 00-FD-07-A2-EC-BA:CMCC  120.196.100.82  img.qfc.cn      12  12  3008    3720    200
1363157982040   13502468823 5C-0A-5B-6A-0B-D4:CMCC-EASY 120.196.100.99  y0.ifengimg.com 综合门户    57  102 7335    110349  200
1363157986072   18320173382 84-25-DB-4F-10-1A:CMCC-EASY 120.196.100.99  input.shouji.sogou.com  搜索引擎    21  18  9531    2412    200
1363157990043   13925057413 00-1F-64-E1-E6-9A:CMCC  120.196.100.55  t3.baidu.com    搜索引擎    69  63  11058   48243   200
1363157988072   13760778710 00-FD-07-A4-7B-08:CMCC  120.196.100.82          2   2   120 120 200
1363157985066   13560436666 00-FD-07-A4-72-B8:CMCC  120.196.100.82  i02.c.aliimg.com        24  27  2481    24681   200
1363157993055   13560436666 C4-17-FE-BA-DE-D9:CMCC  120.196.100.99          18  15  1116    954 200

输入数据格式:

1363157993055 13560436666 C4-17-FE-BA-DE-D9:CMCC 120.196.100.99 18 15 1116 954 200

手机号码 上行流量 下行流量

输出数据格式

1356·0436666 1116       954 2070

手机号码 上行流量        下行流量 总流量

3)分析

基本思路:

Map阶段:

(1)读取一行数据,切分字段

(2)抽取手机号、上行流量、下行流量

(3)以手机号为key,bean对象为value输出,即context.write(手机号,bean);

Reduce阶段:

(1)累加上行流量和下行流量得到总流量。

(2)实现自定义的bean来封装流量信息,并将bean作为map输出的key来传输

(3)MR程序在处理数据的过程中会对数据排序(map输出的kv对传输到reduce之前,会排序),排序的依据是map输出的key

所以,我们如果要实现自己需要的排序规则,则可以考虑将排序因素放到key中,让key实现接口:WritableComparable。

然后重写key的compareTo方法。

项目目录

4)编写mapreduce程序

(1)编写流量统计的bean对象

 

package com.lzz.mapreduce.flowsum;import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;import org.apache.hadoop.io.Writable;
import org.apache.hadoop.io.WritableComparable;//1实现writable方法
public class FlowBean implements Writable{private long upflow;private long downflow;private long sumflow;//必须要有空参构造,为了以后反射用public FlowBean() {super();}public FlowBean(long upflow, long downflow) {super();this.upflow = upflow;this.downflow = downflow;this.sumflow = upflow+downflow;}public void set(long upflow, long downflow) {this.upflow = upflow;this.downflow = downflow;this.sumflow = upflow+downflow;}//序列化的方法@Overridepublic void write(DataOutput out) throws IOException {out.writeLong(upflow);out.writeLong(downflow);out.writeLong(sumflow);//反序列化方法//注意序列化方法和反序列化方法顺序必须保持一致}@Overridepublic void readFields(DataInput in) throws IOException {this.upflow=in.readLong();this.downflow=in.readLong();this.sumflow=in.readLong();}@Overridepublic String toString() {return  upflow + "\t" + downflow + "\t" + sumflow;}public void setUpflow(long upflow) {this.upflow = upflow;}public long getUpflow() {return upflow;}public long getDownflow() {return downflow;}public void setDownflow(long downflow) {this.downflow = downflow;}public long getSumflow() {return sumflow;}public void setSumflow(long sumflow) {this.sumflow = sumflow;}}

(2)Mapper

package com.lzz.mapreduce.flowsum;import java.io.IOException;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import com.lzz.mapreduce.flowsort.FlowBean;public class FlowMappper extends Mapper<LongWritable, Text, Text, FlowBean>{Text k=new Text();FlowBean v=new FlowBean();@Overrideprotected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {String line=value.toString();String[] fields=line.split("\t");String phNum=fields[1];long upFlow=Long.parseLong(fields[fields.length-3]);long downFlow=Long.parseLong(fields[fields.length-2]);k.set(phNum);v.set(upFlow,downFlow);context.write(k, v);}
}

(3)Reducer

package com.lzz.mapreduce.flowsum;import java.io.IOException;import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;import com.lzz.mapreduce.flowsort.FlowBean;public class FlowReducer extends Reducer<Text, FlowBean, Text, FlowBean>{@Overrideprotected void reduce(Text key, Iterable<FlowBean> values, Context context)throws IOException, InterruptedException {long sumUpFlow=0;long sumDownFlow=0;System.out.println(values);for (FlowBean flowBean: values) {sumUpFlow+=flowBean.getUpflow();sumDownFlow+=flowBean.getDownflow();}FlowBean v=new FlowBean(sumUpFlow,sumDownFlow);context.write(key, v);}
}

(4)Driver

package com.lzz.mapreduce.flowsum;import java.io.IOException;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import com.lzz.mapreduce.flowsort.FlowBean;public class FlowDriver {public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {Configuration Configuration=new Configuration();Job job=Job.getInstance(Configuration);job.setJarByClass(FlowDriver.class);job.setMapperClass(FlowMappper.class);job.setReducerClass(FlowReducer.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(FlowBean.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(FlowBean.class);FileInputFormat.setInputPaths(job, new Path(args[0]));FileOutputFormat.setOutputPath(job, new Path(args[1]));boolean result=job.waitForCompletion(true);System.exit(result?0:1);}
}

5运行结果

流量汇总案例(一)之统计手机号耗费的总上行流量、下行流量、总流量(序列化)相关推荐

  1. 15.大数据---Mapreduce案例之---统计手机号耗费的总上行流量、下行流量、总流量

    Mapreduce案例之-统计手机号耗费的总上行流量.下行流量.总流量 1.需求: 统计每一个手机号耗费的总上行流量.下行流量.总流量 2.数据准备: 2.1 输入数据格式: 时间戳.电话号码.基站的 ...

  2. 统计手机号耗费的总上行流量、下行流量、总流量(序列化)

    自定义排序 1.需求: 2.数据准备: 3.分析: 4.代码实现: (1)FlowBean类: (2)MapWritable类: (3)ReduceWritable类: (4)MainWritable ...

  3. MapReduce之流量汇总案例

    流量汇总案例 1.需求   现在我们采集到了一份用户访问流量的数据,我们需要从这份数据中统计出每个用户的流量数据. 部分测试数据如下:可以拷贝出去做测试 1363157985066 137262305 ...

  4. Scala初级实践——统计手机耗费流量(1)

    Scala初级实践--统计手机耗费流量(1) [实验描述] 本实验主要使用Scala语言来实现对手机流量的计算.在该实验中,共有四个需求: 1)统计每一个手机号耗费的总上行流量.下行流量.总流量 2) ...

  5. 统计每一个用户(手机号)所耗费的上行流量,下行流量,总流量

    假设从数据运营商可以获取用户(通过手机号来区分)的上网信息: 1363157985066 13726230503 00-FD-07-A4-72-B8:CMCC 120.196.100.82 i02.c ...

  6. 使用Mapreduce案例编写用于统计文本中单词出现的次数的案例、mapreduce本地运行等,Combiner使用及其相关的知识,流量统计案例和流量总和以及流量排序案例,自定义Partitioner

    工程结构: 在整个案例过程中,代码如下: WordCountMapper的代码如下: package cn.toto.bigdata.mr.wc; import java.io.IOException ...

  7. MapReduce案例-统计手机号总流量

    map方法和reduce方法都是循环调用的 map方法---每行数据调用一次 reduce方法---每个KV调用一次 只执行一次的代码写在setup和cleanup中 统计每个手机号的总流量 数据格式 ...

  8. 使用mapreduce进行流量汇总程序开发

    现有文件关于流量文件内容如下 1363157985066 13726230503 00-FD-07-A4-72-B8:CMCC 120.196.100.82 i02.c.aliimg.com 24 2 ...

  9. MapReduce(深入)---案例之用户上行流量 下行流量 总流量倒序 按省份分区

    1. MapReduce的输入和输出 MapReduce执行流程图 详细图解如下 maptask通过自带的TextInputFormat将数据按照一行一行的读取 , 用每一行的起始偏移量作为k , 每 ...

最新文章

  1. linux 进程参数文件 /proc/pid/cmdline 简介
  2. java lazy_Java性能优化要点之五: 队列与lazySet
  3. Docker(五)如何构建Dockerfile
  4. svm分类器训练详细步骤_「五分钟机器学习」向量支持机SVM——学霸中的战斗机...
  5. System.ComponentModel.Component : MarshalByRefObject, IComponent, IDisposable
  6. 《代码整洁之道》第14章 逐步改进 的代码片段
  7. EAS 后台事务定时执行设置
  8. 800个小炒,一天吃一个叫你吃三年
  9. php实现加密解密,PHP实现的加密解密处理类
  10. 北京最新城市总体规划草案
  11. Blos查看计算机硬盘,bios查看硬盘损坏
  12. 最简单代码画的五角星
  13. HTML 和文字有关的标签(2)
  14. SpringBoot非官方教程 | 第二十篇: 处理表单提交
  15. Fliqlo.scr怎么安装
  16. plink描述性统计--等位基因频率、缺失值
  17. Python sqlalchemy 连接常用的数据库
  18. .netCore在Linux容器上的发布
  19. Remove.bg api 自动去背景 实例
  20. docker版MySQL5.7容器管理

热门文章

  1. 大话设计模式读书笔记之观察者模式
  2. CG长广奔驰钥匙-CG张敏
  3. 推荐系统[八]算法实践总结V0:淘宝逛逛and阿里飞猪个性化推荐:召回算法实践总结【冷启动召回、复购召回、用户行为召回等算法实战】
  4. 辐射3游戏登录是提示计算机丢失xlive.dll文件,win10系统辐射3提示丢失xlive.dll怎么办...
  5. 10款优秀Bootstrap响应式后台管理系统模板
  6. DNS欺骗的原理与防范方法研究
  7. 计算机毕业设计Java校园招聘管理系统(源码+系统+mysql数据库+lw文档
  8. [转载]唐骏、王志东、刘宏彬解读创业梦想
  9. 同是做开源,它赚了20亿,国产OS厂商还在为生存纠结
  10. 命令模式(Command)