太简单了,直接上代码,不解析

public static void myCount(){

SparkConf conf=new SparkConf()
        .setMaster("local")
        .setAppName("myCount");
        JavaSparkContext sc=new JavaSparkContext(conf);
        List<Integer> list=Arrays.asList(1,2,3,4,4);
        JavaRDD<Integer>  listRdd=sc.parallelize(list, 2);
        long counts=listRdd.count();
        System.out.println("count:"+counts);
        sc.close();

}

结果:

count:5

我始终觉得打印出来的日志很重要:

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
16/05/03 22:54:42 INFO SparkContext: Running Spark version 1.6.1
16/05/03 22:55:02 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/05/03 22:55:02 INFO SecurityManager: Changing view acls to: admin
16/05/03 22:55:02 INFO SecurityManager: Changing modify acls to: admin
16/05/03 22:55:02 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(admin); users with modify permissions: Set(admin)
16/05/03 22:55:04 INFO Utils: Successfully started service 'sparkDriver' on port 55095.
16/05/03 22:55:05 INFO Slf4jLogger: Slf4jLogger started
16/05/03 22:55:05 INFO Remoting: Starting remoting
16/05/03 22:55:05 INFO Remoting: Remoting started; listening on addresses :[akka.tcp://sparkDriverActorSystem@192.168.213.1:55108]
16/05/03 22:55:06 INFO Utils: Successfully started service 'sparkDriverActorSystem' on port 55108.
16/05/03 22:55:06 INFO SparkEnv: Registering MapOutputTracker
16/05/03 22:55:06 INFO SparkEnv: Registering BlockManagerMaster
16/05/03 22:55:06 INFO DiskBlockManager: Created local directory at C:\Users\admin\AppData\Local\Temp\blockmgr-3aaa5046-0d05-4c75-8734-02b0121f3a1e
16/05/03 22:55:06 INFO MemoryStore: MemoryStore started with capacity 2.4 GB
16/05/03 22:55:06 INFO SparkEnv: Registering OutputCommitCoordinator
16/05/03 22:55:07 INFO Utils: Successfully started service 'SparkUI' on port 4040.
16/05/03 22:55:07 INFO SparkUI: Started SparkUI at http://192.168.213.1:4040
16/05/03 22:55:07 INFO Executor: Starting executor ID driver on host localhost
16/05/03 22:55:07 INFO Utils: Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 55116.
16/05/03 22:55:07 INFO NettyBlockTransferService: Server created on 55116
16/05/03 22:55:07 INFO BlockManagerMaster: Trying to register BlockManager
16/05/03 22:55:07 INFO BlockManagerMasterEndpoint: Registering block manager localhost:55116 with 2.4 GB RAM, BlockManagerId(driver, localhost, 55116)
16/05/03 22:55:07 INFO BlockManagerMaster: Registered BlockManager
16/05/03 22:55:09 INFO SparkContext: Starting job: count at ActionOperation.java:84
16/05/03 22:55:09 INFO DAGScheduler: Got job 0 (count at ActionOperation.java:84) with 2 output partitions
16/05/03 22:55:09 INFO DAGScheduler: Final stage: ResultStage 0 (count at ActionOperation.java:84)
16/05/03 22:55:09 INFO DAGScheduler: Parents of final stage: List()
16/05/03 22:55:09 INFO DAGScheduler: Missing parents: List()
16/05/03 22:55:09 INFO DAGScheduler: Submitting ResultStage 0 (ParallelCollectionRDD[0] at parallelize at ActionOperation.java:83), which has no missing parents
16/05/03 22:55:10 INFO MemoryStore: Block broadcast_0 stored as values in memory (estimated size 1320.0 B, free 1320.0 B)
16/05/03 22:55:10 INFO MemoryStore: Block broadcast_0_piece0 stored as bytes in memory (estimated size 927.0 B, free 2.2 KB)
16/05/03 22:55:10 INFO BlockManagerInfo: Added broadcast_0_piece0 in memory on localhost:55116 (size: 927.0 B, free: 2.4 GB)
16/05/03 22:55:10 INFO SparkContext: Created broadcast 0 from broadcast at DAGScheduler.scala:1006
16/05/03 22:55:10 INFO DAGScheduler: Submitting 2 missing tasks from ResultStage 0 (ParallelCollectionRDD[0] at parallelize at ActionOperation.java:83)
16/05/03 22:55:10 INFO TaskSchedulerImpl: Adding task set 0.0 with 2 tasks
16/05/03 22:55:10 INFO TaskSetManager: Starting task 0.0 in stage 0.0 (TID 0, localhost, partition 0,PROCESS_LOCAL, 2140 bytes)
16/05/03 22:55:10 INFO Executor: Running task 0.0 in stage 0.0 (TID 0)
16/05/03 22:55:10 INFO Executor: Finished task 0.0 in stage 0.0 (TID 0). 953 bytes result sent to driver
16/05/03 22:55:10 INFO TaskSetManager: Starting task 1.0 in stage 0.0 (TID 1, localhost, partition 1,PROCESS_LOCAL, 2145 bytes)
16/05/03 22:55:10 INFO Executor: Running task 1.0 in stage 0.0 (TID 1)
16/05/03 22:55:10 INFO TaskSetManager: Finished task 0.0 in stage 0.0 (TID 0) in 257 ms on localhost (1/2)
16/05/03 22:55:10 INFO Executor: Finished task 1.0 in stage 0.0 (TID 1). 953 bytes result sent to driver
16/05/03 22:55:10 INFO TaskSetManager: Finished task 1.0 in stage 0.0 (TID 1) in 55 ms on localhost (2/2)
16/05/03 22:55:10 INFO DAGScheduler: ResultStage 0 (count at ActionOperation.java:84) finished in 0.352 s
16/05/03 22:55:10 INFO TaskSchedulerImpl: Removed TaskSet 0.0, whose tasks have all completed, from pool
16/05/03 22:55:10 INFO DAGScheduler: Job 0 finished: count at ActionOperation.java:84, took 1.136850 s
count:5
16/05/03 22:55:10 INFO SparkUI: Stopped Spark web UI at http://192.168.213.1:4040
16/05/03 22:55:10 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped!
16/05/03 22:55:10 INFO MemoryStore: MemoryStore cleared
16/05/03 22:55:10 INFO BlockManager: BlockManager stopped
16/05/03 22:55:10 INFO BlockManagerMaster: BlockManagerMaster stopped
16/05/03 22:55:10 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped!
16/05/03 22:55:10 INFO SparkContext: Successfully stopped SparkContext
16/05/03 22:55:10 INFO ShutdownHookManager: Shutdown hook called
16/05/03 22:55:10 INFO ShutdownHookManager: Deleting directory C:\Users\admin\AppData\Local\Temp\spark-221cf0db-fb4a-4577-8785-ac392b53425e
16/05/03 22:55:10 INFO RemoteActorRefProvider$RemotingTerminator: Shutting down remote daemon.

spark count统计元素个数相关推荐

  1. python统计元素个数_python怎么统计列表中元素的个数

    python统计列表中元素的个数的方法:可以通过count()方法来实现.该方法可以统计字符串中某个字符出现的次数,并返回子字符串在字符串中出现的次数.具体用法如:[count=List.count( ...

  2. 统计多维数组php_PHP多维数组中统计元素个数

    Array ( [0] => Array ( [0] => Array ( [0] => Array ( [id] => 12 [name] => '1' ) [1] = ...

  3. mysql统计唯一个数_统计数组元素的个数和唯一性的函数

    有些函数可以用来确定数组中的值总数及唯一值的个数.使用函数count()对元素个数进行统计,sizeof()函数时count()的别名,他们的功能是一样的. ①函数count() 函数count()的 ...

  4. php 统计数组个数,php统计数组元素的个数和唯一性

    大家好,今天给大家分享的是php统计数组元素的个数和唯一性,希望大家喜欢. 我们在学习php数组的时候,如何来统计数组元素的个数和唯一性呢? 那么下面我们来说下 1,函数count() 统计数组元素个 ...

  5. php数组的元素个数,php怎么统计数组元素的个数

    这篇文章主要介绍了php统计数组元素个数的方法的相关资料,需要的朋友可以参考下 count():对数组中的元素个数进行统计; sizeof():和count()具有同样的用途,这两个函数都可以返回数组 ...

  6. winform 统计大量数据重复的元素个数_面试系列:十个海量数据处理方法大总结...

    本文将简单总结下一些处理海量数据问题的常见方法.当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题.下面的一些问题基本直接来源于公司的面试笔试题目,方法不一定 ...

  7. java map 元素个数_Java 小模块之--统计字符串中元素个数

    Java 小模块之--统计字符串中元素个数 曾经看过我Stream或者Guava类库等文章的小伙伴应该很明白我这篇博文的意义所在了 一是给读者提供综合的博文入口 二是自己也总结一下思路 ps: 之前没 ...

  8. 统计多维数组php_php统计多维数组元素个数的方法介绍(附代码)

    详细内容 本篇文章给大家带来的内容是关于php统计多维数组元素个数的方法介绍(附代码),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助. 一般情况下,使用count可以直接统计数组的元素 ...

  9. 汇编中的length(返回利用dup定义的数组中的元素个数,即重复操作符dup前的count值)

    LENGTH是属于析值操作符之一,也称为数值回送操作符,原因是这些操作符把一些特征或存储器地址的一部分作为数据返回.length的用法:length 变量名 .作用是返回利用dup定义的数组中的元素个 ...

最新文章

  1. WEB攻击手段及防御-扩展篇
  2. hadoop 卡主_HDFS DisTCP执行卡住了,怎么办?
  3. leetcode1046. 最后一块石头的重量(堆)
  4. 简单人物画像_你真的理解用户画像吗?| 船说
  5. C51存储器类型与51单片机的物理区域
  6. 【英语学习】【WOTD】cerebral 释义/词源/示例
  7. 小红书公司注册老红书商标上热搜 网友:过两年变老了改名吗?
  8. Python学习 Day 040 - css选择器
  9. 【干货】深度学习及在推荐中的实践-美团点评.pdf(附下载链接)
  10. 视频处理中各个分辨率/数字电视系统显示格式 的介绍(QCIF,CIF,4CIF,D1,720P,1080I,1080P等)
  11. SQL语句查询关键字
  12. PS——规定尺寸的证件照的制作
  13. HP 笔记本电脑 - 笔记本电脑睡眠后如何唤醒
  14. SMT操作员是做什么的?工作职责?
  15. 什么是附近推?附近推怎么投放?
  16. 自动语音播报WinCC报警消息
  17. Eclipse 开源详细介绍
  18. 城乡规划一些不错的期刊
  19. 什么是电力物联网?为什么要建造电力物联网云平台?——安科瑞 严新亚
  20. python 取模是什么意思_Python 中负数取模问题

热门文章

  1. ArcGIS如何将Excel表格转换为SHP格式
  2. 如何做默认样式重置?RESETTING 和 NORMALIZING 之间有什么区别?
  3. Java笔试总结(选择题)
  4. 打印机 “错误-正在打印”
  5. Linux 实战技巧 --vi/vim 的使用
  6. Dijkstra 路径规划算法在二维仿真环境中的应用 -- Python代码实现
  7. html点击按钮动复制推广地址,JavaScript实现点击按钮就复制当前网址
  8. Leetcode494. 目标和
  9. java web论文_(定稿)毕业论文基于JavaWeb技术博客项目的设计论文(完整版)最新版...
  10. C++小实验之vector的 push_back 和 emplace_back 及其使用时机