spark 相关性分析_SparkML之相关性分析
相关性分析
相关性分析是考察两个变量之间的线性关系的一种统计方法,用于衡量两个变量因数的相关程度。但是,请记住,相关性不等于因果性。接下来结合下图的txt格式的文件来对相关性分析进行了解。
两个重要的要素
从非常直观的分析思路来说,比如分析身高和体重,我们会问个问题:.身高越高,体重是不是越重?问题细分为两个方向:1,身高越高,体重越重还是越轻。2,身高每增加 1 ,体重又是增加多少或减少多少。這就是相关性的两个重要要素:相关的方向和相关的强度。对于相关的方向很好理解,就是正相关、负相关还是无关。对于问题2,有不同的人产生了不同的 定义相关性强度的思想。
皮尔逊相关系数
皮尔逊相关系数全称为:皮尔逊积矩相关系数(Pearson product-moment correlation coefficient).该系数广泛用于度量两个变量之间的相关程度。它是由卡尔·皮尔逊从弗朗西斯·高尔顿在19世纪80年代提出的一个相似却又稍有不同的想法演变而来.定义的公式如下:
下面通过Matlab代码来计算身高和体重的pearson系数:
function coeff = pearsoncoeff(x,y)
%目的:计算数值序列x和y的皮尔逊相关系数
%
%输入:计算数值序列x和y
%输出:coeff数值序列x和y的皮尔逊相关系数
if length(x)~=length(y)
error('输入的序列长度不一')
end
a = sum((x-mean(x)).*(y-mean(y)));%分子
b=sqrt(sum((x-mean(x)).^2)*sum((y-mean(y)).^2));%分母
coeff = a/b;
end
function processing
filename = 'C:\Users\andrew\Desktop\child.txt';
delimiter = '\t';
formatSpec = '%s%f%f%f%[^\n\r]';
fileID = fopen(filename,'r');
dataArray = textscan(fileID, formatSpec, 'Delimiter', delimiter, 'ReturnOnError', false);
fclose(fileID);
%A = dataArray{:, 1};%name
high = dataArray{:, 2};
weight = dataArray{:, 3};
%score = dataArray{:, 4};
%计算身高和体重的相关系数
corOfHW = pearsoncoeff(high,weight)
end
得到:
corOfHW = 0.6124
Spearman等级相关系数:
具体函数的定义,可以参考文献1。下面对思想进行简单阐述:A 的身高149,在身高這一列秩为1(最矮)。同理后面的参数就是所说变量的秩。Spearman等级相关系数(rho)如下:
其中累加di平方就是A身高的秩减去体重的秩平方加上B身高的秩减去体重的秩平方。。。。。。。发现spearman等级相关系数,和具体的数值无关,之和其中的秩有关系,它适用于不能准确测量指标值而只能以严重程度,名词先后等等级参数来确定之间的相关程度。
通过计算可以得到:0.7395
SparkMLlib计算相关系数:
packageBasic
importorg.apache.spark.mllib.linalg.Vectors
importorg.apache.spark.mllib.stat.Statistics
importorg.apache.spark.{SparkConf,SparkContext}
/*** Created by legotime on 2016/4/8.*/objectCorrelations {
defmain(args: Array[String]) {
valsparkConf = newSparkConf().setAppName("Correlations").setMaster("local")
valsc = newSparkContext(sparkConf)
valrdd1= sc.parallelize(
Array(
Array(1.0,2.0,3.0,4.0),Array(2.0,3.0,4.0,5.0),Array(3.0,4.0,5.0,6.0)
)
).map(f => Vectors.dense(f))
//package org.apache.spark.mllib.stat下的一些基本操作valsummary = Statistics.colStats(rdd1)
println(summary.mean) // a dense vector containing the mean value for each column每列的平均值println(summary.variance) // column-wise variance,列方差println(summary.numNonzeros) // number of nonzeros in each column每列非零个数println(summary.normL2)//二范数println(summary.max)//每列最大//==================================计算相关性系数===================================//val rdd2 = sc.parallelize(Array(1.0,2.0,3.0,4.0))//val rdd3 = sc.parallelize(Array(2.0,3.0,4.0,5.0))valrdd2 = sc.parallelize(Array(149.0,150.0,153.0,155.0,160.0,155.0,160.0,150.0))
valrdd3 = sc.parallelize(Array(81.0,88.0,87.0,99.0,91.0,89.0,95.0,90.0))
println("rdd2:"+rdd2)
rdd2.collect().foreach(println)
//val correlation1:Double = Statistics.corr(rdd2, rdd3, "pearson")//省却的情况下,默认的是pearson相关性系数valcorrelation1:Double= Statistics.corr(rdd2,rdd3)
println("pearson相关系数:"+correlation1)
//pearson相关系数:0.6124030566141675valcorrelation2:Double= Statistics.corr(rdd2,rdd3,"spearman")
println("spearman相关系数:"+correlation2)
//spearman相关系数:0.7395161835775294sc.stop()
}
}
完毕
参考文献
1:http://blog.csdn.net/wsywl/article/details/5859751
感谢
spark 相关性分析_SparkML之相关性分析相关推荐
- 如何用python进行相关性分析_Python文章相关性分析---金庸武侠小说分析
最近常听同事提及相关性分析,正巧看到这个google的开源库,并把相关操作与调试结果记录下来. 小说集可以百度<金庸小说全集 14部>全(TXT)作者:金庸 下载下来. 需要整理好格式,门 ...
- python 小说人物分析_Python文章相关性分析---金庸武侠小说分析
最近常听同事提及相关性分析,正巧看到这个google的开源库,并把相关操作与调试结果记录下来. 小说集可以百度<金庸小说全集 14部>全(TXT)作者:金庸 下载下来. 需要整理好格式,门 ...
- 皮尔逊相关系数php,生信分析网站(相关性分析)
生信论文的套路 ONCOMINE从全景.亚型两个维度做表达差异分析: 临床标本从蛋白水平确认(或HPA数据库),很重要: Kaplan-Meier Plotter从临床意义的角度阐明其重要性: cBi ...
- 基于spark mllib_Spark高级分析指南 | 机器学习和分析流程详解(下)
- 点击上方"中国统计网"订阅我吧!- 我们在Spark高级分析指南 | 机器学习和分析流程详解(上)快速介绍了一下不同的高级分析应用和用力,从推荐到回归.但这只是实际高级分析过程 ...
- 《深入理解Spark:核心思想与源码分析》——1.2节Spark初体验
本节书摘来自华章社区<深入理解Spark:核心思想与源码分析>一书中的第1章,第1.2节Spark初体验,作者耿嘉安,更多章节内容可以访问云栖社区"华章社区"公众号查看 ...
- 《深入理解Spark:核心思想与源码分析》——第1章环境准备
本节书摘来自华章社区<深入理解Spark:核心思想与源码分析>一书中的第1章环境准备,作者耿嘉安,更多章节内容可以访问云栖社区"华章社区"公众号查看 第1章 环 境 准 ...
- 《深入理解Spark:核心思想与源码分析》——3.10节创建和启动ExecutorAllocationManager...
本节书摘来自华章社区<深入理解Spark:核心思想与源码分析>一书中的第3章,第3.10节创建和启动ExecutorAllocationManager,作者耿嘉安,更多章节内容可以访问云栖 ...
- spark项目实战:电商分析平台之各个范围Session步长、访问时长占比统计(需求一)
spark项目实战:电商分析平台之各个范围Session步长.访问时长占比统计(需求一) 项目基本信息,架构,需要一览 各个范围Session步长.访问时长占比统计概述 各个范围Session步长.访 ...
- spark项目实战:电商分析平台之项目概述
spark项目实战:电商分析平台之项目概述 目录 项目概述 程序架构分析 需求解析 初始代码和完成代码存放在github上面 1. 项目概述 在访问电商网站时,我们的一些访问行为会产生相应的埋点日志( ...
最新文章
- 2022泰晤士最新世界大学排名惹争议,这所985高校爆冷门!
- html从入门到卖电脑(六)
- JS:js 数组赋值问题 :值传递还是引用?
- 吴恩达机器学习 -- 正则化
- SAP CRM One Order框架搜索条件里,posting date下拉菜单的渲染逻辑
- php上传预览源码,php批量上传五[带预览]-PHP源码
- 初级Java开发与架构之间的差距不仅仅是开发时间
- idea无法启动Tomcat
- 【蓝桥杯官网试题 - 历届试题】小朋友排队(逆序数,树状数组)
- 破解keil 2k限制,注册码生成
- ICCV 2019 | Adobe 无需大量数据训练,内部学习机制实现更好的视频修补
- VMware ESXI5.0的安装配置
- 关于波峰波谷趋势分割(想象中的方法),判断趋势,突然来想到的,记下来,没有实验。以便以后用于分割...
- 正则表达式-匹配时间
- lesson3 Qt Signal and slots (QSlider and QProgressBar)
- PIX4D工作手册分享
- matlab中[d1_sj_d1],Matlab中竖曲线计算程序
- paraview用户指南
- 继电保护整定值计算软件_电力系统继电保护整定计算与应用实例
- Python开发网站步骤