随机森林

做分类
做回归,即预测

多个决策树构成,通过多个决策树投票结果分数进行分类,不容易出现过度拟合
在生成的过程当中分别在行方向和 列方向上添加随机过程,行方向上构建决策树时采用放回抽样(bootstraping)得到训练数据,列方向上采用无放 回随机抽样得到特征子集,并据此得到其最优切分点

Spark ML优化随机森林

在 Spark 平台上,传统 单机形式的迭代方式必须要进行相应改进才能适用于分布式环境,这是因为在分布式环境下,数据也 是分布式的,算法设计不得当会生成大量的IO 操作,影响算法效率
三个优化策略
1.切分点抽样统计
在单机环境下的决策树对连续变量进行切分点选择时,一般是通过对特征点进 行排序,然后取相邻两个数之间的点作为切分点,
如果在分布式环境下 如此操作的话,会带来大量的网络传输操作,特别是当数据量达到 PB 级时,算法效率将极为低下
Spark 中的随机森林在构建决策树时,会对各分区采用一定的子特征策略进行抽样, 然后生成各个分区的统计数据,并最终得到切分点
2.切分特征装箱(Binning)
决策树的构建过程就是对特征的取值不断进行划分的过程
对于离散 的特征,如果有 M 个值,最多 个划分
如果值是有序的,那么就最多 M-1 个划分(按老,中,少的序,那么只有 m-1 个,即 2 种划分,老|中,少;老,中|少)
划分的点就是 split(切分点),划分出的区间就是 bin。对于连续特征 ,理论上 split 是无数的,在分布环境下不可能取出所有的值,因此它采用的是1中的切点抽样统计方 法
3.逐层训练(level-wise training)
单机版本的决策数生成过程是通过递归调用(本 质上是深度优先)的方式构造树,在构造树的同时,需要移动数据,将同一个子节点的数据移动到一 起
分布式环境下采用的策略是逐层构建树节点(本质上是广度优先),这样遍历所有数据的次数 等于所有树中的最大层数。每次遍历时,只需要计算每个节点所有切分点统计参数,遍历完后,根据 节点的特征划分,决定是否切分,以及如何切分

使用Spark ML分别进行回归与分类建模

0 原数据集的模样

No,year,month,day,hour,pm,DEWP,TEMP,PRES,cbwd,Iws,Is,Ir
1,2010,1,1,0,NaN,-21.0,-11.0,1021.0,NW,1.79,0.0,0.0
2,2010,1,1,1,NaN,-21,-12,1020,NW,4.92,0,0
3,2010,1,1,2,NaN,-21,-11,1019,NW,6.71,0,0
4,2010,1,1,3,NaN,-21,-14,1019,NW,9.84,0,0
5,2010,1,1,4,NaN,-20,-12,1018,NW,12.97,0,0
6,2010,1,1,5,NaN,-19,-10,1017,NW,16.1,0,0
7,2010,1,1,6,NaN,-19,-9,1017,NW,19.23,0,0
8,2010,1,1,7,NaN,-19,-9,1017,NW,21.02,0,0
9,2010,1,1,8,NaN,-19,-9,1017,NW,24.15,0,0
10,2010,1,1,9,NaN,-20,-8,1017,NW,27.28,0,0
11,2010,1,1,10,NaN,-19,-7,1017,NW,31.3,0,0
12,2010,1,1,11,NaN,-18,-5,1017,NW,34.43,0,0
13,2010,1,1,12,NaN,-19,-5,1015,NW,37.56,0,0
14,2010,1,1,13,NaN,-18,-3,1015,NW,40.69,0,0
15,2010,1,1,14,NaN,-18,-2,1014,NW,43.82,0,0
16,2010,1,1,15,NaN,-18,-1,1014,cv,0.89,0,0
……

1 读取pm.csv,将含有缺失值的行扔掉(或用均值填充)将数据集分为两部分,0.8比例作为训练集,0.2比例作为测试集

case class data(No: Int, year: Int, month: Int, day: Int, hour: Int, pm: Double, DEWP: Double, TEMP: Double, PRES: Double, cbwd: String, Iws: Double, Is: Double, Ir: Double)def main(args: Array[String]): Unit = {val conf = new SparkConf().setMaster("local[*]").setAppName("foreast")val sc = new SparkContext(conf)val sqlContext = new SQLContext(sc)Logger.getLogger("org").setLevel(Level.ERROR)val root = MyRandomForeast.getClass.getResource("/")import sqlContext.implicits._val df = sc.textFile(root + "pm.csv").map(_.split(",")).filter(_ (0) != "No").filter(!_.contains("NaN")).map(x => data(x(0).toInt, x(1).toInt, x(2).toInt, x(3).toInt, x(4).toInt, x(5).toDouble, x(6).toDouble, x(7).toDouble, x(8).toDouble, x(9), x(10).toDouble, x(11).toDouble, x(12).toDouble)).toDF.drop("No").drop("year")

2 使用month,day,hour,DEWP,TEMP,PRES,cbwd,Iws,Is,Ir作为特征列(除去No,year,
pm),pm作为label列,使用训练集、随机森林算法进行回归建模,使用回归模型对测试集进行预测,并评估。

val splitdf = df.randomSplit(Array(0.8, 0.2))val (train, test) = (splitdf(0), splitdf(1))val traindf = train.withColumnRenamed("pm", "label")val indexer = new StringIndexer().setInputCol("cbwd").setOutputCol("cbwd_")val assembler = new VectorAssembler().setInputCols(Array("month", "day", "hour", "DEWP", "TEMP", "PRES", "cbwd_", "Iws", "Is", "Ir")).setOutputCol("features")import org.apache.spark.ml.Pipelineval rf = new RandomForestRegressor().setLabelCol("label").setFeaturesCol("features")//    setMaxDepth最大20,会大幅增加计算时间,增大能有效减小根均方误差//setMaxBins我觉得和数据量相关,单独增大适得其反,要和setNumTrees一起增大//目前这个参数得到的评估结果(根均方误差)46.0002637676162//    val numClasses=2//    val categoricalFeaturesInfo = Map[Int, Int]()// Empty categoricalFeaturesInfo indicates all features are continuous.val pipeline = new Pipeline().setStages(Array(indexer, assembler, rf))val model = pipeline.fit(traindf)val testdf = test.withColumnRenamed("pm", "label")val labelsAndPredictions = model.transform(testdf)labelsAndPredictions.select("prediction", "label", "features").show(false)val eva = new RegressionEvaluator().setLabelCol("label").setPredictionCol("prediction")val accuracy = eva.evaluate(labelsAndPredictions)println(accuracy)val treemodel = model.stages(2).asInstanceOf[RandomForestRegressionModel]println("Learned regression forest model:\n" + treemodel.toDebugString)

3 按照下面标准处理pm列,数字结果放进(levelNum)列,字符串结果放进(levelStr)列
优(0) 50
良(1)50~100
轻度污染(2) 100~150
中度污染(3) 150~200
重度污染(4) 200~300
严重污染(5) 大于300及以上

//使用Bucketizer特征转换,按区间划分
val splits = Array(Double.NegativeInfinity, 50, 100, 150, 200, 300, Double.PositiveInfinity)val bucketizer = new Bucketizer().setInputCol("pm").setOutputCol("levelNum").setSplits(splits)val bucketizerdf = bucketizer.transform(df)val tempdf = sqlContext.createDataFrame(Seq((0.0, "优"), (1.0, "良"), (2.0, "轻度污染"), (3.0, "中度污染"), (4.0, "重度污染"), (5.0, "严重污染"))).toDF("levelNum", "levelStr")val df2 = bucketizerdf.join(tempdf, "levelNum").drop("pm")df2 show

4 使用month,day,hour,DEWP,TEMP,PRES,cbwd,Iws,Is,Ir作为特征列(除去No,year,pm),levelNum作为label列,使用训练集、随机森林算法进行分类建模。使用分类模型对测试集进行预测对预测结果df进行处理,基于prediction列生成predictionStr(0-5转换优-严重污染),对结果进行评估

val splitdf2 = df2.randomSplit(Array(0.8, 0.2))val (train2, test2) = (splitdf2(0), splitdf2(1))val traindf2 = train2.withColumnRenamed("levelNum", "label")val indexer2 = new StringIndexer().setInputCol("cbwd").setOutputCol("cbwd_")val assembler2 = new VectorAssembler().setInputCols(Array("month", "day", "hour", "DEWP", "TEMP", "PRES", "cbwd_", "Iws", "Is", "Ir")).setOutputCol("features")val rf2 = new RandomForestClassifier().setLabelCol("label").setFeaturesCol("features")val pipeline2 = new Pipeline().setStages(Array(indexer2, assembler2, rf2))val model2 = pipeline2.fit(traindf2)val testdf2 = test2.withColumnRenamed("levelNum", "label")val labelsAndPredictions2 = model2.transform(testdf2)labelsAndPredictions2.select("label", "prediction", "features").showval eva2 = new MulticlassClassificationEvaluator().setLabelCol("label").setPredictionCol("prediction").setMetricName("precision")val accuracy2 = eva2.evaluate(labelsAndPredictions2)println("Test Error = " + (1.0 - accuracy2))val treeModel2 = model2.stages(2).asInstanceOf[RandomForestClassificationModel]println("learned classifier tree node:\n" + treeModel2.toDebugString)

Spark ML随机森林相关推荐

  1. spark ml 随机森林源码笔记二

    书接上回,该分析run方法了,有1000多行,该方法主要是根据数据和参数,训练生成一组树,就是决策森林 开始先干了一件事 val metadata =       DecisionTreeMetada ...

  2. 基于java的随机森林算法_基于Spark实现随机森林代码

    本文实例为大家分享了基于Spark实现随机森林的具体代码,供大家参考,具体内容如下 public class RandomForestClassficationTest extends TestCas ...

  3. 使用基于Apache Spark的随机森林方法预测贷款风险

    原文:Predicting Loan Credit Risk using Apache Spark Machine Learning Random Forests  作者:Carol McDonald ...

  4. 基于spark mllib 随机森林分类 代码记录后续完善

    scala+spark+randomForests 代码实现分为读取hive数据.随机森林建模训练.数据预测 随机森林建模训练的代码主类(实现流程) package com.inspur.mr.Ins ...

  5. PySpark——随机森林分类案例

    PySpark--随机森林分类案例 一.随机森林 随机森林案例 """ Random Forest Classifier Example. ""&qu ...

  6. 人工智能之随机森林算法项目实战

    文章目录 (1)随机森林算法介绍 随机性体现 (2)随机森林应用场景 (3) Spark随机森林训练和预测过程 训练 预测 分类 回归 (4) Spark随机森林模型参数详解 (5) Spark随机森 ...

  7. SPARK官方实例:两种方法实现随机森林模型(ML/MLlib)

    在spark2.0以上版本中,存在两种对机器学习算法的实现库MLlib与ML,比如随机森林: org.apache.spark.mllib.tree.RandomForest 和 org.apache ...

  8. Spark 和 Python.sklearn:使用随机森林计算 feature_importance 特征重要性

    前言 在使用GBDT.RF.Xgboost等树类模型建模时,往往可以通过feature_importance 来返回特征重要性,本文以随机森林为例介绍其原理与实现.[ 链接:机器学习的特征重要性究竟是 ...

  9. GPU上的随机森林:比Apache Spark快2000倍

    作者|Aaron Richter 编译|VK 来源|Towards Data Science 随机森林是一种机器学习算法,以其鲁棒性.准确性和可扩展性而受到许多数据科学家的信赖. 该算法通过boots ...

最新文章

  1. Python实现迭代器协议
  2. 讨论计算机在学术领域的应用,BGPLUS实地科研 | 卡内基梅隆大学 | 计算机、人工智能:在科学实验领域的应用...
  3. java中队列的类是什么意思_java中LinkedList集合类实现栈和队列要注意什么?
  4. 读书笔记1 : program paradigm
  5. Java中怎么样检查一个字符串是不是数字呢
  6. Oracle 中给表添加主键、外键
  7. linux中sudo命令_Linux中的Sudo命令
  8. A - 还是畅通工程(最小生成树)
  9. Git教程_2 所有操作讲解
  10. git revert与git reset
  11. sublime 添加 ConvertToUTF-8
  12. A69G-HDMI问题解决集锦
  13. cisco模拟器无线路由器
  14. 【SequoiaDB|巨杉数据库】巨杉数据库快速入门之快速使用2
  15. 使用NVM安装升级PNPM报错的问题
  16. python tkinter 自主小项目——计算器往事
  17. 代码执行sql出错:SQL syntax error, expected token is ‘RIGHT_PAREN‘, actual token is ‘IDENTIFIER‘
  18. R语言自学笔记:数据处理、数据分布及数据检验
  19. 如何使用 Docker Buildx Bake 创建复杂的镜像构建管道
  20. Spring MVC 如何实现RESTFull的 delete和put提交

热门文章

  1. Spring Boot——分布式
  2. 远程adb链接实现(外网链接ADB/异地链接ADB)
  3. 时间序列:Prophet
  4. Flash, Google, VP8, and the future of internet video
  5. 1022. 挖掘机技术哪家强
  6. Novavax向韩国提交生物制剂许可证申请;瑞科生物获得新冠疫苗《药品生产许可证》| 医药健闻...
  7. 2015062902 - 为何盗墓等会火呢?
  8. Android 双卡双待手机解析短信异常分析及解决
  9. 巨杉学认证培训全新升级啦!更灵活、更专业、更丰富!
  10. 巨杉数据库首批通过北京国家金融科技认证中心分布式数据库标准符合性验证测试