学习彭亮《深度学习基础介绍:机器学习》课程

最邻近规则分类(K-Nearest Nerghbor),KNN算法概念

是分类(classification)算法

步骤

  1. 为了判断未知实例的类别,以所有已知实例的类别作为参考
  2. 选取参数K,选取它最近的已知实例进行归类,已知实例选择K个,K值一般不会太大,一般:1,3,5,7这样的奇数(因为要少数服从多数的投票),看哪个精确度最高
  3. 计算未知实例与已知实例的距离
  4. 选择K个最近的距离,把所有距离都算出来取最小的三个,看他们属于哪一类
  5. 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别

细节

关于K值

关于距离的衡量方法

  • Euclidean Distance,即平面上两个点的距离(可推广到多维)
  • 余弦值(cos)
  • 相关度(correlation)
  • 曼哈顿距离(Manhattan distance)

实例计算


需要通过Euclidean Distance计算出G到A的距离,G到B的距离…G到F的距离,即G到每一个点的距离

# 定义计算距离的函数
def computeEuclideanDistance(x1,y1,x2,y2):d=math.sqrt(math.pow(x1-x2,2)+math.pow(y1-y2,2))return dd_ag=computeEuclideanDistance(3,104,18,90) #AG的距离
print("d_ag:",d_ag)
d_bg=computeEuclideanDistance(2,100,18,90) #BG的距离
print("d_bg:",d_bg)
d_cg=computeEuclideanDistance(1,81,18,90) #CG的距离
print("d_cg:",d_cg)
d_dg=computeEuclideanDistance(101,10,18,90) #DG的距离
print("d_dg:",d_dg)
d_eg=computeEuclideanDistance(99,5,18,90) #EG的距离
print("d_eg:",d_eg)
d_fg=computeEuclideanDistance(98,2,18,90) #FG的距离
print("d_fg:",d_fg)

可见与ABC三点的距离最近,所以G应该和ABC归为一类

算法优缺点

优点:

  • 简单
  • 易于理解
  • 通过对K的选择可具备丢噪音数据的健壮性

缺点:
- 需要大量存储空间存储已知实例,因为需要比较距离
- 算法复杂度高
- 当样本分布不平衡时,比如其中一类样本实例数量过大,性地 实例容易直接被归为这个主导样本,因为这类样本实例数量过大,但这个新的未知实例实际并未接近目标样本

改进版本

考虑距离,根据距离加权重,eg:1/d


算法应用

#coding=utf-8
# @Author: yangenneng
# @Time: 2018-01-10 14:53
# @Abstract:# 导入包: from 包 import 模块
from sklearn import neighbors
from sklearn import datasets# 调用KNN分类器
knn=neighbors.KNeighborsClassifier()
# 复制变量 load_iris()会返回一个数据库,在datasets的iris里
iris=datasets.load_iris()print iris
# 模型建立,装配数据,传入特征值150*4的矩阵,传如一维列向量
knn.fit(iris.data,iris.target)
#进行预测,根据 萼片长度、宽度 花片长度、宽度
predictedLable=knn.predict([[0.1,0.2,0.3,0.4]])print predictedLable

是一个大的字典:前半部分是key为taget_name, value为花的特征值;后半部分是key为target,value为目标,是一个一维列向量。
即:
前半部分是一个大的矩阵(150行*4列),包含了特征值,每一行四列(150行):
后半部分是分类,三种花的类型,转为整型:0 1 2

预测出属于第一类花:predictedLable=[0]


自己编程实现KNN算法,不调用KNN库

数据:

#coding=utf-8
# @Author: yangenneng
# @Time: 2018-01-10 15:17
# @Abstract:自己实现KNN算法import csv
import random
import math
import operator# 加载数据集
# 参数:
# filename    数据集.txt文件
# split       把一部分数据集作为训练数据集,用来训练产生模型;另一部分用来测试,看每一个实例预测与实际归类的比较,以split为分界线分为两部分
# trainingSet 数据集.txt分出来的训练数据集
# testSet     数据集.txt分出来的测试数据集
def loadDataSet(filename,split,trainingSet=[],testSet=[]):# 打开文件 装载为csvfile,即以逗号分隔with open(filename,'rb') as csvfile:# 读取所有行lines=csv.reader(csvfile)# 所有行转化为list形式dataset=list(lines)# 把数据集.txt文件分隔为两部分:如果此次产生的随机数小于split就加入训练集,否则加入测试集for x in range(len(dataset)-1):for y in range(4):dataset[x][y]=float(dataset[x][y])if random.random() < split:trainingSet.append(dataset[x])else:testSet.append(dataset[x])# 计算距离:Eulidean Distance(每个点可以多维度)
# 参数:
# instance1 实例1
# instance2 实例2
# length    实例维度
def eulideanDistance(instance1,instance2,length):distance=0# 每一维进行差运算for x in range(length):distance += pow((instance1[x]-instance2[x]),2)return math.sqrt(distance)# 返回最近的K个临近点
# 参数:
# trainningSet 训练数据集
# testInstance 测试数据集的一个实例
# k            返回K个最近的点
def getNeighbors(trainningSet,testInstance,k):# 装所有的距离distances=[]# 测试实例的维度length=len(testInstance)-1# 训练集中的每一个数到测试集的距离for x in range(len(trainningSet)):dist=eulideanDistance(testInstance,trainningSet[x],length)distances.append((trainningSet[x],dist))#  距离排序distances.sort(key=operator.itemgetter(1))# 取前k个距离neighbors=[]for x in range(k):neighbors.append(distances[x][0])return neighbors# 根据返回的临距根据少数服从多数的投票判定要预测的实例归为哪一类
# 参数:
# neighbors 测试集中最近的前k个距离
def getResponse(neighbors):classvotes={}# 看每一个邻距属于哪个分类for x in range(len(neighbors)):response=neighbors[x][-1];if response in classvotes:classvotes[response]+=1else:classvotes[response]=1# 把每一类投票个数从大到小排列sortVotes=sorted(classvotes.iteritems(),key=operator.itemgetter(1),reverse=True)# 返回第一个,即投票最多的类别return sortVotes[0][0]# 判断预测出的所有值与它实际的值比较准确率是多少
# 参数:
# testSet       测试数据集
# predictions   测试数据集预测出的分类
def getAccuracy(testSet,predictions):correct=0# 和实际的分类比较,看预测正确的有几个,即看精确率如何for x in range(len(testSet)):# [-1]指最后一列的值,Python的特殊语法# 判断预测与实际是否正确if testSet[x][-1]==predictions[x]:correct+=1# 计算精确率 预测对的/总的 *100.0%return (correct/float(len(testSet)))*100.0# 主函数
def main():# 两个空的训练集 测试集trainingSet=[]testSet=[]split=0.67  #取2/3的做训练集  取1/3做测试集# 加载数据 r表示后面的字符串不做特殊转化loadDataSet(r'D:\Python\PyCharm-WorkSpace\MachineLearningDemo\K-NearestNerghbor\data\irisdata.txt',split,trainingSet,testSet)print "trainingSet:"+repr(len(trainingSet))print "testSet:"+repr(len(testSet))# 存储预测来的类别得值predictions=[]k=3for x in range(len(testSet)):# 取最近3个邻距neighbors=getNeighbors(trainingSet , testSet[x] , k)# 归类得志result=getResponse(neighbors)# 加入归类predictions.append(result)print ('> predictions='+repr(result)+',actual='+repr(testSet[x][-1]))# 计算精确度accuracy = getAccuracy(testSet , predictions)print ('accuracy:'+repr(accuracy)+'%')main()

机器学习-临近取样(K-Nearest Nerghbor)KNN算法相关推荐

  1. Python3:《机器学习笔记与实战》之Knn算法(2)识别手写数字

    Python3:<机器学习笔记与实战>之Knn算法(2)识别手写数字 转载请注明作者和出处:https://blog.csdn.net/weixin_41858342/article/de ...

  2. 不同k值对KNN算法预测准确率的影响

    不同k值对KNN算法预测准确率的影响 本文通过KNN算法对鸢尾花分类案例,通过尝试集不同的k值来查看预测准确率和误差率的情况 from __future__ import print_function ...

  3. 类聚算法matlab,机器学习实战ByMatlab(一)KNN算法

    KNN 算法其实简单的说就是"物以类聚",也就是将新的没有被分类的点分类为周围的点中大多数属于的类.它采用测量不同特征值之间的距离方法进行分类,思想很简单:如果一个样本的特征空间中 ...

  4. 机器学习第二篇:详解KNN算法

    本篇介绍机器学习众多算法里面最基础也是最"懒惰"的算法--KNN(k-nearest neighbor).你知道为什么是最懒的吗? 01|算法简介: KNN是英文k-nearest ...

  5. (视频+图文)机器学习入门系列-第7章 KNN算法

    机器学习入门系列,黄海广老师主讲.本站将持续更新,ppt.代码.课后习题见文末. 本系列的目录 01.引言 02.回归 03.逻辑回归 04.朴素贝叶斯 05.机器学习实践 06.机器学习库Sciki ...

  6. 斯坦福CS231n项目实战(一):k最近邻(kNN)分类算法

    我的网站:红色石头的机器学习之路 我的CSDN:红色石头的专栏 我的知乎:红色石头 我的微博:RedstoneWill的微博 我的GitHub:RedstoneWill的GitHub 我的微信公众号: ...

  7. 介绍一下K近邻(KNN)算法,KNeighbors和RadiusNeighbors的差异是什么?各有什么优势?

    介绍一下K近邻(KNN)算法,KNeighbors和RadiusNeighbors的差异是什么?各有什么优势? K近邻(KNN)算法 近邻(Nearest Neighbor)算法既可以用于监督学习(分 ...

  8. Scikit-Learn机器学习(knn算法)

    前言 博观而约取,厚积而薄发 本文中回忆了python的类概念,机器学习需要用到的环境,以及什么是Scikit-Learn 目的是方便博主进行回忆 记忆学习 和总结 如果能帮助到大家 那就更好了 Py ...

  9. K近邻算法 模拟sklearn调用 自定义优化Knn算法模型 ---完整代码

    通过函数与欧拉距离公式实现Knn算法,再调用我们的py文件实现模拟 1.首先设置好欧拉距离公式计算个点之间距离的函数,收集它们的距离. import numpy as np import math f ...

最新文章

  1. Android TextView
  2. vue开发知识点总结
  3. Matlab学习笔记——find()函数
  4. BFS最短路打印路径
  5. QT之error: cannot bind non-const lvalue reference of type ‘CBaowen’ to an rvalue of type ‘CBaowen
  6. P1541-乌龟棋【多维dp】
  7. 【电脑帮助】解决Wind10系统照片中自带的保存的图片和本机照片的问题
  8. mariadb启动时报错Job for mariadb.service failed because the control process exited with error code....
  9. PSP记忆棒文件放置结构图
  10. javaEE学习笔记—————利用代理模式和过滤器增强对象功能完成敏感词汇过滤功能
  11. Java能和comsol连接吗_安装COMSOL时遇到与Java相关的错误
  12. 「数字电路系列」博文目录,学习总结
  13. Node.js七天搞定微信公众号(又名:Koa2实现电影微信公众号前后端开发)
  14. 强化学习实践四:编写通用的格子世界环境类
  15. 物联网毕业设计 单片机遥控小车
  16. SSH的 The authenticity of host xxx.xxx.xxx.xxx can't be established. 问题
  17. ZigBee组网机制以及数据的发送和接收
  18. C4996:#(The POSIX name for this item is deprecated. Instead, use the ISO C++ conformant name:)
  19. 西门子的统一通信解决之道
  20. 利用wangEditor富文本上传图片及文本并回显

热门文章

  1. 数据挖掘之利用Python画相关性矩阵图
  2. 树--树的轴对称翻转
  3. deepin-wine 微信“在文件夹中显示”菜单无效的问题
  4. 玛森:学python怎么样
  5. RSA和RSA2签名算法区别
  6. 牛客寒假算法基础集训营2:处女座的期末复习(贪心入门)
  7. Source Insight 4 使用 quicker.em
  8. 利用Python对百度今日热点事件排行榜关键词的爬取
  9. 又一个2B的O2O创新:帮商家留住熟客
  10. 工具及方法 - 如何在电视上截屏