朴素贝叶斯

贝叶斯公式: P(A|B) = P(A) * P(B|A) / P(B)

一个例子,现分别有 A、B 两个容器,在容器 A 里分别有 7 个红球和 3 个白球,

在容器 B 里有 1 个红球和 9 个白球,现已知从这两个容器里任意抽出了一个球,

且是红球,问这个红球是来自容器 A 的概率是多少?

假设已经抽出红球为事件 B,选中容器 A 为事件 A,则有:

P(B) = 8/20,P(A) = 1/2,P(B|A) = 7/10,

按照公式,则有:

P(A|B) = (7/10)*(1/2) / (8/20) = 0.875

例如:一座别墅在过去的 20 年里一共发生过 2 次被盗,别墅的主人有一条狗,狗平均每周晚上叫 3 次

,在盗贼入侵时狗叫的概率被估计为 0.9,问题是:在狗叫的时候发生入侵的概率是多少?

我们假设 A 事件为狗在晚上叫,B 为盗贼入侵,则以天为单位统计,

P(A) = 3/7,P(B) = 2/(20*365) = 2/7300,P(A|B) = 0.9,

按照公式很容易得出结果:

P(B|A) = 0.9*(2/7300) / (3/7) = 0.00058

优点:

  • 朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率;
  • 对小规模的数据表现很好;
  • 对缺失数据不太敏感,算法也比较简单,常用于文本分类

缺点:

  • 只能用于分类问题
  • 需要计算先验概率;

一、朴素贝叶斯原理

朴素贝叶斯算法是一个典型的统计学习方法,主要理论基础就是一个贝叶斯公式,贝叶斯公式的基本定义如下:

这个公式虽然看上去简单,但它却能总结历史,预知未来:

  • 公式的右边是总结历史
  • 公式的左边是预知未来

如果把Y看成类别,X看成特征,P(Yk|X)就是在已知特征X的情况下求Yk类别的概率,而对P(Yk|X)的计算又全部转化到类别Yk的特征分布上来。

举个例子,大学的时候,某男生经常去图书室晚自习,发现他喜欢的那个女生也常去那个自习室,心中窃喜,于是每天买点好吃的在那个自习室蹲点等她来,可是人家女生不一定每天都来,眼看天气渐渐炎热,图书馆又不开空调,如果那个女生没有去自修室,该男生也就不去,每次男生鼓足勇气说:“嘿,你明天还来不?”,“啊,不知道,看情况”。

然后该男生每天就把她去自习室与否以及一些其他情况做一下记录,用Y表示该女生是否去自习室,即Y={去,不去},X是跟去自修室有关联的一系列条件,比如当天上了哪门主课,蹲点统计了一段时间后,该男生打算今天不再蹲点,而是先预测一下她会不会去,现在已经知道了今天上了常微分方程(Y=去|常微分方程)与P(Y=不去|常微分方程),看哪个概率大,如果P(Y=去|常微分方程) >P(Y=不去|常微分方程),那这个男生不管多热都屁颠屁颠去自习室了,否则不就去自习室受罪了。P(Y=去|常微分方程)的计算可以转为计算以前她去的情况下,那天主课是常微分的概率P(常微分方程|Y=去),注意公式右边的分母对每个类别(去/不去)都是一样的,所以计算的时候忽略掉分母,这样虽然得到的概率值已经不再是0~1之间,但是通过比较大小还是能选择类别。

后来他发现还有一些其他条件可以挖,比如当天星期几、当天的天气,以及上一次与她在自修室的气氛,统计了一段时间后,该男子一计算,发现不好算了,因为总结历史的公式:

这里n=4,x(1)表示主课,x(2)表示天气,x(3)表示星期几,x(4)表示气氛,Y仍然是{去,不去},现在主课有8门,天气有晴、雨、阴三种、气氛有A+,A,B+,B,C五种,那么总共需要估计的参数有8×3×7×5×2=1680个,每天只能收集到一条数据,那么等凑齐1680条数据,大学都毕业了,男生大呼不妙,于是做了一个独立性假设,假设这些影响她去自习室的原因是独立互不相关的,于是:

有了这个独立假设后,需要估计的参数就变为,(8+3+7+5)×2 = 46个了,而且每天收集的一条数据,可以提供4个参数,这样该男生就预测越来越准了。

朴素的概念:独立性假设,假设各个特征之间是独立不相关的。 

import numpy as np
import pandas as pdfrom sklearn.datasets import load_irisdata,target = load_iris(return_X_y=True)
pd.DataFrame(data).head()

朴素贝叶斯分类器

讲了上面的小故事,我们来朴素贝叶斯分类器的表示形式:

当特征为为x时,计算所有类别的条件概率,选取条件概率最大的类别作为待分类的类别。由于上公式的分母对每个类别都是一样的,因此计算时可以不考虑分母,即

朴素贝叶斯的朴素体现在其对各个条件的独立性假设上,加上独立假设后,大大减少了参数假设空间。

在文本分类上的应用

文本分类的应用很多,比如垃圾邮件和垃圾短信的过滤就是一个2分类问题,新闻分类、文本情感分析等都可以看成是文本分类问题,分类问题由两步组成:训练和预测,要建立一个分类模型,至少需要有一个训练数据集。贝叶斯模型可以很自然地应用到文本分类上:现在有一篇文档d(Document),判断它属于哪个类别ck,只需要计算文档d属于哪一个类别的概率最大

在分类问题中,我们并不是把所有的特征都用上,对一篇文档d,我们只用其中的部分特征词项t1,t2,...,tnd(nd表示d中的总词条数目),因为很多词项对分类是没有价值的,比如一些停用词“的,是,在”在每个类别中都会出现,这个词项还会模糊分类的决策面,关于特征词的选取,我的这篇文章有介绍。用特征词项表示文档后,计算文档d的类别转化为:

注意P(Ck|d)只是正比于后面那部分公式,完整的计算还有一个分母,但我们前面讨论了,对每个类别而已分母都是一样的,于是在我们只需要计算分子就能够进行分类了。实际的计算过程中,多个概率值P(tj|ck)的连乘很容易下溢出为0,因此转化为对数计算,连乘就变成了累加:

我们只需要从训练数据集中,计算 每一个类别的出现概率P(ck) 和 **每一个类别中各个特征词项的概率P(tj|ck)**, 而这些概率值的计算都采用最大似然估计,

说到底就是统计每个词在各个类别中出现的次数和各个类别的文档的数目:

# 每一个类别的出现概率P(ck) 和 每一个类别中各个特征词项的概率P(tj|ck)# 每一个类别的出现概率P(ck)
#   Nck : 在训练集中,每个类别的数量
#   N; 类别的总数量# 每一个类别中各个特征词项的概率P(tj|ck)
#   Tjk : 每个特征词项数量
#   ETjk: 所有特征词项的总数

二、3种贝叶斯模型

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
%matplotlib inline# naive_bayes: 朴素贝叶斯
from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNB

1、高斯分布朴素贝叶斯

  • 高斯分布就是正态分布
  • 【用途】用于一般分类问题
  • 一般处理连续的特征值,会对每个特征都做高斯分布的假设

使用自带的鸢尾花数据

data,target = load_iris(return_X_y=True)target
'''
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2])
'''# 去两列数据,方便画图
data2 = data[:,2:].copy()

使用高斯分布贝叶斯模型

gs_nb = GaussianNB()
gs_nb.fit(data2,target)gs_nb.score(data2,target)
# 0.96

画边界图

def get_XY(data):x = np.linspace(data[:,0].min(),data[:,0].max(),1000)y = np.linspace(data[:,1].min(),data[:,1].max(),1000)X, Y = np.meshgrid(x,y)XY = np.c_[X.ravel(),Y.ravel()]return X,Y,XYX,Y,XY = get_XY(data2)# 预测
y_pred = gs_nb.predict(XY)plt.pcolormesh(X,Y,y_pred.reshape(1000,1000))plt.scatter(data2[:,0],data2[:,1],c=target,cmap='rainbow')

2、多项式分布朴素贝叶斯

  • 【用途】适用于文本数据(特征表示的是次数,例如某个词语的出现次数)
  • 当特征值是离散时,可以使用多项式分布

例:延续上面,使用鸢尾花数据

mu_nb = MultinomialNB()
mu_nb.fit(data2,target)mu_nb.score(data2,target)
# 0.7933333333333333# 预测
y_pred = mu_nb.predict(XY)plt.pcolormesh(X,Y,y_pred.reshape(1000,1000))plt.scatter(data2[:,0],data2[:,1],c=target,cmap='rainbow')

3、伯努利分布朴素贝叶斯

  • 当特征值是离散时,可以使用多项式分布
  • 【用途】适用于伯努利分布,也适用于文本数据(此时特征表示的是是否出现,例如某个词语的出现为1,不出现为0)
  • 绝大多数情况下表现不如多项式分布,但有的时候伯努利分布表现得要比多项式分布要好,尤其是对于小数量级的文本数据
  • 和多项式分布差不多的,主要区别是伯努利是二分类
  • 主要处理离散型数据。

例:继续使用鸢尾花数据集

be_nb = BernoulliNB()
be_nb.fit(data2,target)be_nb.score(data2,target)
# 0.3333333333333333y_pred = be_nb.predict(XY)plt.pcolormesh(X,Y,y_pred.reshape(1000,1000))plt.scatter(data2[:,0],data2[:,1],c=target,cmap='rainbow')

三、文本分类实战

对短信进行二分类,数据为SMSSpamCollection

# 判断短信是否为垃圾短信
# ham:正常短信
# spam:垃圾短信sms = pd.read_table('../data/SMSSpamCollection',header=None)
sms.head()

sms.shape
# (5572, 2)# target
target = sms[0].copy()target.unique()
# array(['ham', 'spam'], dtype=object)# data
data = sms[1].copy()
data[0]
# 'Go until jurong point, crazy.. Available only in bugis n great world la e buffet... Cine there got amore wat...'

提取特征

导入 sklearn.feature_extraction.text.TfidfVectorizer 用于转换字符串

# feature_extraction :特征提取
# TfidfVectorizer : 特征词向量化
from sklearn.feature_extraction.text import TfidfVectorizertf = TfidfVectorizer()
tf.fit(data)

tf.fit(data) :训练

tf.transform(data)

  • 参数必须是字符串的一维数组(比如列表或者Series)
  • 返回的是一个稀疏矩阵类型的对象,行数为样本数,列数为所有出现的单词统计个数。

toarray()

  • 得到数组
# transform : 转换  稀疏矩阵  sparse matrix
# tf.transform(data)
'''
<5572x8713 sparse matrix of type '<class 'numpy.float64'>'with 74169 stored elements in Compressed Sparse Row format>
'''tf_data = tf.transform(data).toarray()
tf_data
'''
array([[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.],...,[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.]])
'''tf_data.sum()
# 18225.670694974182tf_data.shape
# (5572, 8713)

高斯分布贝叶斯

gs_nb = GaussianNB()
gs_nb.fit(tf_data,target)gs_nb.score(tf_data,target)
# 0.9414931801866475

多项式分布贝叶斯

mu_nb = MultinomialNB()
mu_nb.fit(tf_data,target)mu_nb.score(tf_data,target)
# 0.9761306532663316

伯努利分布贝叶斯

be_nb = BernoulliNB()
be_nb.fit(tf_data,target)be_nb.score(tf_data,target)
# 0.9881550610193827

预测数据,使用tf.transform(['xx'])进行转换生成测试数据

# 提供几条短信
msg = ["hello world how are you","Free lunch, pleace call 08002986030 £5 9am-11pm as a £1000 or £5000 prize","qianfeng encoding utf8","Please call our on  0808 145 4742  9am-11pm as a £1000 or £5000 prize!"
]# 不能重新训练
# tf2 = TfidfVectorizer()
# tf2.fit(msg)
# tf2.transform(msg)
'''
<4x26 sparse matrix of type '<class 'numpy.float64'>'with 34 stored elements in Compressed Sparse Row format>
'''# 要使用之前训练好的 tf 对象
tf_data2 = tf.transform(msg).toarray()
tf_data2
'''
array([[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.],[0., 0., 0., ..., 0., 0., 0.]])
'''# 高斯分布贝叶斯
gs_nb.predict(tf_data2)
# array(['spam', 'spam', 'spam', 'spam'], dtype='<U4')# 多项式分布贝叶斯,比较适用于文本分类
mu_nb.predict(tf_data2)
# array(['ham', 'spam', 'ham', 'spam'], dtype='<U4')# 伯努利分布贝叶斯,比较适用于文本分类,特别是二分类
be_nb.predict(tf_data2)
# array(['ham', 'spam', 'ham', 'spam'], dtype='<U4')

机器学习 —— 朴素贝叶斯相关推荐

  1. 秒懂机器学习---朴素贝叶斯

    秒懂机器学习---朴素贝叶斯 一.总结 一句话总结: 尽管朴素贝叶斯的条件独立性假设存在一定的问题,但是朴素贝叶斯算法仍然能取得比较理想的分类预测结果. 1.朴素贝叶斯分类算法 和 KNN分类算法和决 ...

  2. 机器学习朴素贝叶斯算法+tkinter库界面实现好瓜坏西瓜分类

    机器学习朴素贝叶斯算法+tkinter库界面实现好瓜坏西瓜分类 一.界面实现 from tkinter import * from tkinter import ttk import NBdef ma ...

  3. 机器学习朴素贝叶斯算法_机器学习中的朴素贝叶斯算法

    机器学习朴素贝叶斯算法 朴素贝叶斯算法 (Naive Bayes Algorithm) Naive Bayes is basically used for text learning. Using t ...

  4. python机器学习-朴素贝叶斯(Naive Bayes)模型建立及评估(完整代码+实现效果)

    实现功能: python机器学习-朴素贝叶斯(Naive Bayes)模型建立及评估. 实现代码: # 导入需要的库 from warnings import simplefilter simplef ...

  5. 机器学习 | 朴素贝叶斯法知识总结

    机器学习 | 朴素贝叶斯法理论知识 贝叶斯决策论是概率框架下实施决策的基本方法.对分类任务来说,在所有相关概率都已知的理想情况下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记.朴素贝 ...

  6. 机器学习朴素贝叶斯_机器学习基础朴素贝叶斯分类

    机器学习朴素贝叶斯 In the previous stories, I had given an explanation of the program for implementation of v ...

  7. 机器学习---朴素贝叶斯模型

    机器学习-朴素贝叶斯模型 1.通俗解释: 朴素贝叶斯模型的基本思路就是利用贝叶斯的后验概率公式来推算当前属性下的数据样本属于哪一个类别.直白一点说,就是在特征属性为当前取值的条件下,该样本归属于那个类 ...

  8. 机器学习-朴素贝叶斯(基础讲解+代码实现+图像展示)

    朴素贝叶斯 定理: 某晚,C准备收拾东西接女朋友,那么小C要不要带伞呢. 已知:天气预报说今日降水概率为50%–P(A) 晚高峰堵车的概率为80%–P(B) 如果下雨,晚高峰堵车的概率是95%–P(B ...

  9. 5 机器学习 朴素贝叶斯算法 高斯模型 多项式模型 伯努利模型 拉普拉普平滑系数 TfidfVectorizer

    机器学习 1 朴素贝叶斯算法 1.1 朴素贝叶斯算法介绍 朴素贝叶斯算法是一种衡量标签和特征之间概率关系的监督学习算法,是一种专注于分类的算法."朴素"二字表示这个算法基于一个朴素 ...

  10. 机器学习-朴素贝叶斯。

    前言: 朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法.朴素贝叶斯原理简单,也很容易实现,多用于文本分类,比如垃圾邮件过滤. 1.算法思想--基于概率的预测 决策树算法中提到朴 ...

最新文章

  1. app测试流程和重点_APP开发测试流程是怎么样的?
  2. 作为Leader如何与团队成员更好地沟通?
  3. vs 命令行参数调试
  4. VM pow 函数 :undefined reference to `pow'
  5. git 常用的撤销操作
  6. 从 vue3 和 vite 源码中,我学到了一行代码统一规范团队包管理器的神器
  7. kafka logstash elk
  8. 资源征集 | 2021年全国知识图谱与语义计算大会开放资源征集(Resource Track)通知...
  9. mysql主主互备架构
  10. (数据库系统概论|王珊)第九章关系查询处理和关系优化-第二节:查询优化
  11. 求解集合A与B的差集
  12. 途牛 “特产频道”上线 深化目的地服务网络
  13. tf卡量产工具万能版_手上还有SD卡/TF卡的小伙伴,这些玩法你有关注过吗
  14. 第十三章 大型网站典型故障分析案例(待续)
  15. ChipScope用法总结
  16. fgo梅林服务器维护,FGO针对开挂用户处理公告 封禁账号并回复异常数据
  17. QLabel显示QImage时报错
  18. 笔记本开机速度怎么计算机,笔记本开机加速的步骤_如何给笔记本电脑开机提速-win7之家...
  19. 十大在线编程学习网站
  20. API拦截方法一:PE简介

热门文章

  1. C# 报错“输入的不是有效的 Base-64 字符串,因为它包含非 Base-64 字符、两个以上的填充字符,或者填充字符间包含非法字符”
  2. 中国网络光缆出口分布图
  3. 【ES知识】es版本与java api版本对照一览
  4. 修改 ifix 历史配置 服务器名,IFIX5.1环境下的IFIX服务器、客户端配置
  5. linux内核中input子系统框图
  6. 某奇门遁甲的相关分析
  7. 含泪整理最优质情侣免抠元素素材,你想要的这里都有
  8. 硕士论文查重系统应该如何选择?
  9. 2021年Android程序员职业规划!系列篇
  10. css3网站代码 html5_网站布局、排版优秀的HTML5+CSS3网页设计