朴素贝叶斯分类器,完成正面、负面文本分类任务

文章目录

  • 朴素贝叶斯分类器,完成正面、负面文本分类任务
    • 一、环境准备
    • 二、朴素贝叶斯必备基础知识
      • (一).什么是朴素贝叶斯
      • (二). 概率论基础
        • 基础贝叶斯公式 (核心⭐⭐⭐⭐⭐必会)
        • 条件概率
        • 联合概率
        • 贝叶斯公式
        • 先验概率
        • 后验概率
        • 全概率公式
      • (三).朴素贝叶斯算法原理
      • (四).拉普拉斯平滑
        • Laplacian smoothing 公式
      • (五).朴素贝叶斯分类优缺点
    • 三、代码复现(基于Python)
      • 1.纯手写实现
      • 2. 调用 python第三方库

一、环境准备

  1. Python 3.9.13

  2. 安装必要的第三方库

pip install sklearn numpy
  1. 编辑器自己选择,VsCode、Pycharm或者Jupyter notebook都行,由于我们的文本比较简单,所以对算力要求不高。

二、朴素贝叶斯必备基础知识

(一).什么是朴素贝叶斯

  • 贝叶斯方法是以贝叶斯原理为基础,使用概率统计的知识对样本数据集进行分类。

  • 朴素贝叶斯模型(Naive Bayesian Model,NBM)是在贝叶斯算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。

(二). 概率论基础

基础贝叶斯公式 (核心⭐⭐⭐⭐⭐必会)

  • P(A) 这是概率中最基本的符号,表示 A 出现的概率。比如在投掷骰子时,P(2) 指的是骰子出现数字“2”的概率,这个概率是 六分之一。
  • P(B|A) 是条件概率的符号,表示事件 A 发生的条件下,事件 B 发生的概率,条件概率是“贝叶斯公式”的关键所在,它也被称为“似然度”。
  • P(A|B) 是条件概率的符号,表示事件 B 发生的条件下,事件 A 发生的概率,这个计算结果也被称为“后验概率”。
条件概率

条件概率是指事件A在事件B发生的条件下发生的概率。条件概率表示为:P(A|B),读作“A在B发生的条件下发生的概率”。

联合概率

表示两个事件共同发生的概率AB的联合概率表示为 P(AB) 或者P(A,B),或者P(A∩B)。

贝叶斯公式

设B1,B2,…Bn…是一完备事件组,则对任一事件A,P(A)>0,有

性质如下: 统计独立性互斥性

  • 当且仅当两个随机事件AB满足 P(A∩B)=P(A)P(B)的时候,它们是统计独立的,这样联合概率可以表示为各自概率的简单乘积。

    同样,对于两个独立事件AB有 P(A|B)=P(A) 以及 P(B|A)=P(B)

    换句话说,如果AB是相互独立的,那么AB这个前提下的条件概率就是A自身的概率;同样,BA的前提下的条件概率就是B自身的概率。

  • 当且仅当 AB满足 P(A∩B)=0 且P(A)≠0,P(B)≠0 的时候,A与* B是互斥的。因此,

    P(A|B)=0 P(B|A)=0

    换句话说,如果B已经发生,由于A不能和B在同一场合下发生,那么A发生的概率为零;同样,如果A已经发生,那么B发生的概率为零。

先验概率

在贝叶斯统计推断中,不确定数量的先验概率分布是在考虑一些因素之前表达对这一数量的置信程度的概率分布。

(在贝叶斯看来,世界并非静止不动的,而是动态和相对的,他希望利用已知经验来进行判断,那么如何用经验进行判断呢?这里就必须要提到“先验”和“后验”这两个词语。我们先讲解“先验”,其实“先验”就相当于“未卜先知”,在事情即将发生之前,做一个概率预判。比如从远处驶来了一辆车,是轿车的概率是 45%,是货车的概率是 35%,是大客车的概率是 20%,在你没有看清之前基本靠猜,此时,我们把这个概率就叫做“先验概率”。)

后验概率

后验概率是信息理论的基本概念之一。在一个通信系统中,在收到某个消息之后,接收端所了解到的该消息发送的概率称为后验概率。后验概率的计算要以先验概率为基础。后验概率可以根据通过贝叶斯公式,用先验概率和似然函数计算出来

(我们知道每一个事物都有自己的特征,比如前面所说的轿车、货车、客车,它们都有着各自不同的特征,距离过远的时候,我们无法用肉眼分辨,而当距离达到一定范围内就可以根据各自的特征再次做出概率预判,这就是后验概率。比如轿车的速度相比于另外两者更快可以记做 P(轿车|速度快) = 55%,而客车体型可能更大,可以记做 P(客车|体型大) = 35%。)

全概率公式

(三).朴素贝叶斯算法原理

公式推导如下

(四).拉普拉斯平滑

拉普拉斯平滑(Laplacian smoothing) 是为了解决零概率的问题。

零概率问题:在计算事件的概率时,如果某个事件在观察样本库(训练集)中没有出现过,会导致该事件的概率结果是0。这是不合理的,不能因为一个事件没有观察到,就被认为该事件一定不可能发生(即该事件的概率为0)。

Laplacian smoothing 公式

  • 核心: 分子加一,分母加K,K代表类别数目

(五).朴素贝叶斯分类优缺点

  • 优点

    在数据较少的情况下仍然有效,可以处理多类别问题

  • 缺点

    对于输入数据的准备方式较为敏感。

三、代码复现(基于Python)

1.纯手写实现

1.1 定义函数loadDataSet,实现数据集的生成

def loadDataSet():"""实现数据集的生成:return: 进行词条切分后的文档集合(训练集)postingList,postingList,类别标签的集合classVec(训练标签)"""# 生成训练集:postingList = [['my', 'dog', 'has', 'flea', 'problems', 'stupid', 'please'],['maybe', 'not', 'take', 'him', 'to', 'bad', 'dog', 'park'],['like', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],['stop', 'posting', 'bad', 'worthless', 'garbage'],['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],['quit', 'stupid', 'worthless', 'rubbish', 'dog', 'food', 'awfully']]# 生成训练标签classVec = [0, 1, 0, 1, 0, 1]  # 1 is abusive, 0 notreturn postingList, classVec

1.2 定义函数createVocabList。创建词汇表

def createVocabList(dataSet):""" 创建词汇表读取数据集中的每一句话,建立词汇表,要求存储整个数据集中的所有单词,且不能重复:param dataSet: 数据集:return: 词汇表list(vocabSet)"""# 建立一个空列表vocabSet = set([])for document in dataSet:# 合并两个集合vocabSet = vocabSet | set(document)return list(vocabSet)

1.3 定义函数setOfWords2Vec,建立词袋模型

def setOfWords2Vec(vocabList, inputSet):"""创建一个和词汇表等长的向量建立词袋模型,词袋模型将长度不定的句子转化为维度确定的特征向量,在词袋模型中,每个句子是一个样本,该样本的属性数量等于词汇表中的单词总数,每个属性的含义是:词汇表中对应位置的词在本句话中是否存在,存在为1,不存在为0。:param vocabList: 词汇表:param inputSet: 单个样本(句子):return: 样本的特征向量"""returnVec = [0] * len(vocabList)for word in inputSet:if word in vocabList:  # 词汇表中对应位置的词在本句话中存在则为1returnVec[vocabList.index(word)] = 1else:print("the word: %s is not in my Vocabulary!" % word)return returnVec

1.4 定义函数trainNB0,实现朴素贝叶斯算法训练

def trainNB0(trainMatrix, trainCategory):"""进行训练, 这里就是计算:条件概率 和 先验概率注:由于已知样本只有二类,因此可以只计算1类的先验概率,由于已知属性是二值化的,因此可以只计算属性值取1的类条件概率。:param trainMatrix: 训练属性集:param trainCategory: 训练标签集:return: 0类样本类条件概率p0Vect, 1类样本类条件概率p1Vect, 1类样本类条件概率pAbusive"""# 计算总的样本数量,训练集trainMatrix的最外层数组长度numTrainDocs = len(trainMatrix)# 计算样本向量化后的长度, 这里等于词典长度。也就是训练集trainMatrix的第二层数组长度numWords = len(trainMatrix[0])# 计算1类的先验概率,就是trainCategory中1类样本的数量 / 样本总数numTrainDocs(1类样本的标签就是1本身,此处要进行拉普拉斯平滑)pAbusive = sum(trainCategory) / float(numTrainDocs)# 进行初始化,用于向量化后的样本累加(初始化1不是全0,防止概率值为0).p0Num = np.ones(numWords)  # 属性值0出现的次数p1Num = np.ones(numWords)  # 属性值1出现的次数# 初始化求条件概率的分母为2, 防止出现0,无法计算的情况。p0Denom = 2.0p1Denom = 2.0  # change to 2.0# 遍历所有向量化后的样本, 并且每个向量化后的长度相等, 等于词典长度。for i in range(numTrainDocs):# 统计标签为1的样本: 向量化后的样本的累加, 样本中1总数的求和, 最后相除取log就是条件概率。if trainCategory[i] == 1:p1Num += trainMatrix[i]p1Denom += sum(trainMatrix[i])# 统计标签为0的样本: 向量化后的样本累加, 样本中1总数的求和, 最后相除取log就是条件概率。else:p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])# 求条件概率。改为 log() 防止出现0p1Vect = np.log(p1Num / p1Denom)  # 属性值0出现的概率p0Vect = np.log(p0Num / p0Denom)  # 属性值1出现的概率# 返回条件概率 和 先验概率return p0Vect, p1Vect, pAbusive

1.5 定义函数classifyNB,利用朴素贝叶斯算法进行预测

def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):""" 利用朴素贝叶斯算法进行预测,通过条件概率 和 先验概率对新的样本进行向量化后分类。哪个类别的概率大,则属于哪个类别:param vec2Classify:特征向量化的样本:param p0Vec:0类属性取1的后验概率:param p1Vec:1类属性取1的类条件概率:param pClass1:1类先验概率:return:预测结果 0 or 1"""# 向量化后的样本 分别 与 各类别的条件概率相乘 加上先验概率取log,之后进行大小比较, 输出类别。p1 = sum(vec2Classify * p1Vec) + np.log(pClass1)  #p0 = sum(vec2Classify * p0Vec) + np.log(1.0 - pClass1)# 若第1类的后验概率p1>若第0类的后验概率p0,则返回1,否则返回0if p1 > p0:return 1else:return 0

1.6 执行训练与测试(顶层代码)

def run_NB():"""测试程序,对训练两条测试文本进行分类:return: None"""# 调用loadDataSet函数生成训练样本listOPosts和标签listClasseslistOPosts, listClasses = loadDataSet()# 调用createVocabList函数生成词汇表myVocabList,创建词典myVocabList = createVocabList(listOPosts)# 用于保存样本转向量之后的数据trainMat = []# 遍历每一个样本,转向量后,保存到列表中。for postinDoc in listOPosts:# 利用setOfWords2Vec函数,将原始训练样本listOPosts逐句转化成特征向量化的样本,存储在列表trainMat中trainMat.append(setOfWords2Vec(myVocabList, postinDoc))# 计算 条件概率 和 先验概率,调用trainNB0函数进行训练,将返回值赋值给p0V,p1V,pAbp0V, p1V, pAb = trainNB0(np.array(trainMat), np.array(listClasses))testEntry = ['love', 'my', 'dalmation']  # 生成测试样本thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))  # 利用setOfWords2Vec函数,将原始测试样本转化为特征向量化的样本,存储在thisDoc中if classifyNB(thisDoc, p0V, p1V, pAb):  # 利用classifyNB进行测试,输出结果。print(testEntry, '属于负面类')else:print(testEntry, '属于正面类')testEntry = ['bad', 'garbage']  # 生成测试样本thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))  # 利用setOfWords2Vec函数,将原始测试样本转化为特征向量化的样本,存储在thisDoc中if classifyNB(thisDoc, p0V, p1V, pAb):  # 利用classifyNB进行测试,输出结果。print(testEntry, '属于负面类')else:print(testEntry, '属于正面类')if __name__ == '__main__':run_NB()  # 运行程序

运行结果

2. 调用 python第三方库

def loadDataSet():"""实现数据集的生成:return: 训练集postingList,训练标签classVec"""# 生成训练集:postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],['maybe', 'not', 'take', 'him', 'to', 'bad', 'dog', 'park'],['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],['stop', 'posting', 'bad', 'worthless', 'garbage'],['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],['quit', 'buying', 'worthless', 'bad', 'dog', 'food']]# 生成训练标签:其中0为正面情感,1为负面情感。classVec = [0, 1, 0, 1, 0, 1]return postingList, classVecdef createVocabList(dataSet):"""创建词汇表读取数据集中的每一句话,建立词汇表,要求存储整个数据集中的所有单词,且不能重复。:param dataSet:数据集:return: 词汇表list(vocabSet)"""vocabSet = set([])for document in dataSet:vocabSet = vocabSet | set(document)return list(vocabSet)def setOfWords2Vec(vocabList, inputSet):"""建立词袋模型词袋模型将长度不定的句子转化为维度确定的特征向量,在词袋模型中,每个句子是一个样本,该样本的属性数量等于词汇表中的单词总数.每个属性的含义是:词汇表中对应位置的词在本句话中是否存在,存在为1,不存在为0。:param vocabList: 词汇表:param inputSet: 单个样本(句子):return: 样本的特征向量returnVec"""returnVec = [0] * len(vocabList)for word in inputSet:if word in vocabList:returnVec[vocabList.index(word)] = 1else:print("the word: %s is not in my Vocabulary!" % word)return returnVecdef run_test():"""执行训练与测试(顶层代码):return: None"""# 调用loadDataSet函数读取样本与标签listOPosts,listClasseslistOPosts, listClasses = loadDataSet()# 调用createVocabList函数生成词汇表myVocabListmyVocabList = createVocabList(listOPosts)trainMat = []for postinDoc in listOPosts:# 利用setOfWords2Vec函数,将原始训练样本listOPosts逐句转化成特征向量化的样本,存储在列表trainMat中trainMat.append(setOfWords2Vec(myVocabList, postinDoc))# 将BernoulliNB模型实例化,设置参数binarize=None(已经进行过二值化处理),prior=False(考虑先验概率)NB = BernoulliNB(binarize=None, fit_prior=False)# 利用BernoulliNB模型的.fit方法进行训练NB.fit(trainMat, listClasses)# 生成测试样本testEntry = ['love', 'my', 'dalmation']thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))# 利用BernoulliNB模型的.predict方法进行测试,输出结果。注意.predict接收的是由全部变量构成的集合。if NB.predict([thisDoc])[0] == 1:print(testEntry, '属于负面类')else:print(testEntry, '属于正面类')testEntry = ['bad', 'garbage']thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))if NB.predict([thisDoc])[0] == 1:print(testEntry, '属于负面类')else:print(testEntry, '属于正面类')if __name__ == '__main__':# 引入必要的模块import numpy as npfrom sklearn.naive_bayes import BernoulliNB# 调用顶层函数执行输出测试结果run_test()

运行结果:

  1. 自己动手

    1. 更改训练集为下
    postingList = [['my', 'dog', 'has', 'flea', 'problems', 'stupid', 'please'],['maybe', 'not', 'take', 'him', 'to', 'bad', 'dog', 'park'],['like', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],['stop', 'posting', 'bad', 'worthless', 'garbage'],['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],['quit', 'stupid', 'worthless', 'rubbish', 'dog', 'food','awfully']]
    
    1. 更改测试样本并测试


全文完!

朴素贝叶斯分类器实现正面负面文本分类相关推荐

  1. 朴素贝叶斯分类-实战篇-如何进行文本分类

    微信公众号:码农充电站pro 个人主页:https://codeshellme.github.io 文章目录 1,对文档分词 2,计算单词权重 2.1,单词的 TF-IDF 值 2.2,TfidfVe ...

  2. python朴素贝叶斯分类器实现_用scikit-learn实现朴素贝叶斯分类器

    朴素贝叶斯(Naive Bayes Classifier)是一种「天真」的算法(假定所有特征发生概率是独立的),同时也是一种简单有效的常用分类算法.关于它的原理,参见朴素贝叶斯分类器的应用. scik ...

  3. 伯努利分布+朴素贝叶斯分类器の概率解释

    「伯努利分布+朴素贝叶斯」分类器 在神经网络技术还不成熟的时候,朴素贝叶斯分类器(NBC)是文档分类的利器.即便是在神经网络满地走的今天,朴素贝叶斯模型依然有很大的价值.进行文档分类时,这个模型只需要 ...

  4. c语言贝叶斯分类,基于朴素贝叶斯分类器的文本分类算法(C语言)

    基于朴素贝叶斯分类器的文本分类算法(C语言) 基于朴素贝叶斯分类器的文本分类算法(C语言).txt两个人吵架,先说对不起的人,并不是认输了,并不是原谅了.他只是比对方更珍惜这份感情.#include ...

  5. 朴素贝叶斯分类器 文本分类_构建灾难响应的文本分类器

    朴素贝叶斯分类器 文本分类 背景 (Background) Following a disaster, typically you will get millions and millions of ...

  6. 机器学习 —— 基础整理(二)朴素贝叶斯分类器;文本分类的方法杂谈

          上一篇博客复习了贝叶斯决策论,以及生成式模型的参数方法.本篇就给出一个具体的例子:朴素贝叶斯分类器应用于文本分类.后面简单谈了一下文本分类的方法. (五)朴素贝叶斯分类器(NaïveBay ...

  7. 文本分类(TFIDF/朴素贝叶斯分类器/TextRNN/TextCNN/TextRCNN/FastText/HAN)

    目录 简介 TFIDF 朴素贝叶斯分类器 贝叶斯公式 贝叶斯决策论的理解 极大似然估计 朴素贝叶斯分类器 TextRNN TextCNN TextRCNN FastText HAN Highway N ...

  8. 基于朴素贝叶斯分类器的西瓜数据集 2.0 预测分类_第十章:利用Python实现朴素贝叶斯模型

    免责声明:本文是通过网络收集并结合自身学习等途径合法获取,仅作为学习交流使用,其版权归出版社或者原创作者所有,并不对涉及的版权问题负责.若原创作者或者出版社认为侵权,请联系及时联系,我将立即删除文章, ...

  9. 朴素贝叶斯分类器简介及C++实现(性别分类)

    贝叶斯分类器是一种基于贝叶斯定理的简单概率分类器. 在机器学习中,朴素贝叶斯分类器是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单概率分类器.朴素贝叶斯是文本分类的一种热门(基准)方法 ...

最新文章

  1. 也谈贝叶斯分类(C#)版本
  2. ABAP日期操作函数
  3. CMMI for Development读书笔记-目录
  4. OpenGL GLFX开放GL效果库
  5. C++利用二次探查实现存储机制hash table的算法(附完整源码)
  6. 机器学习在销售报价单的产品推荐场景中的作用
  7. java通用编码规范考试_《java编码规范考试题答案》.doc
  8. UI设计中颜色的前进色与后退色
  9. 怎样用html制作动态心,利用html+css3制作心的跳动动画
  10. 攀爬者(洛谷P5143题题解,Java语言描述)
  11. linux内核那些事之物理内存模型之DISCONTIGMEM(2)
  12. 不能调试的问题的解决
  13. 厂商占用mac地址段多少排名
  14. 3D Segmentation with Exponential LogarithmicLoss for Highly Unbalanced Object Sizes-MICCAI2018【论文理解】
  15. 智慧小区云平台解决方案
  16. 有什么方法可以将WMV格式转换成MP4格式
  17. excel如何全部取消隐藏_全部隐藏!
  18. Docker修改无法启动的容器的配置文件
  19. 大师系列彼•奇层查股
  20. 网易考拉涉假疑案最新进展:雅诗兰黛中国承认没有鉴定真假的仪器

热门文章

  1. python代码调用笔记本摄像头
  2. 如何合并多张GIF动图?教你一招多张GIF在线合成的方法
  3. IT行业都是吃青春饭的吗?
  4. 清空前后空字符串批量操作_全国中小学生学籍信息管理系统 操作手册025
  5. 《自动驾驶技术系列丛书》--第三章 自动驾驶汽车环境感知(5)
  6. 【OSGI】3.实战OSGI-翻译助手项目01
  7. 计算机软件申请专利的认定难点在哪里,计算机软件可专利性问题研究
  8. [转]诺基亚1.53亿美元收购Trolltech
  9. dct变换的主要优点有哪些_【WIX维克斯】CVT打滑/DCT顿挫? 变速箱新知识来了
  10. 基于easyTrader部署自动化交易(二)