前不久看《数学之美》了解到马尔可夫链(概率只和之前某时刻有关:疾病遗传分析) 和叶贝斯网络(某件事情的概率取决于多个事情的概率),今天再次看到叶贝斯算法竟然懵圈了,着实是(ー㉨ー|||)汗,前不久才和研究生老乡周泊龙一起探讨呢:

隔了很久没有写数据挖掘系列的文章了,今天介绍一下朴素贝叶斯分类算法,讲一下基本原理,再以文本分类实践。

一个简单的例子

朴素贝叶斯算法是一个典型的统计学习方法,主要理论基础就是一个贝叶斯公式,贝叶斯公式的基本定义如下:

这个公式虽然看上去简单,但它却能总结历史,预知未来。公式的右边是总结历史,公式的左边是预知未来,如果把Y看出类别,X看出特征,P(Yk|X)就是在已知特征X的情况下求Yk类别的概率,而对P(Yk|X)的计算又全部转化到类别Yk的特征分布上来。

举个例子,大学的时候,某男生经常去图书室晚自习,发现他喜欢的那个女生也常去那个自习室,心中窃喜,于是每天买点好吃点在那个自习室蹲点等她来,可是人家女生不一定每天都来,眼看天气渐渐炎热,图书馆又不开空调,如果那个女生没有去自修室,该男生也就不去,每次男生鼓足勇气说:“嘿,你明天还来不?”,“啊,不知道,看情况”。然后该男生每天就把她去自习室与否以及一些其他情况做一下记录,用Y表示该女生是否去自习室,即Y={去,不去},X是跟去自修室有关联的一系列条件,比如当天上了哪门主课,蹲点统计了一段时间后,该男生打算今天不再蹲点,而是先预测一下她会不会去,现在已经知道了今天上了常微分方法这么主课,于是计算P(Y=去|常微分方程)与P(Y=不去|常微分方程),看哪个概率大,如果P(Y=去|常微分方程) >P(Y=不去|常微分方程),那这个男生不管多热都屁颠屁颠去自习室了,否则不就去自习室受罪了。P(Y=去|常微分方程)的计算可以转为计算以前她去的情况下,那天主课是常微分的概率P(常微分方程|Y=去),注意公式右边的分母对每个类别(去/不去)都是一样的,所以计算的时候忽略掉分母,这样虽然得到的概率值已经不再是0~1之间,但是其大小还是能选择类别。

后来他发现还有一些其他条件可以挖,比如当天星期几、当天的天气,以及上一次与她在自修室的气氛,统计了一段时间后,该男子一计算,发现不好算了,因为总结历史的公式:

这里n=3,x(1)表示主课,x(2)表示天气,x(3)表示星期几,x(4)表示气氛,Y仍然是{去,不去},现在主课有8门,天气有晴、雨、阴三种、气氛有A+,A,B+,B,C五种,那么总共需要估计的参数有8*3*7*5*2=1680个,每天只能收集到一条数据,那么等凑齐1680条数据大学都毕业了,男生打呼不妙,于是做了一个独立性假设,假设这些影响她去自习室的原因是独立互不相关的,于是

有了这个独立假设后,需要估计的参数就变为,(8+3+7+5)*2 = 46个了,而且每天收集的一条数据,可以提供4个参数,这样该男生就预测越来越准了。

朴素贝叶斯分类器

讲了上面的小故事,我们来朴素贝叶斯分类器的表示形式:

当特征为为x时,计算所有类别的条件概率,选取条件概率最大的类别作为待分类的类别。由于上公式的分母对每个类别都是一样的,因此计算时可以不考虑分母,即

朴素贝叶斯的朴素体现在其对各个条件的独立性假设上,加上独立假设后,大大减少了参数假设空间。

在文本分类上的应用

文本分类的应用很多,比如垃圾邮件和垃圾短信的过滤就是一个2分类问题,新闻分类、文本情感分析等都可以看成是文本分类问题,分类问题由两步组成:训练和预测,要建立一个分类模型,至少需要有一个训练数据集。贝叶斯模型可以很自然地应用到文本分类上:现在有一篇文档d(Document),判断它属于哪个类别ck,只需要计算文档d属于哪一个类别的概率最大:

在分类问题中,我们并不是把所有的特征都用上,对一篇文档d,我们只用其中的部分特征词项<t1,t2,…,tnd>(nd表示d中的总词条数目),因为很多词项对分类是没有价值的,比如一些停用词“的,是,在”在每个类别中都会出现,这个词项还会模糊分类的决策面,关于特征词的选取,我的这篇文章有介绍。用特征词项表示文档后,计算文档d的类别转化为:

注意P(Ck|d)只是正比于后面那部分公式,完整的计算还有一个分母,但我们前面讨论了,对每个类别而已分母都是一样的,于是在我们只需要计算分子就能够进行分类了。实际的计算过程中,多个概率值P(tj|ck)的连乘很容易下溢出为0,因此转化为对数计算,连乘就变成了累加:

我们只需要从训练数据集中,计算每一个类别的出现概率P(ck)和每一个类别中各个特征词项的概率P(tj|ck),而这些概率值的计算都采用最大似然估计,说到底就是统计每个词在各个类别中出现的次数和各个类别的文档的数目:

其中,Nck表示训练集中ck类文档的数目,N训练集中文档总数;Tjk表示词项tj在类别ck中出现的次数,V是所有类别的词项集合。这里对词的位置作了独立性假设,即两个词只要它们出现的次数一样,那不管它们在文档的出现位置,它们大概率值P(tj|ck)都是一样,这个位置独立性假设与现实很不相符,比如“放马屁”跟“马放屁”表述的是不同的内容,但实践发现,位置独立性假设得到的模型准确率并不低,因为大多数文本分类都是靠词的差异来区分,而不是词的位置,如果考虑词的位置,那么问题将表达相当复杂,以至于我们无从下手。

然后需要注意的一个问题是ti可能没有出现在ck类别的训练集,却出现在ck类别的测试集合中,这样因为Tik为0,导致连乘概率值都为0,其他特征词出现得再多,该文档也不会被分到ck类别,而且在对数累加的情况下,0值导致计算错误,处理这种问题的方法是采样加1平滑,即认为每个词在各个类别中都至少出现过一次,即

下面这个例子来自于参考文献1,假设有如下的训练集合测试集:

现在要计算docID为5的测试文档是否属于China类别,首先计算个各类的概率,P(c=China)=3/4,P(c!=China)=1/4,然后计算各个类中词项的概率:

注意分母(8+6)中8表示China类的词项出现的总次数是8,+6表示平滑,6是总词项的个数,然后计算测试文档属于各个类别的概率:

可以看出该测试文档应该属于CHina类别。

文本分类实践

我找了搜狗的搜狐新闻数据的历史简洁版,总共包括汽车、财经、it、健康等9类新闻,一共16289条新闻,搜狗给的数据是每一篇新闻用一个txt文件保存,我预处理了一下,把所有的新闻文档保存在一个文本文件中,每一行是一篇新闻,同时保留新闻的id,id的首字母表示类标,预处理并分词后的示例如下:

我用6289条新闻作为训练集,剩余1万条用于测试,采用互信息进行文本特征的提取,总共提取的特征词是700个左右。

分类的结果如下:

1
8343 10000 0.8343

总共10000条新闻,分类正确的8343条,正确率0.8343,这里主要是演示贝叶斯的分类过程,只考虑了正确率也没有考虑其他评价指标,也没有进行优化。贝叶斯分类的效率高,训练时,只需要扫描一遍训练集,记录每个词出现的次数,以及各类文档出现的次数,测试时也只需要扫描一次测试集,从运行效率这个角度而言,朴素贝叶斯的效率是最高的,而准确率也能达到一个理想的效果。

我的实现代码如下:

Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128

#!encoding=utf-8
importrandom
importsys
importmath
importcollections
importsys
defshuffle():
    '''将原来的文本打乱顺序,用于得到训练集和测试集'''
    datas=[line.strip()forlineinsys.stdin]
    random.shuffle(datas)
    forlineindatas:
        printline        
        
lables=['A','B','C','D','E','F','G','H','I']
deflable2id(lable):
    foriinxrange(len(lables)):
        iflable==lables[i]:
            returni
    raiseException('Error lable %s'%(lable))
        
defdocdict():
    return[0]*len(lables)
    
defmutalInfo(N,Nij,Ni_,N_j):
    #print N,Nij,Ni_,N_j
    returnNij*1.0/N*math.log(N*(Nij+1)*1.0/(Ni_*N_j))/math.log(2)
    
defcountForMI():
    '''基于统计每个词在每个类别出现的次数,以及每类的文档数'''
    docCount=[0]*len(lables)#每个类的词数目
    wordCount=collections.defaultdict(docdict)    
    forlineinsys.stdin:
        lable,text=line.strip().split(' ',1)
        index=lable2id(lable[0])        
        words=text.split(' ')
        forwordinwords:
            wordCount[word][index]+=1
            docCount[index]+=1
    
    miDict=collections.defaultdict(docdict)#互信息值
    N=sum(docCount)
    fork,vsinwordCount.items():
        foriinxrange(len(vs)):
            N11=vs[i]
            N10=sum(vs)-N11
            N01=docCount[i]-N11
            N00=N-N11-N10-N01
            mi=mutalInfo(N,N11,N10+N11,N01+N11)+mutalInfo(N,N10,N10+N11,N00+N10)+mutalInfo(N,N01,N01+N11,N01+N00)+mutalInfo(N,N00,N00+N10,N00+N01)
            miDict[k][i]=mi
    fWords=set()
    foriinxrange(len(docCount)):
        keyf=lambdax:x[1][i]
        sortedDict=sorted(miDict.items(),key=keyf,reverse=True)
        forjinxrange(100):
            fWords.add(sortedDict[j][0])
    printdocCount#打印各个类的文档数目
    forfwordinfWords:
        printfword
            
    
defloadFeatureWord():
    '''导入特征词'''
    f=open('feature.txt')
    docCounts=eval(f.readline())
    features=set()
    forlineinf:
        features.add(line.strip())
    f.close()
    returndocCounts,features
            
deftrainBayes():
    '''训练贝叶斯模型,实际上计算每个类中特征词的出现次数'''
    docCounts,features=loadFeatureWord()
    wordCount=collections.defaultdict(docdict)    
    tCount=[0]*len(docCounts)#每类文档特征词出现的次数
    forlineinsys.stdin:
        lable,text=line.strip().split(' ',1)
        index=lable2id(lable[0])        
        words=text.split(' ')
        forwordinwords:
            ifwordinfeatures:
                tCount[index]+=1
                wordCount[word][index]+=1
    fork,vinwordCount.items():
        scores=[(v[i]+1)*1.0/(tCount[i]+len(wordCount))foriinxrange(len(v))]#加1平滑
        print'%s\t%s'%(k,scores)
        
defloadModel():
    '''导入贝叶斯模型'''
    f=open('model.txt')
    scores={}
    forlineinf:
        word,counts=line.strip().rsplit('\t',1)    
        scores[word]=eval(counts)
    f.close()
    returnscores
    
defpredict():
    '''预测文档的类标,标准输入每一行为一个文档'''
    docCounts,features=loadFeatureWord()    
    docscores=[math.log(count*1.0/sum(docCounts))forcountindocCounts]
    scores=loadModel()
    rCount=0
    docCount=0
    forlineinsys.stdin:
        lable,text=line.strip().split(' ',1)
        index=lable2id(lable[0])        
        words=text.split(' ')
        preValues=list(docscores)
        forwordinwords:
            ifwordinfeatures:                
                foriinxrange(len(preValues)):
                    preValues[i]+=math.log(scores[word][i])
        m=max(preValues)
        pIndex=preValues.index(m)
        ifpIndex==index:
            rCount+=1
        printlable,lables[pIndex],text
        docCount+=1
    printrCount,docCount,rCount*1.0/docCount            
        
        
if__name__=="__main__":
    #shuffle()
    #countForMI()
    #trainBayes()
    predict()

代码里面,计算特征词与训练模型、测试是分开的,需要修改main方法,比如计算特征词:

1
$cat train.txt | python bayes.py &gt; feature.txt

训练模型:

1
$cattrain.txt|pythonbayes.py&gt;model.txt

预测模型:

1
$cattest.txt|pythonbayes.py&gt;predict.out

总结

本文介绍了朴素贝叶斯分类方法,还以文本分类为例,给出了一个具体应用的例子,朴素贝叶斯的朴素体现在条件变量之间的独立性假设,应用到文本分类上,作了两个假设,一是各个特征词对分类的影响是独立的,另一个是词项在文档中的顺序是无关紧要的。朴素贝叶斯的独立性假设在实际中并不成立,但在分类效上依然不错,加上独立性假设后,对与属于类ck的谋篇文档d,其p(ck|d)往往会估计过高,即本来预期p(ck|d)=0.55,而朴素贝叶斯却计算得到p(ck|d)=0.99,但这并不影响分类结果,这是朴素贝叶斯分类器在文本分类上效果优于预期的原因。

参考文献:

王斌 译.信息检索导论. 人民邮电出版社

codemeals. 文本特征选择. cnblogs.

李航.统计学习方法.清华大学出版社

陈希孺. 概率论与数理统计.中国科学技术出版社.

朴素_贝叶斯分类算法(网络)相关推荐

  1. 从决策树学习谈到贝叶斯分类算法、EM、HMM

    从决策树学习谈到贝叶斯分类算法.EM.HMM 引言 最近在面试中,除了基础 &  算法 & 项目之外,经常被问到或被要求介绍和描述下自己所知道的几种分类或聚类算法(当然,这完全不代表你 ...

  2. 从决策树学习谈到贝叶斯分类算法、EM、HMM --别人的,拷来看看

    从决策树学习谈到贝叶斯分类算法.EM.HMM 引言 最近在面试中,除了基础 &  算法 & 项目之外,经常被问到或被要求介绍和描述下自己所知道的几种分类或聚类算法(当然,这完全不代表你 ...

  3. 从决策树学习谈到贝叶斯分类算法、EM、HMM - 结构之法 算法之道

    转载自:http://scm.zoomquiet.io/data/20121220000040/index.html 第一篇:从决策树学习谈到贝叶斯分类算法.EM.HMM (Machine Learn ...

  4. [转]从决策树学习谈到贝叶斯分类算法、EM、HMM

    引言 最近在面试中,除了基础 & 算法 & 项目之外,经常被问到或被要求介绍和描述下自己所知道的几种分类或聚类算法(当然,这完全不代表你将来的面试中会遇到此类问题,只是因为我的简历上写 ...

  5. 二维特征分类的基础_带你搞懂朴素贝叶斯分类算法

    贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类.而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法.这篇文章我尽可能用直白的话语总结一下我们学习会上讲到 ...

  6. 基于python的贝叶斯分类算法_分类算法-朴素贝叶斯

    朴素贝叶斯分类器(Naive Bayes Classifier, NBC)发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率.同时,NBC 模型所需估计的参数很少,对缺失数据不太敏感,算法也比 ...

  7. 数据挖掘 | 判别分析 +朴素贝叶斯分类算法

    本节记录一下由贝叶斯定理延伸出来的几种预测性建模的方法,主要为线性判别分析(一次,二次),朴素贝叶斯(稍稍提一下贝叶斯网络) 1. 判别分析 判别分析适用于自变量连续,因变量为分类型的情形: 设因变量 ...

  8. 判别两棵树是否相等 设计算法_机器学习算法-朴素贝叶斯

    一.概述 概率分类器 在许多分类算法应用中,特征和标签之间的关系并非是决定性的.比如说,我们想预测一个人究竟是否会在泰坦尼克号海难中生存下来,那我们可以建一棵决策树来学习我们的训练集.在训练中,其中一 ...

  9. 数据挖掘:基于朴素贝叶斯分类算法的文本分类实践

    前言: 如果你想对一个陌生的文本进行分类处理,例如新闻.游戏或是编程相关类别.那么贝叶斯分类算法应该正是你所要找的了.贝叶斯分类算法是统计学中的一种分类方法,它利用概率论中的贝叶斯公式进行扩展.所以, ...

最新文章

  1. 简评亚洲人工智能发展现状:机遇与挑战并存
  2. Git 2.20的重大更新:侧重可用性和性能
  3. Struts1与Struts2的区别
  4. JAVA -Xms -Xmx -XX:PermSize -XX:MaxPermSize 区别
  5. linux 命令rsss,[译] linux内存管理之RSS和VSZ的区别
  6. 记录 之 tensorflow中几个常用的函数:tf.unstack,tf.concat() 和 tf.stack() 等
  7. 使用Apache Commons Net SMTP以Java(和Android)发送邮件:STARTTLS,SSL
  8. python writerow 返回值_python – .writerow()csv返回一个数字而不是写行
  9. pymysql 数据库操控
  10. 7.2.Zeng_Cache(3) --- 前端
  11. rffc2071_基于RFFC2071的变频器设计
  12. 好玩,AI 让老照片动起来(附 APP 软件地址)
  13. 充电器input与output_input和output的区别
  14. 极大似然法python例子
  15. 调用百度语音合成API,Qt实现语音合成,Qt语音合成
  16. 节假日读取接口_节假日API接口,2018年,直接计算好的
  17. iif在mysql能用不_在写SQL语句时,你们会经常用IIF(ISNULL(字段))吗
  18. CSS设置原生table表格边框样式(添加表格横线)(附最后表格td画斜线)
  19. 2022 年 8 种云计算趋势:超支、安全和工作负载
  20. 小米手机miui12稳定版蓝牙时断不稳定的解决办法。

热门文章

  1. java对脚本语言的支持
  2. BeautifulSoup爬取国家政策网目标话题的10篇文章,以及基于jieba的关键字生成
  3. 《Python机器学习及实践:从零开始通往Kaggle竞赛之路》第1章 简介篇 学习笔记(三)“良/恶性乳腺癌肿瘤预测”总结
  4. 如何使用Mybatis Plus
  5. php 如果sql错误,php-不正确的整数值SQL错误
  6. 抽象工厂模式学习总结
  7. 2019年vivo应届生春招C++岗位面试经验
  8. 如何打开电脑的服务选项
  9. 计算机配置打开命令行,电脑cmd命令可以打开电脑属性,知道怎么设置
  10. linux 简单脚本fi报错,shell脚本报错:[: =: unary operator expected