Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2119697
  • 博文数量: 249
  • 博客积分: 1305
  • 博客等级: 军士长
  • 技术积分: 4733
  • 用 户 组: 普通用户
  • 注册时间: 2011-12-17 10:37
个人简介

不懂的东西还有很多,随着不断的学习,不懂的东西更多,无法消灭更多不懂的东西,那就不断的充实自己吧。 欢迎关注微信公众号:菜鸟的机器学习

文章分类

全部博文(249)

文章存档

2015年(1)

2014年(4)

2013年(208)

2012年(35)

2011年(1)

分类: C/C++

2013-08-18 10:49:08


    有关贝叶斯原理的讲解, 请查看这里。这里讲述的是通过贝叶斯推断如何过滤垃圾邮件。

贝叶斯推断及其互联网应用
    
    (接上文)

七、什么是贝叶斯过滤器?
    垃圾邮件是一种令人头痛的顽症,困扰着所有的互联网用户。
    正确识别垃圾邮件的技术难度非常大。传统的垃圾邮件过滤方法,主要有“关键词法”和“校验码法”等。前者的过滤依据是特定的词语;后者则是计算邮件文本的效验码,再与已知的垃圾邮件进行对比。它们的识别效果都不理想,而且很容易规避。
    2002年,Paul Graham提出使用“贝叶斯推断”过滤垃圾邮件。他说,这样做的效果,好得不可思议。1000封垃圾邮件可以过滤掉995封,且没有一个误判。
    另外,这种过滤器还具有自我学习的功能,会根据新收到的邮件,不断调整。收到的垃圾邮件越多,它的准确率越高。

八、建立历史资料库
    贝叶斯过滤器是一种统计学过滤器,建立在已有的统计结果之上。所以,我们必须预先提供两组已经识别好的邮件,一组是正常邮件,另一组是垃圾邮件。
    我们用这两组邮件,对过滤器进行“训练”。这两组邮件的规模越大,训练效果就越好。Paul Graham使用的邮件规模,是正常邮件和垃圾邮件各4000封。
    “训练”过程很简单。首先,解析所有的邮件,提取每一个词。然后,计算每个词语在正常邮件和垃圾邮件中出现的频率。比如,我们假定“sex”这个词,在4000封垃圾邮件中,有200封包含这个词,那么它的出现频率就是5%;而在4000封正常邮件中,只有2封包含这个词,那么出现频率就是0.05%。(【注释】如果某个词   只出现   在垃圾邮件中,Paul Graham就假定,它在正常邮件的出现频率是1%(经验值,可以根据新收的邮件不断调整),反之亦然。这样做是为了避免概率为0。随着邮件数量的增多,计算结果会自动调整。)
    有了这个初步的统计结果,过滤器就可以投入使用了。

九、贝叶斯过滤器的使用过程
    现在,我们收到了一封信邮件。在未统计分析之前, 我们假定它是垃圾邮件的概率为50%。(【注释】有研究表明,用户收到的电子邮件中,80%是垃圾邮件。但是,这里仍然假定垃圾邮件的“先验概率”为50%。)
    我们用S表示垃圾邮件(spam),H表示正常邮件(healthy)。因此,P(S)和P(H)的先验概率,均为50%。
    
    然后,对这封邮件进行解析,发现其中包含了sex这个词,请问这封邮件属于垃圾邮件的概率有多高?
    我们用W表示“sex”这个词,那么问题就变成了如何计算P(S|W)的值,即在某个词语(W)已经存在的情况下,垃圾邮件(S)的概率有多大。
    根据条件概率公式,马上可以写出:
    
    因此,这封新邮件是垃圾邮件的概率等于99%。这说明,sex这个词的推断能力很强,将50%的“先验概率”一下子提高到了99%的“后验概率”。

十、联合概率的计算
    做完上面一步,请问我们能否得出结论,这封新邮件就散垃圾邮件?
    回答是不能。因为一封邮件包含很多词语,一些词语(比如sex)是这是垃圾邮件,另一些说不是。你怎么知道以哪个词为准呢?
    Paul GraHam的做法是:选出这封邮件中P(S|W)最高的15个词,计算它们的联合概率。(【注释】如果有的词是第一次出现,无法计算P(S|W),Paul Graham就假定这个值等于0.4。因为垃圾邮件用的往往都是某些固定的词语,所以如果你从来没有见过某个词,它多半是一个正常的词。)
    所谓联合概率,就是指在多个事件发生的情况下,另一个事件发生的概率有多大。比如,已知W1和W2是两个不同的词语,它们都出现在某封电子邮件之中,那么这封邮件是垃圾邮件的概率,就是联合概率。
    在已知W1和W2的情况下,无丰就是两种结果:垃圾邮件(事件E1)或正常邮件(事件E2)。
    
    其中,W1、W2和垃圾邮件的概率分别如下:
    
    如果假定所有事件都是独立事件(【注释】严格地说,这个假定不成立,但是这里可以忽略),那么就可以计算P(E1)和P(E2):
    
    又由于在W1和W2已经发生的情况下,垃圾邮件的概率等于下面的式子:
    
    【关于上面这式子,为什么P = P(E1)/(P(E1)+P(E2))?有如下解释
    在上面已经说明了,E1是在W1和W2同时出现的情况下垃圾邮件的事件,E2是W1和W2同时出现的情况下正常邮件的事件,注意这里的前提都是“在W1和W2同时出现的情况下”。
    那么,P = P(E1)/(P(E1)+P(E2)),其意思是W1和W2共同出现的情况下是垃圾邮件的概率,而P(W1,W2)实际上就是P(E1)+P(E2),所以P = P(E1)/(P(E1)+P(E2))
    【解释完毕】
 
     即
    
    将P(S)等于0.5代入,得到
    
    这就是联合概率的计算公式。如果你不是很理解,点击查看更多的解释。

    【感觉推导跳过了几步:来自于评论】
    P(S|W1 W2) = P(W1 W2|S)P(S)/( P(W1 W2| S)P(S) + P(W1 W2|~S)P(~S) )
    W1,W2独立:P(W1 W2) = P(W1)P(W2),P(W1 W2|S) = P(W1|S)P(W2|S)  (?)
     上式=P(W1|S)P(W2|S)P(S) / (P(W1|S)P(W2|S)P(S) + P(W1|~S)P(W2|~S)P(~S))

    应用贝叶斯原理,将P(Wi|S)用P(S|Wi)表示:
    上式 = (P(S|W1)P(S|W2)P(S) * P(W1)P(W2) / P(S)^2) / ((P(S|W1)P(S|W2)P(S) * P(W1)P(W2) / P(S)^2) + (P(~S|W1)P(~S|W2)P(~S) * P(W1)P(W2) / P(~S)^2))
    在P(S) = P(~S) = 0.5的条件下:
    上式 = P(S|W1)P(S|W2) / (P(S|W1)P(S|W2) + P(~S|W1)P(~S|W2))
            = P1P2 / (P1P2 + (1-P1)(1-P2));

十一、最终的计算公式
    将上面的公式扩展到15个词的情况,就得到了最终的概率计算公式:
    
    一封邮件是不是垃圾邮件,就用这个式子进行计算。这时我们还需要一个用于比较的门槛值。Paul Graham的门槛值是0.9,概率大于0.9,表示15个词联合认定,这封邮件有90%以上的可能属于垃圾邮件;概率小于0.9,就表示是正常邮件。
    有了这个公式以后,一封正常的邮件即使出现了sex这个词,也不会被认定为垃圾邮件了。
    
    (完)


    原文引自:

    http://www.ruanyifeng.com/blog/2011/08/bayesian_inference_part_two.html
    感谢作者。

    













































































阅读(11214) | 评论(1) | 转发(1) |
给主人留下些什么吧!~~

花开花落何时了2015-07-01 21:21:09

W1,W2独立:P(W1 W2) = P(W1)P(W2),P(W1 W2|S) = P(W1|S)P(W2|S)  (?)
请问这个公式是怎么推出来的啊?