Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4564413
  • 博文数量: 1214
  • 博客积分: 13195
  • 博客等级: 上将
  • 技术积分: 9105
  • 用 户 组: 普通用户
  • 注册时间: 2007-01-19 14:41
个人简介

C++,python,热爱算法和机器学习

文章分类

全部博文(1214)

文章存档

2021年(13)

2020年(49)

2019年(14)

2018年(27)

2017年(69)

2016年(100)

2015年(106)

2014年(240)

2013年(5)

2012年(193)

2011年(155)

2010年(93)

2009年(62)

2008年(51)

2007年(37)

分类:

2011-06-20 00:51:04

文章来源:http://blog.csdn.net/sealyao/archive/2011/06/11/6537670.aspx

贝叶斯分类是统计学分类方法。它们可以预测类成员关系的可能性,如给定样本属于一个特定类的概率。

贝叶斯定理是就是在给定的数据概率来表示未知的后验概率。比如已知某水果是红色的情况下,判断该水果有多大的概率是苹果,用数学符号表示就是clip_image002(后验概率),其中X表示“这个水果是红色的”,H表示“这个水果是苹果”。这个概率我们是不知道的,但是如果我们有大量的水果样本,就可以计算水果样本中的统计信息来逼近这个概率。

下面的三个概率都是可以通过样本统计简单计算得到的:“一个水果的颜色是红色”的概率P(X);“一个水果是苹果” 的概率 P(H)(先验概率);“如果一个水果是苹果那么它的颜色是红色”的概率clip_image004

我们可以推理得到:

clip_image002[1]=clip_image006

=clip_image008/clip_image010

=clip_image012

=clip_image014

抽象得到的公式clip_image016就是著名的贝叶斯定理。

贝叶斯分类的基本思路就是把clip_image018clip_image020clip_image022clip_image024……的概率都算出来,当有未知分类的样本时,就认为这个样本是后验概率最大的那个分类的。

朴素贝叶斯分类

实际情况要比上面的那个例子复杂一些,因为一个事物的属性是多维的,一个水果的属性可能就要包括:颜色、形状、重量、体积……。

实际上的分类可能是要算这样一个概率:

clip_image026

如果属性相互独立,那么

clip_image028

朴素贝叶斯的朴素之处在于不管属性独不独立,都按独立来算,这样可以使运算大大简化。

归纳一下朴素贝叶斯的运算流程:

1. 每个数据样本用一个n维特征向量clip_image030表示,描述由属性clip_image032对样本的n个度量。

2. 假定有m个类clip_image034。给定一个未知的数据样本X(即,没有类标号),分类法将预测X属于具有最高后验概率(条件X下)的类。即,朴素贝叶斯分类将未知的样本分配给类Ci ,当且仅当:

clip_image036

这样,我们最大化clip_image038。其clip_image038[1]最大的类Ci称为最大后验假定。根据贝叶斯定理:

clip_image041

3.由于P(X) 对于所有类为常数,只需要clip_image043最大即可。如果类的先验概率未知,则通常假定这些类是等概率的;即,clip_image045。并据此对只clip_image038[2]最大化。否则,我们最大化clip_image043[1]。注意,类的先验概率可以用clip_image049计算;其中,si是类C中的训练样本数,而s是训练样本总数。

4.给定具有许多属性的数据集,计算clip_image051的开销可能非常大。为降低计算clip_image051[1]的开销,可以做类条件独立的朴素假定。给定样本的类标号,假定属性值条件地相互独立。即,在属性间,不存在依赖关系。这样,

clip_image054

概率clip_image056,clip_image058,...,clip_image060可以由训练样本估值,其中,

(a) 如果Ak是分类属性,则clip_image062;其中sik 是在属性Ak 上具有值xk 的类Ci 的训练样本数,而si 是Ci中的训练样本数。

(b) 如果是连续值属性,则通常假定该属性服从高斯分布。因而,

clip_image064

其中,给定类Ci的训练样本属性Ak的值,clip_image066是属性Ak的高斯密度函数,而clip_image068分别为平均值和标准差。

5.为对未知样本X分类,对每个类Ci,计算clip_image043[2]。样本X被指派到类Ci,当且仅当:

clip_image071

换言之,X被指派到其clip_image043[3]最大的类Ci。

贝叶斯信念网络

朴素贝叶斯假定属性之间是独立的。贝叶斯信念网络说明联合概率分布,它提供一种因果关系的图形,可以在其上进行学习。

信念网络由两部分定义。第一部分是有向无环图,其每个结点代表一个随机变量,而每条弧代表一个概率依赖。如果一条弧由结点Y到Z,则Y是Z的双亲或直接前驱,而Z是Y的后继。第二部分是每个属性一个条件概率表(CPT)。

下面是一个LungCancer的CPT。

clip_image073

在贝叶斯信念网络中对应于属性或变量clip_image075的任意元组clip_image077的联合概率由下式计算:

clip_image079

如上图,对于FamilyHistory,Smoker,LungCancer这三个属性,用朴素贝叶斯计算,得到的联合概率是clip_image081

但是如果用贝叶斯信念网络计算得到的联合概率将会是:

clip_image083,会更为准确。

贝叶斯信念网络的问题

1、如果贝叶斯信念网络的网络结构和所有数值都是给定的,那么可以直接进行计算。但是,数据是隐藏的,比如上图中的FamilyHistory/Somker到LungCancer的条件概率是未知的,只是知道存在这样的依存关系,这时就需要进行条件概率的估算。梯度训练算法和EM算法常被用于处理此问题。

2、贝叶斯网络的数据结构可能是未知的,这时就需要根据已知数据启发式学习贝叶斯网络结构。K2算法可用于解决此问题。

梯度训练算法

梯度训练是用于解决信念网络中隐藏数据问题的,就是已知上图(a),但是不知道上图(b)。

设D是d个训练样本clip_image085的集合,clip_image087是具有双亲clip_image089clip_image091的变量clip_image093 = clip_image095的CPT项。例如,如果clip_image087[1]是上图(b)左上角的CPT项,则clip_image093[1]是LungCancer;clip_image095[1]是其值“yes”; clip_image089[1]列出clip_image093[2]的双亲结点{FamilyHistory, Smoker};而clip_image091[1]列出双亲结点的值{“yes”, “yes”}。clip_image087[2]可以看作权,类似于神经网络中隐藏单元的权。权的集合记作clip_image097

梯度训练算法就是求出最为满足clip_image085[1]训练版本集的权的集合clip_image097[1],用数学公式表示就是clip_image100最大(clip_image102就表示clip_image104)。

具体的算法:

1、就是对每一个clip_image087[3]取偏导数,clip_image107

2、更新权值:沿梯度方向前进一小步。clip_image109,其中l是学习率,是一个小常数。

3、由于权值clip_image087[4]是概率值,它们必须在0.0和1.0之间,并且对于所有的i,k,clip_image112必须等于1。在权值被式更新后,可以对它们重新规格化来保证这一条件。clip_image114

关于clip_image087[5]的偏导数推导如下:

clip_image116

阅读(1809) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~