2008年(909)
分类:
2008-05-06 22:11:40
下载源代码
摘要
为了实现对手写字体的识别,运用了人工智能的分层神经网络思想,对识别的字体通过训练学习,达到识别手写字体的功能。
关键字 VC,人工智能,神经网络,手写识别。
1 引言
1.1 编写目的
人工智能英文名表示是"Artificial Intelligence",简称
AI,也就是用计算机模拟人的思维和知识,通过对本系统的学习开发,对计算机人工智能和神经网络有了初步的认识,萌发初学者对人工智能和网络神经学习的基本方法和思路。
1.2 背景
目前市面上的语音识别系统和手写识别,指纹识别系统大都建立在人工智能的神经网络技术的基础上,神经网络技术是解决识别系统难题的适当方法。
2 必备知识
2.1 vc基础
本系统采用vc开发,所以希望读者对vc也要熟悉。
2.2神经网络
下面我们来对神经网络技术有个大体的认识,
这里说的神经网络,实质上是指人工神经网络,是模拟生物神经元的实现,神经网络又分单层神经网络(不带输入层),和多层神经网络,实验证明,神经网络的的层数多少不影响网络对实体的识别,可能有人会问,为什么还需要多层神经网络的开发呢?答案是,适当的多层结构可以使网络的训练学习进度提高,可以更快地收敛到需要的权值上,但层数越多,或者层数不多都不足以证明能够越快地收敛到需要的权值上,这里的研究不属于我们的范畴,我们这里采用的使分层前向神经网络,结构图如下(图1)
3.算法
3.1.算法思想
3.2 算法描述
(1)学习
设输入层为n个输入,隐层是m个输入,输出层是p个输出
1.初始化V,W,α,ε //给V,W赋初值,这里用随机值,有经验的话可以给V和W
//赋一个近似的初值,这样的话可以加快收敛速度。
// 是学习因子,可以根据学习的进度来动态改变,这里自始
//至终取0.7, 是精度系数,
2.循环学习直到误差小于精度
e=(I,T) //对每一个样本取样放到集合e中 ,I代表输入样本,T代表输出样板
求a[j]=g(in[j])=g(//求隐层的值,其中V是各个权值的向量,
//I是样板值
o[i]=g(in[i])=g(//求输出层的值,其中W是各个隐层输入的
//权值,a[j]是输入的隐层的值
Err[i]=T[i]-O[i] (1<=i<=p) //Err是误差值 求 Δ[i]=Err[i]*g`(in[i]) (1<=i<=p) //g`(in[i])是g(in[i])函数的求导 W[j,i]=W[j,i] *a[j]*Err[i]*g`(in[i]) //权值调整,即训练学习, 是学习因子,用 //来反映学习的频率,可以自己根据程序需要来定
这里遇到一个难题是隐层的误差值怎么求,因为输出层有准确的输出值作参考,所以能够求到误差值,但是隐层没有相应的准确值。我们可以观察输出层的误差值,这个值其实蕴涵了隐层的误差值所在,经过证明可以用下面公式获取误差值。
Err[j]= //Err(1<=j<=P)是输出层的误差,这里 //利用这个误差蕴涵的信息来获取隐 //层的误差 V[k,j]=V[k,j] *I[k]*Err[j]*g`(in[j]) //隐层权值修正
3.返回V,W,学习完成
可能有些人不明白函数g(x)是如何选取,根据我们识别的特性来看,我们应该选择,S型函数(关于函数的类型请参阅其他书籍),考虑函数的导数在内,应该选择一个比较好导的函数。所以我们选择。
y=f(A)=1/(1 Exp(-A)) y`=f`(A)=y(1-y)
(2)实现识别
1.获取输入层的各个值 a
a[j]=g(in[j])=g(
把P改成m //求隐层的值,其中V是各个权值
//的向量,
o[i]=g(in[i])=g(
//求输出层的值,其中W是各个隐层输入的
Err[i]=(T[i]-O[i])2 /2 // 为精度,如果全局误差都小于精度就//证明输出的矩阵O是合法的。
//
ε为精度,如果全局误差都小于精度就//证明输出的矩阵O是合法的。
3.3算法实现
设输入层为n个输入,隐层是m个输入,输出层是p个输出。
*这里是一次训练的算法,程序可以根据自己需要实现。
INPUT W,V,P,A //输入权值W,V,精度P,和学习系数A INPUT i[1],...,i[n],t[1],...,t[p] //输入和输出样板集 Step 1 Set v_sum=0. //设定累加器 Step 2 Set in_i[m],in_j[p] Step 3 For j=1,...,m do Step 4 and Step 5,Step 7 Step 4 Set in_j[j]=0; //初始化 Step 5 For k=1,...,n do Step6 and Step7 Step 6 Set in_j[j]=a[j] (v[k,j]*i[k]); Step 7 Set a[j]=1/(1-Exp(-in_j[j])); Step 8 For i=1,...,p do Step9 and Step 10,Step 12 Step 9 Set in_i[i]=0; Step 10 For j=1,...,m do Step 11 Step 11 Set in_i[i]=in_i[i] (w[j,i]*a[j]) Step 12 Set o[i]=1/(1-Exp(-in_i[i]); Step 13 For i=1,...,p do Step 14 Step 14 Set Err[i]=t[i]-o[i] //误差 Step 15 For j=1,...,m do Step 16 Step 16 For i=1,...,p do Step 17 Step 17 Set w[j,i]=w[j,i] A*a[j]*Err[i]* 1/(1-Exp(-in_j[j]))(1-1/(1-Exp(-in_j[j])));//输出层权 //值修正 Step 18 For k=1,...,n do Step 19 Step 19 For j=1,...,m do Step 20 Step 20 Set v[k,j]=v[k,j]*A*i[k]*Err[j]* 1/(1-Exp(-in_j[j]))(1-1/(1-Exp(-in_j[j])));//隐层权值 //修正 Step 21 OUTPUT (Err[1],...,Err[p]) STOP重复训练过程来对准确权值的收敛,识别过程是学习过程的一部分,所以这里不再重复