BP神经网络的基本原理+很清楚.docx

上传人:b****2 文档编号:1623437 上传时间:2023-05-01 格式:DOCX 页数:17 大小:462.66KB
下载 相关 举报
BP神经网络的基本原理+很清楚.docx_第1页
第1页 / 共17页
BP神经网络的基本原理+很清楚.docx_第2页
第2页 / 共17页
BP神经网络的基本原理+很清楚.docx_第3页
第3页 / 共17页
BP神经网络的基本原理+很清楚.docx_第4页
第4页 / 共17页
BP神经网络的基本原理+很清楚.docx_第5页
第5页 / 共17页
BP神经网络的基本原理+很清楚.docx_第6页
第6页 / 共17页
BP神经网络的基本原理+很清楚.docx_第7页
第7页 / 共17页
BP神经网络的基本原理+很清楚.docx_第8页
第8页 / 共17页
BP神经网络的基本原理+很清楚.docx_第9页
第9页 / 共17页
BP神经网络的基本原理+很清楚.docx_第10页
第10页 / 共17页
BP神经网络的基本原理+很清楚.docx_第11页
第11页 / 共17页
BP神经网络的基本原理+很清楚.docx_第12页
第12页 / 共17页
BP神经网络的基本原理+很清楚.docx_第13页
第13页 / 共17页
BP神经网络的基本原理+很清楚.docx_第14页
第14页 / 共17页
BP神经网络的基本原理+很清楚.docx_第15页
第15页 / 共17页
BP神经网络的基本原理+很清楚.docx_第16页
第16页 / 共17页
BP神经网络的基本原理+很清楚.docx_第17页
第17页 / 共17页
亲,该文档总共17页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

BP神经网络的基本原理+很清楚.docx

《BP神经网络的基本原理+很清楚.docx》由会员分享,可在线阅读,更多相关《BP神经网络的基本原理+很清楚.docx(17页珍藏版)》请在冰点文库上搜索。

BP神经网络的基本原理+很清楚.docx

BP神经网络的基本原理+很清楚

5.4BP神经网络的基本原理

BP(BackPropagation)网络是1986年由Rinehart和

McClelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。

BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。

它的学习规

则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。

BP神经网络模型拓扑结

构包括输入层(input)、隐层(hidelayer)和输出层(outputlayer)(如图5.2所示)

5.4.1BP神经元图5.3给出了第j个基本BP神经元(节点),它只模仿了生物神经元所具有的三个最基本也是最重要的功能:

加权、求和与转移。

其中X1、X2…Xi…Xn分别代表来自神经元1、2…i…n的输入;W1、W…Wi…Wn则分别表示神经元1、2…i…n与第j个神经元的连接强度,即权值;b为阈值;f(•)为传递函数;yj为第j个神经元的输出。

第j个神经元的净输入值〔为:

(5.12)

 

其中:

若视■」,’匚=「,即令三及.包括"及,则

心心…北厂

略=[wJ0少作…%…WjJ

于是节点j的净输入’-可表示为:

(5.13)

净输入-通过传递函数(TransferFunction)f(•)后,便得到第j个神经元的

输出」」:

i-0

(5.14)

式中f(•)是单调上升函数,而且必须是有界函数,因为细胞传递的信号不可能无限增加,必有一最大值。

5.4.2BP网络

BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。

正向传播时,传播方向为输入层f隐层f输出层,每层神经元的状态只影响下一层神经元。

若在输

出层得不到期望的输出,则转向误差信号的反向传播流程。

通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。

5.4.2.1正向传播

的权值为%,隐层与输出层之间的权值为,如图5.4所示。

隐层的传递函数为fi(•),输出层的传递函数为f2(•),贝临层节点的输出为(将阈值写入求和项中):

3-0

k=1,2,…

..••q

(5.15)

输出层节点的输出为:

(5.16)

儿叫经〕

ft-芒

至此B-P网络就完成了n维空间向量对m维空间的近似映射。

542.2反向传播1)定义误差函数输入F个学习样本,用来表示。

第°个样本输入到网络后得到输出:

(j=i,2,…m。

采用平方型误差函数,于是得到第p个样本的误差&:

式中:

•为期望输出对于「个样本,全局误差为:

1pfflp

5=-yyftr-vn=y^

2)输出层权值的变化采用累计误差BP算法调整'),使全局误差己变小,即

 

⑦£2艺(-帀

(5.19)

 

 

式中:

一学习率

定义误差信号为:

是输出层传递函数的偏微分

于是:

由链定理得:

込dE,职«r

(5.24)

于是输出层各神经元的权值调整公式为:

g=E口硏-(为)办

(5.25)

3)隐层权值的变化

(5.26)

dE◎p?

©%

 

定义误差信号为:

6严-生=-些叫

(5.27)

吧孔%

其中第一项:

 

依链定理有:

(5.29)

知签看皿

第二项:

是隐层传递函数的偏微分。

于是:

(5.31)

,郭宀)心柿伽)

 

由链定理得:

込dE-a?

rr

(5.32)

(5.33)

——=T———=一①的=-£(ff-XIA(Sj)神必/1(尿)-码加幻型R內月>1

p«ft

巴%加;-羽妙(心)出筋(尿肚

从而得到隐层各神经元的权值调整公式为:

5.4.3BP算法的改进

BP算法理论具有依据可靠、推导过程严谨、精度较高、通用性较好等优点,但标准BP算法

存在以下缺点:

收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。

在实际应用中,BP算法很难胜任,因此出现了很多改进算法。

1)利用动量法改进BP算法

标准BP算法实质上是一种简单的最速下降静态寻优方法,在修正W(K)时,只按照第K步的

负梯度方向进行修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。

动量法权值调整算法的具体做法是:

将上一次权值调整量的一部分迭加到按本次误差计算所得的权值调整量上,作为本次的实际权值调整量,即:

(5.34)

豳闊=一怦3+出炉(起一1)

其中:

a为动量系数,通常OVaV0.9;n—学习率,范围在O.OO1〜10之间。

这种方法所加的动量因子实际上相当于阻尼项,它减小了学习过程中的振荡趋势,从而改善了收敛性。

动量法降低了网络对于误差曲面局部细节的敏感性,有效的抑制了网络陷入局部极小。

2)自适应调整学习速率

标准BP算法收敛速度缓慢的一个重要原因是学习率选择不当,学习率选得太小,收敛太慢;学习率选得太大,则有可能修正过头,导致振荡甚至发散。

可采用图5.5所示的自适应方法调整学习率。

调整的基本指导思想是:

在学习收敛的情况下,增大n,以缩短学习时间;当n偏大致使不能收敛时,要及时减小n,直到收敛为止

3)动量-自适应学习速率调整算法

采用动量法时,BP算法可以找到更优的解;采用自适应学习速率法时,BP算法可以缩短训

练时间。

将以上两种方法结合起来,就得到动量-自适应学习速率调整算法。

4)L-M学习规则

L-M(Levenberg-Marquardt)算法比前述几种使用梯度下降法的BP算法要快得多,但对于复杂问题,这种方法需要相当大的存储空间。

L-M(Levenberg-Marquardt)优化方法的权值调整率选为:

(5.35)

Aw=(JrJ+X)_l讥

其中:

e—误差向量;J—网络误差对权值导数的雅可比(Jacobian)矩阵;卩一标量,当卩很大时上式接近于梯度法,当卩很小时上式变成了Gauss-Newton法,在这种方法中,卩也是自适应调整的。

综合考虑,拟采用L-M学习规则和动量法分别作为神经网络的训练函数和学习函数

5.5BP神经网络的训练策略及结果本文借助于MATLAB申经网络工具箱来实现多层前馈BP网络(Multi-layerfeed-forwardbackpropagationnetwork)的颜色空间转换,免去了许多编写计算机程序的烦恼。

神经网络的实际输出值与输入值以及各权值和阈值有关,为了使实际输出值与网络期望输出值相吻合,可用含有一定数量学习样本的样本集和相应期望输出值的集合来训练网络。

训练时仍然使用本章5.2节中所述的实测样本数据。

另外,目前尚未找到较好的网络构造方法。

确定神经网络的结构和权系数来描述给定的映射或逼近一个未知的映射,只能通过学习方式得到满足要求的网络模型。

神经网络的学习可以理解为:

对确定的网络结构,寻找一组满足要求的权系数,使给定的误差函数最小。

设计多层前馈网络时,主要侧重试验、探讨多种模型方案,在实验中改进,直到选取一个满意方案为止,可按下列步骤进行:

对任何实际问题先都只选用一个隐层;使用很少的隐层节点数;不断增加隐层节点数,直到获得满意性能为止;否则再采用两个隐层重复上述过程。

训练过程实际上是根据目标值与网络输出值之间误差的大小反复调整权值和阈值,直到此误差达到预定值为止。

5.5.1确定BP网络的结构

确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。

确定这些选项时有一定的指导原则,但更多的是靠经验和试凑。

1)隐层数的确定:

1998年RobertHecht-Nielson证明了对任何在闭区间内的连续函数,都可以用一个隐层的BP网络来逼近,因而一个三层的BP网络可以完成任意的n维到m维的映照。

因此我们从含有一个隐层的网络开始进行训练。

2)BP网络常用传递函数

®5.6BP刚缮常甲的恃逛函数

BP网络的传递函数有多种。

Log-sigmoid型函数的输入值可取任意值,输出值在0和1之间;tan-sigmod型传递函数tansig的输入值可取任意值,输出值在-1到+1之间;线性传递函数purelin的输入与输出值可取任意值。

BP网络通常有一个或多个隐层,该层中的神

经元均采用sigmoid型传递函数,输出层的神经元则采用线性传递函数,整个网络的输出可以取任意值。

各种传递函数如图5.6所示。

只改变传递函数而其余参数均固定,用本章5.2节所述的样本集训练BP网络时发现,传递

函数使用tansig函数时要比logsig函数的误差小。

于是在以后的训练中隐层传递函数改用tansig函数,输出层传递函数仍选用purelin函数。

3)每层节点数的确定:

使用神经网络的目的是实现摄像机输出RGB颜色空间与CIE-XYZ色空间转换,因此BP网络的输入层和输出层的节点个数分别为3。

下面主要介绍隐层节点数量的确定。

对于多层前馈网络来说,隐层节点数的确定是成败的关键。

若数量太少,则网络所能获取的用以解决问题的信息太少;若数量太多,不仅增加训练时间,更重要的是隐层节点过多还可能出现所谓“过渡吻合”(Ovefitting)问题,即测试误差增大导致泛化能力下降,因此合理选择隐层节点数非常重要。

关于隐层数及其节点数的选择比较复杂,一般原则是:

在能正确反映输入输出关系的基础上,应选用较少的隐层节点数,以使网络结构尽量简单。

本论文中采用网络结构增长型方法,即先设置较少的节点数,对网络进行训练,并测试学习误差,然后逐渐增加节点数,直到学习误差不再有明显减少为止。

5.5.2误差的选取在神经网络训练过程中选择均方误差MSE较为合理,原因如下:

1标准BP算法中,误差定义为:

1藏

(5.36)

每个样本作用时,都对权矩阵进行了一次修改。

由于每次权矩阵的修改都没有考虑权值修改后其它样本作用的输出误差是否也减小,因此将导致迭代次数增加。

2

1PMP

累计误差BP算法的全局误差定义为:

(5.37)

这种算法是为了减小整个训练集的全局误差,而不针对某一特定样本,因此如果作某种修改能使全局误差减小,并不等于说每一个特定样本的误差也都能同时减小。

它不能用来比较P和m不同的网络性能。

因为对于同一网络来说,P越大,E也越大;P值相同,m越大

E也越大。

3均方误差MSE

1?

«

洱…一(5.38)

其中:

咗一输出节点的个数,°—训练样本数目,•―一网络期望输出值,二一一网络实际输出值。

均方误差克服了上述两种算法的缺点,所以选用均方误差算法较合理。

5.5.3训练结果

训练一个单隐层的三层BP网络,根据如下经验公式选择隐层节点数[125]:

(5.39)

式中:

n为输入节点个数,m为输出节点个数,a为1到10之间的常数。

针对本论文ni取值范围为3〜13。

训练结果如表5.1所示。

表5.1隐层节点数与误差的关系

隐层神经元个数

训练误差

测试误差

3

1.25661

1.1275

4

0.797746

0.8232

5

0.631849

0.7278

6

0.570214

0.6707

7

0.552873

0.6895

8

0.445118

0.6575

9

0.385578

0.6497

10

0.259624

0.4555

11

0.185749

0.6644

12

0.183878

0.48

由上表可以看出:

1增加隐层节点数可以减少训练误差,但超过10以后测试误差产生波动,即泛化能力发生变化。

综合比较隐层节点数为10与12的训练误差和测试误差,决定隐层节点数选用12。

2训练误差和测试误差都很大,而且收敛速度极慢(训练过程如图5.7所示),这个问题可以通过对输出量进行归一化来解决。

根据Sigmoid型传递函数输入和输出的范围,对输入变量不进行归一化处理,只对输出变量进行归一化,这是因为在输出数据要求归一化的同时,对输入数据也进行归一化的话,权值的可解释性就更差了。

目标值按下式进行变化:

(5.40)

使目标值落在0.05〜0.95之间,这样靠近数据变化区间端点的网络输出值就有一波动范围,网络的性能较好。

用新生成的训练样本与测试样本对隐层节点数为12的网络进行训练,得

到的训练误差为9.89028X10-5,测试误差为1.9899X10-4,达到了预定的目标(训练过程如图5.8所示)。

TTTT~T■"rT?

-TTT^»T1r>F,SrT,TTil,"—TFLFr^TT!

TTTTr1TTTT号T

许rfc9«-■-«AT聲iH-»9即•■*•****I■强*I■血

0100200300«0900000700600900100D

laooEpocns

图57隐层节点数为12的神经刚络训毎过程

Performancee05023^-005,Goal*s0,0001

图5.8归一化训媒样本后隐层节点馥为L2的神经励箔训练过程

5.6最终训练后的神经网络结构

采用三层BP网络实现摄像机输出RGB颜色空间与CIEXYZ色空间转换,其中隐层含有12个节点,传递函数采用tansig函数;输出层传递函数选用purelin函数。

经过测试后结果满意,可以认为该神经网络可以用来实现这个关系映射。

网络的结构如图5.9所示:

alMansig(w1*p+b1)aS-purelinCwS^al+M)

其中:

良一输入层节点数£1一隐层节点数S2-®出层节点数

E5.9三层BP网络结构

 

得到的BP神经网络的权值和阈值为:

-0.0029

-0.0088

-00098

0.0792

0.0067

0.0030

-0.0043

-00011

0.1392

0.0094

-00031

-0.0214

0.0237

0.0095

0.0019

-0.H99

00341

0.0104

-0.0142

-00016

-0.12S1

O.OS79

0.0244

-00529

-0.0098

-00122

0.0004

0224

-00129

-00129

-00127

00085

-00141

-00807

-00208

0.0058

-2.4894

3A23A

1.9623

1.9752

-5.2871

-2.2328

3.9847

-1.2996

1.9118

-5.0905

-0.5144

48162

 

 

QCW4

-00941吒=

亠0.0^33

0,8756

■-0.1068

◎二01532

11373

0.2393

11705

-0.4251

00684

02924

-O.C'023

01497

-00U2

0.4086

0.7430

-0.3157

0.0553

-Q卯7

-0.27%

0.0191

0.7501

0.1.93S

-0.0106

01433

-0X207

01712

-0.0577

-0.1085

00018

-0,1109

0.0034

0.0731

1.4704

0.3203

-00116

0.0429

0.0164

5.7本章小结

1)定量地分析了用线性关系转换摄像机RGB空间到CIE-XYZ空间数据后产生的均方误差,表明CCD摄像机与标准观察者之间有比较明显的差别,也就是说RGB与CIE-XYZ间的转换是非线性的。

2)采用MATLAB中神经网络工具箱实现多层前馈BP网络的RGB到CIEXYZ颜色空间转换,用经过归一化的训练样本与测试样本对隐层节点数为12的三层网络进行训练,得到的训练误差为9.89028X10-5,测试误差为1.9899X10-4,结果表明经过训练的多层前馈BP网络可以满足RGB空间向CIEXYZ^色空间转换要求,达到了预定目标。

3)确定了用于RG餉XYZ颜色空间转换的BP网络结构,并求出了该神经网络的权值和阈值。

使用该网络可以定量表达食品颜色,定量比较高压加工食品颜色的变化,可以使食品颜色测定和控制实现定量化,而不再是主观性很强的模糊描述。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 工作范文 > 行政公文

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2