BP神经网络介绍.ppt

上传人:wj 文档编号:7857622 上传时间:2023-05-12 格式:PPT 页数:18 大小:5.13MB
下载 相关 举报
BP神经网络介绍.ppt_第1页
第1页 / 共18页
BP神经网络介绍.ppt_第2页
第2页 / 共18页
BP神经网络介绍.ppt_第3页
第3页 / 共18页
BP神经网络介绍.ppt_第4页
第4页 / 共18页
BP神经网络介绍.ppt_第5页
第5页 / 共18页
BP神经网络介绍.ppt_第6页
第6页 / 共18页
BP神经网络介绍.ppt_第7页
第7页 / 共18页
BP神经网络介绍.ppt_第8页
第8页 / 共18页
BP神经网络介绍.ppt_第9页
第9页 / 共18页
BP神经网络介绍.ppt_第10页
第10页 / 共18页
BP神经网络介绍.ppt_第11页
第11页 / 共18页
BP神经网络介绍.ppt_第12页
第12页 / 共18页
BP神经网络介绍.ppt_第13页
第13页 / 共18页
BP神经网络介绍.ppt_第14页
第14页 / 共18页
BP神经网络介绍.ppt_第15页
第15页 / 共18页
BP神经网络介绍.ppt_第16页
第16页 / 共18页
BP神经网络介绍.ppt_第17页
第17页 / 共18页
BP神经网络介绍.ppt_第18页
第18页 / 共18页
亲,该文档总共18页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

BP神经网络介绍.ppt

《BP神经网络介绍.ppt》由会员分享,可在线阅读,更多相关《BP神经网络介绍.ppt(18页珍藏版)》请在冰点文库上搜索。

BP神经网络介绍.ppt

第四章误差反向传播神经网络,研16电子陈晨2017.4.11,第四章误差反向传播神经网络,4.1误差反向网络的提出4.2BP神经网络结构基本思想4.3BP神经网络处理的单元模型4.4BP神经网络学习算法4.5BP网络的分析-梯度下降学习方法4.6BP人工神经网络模型的改进,4.1误差反向网络的提出,1986年,Romelhart和McCelland提出了误差反向传播算法(ErrorBackPropagationAlgorithm,简称BP算法),由于多层前馈网络的训练经常采用误差反向传播算法,所以人们也常把多层前馈网络称为BP网络。

BP算法采用非线性连续变换函数,使隐含层神经元具有了学习能力。

其基本思想直观、易于理解,数学意义明确、步骤分明,所以BP网络成为目前应用最广的神经网络。

18,3,第四章误差反向传播神经网络,4,第四章误差反向传播神经网络,修改权值阈值,教师信号,4.2BP神经网络结构基本思想,18,4.2BP神经网络结构基本思想,BP算法的主要思想是把训练过程分为两个阶段:

第一阶段(正向传播过程)给出输入信息通过输入层经隐含层逐层处理并计算每个单元的实际输出值。

第二阶段(反向传播过程)若在输出层不能得到期望的输出值,那么逐层递归地计算实际输出与期望输出之差值,以便根据差值调节权值。

18,5,第四章误差反向传播神经网络,4.3BP神经网络处理的单元模型,18,6,第四章误差反向传播神经网络,j,xn,wnj,yj,阈值j的作用反应在s型生长曲线上是使曲线向右平移j个单位,在BP网络里它起到了神经元兴奋水平的作用。

18,7,第四章误差反向传播神经网络,4.3BP神经网络处理的单元模型,Sigmoid函数的一阶导数:

4.4BP神经网络学习算法,三层前馈网中:

输入模式k向量为X=(x1,x2,xn)T,对应输入模式k的期望输出向量为Y=(y1,y2,yq)T;中间隐含层的净输入向量为S=(s1,s2,sp)T,输出向量为B=(b1,b2,bp)T;输出层净输入向量L=(l1,l2,lq)T,实际输出向量C=(c1,c2,cq)T;=j(j=1,2,p为隐层神经元引入阈值,=t(t=1,2.q)为输出层神经元引入阈值;输入层到隐层之间的权值矩阵V=(V1,V2,Vm),隐层到输出层之间的权值矩阵W=(W1,W2,Wr)。

18,8,第四章误差反向传播神经网络,18,9,第四章误差反向传播神经网络,18,10,第四章误差反向传播神经网络,

(1)计算中间隐含层各个神经元的净输入和输出j=1,2,.,p

(2)计算输出层各个神经元的净输入和实际输出t=1,2,.,q(3)根据给定期望,计算输出层各个神经元的校正误差(4)计算隐含层各个神经元的校正误差,4.4BP神经网络学习算法,18,11,第四章误差反向传播神经网络,(5)修正隐含层至输出层的连接权值V和输出层神经元的阈值,其中学习速率为,01j=1,2,.,p,t=1,2,.,q(6)修正输入层至隐含层的连接权值W和隐含层神经元的阈值,其中学习速率为,01,4.4BP神经网络学习算法,18,12,第四章误差反向传播神经网络,一、BP网络的主要能力1、非线性映射能力2、泛化能力3、容错能力,4.5BP网络的分析-梯度下降学习方法,二、BP算法的局限性1、存在局部极小问题2、存在平坦区,收敛速度慢3、网络结构选择不一,18,13,第四章误差反向传播神经网络,1、BP人工神经网络结构的自我调整在BP人工神经网络拓扑结构中,输入节点与输出节点是由问题的本身决定的,关键在于隐层的层数与隐节点的数目。

只需一个隐层的神经网络,它只要隐节点足够多,就可以以任意精度逼近一个非线性函数。

相对来说,隐节点数的选取很困难。

隐节点少了,学习过程不可能收敛;隐节点多了,网络性能下降,节点冗余。

为了找到合适的隐节点数,最好的办法是在网络的学习过程中,根据环境要求,自组织地学习、调整自己的结构,最后得到一个大小合适的神经网络模型。

4.6BP人工神经网络模型的改进,从少到多:

初始值:

,先设置较多隐节点,18,14,第四章误差反向传播神经网络,2、BP神经网络学习参数的自适应学习BP神经网络模型实际上是一个多元函数的优化问题,即以连结权系数为变量,误差函数最小为目标的优化问题。

当求出对连结权的梯度后,对连结权进行修正时,学习速率、实际上是一个沿负梯度方向的步长问题,步长过大将使误差函数发生振荡,步长过小,收敛过慢。

并且在不同的点,可选步长也不一样。

总之,不存在原BP算法中所提到的固定学习速率。

4.6BP人工神经网络模型的改进,我们可以引入学习参数自适应算法加以确定。

其基本思想是:

当权值w,v远离稳定点(学习要达到的目标点)时,取较大值;而当其逼近稳定点(E10)时,取较小值。

18,15,第四章误差反向传播神经网络,4.6BP人工神经网络模型的改进,3.附加动量法附加动量法使网络在修正其权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响,其作用如同一个低通滤波器,它允许网络忽略网络上的微小变化特性,在没有附加动量的作用下,网络可能陷入浅的局部极小值,利用附加动量的作用则有可能滑过这些局部极小值。

n为训练次数,为动量因子,一般取0.95左右,18,16,第四章误差反向传播神经网络,4.引入放大因子5.用蚁群优化算法选择最优初始权值蚁群优化算法是一种对离散优化问题进行求解的通用型框架。

在某条具体路径当中所经过的蚂蚁数量越多,相应的信息条件密集性也就越大,从而这一路径被选取的概率也就越大,其呈现出的是一种正反馈的现状情况。

每一只蚂蚁在仅穿过任一节点一次的情况之时,对被选用的权值节点进行明确的记录,从而该区域之中的节点也就组成了一组候选权值,在所有蚂蚁均完成了首次选择后,依据全局更新策略来对信息素的密度进行更新。

直至满足于最大进化代数,也就得到了最佳的权值组合。

4.6BP人工神经网络模型的改进,第四章误差反向传播神经网络,问题?

THANKS,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 幼儿教育 > 幼儿读物

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2