欢迎来到麦多课文档分享! | 帮助中心 海量文档,免费浏览,给你所需,享你所想!
麦多课文档分享
全部分类
  • 标准规范>
  • 教学课件>
  • 考试资料>
  • 办公文档>
  • 学术论文>
  • 行业资料>
  • 易语言源码>
  • ImageVerifierCode 换一换
    首页 麦多课文档分享 > 资源分类 > PPT文档下载
    分享到微信 分享到微博 分享到QQ空间

    Backpropagation Algorithm.ppt

    • 资源ID:378808       资源大小:150KB        全文页数:17页
    • 资源格式: PPT        下载积分:2000积分
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    二维码
    微信扫一扫登录
    下载资源需要2000积分(如需开发票,请勿充值!)
    邮箱/手机:
    温馨提示:
    如需开发票,请勿充值!快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如需开发票,请勿充值!如填写123,账号就是123,密码也是123。
    支付方式: 支付宝扫码支付    微信扫码支付   
    验证码:   换一换

    加入VIP,交流精品资源
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    Backpropagation Algorithm.ppt

    1、2018/10/9,1,Backpropagation Algorithm,郝红侠2006.11.13,2018/10/9,2,Perceptron : Single Layer Feed-forward,Input layer of source nodes,Output layer of neurons,Rosenblatts Perceptron: a network of processing elements (PE):,2018/10/9,3,XOR问题,任何一个逻辑电路都可以只用XOR门来实现, XOR是通用门 (universal logic gate) 感知器不能解决XOR问

    2、题 两层感知器可以解决XOR问题,异或问题的二层感知器,2018/10/9,4,Perceptron : Multi Layer Feed- forward,2018/10/9,5,MLP的特性,除了输入输出,MLP含有一层或多层隐单元,隐单元从输入模式中提取更多有用的信息,使网络完成更复杂的任务。 MLP神经元的激励函数一般采用Sigmoid函数,即,式中ni是第i个神经元的输入信号,ai是该神经元的输出信号。,2018/10/9,6,当隐层神经元足够多时,Sigmoid结构原则上可以以任意精度逼近的多元非线性函数 MLP的适用范围大大超过单程网络 为了提高神经网络的分类能力,必须采用MLP

    3、,但当要精确逼近复杂问题时,隐层神经元和连接突触可能会达到“爆炸”量。,2018/10/9,7,Backpropagation Algorithm,Late 1980s - NN re-emerge with Rumelhart and McClelland (Rumelhart, D., McClelland, J., Parallel and Distributed Processing, MIT Press, Cambridge, 1986.),Why BP is a learning method?,它之所以是一种学习方法,就是因为用它可以对组成前向多层网络的各人工神经元之间的连接权值

    4、进行不断修改,从而使该前向多层网络能够将输入它的信息变换成所期望的输出信息。如果将该多层网络看成一个变换,而网络中各人工神经元之间的连接权值看成变换中的参数,那么这种学习算法就是要求得这些参数。,Why a Backpropagation learning method?,之所以将其称作为反向学习算法,是因为在修改各人工神经元的连接权值时,所依据的是该网络的实际输出与期望的输出之差。将这一差值反向一层一层的向回传播,来决定连接权值的修改。,2018/10/9,8,Learning Rule,Measure error Reduce that error By appropriately adj

    5、usting each of the weights in the network,2018/10/9,9,BP Network Details,Forward Pass: Error is calculated from outputs Used to update output weights Backward Pass: Error at hidden nodes is calculated by back propagating the error at the outputs through the new weights Hidden weights updated,2018/10

    6、/9,10,BP Algorithm,正向过程:,输出层所有神经元的误差能量总和 sum squared error, SSE,权值修正: delta学习规则,2018/10/9,11,Case 1: 输出层权值修正,对于sigmoid函数:,局部 梯度,2018/10/9,12,Case 2:隐层权值修正,2018/10/9,13,BP算法的步骤,初始值选择 前向计算,求出所有神经元的输出 对输出层计算 从后向前计算各隐层 计算并保存各权值修正量: 修正权值: 判断是否收敛,如果收敛则结束,不收敛则转至Step2,2018/10/9,14,收敛性和局部极小值,对于多层网络,误差曲面可能含有多

    7、个不同的局部极小值,梯度下降可能陷入这些局部极小值中的任何一个 对于多层网络,反向传播算法仅能保证收敛到误差E的某个局部极小值,不一定收敛到全局最小误差 尽管缺乏对收敛到全局最小误差的保证,BP算法在实践中仍是非常有效的函数逼近算法,2018/10/9,15,BP算法的改进,学习率影响系统学习过程的稳定性。大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规则跳跃而不收敛;但过小的学习率导致学习时间过长,不过能保证收敛于某个极小值。所以,一般倾向选取较小的学习率以保证学习过程的收敛性(稳定性),通常在0.010.8之间。增加冲量项的目的是为了避免网络训练陷于较浅的局部极小点。理论上其值大小应与权值修正量的大小有关,但实际应用中一般取正数。通常在01之间,而且一般比学习率要大。,2018/10/9,16,增加冲量项,Here we modify weights of neurons with:,(1),(2),当本次与前一次同符号时,其求和权值增大,使Wij较大,从而在稳定调节时加快了w的调节速度。当与前次符号相反时,指数加权求和的结果使得Wij减小了,起到了稳定的作用。,2018/10/9,17,THANK YOU!,


    注意事项

    本文(Backpropagation Algorithm.ppt)为本站会员(unhappyhay135)主动上传,麦多课文档分享仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知麦多课文档分享(点击联系客服),我们立即给予删除!




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2019 麦多课文库(www.mydoc123.com)网站版权所有
    备案/许可证编号:苏ICP备17064731号-1 

    收起
    展开