欢迎来到麦多课文档分享! | 帮助中心 海量文档,免费浏览,给你所需,享你所想!
麦多课文档分享
全部分类
  • 标准规范>
  • 教学课件>
  • 考试资料>
  • 办公文档>
  • 学术论文>
  • 行业资料>
  • 易语言源码>
  • ImageVerifierCode 换一换
    首页 麦多课文档分享 > 资源分类 > PPT文档下载
    分享到微信 分享到微博 分享到QQ空间

    第11章 神经络.ppt

    • 资源ID:388364       资源大小:833.50KB        全文页数:29页
    • 资源格式: PPT        下载积分:2000积分
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    二维码
    微信扫一扫登录
    下载资源需要2000积分(如需开发票,请勿充值!)
    邮箱/手机:
    温馨提示:
    如需开发票,请勿充值!快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如需开发票,请勿充值!如填写123,账号就是123,密码也是123。
    支付方式: 支付宝扫码支付    微信扫码支付   
    验证码:   换一换

    加入VIP,交流精品资源
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    第11章 神经络.ppt

    1、第11章 神经网络,11.3 神经网络,神经网络的本质是两阶段非线性统计模型,11.3 神经网络,Z称为导出特征,在神经网络中也成为隐藏层。先由输入的线性组合创建Z,再以Y为目标用Z的线性组合建立模型,11.3 神经网络,激活函数()的选取 神经网络源于人脑开发模型,神经元接收到的信号超过阀值时被激活。由于需要光滑的性质,阶梯函数被光滑阀函数取代。,11.3 神经网络,输出函数 是对于向量T的最终变换,早期的K分类使用的是恒等函数,后来被softmax函数所取代,因其可以产生和为1的正估计。,11.2 投影寻踪模型,投影寻踪模型是神经网络模型的特例 先将X投影于某一方向,再用得到的标量进行回归

    2、 M=1时在经济学中称为单指标模型 M任意大时可以任意好的逼近空间中的任意连续函数,11.2 投影寻踪模型,如何拟合投影寻踪模型 目标:误差函数的近似极小值为避免过分拟合,对于输出函数g需要限制 M的值通常作为前向分布策略的一部分来估计, 也可以由交叉验证来估计。,11.2 投影寻踪模型,M=1时,首先给定一个投影方向的初值,通过光滑样条估计g 给定g, 在误差函数上对投影方向做极小化舍弃了二阶导数之后,再带入误差函数得对于右端进行最小二乘方回归,得到投影方向的新估计值,重复以上步骤得到,11.4 神经网络的拟合,未知参数称为权,用表示权的全集 对于回归和分类问题,我们分别使用误差的平方和,平

    3、方误差或互熵(离散)作为拟合的度量,11.4 神经网络的拟合,通常R()的全局最小化很可能是一个过分拟合,所以需要正则化,使用惩罚项或是提前停止优化 极小化R()的一般方法是梯度下降,在此情况下称作反向传播,11.4 神经网络的拟合,平方误差损失的反向传播细节具有导数,11.4 神经网络的拟合,使用梯度下降法迭代,在第(r+1)次时有如下公式,11.4 神经网络的拟合,如果将迭代前的公式写成如下形式其中 和 分别是当前模型输出层,隐藏层的“误差”,并且满足,11.4 神经网络的拟合,上面的关系称作反向传播方程 向前传递时固定当前权值,计算预测值 向后传递是计算误差 ,进而又得到 最后使用更新的

    4、误差值计算更新的梯度 反向传播方法具有简单性和局部特性,每个隐藏单元只传递信息,11.4 神经网络的拟合,迭代公式中的称为学习率,此种迭代更新称为批学习 对于批学习,学习率通常去常数,也可以在每次更新的时候通过极小化误差函数的线搜索来优化 使用在线学习,学习率应随迭代次数递减到零,11.5 神经网络训练的一些问题,初始值 如果权值接近于0,则S型函数的运算大多是线性的,并且随着权值的增加变成非线性的 权值恰为0导致0导数和良好的对称性,且算法永远不会前进,而以大权值开始常常导致很差的解,11.5 神经网络训练的一些问题,过分拟合 权衰减是一种更加直接的正则化方法 将惩罚项加入误差函数得到是大于

    5、0的调整参数,较大的值使权值向0收缩。 的值由交叉验证估计,其作用是在梯度下降的递推式中加入 和,11.5 神经网络训练的一些问题,输入的scale对于结果的影响 最好对于所有的输入都进行标准化,这个可以保证在正则化过程中平等的对数据进行处理,而且为随机初值的选择提供一个有意义的值域 一般在 -0.7, 0.7上面随机选取均匀的权值,11.5 神经网络训练的一些问题,隐藏单元和层的数目:隐藏单元过少则模型可能不具备足够的灵活性,如果隐藏单元过多,则多余的收缩到0. 一般来说隐藏单元的数量在5到100之间,可以取合理大的数量,在用正则化加以训练,使得多余的变作0.,11.6 模拟数据,11.6 模拟数据,11.6 模拟数据,11.6 模拟数据,11.6 模拟数据,ZIP编码数据,11.6 模拟数据,11.6 模拟数据,11.6 模拟数据,11.6 模拟数据,观众朋友们, 再见!,


    注意事项

    本文(第11章 神经络.ppt)为本站会员(吴艺期)主动上传,麦多课文档分享仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知麦多课文档分享(点击联系客服),我们立即给予删除!




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2019 麦多课文库(www.mydoc123.com)网站版权所有
    备案/许可证编号:苏ICP备17064731号-1 

    收起
    展开