搜公众号
推荐 原创 视频 Java开发 开发工具 Python开发 Kotlin开发 Ruby开发 .NET开发 服务器运维 开放平台 架构师 大数据 云计算 人工智能 开发语言 其它开发 iOS开发 前端开发 JavaScript开发 Android开发 PHP开发 数据库
Lambda在线 > 予人智能 > 反馈神经网络算法

反馈神经网络算法

予人智能 2019-04-05
举报

典型的卷积神经网络,开始阶段都是卷积层以及池化层的相互交替使用,之后采用全连接层将卷积和池化后的结果特征全部提取进行概率计算处理。

在具体的误差反馈和权重更新的处理上,不论是全连接层的更新还是卷积层的更新,使用的都是经典的反馈神经网络算法,这种方法较原本较为复杂的、要考虑长期的链式法则转化为只需要考虑前后节点输入和输出误差对权重的影响,使得当神经网络深度加大时能够利用计算机计算,以及卷积核在计算过程中产生非常多的数据计算。


反馈神经网络正向与反向传播公式推导

经典反馈神经网络主要包括3个部分,数据的前向计算、误差的反向传播以及权值的更新。如下图所示。

反馈神经网络算法

可以看到每个层l(假设是卷积或者池化层的一种)都会接一个下采样层l+1。对于反馈神经网络来说,要想求得层l的每个神经元对应的权值更新,就需要先求层l的每一个神经元点的灵敏度。简单来说,总体有以下几个权重以及数值需要在传递的过程中进行计算,即:

  1.输入层-卷积层

  2.卷积层-池化层

  3.池化层-全连接层

  4.全连接层-输出层

  这是正向的计算,而当权值更新时,需要对其进行反向更新,即:

  1.输出层-全连接层

  2.全连接层-池化层

  3.池化层-卷积层

  4.卷积层-输出层


1.前向传播算法

  对于前向传播的值传递,隐藏层输出值定义如下:

反馈神经网络算法

反馈神经网络算法

  神经网络反馈算法,就是逐层地将最终的误差进行分解,即每一层只与下一层打交道(如下图所示)。因此,可以假设每一层均为输出层的前一个层级,通过计算前一个层级与输出层的误差得到权重的更新。

反馈神经网络算法

反馈神经网络算法


知识分享,带来快乐



版权声明:本站内容全部来自于腾讯微信公众号,属第三方自助推荐收录。《反馈神经网络算法》的版权归原作者「予人智能」所有,文章言论观点不代表Lambda在线的观点, Lambda在线不承担任何法律责任。如需删除可联系QQ:516101458

文章来源: 阅读原文

相关阅读

举报