当前位置: 首页 > news >正文

网站注意事项河北seo技术交流

网站注意事项,河北seo技术交流,深圳网站建设-中国互联,手机交互网站目录 前向传播 前向传播计算图 反向传播 训练神经网络 小结 我们已经学习了如何用小批量随机梯度下降训练模型。 然而当实现该算法时,我们只考虑了通过前向传播(forward propagation)所涉及的计算。 在计算梯度时,我们只调用…

目录

前向传播

前向传播计算图

反向传播

训练神经网络

小结


我们已经学习了如何用小批量随机梯度下降训练模型。 然而当实现该算法时,我们只考虑了通过前向传播(forward propagation)所涉及的计算。 在计算梯度时,我们只调用了深度学习框架提供的反向传播函数,而不知其所以然。

梯度的自动计算(自动微分)大大简化了深度学习算法的实现。 在自动微分之前,即使是对复杂模型的微小调整也需要手工重新计算复杂的导数, 学术论文也不得不分配大量页面来推导更新规则。 本节将通过一些基本的数学和计算图, 深入探讨反向传播的细节。 首先,我们将重点放在带权重衰减(L2正则化)的单隐藏层多层感知机上。

前向传播

前向传播(forward propagation或forward pass) 指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。

我们将一步步研究单隐藏层神经网络的机制, 为了简单起见,我们假设输入样本是 x∈Rd, 并且我们的隐藏层不包括偏置项。 这里的中间变量是:

其中W(1)∈Rh×d 是隐藏层的权重参数。 将中间变量z∈Rh通过激活函数ϕ后, 我们得到长度为h的隐藏激活向量:

隐藏变量h也是一个中间变量。 假设输出层的参数只有权重W(2)∈Rq×h, 我们可以得到输出层变量,它是一个长度为q的向量:

假设损失函数为l,样本标签为y,我们可以计算单个数据样本的损失项,

 根据L2正则化的定义,给定超参数λ,正则化项为

其中矩阵的Frobenius范数是将矩阵展平为向量后应用的L2范数。 最后,模型在给定数据样本上的正则化损失为:J=L+s.

在下面的讨论中,我们将J称为目标函数(objective function)。

前向传播计算图

绘制计算图有助于我们可视化计算中操作符和变量的依赖关系。下图是与上述简单网络相对应的计算图, 其中正方形表示变量,圆圈表示操作符。 左下角表示输入,右上角表示输出。 注意显示数据流的箭头方向主要是向右和向上的。

 

反向传播

反向传播(backward propagation或backpropagation)指的是计算神经网络参数梯度的方法。 简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。 该算法存储了计算某些参数梯度时所需的任何中间变量(偏导数)。 假设我们有函数Y=f(X)和Z=g(Y), 其中输入和输出X,Y,Z是任意形状的张量。 利用链式法则,我们可以计算Z关于X的导数

 

在这里,我们使用prod运算符在执行必要的操作(如换位和交换输入位置)后将其参数相乘。 对于向量,这很简单,它只是矩阵-矩阵乘法。 对于高维张量,我们使用适当的对应项。 运算符prod指代了所有的这些符号。

回想一下,在计算上图中的单隐藏层简单网络的参数是 W(1)和W(2)。 反向传播的目的是计算梯度∂J/∂W(1)和 ∂J/∂W(2)。 为此,我们应用链式法则,依次计算每个中间变量和参数的梯度。 计算的顺序与前向传播中执行的顺序相反,因为我们需要从计算图的结果开始,并朝着参数的方向努力。第一步是计算目标函数J=L+s相对于损失项L和正则项s的梯度。

接下来,我们根据链式法则计算目标函数关于输出层变量o的梯度: 

接下来,我们计算正则化项相对于两个参数的梯度:

现在我们可以计算最接近输出层的模型参数的梯度 ∂J/∂W(2)∈Rq×h。 使用链式法则得出: 

 

 为了获得关于W(1)的梯度,我们需要继续沿着输出层到隐藏层反向传播。 关于隐藏层输出的梯度∂J/∂h∈Rh由下式给出:

 由于激活函数ϕ是按元素计算的, 计算中间变量z的梯度∂J/∂z∈Rh 需要使用按元素乘法运算符,我们用⊙表示:

 

 最后,我们可以得到最接近输入层的模型参数的梯度 ∂J/∂W(1)∈Rh×d。 根据链式法则,我们得到:

训练神经网络

在训练神经网络时,前向传播和反向传播相互依赖。 对于前向传播,我们沿着依赖的方向遍历计算图并计算其路径上的所有变量。 然后将这些用于反向传播,其中计算顺序与计算图的相反。

以上述简单网络为例:一方面,在前向传播期间计算正则项 取决于模型参数W(1)和 W(2)的当前值。 它们是由优化算法根据最近迭代的反向传播给出的。 另一方面,反向传播期间参数的梯度计算, 取决于由前向传播给出的隐藏变量h的当前值。

因此,在训练神经网络时,在初始化模型参数后, 我们交替使用前向传播和反向传播,利用反向传播给出的梯度来更新模型参数。 注意,反向传播重复利用前向传播中存储的中间值,以避免重复计算。 带来的影响之一是我们需要保留中间值,直到反向传播完成。 这也是训练比单纯的预测需要更多的内存(显存)的原因之一。 此外,这些中间值的大小与网络层的数量和批量的大小大致成正比。 因此,使用更大的批量来训练更深层次的网络更容易导致内存不足(out of memory)错误。

 

小结

  • 前向传播在神经网络定义的计算图中按顺序计算和存储中间变量,它的顺序是从输入层到输出层。

  • 反向传播按相反的顺序(从输出层到输入层)计算和存储神经网络的中间变量和参数的梯度。

  • 在训练深度学习模型时,前向传播和反向传播是相互依赖的。

  • 训练比预测需要更多的内存。

 

 

 

http://www.yidumall.com/news/4157.html

相关文章:

  • 做aa视频网站当日alexa排名查询统计
  • 佛山网站建设 天博免费企业建站
  • 长沙做网站优化seo百度关键字优化
  • 南阳建设局网站成都百度推广代理公司
  • 怎么看网站banner尺寸提高工作效率8个方法
  • 社交网站开发语言北京seo优化哪家好
  • 动物园网站建设的可行性分析企业网站seo案例分析
  • 深圳专业网站设计怎么做整站快速排名优化
  • 国外家具设计网站三叶草gw9356
  • 做网站对电脑要求高吗seo快速排名培训
  • 东莞网站建设网站排名优化百度产品有哪些
  • 网站 备案 中国 名字新东方小吃培训价格表
  • 麦客网做网站营销推广怎么做
  • 烟台网站建设.com网站建设开发公司
  • 深圳营销型网站策划百度推广效果
  • 网站人工客服系统搜索引擎优化seo论文
  • 上海公司做网站怎么做互联网营销推广
  • 站群宝塔批量建站促销方法100种
  • 网站建设质量保证免费合作推广
  • 怎样做网站平台惠州百度seo在哪
  • 个人怎么做网站页面免费b2b网站推广
  • 牛牛襄阳做网站免费b站推广网站在线
  • ...东莞网站公司网站推广的途径有哪些
  • 网站做等保是什么意思湖南网站建设推广优化
  • 四川成都营销型网站新品牌推广方案
  • 商城网站建设费用太原seo网站排名
  • 前端做网站的兼职网站提交链接入口
  • 做花茶网站解说希爱力双效片用后感受
  • 做全国家电维修网站到哪里做视频剪辑培训
  • 宁波企业免费建站厦门人才网官网招聘