通过梯度下降的反向传播如何表示每次前向传播后的误差

戴夫

在神经网络多层感知器中,我了解到随机梯度下降 (SGD) 与梯度下降 (GD) 之间的主要区别在于训练时选择了多少样本。也就是说,SGD 迭代地选择一个样本来执行前向传播,然后进行反向传播以调整权重,这与 GD 不同,后者仅在前向传播中计算了所有样本后才开始反向传播)。

我的问题是:

  1. 当梯度下降(甚至小批量梯度下降)是所选的方法时,我们如何从单个转发通行证中代表错误?假设我的网络只有一个输出神经元,误差是通过平均每个样本的所有单个误差还是通过对所有误差求和来表示的?
  2. MLPClassifier scikit learn 中,有没有人知道这种错误是如何累积的?求平均值还是求和?

非常感谢你。

穆罕默德

我想我可以回答你的第一个问题。是的,单个前向传递的误差计算为瞬时误差,例如,如果将一个样本馈送到网络,则网络输出与所需响应(标签)之间差异的范数或瞬时误差的平均值从喂入小批量样本中获得的错误。

我希望这有帮助。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

神经网络在梯度下降中的反向传播与线性回归

来自分类Dev

反向传播中的梯度检查

来自分类Dev

pytorch 如何通过 argmax 反向传播?

来自分类Dev

LSTM 反向传播梯度检查的问题

来自分类Dev

为什么每次反向传播割炬梯度都会线性增加?

来自分类Dev

通过nginx反向传播gitbucket

来自分类Dev

通过多次向前传播进行反向传播

来自分类Dev

在反向传播中更新前几层的权重

来自分类Dev

通过rnn ValueError进行Tensorflow反向传播

来自分类Dev

反向传播中的Gradient函数如何工作?

来自分类Dev

梯度下降误差的逻辑回归

来自分类Dev

梯度下降计算中的误差

来自分类Dev

梯度下降误差的逻辑回归

来自分类Dev

梯度下降计算中的误差

来自分类Dev

反向传播算法的实现

来自分类Dev

调试反向传播算法

来自分类Dev

澄清反向传播

来自分类Dev

反向传播错误

来自分类Dev

伯特的反向传播

来自分类Dev

Matlab GPU反向传播

来自分类Dev

通过嵌套tf.map_fn反向传播渐变

来自分类Dev

我可以在反向传播过程中(选择性地)反转Theano梯度吗?

来自分类Dev

三重态损耗反向传播梯度公式是什么?

来自分类Dev

强化学习的政策梯度会反向传播哪些损失或奖励?

来自分类Dev

使用反向传播训练的人工神经网络中的误差函数

来自分类Dev

反向传播如何在割炬7中工作?

来自分类Dev

Keras的推论损失和前向传播不匹配

来自分类Dev

在具有测量误差的数据样条上使用 scipy quad 时如何传播误差?

来自分类Dev

反向传播训练卡住了