网络语bgd是什么意思 网络词bg是什么意思

龙途教育 1次浏览

摘要:关于网络语bgd是什么意思,网络词bg是什么意思这个很多人还不知道,今天琪琪来为大家解答以上的问题,现在让我们

关于网络语bgd是什么意思,网络词bg是什么意思这个很多人还不知道,今天琪琪来为大家解答以上的问题,现在让我们一起来看看吧!

网络语bgd是什么意思 网络词bg是什么意思网络语bgd是什么意思 网络词bg是什么意思


网络语bgd是什么意思 网络词bg是什么意思


网络语bgd是什么意思 网络词bg是什么意思


1、神经网络的训练中我们常常能遇到 Epoch 和 Iteration 这两个不同的词。

2、两个词都表示“轮次”的意思,显然这两个“轮次”的含义并不相同。

3、在解释这两个词的不同之前,我们先引入三种梯度下降策略:1.Batch Grandient Descent(BGD,批梯度下降)2.Stochastic Gradient Descent(SGD,随机梯度下降)3.Mini-Batch Gradient Descent(MBGD,小批量梯度下降)BGD :每次迭代的时候用所有的样本来参与参数的更新。

4、这种方法需要同时把所有的样本都加载进内存进行计算,这样无疑会导致内存的负载过大。

5、SGD :每次迭代使用一个样本来对参数进行更新。

6、这种方法虽然速度快,但单个样本的损失往往不能代表总体样本的损失情况,而且单个样本的损失往往容易受到噪声的影响,所以这种方法往往难以收敛。

7、MBGD :是对上面两种策略的折中,相当于每次迭代使用 batch_size 个样本来对参数进行更新。

8、若是batch_size选择合适,则每次迭代的损失既能表征总体的损失的情况,也能降低内存的负载压力,提升内存的利用率,也提升网络训练的速度。

9、BatchSize :一次训练所选取的样本数。

10、Iteration :使用一个batch_size数量的样本训练一次。

11、 一个Iteration,参数更新一次。

12、Epoch :所有的样本都训练一次,即(total / batch_size)个Iteration的训练。

13、 一个Epoch,参数更新了(total / batch_size)次。

本文到这结束,希望上面文章对大家有所帮助。

版权声明:本文发布于龙途教育 图片、内容均来源于互联网 如有侵权联系836084111@qq.com删除
随机内容