痴情西装

文章
8
资源
0
加入时间
2年10月21天

深度学习中 epoch,[batch size], iterations概念解释

oneepoch:所有的训练样本完成一次Forword运算以及一次BP运算batch size:一次Forword运算以及BP运算中所需要的训练样本数目,其实深度学习每一次参数的更新所需要损失函数并不是由一个{data:label}获得的,而是由一组数据加权得到的,这一组数据的数量就是[batch size]。当然batch size 越大,所需的内存就越大,要量力而行iter...