概述
深度学习,比如卷积神经网络(CNN)要完成训练任务,需要一遍又一遍的学习。一般来说,学习次数越多,学习效果越好。
那到底要学习多少次才是个头呢?我陷入了思考。
01 是不是误差越小,学习效果就越好?
比如前面研究的自编码去噪,见前文《地震无监督自编码降噪怎样做出效果,我想清楚了几个关键问题 》。我训练的噪声图片是这样的:
那没有噪声的图片是这样的:
接下来就开始不同迭代的训练。20次迭代的训练误差的结果见图:
结果就是LOSS一路下降,也没有看到头。
那预测的效果是怎样的呢?来看看1个迭代、5个迭代、10个迭代、15个迭代和20个迭代的去噪效果。
就我们肉眼也可以看到,似乎从第10个迭代后,去噪效果反而变差了。我们并不能简单认为训练误差越小,预测的效果就越好。
02 真正的训练标准是看预测的效果
我们深度的目标就是要神经网络出色的完成任务,希望预测的结果接近我们想要的效果。
比如前面的降噪预测,可以用PSNR指标来进行衡量。
PSNR是“Peak Signal to Noise Ratio”的缩写,即峰值信噪比,是一种评价图像的客观标准。简单说,就是PSNR越大越好。
那刚才几次迭代的PSNR值是多少呢?
上面结果也验证了视觉观测结果,最好的训练效果是在10次迭代和15次迭代之间,再往后效果反而会越来越差。
03 小结
所以深度学习到底迭代多少次才是头呢?就看预测的效果什么时候最好。
当然在效果比较接近的情况下,也要考虑到训练时间,耗费资源等其它成本因素。比如训练50次和100次的效果都差不多,但训练100次的时间远超50次,是不是训练50次就足够了呢?
如果喜欢请点赞,或关注我交流。
最后
以上就是幸福墨镜为你收集整理的darknet迭代多少次_深度学习迭代多少次才是个头?我用实验告诉你01 是不是误差越小,学习效果就越好?02 真正的训练标准是看预测的效果03 小结的全部内容,希望文章能够帮你解决darknet迭代多少次_深度学习迭代多少次才是个头?我用实验告诉你01 是不是误差越小,学习效果就越好?02 真正的训练标准是看预测的效果03 小结所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复