我是靠谱客的博主 刻苦网络,最近开发中收集的这篇文章主要介绍模型的学习率(learning rate)太高将使网络无法收敛!,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

博主在跑代码的时候,发现过大的Learning rate将导致模型无法收敛。

主要原因是过大的learning rate将导致模型的参数迅速震荡到有效范围之外.(注: 由于pytorch中已封装好的代码对模型参数的大小设置了一个界限,因此模型参数不会无限大)

这篇文章将要探讨一下不同learning rate的情况下,模型的收敛情况.

  • lr = 0.1,模型收敛得很好。
    收敛性良好
  • lr = 0.6,在第8轮中模型的参数由于过大,导致无法正常地求loss值。

在这里插入图片描述

  • lr = 0.75,过大的learning rate直接导致模型参数大幅震荡。
    在这里插入图片描述
    最后,请再温习一遍这幅图:
    在这里插入图片描述

最后

以上就是刻苦网络为你收集整理的模型的学习率(learning rate)太高将使网络无法收敛!的全部内容,希望文章能够帮你解决模型的学习率(learning rate)太高将使网络无法收敛!所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(46)

评论列表共有 0 条评论

立即
投稿
返回
顶部