我是靠谱客的博主 舒适白昼,最近开发中收集的这篇文章主要介绍【Andrew Ng Deep Learning 作业笔记】第四章卷积神经网络 第一周课程作业模型收敛缓慢的解决办法,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
以Ng给出的代码,模型收敛的速度相当缓慢。初始代价1.90左右,迭代100次后代价在1左右,而Ng给出的结果为0.17,具体原因尚不清楚,但是这里提供了一种加快收敛的方法:
卷积层使用的Activation Function为ReLU函数,Ng之前的作业中提到了一种名为He Initialize的方法,可以适用于ReLU函数的参数初始化(泽维尔初始化适用于Sigmoid函数),在这里使用He Initialize:
W1 = parameters["W1"] * np.sqrt(2)
W2 = parameters["W2"] * np.sqrt(2 / 196)
由于第1层没有接受ReLU的输出,因此n0(上一层的维度)设置为1。
参考文献:
[1] Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classificatio., Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun
最后
以上就是舒适白昼为你收集整理的【Andrew Ng Deep Learning 作业笔记】第四章卷积神经网络 第一周课程作业模型收敛缓慢的解决办法的全部内容,希望文章能够帮你解决【Andrew Ng Deep Learning 作业笔记】第四章卷积神经网络 第一周课程作业模型收敛缓慢的解决办法所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复