我是靠谱客的博主 儒雅老师,最近开发中收集的这篇文章主要介绍神经网络笔记 - Regularization,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

神经网络的过拟合(Over fitting) 是神经网络学习的难点, 常规的解决方案是增加学习的样本数, 但是训练样本的搜集往往比较困难,而且样本数增加, 学习成本也随之提高. 另一个比较简单的方法来减少过拟合就是Regularization.
Regularization 的方法有多种:

  • L2 Regularization
    修改代价函数(C)为:

    C=1nxj[yjlnalj+(1yj)ln(1alj)]+12nww2

  • L1 Regularization
    修改代价函数为:

    C=1nxj[yjlnalj+(1yj)ln(1alj)]+12nw|w|

  • Dropout
    Dropout的训练方法有些奇异, 每次做Back-propagation的时候, 随即删除隐藏层中一半的神经元, 迭代多次后得到网络参数.

为什么Reggularization 可以减轻过拟合(over-fitting)呢? 这个问题大概难以回答吧, 也许从Occam’s Razor 可以得到一些启发, Occam’s Razor 的描述如下:
Entities should not be multiplied unnecessary(如无必要,勿增实体)
Regularization就是试图降低网络的复杂度吧。

Reference:

http://neuralnetworksanddeeplearning.com/

最后

以上就是儒雅老师为你收集整理的神经网络笔记 - Regularization的全部内容,希望文章能够帮你解决神经网络笔记 - Regularization所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(34)

评论列表共有 0 条评论

立即
投稿
返回
顶部