我是靠谱客的博主 激昂万宝路,最近开发中收集的这篇文章主要介绍nn 激活函数_激活函数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。是一个重要的非线性函数,负责提高神经网络的非线性因素,增加深度网络解决问题的能力。“激活函数”按照其可导的性能分成两类——“饱和激活函数”和“非饱和激活函数”。

激活函数分类

sigmoid tanh

sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:

首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。

其次,它能加快收敛速度。

Sigmoid函数需要一个实值输入压缩至[0,1]的范围

σ(x) = 1 / (1 + exp(−x))

tanh函数需要讲一个实值输入压缩至 [-1, 1]的范围

tanh(x) = 2σ(2x) − 1

tensorflow.nn.sigmoidtensorflow.nn.tanhkeras.layers.core.Activation('sigmoid')keras.layers.core.Activation('tanh')torch.nn.Sigmoidtorch.nn.Tanh

ReLU

ReLU函数代表的的是“修正线性单元”,它是带有卷积图像的输入x的最大函数(x,o)。ReLU函数将矩阵x内所有负值都设为零,其余的值不变。ReLU函数的计算是在卷积之后进行的,因此它与tanh函数和sigmoid函数一样,同属于“非线性激活函数”。这一内容是由Geoff Hinton首次提出的。

tensorflow.nn.relukeras.layers.core.Activation('relu')torch.nn.ReLU

ELUs

ELUs是“指数线性单元”,它试图将激活函数的平均值接近零,从而加快学习的速度。同时,它还能通过正值的标识来避免梯度消失的问题。根据一些研究,ELUs分类精确度是高于ReLUs的。

不饱和函数

Leaky ReLUs

ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。Leaky ReLU激活函数是在声学模型(2013)中首次提出的。以数学的方式我们可以表示为:

image

ai是(1,+∞)区间内的固定参数。

tensorflow.nn.leaky_relukeras.layers.advanced_activations.LeakyReLUtorch.nn.LeakyReLU

参数化修正线性单元(PReLU)

PReLU可以看作是Leaky ReLU的一个变体。在PReLU中,负值部分的斜率是根据数据来定的,而非预先定义的。作者称,在ImageNet分类(2015,Russakovsky等)上,PReLU是超越人类分类水平的关键所在。

tensorlayer.layers.PReluLayerkeras.layers.advanced_activations.PReLUtorch.nn.PReLU

随机纠正线性单元(RReLU)

“随机纠正线性单元”RReLU也是Leaky ReLU的一个变体。在RReLU中,负值的斜率在训练中是随机的,在之后的测试中就变成了固定的了。RReLU的亮点在于,在训练环节中,aji是从一个均匀的分布U(I,u)中随机抽取的数值。形式上来说,我们能得到以下结果:

image

torch.nn.RReLU

PReLU中的ai是根据数据变化的;

Leaky ReLU中的ai是固定的;

RReLU中的aji是一个在一个给定的范围内随机抽取的值,这个值在测试环节就会固定下来。

作者:readilen

链接:https://www.jianshu.com/p/79d57b8164b7

來源:简书

简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

最后

以上就是激昂万宝路为你收集整理的nn 激活函数_激活函数的全部内容,希望文章能够帮你解决nn 激活函数_激活函数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(67)

评论列表共有 0 条评论

立即
投稿
返回
顶部