概述
0. 激活函数
上图为wiki上的定义:激活函数定义了每个节点(神经元)的输出和输入关系的函数。
下表:常用激活函数
编号
|
函数
|
公式
|
---|---|---|
1)
|
sigmoid(x)
|
φ(x)=11−e −x
|
2)
|
softmax(x)
|
φ(x)=ezj∑Kk=1ezk
|
3)
|
tanh(x)
|
φ(x)=tanh(x)
|
4)
|
Scaledtanh([scaleIN,scaleOUT])
|
φ(x)=tanh(α∗x)∗β
|
5)
|
ReLU
|
φ(x)=max(0,x)
|
6)
|
LeakyReLU
|
f(x)={xifx>00.1xotherwise
|
7)
|
VaryLeakyReLU
|
a=13
|
8)
|
ParametricReLU
|
f(x)={xifx>0axotherwise
|
9)
|
RandomizedReLU
|
f(x)=max(0,x+Y),withY∼N(0,σ(x))
|
10)
|
Maxout
|
ifa<0,f(x)=max(x,ax)
|
11)
|
elu(x)
|
φ(x)=(x>0)?x:ex−1
|
12)
|
softplus(x)
|
φ(x)=log(1+ex)
|
13)
|
linear(x)
|
φ(x)=x
|
最后
以上就是机灵铃铛为你收集整理的机器学习(一):激活函数(Activation Function)的全部内容,希望文章能够帮你解决机器学习(一):激活函数(Activation Function)所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复