拉长秋天

文章
4
资源
0
加入时间
2年10月18天

深度学习有关的术语

博主的博客:点击打开链接这里我想把博主的博客继续完善下去。激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括  sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 Adade