深度学习有关的术语 博主的博客:点击打开链接这里我想把博主的博客继续完善下去。激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 Adade 深度学习用于目标检测论文 2023-05-25 43 点赞 0 评论 65 浏览