我是靠谱客的博主 明亮蜗牛,最近开发中收集的这篇文章主要介绍Pytorch 学习(7):Pytorch中的Non-linear Activations (非线性层)实现,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
Pytorch 学习(7):Pytorch中的Non-linear Activations (非线性层)实现
Pytorch中的Non-linear Activations (非线性层)包括以下激活函数:
- ReLU
- ReLU6
- ELU
- SELU
- PReLU
- LeakyReLU
- Threshold
- Hardtanh
- Sigmoid
- Tanh
- LogSigmoid
- Softplus
- Softshrink
- Softsign
- Tanhshrink
- Softmin
- Softmax
- Softmax2d
- LogSoftmax
Pytorch各激活函数的Python前端代码在activation.py中:
查看一下ReLU的python源码:
class ReLU(Threshold):
r"""Applies the rectified linear unit function element-wise
:math:`text{ReLU}(x)= max(0, x)`
.. image:: scripts/activation_images/ReLU.p
最后
以上就是明亮蜗牛为你收集整理的Pytorch 学习(7):Pytorch中的Non-linear Activations (非线性层)实现的全部内容,希望文章能够帮你解决Pytorch 学习(7):Pytorch中的Non-linear Activations (非线性层)实现所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复