神经网络基本结构的使用(Non-linear Activations的使用)
作用:从神经网络中引入一些非线性的特征,非线性特征越多,才能模拟出越丰富的曲线以RELU举例CLASStorch.nn.ReLU(inplace=False)实战:import torchfrom torch import nnfrom torch.nn import ReLUinput = torch.tensor([[1, -0.5], [-1, 3]])input = torch.reshape(input, (-1, 1, 2, 2)