我是靠谱客的博主 笑点低龙猫,最近开发中收集的这篇文章主要介绍基于PyTorch利用全连接神经网络识别MNIST手写数字,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

from torchvision import datasets, transforms
from torch import nn, optim
from torch.utils.data import DataLoader
import torch
from torch.autograd import Variable

# step1:定义超参数,并进行初始化
batch_size = 64
learn_rate = 0.001
num_epoches = 10000

# step2: 建立带有激励函数和批标准化函数的网络
class batch_net(nn.Module):
    def __init__(self, in_dim, n_hiddle_1, n_hiddle_2, out_dim):
        super(batch_net, self).__init__()
        self.layer1 = nn.Sequential(nn.Linear(in_dim, n_hiddle_1), nn.BatchNorm1d(n_hiddle_1), nn.ReLU(True))
        self.layer2 = nn.Sequential(nn.Linear(n_hiddle_1, n_hiddle_2), nn.BatchNorm1d(n_hiddle_2), nn.ReLU(True))
        self.layer3 = nn.Sequential(nn.Linear(n_hiddle_2, out_dim))
    def forward(self, x):
        x = self.layer1(x)
        x = self.layer2(x)
        x = self.layer3(x)
        return x

# step3:对数据进行标准化预处理
"""
    这里主要使用两个函数,一个是transforms.ToTensor(),将图片转换成pyTorch中的Tensor对象,并且进行归一化(0-1之间)处理;
    另一个是transforms.Normalize()进行标准化处理,他有两个参数,分别是均值和标准差,如transforms.Normalize([0.5], [0.5])
    表示将数据减去0.5后,再除以0.5,这样将数据转化到-1到1之间,注意,因为MNIST数据集输入的图片是灰度图片,所以只有1个通道,如果
    是输入的图片是财社的图片,则有三个通道
    然后用transforms.Compose()函数将各种预处理的操作组合在一起
"""
data_tf = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize([0.5], [0.5])
])

# step4:导入MNIST数据集
"""
   (1)root='./data'程序会自动在当前目录下建立一个文件夹data
   (2)train=True表示数据集作为训练接。train=False表示数据集作为测试集
   (3) transforms=data_tf吧PIL Image对象转化为Tensor对象
   (4)download=True表示数据从Internet上下载,否则数据不从internet上下载
   (5)shuffle=True表示表示每次迭代数据打乱,False反之
"""
train_dataset = datasets.MNIST(root='./data', train=True, transform=data_tf, download=True)
test_dataset = datasets.MNIST(root='./data', train=False, transform=data_tf)
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

# step5:导入神经网络模型, 定义损失函数和优化函数
model = batch_net(28*28, 300, 100, 10) # 28*28表示图片大小、300,100表示隐藏层的数量,最后的10表示10个类别
# 定义损失函数
criterion = nn.CrossEntropyLoss()
# 定义一个优化函数
optimizer = optim.SGD(model.parameters(), lr=learn_rate)

# step6:训练模型
epoch = 0
for data in train_loader:
    img, label = data
    img = img.view(img.size(0), -1) # x = x.view(x.size(0), -1)  这句话的出现就是为了将前面多维度的tensor展平成一维。
    # 下面这段程序以后会经常使用到,表示如果有GPU,则使用
    if torch.cuda.is_available():
        img = img.cuda()
        label = label.cuda()
    else:
        img = Variable(img)
        label = Variable(label)
    out = model(img)
    loss = criterion(out, label)
    print_loss = loss.data.item() # 官方文档解释.item()用法是:一个元素张量可以用x.item()得到元素值,我理解的就是一个是张量,一个是元素。
    optimizer.zero_grad() # optimizer.zero_grad()意思是把梯度置零,也就是把loss关于weight的导数变成0.
    # 对于下面两个操作我是把它理解成一种梯度下降法,
    loss.backward()
    optimizer.step()
    epoch+=1
    if epoch%10==0:
        print('epoch:{},loss:{:.4f}'.format(epoch, loss.data.item()))

if __name__ =="__main()__":
    model.eval()
    eval_loss = 0
    eval_acc = 0
    for data in test_loader:
        img, label = data
        img = img.view(img.size(0), -1)
        if torch.cuda.is_available():
            img = img.cuda()
            label = label.cuda()
        out = model(img)
        loss = criterion(out, label)
        eval_loss+=loss.data.item()*label.size(0)
        """
         在分类问题中,通常需要使用max()函数对softmax函数的输出值进行操作,求出预测值索引,然后与标签进行比对,计算准确率。
         下面讲解一下torch.max()函数的输入及输出值都是什么,便于我们理解该函数。
         torch.max(input, dim) 函数
         输入:
        input是softmax函数输出的一个tensor
        dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值
        输出:
        函数会返回两个tensor,第一个tensor是每行的最大值;第二个tensor是每行最大值的索引。
        """
        _,pred = torch.max(out, 1)
        num_corred = (pred==label).sum()
        eval_acc+=num_corred.item()
        print('Test:{:.6f}', 'Acc:{:.6f}'.format(
            eval_loss/(len(test_dataset)),
            eval_acc/(len(test_dataset))
        ))

结果如下所示:

最后

以上就是笑点低龙猫为你收集整理的基于PyTorch利用全连接神经网络识别MNIST手写数字的全部内容,希望文章能够帮你解决基于PyTorch利用全连接神经网络识别MNIST手写数字所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(50)

评论列表共有 0 条评论

立即
投稿
返回
顶部