我是靠谱客的博主 疯狂面包,最近开发中收集的这篇文章主要介绍pytorch:分批训练,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

在这里插入代码import torch
import torch.utils.data as Data#批处理模块

torch.manual_seed(1)    # reproducible

BATCH_SIZE = 5#每小批5# BATCH_SIZE = 8

x = torch.linspace(1, 10, 10)       # this is x data (torch tensor)
y = torch.linspace(10, 1, 10)       # this is y data (torch tensor)

torch_dataset = Data.TensorDataset(x, y)
loader = Data.DataLoader(#使训练分批
    dataset=torch_dataset,      # torch TensorDataset format
    batch_size=BATCH_SIZE,      # mini batch size
    shuffle=True,               # 训练时随机打乱数据再抽样
    num_workers=2,              # subprocesses for loading data
)


def show_batch():
    for epoch in range(3):   # 训练整个数据集三次(每次都是拆分成小组训练)
        for step, (batch_x, batch_y) in enumerate(loader):  # for each training step
            # train your data...
            print('Epoch: ', epoch, '| Step: ', step, '| batch x: ',
                  batch_x.numpy(), '| batch y: ', batch_y.numpy())


if __name__ == '__main__':
    show_batch()

视频传送门
结果图:
在这里插入图片描述

最后

以上就是疯狂面包为你收集整理的pytorch:分批训练的全部内容,希望文章能够帮你解决pytorch:分批训练所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部