我是靠谱客的博主 从容汽车,最近开发中收集的这篇文章主要介绍pytroch使用gpu命令torch.cuda简单总结,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

参考:https://blog.csdn.net/wacebb/article/details/114919245

多个gpu设置使用

pred = nn.parallel.data_parallel(model, patch, device_ids=[0,1,2])

查看显卡使用情况,再cmd环境下输入nvidia-smi

常用的和gpu有关的命令

torch.cuda.is_available() # 判断是否可以使用gpu
# 设置能使用的gpu号,但这里设置有,但实际gpu没这个编号,在使用时会报错
os.environ['CUDA_VISIBLE_DEVICES'] = '0,3'  # 要放在import torch之前
device=torch.device('cuda' if torch.cuda.is_available() else 'cpu')  # 选择使用gpu或cpu
torch.cuda.device_count() # 显示能够使用gpu的个数
torch.cuda.set_device(0)  #直接设置cuda0
torch.cuda.get_device_name(0) # 查看gpu名字
torch.cuda.current_device() #查看当前设备gpu索引

# 将模型加载时通常和查看能够使用的gpu命令配合使用(但能够使用的gpu一定是编号连续的)
model = nn.DataParallel(model,device_ids = range(torch.cuda.device_count()) )  
model = model.cuda()    # 模型放入gpu,要赋值操作

inputs = inputs.cuda()
labels = labels.cuda()

先设置cuda的编号再使用

device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model=model.to(device)
x=x.to(device)
y=y.to(device)

直接在要放入gpu的内容后边加cuda(设备号)

model=model.cuda()
x=x.cuda()
y=y.cuda()

最后

以上就是从容汽车为你收集整理的pytroch使用gpu命令torch.cuda简单总结的全部内容,希望文章能够帮你解决pytroch使用gpu命令torch.cuda简单总结所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(41)

评论列表共有 0 条评论

立即
投稿
返回
顶部