Pytorch单机多卡加速
忙了两个月从收到原始数据到最后在工程项目中加载成功完成测试,好像从元旦上班后就再没休息过,昨天项目通过三期评审终于可以喘口气补点作业了。(年前写的文章,今天转过来了)多卡并行一定要使用torch.nn.parallel.DistributedDataParallel() torch.nn.parallel.DistributedDataParallel() torch.nn.parallel.DistributedDataParallel()重要的事情要说三遍!千万不要使用torch.nn.