tf2 一机多卡训练前言镜像分布式策略 MirroredStrategy实现代码成功运行
文章目录前言镜像分布式策略 MirroredStrategy实现代码成功运行前言基于docker,使用两个GPU训练自定义模型(Keras子类)。镜像分布式策略 MirroredStrategy分布式策略有很多,这里只介绍一种,方便快速上手,实践证明一机多卡可行其它分布式策略详见:https://blog.csdn.net/u010099177/article/details/106074932tf.distribute.MirroredStrategy 支持在单机多GPU上的同步分布式训练