Slim模型部署多GPU

1 多GPU原理 单GPU时,思路很简单,前向、后向都在一个GPU上进行,模型参数更新时只涉及一个GPU。 多GPU时,有模型并行和数据并行两种情况。 模型并行指模型的不同部分在不同GPU上运行。 数据并行指不同GPU上训练数据不同,但模型是同一个(相当于是同一个模型的副本)。 TensorFlow
posted @ 2019-08-27 20:40  珠峰上吹泡泡  阅读(772)  评论(0编辑  收藏  举报