一般的程序都是默认了单块显卡訓练模型如果batch_size过大的话,单块显卡是不好使的这就需要多块显卡并行训练了,如何实现呢特别简单 :
上面这行代码就可以实现了,nn.DataParallel()內的参数可以不填则默认使用所有可以使用的显卡。
如果不设置多显卡并行计算那么上面的那一句代码改为下面的就行了:
友情提示: 为了保证您能够顺利投标请在投标或者购买标书前向招标代理机构或者业主进行咨询,详细了解投标相关要求具体要求及项目 情况以实际招标情况为准!洳有其它疑问,也可以致电400-718-7183
一般的程序都是默认了单块显卡訓练模型如果batch_size过大的话,单块显卡是不好使的这就需要多块显卡并行训练了,如何实现呢特别简单 :
上面这行代码就可以实现了,nn.DataParallel()內的参数可以不填则默认使用所有可以使用的显卡。
如果不设置多显卡并行计算那么上面的那一句代码改为下面的就行了: