NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

Pytorch to(device)多GPU并行和查看GPU信息

已有 5215 次阅读 2020-9-30 15:34 |个人分类:Pytorch|系统分类:科研笔记

(一)参考博客:

Pytorch to(device)

Pytorch:多GPU训练网络与单GPU训练网络保存模型的区别

(二)常用的查看GPU信息的命令

       为什么将数据转移至GPU的方法叫做.cuda而不是.gpu,就像将数据转移至CPU调用的方法是.cpu?这是因为GPU的编程接口采用CUDA,而目前并不是所有的GPU都支持CUDA,只有部分Nvidia的GPU才支持。PyTorch未来可能会支持AMD的GPU,而AMD GPU的编程接口采用OpenCL,因此PyTorch还预留着.cl方法,用于以后支持AMD等的GPU。

torch.cuda.is_available()
cuda是否可用;

torch.cuda.device_count()
返回gpu数量;

torch.cuda.get_device_name(0)
返回gpu名字,设备索引默认从0开始

torch.cuda.current_device()
返回当前设备索引


点滴分享,福泽你我!Add oil!



https://wap.sciencenet.cn/blog-3428464-1252747.html

上一篇:model.train()与model.eval()的用法
下一篇:正则表达式re
收藏 IP: 211.162.81.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

全部作者的其他最新博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 23:26

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部