tensorflow指定GPU与动态分配GPU memory设置
在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:
exportCUDA_VISIBLE_DEVICES=1
这样便是只占用1号GPU,通过命令
nvidia-smi
可以查看各个GPU的使用情况。
另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下
importos importsys os.environ['CUDA_VISIBLE_DEVICES']=sys.argv[1] importtensorflowastf fromkeras.backend.tensorflow_backendimportset_session config=tf.ConfigProto() config.gpu_options.allow_growth=True set_session(tf.Session(config=config))
这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。
以上这篇tensorflow指定GPU与动态分配GPUmemory设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
热门推荐
10 小红书平安祝福语简短
11 生日祝福语大全女孩简短
12 收生日红包祝福语 简短
13 领证幽默祝福语简短
14 法考面试祝福语简短
15 老哥出门祝福语简短语
16 送灯祝福语简短独特
17 幼儿狗年祝福语大全简短
18 好听的元旦简短祝福语