基于tensorflow指定GPU运行及GPU资源分配的几种方式小结
1.在终端执行时设置使用哪些GPU(两种方式)
(1)如下(export语句执行一次就行了,以后再运行代码不用执行)
(2)如下
2.代码中指定(两种方式)
(1)
importos os.environ["CUDA_VISIBLE_DEVICES"]="1"
(2)
#Createsagraph. withtf.device('/gpu:1'): a=tf.constant([1.0,2.0,3.0,4.0,5.0,6.0],shape=[2,3],name='a') b=tf.constant([1.0,2.0,3.0,4.0,5.0,6.0],shape=[3,2],name='b') c=tf.matmul(a,b) #Createsasessionwithlog_device_placementsettoTrue. sess=tf.Session(config=tf.ConfigProto(log_device_placement=True)) #Runstheop. printsess.run(c)
若想使用多个GPU,如下
c=[] fordin['/gpu:0','/gpu:1']: withtf.device(d): a=tf.constant([1.0,2.0,3.0,4.0,5.0,6.0],shape=[2,3]) b=tf.constant([1.0,2.0,3.0,4.0,5.0,6.0],shape=[3,2]) c.append(tf.matmul(a,b)) withtf.device('/cpu:0'): sum=tf.add_n(c) #Createsasessionwithlog_device_placementsettoTrue. sess=tf.Session(config=tf.ConfigProto(log_device_placement=True)) #Runstheop. printsess.run(sum)
3.GPU资源分配
(1)设置允许GPU增长
config=tf.ConfigProto() config.gpu_options.allow_growth=True session=tf.Session(config=config,...)
(2)设置每个GPU内存使用多少
config=tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction=0.4 session=tf.Session(config=config,...)
以上这篇基于tensorflow指定GPU运行及GPU资源分配的几种方式小结就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。