博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
TensorFlow设置GPU占用量
阅读量:5128 次
发布时间:2019-06-13

本文共 653 字,大约阅读时间需要 2 分钟。

tensorflow在训练时默认占用所有GPU的显存。

可以通过以下方式解决该问题:

1、在构造tf.Session()时候通过传递tf.GPUOptions作为可选配置参数的一部分来显式地指定需要分配的显存比例,如下所示:

# 假如有12GB的显存并使用其中的4GB:gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

per_process_gpu_memory_fraction指定了每个GPU进程中使用显存的上限,但它只能均匀作用于所有GPU,无法对不同GPU设置不同的上限

2、尝试如下设置:

config = tf.ConfigProto()config.gpu_options.allow_growth=Truesess = tf.Session(config=config)

当allow_growth设置为True时,分配器将不会指定所有的GPU内存,而是根据需求增长

3、指定GPU编号:

import osos.environ["CUDA_VISIBLE_DEVICES"] = "0"或者在脚本或者命令行中指定export CUDA_VISIBLE_DEVICES=0

 

转载于:https://www.cnblogs.com/jiu0821/p/9501665.html

你可能感兴趣的文章
CentOS 7 yum安装失败问题
查看>>
ArcGIS移动开发策略的选择[转]
查看>>
LoadRunner参数化详解
查看>>
P1985 翻转棋
查看>>
python_day1
查看>>
PowerDesigner中CDM数据类型和PDM数据类型间的mapping (对应关系)详解
查看>>
利用HttpWebRequest模拟表单提交
查看>>
面稀土,战码家(一)
查看>>
no server suitable for synchronization found的解决办法
查看>>
MariaDB常用命令
查看>>
SVG.<text/>文字的长度
查看>>
关于二维数组的最大子数组 曹玉松&&蔡迎盈
查看>>
利用反卷积神经网络可视化CNN
查看>>
关于getElementsByTagName的返回值
查看>>
放假第五周
查看>>
App提交审核被拒的原因汇总
查看>>
自加入屠龙后的成长记
查看>>
Java多线程打辅助的三个小伙子
查看>>
【数据挖掘】Clementine(数据挖掘软件)
查看>>
Mysql复制表结构、表数据
查看>>