在利用keras和tensorflow时加载模型后服务器显存几乎被吃满,试了网络上的方法,包括动态分配显存和设置固定显存,都没有效果,是我忽略了什么细节吗?
config = tf.ConfigProto()
config.gpu_options.allow_growth=True #不全部占满显存, 按需分配
sess = tf.Session(config=config)
import os
import tensorflow as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
这两种代码都试过没有效果,我用的tensorflow-gpu==1.14.0,keras==2.2.4,cuda10.1,在加载模型时占用的显存也挺多的,各位有无什么意见