日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

TensorFlow?2.0之后動態分配顯存方式_python

作者:scluis ? 更新時間: 2023-01-05 編程語言

TensorFlow 2.0之后動態分配顯存

import tensorflow as tf
 
config = tf.compat.v1.ConfigProto()
config.gpu_options.allow_growth = True
sess = tf.compat.v1.Session(config = config)
tf.compat.v1.keras.backend.set_session(sess)

keras和tensorflow動態分配顯存

tensoflow或者基于tensorflow的keras,好像默認會直接將GPU中所有的顯存都讀過來,然后慢慢用。

這樣如果是服務器是的話,別人就沒法用了,這里轉載了動態分配顯存的方法:

tensorflow下,加入代碼:

config = tf.ConfigProto()
config.gpu_options.allow_growth = True ? #設置動態分配顯存
session = tf.Session(config=config, ...)

或者:

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3 ? #只一次調用30%的顯存
session = tf.Session(config=config, ...)

對于keras,如果使用tensorflow作為后端,多加一句話就好了:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config)) # 此處不同

總結

原文鏈接:https://blog.csdn.net/weixin_42619772/article/details/122547421

欄目分類
最近更新