這篇文章將為大家詳細講解有關Keras使用GPU資源耗盡如何解決,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
我們在使用GPU資源進行訓練的時候,可能會發生資源耗盡的情況,那么在在這種情況,我們需要對GPU的資源進行合理的安排,具體使用辦法如下:
框架:Tensorflow和Keras
方法
import tensorflow as tf import keras.backend.tensorflow_backend as KTF config = tf.ConfigProto() config.gpu_options.allow_growth=True #不全部占滿顯存, 按需分配 sess = tf.Session(config=config) KTF.set_session(sess) # 設置session
通過這種方法,就能合理的使用GPU資源了。
至少到目前位置,我自己從程序沒出現資源耗盡的情況,當然,對于batchsize的設置,一定要設置在合理的范圍,所謂合理,大家自己體會。
補充知識:keras使用GPU的一些坑
keras安裝
conda install tensorflow-gpu
pip install keras
注意:不要使用conda安裝keras,會檢測依賴,默認安裝上tensorflow的CPU版本。
keras運行報錯,tensorflow/stream_executor/cuda/cuda_dnn.cc:329 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR
解決方法:
增加如下代碼:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.5) config = tf.ConfigProto(gpu_options=gpu_options) config.gpu_options.allow_growth = True session = tf.Session(config=config)
關于Keras使用GPU資源耗盡如何解決就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。