2017-08-07 106 views
0

我正在使用Keras tensorflow一個大模型,向訓練jupyter筆記本內核停止的結束,在命令行中,我有以下錯誤:CUDA_ERROR_OUT_OF_MEMORY:如何激活從Keras多個GPU在Tensorflow

2017-08-07 12:18:57.819952: E tensorflow/stream_executor/cuda/cuda_driver.cc:955] failed to alloc 34359738368 bytes on host: CUDA_ERROR_OUT_OF_MEMORY 

這我覺得很簡單 - 我內存不足。我有4個NVIDIA 1080ti GPU。我知道TF只使用一個,除非指定。因此,我有2個問題:

  1. 有如何利用所有的GPU在Keras良好的工作例如

  2. 在Keras,現在看來,這是可以改變gpu_options.allow_growth =真,但我看不出究竟是如何做到這一點(我理解,這是作爲一個幫助吸血鬼,但我完全新的DL在GPU上)

看到CUDA_ERROR_OUT_OF_MEMORY in tensorflow

回答

0
  1. 看到這個Official Keras Blog

  2. 試試這個:

    import keras.backend as K 
    
    config = K.tf.ConfigProto() 
    config.gpu_options.allow_growth = True 
    session = K.tf.Session(config=config)