0
tensorflow中的訓練小模型(< 100 mb)總是使用太多的GPU內存,爲什麼?如何弄清楚?在張力流中訓練小模型(<100 mb)時,GPU內存不足
tensorflow中的訓練小模型(< 100 mb)總是使用太多的GPU內存,爲什麼?如何弄清楚?在張力流中訓練小模型(<100 mb)時,GPU內存不足
默認情況下,tensorflow可以增長到所有GPU內存的總和。 您可以通過一個會話設置配置限制它:
gpu_memory_fraction = 0.4 # Fraction of GPU memory to use
config = tf.ConfigProto(gpu_options=
tf.GPUOptions(per_process_gpu_memory_fraction=gpu_memory_fraction))
sess = tf.Session(config=config)
萬分感謝。 – Austin
減少批量大小和使用時間軸上看到內存是怎麼回事(tl.generate_chrome_trace_format(show_memory =真..)) –