2016-12-30 51 views
0

目前我正在使用Theano進行機器學習,現在我想嘗試火炬。在火炬機器學習框架中設置GPU的使用情況

在Theano沒有設置標誌爲GPU內存使用的選項:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

所以Theano使用GPU的集容量,這裏90%。然而在火炬中,類似的網絡使用大約30%的GPU負載。

有沒有什麼辦法可以在類似於Theano的Torch中設置更高的GPU負載?

回答

0

火炬會根據它的標準分配器使用盡可能多的GPU內存。

內存割炬的使用量不需要像在Theano中做的例子那樣預先指定。

+0

啊謝謝!這就解釋了爲什麼內存使用量會隨網絡大小自動增加。 –