7
我想知道在GPU上訓練的模型是否可以用來運行cpu的推理? (反之亦然) 感謝你!可以在cpu上使用gpu訓練模型以進行推理,反之亦然?
我想知道在GPU上訓練的模型是否可以用來運行cpu的推理? (反之亦然) 感謝你!可以在cpu上使用gpu訓練模型以進行推理,反之亦然?
只要您的模型沒有顯式的設備分配,就可以這樣做。 IE,如果你的模型有像with tf.device('gpu:0')
這樣的塊,當你在沒有GPU的模型上運行它時,它會投訴。
在這種情況下,你必須確保你導入的模型並沒有明確的設備分配,例如,而是使用import_meta_graph
clear_devices
說法只是可以肯定,這意味着比clear_devices =真我可以用我的模型,即使我在我的CPU上使用像tf.device('gpu:0')這樣的塊來訓練它? –是的,它清除了設備,並允許自動佈局算法使用可用設備 –
也可以將模型清除設備保存到SavedModel序列化中:例如,請參閱[SavedModelBuilder]中的add_meta_graph()(https: //www.tensorflow.org/api_docs/python/tf/saved_model/builder/SavedModelBuilder)類。 – Mark