有人看到的情況,其中運行n
GNU使每個過程與在GNU Make進程中分配可用內核是否是一個好主意?
$ make -j <number of cores/n>
快於運行他們所有
$ make -j < number of cores>
,讓GNU讓照顧它。我在練習中從來沒有見過這樣的效果,在我看來,做前者毫無意義。也就是說,也許有可能製作出具有這種效果的具體非實際例子,但在現實世界中,沒有。
我的問題是,有沒有人在他們的實踐中看到這樣的效果。
ADDED:當然假設不同的進程是相互獨立的,並且可以邏輯運行。
ADDED:問題是:手動分區通常會更快。我知道答案是,它是:沒有。問題是,它可以在實踐中發生嗎?有人看過嗎?
尤其是我感興趣的MadScientist的答案:)
這個問題是在計算器上的話題,因爲,上面的紋路都是方案,即,對於GNU包裝腳本製作。 (是的,我知道這可能是不會飛,但至少我嘗試了:))
如你所描述
不,它不能更快,並且幾乎總是會變慢(也就是說,幾乎總是會得到更少的並行性)。 – MadScientist 2014-11-07 13:14:39
而且我應該指出,有一個非常好的論壇可以提出這樣的問題,這些問題實際上並不屬於SO:[email protected]郵件列表。 – MadScientist 2014-11-07 13:15:45
@MadScientist啊是的,我完全忘了這麼做,是的,先生,我會問那裏 – 2014-11-07 19:42:51