我使用兩種不同的方式獲取時間clock()和getLocalTime(),因爲我希望CPU時間花費在我的進程上和掛鐘時間花在這個過程上。目前我這樣做:在處理上花費CPU時間與在處理問題上花費的世界時間C++
printf("CPU Time: %gms \n", (((double)(finish-start))/CLOCKS_PER_SEC)*1000.0);
printf("Clock Time: %ldms \n", (end.sec-begin.sec)*1000+(end.msec-begin.msec));
但他們都給了我一樣的確切結果! (運行約30秒),並且我知道CPU不會在這個過程中花費太多時間。我使用正確的功能嗎?謝謝。
現在我在Windows和它在Linux上工作的很好,我不知道爲什麼它不是」合作。 – 2011-02-07 20:34:07