我們有一個讀取GigE YUV視頻流並將其顯示在屏幕上的應用程序。通過分析,我們已經瞭解到,從功能YUV(UYVY)到RGB24將每幀至少服用的數量更多的時間和CPU的時間比其他任何一件我們的鏡頭到屏幕的管道。YUV - > RGB轉換可以硬件加速嗎?
我們正在使用的轉換功能通過千兆以太網軟件供應商(Pleora)提供的,比我們自己的「天真」(非優化的)執行速度稍快。我們正在爲我們的其餘管道使用DirectShow。 「任務管理標杆」顯示了我們的1080P 30幀流,當我們跳過轉換(並獲得當然亂碼圖像)4-5%的一個CPU使用率,以及15-19%的CPU使用率,當我們調用轉換功能。
的問題,我們已經是:
- 有一個DirectShow Filter,會爲我們做這種轉換,希望能在一個更高性能的方式,而不是依賴於第三方SDK或我們自己的(CPU-基於串行)的轉換功能?
- 必須在這個轉換在CPU上進行,或者是它在某種程度上可以被卸載到GPU的並行處理?
謝謝!埃裏克。
的成本來自讀取和圖像寫入每個字節從而飽和的內存帶寬。 GPU處理僅對於低帶寬比率的高計算開銷是有利的。這是採用YUV疊加的視頻卡的好處之一。 –