gstreamer

    3熱度

    2回答

    我嘗試了GStreamer的測試應用,但在運行時以下行失敗: demuxer = gst_element_factory_make ("oggdemux", "ogg-demuxer"); // returns NULL 我使用的MacOSX和安裝的GStreamer,libogg和Vorbis的工具,通過MacPorts的 。所以我不明白它爲什麼會失敗。 關於如何使它工作的任何建議? 編輯:

    1熱度

    1回答

    我已被分配到爲當地大學實施視頻點播服務。講座的不同方面(視頻,音頻,屏幕演示,白板)將被記錄下來。在演講期間,所有這些數據流都會到達一臺Linux服務器。該服務器應該轉碼並將所有這些流捆綁到一個容器(Matroska)文件中。 我的選擇似乎是: 寫的GStreamer應用 做一些與FFmpeg中 做點什麼VLC ...? 有沒有人在過去做過類似的事情?你能推薦一些東西嗎? 編輯 對於那些有興趣,這

    0熱度

    1回答

    如何使用GStreamer解析MPEG流..?我需要處理MPEG流的唯一關鍵幀(不是P幀)的所有用戶數據字段。 MPEG流正在通過rtp協議。我可以使用GStreamer管道顯示視頻,但是,我的最終要求是解析所有關鍵幀的userdata字段,並將該信息疊加到顯示視頻中。

    1熱度

    3回答

    我擁有avermedia掌舵HX usb棒,我想從複合輸入捕捉,但我不能,因爲我無法選擇輸入。我在+ python中使用gstreamer,我想我需要使用gsttuner select input,但是我沒有使用gstreamer接口的經驗。有人能發表一個簡單的例子嗎? 謝謝!

    6熱度

    3回答

    我想用CMake編譯使用C庫GStreamer的C++應用程序。 我的main.cpp文件看起來像這樣: extern "C" { #include <gst/gst.h> #include <glib.h> } int main(int argc, char* argv[]) { GMainLoop *loop; GstElement *pipeline, *

    0熱度

    1回答

    我想用python的'glimagesink'元素。 元素(它是GObject裏面)有client-draw-callback屬性,它應該(至少在C++中)包含一個函數(bool func(uint t, uint w, uint h))指針。 我試過element.set_property('client-draw-callback', myfunc),並創建具有ctypes的函數指針,但每次它

    10熱度

    2回答

    我想編寫一個需要播放跟蹤結果的對象跟蹤程序。由於gstreamer是一個很好的多媒體框架,我想在演示程序中使用它。但我不知道如何實現視頻顯示的細節。任何人都可以幫忙嗎? Avidemux插件可以將音頻和視頻部分與avi文件分開,但接下來要做什麼? 如果我打開一個未壓縮的avi文件,如果我直接將avidemux插件的輸出板連接到視頻接收器,它是否工作? 順便說一句,哪個視頻接收器在效率方面更好? 我

    4熱度

    4回答

    我想編寫一個簡單的Linux CLI應用程序,它可以使用2個視頻源(1個演講者在講話,1個在他們的幻燈片並且沒有音頻)併合並它們。 我希望整個輸出視頻是兩個原始視頻並排放置。否則,我的第二個最佳選擇將是一個「畫中畫」風格的視頻,主持人在角落裏的一個小框架。 從幾個小時的研究,GStreamer看起來像它可能能夠做到這一點。任何人都可以在我花更多時間嘗試之前進行確認嗎? 如果不行,還有其他API可以