gstreamer

    -1熱度

    1回答

    我是Qt的新手(使用Qt 5.7),聲音後端不再支持,而Qt使用gstreamer。但是,qt如何製作gstreamer的管道?

    2熱度

    1回答

    我正在嘗試使用Gstreamer和Python。 我想有這樣的事情在我的流水線: audioconvert ! audio/x-raw,format=(string)S16LE,channels=(int)1,layout=(string)interleaved,rate=(int)48000 ! 但我不知道如何添加的上限。

    0熱度

    1回答

    有一個從filesrc到appsink的音頻管道。它提供32ms緩衝區。如何強制它傳遞10ms音頻緩衝區?

    0熱度

    1回答

    我的應用程序(使用Python)加載Gstreamer庫,解析並啓動管道規格,該規範將來自MP4文件的準備好的視頻上的SRT文件的字幕合成,然後創建一個控件源與綁定到鏈接到字幕圖像源的視頻混合器單元的接收器的'alpha'屬性。 首先我寫了一個很小的proof-of-concept,它像一個冠軍一樣工作。如果您可以使用X-windows服務器運行它(例如在Unix或Linux中),則會在綠色背景上

    0熱度

    2回答

    試圖讓一個子類: mybin.h: #pragma once #include <gst/gstbin.h> G_BEGIN_DECLS G_DECLARE_DERIVABLE_TYPE(MyBin, my_bin, MY, BIN, GstBin) struct _MyBinClass { GstBinClass parent_class; }; GstElem

    0熱度

    2回答

    我試圖找到一種方法來創建一個vsync/hsync效果只需在終端中輸入命令。 gstreamer或ffmpeg可以做到嗎? 例如:我有圖像,並且我希望它反覆向上滾動和/或滾動到側。動畫垂直GIF圖像的下面 我使用的ubuntu 參見實施例16.04(Linux)的

    1熱度

    1回答

    我創建了管道gst_parse_launch("rtspsrc location=rtsp://192.168.0.77:554/user=admin_password_=tlJwpbo6_channel=1_stream=0.sdp?real_stream ! queue !rtph264depay ! h264parse ! splitmuxsink muxer=\"mp4mux name=m

    0熱度

    1回答

    我有流使用gstreamer的管道: v4l2src ! x264enc ! rtph264pay pt=96 ! udpsink host=ip port=8554 而這種管道接收到該流: / queue ! avdec_h264 ! appsink udpsrc ! capsfilter ! rtpjitterbuffer ! rtph264depay !

    0熱度

    1回答

    即時通訊試圖用Gstreamer 1.0創建一個可視化器。 當我在一個GstBuffer, 的格式管道中的原始音頻數據,然後將緩衝液被映射與gst_buffer_map, 相應map.data(link) 是格式guint8的,所以它是間0和255.地圖大小略高於4000. 如何解釋這些值?他們的音頻頻率如何? 我會非常感謝一個有用的答案。 問候, tagelicht

    0熱度

    1回答

    我的設置是這樣的: 連接到無線鏈路節點的以太網相機。 相機使用UDP發送H264編碼流(320 * 184,速度爲25 FPS)。 連接到筆記本電腦的另一個無線鏈接節點(Windows 7)。 筆記本電腦正在運行gstreamer。 接收到的UDP數據包用於顯示沒有任何延遲的視頻。 GStreamer的命令顯示視頻流: GST-發射-1.0 rtspsrc協議= 00000001位置= RTSP: