python-gstreamer

    3熱度

    2回答

    我目前做的: source_path = 'file:///home/raj/videos/sample.mpg' descr = 'uridecodebin uri=%s ! videoconvert ! gdkpixbufsink name=sink' % (source_path) pipeline = Gst.parse_launch(descr) 而不是使用uri但是,我怎麼能使

    1熱度

    1回答

    我試圖用input-selector兩個流之間進行切換,但我得到的錯誤: `AttributeError: 'NoneType' object has no attribute 'get_property'` 這是我的Python代碼: def __init__(self): pipeline_string=( 'videotestsrc pattern=0 !

    1熱度

    1回答

    我有python gstreamer - 1.0使用「autoaudiosrc」元素記錄音頻的代碼。我的問題是在幾個'預定義'秒後停止管道,最好我想以gstelement格式添加它。 當前管道用來記錄: gst-launch-1.0 autoaudiosrc num-buffers=100 ! audioconvert ! vorbisenc ! oggmux ! filesink locatio

    3熱度

    1回答

    我試圖多個RTP H264有效載荷的視頻流組合成15FPS的單一視頻流。 的工作流水線上的15FPS VIDEO_CAPS="application/x-rtp,media=(string)video,clock-rate=(int)90000,encoding-name=(string)H264" gst-launch -vvvve videomixer2 name=mix ! ffmpeg

    0熱度

    1回答

    按規定在這裏我已經寫GStreamer的視頻播放器: https://github.com/dschreij/media_player_gst/blob/master/media_player_gst.py 在Windows工作在「正常」和多模式罰款(這是所有的Gstreamer零件和玩家對象是在一個單獨的過程中創建的)。在Ubuntu 13.10,然而,當玩家在自己的進程運行通話 self.bu

    6熱度

    2回答

    我想要創建一種新型音頻濾鏡的原型。目前我使用GStreamer來返回音頻的緩衝區,Cython將濾波器應用到它。然後我將結果發送回GStreamer。 所有東西都包裝在python主代碼中,GStreamer訪問使用pygst完成。使用Cython創建原型非常棒,因爲它可以在代碼運行時自動重新編譯,而且效率非常高。 但是我覺得如果我可以使用我的Cython文件生成一個GStreamer本機插件(這

    2熱度

    1回答

    我在將GStreamer的視頻輸出重新縮放到顯示視頻的窗口尺寸(保留視頻的縱橫比)時遇到了一些麻煩。問題是我首先需要預先錄製視頻,以便能夠通過檢索協商的上限來確定其尺寸,然後計算出需要顯示的尺寸以適應窗口。一旦我預捲了視頻並獲得了尺寸上限,我無法再更改視頻的尺寸。設置新的大小寫仍然會導致視頻以原始大小輸出。我必須做些什麼來解決這個問題? 只是要完成。在當前的實現中,我無法渲染到可輕鬆解決此問題的O

    0熱度

    1回答

    我有以下功能,其處理包含由GStreamer的 def __handle_videoframe(self, appsink): """ Callback method for handling a video frame Arguments: appsink -- the sink to which gst supplies the frame (not

    1熱度

    2回答

    在我的程序中,我使用PyGObject/PyGI和GStreamer在我的GUI中顯示視頻。該視頻顯示在Gtk.DrawingArea中,因此我需要在realize-信號處理程序中獲取它的窗口句柄。在Linux上,我得到該處理使用: drawing_area.get_property('window').get_xid() 但是,我如何得到Windows上的句柄? 我在網上搜索,但發現只使用P

    0熱度

    1回答

    下面是「理論」的管道,將取消在音頻會議混音特定用戶的音頻貢獻。理論是這樣的,我們反轉用戶的音頻樣本從原來它最後加到amixer輸出。它應該取消。不過,我無法確定爲什麼我不在下面的管道中工作。調音臺的想法是,它彙總了所有用戶的音頻貢獻,並且在將音頻流送回個人用戶時,他們的貢獻被「反轉」+「加法器」元素取消。 我懷疑時鐘。還是因爲這些管道是分開的,即不在單一管道中? gst-launch \