mpeg-4

    1熱度

    1回答

    我有一個應用程序可以記錄視頻。它會在其界面中顯示每個視頻,並且我想用一個縮略圖來表示每個視頻。 OS X顯示了視頻的預覽,一個海報幀幾秒鐘進入文件。我想要做類似的事情。我聽說它被稱爲「海報框架」,但谷歌沒有幫助這個。 任何人都可以指出我在適當的API,可以幫助我做到這一點? 感謝, 亞倫

    16熱度

    1回答

    我正在爲mpeg4視頻流的自定義實現編寫一個視頻解碼器(使用FFMPEG/AVCodec)。這個視頻流的特點是,它可以分裂成許多「兒子」流,基於同一父母創建許多P幀。我試圖解碼的視頻流實際上是一種「視頻樹」。事情是這樣的: I <--P <--P <---------------------P <-------------- P <------------ P \ <--P <--P

    2熱度

    1回答

    我希望能夠找到一種方法來從Python編寫生成的視頻(非實時),並將其與外部音頻文件(MP3)同時混合使用。 什麼是GStreamer Python綁定的當前狀態,他們是最新的? 是否可以寫MPEG-4輸出在GStreamer和Python的 飼料的RAW圖像幀是否有可能興建管道,這樣的GStreamer也將讀取MP3音頻和它混合放入容器中,所以我不需要使用ffmpeg等來重新處理生成的視頻軌道。

    2熱度

    1回答

    我通過MPEG-4 RTP包RFC(http://www.rfc-editor.org/rfc/rfc3016.txt)閱讀和發現很多時候我還沒有發現在網或RFC任何定義字 VOP ,有沒有人能告訴我這是什麼VOP是?

    0熱度

    1回答

    我正在測試智能相機的編碼性能(MPEG-4和MJPEG)。我已經在OpenCV/FFMPEG中編寫了一個用於執行編碼的應用程序,其中應用程序從相機捕獲圖像並將其編碼爲所需的編碼格式。在基準測試中,我開始知道MJPEG編碼比MPEG-4編碼花費的時間要長得多。我預料它會有其他解決方法。將單幀編碼爲MPEG-4大約需要31ms,而對MJPEG的編碼大約需要80ms。與MPEG-4相比,MJPEG確實需

    5熱度

    3回答

    我試圖從.mov文件解析H.264幀。我想我得出的結論是,來自AVFormat的mov.c是FFMPEG的一部分。但mov.c在未註釋的代碼旁邊是〜2600行。我正在尋找使用FFMPEG的例子,尤其是解析任何文件類型的結構。不管它是MPEG4還是Quicktime Movie,因爲它們在結構上非常相似。 如果沒有現有的例子(我找不到任何),也許有人使用它,可以給我幾行代碼,或解釋如何開始? 我想要

    37熱度

    3回答

    長篇解碼: 有一個H264/MPEG-4源 我能能將此源與RTSP協議連接起來。 我可以通過RTP協議獲取原始的UDP數據包。 那麼那些原料UDP包發送到解碼器[H264/MPEG-4] [DS源過濾器] 但是,這些 「原始」 的UDP包不能由解碼器來解碼[H264/MPEG-4]過濾 不久: 我如何才能通過H264/MPEG-4解碼器過濾器,解碼處理那些原始的UDP數據? 任何人都可以清楚地確定

    0熱度

    1回答

    我希望能找到如何用pygst創建MPEG-4視頻文件(可以提出其他框架)。 的問題有三個部分 如何從Python的幀緩衝器進料中pygst管道產生的視頻數據 如何此流保存到MPEG-4文件 如何將此流與MP3音頻源混合 以下僞代碼: for frame in range(0, 10000): # let's render 10000 frames of video data = []

    2熱度

    1回答

    我一直在嘗試從嵌入式設備上的USB攝像頭編碼視頻數據(H.263和MPEG4)。該設備有一個特殊的硬件來做到這一點。 但是,在編碼來自USB攝像頭的原始視頻(H.263/MPEG4)後,視頻質量變差,視頻中出現一些奇怪的像素化和垂直線。在this image你可以看到惱人的垂直線。 second image是一起顯示原始視頻和編碼視頻的示例; 右側是原始數據的顯示結果(質量好),左側是編碼後的結果

    1熱度

    1回答

    我想以編程方式加載MPEG-4 H264視頻格式。我想知道是否有人嘗試過,或者知道在Windows上是否可以使用SDL或Open Media Layer API。