libavformat

    0熱度

    1回答

    我正在使用ffmpeg作爲其核心功能的一部分的python項目。從本質上說ffmpeg我用歸結爲這兩個命令的功能: ffmpeg -i udp://<address:port> -qscale:v 2 -vf "fps=30" sttest%04d.jpg ffmpeg -i udp://<address:port> -map data-re -codec copy -f data out.bi

    -1熱度

    1回答

    它可以解析主播放列表來獲取和存儲所有的URL與變異有關,使用libav,根據我所選擇的變型,使下載。感謝所有幫助是值得歡迎

    1熱度

    1回答

    我試試這個代碼以獲取媒體文件的時間: AVFormatContext* pFormatCtx = NULL; avformat_open_input(&pFormatCtx, filename.c_str(), NULL, NULL); if (pFormatCtx != 0) { avformat_find_stream_info(pFormatCtx, NULL);

    1熱度

    2回答

    我試圖用FFmpeg和C++創建mp4視頻文件,但結果我收到破損的文件(Windows播放器顯示「無法播放... 0xc00d36c4」)。如果我創建.h264文件,它可以使用'ffplay'播放並通過CL成功轉換爲mp4。 我的代碼: int main() { char *filename = "tmp.mp4"; AVOutputFormat *fmt; AVFo

    0熱度

    1回答

    我使用在Arch Linux上運行的應用libavformat獲取媒體文件MIME類型的C++應用程序。目前使用以下行: std::string path = "/path/to/file.extension"; av_register_all(); AVFormatContext* pFormatCtx = avformat_alloc_context(); avformat_open_

    -1熱度

    1回答

    爲了確定給定文件的視頻持續時間,我使用libavformat。我的程序如下所示: #include <stdio.h> #include <libavformat/avformat.h> #include <libavutil/dict.h> int main (int argc, char **argv) { AVFormatContext *fmt_ctx = NULL;

    0熱度

    2回答

    我正在構建一個程序(我想使用libavformat而不是ffmpeg可執行文件)將直播視頻流傳輸到Icecast服務器,它看起來像FFmpeg應該能夠做到這一點。我可以寫實時視頻到一個文件(這不是簡單的開頭:)),但我找不到簡單的代碼/例如如何使用avformat/avio寫入Icecast(網絡)掛載點。 任何指向示例代碼的指針將不勝感激。

    0熱度

    1回答

    使用最近版本的FFmpeg閱讀圖像文件時遇到了內存泄漏,我無法跟蹤。 似乎填補了AVFrame與avcodec_send_packet和avcodec_receive_frame後,我到av_frame_free呼叫沒有實際解除分配AVBuffer對象withing框架。我唯一沒有解脫的是AVCodecContext。如果我試圖這樣做,我會崩潰。 我已經創建了這個示例程序,它是關於儘可能簡單,因爲

    0熱度

    1回答

    我試圖做一個簡單的影音播放器,並在某些情況下,我得到如下正確的值: checking /media/timecapsule/Music/02 Baawre.mp3 [mp3 @ 0x7f0698005660] Skipping 0 bytes of junk at 2102699. dur is 4396400640 duration is 311 然而,在其他地方,我得到否定的持續時間

    0熱度

    1回答

    我正在編寫一個程序以從視頻流中提取圖像。到目前爲止,我已經想出瞭如何尋找正確的幀,解碼視頻流,並將相關數據收集到AVFrame結構中。我現在試圖將數據寫入JPEG圖像,但我的代碼無法正常工作。我得到的代碼是從這裏:https://gist.github.com/RLovelett/67856c5bfdf5739944ed int save_frame_as_jpeg(AVCodecContext