video-processing

    0熱度

    1回答

    我有一組編號的PNG圖像在一個和我想使用ffmpeg從他們創建一個視頻。我已經能夠做到這一點,但問題是輸入的幀速率與輸出的幀速率不一樣。 我注意到有些框架被滑過,有些被看到兩次。我正在使用的選項是 ffmpeg -framerate 10 -i input%04.png -c:v libx264 -pix_fmt yuv420p -r 10 output.mp4 我希望輸出與輸入幀一樣。哪些選

    1熱度

    1回答

    我正在使用下面的演示在Android應用程序中創建慢速和快速運動視頻。 https://github.com/google/grafika 我能夠在應用程序中播放的快和慢動作視頻,但現在我想這個視頻導出到SD卡。 我使用TextureView在應用程序中顯示視頻。 我使用這個java文件來控制視頻的速度。 https://github.com/google/grafika/blob/master/

    4熱度

    1回答

    我正在創建一個使用MoviePy模塊的Python腳本,從較大的視頻中獲取剪輯並將它們連接在一起。 剪輯的時間在CSV文件中詳細描述, 0,10 11,19 15,20 34,42 等 我所做的是讀取行的CSV文件行,然後使用來自Moviepy的subclip方法創建了一個存儲在剪輯列表中的剪輯,但是我得到一個IndexError - 列表索引超出範圍。 可能是什麼問題(如果我不使用子文件夾方法和

    6熱度

    2回答

    我上傳的視頻和photo.and其工作正常。現在我想顯示進度條,同時上傳數據與百分比。我參考了Android配置單元和它的實施httpclient我相應地修改了它httpurlconnection。任何幫助將不勝感激。謝謝。 這是我異步任務正在執行的主要活動。 protected void onProgressUpdate(Integer... progress) { // Makin

    2熱度

    1回答

    我想將360視頻從equirectangular轉換爲立體投影。我怎麼用ffmpeg來做到這一點?什麼是其他高效的開源方法?

    3熱度

    1回答

    所以,我已經學會了如何通過與來自GL_FRONT讀取字節的緩衝區把我LWJGL顯示的屏幕截圖: public static void takeScreenShot(){ GL11.glReadBuffer(GL11.GL_FRONT); int width = Display.getDisplayMode().getWidth(); int height = Disp

    2熱度

    1回答

    我當前想要替換.mp4視頻文件的音頻,與另一個.mp3音頻文件。如果替換原始視頻的音頻軌道是不可能的,請給我解決方案以便如何保留兩個音軌並讓用戶在播放時選擇所需的音軌。 我試過使用MediaMuxer和mediaExtractor,但我仍然找不到正確的解決方案。可以請任何人幫助我。 在媒體複用器示例程序https://developer.android.com/reference/android/

    0熱度

    2回答

    我每隔5分鐘就有多個由CCTV攝像機創建的視頻片段,我想要一個接受時間範圍作爲輸入的節目,並加入由CCTV攝像機在該範圍之間創建的所有視頻。我怎樣才能做到這一點?

    0熱度

    2回答

    我被困在尋找下一個項目的幫助。我的用例如下, 1)閱讀來自mp4文件的幀。 2)檢測面內的框架。 3)存儲或顯示最終輸出。 很給OpenCV的平臺非常新的「同用例與YUV420P(RAW)影像執行」,但我相當熟悉的GStreamer和linux界面編程。 請幫我找到任何相同的參考(例子)。

    1熱度

    1回答

    我正嘗試使用ffmpeg生成視頻縮略圖,但其生成縮略圖的時間比視頻編碼要花的時間更長。 ffmpeg -itsoffset -4 -i test.mp4 -vcodec mjpeg -vframes 1 -an -f rawvideo -s 350x200 small_thumnail.png 是否有最快捷的方式來生成縮略圖?