0
所以我試圖用覆盆子pi在YouTube上流式傳輸。這個想法是用一個樹莓派來流連接的攝像頭,另一個用來顯示流,有點像監控攝像頭。這兩個樹莓派目前都在使用Raspbian。如何使用Raspberry Pi在YouTube上進行流式傳輸?
因此,我有可能在Raspberry Pi上直接流式傳輸到YouTube。
所以我試圖用覆盆子pi在YouTube上流式傳輸。這個想法是用一個樹莓派來流連接的攝像頭,另一個用來顯示流,有點像監控攝像頭。這兩個樹莓派目前都在使用Raspbian。如何使用Raspberry Pi在YouTube上進行流式傳輸?
因此,我有可能在Raspberry Pi上直接流式傳輸到YouTube。
您可以使用任何Pi支持的RTMP/Flash編碼器發佈YouTube直播活動。一個例子是ffmpeg
其中can be compiled on Raspbian。
使用guide創建您的YouTube直播活動。您可以找到各種編碼器設置here。
當一切準備就緒後,您就可以開始流式傳輸。對於640×480 @ 25 700K視頻流的命令是這樣的:
ffmpeg -f v4l2 -framerate 25 -video_size 640x480 -i /dev/video0 -c:v libx264 -b:v 700k -maxrate 700k -bufsize 700k -an -f flv rtmp://<youtube_rtmp_server/<youtube_live_stream_id>
我想類似的東西使用的運動,但是當它來到了命令它總是返回一個錯誤,指出該攝像機模塊未激活。這對我來說是一個巨大的問題,因爲我使用的是USB攝像頭,而不是相機模塊。所以我想知道如果你需要一個攝像頭模塊來做到這一點,或者我需要做一些不同的事情來讓USB攝像頭成爲視頻的來源。 –
您可以直接使用相機設備,例如'/ dev/video0'。嘗試使用'v4l2-ctl --list-devices'列出所有可用的攝像機 – aergistal
您知道ffmpeg是否可以流式傳輸網絡攝像機的畫面,而opencv程序是否將攝像機鏡頭處理爲單獨的過程? – Zypps987