uvc

    2熱度

    2回答

    使Linux設備(Raspberry Pi)的行爲與另一臺計算機的UVC設備一樣需要什麼?從本質上講,我想使用ffmpeg的輸出表現爲另一臺計算機的網絡攝像頭輸入。

    1熱度

    1回答

    我無法理解如何創建.mjpeg文件。據我所知,它只是一系列jpeg文件。我在網上搜索一種方法將它們合併成一個文件,但沒有找到任何信息。有些人說,只需要創建一個可以顯示一個又一個圖像的迷你服務器。 我試圖使用下面的應用程序,git://git.ideasonboard.org/uvc-gadget.git來測試UVC,它的選項之一是mjpeg文件的路徑。我不清楚是否可以創建一個mjpeg文件。 希望

    1熱度

    1回答

    我試圖使用media foundation \ directshow API訪問相機內部參數,如焦距,主點和失真係數。 我看到焦距可以通過ICameraControl進行查詢,但對於所有其他參數,我不能找到一種方法。 有沒有做到這一點在媒體基金會\的DirectShow API的一般方法是什麼?

    1熱度

    2回答

    我正在嘗試從Android ndk訪問USB攝像頭。 Android系統有V4L內核模塊,所以我認爲最好使用V4L庫。他們都在NDK中,因此將它們納入我的項目並不是一件大事。 我的問題是這樣的: 我需要打開/ dev/VIDEO4併發送IOCTL到的文件描述符,但我沒有權限訪問的/ dev/VIDEO4。我想了三件事: 1)爲什麼我缺少/ dev/video4的權限?我的應用程序使用android

    -2熱度

    1回答

    我正在尋找一種「VGA採集卡for linux」,它可以捕獲遠程計算機的VGA輸入,以便我可以使用V4L2來捕獲供稿。請建議一些。

    0熱度

    1回答

    我試圖連接到兼容UVC攝像頭在OS X從libuvc使用的Hello World示例確定正確的幀格式,我的相機輸出這樣的: DEVICE CONFIGURATION (2560:c114/39254404) --- Status: idle VideoControl: bcdUVC: 0x0100 VideoStreaming(1): bEndpointAddress:

    0熱度

    1回答

    我有一個深度攝像頭,輸出5MP RGB圖像流。當試圖使用這臺相機,我得到了一個錯誤信息: VIDIOC_STREAMON error 28, No space left on device 相機的規格說我需要一個USB 3.0,這一點我有,並且相機使用RGB和深度流。 這裏的 「的lsusb」 的輸出 Bus 002 Device 019: ID 0b05:182c ASUSTek Compu

    0熱度

    1回答

    我正在關注these instructions以測試UVC功能。 It says申請these patches,但我看到的只是文本和做了多少更改。我沒有看到任何實際的補丁。我錯過了什麼嗎?有什麼地方缺少鏈接嗎? 任何幫助表示讚賞。

    0熱度

    1回答

    我在閱讀Linux Documentation about UVC function。我正努力去理解一個例子starts here並去until here。這到底是什麼以及我在哪裏創建這些文件? 任何幫助表示讚賞。

    0熱度

    1回答

    我想測試我UVC編譯賽靈思董事會。我正在關注these directions。 On line 720 it saysdevice: run the gadget。什麼是運行的小工具它是modprobe g_webcam是什麼意思? 任何幫助表示讚賞。