webcam

    1熱度

    1回答

    當我在Mac OSX Sierra上的OpenCV中重新打開網絡攝像頭並顯示其中的圖像時,出現NSExceptions。 這是我正在試圖找出錯誤模式的測試代碼。 import cv2 cam = cv2.VideoCapture(0) ret, im = cam.read() cv2.imshow('im', im) cv2.waitKey(1) cam.open(0) ret,

    -1熱度

    1回答

    我目前正在研究pygame腳本,它基本上是通過網絡攝像頭流顯示用戶界面。這個應用程序通過fbcp在雙屏幕上運行在樹莓派上。 我注意到最近在屏幕的右上角出現了一個奇怪的彩虹方形圖標。 這樣看,但規模較小: 這是什麼?我怎樣才能刪除這個圖標的顯示? 謝謝!

    0熱度

    1回答

    我正在使用AR鸚鵡無人機2.0,並且我想以某種方式「欺騙」PC,使其認爲來自它的視頻流是第二個網絡攝像頭。 原因是我想使用一些現有的計算機視覺庫,並且它將更直接地指定哪個網絡攝像頭是運行算法的視頻流的來源。 我遇到了一個iOS app,它來自AR無人機的視頻流,但它似乎將流式傳輸到iPhone/iPad而不是計算機設備上。

    2熱度

    1回答

    我正在嘗試使用攝像頭拍攝快照。我已經覆蓋了一個矩形,這將是照片拍攝時的裁剪區域。拍攝照片時,拍攝的圖像會放大。如何使圖像與矩形內的區域相同? https://jsfiddle.net/fzrLvbwf/9/ var timer = null; var timeto = 3; // time in seconds to capture var video = document.getElemen

    0熱度

    1回答

    我有Logitech網絡攝像頭,它通過USB2.0使用MJPG壓縮流式傳輸1080p @ 30fps。我需要將這個原始流寫入硬盤或通過網絡發送。我不需要解壓縮它。 OpenCV給了我解壓縮的幀,所以我需要壓縮它們。這會導致CPU使用率過高的浪費。如何獲取原始MJPEG流,而不是來自相機? (Windows 7,Visual Studio,C++)

    0熱度

    2回答

    我的服務器需要通過瀏覽器訪問網絡攝像頭。 WebRTC是通信的簡單解決方案。但在我的情況下,服務器並不需要視頻流。每秒兩幀即可,即使1幀也不算太差。因此,另一個解決方案是Javascript採用攝像頭捕捉並將它們發送到服務器。 我的目標是減少語言。哪種解決方案更好?提前致謝。

    3熱度

    1回答

    我想捕捉視頻與網絡攝像頭羅技c930e使用硬件編碼流(Windows 8.1 x64)。嘗試很多方法,但仍然沒有成功(ffmpeg只顯示mjpeg,directshow無法連接引腳到mp4mux,只能連接到MS DTV-DVD視頻解碼器)。 無論如何要捕捉視頻與此攝像頭使用硬件編碼? 謝謝!

    0熱度

    1回答

    我們使用WebEye.Controls.Wpf作爲網絡攝像頭控制器,但由於我們已經將平板電腦更改爲華碩變形金剛,圖像顛倒了。 WPF: <wpf:WebCameraControl x:Name="webCameraControl" Margin="150,50,150,100" /> C# private void start_Click(object sender, RoutedEvent

    2熱度

    1回答

    編輯:第一個答案解決了我的問題。除此之外,我必須將ASI_BANDWIDTH_OVERLOAD值設置爲0. 我正在使用C++/Qt 5.7編寫Linux應用程序來跟蹤我望遠鏡中的恆星。我使用相機(ZWO ASI 120MM,根據SDK v0.3),並在一個單獨的線程中在一個while循環中抓取幀。然後這些被髮送到一個QOpenGlWidget被顯示。我有以下問題:當鼠標位於QOpenGlWidge

    3熱度

    2回答

    我一直在努力實現的網絡應用程序將能夠處理以下情形: 視頻流/從客戶機到其他客戶端(實際上是一組特定的人聲音,無廣播)和服務器。數據源將是客戶端的網絡攝像機。 此流數據必須實時顯示在其他客戶端的瀏覽器和上以保存在服務器端用於「歸檔」目的。 它必須在node.js + socket.io環境中實現。 把它放在一些更具體的上下文中......場景是有一個人爲他選擇的用戶提供了一種空間。選定的用戶加入房間