webcam

    0熱度

    2回答

    我正在使用Python OpenCV作爲第一步涉及從網絡攝像頭捕獲圖像的項目;我試圖通過使用capture = cv2.VideoCapture和capture.read()來自動執行此過程,但相機的視頻模式激活及其隨後的自我調整對於我最終想實現的速度來說太慢。 是否有一個更直接的方法來自動捕捉與Python(和OpenCV)截圖?如果不是,你有其他建議嗎? 感謝

    0熱度

    1回答

    我有一個Ubuntu虛擬機在Oracle VirtualBox(主機:Mac OS X)與已安裝的Python(miniconda),opencv和內置網絡攝像頭連接到虛擬機與設備>攝像頭菜單。 如果我嘗試測試我的攝像頭一樣this網站,它的作品不錯,但如果我嘗試使用OpenCV的蟒蛇連接到相機中這樣說: >>> import cv2 >>> cap = cv2.VideoCapture(0)

    0熱度

    2回答

    我用AForge做了這個代碼。輸出應該是Wabcam拍攝的照片(保存在「C:\ users \ me \ Desktop \ Picture.jpg」中)。 該守則只是不這樣做,我不知道爲什麼。由於 static void video_NewFrame(object sender, NewFrameEventArgs eventArgs) { Bitmap bitmap =

    0熱度

    1回答

    我正在使用VideoCapture帽(0)功能獲取筆記本電腦的攝像頭反饋,然後將其顯示在Mat框架中。接下來我想要做的就是每當我按下一個鍵「c」時,它就會截取幀的截圖並將其作爲JPEG圖像保存到一個文件夾中。但我不知道如何去做。非常需要幫助,謝謝。

    1熱度

    1回答

    我第一次創建了一個圖形來將攝像頭圖像流到它上面。然後,我從網絡攝像頭傳輸數據時在圖上創建了3D軸。請注意,網絡攝像頭幀流式傳輸不是在3D軸內部設置,而是在圖中的3D軸之外設置。問題是,由於uistack(ah,'bottom')函數,當流式傳輸攝像頭時,圖形保持閃爍。我需要這個功能來將3D軸ah保留在流圖背景frame的前面。 正如你所看到的,我使用我的攝像頭來流蘋果。由於uistack(ah,'

    0熱度

    1回答

    你好,我試圖把我的網絡攝像頭使用ffmpeg自動捕獲到HTML(在桌面Linux中運行ffmpeg),然後激活我的本地主機,所以我的機器人將能夠看見。 video.mp4能夠在linux和html-desktop中運行。 我的android-瀏覽器(html-android)中的視頻也可以播放,但它的all white和像素錯誤,所以這是一個失敗。 我以爲因爲android有不同的表面,因爲在我的

    -1熱度

    2回答

    我想將我的項目中選擇的圖片保存到本地SQL Server數據庫;使用程序 什麼是使用實體框架的正確方法? (表「用戶」包含標識爲PK和img作爲picture)

    4熱度

    1回答

    我在關注the official documentation,試圖從網絡攝像頭閱讀視頻。正如我從文檔運行一段代碼: import numpy as np import cv2 cap = cv2.VideoCapture(0) while(True): # Capture frame-by-frame ret, frame = cap.read() # O

    0熱度

    1回答

    我想校準兩個攝像頭,但我的問題是自動對焦。我正在使用網絡攝像頭Logitech c920。任何人都知道一種方法來禁用自動對焦功能?我在osx系統中使用C++和opencv 2.4.9。

    1熱度

    1回答

    我試圖通過python將See3Cam_CU130攝像頭的白平衡設置設置爲單個值。這是爲了防止在我的分析過程中白平衡發生變化並干擾結果。我想這樣做,這將是最好的辦法: 將相機設置爲自動白平衡 讀取當前白平衡溫度是什麼,而這是對汽車 禁用自動白平衡,以及把它固定在先前值 要做到這一點,我已經試過運行: cam = cv2.VideoCapture(0) currentWB = cam.get(cv