human-computer-interface

    9熱度

    1回答

    到目前爲止,我已經能夠準確地檢測到瞳孔和眼角。 你可以看到幾張照片我上載在我的答案在這裏我自己的問題: Performing stable eye corner detection 這裏是我到目前爲止已經完成。 我通過看TLCP,TRCP和BLCP 校準用戶的視線,其中 CP = calibration point; a screen point used for calibration B =

    2熱度

    1回答

    根據維基百科人類計算機交互涉及人(用戶)和計算機之間交互的研究,規劃和設計。 交互設計的做法: 瞭解用戶的需求和目標 設計工具,爲用戶實現這些目標 設想系統 考慮限制的所有狀態和轉換的用戶環境和技術 那麼什麼是差在交互設計中學習掌握人機交互與掌握大師之間的關係?我認爲交互設計的範圍更廣,也包括人機交互。哪一個更實用?

    0熱度

    1回答

    我的需求是我需要從給定的cctv圖像中檢測人臉。在中央電視臺的圖像會有哪些必須removed.if所獲得的人臉圖像是模糊的,需要提高質量以及 目前我們正在與OpenCV的API試圖不必要的對象,代碼如下 CascadeClassifier cascadeClassifier = new CascadeClassifier("haarcascade_profileface.xml"); Mat

    -2熱度

    1回答

    對象: -如何使用可見光實現網絡攝像頭鼠標。 詳情: -會有一個網絡攝像頭看到我的右手在可見光如下i.stack.imgur.com/6ztqf.jpg: - 我想打一個系統,我會用我的(右)手控制鼠標指針的方式與在那裏有實際的鼠標相同。我會把手放在桌子上,就像我手上有一隻真正的老鼠,並且會像我手中拿着一隻老鼠一樣,做所有我會做的事情。並且會有一個正常的網絡攝像頭(可能是精確度較高的分辨率),從上

    0熱度

    1回答

    我已成功地跟蹤中心x y座標,並使用OpenCV的瞳孔的半徑。 現在我想用它來衡量的目光。 如果有人能幫助我與它的理論部分,大概我就能編寫它。 任何開放源代碼計劃也將做。 更新:我現在也能跟蹤角膜的閃光。根據我的在線研究,將瞳孔的座標與閃爍進行比較以估計凝視。我該如何去做呢?

    0熱度

    3回答

    作爲我的任務的一部分,我應該找出用戶在排隊等待的時候喜歡做什麼(對於任何事情)。 如果你們能提供你的意見,我將不勝感激。

    -3熱度

    1回答

    從用戶界面的角度來看,爲什麼有title選項?爲什麼沒有足夠的message?我們真的需要一個標題嗎?如果是這樣,請提供標題有用的視覺例子。 的AlertDialogdocumentation顯示了AlertDialog沒有標題,它看起來完美的對我說:

    0熱度

    1回答

    我的iOS應用程序是我作爲桌面應用程序爲公司開發的管理程序的移動版本。因此,它的主要任務是將數據保存在數據庫中,並在需要時使用編輯它們的選項來檢索它們。所以我猜想,GUI主要是由表格填充和表格來顯示數據。所以我問你是否可以鏈接我一些教程或給我一些關於如何以一種很好的方式實現它們的技巧,但不能太複雜。我寧願避免簡單地創建一個空白的視圖控制器,並插入標籤和文本字段而沒有最低標準。我對iOS和XCode

    0熱度

    2回答

    我有多個數據文件,它們包含的內容被命名。例如, machine-testM_pid-1234_key1-value1.log 有一些鍵和值由 - 和_分隔。有更好的語法嗎?是否有自動讀取這些文件/文件名的解析器? 這裏的想法是,文件名是人類和機器可讀。

    3熱度

    1回答

    手持設備上的語音識別通常是通過按下按鈕觸發的。如果沒有那個,我該如何去觸發語音識別?我的基於Raspberry PI的設備故意沒有任何用戶能夠手動進行交互的任何東西 - 只有一個麥克風掛在牆上。 我想實現一種方法讓它理解一個簡單的觸發命令,可以啓動一系列操作。簡而言之,只要「聽到」音頻觸發器,我就想運行一個.sh腳本。我不想讓它理解其他任何東西,只是觸發器 - 沒有必要從觸發器本身解碼 - 就像腳