nao-robot

    0熱度

    1回答

    我有以下問題: 我已成功交叉編譯我的ALModule,並且一切正常,例如,在Nao上工作,我可以通過ALProxy訪問它。這隻有在我只有通過BIND_METHOD綁定到Module的方法時纔有效,並且不會調用其他方法(因爲不應該公開),所以不會調用其他方法。現在我試圖找到一個解決方案,我有點卡住了。總結一下:我可以將ALModule成功地交叉編譯到一個libname.so文件並放到NAO上,但是一

    1熱度

    3回答

    我已經使用Python SDK中的一個簡單程序 say.py。 Aldebaran Nao連接到網絡在IP 172.26.96.164 from naoqi import ALProxy pr = ALProxy("ALTextToSpeech", "172.26.96.164", 9559) pr.say("Hello, You are awesome !") 該代碼運行良好。但是,當我

    0熱度

    1回答

    什麼,我工作的一個項目,我需要給小人形機器人(一淖機器人)的深度知覺。我正在計劃將Kinect連接到機器人的前額,並將其與機器人當前的操作和指導系統(默認系統稱爲OPEN NAO)集成在一起,該系統在Linux上運行,並通過WiFi中繼到機器人。 現在我摸索了要使用的軟件。我查看了我看到的用於處理實際數據的Point Cloud Library,OpenNI被定義爲API框架以幫助應用程序訪問Ki

    2熱度

    2回答

    我希望NAO能夠說出Aldebaran Robotics不提供的當地語言'印地語'。有沒有辦法讓機器人說話,而不是官方支持,也許是通過自己安裝TextToSpeech Engine。在這個方向上的任何合適的指針都是有用的。

    3熱度

    1回答

    檢測淖機器人,我不知道這是否已經嘗試過,但我想使用Kinect和檢測由Nao robot做出手勢。 我做了一個Kinect應用程序,a gesture based picture viewer它檢測到人類很好(顯然它!)我想嘗試的是(懶惰,因爲我),看看我是否可以使用一些(說,語音)命令來告訴Nao做一個向右滑動手勢並讓我的應用程序識別這個手勢。 Nao可以輕鬆識別我的命令並做出一些動作。然而,問

    1熱度

    1回答

    我目前正在與Aldebaran Robotics開發的NAO機器人系統一起工作,我試圖做的是在飛行中更改我們學習行爲文件的值。這些文件存儲爲:/behaviours/filename.xar 這些文件中有相當數量的代碼,我希望能夠在運行中修改每個電機的值。 .... <ActuatorCurve name="value" actuator="HeadPitch" recordable="1" m

    1熱度

    3回答

    我想創建一個從Nao流式音頻到我的WPF表單。 我發現的唯一方法是我們可以在Nao上通過SSH下載錄製的聲音。 但它不是一個真正的流... 如果有人有一個想法! 謝謝

    0熱度

    1回答

    我想對Nao的人臉檢測進行一些可視化調試,只是在檢測到的人臉周圍繪製一個矩形。我不是獲取圖像並使用opencv算法來進行人臉檢測,而是獲取圖像(用於可視化調試)並使用Nao人臉檢測系統返回的參數。 該系統由Oki提供,所有信息可用於變量「FaceDetected」。我沒有問題訪問這個變量。對於我的海豚來說,假設我必須使用「ShapeInfo」信息。 我的問題是:我如何操縱它們以將臉部位置放入笛卡爾

    1熱度

    1回答

    我在玩Aldebaran的NAO humanoid robot Simulator和choregraph。 我有一個java中的軟件,我想用它來控制機器人,通過激活它的行爲,我相信套接字可以做到這一點。 我的問題是:有沒有辦法從choregraph + naoSim中打開套接字連接,這樣我就可以獲取傳感器讀數並向機器人發送命令? 或者任何其他方式連接到choregraph + naoSim以實現相

    4熱度

    3回答

    我想計算相機和識別的「物體」之間的距離。 例如,識別的「對象」是白板上的黑色矩形貼紙。我知道矩形(x,y)的值。 有沒有一種方法可以用來計算與我原始矩形的值的距離,以及我用相機拍攝的矩形圖片的值? 我在論壇搜索了answeres,但沒有指定用這些屬性計算距離。 我正在從Aldebaran機器人工作一個名爲Nao的機器人,我打算使用OpenCV識別黑色矩形。