google-project-tango

    1熱度

    2回答

    我試圖設置運行時深度幀率,但它不成功。沒有錯誤返回,但深度幀率保持不變。我用下面的代碼設置了深度幀率。 TangoErrorType SetRuntimeDepthFrameRate(uint32_t frameRate) { TangoConfig runtimeConfig = TangoService_getConfig(TANGO_CONFIG_RUNTIME); i

    0熱度

    1回答

    我想要做的事情基本上是獲取設備的位置,非常像運動跟蹤示例。我讀了Tango網站上的exmaple和示例Java代碼。我嘗試了SDK的Mira和Okul版本,但是崩潰一直在發生。不確定我做了哪一步是錯誤的。 完整的logcat輸出發佈在github gist上。對於較短版本: A/art: art/runtime/check_jni.cc:64] JNI DETECTED ERROR IN APPL

    -1熱度

    1回答

    我正在分析項目探戈的區域學習質量。無論如何要保存ADF檢查員的結果(質量和成功匹配次數)還是另一種獲得區域學習有效性結果的方法?

    0熱度

    1回答

    我是google-project-tango的新手。我想創建類似於Google Explorer實驗室的點雲應用程序。我看着探戈相機預覽並添加了代碼。我無法在右上角看到相機饋送。這裏是我的代碼: @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState)

    2熱度

    1回答

    在TangoSDK/Core/Scripts/TangoWrappers/PoseProvider.cs中,有兩個變量在Unity中按下MonoDevelop上的Play時出現問題:adjustedTimeStamp2和targetToDevice。 MonoDevelop抱怨「使用未分配的局部變量」,可能是因爲它只檢查該部分的第一部分。 我取代從線104和105:具有等效代碼 if (!GetF

    1熱度

    1回答

    我試圖讓Tango的相機流將自制的AR套件與探戈相結合。 我被卡在Tango的編輯器模擬中一切按預期工作的地步,但沒有推送到平板電腦。 我正在使用的代碼如下: YUVTexture yuvTexture = m_tangoApplication.GetVideoOverlayTextureYUV(); Texture2D yTexture = yuvTexture.m_videoOverlayT

    0熱度

    1回答

    首先,對於可能誤導性的標題感到抱歉,但我想不出更好的簡短描述。 對於我的學士論文,我編寫了一個Tango應用程序,出於性能原因需要CUDA。不幸的是,我不是一個有經驗的Android開發人員,所以90%的關於CUDA,JNI或Tango的教程和指南都不夠基本。 從我收集的內容來看,NVCC總是爲armeabi-v7a-hard ABI生成代碼。因此,根據我的理解,我的「正常」C++代碼也必須爲此A

    0熱度

    1回答

    查看Constructor App的輸出.obj文件後,我注意到了一些東西。雖然the official documentation只規定頂點有3個值加上一個選項權重:在導出的文件 v x y z w 頂點有三個額外的值: v -0.09218131 1.425 -0.015000017 0.4627451 0.5372549 0.5686275 1.0 v -0.07500002 1.42

    0熱度

    1回答

    我在文檔中報告什麼是writtein: IntPtr xyz 一個壓縮座標三元組數組,x,y,z爲浮點值。 當設備處於橫向方向時,屏幕朝向用戶:+ Z指向攝像機光軸方向,垂直於攝像機平面測量。 + X指向用戶的右側,+ Y指向屏幕底部。原點是彩色相機的焦點中心。輸出以米爲單位。 我對句子有一點疑問:「垂直於相機的平面測量」,這是指z座標。這是否意味着該措施是從攝像機的平面(靠近裁剪平面)或從攝像機

    -2熱度

    2回答

    我試過了,但失敗了。這可能嗎 ?如果不是,你如何創建類似的連接/保持屏幕?