2016-06-21 86 views
31

我有一個簡單的Tango Unity應用程序,它使用Tango AR Camera預製件在增強現實中顯示3D對象。Tango AR Camera中的遮擋

正在關注this question,我想試試TangoARScreen提供的occlusion feature

所以我有:

  • 選中 「啓用遮擋」 複選框
  • 啓用深度檢測Tango Manager
  • 增加了Tango Point Cloud啓用Update points mesh

但是,3D對象永遠不會被前景真實世界的對象隱藏。我錯過了什麼?

是否有任何示例項目演示此「啓用遮擋」功能?

回答

0

引用的實驗樣品這似乎已經固定在探戈SDK的最新版本更好的結果。

8

嘗試查看Unity示例,名爲ExperimentalMeshOcclusion

我剛剛運行它,那裏的遮擋效果很好,因此您可以看到場景對象和正在使用的代碼。

+1

這個例子有自己的方法來處理遮擋(基於實驗網格劃分),它不使用TangoARScreen的「啓用遮擋」功能。 – fiddler

+0

所有的Unity3D Tango SDK例子在運行約30秒內都會崩潰,同樣的情況也發生在我已經與之交談的其他人身上。你是如何讓他們工作的?你能告訴我哪個Unity版本+哪個SDK版本+你正在使用哪個設備? –

4

爲了使用TnagoARScreen上的遮擋,您必須檢查TangoPointCloud場景中預製的Update Points Mesh複選框。

+1

正如問題中明確提到的那樣,我已經'添加了一個「Tango Point Cloud」,並且啓用了「更新點網格」# – fiddler

3

沒有樣本,但是這裏有步驟來改變現有樣本來打開它。經過Phab2測試。

  1. Area Learning Example開始。
  2. 在Unity中加載場景並從您的層次結構打開「Tango Point Cloud」檢查器。
  3. 勾選「Tango Point Cloud」腳本下的「更新點網格」。
  4. 打開「Tango AR相機」檢查員。
  5. 在「Tango AR屏幕」腳本下勾選「啓用遮擋」
  6. 運行該應用程序並確保您正在測試時將標記放置在一個尺寸不錯的物體後面,並移動得足夠遠以便深度傳感器可以看到物體。 Rendering the Point cloud data to screen可以幫助您確保您獲得您期望的深度傳感器的輸入。

我確實覺得使用@Oren

+0

我會嘗試一下,但是我沒有看到與我在我的嘗試和描述中有任何區別問題,有沒有? – fiddler

+0

Naa你列出的步驟是相同的​​,但是你可能從一個不同的起點開始比區域學習範例?我通過自己完成了這些工作,並在Mac上工作,並且Unity 5.5.0f3和最新版本(幾天前)更新了Tango。 第6步是從經驗,我認爲它不工作,直到我意識到我是太接近我的occluding對象的深度傳感器來拿起它。只有當我轉動點雲的顯示時,我才意識到它有多挑剔。 – Jethro

+0

這不適合我..我從一個乾淨的區域學習案例開始。有任何想法嗎? – ShadowMan