2017-01-13 38 views
0

這個問題是關於TFDetect演示作爲Tensorflow Android Camera Demo的一部分提供的。該說明稱,Tensorflow TFDetect演示跟蹤對象是端對端嗎?

演示使用Deep 神經網絡基於可擴展的目標檢測模型定位和跟蹤在相機預覽中 實時。

當我跑的演示中,應用程序是創建盒周圍檢測與分配給每個對象(I猜測置信度得分)的小數對象。我的問題是,這裏如何進行跟蹤。是否有多個對象跟蹤(描述爲here),其中爲每個軌道分配了一個ID並且軌道存儲在存儲器中,還是僅檢測多個幀中的對象以查看對象如何移動?

如果我遺漏了任何東西,請糾正我。

回答

3

這裏有兩件事情要做:

1:檢測正在後臺線程中完成。這取決於器件需要100-1000毫秒的量級,所以不足以保持平滑的跟蹤。

2:跟蹤正在UI線程中完成。這通常每幀需要5ms,並且一旦知道對象的位置就可以在每幀上完成。跟蹤器在FAST功能的中位移動上實現了pyrimidal lucas-kanade光流 - 按音量鍵,您將看到正在跟蹤的各個功能。

跟蹤器在每個幀上運行,在每個時間戳存儲光流關鍵點。因此,當檢測進入時,跟蹤器能夠通過沿着收集的關鍵點變化向前走位置來找出它當前位置。 multiboxtracker也有一些非最大抑制功能。

一旦跟蹤器跟蹤對象,就不需要來自檢測器的進一步輸入。當與原始檢測的歸一化互相關降至某個閾值以下時,跟蹤器將自動丟棄該軌跡,或者當檢測器找到具有顯着重疊的更好匹配時更新位置/外觀。