2017-04-11 52 views
2

目前我正在測試用於物體檢測的yolo 9000模型,並且在論文中,我瞭解圖像是在13X13框中分割的,並且在每個框中我們計算P(對象),但我們如何計算?該模型怎麼能知道是否有這個boxe或不是對象,請我需要幫助理解YOLO如何計算P(對象)

因爲他們在paper(第2頁提到我使用tensorflow

感謝,

+0

我也在尋找這個。沒有太多的解釋。另外,他們計算p(類/對象)。在quora會話中有一個很好的解釋https://www.quora.com/How-do-Multi-Object-detection-with-YOLO-Real-time-CNN-works。 –

回答

0

第2節)自信得分= P(對象)* IOU。但在該段中他們提到,如果有一個對象,那麼自信得分將是IOU,否則爲零。所以這只是一個指導方針。

+0

我明白,但我不知道如何只用圖像中的一個小區域,以及如何提取特徵的小區域,細胞可以對這個區域進行分類? –

+0

我把它當作滑動窗口操作。在這裏你將你的原始圖像分成49個方格。基本事實是從原始圖像中獲得的。但要預測的特徵將通過最後一個conv層得到,它是7 * 7 –

+0

但這是爲了訓練,如果我們給出一個未知圖像,並且將它傳遞給網絡,那麼下一層將會提取然後將圖像分爲7X7,但是這裏我們沒有地圖真實性,所以只需要很小的特徵,他如何能夠生成一個尺寸比細胞大的物體,請給我更多的細節? –

0

他們訓練的信心分數= P(對象)* IOU。對於地面真值盒,它們取P(物體)= 1,對於其餘的網格像素,地面真值P(物體)爲零。您正在訓練您的網絡,告訴您網格位置是否有對象,即如果不是對象則輸出0,如果是部分對象則輸出IOU,如果對象存在則輸出1。因此,在測試時間,您的模型已經能夠判斷在該位置是否有對象。

0

有13x13個網格單元格爲true,但計算每個5x13x13錨點框的P(對象)。從YOLO9000紙張:

當我們移動到錨箱時,我們也將類預測機制與空間位置分離,而是預測每個錨箱的類和對象。

我還不能評論,因爲我是新來的,但如果你想知道測試時間,它的工作方式就像RPN。在每個網格單元格中,5個錨點框分別預測一個邊界框,該邊界框可以大於網格單元,然後使用非最大抑制來挑選頂部的幾個框以進行分類。 P(對象)只是一個概率,如果網絡中真的存在或不存在,網絡不會「知道」。

您還可以查看region_layer.c中forward_region_layer方法的源代碼,並跟蹤如何計算損失(如果感興趣)。