0
什麼是各向異性縮放?它是如何實現圖像處理和計算機視覺?什麼是計算機視覺中的各向異性縮放?
我知道這是某種形式的non-uniform scaling
,正如維基百科所說的那樣,但我仍然無法很好地理解它應用於圖像時的實際含義。最近,一些像R-CNN這樣的深度學習體系結構用於對象檢測也使用它,但在這個話題上並沒有多少亮點。
任何清晰解釋概念的例子和視覺插圖都會非常好。
什麼是各向異性縮放?它是如何實現圖像處理和計算機視覺?什麼是計算機視覺中的各向異性縮放?
我知道這是某種形式的non-uniform scaling
,正如維基百科所說的那樣,但我仍然無法很好地理解它應用於圖像時的實際含義。最近,一些像R-CNN這樣的深度學習體系結構用於對象檢測也使用它,但在這個話題上並沒有多少亮點。
任何清晰解釋概念的例子和視覺插圖都會非常好。
非均勻縮放意味着不同尺度應用於每個維度,使其具有各向異性。相反的是各向同性的縮放,其中每個維度都應用相同的比例。
在R-CNN的背景下,作者做了一個技巧,使用可變大小的圖像與分類網絡,他們調整大小的任何圖像到一個固定的大小(我相信它是224x224),這是獨立於圖像的高寬比。所以說你有一個1280x720的圖像,如果它調整到224x244,那麼比例尺就是1280/224和720/224,這顯然不一樣,因此各向異性縮放。
我沒有領域知識,但語言上的「各向異性」和「非均勻」是同義詞。基於此,我想象一個由對角線矩陣定義的線性變換,其對角線是不相等的。更一般地說,我猜測這是一個具有兩個垂直特徵向量和兩個不相等特徵值的線性變換。 –