sift

    0熱度

    1回答

    閱讀Opencv 3.0文檔我發現cuda::SURF_CUDA,這(我認爲)是利用nvidia GPU的SURF算法實現。 我沒有發現任何關於SIFT的GPU實現(例如cuda::SIFT_CUDA)。爲什麼?我錯過了嗎?

    0熱度

    1回答

    我試圖按照Lowe的paper中所述的方式,優雅地構造SIFT特徵描述符。我見過的大多數方法都相當混亂,我想找到一個這樣做的優雅方法。我有我的關鍵點作爲插值(X,Y)座標,並且我一直在使用決定在我的圖像的所有像素的梯度大小和方向: [Gmag,Gdir]=imgradient(image) 我可以很容易地找到每一個關鍵點梯度的16×16窗口通過切片Gdir。我現在需要構建每個單元格的直方圖。我

    0熱度

    1回答

    我使用下面的代碼圖像之間找到匹配: #include <opencv2/highgui/highgui.hpp> #include <opencv2/xfeatures2d/nonfree.hpp> #include <opencv2/xfeatures2d.hpp> #include <vector> using namespace std; using namespace cv;

    0熱度

    1回答

    我是計算機視覺新手,開始學習計算機視覺社區中一個非常流行的話題,即SIFT。但我對一個實現細節感到困惑: 在檢測到關鍵點之後,我們必須構造4乘4局部直方圖,作爲最終的SIFT描述符,對嗎?每個局部直方圖包含4乘4像素的局部鄰域的方向。所以總的來說,我們有16次16等於256像素,它們位於關鍵點附近的一個鄰域內。所以這個鄰域是16乘16像素的網格。 但是這個鄰域如何確定細節?鄰居是否按照關鍵點的方向

    2熱度

    1回答

    在我的opencv項目中,我嘗試計算sift特徵,檢測關鍵點和計算描述符。我知道它應該包含4個參數:X,Y,Scale和Orientation。 opencv關鍵點結構具有pt(X,Y座標)和角度(方向),但我無法理解Scale參數在哪裏!你能解釋一下這個參數嗎?

    0熱度

    2回答

    嗨,大家好,我正在使用opencv3和contrib。問題是我想計算給定像素的篩選描述符(不使用檢測到的關鍵點)。 我試圖用給定像素來構建KeyPoint向量。但是,要創建KeyPoint,除了像素位置之外,我還需要知道尺寸信息。 KeyPoint (Point2f _pt, float _size, float _angle=-1, float _response=0, int _octave=

    -1熱度

    1回答

    我正在實施一個content-based image retrieval應用程序,其中涉及Bag of Features模型。我使用cv::SIFT作爲特徵檢測器。 無論如何,應用程序的性能不是很好,我試圖從第一步算法,它是檢測功能,以提高他們。 閱讀cv::SIFT::create() documentation我看到3個參數,引起了我的注意: n功能 - 的最佳功能保留的數量。對比度閾值 -

    0熱度

    1回答

    我用安德烈Vedaldi的SIFT執行,計算出兩幅圖像的SIFT描述符以便對準他們, Ia = imread('roofs1.jpg')) ; Ib = imread('roofs2.jpg')) ; %calculate descriptors [fa,da] = vl_sift(im2single(rgb2gray(Ia))) ; [fb,db] =

    0熱度

    1回答

    D-SIFER算法的Matlab實現是否存在,如this paper中所述?

    0熱度

    1回答

    我想知道爲什麼使用SIFT在兩幅圖像之間沒有很好的匹配。 匹配的圖像如下所示。 原始影像 我的計劃是如下。 int imagematching(Mat &img1, Mat & img2, std::vector<Point2f> &first_keypoints, std::vector<Point2f> &second_keypoints){ int max_keypoints =