2013-01-16 52 views
5

我只是想重現here發佈的結果。如何使PerspectiveTransform工作?

我將源重寫爲EmguCV表單。

Image<Bgr, byte> image = new Image<Bgr, byte>(@"B:\perspective.png"); 

    CvInvoke.cvShowImage("Hello World!", image); 

    float[,] scrp = { { 43, 18 }, { 280,40}, {19,223 }, { 304,200} }; 
    float[,] dstp = { { 0,0}, { 320,0}, { 0,240 }, { 320,240 } }; 
    float[,] homog = new float[3, 3]; 


    Matrix<float> c1 = new Matrix<float>(scrp); 
    Matrix<float> c2 = new Matrix<float>(dstp); 
    Matrix<float> homogm = new Matrix<float>(homog); 


    CvInvoke.cvFindHomography(c1.Ptr, c2.Ptr, homogm.Ptr, Emgu.CV.CvEnum.HOMOGRAPHY_METHOD.DEFAULT, 0, IntPtr.Zero); 
    CvInvoke.cvGetPerspectiveTransform(c1, c2, homogm); 

    Image<Bgr, byte> newImage = image.WarpPerspective(homogm, Emgu.CV.CvEnum.INTER.CV_INTER_CUBIC, Emgu.CV.CvEnum.WARP.CV_WARP_DEFAULT, new Bgr(0, 0, 0)); 

    CvInvoke.cvShowImage("newImage", newImage); 

這是測試圖像。 enter image description here

newImage始終是空白圖像。

任何人都可以幫助我使我的源代碼工作?

回答

4

希望我自己找到答案。

我將源重寫爲錯誤的表單。我應該使用Point [],並且有CameraCalibration.GetPerspectiveTransform函數可供使用。

PointF[] srcs = new PointF[4]; 
    srcs[0] = new PointF(253, 211); 
    srcs[1] = new PointF(563, 211); 
    srcs[2] = new PointF(563, 519); 
    srcs[3] = new PointF(253, 519); 


    PointF[] dsts = new PointF[4]; 
    dsts[0] = new PointF(234, 197); 
    dsts[1] = new PointF(520, 169); 
    dsts[2] = new PointF(715, 483); 
    dsts[3] = new PointF(81, 472); 

    HomographyMatrix mywarpmat = CameraCalibration.GetPerspectiveTransform(srcs, dsts); 
    Image<Bgr, byte> newImage = image.WarpPerspective(mywarpmat, Emgu.CV.CvEnum.INTER.CV_INTER_NN, Emgu.CV.CvEnum.WARP.CV_WARP_FILL_OUTLIERS, new Bgr(0, 0, 0)); 
+0

爽,TNX!你有一個想法,如果我有一些與矩形對象的圖像,我怎麼能得到邊緣的比例? – Michael

+1

你是指「邊緣比例」是什麼意思?如果您的意思是像253,211這樣的值,則必須在Paint程序或其他類似程序中手動測量圖像。 – Gqqnbig

1

這裏是EmguCV 3版的擴展方法(其中有很多功能不建議使用):

public static Image<TColor, TDepth> GetAxisAlignedImagePart<TColor, TDepth>(
    this Image<TColor, TDepth> input, 
    Quadrilateral rectSrc, 
    Quadrilateral rectDst, 
    Size targetImageSize) 
    where TColor : struct, IColor 
    where TDepth : new() 
{ 
    var src = new[] { rectSrc.P0, rectSrc.P1, rectSrc.P2, rectSrc.P3 }; 
    var dst = new[] { rectDst.P0, rectDst.P1, rectDst.P2, rectDst.P3 }; 

    using (var matrix = CvInvoke.GetPerspectiveTransform(src, dst)) 
    { 
     using (var cutImagePortion = new Mat()) 
     { 
      CvInvoke.WarpPerspective(input, cutImagePortion, matrix, targetImageSize, Inter.Cubic); 
      return cutImagePortion.ToImage<TColor, TDepth>(); 
     } 
    } 
}