gpuimage

    0熱度

    1回答

    我在GPUImage中使用Swift 3。我有一個名爲:lut_lookup.png的LUT圖像文件我已經成功地將它用於靜態圖像上的GPUImage,並且它使用LUT濾鏡應用並顯示結果。 我現在試圖將相同的LUT過濾器應用於實時相機視圖,但我似乎無法使其工作。它基本上不顯示相機。 我在下面提供了我的代碼,任何幫助將不勝感激。這可能很簡單,我錯過了/做錯了,但我似乎無法發現它。 import UIK

    0熱度

    1回答

    執行代碼後,我的內存使用量增加了。如何在執行後釋放內存? 僅當我將圖像保存在文件系統中時纔會重現該問題。任何人都可以幫助解決這個問題? 我的代碼: let contrastfilter = GPUImageContrastFilter() contrastfilter.contrast = 1.4 let thresholdImageFilter = GPUImageAdaptive

    0熱度

    1回答

    我無法將過濾後的視頻保存到使用GPUImage 2的磁盤。我已經成功添加了一個過濾器,現在我需要將該視頻保存到磁盤,這是我遇到問題的位置。有關於這方面與GPUImage 1個答案,但我不能讓他們與GPUImage 2 工作的過濾: let bundleURL = Bundle.main.resourceURL! let movieURL = URL(string: "test.mov", rel

    2熱度

    1回答

    我正在使用GPUImage庫函數來操縱CVPixelbuffer的高度和寬度。我以縱向錄製視頻,當用戶旋轉設備時,我的屏幕將自己調整爲橫向模式。我希望橫向框架適合屏幕。 例如: - 我以人像模式320x568開始視頻,當我將設備轉爲風景時,我的框架是568x320,我希望適合320x568。爲了調整這個東西,我想操縱CVPixelBuffer。但是這消耗了大量的內存,最終我的應用崩潰了。 - (C

    0熱度

    1回答

    我與@Brad Larson GPUImage框架一起工作。有了這個,我可以一次一個地將視頻文件應用到視頻文件中。 但我需要實現的功能就像用戶可以將多個過濾器一次應用到視頻文件。嘗試不同的方式,但沒有成功。誰可以幫我這個事?

    1熱度

    1回答

    我已經使用GPUImage框架實現了鉛筆素描濾鏡。但是我認爲這個過濾器對於生成輸出來說太複雜了。 鉛筆濾鏡功能 - (void)pencilSketch { //UIImage *inputImage = [UIImage imageNamed:@"portrait.jpg"]; UIImage *inputImage = [UIImage imageNamed:@"self

    0熱度

    1回答

    我有一個帶有綠色背景的視頻,我想通過實時相機視圖顯示它並移除綠色背景。我也想在不同的視圖中顯示它,以便用戶能夠移動或調整視頻大小。這可能與GPUImage?你能描述一下必要的步驟嗎?

    0熱度

    2回答

    我正在使用GPUImage框架,我注意到編譯器會自動跳過setColorAverageProcessingFinishedBlock的括號內的所有內容。它完全跳過這些內容並繼續執行代碼中的其他所有內容。一旦執行了其他所有內容,它就會回到括號內的內容。顯然,這具有意想不到的副作用。 NSMutableArray *redValues = [NSMutableArray array]; NSMuta

    1熱度

    1回答

    我的輸入數據形狀爲[N,3,64,64] 我這之後運行上踩踏的代碼。 Using Theano backend. Using gpu device 0: Tesla K20m (CNMeM is disabled, cuDNN not available) ValueError: GpuCorrMM images and kernel must have the same stack size

    0熱度

    1回答

    與simpleVideoFilter和人臉檢測類似,我想用彩色矩形突出顯示我的GPUImage2視頻源的一部分。 SolidColorGenerator似乎是一個很好的開始,但有兩個例外。首先,我不確定如何將SolidColorGenerator輸出轉置到原始圖像的正確位置。其次,我不確定如何將N個矩形添加到我的原始圖像。同時,我已經與LineGenerator取得了成功,但我認爲矩形看起來會更好