2017-02-26 341 views
0

我試圖將圖像轉換成灰色,自適應閾值和Thesh_Binary_InvPython的OCR車牌識別

gray = cv2.cvtColor(img1,cv2.COLOR_BGR2GRAY) 
adapt1 = cv2.adaptiveThreshold(gray,130,cv2.ADAPTIVE_THRESH_GAUSSIAN_C,cv2.THRESH_BINARY_INV,153,40) 

,並嘗試使用pytesser拿到牌照,但有一些隨機值作爲輸出

誰能幫助我從圖像中提取文本,以及在哪裏可以找到關於如何使用kmeans或任何其他算法進行訓練的教程

回答

1

從圖像中提取文本時,請嘗試查看圖像,就好像您試圖儘可能清楚地看到文本一樣樂。我的教授曾經說過:如果人類能看到它,計算機也可以看到它。你想要做的事情基本上是執行基本的預處理算法,如對比度增強,如果需要的情況下進行色彩空間轉換等。在閾值處理之前你想要獲得的圖像是儘可能清晰的圖像,其中對角色和邊緣角色與白色背景之間的關係儘可能明顯。

您需要嘗試閾值操作。在開始時,我建議在跟蹤欄中使用簡單的固定閾值功能,這樣您就不必在每次要更改值時重新運行代碼。你可以在我的GitHub倉庫找到here上的代碼。當然,這只是其中一個步驟。你仍然需要找到你感興趣的區域和角色。你想看看這些步驟可能是contour finding

培訓部分將更加棘手。在K-means here上有一個漂亮的入門級教程,但我猜測你不確定該怎麼做。我不確定這裏推薦什麼,因爲機器學習在你掌握基礎之前對你來說可能有點太難了。無論如何,如果我要這樣做,我可能會選擇深度學習,但是您需要知道測試數據以及如何準備這些數據對於此過程至關重要。這裏有一個very simple tutorial,這可能會讓你知道發生了什麼。

Raaj,請記住,如果您希望人們付出努力來幫助您,那麼首先要努力提問的態度很好。你必須更好地解釋你做了什麼,你看到了什麼,你得到了什麼結果以及你對我們的期望。我想說,圖像是你的必需品,你甚至都不願意提供這些圖像。祝你好運!

+0

謝謝幫助很多 –

+0

這是一口信息。它幫助了很多 –