復旦&中科院成果:對任意方向的文字進行識別

復旦&中科院成果:對任意方向的文字進行識別

來自專欄論智79 人贊了文章

編譯:Bing

論文:arxiv.org/pdf/1703.0108

編者按:對圖像中的文字進行識別已經有很多種方法了,但是大多是水平方向上的識別,一旦有了旋轉角度,這些方法可能就「失靈」了。來自復旦大學和中國科學院的幾位研究人員就提出了一種框架,可以識別圖像中經過旋轉的文本。

摘要

本文介紹了一種全新的基於旋轉的框架,能對自然場景中任意方向的文字進行檢測辨認。我們提出了Rotation Region Proposal Networks(RRPN),用於生成傾斜的框架,同時還帶有圖像旋轉角度的信息。之後,這些信息會適應邊界框,從而能更精確地在不同方向上確定文本區域。Rotation Region-of-Interest(RRoI)池化層是將隨機方向的候選窗口映射到文本區域分類器的特徵映射上。

整個框架是基於區域候選框的結構上搭建的,它與之前的文本檢測系統相比,能保證在隨機方向的文本檢測上有更高的計算效率。我們在三種現實場景中對該框架進行了實驗,發現了相較於之前的方法它所表現出的效率。

背景介紹

文本檢測是CV領域一大熱門話題,它的目標是在給定圖像中定位文字區域,這項任務是很多複雜任務的前提,例如視覺分類、視頻分析和其他移動應用。雖然已有很多商業產品落地,但是由於場景的複雜性,自然場景下的文字識別仍然受到很多限制,例如光線不均、圖片模糊、角度扭曲、方向不同等等。而本文正是關注現實生活中不水平的文字區域。

最近一些研究提出了針對隨機方向文本的檢測方法,總的來說,這些方法大致包括兩個步驟:分割網路(全卷積網路)以及用於傾斜候選框的幾何方法。然而,對圖像進行分割通常很耗時,並且一些系統需要多次後處理才能生成最終的文本區域候選框,所以並不如直接的檢測網路高效。

在這篇論文中,我們提出了一種基於旋轉的方法,和端到端的文本檢測系統,該系統能生成任意方向的候選框。相較於之前的方法,我們的主要成果有:

這次的框架可以用基於候選框區域的方法預測文本線的方向,使候選框能更好地適應文本區域。框架中加入的新元素,例如RRoI池化層和旋轉的候選框都整合到了架構中,保證高效的計算力。

我們還提出了對候選框區域新型的微調方法,提高任意方向文本檢測的性能。

我們將新的框架應用到三種場景數據集上,發現它比此前的方法更精確、更高效。

具體框架

首先,框架的整體結構如下圖所示:

框架的前部是VGG-16的卷積層,其中由兩部分組成:RRPN和最後一個卷積層的特徵映射的複製品。RRPN可以為文本樣本生成隨機方向的候選框,之後會對候選框進行回歸處理以更好地適應文本區域。而從RRPN分出去的兩個圖層是分類層(cls)和回歸層(reg)。

cls的分數和reg中的候選框信息組成了兩個圖層的輸出結果,並且他們的損失通過計算總結構會形成一個多任務的損失函數。之後,RRoI池化層會扮演一個最大池化層的角色,將RRPN上任意方向的文本候選框投射到特徵映射上。

最後,兩個全卷積層結合成一個分類器,具有RRoI特徵的區域被分為文本或者背景。

在訓練階段,真實的文本區域用五個元組表示旋轉後的邊界框,分別是(x, y, h, w, θ),(x, y)代表邊界框幾何中心的坐標,h和w分別代表邊界框較短和較長的兩邊,θ表示夾角。

旋轉連接點(anchors)

傳統的連接點利用比例尺和長寬比參數表示,通常對現實中的文本檢測並不有效。所以我們通過調整設計了旋轉連接點(R-anchors)。具體表示可看下圖:

其中有六個不同的旋轉方向,是綜合考慮覆蓋和計算效率之後得出的結果。其次,由於文本區域經常有特殊的形狀,長寬比改成了1:2、1:5、1:8,以覆蓋更寬的文本。

學習旋轉候選框

R-anchors生成後,為了執行網路學習,就需要對R-anchors進行採樣。候選框的損失函數形成了多任務損失,定義為:

其中l是類別標籤的表示器,參數p時softmax函數計算出的類別概率,v表示文本標籤的預測元組,v*表示真實數值。

下圖可以看到經過回歸後的圖像與未回歸的對比:

(a)是輸入的圖像,(b)是沒有經過回歸處理的方向和連接點,(c)是經過處理的點

白線的方向就表示R-anchors的方向,白線的長短表示連接點對文字的反饋。

下圖是不同多任務損失值的對比:

實驗過程

我們分別在三個數據集上進行了實驗:MSRA-TD500、ICDAR2015和ICDAR2013。三個數據集都是文本檢測常用的數據集。首先我們對比了旋轉和水平的候選框:

結果顯示,基於旋轉的方法能更精確地確定文字區域,不會包含太多的背景,這說明在框架中加入旋轉策略的有效性。但是雖然檢測效率有所提高,在MSRA-TD500中仍有檢測失敗的案例:

在不平衡的光線下(a)、非常小的字體上(b)以及過長的文本上(c)都會出現檢測失敗的情況

但最終在三種數據集上的表現還是很不錯的:


推薦閱讀:

譯文:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks
5殺!張學友演唱會上屢立奇功的人臉識別,到底是什麼鬼?
faster rcnn 閱讀心得分享
python計算機視覺 第六章

TAG:中國科學院 | 復旦大學 | 計算機視覺 |