1、中国人民公安大学学报(自然科学版)2023 年第 3 期 No.3 2023Journal of People蒺s Public Security University of China(Science and Technology)总第 117 期 Sum117基于 MobileNet 和文本识别匹配的证件图片分类算法曾摇 鹏1,2,摇 李摇 曦1,3,摇 赵摇 璐1,4,摇 杜彦辉1(1.中国人民公安大学信息网络安全学院,北京摇 100038;2.厦门市公安局,福建厦门摇 361008;3.四川省公安厅科技信息化总队,四川成都摇 610031;4.武汉铁路公安局襄阳公安处,湖北襄阳摇 44
2、1002)摘摇 要摇 利用计算机视觉技术进行图片分类是公安部门打击违法犯罪的重要手段。由于存在不同种类图片特征相似的问题,单纯基于视觉特征的证件类图片分类效果有待进一步提高,因此提出一种融合 MobileNet 和文本识别匹配的证件图片分类算法,用于证件类图片的分类任务中。该方法把图片分类及文本匹配算法相结合,提高了证件类图片分类的准确性。在证件类图片数据集上的实验结果表明,算法在损失一定召回率的情况下,准确率有显著提升。关键词摇 MobileNet;文本匹配;证件图片;图片分类中图分类号摇 D918郾 92文献标志码摇 ALicense Image Classification Algori
3、thm Based onMobileNet and Text Recognition MatchingZENG Peng1,2,摇 LI Xi1,3,摇 ZHAO Lu1,4,摇 DU Yanhui1(1.School of Information and Cyber Security,People蒺s Public Security University of China,Beijing 100038,China;2.Xiamen Public Security Bureau,Xiamen 361008,China;3.Informatization Corps,Sichuan Provin
4、cial Public Security Department Science and Technology,Chengdu 610031,China;4.Xiangyang Railway Public Security Department,Xiangyang 441002,China)Abstract:Utilizing computer vision techniques for image classification plays a vital role in law enforce鄄ment agencies蒺 efforts to combat illegal activiti
5、es.However,the effectiveness of solely relying on visualfeatures for license image classification is limited due to the problem of similar characteristics among dif鄄ferent types of images.To address this issue,a novel algorithm that combines MobileNet with text recog鄄nition matching is proposed for
6、license image classification tasks.This approach integrates image classifi鄄cation and text matching algorithms,thereby enhancing the accuracy of license image classification.Ex鄄perimental results on a dataset of license images demonstrate that the accuracy rate of algorithm is signifi鄄cantly improve
7、d with the loss of certain recall rates.Key words:MobileNet;text recognition matching;license image;image classification收稿日期摇2023鄄03鄄18第一作者简介摇曾鹏(1986),男,福建长汀人,硕士,警务技术一级主管。研究方向为信息网络安全。通信作者摇杜彦辉(1969),男,博士,教授。E鄄mail:duyanhui 0摇 引言随着互联网和信息技术的飞速发展,网络图片数据量呈爆发式增长。图片是人们在网络时代进行交流的重要信息载体,提高图片信息识别能力,挖掘图片数据价值是公
8、安信息化建设的重要内容。如果25曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法只依靠人工分类、录入证件信息再进行统计,存在成本高、速度慢、即时性差等问题1。利用计算机进行图片分类,在很大程度了减轻了人的负担,因此,图片分类、文本识别等图片信息结构化技术具有广泛的应用前景。证件类图片应用广泛,比如:淤证件类图片因其包含丰富的个人及商事主体信息,在社会经济生活中有重要作用。如,商家进行资质审查和开展企业金融服务等;于证件类图片在公安工作中也具有十分重要的价值。如,在电信网络诈骗、侵犯
9、公民个人信息等新型网络犯罪案件中,发现和识别被害人或嫌疑人发送的各类身份证、驾驶证、营业执照等证件图片对于该类犯罪的侦查防控工作具有重要意义。证件类图片的分类属于细颗粒度图片的分类。由于存在不同种类图片特征相似的问题,常用的分类方法准确率还没有达到最优2。本文通过将图片分类与文本识别匹配技术进行结合来完成证件类图片的分类任务。首先,选用轻量级的MobileNet 卷积神经网络对图片进行分类;其次,把CRAFT 和 CRNN 结合进行图片中文字检测、识别;最后,通过两者标签匹配完成证件类图片的分类,经实验证明上述方法能有效提升分类结果的准确性。1摇 相关工作跟本文研究相关的工作包括图片分类、Mo
10、鄄bilenet、字符识别技术等。图片分类问题是计算机视觉领域一项经典的科学问题,可以处理语义级图片3。语义级图片分类主要包括场景识别4、对象识别5等,目地是识别对象的类别,如证件图片分类就是属于语义级图片分类任务;MobileNet是一种轻量化的 CNN 模型,由深度可分离卷积作为主要的组成模块。邵伟平等人6基于 MobileNet设计了轻量化卷积神经网络。陈智超等人7基于MobileNet 设计了垃圾图片分类的算法;字符识别技 术(Optical Character Recognition,以 下 简 称OCR)是用字符识别的方法将图形形状翻译成计算机文字的过程9,是非结构化数据转换成结构
11、化数据的关键技术。在金融、医疗、物流、公安等领域都有广泛应用10-13。计算机视觉理论的奠基者 神经生理学家Marr14认为,视觉所解决的问题可归纳为“什么东西在什么地方冶,因此在计算机视觉研究中,图片分类被认为是最基本的问题之一。进行图片分类任务时,可能面临以下问题15:(1)比例、视点、光照等条件影响分类的效果。对于单个物体实例而言,通常在拍摄采集图片的过程中,由于拍摄距离、光照条件、拍摄视角等方面可能存在不同,加上物体自身的非刚体变形及其他物体的部分遮挡,可能使物体的表观特征产生很大变化,从而给图片分类算法带来极大的困难和挑战。证件类图片在进行分类的过程中,同样会受到图片的光影、角度、位
12、置、大小等因素的影响,其分类的效果会受到影响。(2)类内差异、类间模糊性和背景干扰给图片分类带来困难。一是类内差大,即类内不同实例的差别,比如同一类证件的新旧、老化和磨损程度等,导致同一类的物体表观特征差别比较大;二是类间模糊性,即不同类的物体实例具有一定的相似性,比如驾驶证和行驶证在外观上可能存在一定的相似性;三是背景干扰,被识别的物体可能出现在复杂背景下,甚至对要识别的物体存在干扰,这些因素极大地增加了分类难度。2摇 整体架构2郾 1摇 总体流程在本文中,我们结合图片分类和文本识别匹配技术来完成证件类图像的细分类任务。一方面使用MobileNet 卷积神经网络对图片进行分类;另一方面应用检
13、测算法 CRAFT 对有文本图片进行处理,得到图像中文本的位置后使用 CRNN 结合 CTC 的方法进行文本的识别,同时构建一个由特定文本关键词组成的业务知识库,用于对图片进行基于文本规则的匹配。之后引入绝对多数投票进行表决,即判定图片为某一类别,其图片分类和文本匹配的结果必须为大于阈值,最后输出识别结果,其总体流程如图 1 所示。2郾 2摇 基于 MobileNet 的图片分类网络MobileNet 属于一种轻量化模型,该模型于 2017年由 Google 提出,使用了基于流线型架构的深度可分离卷积来构建的轻量级深度神经网络。2郾 2郾 1摇 深度可分离卷积深度可分离卷积(Depthwise
14、 Separable Convolu鄄tion,DSC)是 MobileNet 的基本单元,与标准卷积不同,它将卷积操作分解为深度卷积(Depthwise Con鄄35曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法图 1摇 总体流程图摇volution,DW)和逐点卷积(pointwise convolution,PW)。当 DW 卷积核大小为且输出通道数较大时,深度可分离卷积的计算量只有标准卷积的19左右16,操作过程如图 2 所示。2郾 2郾 2摇 MobileNet 的网络
15、结构图 2摇 标准卷积操作示意图和深度可分离卷积操作示意图摇MobileNet 由深度可分离卷积组成,其网络结构如表 1 所示16,从中也可以看到网络主体由 DW 卷积和 PW 卷积交叉堆叠而成,在网络最后连接平均池化和全连接层,并通过 Softmax 归一化分类输出结果。2郾 3摇 文本识别及分类技术2郾 3郾 1摇 基于字符区域感知的文本检测基于字符区域感知的文本检测(Character Re鄄gion Awareness For Text detection,CRAFT)的模型架构图如图 3 所示,其主干网络使用 VGG16,通过类Unet 的模型架构构建特征图17,即先使用卷积网络对特
16、征进行下采样,再通过特征图的拼接实现上采样,最后通过 4 个卷积层连接得到两个分支的模型输出,即区域得分和领域得分。区域得分(Regionscore)是所有像素点在字符中心的概率;邻域得分(Affinity score)是所有像素点在字符间隙中的概率。接下来通过对区域得分和邻域得分都设定一个阈值,将两者中至少有一个值高于阈值的像素点标为1,其他标为 0,然后将所有相连的值为 1 的像素定为一个文本目标,最后将结果整合为最终的文本框作为输出。2郾 3郾 2摇 CRNN 文本识别CRNN(Convolutional Recurrent Neural Network,CRNN)是卷积循环神经网络。其
17、通过端到端的方式对不定长的文本序列进行识别,特点是不用对单个文字进行切割,而是将文本识别转化为时序依赖45曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法表 1摇 MobileNet 网络结构Type/StrideFilter ShapeInput SizeConv/s23 伊3 伊3 伊32224 伊224 伊3Conv dw/s13 伊3 伊32 dw112 伊112 伊32Conv/s11 伊1 伊32 伊64112 伊112 伊32Conv dw/s23 伊3 伊64 dw
18、112 伊112 伊64Conv/s11 伊1 伊64 伊12856 伊56 伊64Conv dw/s13 伊3 伊128 dw56 伊56 伊128Conv/s11 伊1 伊128 伊12856 伊56 伊128Conv dw/s23 伊3 伊128 dw56 伊56 伊128Conv/s11 伊1 伊128 伊25628 伊28 伊128Conv dw/s13 伊3 伊256 dw28 伊28 伊256Conv/s11 伊1 伊256 伊25628 伊28 伊256Conv dw/s23 伊3 伊256 dw28 伊28 伊256Conv/s11 伊1 伊256 伊51214 伊14 伊2
19、565 伊 Conv dw/S13 伊3 伊512 dw14 伊14 伊5125 伊 Conv/S11 伊1 伊512 伊51214 伊14 伊512Conv dw/s23 伊3 伊512 dw14 伊14 伊512Conv/s11 伊1 伊512 伊1 0247 伊7 伊512Conv dw/s23 伊3 伊1 024 dw7 伊7 伊1 024Conv/s11 伊1 伊1 024 伊1 0247 伊7 伊1 024Avg Pool/s1Pool 7 伊77 伊7 伊1 024FC/s11 024 伊1 0001 伊1 伊1 024Softmax/s1Classifier1 伊1 伊1 00
20、0图 3摇 CRAFT 的模型架构图摇的序列学习问题,就是基于图像的序列识 别。CRNN 文本识别网络结构18如图 4 所示,主要包含3 部分,从下到上依次为:(1)CNN(卷积层):使用深度 CNN,对输入图像提取特征,得到特征图;(2)RNN(循环层):使用双向 RNN(BiLSTM)对特征序列进行预测,对序列中的每个特征向量进行学习,并输出预测标签(真实值)分布;(3)CTC loss(转录层),使用 CTC 损失,把从循环层获取的一系列标签分布转换成最终的标签序列。CRNN 识别的过程可以概括为:先由 CNN 网络提取输入文本图像的特征,再利用 BiLSTM 提取字符序列的上下文特征,
21、获得特征的概率分布,最后通过转录层得到最终的文本序列结果。2郾 3郾 3摇 基于文本的分类方法基于证件图像中文本信息设计关键词和匹配规则。关键词为不同证件中的特定文字,匹配规则使用“与、或、非冶逻辑,根据匹配规则的苛刻程度,分为强文本匹配和弱文本匹配。(1)强文本匹配:根据关键词的排列组合,使用较多的 AND 或 OR 条件,形成身份证的强文本匹配规则。如:在身份证件的文本分类任务中,设计“公民身份号码 AND 姓名 AND 性别冶规则;为平衡精确率与召回率,也可设计为:“公民身份号码 AND(姓名 AND 性别 OR 姓名 AND 民族)冶。(2)弱文本匹配:仅需满足一个或较少条件即命中。以
22、身份证为例,弱文本匹配规则为“姓名 OR性别 OR 民族 OR 出生 OR 年 OR 月 OR 日 OR 住址OR 公民身份号码冶,该规则能大幅提高召回率,但精确率不高。2郾 4摇 算法融合研究在机器学习研究领域,一个公认的观点是综合55曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法图 4摇 文本识别过程示意图摇多种性能较弱的分类器的结果,可得到性能较强的,甚至大幅提升的结果,这种做法在业内称多分类器融合或集成学习。集成学习允许单个分类器的基本性能稍弱,但要求各分类器的输出结果彼
23、此尽量没有关联、具备多样性。由于 MobileNet 卷积神经网络算法及文本识别匹配算法提取的证件类图片内容不同,其输出结果自然具有多样性,综合两种算法的结果进行融合分析,能达到比单种算法更优的效果。假设模型的错误符合高斯分布,则 Error N(滋,滓2),集成模型的错误分布可以 u 通过各个基模型的错误分布加权求和来计算,如公式(1)所示。Error N(滋1,滓21)Error N(滋2,滓22)Error N(滋3,滓23)(1)不同模型通常有拟合不足的问题,也就是有绝对值较高的偏差、较低的方差。而在预测过程综合各模型结果的过程可以看成这些错误高斯分布求平均的过程,N 为模型数量,根据
24、高斯分布的计算公式有:Error(N滋1+滋2+滋nN,滓21+滓22+滓2n)N(2)通常情况下,集成模型的方差会小于单个基模型的方差,这使得集成模型具有更好的泛化能力和稳定性。因此,通过融合不同算法的方式,能够达到自动找到最优错误偏差和方差的效果。3摇 实验验证该部分将从实验环境、数据集、实验指标、实验结果等方面进行介绍和分析。3郾 1摇 实验环境本实验的关键软硬件环境如下:(1)硬件环境:CPU:Intel(R)Xeon(R)CPUE5-2637 v4 3郾 50 GHz;内存:32 G;显卡:GeForceGTX TITAN X 显卡一张;(2)软件环境:操作系统 Ubuntu16郾
25、04;CUDA驱动版本515郾 76;cuDNN 版本7郾 4郾 2;编程语言采用Python;开源深度学习框架采用 TensorFlow。3郾 2摇 数据集介绍本文实验部分主要对4 种证件类别进行分类,包括身份证、驾驶证、行驶证、营业执照,共分成 5部分,包括身份证数据集、驾驶证数据集、行驶证数据集、营业执照数据集以及混合数据集,如图 5所示,每种数据集中包含正样本和负样本。其中混合数据集的正样本图像定义为:至少包含两种或两种以上的类别的正样本,比如在同一张图像中,同时出现身份证和驾驶证,不满足正样本定义的即为负样本。图 5摇 数据集示例摇表 2 展示了 5 种数据集的数据分布。表 2摇 样
26、本数据描述数据集正样本图像数量负样本图像数量总图像数量身份证数据集2 0552 0714 126驾驶证数据集2 3342 0414 375行驶证数据集2 3532 0934 446营业执照数据集2 2942 1044 398混合数据集21727349065曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法3郾 3摇 实验指标介绍本文中融合算法性能采用“混淆矩阵冶的召回率、精准率和 F鄄Measure 等指标进行评估,以判断融合算法与只用图片分类或只用文本匹配进行对比的优劣程度,如表
27、3 所示。表 3摇 混淆矩阵混淆矩阵真实值(客观)PositiveNegative预测值(主观)PositiveTPFPNegativeFNTN3郾 3郾 1摇 混淆矩阵混淆矩阵由 TP、FN、FP、TN 这 4 个子参数组成,各参数定义如下:(1)TP(True Positive):将正类预测为正类数:真实(客观)为 1,预测(主观)也为 1;(2)FN(False Negative):将正类预测为负类数,真实(客观)为 1,预测(主观)为 0;(3)FP(False Positive):将负类预测为正类数,真实(客观)为 0,预测(主观)为 1;(4)TN(True Negative):将
28、负类预测为负类数,真实(客观)为 0,预测(主观)为 0。3郾 3郾 2摇 召回率召回率(Recall)又称查全率。该指标是针对客观样本而言,它的含义是在客观为 1 的样本中,被预测为 1 的样本的概率,公式为:R=TPTP+FN(3)3郾 3郾 3摇 精确率精确率(Precision)又称查准率。该指标针对预测结果而言,它的含义是在所有被预测为 1 的样本中实际为 1 的样本的概率公式为:P=TPTP+FP(4)3郾 3郾 4摇 F鄄Measure综合性指标(F鄄Measure)又称 F鄄Score(F 值)。是 Precision 和 Recall 加权调和后的结果(因实际使用更注重精确率
29、,其中 茁 取值为 0郾 5),公式为:F=(1+茁)伊P 伊 R(茁2伊 P)+R(5)3郾 4摇 实验结果本文实验将对 5 种处理方式,分别为纯图片分类(记为 A)、纯文本强匹配(记为 B)、纯文本弱匹配(记为 C)、图片分类+文本强匹配(记为 A+B)、图片分类+文本弱匹配(记为 A+C),在 5 种数据集上做对比测试,实验结果见表 4 8。表 4摇 身份证数据集对比实验分类方式 正确分类错误分类精确率召回率F 值A2 04846281郾 59%99郾 66%84郾 66%B892299郾 78%43郾 41%79郾 20%C1 93853978郾 24%94郾 31%81郾 00%A+
30、B8850100郾 00%43郾 07%79郾 09%A+C1 931199郾 95%93郾 97%98郾 69%表 5摇 驾驶证数据集对比实验分类方式 正确分类错误分类精确率召回率F 值A2 33025790郾 07%99郾 83%91郾 86%B8510100郾 00%36郾 46%74郾 15%C1 98243182郾 14%84郾 92%82郾 68%A+B8490100郾 00%36郾 38%74郾 08%A+C1 979199郾 95%84郾 79%96郾 50%表 6摇 行驶证数据集对比实验分类方式 正确分类错误分类精确率召回率F 值A2 34521891郾 49%99郾 66%
31、93郾 02%B8080100郾 00%34郾 34%72郾 34%C2 05639583郾 88%87郾 38%84郾 56%A+B8070100郾 00%34郾 30%72郾 30%A+C2 0490100郾 00%87郾 08%97郾 12%表 7摇 营业执照数据集对比实验分类方式 正确分类错误分类精确率召回率F 值A2 28427489郾 29%99郾 56%91郾 17%B1 058199郾 91%46郾 12%81郾 01%C2 09540783郾 73%91郾 33%85郾 15%A+B1 0550100郾 00%45郾 99%80郾 98%A+C2 0850100郾 00%90
32、郾 89%98郾 03%表 8摇 混合数据集对比实验分类方式 正确分类错误分类精确率召回率F 值A1881791郾 71%86郾 64%90郾 65%B620100郾 00%28郾 57%66郾 67%C1763882郾 24%81郾 11%82郾 01%A+B620100郾 00%28郾 57%66郾 67%A+C1710100郾 00%78郾 80%94郾 89%75曾摇 鹏等:基于 MobileNet詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬詬和文本识别匹配的证件图片分类算法摇 摇结果分析:5 个不同数据集的实验结果均表明图片分类方式虽然
33、召回率较高,但精确率偏低;纯文本强匹配方式虽然精确率较高,但召回率非常低;纯文本弱匹配方式虽然召回率较高,但精确率非常低;分类+文本强匹配方式虽然精确率较高,但召回率非常低;分类+文本弱匹配方式在精确率和召回率之间实现了较好的平衡,在倾向精确率的调和指标F 值(茁=0郾 5)上表现最佳。4摇 结语当前,在各类新型犯罪频发的背景下,针对利用图片分类技术对证件类图片分类精度不高的问题,通过综合利用图像处理技术对证件类图片进行精准分类具有重要意义。本文中方法的优势:一是采用轻量级的 MobileNet 卷积神经网络进行图片分类,结合 CRAFT 和 CRNN 进行文字识别的方法,能够对证件图片中的信
34、息进行较为完整提取;二是将视觉信息与文本信息联合应用于图片分类中,能够通过不同模态有效提升证件类图片的分类性能。经实验验证,该融合算法能够有效提高证件类图片的分类准确性,在下一步的研究中,也会尝试将该方法应用于特定图文混合类图片的分类中,并根据应用实践不断优化算法。参考文献1摇 周翔,刘杨.基于 Bi-LSTM+CRF 模型和多规则集成的证件信息识别J.科技资讯,2022(17):11-13.2摇 姜倩,刘曼.文本检测与识别在细粒度图片分类中的应用J.计算机系统应用,2020(10):248-254.3摇 罗建豪,吴建鑫.基于深度卷积特征的细粒度图像分类研究综述J.自动化学报,2017,43(
35、8):1306-1308.4摇 BOSCH A,ZISSERMAN A,MUOZ X.Scene classificationusing a hybrid generative/discriminative approach J.IEEE Transactions on Pattern Analysis and Machine Intel鄄ligence,2008,4:712-727.5摇 JARRETT K,KAVUKCUOGLU K,RANZATO M,et al.What is the best multi鄄stage architecture for object recog鄄niti
36、on?C椅Proc.International Conference on Comput鄄er Vision(ICCV蒺09),2009.6摇 邵伟平,王兴,曹昭睿,等.基于 MobileNet 与 YOLOv3的轻量化卷积神经网络设计J.计算机应用,2020,40(S01):6-12.7摇 陈智超,焦海宁,杨杰,等.基于改进 MobileNet v2 的垃圾图片分类算法J.浙江大学学报(工学版),2021(8):1490-1499.8摇 高淑萍,赵清源齐小刚等.改进 MobileNet 的图片分类方法研究J.智能系统学报,2021(1):11-20.9摇 张婷婷,马明栋,王得玉.OCR 文字
37、识别技术的研究J.计算机技术与发展,2020(4):85-88.10摇 康雪玮,于文雅,谭钧恺,等.基于深度学习的债券图表数据光学字符识别(OCR)检测与文本识别的应用J.办公自动化,2021(14):54-58.11摇王宸敏.基于 OCR 技术的化验单识别方法研究D.杭州:浙江大学,2017.12摇 刘斌,程方毅,龚德文.图片自动识别技术在物流自动化中的研究与应用现状分析J.机电工程技术,2020(10):104-109.13摇 李亮.基于 Tesseract_OCR 的驾驶证识别系统设计与实现D.成都:电子科技大学,2018.14摇 MARR D.Vision:a computationa
38、l investigation into thehuman representation and processing of visual informa鄄tionM.Cambridge:MIT Press,2010.15摇 黄凯奇,任伟强,谭铁牛.图像物体分类与检测算法综述J.计算机学报,2014(6):1225-1240.16摇 HOWARD A G,ZHU M L,CHEN B,et al.Mobilenets:efficient convolutional neural networks for mobile visionapplicationsJ.ArXiv,2017.17摇 BAE
39、K Y,LEE B,HAN D,et al.Character region aware鄄ness for text detectionJ.ArXiv,2019.18摇 SHI B G,BAI X,YAO C.An end鄄to鄄end trainable neuralnetwork for image鄄based sequence recognition and its ap鄄plication to scene text recognitionJ.IEEE Transactionson Pattern Analysis and Machine Intelligence,2017,33(11):2298-2304.(责任编辑摇 于瑞华)85