写点什么

DPText-DETR: 基于动态点 query 的场景文本检测,更高更快更鲁棒 | 京东探索研究院

  • 2023-09-11
    北京
  • 本文字数:5765 字

    阅读完需:约 19 分钟

DPText-DETR: 基于动态点query的场景文本检测,更高更快更鲁棒 | 京东探索研究院

针对场景文本检测任务,近期基于 DEtection TRansformer (DETR) 框架预测控制点的研究工作较为活跃。在基于 DETR 的检测器中,query 的构建方式至关重要,现有方法中较为粗糙的位置先验信息构建导致了较低的训练效率以及性能。除此之外,在如何监督模型方面,之前工作中使用的点标签形式影射了人的阅读顺序,本文观察到这实际上会降低检测器的鲁棒性。


为解决以上问题,本文提出了动态点场景文本检测模型 DPText-DETR。**①对于 query 构建方式的问题:**本文提出了一种简洁高效的显式点 query 构建(Explicit Point Query Modeling, EPQM) 方法,直接利用点的坐标构建显式细化的位置先验信息以加速训练收敛,并且提出了一个增强的因子化自注意(Enhanced Factorized Self-Attention, EFSA) 模块进一步挖掘同一文本实例内控制点 query 之间的关系。**②对于标签形式的问题:**本文设计了一种简单的位置性形式(Positional Label Form)。为进一步探究真实场景中不同标签形式对检测鲁棒性的影响,本文提出了包含 500 张图像的测试集 Inverse-Text 进行验证,其中包含约 40%的类反向(inverse-like)文本实例,弥补了现有数据文本类型的缺失。


实验表明,本文提出的方法显著改善了模型的收敛速度、数据效率、对旋转文本检测的鲁棒性,并在 Total-Text、CTW1500、ICDAR2019 ArT 三个基准数据集上分别取得了 89.0%、88.8%和 78.1% F-measure 的最先进性能。**该工作由京东探索研究院、武汉大学、悉尼大学联合完成,已被 AAAI 2023 接收。**相关代码、模型和数据集均已开源,欢迎大家试用、点赞并反馈。


一、研究背景与动机

场景文本检测因其在场景理解、图片检索等应用中具有重要价值,受到了广泛的研究关注,相比于通用目标检测,场景文本的特殊性(比如多变的文字样式与任意形状)带来了别样的挑战。在计算机视觉领域,近期各种源自 DETR[1]的先进检测器不断推进着目标检测的性能前沿,如何同时提升模型性能和训练收敛速度是主要的研究问题之一。其中,DAB-DETR[2]提供了影响训练收敛因素的洞见,模型输入的 query 可被拆解为 content 和 positional 两部分,而 positional 这一负责位置信息的部分对训练的收敛具有重要影响。然而,这些模型仅预测检测框,无法满足场景文本检测所需的任意形状输出要求。


对此,近期的工作[3]进一步利用固定数量的控制点 query 表示每一文本实例,同一文本中不同控制点的 positional query 共享着编码器后提供的检测框位置信息,如图 1 所示。我们发现这种建模方式虽然提供了位置先验,但是对于预测控制点的目标来说,这种先验还不够精确,各控制点 query 缺少了各自独特的、显式的位置信息,并且在解码器中位置信息也难以被逐层更新,这些问题导致了**模型训练收敛相对较慢。**因此,本文对如何构建更高效的 query 展开了进一步的探索。



图 1 先前工作中的控制点 query 建模方式


基于控制点拟合场景文本轮廓的方案除了带来建模方面的问题,也引入了监督层面的问题,简而言之就是控制点的顺序应该遵从什么规则,这个问题还未被探索。


在之前的工作中,控制点标签的顺序在保持顺时针的同时,也受人的阅读顺序影响,如图 2(a)所示,对于一个类似于反向的文本,起始边处于空间的下方。这种符合人阅读习惯的形式符合常理也很直观,然而我们观察到即使训练集中存在的类反向文本实例稀少(例如在 Total-Text 中约为 2.8%),模型对旋转文本的检测鲁棒性也会明显下降,比如产生了具有不同起始点的假正例,如图 2(b)所示。在图 2(c)中,即使在训练过程中采用充分的旋转数据增强,模型仅根据视觉特征难以很好地预测符合阅读顺序的起始点,**那么在文本检测模型的训练过程中,还是否有必要让点的标签顺序与阅读顺序一致呢?**本文从监督信号这一角度,探索了不同标签形式对检测模型鲁棒性的影响。



图 2 (a)控制点标签顺序反映了阅读顺序。(b)检测器受到标签影响,隐式地学习阅读顺序而对同一文本产生不同起始点的预测,造成假正例等错误。绿色点为预测的起始点。(c)即使采用充分的旋转数据增强,检测模型也不能很好地学习到正确的阅读顺序。


在 DETR 的检测框架中,本文主要从如何更好地构建 query 与如何更有效地监督模型这两个互补的角度,回答了怎样迈向更好的场景文本检测这一问题。最终的模型取得了训练收敛速度、数据效率、检测鲁棒性等方面明显的提升,在仅以 1 FPS 的推理速度损失为代价的情况下,在三个数据集上取得了当前最佳性能。


另外,由于现有数据集中类反向文本数量稀少,为进一步探究真实场景中模型对该种文本的检测鲁棒性,本文收集并提出了包含 500 张图像的 Inverse-Text 测试集进行验证,也便于后续相关研究工作使用,其中约有 40%的类反向文本实例,可用于验证模型对高度旋转与反向文本的检测以及端到端识别鲁棒性,助力检测模型与端到端识别模型取得更先进、更稳定的性能。该数据集已开始被相关研究工作所采用并作为测试基准。

二、方法概述


图 3 DPText-DETR 整体模型与解码器结构图


在 DPText-DETR 中,我们采用了 ResNet-50 与使用形变注意力[4]的 Transformer 编码器进行特征提取与增强,对得到的特征使用 MLP 头与简单的处理后,选取 top-K 个文本框作为 positional query 的生成来源。



图 4 query 生成方式对比


在 positional query 生成的方式上,针对之前方法的缺陷,我们给出了简单有效的 EPQM 方法。具体而言,我们根据文本框中心点以及宽高的信息可以很容易地得到上下边顺时针均匀采样的多个点,由此再利用点的坐标进行位置编码与投影来生成 positional query。生成方式的对比如图 4 所示。通过这种先验点采样(Prior Point Sampling)的方式,控制点 query 也就自然地转化成了彻底、显式的点形式,**同一文本实例内不同控制点的 content query 独享各自的显式先验位置信息,**并且在解码器层间可以便利地使用一个 MLP 头预测偏移量来进行点位置的更新(Point Update),以此渐进式地获得更贴合文本轮廓的控制点坐标,这些新的点坐标也将用于生成新的 positional query 并作为形变注意力的参考点获得更精确的图像特征。


在解码器中,有了 query 输入后,通常需要考虑如何挖掘 query 之间的关系。在之前的工作中,首先对同一实例内的不同点使用自注意机制挖掘实例内关系,其次在代表不同实例的维度上构建实例间关系。这种关系建模(称为 Factorized Self-Attention, FSA)虽涵盖了实例内与实例间的关系,却缺少了对实例内不同控制点空间归纳偏置的显式建模。


针对多边形的文本表示形式,可以观察到**文本的多边形控制点呈现明显的闭合环形,**因此我们引入了环形卷积[5]与实例内自注意力并行以提供显式的环形引导,引入更多的先验以充分挖掘实例内不同控制点 query 的关系。增强的实例内关系建模与实例间关系建模共同构成了 EFSA 模块。在 EFSA 模块后,query 被送入 Deformable Cross-attention 模块聚合多尺度的图像特征信息。根据解码器最后一层后得到的置信度与控制点位置即可得到最终的检测结果。



图 5 控制点标签形式示意图


在标签问题方面,原始的标签形式诱导检测器隐式地学习文本阅读顺序。训练过程中当文本处于各种旋转角度时,无疑给模型优化增加了额外的负担,在推理时,模型也更容易对处于较大旋转角度的文本产生不稳定的预测结果。为了缓解这一问题,我们采用了一种位置性的形式,在保证控制点按顺时针排列的同时,监督模型从单纯的空间意义上区分场景文本的顶部与底部,而不考虑文本的具体文字内容,如图 5 所示。更多网络结构与实现细节可参考论文原文以及代码。

三、实验结果

3.1 与 SOTA 方法的对比



表 1 与现有方法的检测性能对比


我们在 Total-Text、CTW1500 和 ICDAR2019 ArT 三个最主要的任意形状场景文本数据集上与现有方法进行比较,检测性能的对比如表 1 所示,其中 F 值是主要关注的评价指标。使用 ResNet-50 backbone 时,DPText-DETR 在三个数据集上均取得了最佳的性能。检测结果可视化如图 6 所示。



图 6 Total-Text(左)、CTW1500(中)与 ArT(右)检测结果可视化


3.2 消融实验


本文在 Total-Text、Rot.Total-Text 测试集以及提出的 Inverse-Text 上进行了消融实验。Rot.Total-Text 测试图片由 Total-Text 测试图片额外旋转 45°、135°、180°、225°、315°得到,用于检验模型对旋转文本的鲁棒性。Inverse-Text 共有 500 张测试图片,其中约有 40%的类反向文本实例,可用于验证真实场景下对旋转文本检测以及端到端识别的鲁棒性,样例如图 7 所示,一些统计指标在图 8 中给出。在消融实验中,为了更直观地评估在 Total-Text 上模型训练效率的改善程度,我们只使用了 Total-Text 训练集进行训练,没有使用合成数据进行预训练。



图 7 Rot.Total-Text 与 Inverse-Text 测试集样例



图 8 Inverse-Text 与 Total-Text 测试集在每张图片包含的文本数量、文本长度、字符类别频率等统计指标上的对比


主要的消融实验结果如表 2 所示。


**关于位置性标签:**①将原始标签处理为位置性形式并用于训练时,测试集上的检测性能均有增益,尤其是在 Rot.Total-Text 以及 Inverse-Text 上,例如对比第 1、2 行结果,不使用旋转数据增强时,在 Total-Text、Rot.Total-Text、Inverse-Text 上分别提升了 0.68%、3.90%、3.07%,这验证了即使训练数据中即使存在极少量的类反向文本,原标签形式也会较明显地降低模型检测的鲁棒性。②当使用充分的旋转数据增强时,各测试集上的性能均有显著提高,实际上旋转增强是一种廉价有效的提升模型性能及鲁棒性的手段,而在此基础上将原始标签形式替换为位置性标签,各测试集上的性能仍有明显的提升,并且如图 9 所示收敛的速度也得到改善,这意味着位置性形式标签有效改善了模型对阅读顺序的学习负担,降低了优化难度,相比原形式,能与旋转增强更好地协同起效。


**关于 EPQM 与 EFSA:**根据表 2 结果与图 9 收敛曲线,两个模块均对模型性能与收敛速度有明显贡献,并且推理速度的损失较为可观。其中 EPQM 大大加速了模型训练的收敛,可以减少所需的训练成本。除此以外,相比于原始标签形式,位置性标签为这两个模块提供了更合适的监督信号,模型因此精度更佳,模型结构方面的优化与监督信号方面的改进是展现了适宜的互补关系。



表 2 消融实验。“Pos.Label”代表使用位置性标签。不使用 EFSA 时 FSA 模块将被使用



图 9 使用旋转数据增强时在 Rot.Total-Text 上前 30K 迭代的收敛曲线


接下来,我们继续对 EPQM 和 EFSA 展开了减少训练步数与数据量的测试,实验结果如表 3 所示,训练过程中没有使用旋转数据增强。当使用全量训练数据时,将训练步数减少至原来的十分之一时,仅使用 EPQM 获得了 9.07%的 F 值提升,使用 EFSA 有进一步改善。当减少训练数据量并保持相同训练轮数时,基线方法的检测精度断崖式下降。而使用 EPQM、EFSA 时受到的影响较少,相比基线最多取得了 55.55%的 F 值提升,这表明显式的、引入更多先验的 query 建模方式能够极大提升训练效率。



表 3 使用 EPQM 与 EFSA 在更少的训练迭代次数与更少数据条件下的表现。“TD-Ratio”指训练数据使用比例,“Improv.”指检测精度的绝对提升值


为了进一步揭示 EPQM 中让训练收敛更快的因素,我们进行了进一步的消融,结果如图 10 所示。可以发现当进行点的更新时,模型的精度与收敛速度得到了更多的提升,而显式的点采样是进行点位置更新的先决条件。这表明在针对控制点 query 的构建过程中,对稀疏点的显式建模是提升训练效率的关键所在。之前的有关工作[2][6]表明,来自显式框的 query 或者进行 RoIAlign 的稀疏特征采样有助于提升 DETR 类模型的训练效率,在我们对场景文本检测设计的模型中,进一步证明由于任务与需求的差别,相比于框的信息,稀疏的显式点更能加速收敛与提升精度。



图 10 对 EPQM 的进一步消融量化结果与收敛曲线


最后,我们也选择了一些端到端识别模型在 Inverse-Text 上进行测试。在预测控制点类型的模型上测试位置性标签后,检测 F 值仍有明显的提升。另外,相比于这些模型在 Total-Text 上的性能表现,这些模型在 Inverse-Text 上直接测试能达到相似的检测精度,但是端到端识别精度显著更低,这也说明端到端识别模型对于高度旋转以及反向文本的识别鲁棒性仍有较大的提升空间,Inverse-Text 可以作为测试集,便于后续有关工作评估真实场景中模型对旋转文本的识别鲁棒性。



表 4 现有端到端识别模型在 Inverse-Text 上的测试精度



图 11 端到端识别模型对 Inverse-Text 中高度旋转以及类反向文本的识别效果较差。红框标出了识别错例

四、结论

我们基于 DETR 框架提出了一种简洁有效的场景文本检测模型 DPText-DETR,将 query 重构为完全显式的点形式,显著地提升了训练收敛速度与数据效率,并探究了控制点标签形式对检测鲁棒性的影响,实验表明 DPText-DETR 在三个最主要的任意形状场景文本数据集上取得了 SOTA 性能。另外,我们也提出了 Inverse-Text 测试集以便后续相关工作使用。


【论文】https://arxiv.org/abs/2207.04491


【代码】https://github.com/ymy-k/DPText-DETR


One More Thing


我们最近还提出了一种场景文本端到端识别模型 DeepSolo,在基准数据集上取得了最先进的性能。我们设计了一种新颖的基于文本中心贝塞尔曲线的显式点 query 为场景文本检测与识别两个子任务提供了统一的表征形式,有效提升了模型训练效率,简化了端到端识别的流程。同时模型推理速度超过了其他基于 Transformer 的方法,并且也可以利用中心线形式的位置标注进行训练,相比于多边形形式显著降低了标注成本。欢迎大家关注,后期也将进行技术分享。


【论文】https://arxiv.org/abs/2211.10772


【代码】https://github.com/ViTAE-Transformer/DeepSolo


参考文献:


[1] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. End-to-End Object Detection with Transformer. ECCV, 2020.


[2] Shilong Liu, Feng Li, Hao Zhang, Xiao Yang, Xianbiao Qi, Hang Su, Jun Zhu, and Lei Zhang. DAB-DETR: Dynamic Anchor Boxes Are Better Queries for DETR. ICLR, 2022.


[3] Xiang, Zhang, Yongwen, Su, Subarna Tripathi, and Zhuowen, Tu. Text Spotting Transformers. CVPR, 2022.


[4] Xizhou Zhu, Weijie Su, Lewei Lu, Bin Li, Xiaogang Wang, Jifeng Dai. Deformable DETR: Deformable Transformers for End-to-End Object Detection. ICLR, 2021.


[5] Sida Peng, Wen Jiang, Huaijin Pi, Xiuli Li, Hujun Bao, Xiaowei Zhou. Deep Snake for Real-Time Instance Segmentation. CVPR, 2020.


[6] Wen Wang, Jing Zhang, Yang Cao, Yongliang Shen, Dacheng Tao. Towards Data-Efficient Detection Transformers. ECCV, 2022.

发布于: 2023-09-11阅读数: 3
用户头像

拥抱技术,与开发者携手创造未来! 2018-11-20 加入

我们将持续为人工智能、大数据、云计算、物联网等相关领域的开发者,提供技术干货、行业技术内容、技术落地实践等文章内容。京东云开发者社区官方网站【https://developer.jdcloud.com/】,欢迎大家来玩

评论

发布
暂无评论
DPText-DETR: 基于动态点query的场景文本检测,更高更快更鲁棒 | 京东探索研究院_京东云_京东科技开发者_InfoQ写作社区