写点什么

Milvus×Florence:一文读懂如何构建多任务视觉模型

作者:Zilliz
  • 2024-11-27
    上海
  • 本文字数:4978 字

    阅读完需:约 16 分钟

Milvus×Florence:一文读懂如何构建多任务视觉模型

近两年来多任务学习(Multi-task learning)正取代传统的单任务学习(single-task learning),逐渐成为人工智能领域的主流研究方向。其原因在于,多任务学习可以让我们以最少的人力投入,获得尽可能多的 AI 能力。比如 ChatGPT,就是一种基于多任务学习的自然语言生成模型。通过海量的数据训练,以及针对特定任务的模型微调,ChatGPT 可以拥有极高的性能以及广泛的通用性。


这种单任务向多任务的转变趋势在计算机视觉领域体现的尤为明显。传统的计算机视觉算法框架下我们往往需要针对不同的任务去创建不同的模型,比如人脸识别需要特定的算法,猫脸识别需要特定算法,花草识别又需要另一套算法。这就导致整体的训练效率低下不说,算法的可扩展性也受到了极大的限制。


针对这一问题,除了典型的 ChatGPT 的解法之外,微软推出了一种名叫Florence的新的计算机视觉基础模型。Florence 是一种典型的多任务学习计算机视觉模型是一种典型的多任务学习计算机视觉模型,可以完成包括图像分类目标检测、视觉问答和视频分析在内的多种类型的视觉任务,并且在每一个子任务中的表现通常都优于传统的单任务学习模型,与此同时,scaling law也适用于Florence模型,数据规模越大,模型的智能程度也就越高。


接下来我们将重点解读 Florence 模型的结构、训练方法、能力,以及对未来的 AI 和计算机视觉的潜在影响。

传统单任务计算机视觉模型的缺陷

将各种计算机视觉任务的类型进行总结,我们可以将其简单概括为三大维度:时间、空间、模态。



图 1:映射到时空模态空间的常见计算机视觉任务


  • 空间:既包括粗粒度的场景理解,也包括细粒度的目标检测和分割。在粗粒度层面上,有图像分类这样的任务,旨在识别图像的主要主题。细粒度分析,则包括了目标检测等任务,需要识别并定位图像中的多个目标并分割任务,这要求精确描绘目标边界。

  • 时间:计算机视觉任务涉及静态图像和动态视频。静态任务包括图像分类、目标检测和视觉问答。动态任务涉及分析随时间变化的图像序列,例如视频中的动作识别或目标跟踪。

  • 模态:纯视觉任务包括图像分类和目标检测,而多模态任务,则会将视觉数据与其他类型的信息相结合,例如文本(在图像描述或视觉问答中)、深度信息,甚至是一些视频分析任务中的音频。


传统意义上,我们需要针对不同任务训练不同的模型,但这种单任务学习的模式存在三大问题:


  • 开发和部署效率低下:为每个任务创建和维护单独的模型需要大量资源且耗时。

  • 知识迁移的困难:为一项任务优化的模型通常难以将学到的知识应用于其他的相关任务。

  • 处理新情况的能力有限:当面对与训练数据显著不同的场景时,专用模型可能表现不佳。

Florence 简介

与上文提到的单任务模型形成对比,Florence 旨在开发一个通用的基础模型,并在架构中集成了多个组件,每个组件分别解决包括图像识别、目标检测以及视觉问答和图像描述、视觉理解等不同方面任务。其最大特色是该模型利用视觉和语言理解的组合来处理和解释文本和视觉数据,使其特别适合需要多模态能力的应用。


具体来说,Florence 的多功能性源于其统一的架构,其架构有两个主要组件:Florence 预训练模型(Pretrained Models)和 Florence 适应模型(Adaptation Models)。



图 2:构建 Florence 的工作流程:从数据管理到部署

Florence 预训练模型

Florence 预训练模型由几个关键组件组成,用于有效处理和对齐视觉和文本数据。


  • 语言编码器:该组件处理文本输入,允许模型理解和生成与视觉内容相关的语言。它类似于BERT或 GPT 等模型,但能与视觉信息一起工作。

  • 图像编码器(CoSwin):基于 CoSwin 的分层视觉转换器,该编码器处理视觉信息,将原始像素数据转换为有意义的表示。它建立在自然语言处理中 transformer 的架构基础上,使其适用于图像处理。

  • 统一对比学习:该模块对齐视觉和文本表示,使模型能够理解图像及其描述之间的关系,帮助模型学习哪些文本对应哪些图像,反之亦然。

Florence 任务适配模型:

该模型旨在通过小样本和零样本迁移学习来有效适配各种不同类型任务,并通过很少的 epoch 训练进行有效部署。具体来说,该组件支持:


  1. 分类/检索适配:该组件允许 Florence 执行图像分类和跨模态检索任务。例如,它可以将图像分类为预定义的类别,或查找与给定文本描述相匹配的图像。

  2. 对象级表示 (Dynamic Head 适配器):该适配器支持细粒度的目标检测和分割任务,允许模型对图像中的内容进行分类,并定位和勾勒特定对象。



图 3:用于对象级视觉表示学习的 Dynamic Head 适配器


如上图所示, Dynamic Head 适配器通过一系列注意力机制处理视觉信息:


输入是一个包含不同尺度视觉信息的特征金字塔。例如,在繁忙街景的图像中:


  • 最大的块可能代表建筑物和道路的整体布局。

  • 中间的街区可能会捕捉到单独的汽车和行人。

  • 最小的块可以专注于细节,如车牌或面部特征。


适配器采用三种类型的注意力:


  • 层次注意力(Level-wise attention, SE):侧重于金字塔不同层次的重要特征。在我们的街景中,SE 可能会强调车辆检测任务中的汽车层次,或人物识别任务中的面部特征层次。

  • 空间注意力(Space-wise attention):这涉及每个级别内的相关空间位置,由 3D 网格表示。例如,当寻找行人时,它可能会关注人行道区域,当检测车辆时,它可能会关注道路区域。

  • 通道注意力(Channel-wise attention):强调了重要的特征通道,显示为最后一个块。一些通道可能更适合检测形状,而其他通道可能更适合检测颜色信息。


OFFSET 和 DELTA 组件微调空间边界。它们有助于精确定位目标边界,例如准确勾勒街景中的汽车或人物。


这种多阶段注意力过程使模型能够通过关注不同尺度和空间位置上最相关的信息来检测和分割对象。例如,它可以同时检测像公交车这样的大型物体,像汽车这样的中型物体,以及像街景中的交通标志这样的小型物体。


  1. 细粒度 V+L 表示(METER 适配器):该模块支持视觉-语言任务,如视觉问答和图像描述。它使模型能够理解视觉和文本信息之间的复杂关系。



图 4:用作 Florence V+L 适配模型的 METER 适配器


上图所示的 METER 适配器使用共同注意力机制来融合视觉和文本信息。让我们看看它的工作原理:


  • 语言编码器(RoBERTa)处理文本输入。例如,它可能会处理以下问题:“停在消防栓旁边的汽车是什么颜色的?”

  • 视觉编码器(Florence-CoSwin)处理视觉输入。这将分析街景的图像。

  • 两个输入都经过单独的自注意力层,允许每种模态独立处理其信息。文本自注意力可能集中在颜色、汽车和消防栓等关键词上,而视觉自注意力可能突出显示图像中包含汽车和消防栓的区域。

  • 这些自我注意层的输出然后输入到交叉注意层,这是视觉和文本信息结合的地方。

  • 文本特征关注图像的相关部分(Vl、Kl、Ql 箭头指向下方)。对于我们的例子,这可能会将汽车和消防栓这两个词与图像中的视觉表示联系起来。

  • 图像特征与文本的相关部分相关(Vv、Kv、Qv 箭头指向上方)。这可能涉及将汽车的视觉特征与问题中的单词颜色相关联。

  • 最后,两个流都经过前馈层,进一步处理这些组合信息。

  • 此过程重复 Mco 次,允许进行多轮细化。


这种架构允许模首先分别处理文本和图像,然后逐渐组合信息,使其能够理解视觉和文本内容之间的复杂关系。举个例子,在街景识别中,模型会显根据其靠近消防栓的位置识别正确的汽车,然后确定其颜色,并形成一个答案,例如:停在消防栓旁边的汽车是蓝色的。


  1. 视频表示(Video CoSwin):该适配器扩展了 Florence 处理视频数据的能力,使动作识别等任务成为可能。它建立在图像处理能力上,以理解随时间变化的图像序列。


这种统一的结构使 Florence 只需一个基础模型和特定任务的适配器,就能处理图像分类、视频识别等一系列任务。

Florence 的能力:“多才多艺”的视觉 AI

Florence 的适应性在执行以下任务的能力中显而易见。


零样本图像分类


Florence 在 12 个数据集中展现了强大的零样本分类能力,在大多数情况下优于CLIP和 FLIP 等模型。它在细粒度任务上表现尤为出色,如在 Stanford Cars 上获得 93.2%的分数,在 Oxford Pets 上获得 95.9%的分数,并以 83.7%的准确率处理ImageNet等大规模数据集。这一表现表明,Florence 可以利用其对语言和视觉特征的理解,泛化识别未见类别。


线性探测分类


当在冻结特征之上使用线性分类器时,Florence 在大多数数据集上超过了 SimCLRv2、ViT 和 EfficientNet 等模型。这种在多样化和细粒度分类任务上的多功能性表明,Florence 学到的表示非常丰富且适用于新任务。


目标检测


Florence 的目标检测性能在多个数据集上进行了评估,在 COCO 上得分为 62.4 mAP,在 Object365 上得分为 39.3 mAP,在 Visual Genome 上得分为 16.2 AP50。这些结果突出了它在复杂场景中分类、定位和识别多个对象的能力。


视觉问答(VQA)


Florence 在 VQAv2 数据集上取得了 80.36%的准确率,显示了其整合视觉和文本信息的能力。


图文检索


Florence 在跨模态检索方面表现出色,Flickr30K 数据集的结果显示图像到文本的 R@1 为 97.2%,文本到图像的 R@1 为 87.9%,MSCOCO 数据集的图像到文本的 R@1 为 81.8%,文本到图像的 R@1 为 63.2%。这种对齐视觉和文本表示的能力支持强大的跨模态搜索功能。


视频动作识别


虽然是在静态图像上训练的,但 Florence 能够很好地适应视频任务,在 Kinetics-400 上取得了 86.5%的 top-1 准确率,在 Kinetics-600 上的 top-1 准确率为 87.8%。这表明,Florence 可以捕捉视频中的时间信息并识别动作,处理动作和序列,而无需对视频数据进行特定的训练。


有关更多评估和实验结果,请查看Florence的论文

Florence 和向量数据库如何增强多模态搜索

Florence 在图像-文本检索和零样本分类方面的能力,与向量数据库的优势可以互相结合,来最大化它们的潜力,创建强大的多媒体搜索和分析系统。

了解向量数据库

向量数据库是专门用于存储、索引和查询高维向量的系统,这些向量表示图像、文本或音频等复杂数据。这些向量通常由 Florence 等模型生成,允许在庞大的数据集中进行高效的相似性搜索。这种能力使得向量数据库非常适合应用于基于语义或内容相似性的快速准确的数据匹配。

Milvus:为规模而建的开源向量数据库

MilvusGitHub上拥有超过30,000颗星的开源向量数据库,特别适合构建 AI 驱动的应用。它具有可扩展性、强大的性能和灵活的索引,非常适合管理像 Florence 这样的模型生成的大型复杂数据集。它提供广泛的功能,例如:


  • 混合和多模态搜索:Milvus 支持混合稀疏和密集搜索,将向量相似性搜索与标量过滤器相结合,并允许多模态搜索。

  • 可扩展性:Milvus 可以水平扩展,管理数十亿个向量,确保其与 Florence 处理庞大数据集的能力保持同步。

  • 多种索引类型:Milvus 拥有 15 种索引类型,为用户提供了优化查询速度、准确性或内存的灵活性,适合一系列应用需求。

  • GPU加速: Milvus 利用 GPU 加速索引和搜索,这与 Florence 基于 GPU 的推理非常一致,并最大限度地提高了端到端系统效率。

  • 实时更新:Milvus 支持实时数据插入和更新,允许基于 Florence 的系统能够无缝整合新数据,而不会出现重大中断。


Florence 和 Milvus 的组合有许多应用,包括:


  • 多模态RAG:传统的 RAG 系统专注于检索文本,以增强 LLM 的生成过程,产生更准确、更个性化的响应。多模态 RAG 通过使用 Florence 和 Milvus 等多模态 AI 模型,将图像、音频、视频等其他数据类型集成到嵌入、检索和生成过程中。

  • 大规模视觉搜索引擎:用户可以根据详细的文本描述查找图像,或上传图像以在海量数据集中查找类似的图像。

  • 内容推荐系统:通过存储各种内容项(图像、视频、文章)的 Florence 嵌入,Milvus 可以根据用户偏好和行为提供个性化推荐。

  • 自动标记和分类:Florence 的零样本能力与 Milvus 的快速检索相结合,可以通过在数据库中找到类似的、已经标记的项目,来实现新图像的自动标记。

  • 大规模视觉问答:在 Milvus 中存储 image-question-answer 三元组的嵌入,能快速检索有关图像的新问题的相关信息。


随着技术的发展,我们期望看到更先进的视觉 AI 系统,可以增强人机交互,简化 AI 驱动的助手。这些发展还可能导致各行各业更好的自动化,并引入新的创意和内容生产工具。


更多资源


本文作者:Denis Kuria




发布于: 刚刚阅读数: 4
用户头像

Zilliz

关注

Data Infrastructure for AI Made Easy 2021-10-09 加入

还未添加个人简介

评论

发布
暂无评论
Milvus×Florence:一文读懂如何构建多任务视觉模型_微软_Zilliz_InfoQ写作社区