写点什么

基于多向量检索器的多模态 RAG 实现

作者:Tiger Wang
  • 2023-10-26
    广东
  • 本文字数:1089 字

    阅读完需:约 4 分钟

原文:https://blog.langchain.dev/semi-structured-multi-modal-rag/

长话短说

下面三个 LangChain 示例代码,展示了如何使用 LangChain 多向量检索器(Multi-Vector Retriever)对多内容类型的文档实现更好的 RAG 效果。后面两个示例还涵盖了一些配合多模态 LLM 的多矢量检索器用法,以实现针对图像的 RAG。


详细内容

一般来讲,一个 LLM 应用可以通过两种方式获取新信息


  1. 权重更新(如微调)

  2. RAG(检索增强生成)


后者通过 Prompt 将相关上下文传递给 LLM。它将 LLM 的推理能力与外部数据源的内容结合起来,所提特别适用于事实提取。


多向量检索器可以从多种数据类型(文本、表格、图像)中检索相关的内容,并将其作为上下文传递给 LLM 用于生成答案。

其核心思想是将文档(用于答案合成)和引用(用于检索)分离,这样可以针对不同的数据类型生成适合自然语言检索的摘要,同时保留原始的数据内容。它可以与多模态 LLM 结合,实现跨模态的 RAG。


当然,如果要使用多向量检索器,我们首先需要把一个文档分割成不同的信息类型。这里要提一下Unstructured,一个非常不错的针对非结构化数据的预处理开源工具,可以从多种文件类型中提取表格、图像、文本等信息类型。例如,如果需要分割一个 PDF 文件,Unstructured 会首先移除所有嵌入的图像块。然后,用 YOLOX 布局模型来获取边界框(表格)和 titles,即文档的子章节(如导言等)。然后进行后处理,汇总每个 title 下的文本,并根据用户特定的标记(如最小块大小等)进一步分块成文本块,以便进行下游处理。


Unstructured 文件解析结合多向量检索器可以很好地支持针对半结构化数据的 RAG,因为所生成的表元素 summaries 更适合自然语言检索。简单来讲,就是先通过对用户的问题进行语义相似性检索,找到表格摘要,然后把 原表格 传递给 LLM 进行答案合成,如图所示:


因为诸如 GPT4-VLLaVA(开源)、Fuyu-8b(开源)等多模态 LLM 的发布,我们不仅可以处理表格,还可以进一步处理图像。下面列举了 3 种利用多向量检索器来达到这个效果的方法:


  1. 使用多模态 embeddings(如 CLIP)将图像和文本嵌入在一起。然后,对于其中一个进行相似性检索,并在 docstore 中链接到原始图像。最后,将原始图像和文本块传递给多模态 LLM 进行合成。


  1. 使用多模态 LLM(如 GPT4-V、LLaVA 或 FUYU-8b)从图像中生成文本摘要。然后,使用文本模型 embed 文本摘要。同上,需要在 docstore 中连接至原始文本或图像,以便 LLM 进行答案合成。


原文中的方法 2 和 3 实际上可以看作是一种方法,这里合并了。



发布于: 刚刚阅读数: 7
用户头像

Tiger Wang

关注

https://github.com/tigerinus 2018-11-08 加入

早年在微软、甲骨文、阿里巴巴就职,最近一直在初创公司打杂。

评论

发布
暂无评论
基于多向量检索器的多模态 RAG 实现_多模态_Tiger Wang_InfoQ写作社区