基于多向量检索器的多模态 RAG 实现
原文:https://blog.langchain.dev/semi-structured-multi-modal-rag/
长话短说
下面三个 LangChain 示例代码,展示了如何使用 LangChain 多向量检索器(Multi-Vector Retriever)对多内容类型的文档实现更好的 RAG 效果。后面两个示例还涵盖了一些配合多模态 LLM 的多矢量检索器用法,以实现针对图像的 RAG。
详细内容
一般来讲,一个 LLM 应用可以通过两种方式获取新信息
权重更新(如微调)
RAG(检索增强生成)
后者通过 Prompt 将相关上下文传递给 LLM。它将 LLM 的推理能力与外部数据源的内容结合起来,所提特别适用于事实提取。
多向量检索器可以从多种数据类型(文本、表格、图像)中检索相关的内容,并将其作为上下文传递给 LLM 用于生成答案。
其核心思想是将文档(用于答案合成)和引用(用于检索)分离,这样可以针对不同的数据类型生成适合自然语言检索的摘要,同时保留原始的数据内容。它可以与多模态 LLM 结合,实现跨模态的 RAG。
当然,如果要使用多向量检索器,我们首先需要把一个文档分割成不同的信息类型。这里要提一下Unstructured,一个非常不错的针对非结构化数据的预处理开源工具,可以从多种文件类型中提取表格、图像、文本等信息类型。例如,如果需要分割一个 PDF 文件,Unstructured 会首先移除所有嵌入的图像块。然后,用 YOLOX 布局模型来获取边界框(表格)和 titles
,即文档的子章节(如导言等)。然后进行后处理,汇总每个 title
下的文本,并根据用户特定的标记(如最小块大小等)进一步分块成文本块,以便进行下游处理。
Unstructured 文件解析结合多向量检索器可以很好地支持针对半结构化数据的 RAG,因为所生成的表元素 summaries 更适合自然语言检索。简单来讲,就是先通过对用户的问题进行语义相似性检索,找到表格摘要,然后把 原表格 传递给 LLM 进行答案合成,如图所示:
因为诸如 GPT4-V、LLaVA(开源)、Fuyu-8b(开源)等多模态 LLM 的发布,我们不仅可以处理表格,还可以进一步处理图像。下面列举了 3 种利用多向量检索器来达到这个效果的方法:
使用多模态 embeddings(如 CLIP)将图像和文本嵌入在一起。然后,对于其中一个进行相似性检索,并在 docstore 中链接到原始图像。最后,将原始图像和文本块传递给多模态 LLM 进行合成。
使用多模态 LLM(如 GPT4-V、LLaVA 或 FUYU-8b)从图像中生成文本摘要。然后,使用文本模型 embed 文本摘要。同上,需要在 docstore 中连接至原始文本或图像,以便 LLM 进行答案合成。
(原文中的方法 2 和 3 实际上可以看作是一种方法,这里合并了。)
版权声明: 本文为 InfoQ 作者【Tiger Wang】的原创文章。
原文链接:【http://xie.infoq.cn/article/e7ce7dee36a38fc04a4c88705】。文章转载请联系作者。
评论