写点什么

OpenSearch LLM 智能问答版全新升级

  • 2024-05-16
    浙江
  • 本文字数:1348 字

    阅读完需:约 4 分钟

阿里云 OpenSearch LLM 智能问答版是 OpenSearch 推出的一站式开箱即用的检索增强生成(RAG)云产品,帮助开发者快速构建多模态对话式搜索服务。

自 2023 年 6 月上线以来,OpenSearch LLM 智能问答版已累计支持了数百家云上客户搭建 RAG 系统,适用于商品导购、智能客服、企业知识库等众多典型应用场景。随着 AI 技术日新月异的发展,OpenSearch 也在进行能力升级,持续打造更优质的 RAG 云产品。

本文将重点介绍 OpenSearch 近期带来的全新升级。

内置最新开源大模型

OpenSearch LLM 智能问答版新增支持最新版开源大模型。相比于去年同期发布的模型,新一代大模型的训练数据量扩展了 7 倍,包含的代码数量扩展了 4 倍,其在标准测试集上的效果也超过了众多知名模型,被称为“目前市场上最好的开源大模型”。

在 RAG 场景下,最新版大模型的表现同样优异。在相似的模型参数规模下,最新版大模型生成结果的冗余性大幅降低,总结能力明显提升,同时在英文场景下的表现更加出色。


第二代大模型生成结果


1.png


第三代大模型生成结果


2.png


目前,OpenSearch LLM 智能问答版已全量开放最新版大模型测试,欢迎感兴趣的客户对比测试。

中文语义理解能力登顶 C-MTEB 榜单

语义理解是搜索的基础,也是影响 RAG 系统准确性的重要环节。

OpenSearch 基于自主研发的稠密+稀疏混合向量模型,构建更精准的语义理解能力,目前已登顶中文向量模型 C-MTEB 榜单,超过众多知名国内外厂商和开源模型。


3.png


特别是在召回率指标上,OpenSearch 的优势更加明显。更高的召回率保证了对话大模型能获取更充足的语料输入,从而生成更优质的答案。

多模态模型助力新一代图片理解

在电商导购、智能客服、企业知识库等场景中,大量关键信息以图片的形式呈现,图文结合的多模态展现可以大幅提升用户体验和结果准确率。

OpenSearch 结合 Qwen-VL-Max 多模态大模型,实现了全新一代图片内容理解,打造多模态 RAG 系统。

其中,图片结合能力包含:

  • 图片内容理解:使用 Qwen-VL-Max 模型,理解文档中的图片信息,并作为文档知识参与知识库对话问答。

示例:


4.png


问题:伞是什么颜色的

回答:伞是红色的。在已知信息中提到:“这种图片展示了一个场景,其中一个人站在一个红色的雨伞下。”因此,可以确定伞的颜色是红色。


  • 文字信息 OCR:识别图片中的文字信息,并作为格式化文本存储到知识库中。

示例:


5.png


问题:哲学书的名字是什么

回答:哲学书的名字是“苏格拉底的申辩”。

  • 上下文信息扩展联想:结合图片上下文的文本信息,作为图片内容的辅助描述,增强图片的理解能力。

  • 多参考图片返回:升级后的 OpenSearch LLM 智能问答版支持多种图片作为问答结果的参考图片,适用于操作流程图、商品信息展示等多个场景。

切片策略升级,搜索能力大幅提升

在常见的 RAG 框架中,知识库中的长文本文档会首先进行切片,然后进行后续的向量化以及索引构建等处理。

最新版 OpenSearch LLM 智能问答版支持语义切片、单句切片等多种切片策略。结合使用两种切片策略后,OpenSearch 在典型场景上的准确率、召回率得到大幅提升。

结合 OpenSearch 底层高性能引擎 Havenask,即使单句切片产生了大量的扩展文本和向量索引,系统也可毫秒级返回最相关的文档段落,从而保障 RAG 系统整体的性能和效果。

未来规划

未来,OpenSearch 将结合大语言模型、自然语言处理技术,持续探索智能搜索技术,并将于近期推出搜索开发工作台,支持在智能搜索、RAG 场景下更灵活使用,敬请期待。

用户头像

还未添加个人签名 2020-10-15 加入

分享阿里云计算平台的大数据和AI方向的技术创新和趋势、实战案例、经验总结。

评论

发布
暂无评论
OpenSearch LLM智能问答版全新升级_人工智能_阿里云大数据AI技术_InfoQ写作社区