英特尔软硬协同,优化阿里云通义千问 2 AI 模型
一直以来,英特尔致力于与行业领先、创新的生态伙伴开展合作,并针对 AI 模型进行优化。近日,英特尔宣布其数据中心、客户端和边缘的 AI 解决方案为阿里云通义千问 2(Qwen2)的全球发布提供支持。
英特尔公司副总裁兼数据中心与人工智能软件总经理 Pallavi Mahajan 和英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示,在阿里云推出通义千问 2 大模型的当日,英特尔即为客户和开发人员提供了针对该 AI 模型和软件而优化的 AI 解决方案。
软件优化
为了最大限度地提升诸如阿里云通义千问 2 的大模型效率,全面的软件优化非常重要,其中包括从高性能融合算子到平衡精度和速度的先进量化技术。此外,英特尔还采用 KV Caching、PagedAttention 机制和张量并行来提高推理效率。英特尔的硬件可利用软件框架和工具包进行加速,并获得出色的大模型推理性能,其中包括 PyTorch 和英特尔® PyTorch 扩展包、OpenVINO™工具包、DeepSpeed、Hugging Face 库和 vLLM。
英特尔与阿里云在数据中心、客户端以及边缘平台上的 AI 软件优化,有助于构建一个创新的生态环境,且截至目前,已取得了包括 ModelScope、阿里云 PAI、OpenVINO 等在内的诸多创新成果。得益于此,阿里云 AI 模型可在多样化的计算环境中进行优化。
测试结果:英特尔® Gaudi AI 加速器
英特尔 Gaudi AI 加速器专为生成式 AI 以及大模型的高性能加速而设计。使用最新版本的英特尔 Gaudi Optimum,可以轻松部署新型号的大模型。在英特尔 Gaudi 2 上对 70 亿参数和 720 亿参数的通义千问 2 模型的推理和微调吞吐量进行了基准测试,以下为详细性能指标和测试结果。
测试结果:英特尔®至强®处理器
英特尔®至强®处理器作为通用计算的基石,为全球范围内的用户提供强大的算力。英特尔至强处理器具有广泛可用性,适用于各个规模的数据中心,这使其成为那些希望能够快速部署 AI 解决方案,又无需配备专项基础设施企业的理想选择。英特尔至强处理器的每个核心均内置了英特尔®高级矩阵扩展(英特尔 AMX),可处理多样化的 AI 工作负载并加速 AI 推理。下图展现了英特尔至强处理器所提供的延迟性能可满足多种用例。
AI PC
由最新英特尔®酷睿™ Ultra 处理器和英特尔锐炫™显卡驱动的 AI PC 让 AI 的力量触及客户端和边缘,使开发者在本地也能部署大模型。AI PC 配备了专门的 AI 硬件,如神经处理单元和内置的英特尔锐炫™显卡,或配备了英特尔® Xe Matrix Extensions 加速的英特尔锐炫™A 系列显卡,以处理高需求的边缘 AI 任务。这种本地处理能力可实现个性化的 AI 体验,增强隐私性,并提供快速响应时间,这对于交互式应用程序至关重要。
以下展示了 15 亿参数的通义千问 2,在基于英特尔®酷睿™Ultra 的 AI PC 上运行时所展现的强大性能。
评论