焱融科技携手哈工大(深圳)共启 AI 推理存储研究,推进 AI 基础设施创新
今日,国内领先的高性能存储厂商焱融科技携手哈尔滨工业大学(深圳)共同启动“面向未来 AI 推理存储”研究项目。此次合作聚焦于 AI 推理场景下的高性能数据访问与缓存优化,旨在打破算力与存储间的性能瓶颈,探索更高效、更智能的基础设施架构。通过融合产业实践与学术研究,双方将为大模型推理的性能演进与系统优化提供新的理论支撑与工程验证。

聚焦瓶颈挑战,攻关推理阶段存储优化
随着大模型在多轮对话、跨会话交互等场景中的深入应用,推理阶段的计算与存储开销正成为性能提升的主要瓶颈。系统提示词、模板化问句等冗余上下文片段反复出现,使 KV Cache 在推理过程中需多次重复计算,导致 Prefill 阶段计算冗余严重,不仅拉长首 Token 延迟(TTFT),也显著降低系统吞吐率。同时,KV Cache 与模型参数的存储规模持续增长,进一步限制上下文长度与并发性能提升,成为影响大模型部署效率的关键障碍。
针对这一行业共性问题,焱融科技与哈尔滨工业大学(深圳)将结合双方优势,围绕“兼顾数值精度与生成质量”的研究方向,深入探索推理阶段的高效存储架构设计与缓存管理机制。
技术共建,推动 AI 基础设施创新
双方合作项目以 “兼顾数值精度与生成质量” 为核心前提,重点围绕三大技术目标展开:
降低推理延迟 —— 优化 KV Cache 的复用与调度机制,加速首 Token 响应;
提升系统吞吐率 —— 改进数据访问路径与并发控制策略,增强多用户推理能力;
突破存储限制 —— 构建高效可扩展的存储架构,支持更长上下文交互并降低部署成本。
该研究不仅在理论层面推动 AI 推理系统的性能演进,也将通过工程化验证为大模型落地提供实践参考,兼具科研价值与产业应用意义。
焱融科技 CEO 王海涛表示:“AI 推理性能的提升,不仅取决于算力规模,更依赖于存储与计算的高效协同。焱融希望通过与高校的联合探索,突破 AI 推理阶段的系统瓶颈,推动智能存储架构向更高效、更绿色的方向演进,为 AI 的大规模落地提供坚实的技术基础。”
哈尔滨工业大学(深圳)夏文教授也指出:“AI 推理阶段的存储优化是当前大模型技术落地的关键挑战之一,需要学术界与产业界的深度协作。此次与焱融科技的合作,将为科研成果的工程化验证与落地提供重要支撑,也将推动技术研究更贴近产业实际需求,实现‘科研为产业赋能、产业为科研指路’的良性循环。”
当前,AI 技术正从技术探索向产业应用快速渗透,底层基础设施的性能与成本优化成为行业竞争的核心焦点。焱融科技与哈尔滨工业大学(深圳)的此次合作,不仅为 AI 推理存储领域的技术突破注入新动能,更将为 AI 行业用户提供更具性价比的部署方案,推动大模型技术在更多行业场景的深度落地,为智能产业的高质量发展贡献力量。
关于哈尔滨工业大学(深圳)夏文教授团队
夏文教授团队隶属于哈尔滨工业大学(深圳)信息学部计算机科学与技术学院,聚焦于存储系统、操作系统及高性能计算架构等领域的前沿研究,致力于推动智能计算与存储系统的协同优化。团队在分布式存储、数据压缩、系统性能优化等方向取得了多项原创性成果,在 OSDI、FAST、ASPLOS、ACM TOS 等国际顶级会议和期刊发表论文 80 余篇,研究成果被 Zstd、Ceph、CDCrsync、SZ 等多个知名开源项目采纳与应用。凭借深厚的科研积累与产学研合作经验,团队积极推动基础理论研究与工程实践相结合,为我国在智能存储与高性能系统领域的技术创新提供了重要支撑。
评论