国产 AI 卷翻硅谷,奥特曼发文“阴阳”,类 o1 模型都在卷什么?
两个国产推理模型的发布,让全球 AI 圈“提前过年”了。
前两天,月之暗面推出了 Kimi k1.5 多模态思考模型,DeepSeek 也发布了 DeepSeek-R1 文本推理模型,二者都在推理能力上对标 OpenAI 正式版 o1。
不到两个月,国产推理模型就实现了对 OpenAI o1 满血版(2024 年 12 月上线)的对标,而且与 OpenAI 藏着掖着的技术秘诀不同,两家中国公司双双公开了他们的特色技术道理:DeepSeek R1 的极高性价比,kimi k1.5 原创技术 long2short 高效思维链+原生多模态。
因此 Kimi/DeepSeek“双子星”一夜卷翻硅谷,技术报告 paper 一放出,就吸引了大量海内外同行的关注和解读,在 github 的热度飙升。
目前来看,海外同行的反馈以振奋为主流。比如 Answera 公司的创始人保罗·库弗特(Paul Couvert)就感叹,两款中国 o1 同日发布,(中国 AI)追赶速度越来越快了!
当然,自然也少不了“泼冷水”的。
OpenAI CEO 奥特曼在社交媒体说,“twitter hype is out of control”(推特上的各种炒作已经失控了)。他认为外界猜测的“AI 即将取代大部分中层岗位”(主要靠推理模型)过度夸大了。希望大家冷静下来,把期待值降低 100 倍(cut your expectations 100x)。
或许有人好奇,国产推理模型真的崛起了吗?大模型技术如何从“规模扩展”发展到“推理扩展”?对于推理模型这个路线,我们到底该保持兴奋还是冷静一下?本文就来给大家一一解读。
两个中国 AI 公司的新模型,吸引了全球海内外同行的高度关注。原因很简单,推理模型太火了。
2024 年第四季度,出现了 reasoning model 的新形态 LLM,采用思维链进行“慢思考”,在推理阶段投入更多计算(推理拓展思路),这种创新带给大模型超前的推理能力,可以减少幻觉,提高可靠性,处理更为复杂的任务,达到人类专家/研究生级别的智能,被认为是规模拓展 Scaling Law 撞墙后最具潜力的新技术。
o1 系列之后,头部模厂都开始向“慢思考”的推理模型技术路线投入,包括大厂谷歌、百度、阿里、科大讯飞、夸克,以及 AI 六小虎中的智谱、DeepSeek、阶跃星辰等,此前也都推出过准 o1 的推理模型,但一直没有全面对标正式版 o1 的国产推理模型。
要证明国产推理模型的崛起,有两个前提条件:一是经得起全球同行的审视;二是具备原创能力而非简单跟随,全面对标而非部分达标。
目前来看,Kimi k1.5/ DeepSeeK R1 达到了上述条件。
Kimi k1.5/ DeepSeeK R1 首次真正对标了正式版 o1,取得了 SOTA 成绩。其中,k1.5 还是国内首个多模态 o1,同时支持文本和图像推理。这在全球推理模型领域都是比较亮眼的成绩。
而且,不同于 OpenAI o1 藏着掖着的风格,Kimi 和 DeepSeeK 都发布了详细的技术报告,分享模型训练技术的探索经验,立刻在海外 AI 圈掀起了解读论文的热潮。
比如英伟达的研究科学家第一时间开扒,得出的结论是,Kimi 和 DeepSeeK 的研究“振奋人心”。
作为当前 AI 领域最主流的叙事和技术高地,推理模型的风吹草动,都会引发全球从业者的目光。而中国公司一口气在推理模型赛道上,拿出两个重磅论文,模型含金量高,经过了目光聚焦且严苛的审视,其中还包含很多原创技术。
可以说,从 Kimi k1.5/ DeepSeeK R1 的“双子星”开始,国产推理模型是真的崛起了。
推理模型,国内 AI 公司是怎么追赶的?我们和海外 AI 圈一起“黑着眼眶熬着夜”,苦读 kimi/ DeepSeek 论文,简单总结一下:
总路线上,k1.5 和 R1 都使用了强化学习(RL)技术,来提升模型推理能力。但在技术细节上,kimi/ DeepSeek 都拿出了全新的思路。
DeepSeek 没有采用业界普遍的监督微调(SFT)作为冷启动的方案,提出了一种多阶段循环的训练方式,用少量冷启动数据,微调模型作为强化学习的起点,然后在 RL 环境中通过奖励信号来自我进化,实现了非常好的推理效果。
Kimi k1.5 则首创了 long2short 思维链,让 LLM 通过奖励机制进行探索性学习,自主扩展训练数据,来扩展上下文长度,从而优化 RL 训练表现,在短链思维推理方面取得了 SOTA 成绩。
性能最强的 long-CoT 版本 Kimi k1.5,数学、代码、多模态推理能力可以达到长思考 SOTA 模型 OpenAI o1 正式版的水平。
基于 long-CoT 版本简化的 short-CoT,性能依旧强悍,但推理更加高效,大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%。
除此之外,两大国产推理模型还各有亮点。
DeepSeek-R1 延续了“AI 界拼多多”的优秀传统,API 每百万输出 tokens 16 元,与 o1 每百万输出 tokens 60 美元的定价一比,性价比拉满。
Kimi k1.5 则是 OpenAI 之外,首个达到 o1 多模态推理性能的模型,k1.5 支持文本、图像交叠的多模态输入,可以进行联合推理,填补了国内多模态思考模型的空白。
在人类的感官中,视觉信息占比超过 70%,有了多模态能力,认识自家的 Benchmark 图表自然不在话下。
众所周知,o1 要么用起来贵(200 美元每月的订阅费),要么根本用不上(OpenAI 不向国内提供服务)。因此,国产推理模型的上述亮点,带给海内外 AI 开发者的价值不是一般大,很多开发者都倍感兴奋。
一位开发者在论坛感叹,这两个中国实验室“用更少的资源做更多的事情,他们对模型效率和精炼的巨大关注,造福我们所有人”。
Amarok 开发者 Mark Kretschmann 也在社交媒体上不吝褒奖,直呼 k1.5 是“多模态 AI 领域的重大突破”。
可以看到,面对“推理拓展”这个全新技术领域,中国 AI“双子星”靠原创硬实力稳稳拿下,并走出了一条有别于 OpenAI 的发展创新之路。
OpenAI 奥特曼建议大家放低预期,那么,中国 AI 公司发力推理模型,价值究竟有没有、有多大?
对于中国 AI 公司来说,点亮推理模型的技术版图,有两方面的意义:
一是仰望星空,可以拉近中美 AI 的技术距离。大模型的领先不会从天上掉下来,而是日拱一卒、水滴石穿的努力,保持对最新技术路线的跟进,能让中国 AI 的水平快速提高。对标 ChatGPT 用了半年左右,而对标正式版 o1 只用了不到三个月,
以 Kimi 为例,去年 11 月推出 k0-math 数学模型,12 月发布 k1 视觉思考模型,今年 1 月发布 k1.5 多模态思考模型,三个月三次迭代,进化速度极快。说明对天花板技术的贴身跟进,是中国 AI 最快最好的练兵场。
二是脚踏实地,中国的行业沃土为国产 AI 提供了更广阔的落地场景,推理模型的落地情况会比 o1 更好。海外 AI 多以个人消费者为主,o1 的主要用例是程序员的代码助手、数据分析师、个人开发者,普通人上手门槛高。而国产大模型更多面向行业场景,AI 改造的业务场景中包含大量容错率低的严肃生产场景,以前的大语言模型很难解决复杂任务,十分需要少幻觉、高可靠的推理模型。所以,国产推理模型的落地也许会更快、更广。
从这些角度看,在各行各业引入专家级 AI 的推理模型,加速行业智能化,恐怕仍会由国产 AI 率先垂范。k1.5、R1 等国产推理模型,将在其中贡献不可或缺的基座价值。Kimi 官方也表示,2025 会继续沿着路线图,加速升级 k 系列强化学习模型,带来更多模态、更多领域的能力和更强的通用能力。
所以不出预料的话,我们很快就能用上花钱少、出活好的专家级国产 AI 了。
中国 AI“双子星”炸开的 2025 年大模型开局,分外精彩。推理模型作为模厂的下一个分水岭,谁抓住了国产推理模型的崛起时刻,也就先一步抓住了未来。
版权声明: 本文为 InfoQ 作者【脑极体】的原创文章。
原文链接:【http://xie.infoq.cn/article/29ca051d88d2fb6c22babd8ff】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论