写点什么

顶会论文

0 人感兴趣 · 9 次引用

  • 最新
  • 推荐
https://static001.geekbang.org/infoq/c6/c656a30cc9841bdaf13e9e0367fa8953.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

NeurIPS 2025 | 快手联合南开提出情感树推理新方法,显著提升多模态大模型情感理解能力

你是否希望AI不仅能“看见”画面,更能“读懂”人心?传统方法在分析视频情感时,往往只能进行基础分类,难以理解复杂情感的动态变化。针对这一挑战,快手可灵团队与南开大学提出了创新解决方案——VidEmo,让AI首次实现“情智兼备”的情感推理。

https://static001.geekbang.org/infoq/16/166a86b5512008556b37958ea0d66d78.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

能看清,更要看懂:MME-VideoOCR 全面评估 MLLM 视频 OCR 能力

看视频想提取文字时,AI 总掉链子。快手可灵团队联合北京大学、清华大学、中科院自动化所等单位提出了 MME-VideoOCR,该 Benchmark 致力于系统评估并推动 MLLM 在视频 OCR 中的感知、理解和推理能力,目前该论文已被NeurIPS 2025会议录用。

https://static001.geekbang.org/infoq/68/68473086fcc2f2b1cc16209a24fe423a.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

快手 & 南大发布代码智能“指南针”,重新定义 AI 编程能力评估体系

快手 KwaiKAT 团队与南京大学刘佳恒老师 NJU-LINK 合作推出 SWE-Compass ——一个涵盖8大任务类型、8大编程场景、10种编程语言的代码智能统一评估框架。

https://static001.geekbang.org/infoq/dc/dce63b85eb7c94aefb18415ae85b3440.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

NeurIPS 2025 | 可灵团队提出 Flow-GRPO, 首次将在线强化学习引入流匹配生成模型

尽管流匹配模型已成为图像与视频生成的基石,但在处理复杂场景与文本渲染时仍面临挑战。为此,港中文MMLab、清华大学与快手可灵团队联合提出了Flow-GRPO,开创性地将在线强化学习引入流匹配模型训练,破解复杂场景生成难题。

https://static001.geekbang.org/infoq/2e/2e971fd08b0f37360f7b1eac8bf33f3a.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

NeurIPS 2025 | 从数据微调到反馈优化!可灵团队提出基于人类反馈的视频生成训练范式

打破视频生成天花板!香港中文大学、清华大学和快手可灵团队联合发表论文《Improving Video Generation with Human Feedback》, 提出了面向基于流匹配的现代视频生成模型的综合对齐管线,让模型真正学会“什么是好视频”。

https://static001.geekbang.org/infoq/e9/e98a585ba45a8e7fac3a79e578219345.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

闪耀 NeurIPS 2025!快手 13 篇论文入选,Spotlight 成果跻身前三!

13篇入选,1篇Spolight!快手在 NeurIPS 2025 战绩亮眼!这些论文涵盖视频生成与优化、多模态大模型评估与鲁棒性研究、视频压缩与表征、情感计算与跨模态同步、以及实时视频流分析与应用等方向。论文链接和项目地址都整理好放至文中啦,快来点击阅读吧~

https://static001.geekbang.org/infoq/b2/b20960305292f97b853c1b0e77be52ad.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

8 篇入选,1 项最佳论文提名!快手 AI 研究在 KDD2025 “全面开花”

近日,快手8篇论文入选人工智能数据挖掘领域顶会KDD 2025,研究涵盖推荐系统、多任务学习、多模态大模型、大语言模型、组合优化等前沿领域的成果。

https://static001.geekbang.org/infoq/24/249b533cc4b4c13f329b3176465233f4.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

ICML 2025 | 从语言到视觉,自回归模型 VARSR 开启图像超分新范式

为了将自回归建模的优势引入到图像/视频超分领域,快手音视频技术部联合清华大学提出了VARSR算法,开辟了区别于扩散模型的新技术路线,相关成果已被ICML 2025国际顶级会议接收。 

https://static001.geekbang.org/infoq/f2/f201b45a8a822f918dcf9e2e9a12f971.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

快手 8 篇论文入选机器学习领域顶会 ICML 2025!

快手8篇论文入选机器学习领域顶会ICML 2025,研究涵盖了多模态情感大模型、机器学习单调建模、因果效应估计结果、级联排序系统一体化建模、统一生成理解框架、图像压缩、图像超分等前沿领域的成果。

顶会论文_顶会论文技术文章_InfoQ写作社区