曝字节 AI 硬件团队首款自研产品为智能耳机,与豆包联动;OpenAI 神秘新模型或将在两周内发布丨 RTE 开发者日报
开发者朋友们大家好:
这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。
本期编辑:@SSN,@鲍勃
01 有话题的新闻
1、研究发现,生成式 AI 可提升软件开发的学习效果
韩国东洋未来大学的研究人员在 arXiv 上发表了一篇新论文,探讨了 ChatGPT 在计算机科学领域的教育影响。研究结果支持了这样一种观点,即生成式 AI(gen AI)能够帮助学生提升学习效果,尽管有些人担心这种技术会被作弊者滥用。
据了解,在这项研究中,研究人员孙熙焕、金裕度和李熙珍选取了 36 名计算机科学专业的学生,进行了为期四周的软件开发竞赛,学生们可以在竞赛中使用 ChatGPT。
在第一轮中,根据代码质量、创新性和项目要求的遵守情况等绩效指标对所有 36 名学生进行评估。得分最高的 15 名学生进入第二轮,进行最终排名并选出冠军。
研究人员表示,他们发现在项目的不同阶段,包括构思、文档、软件开发和质量保证等,大量使用 ChatGPT 的学生完成率更高,分数也更高。对第一轮和第二轮学生进行的比较分析发现,他们在软件开发中使用生成式 AI 的经验存在显著差异。
在一项研究后的调查中,研究人员发现,78% 的参与者认为 AI 帮助他们对复杂主题有了更深入的理解。四分之三的学生表示,ChatGPT 显著提高了他们的实践技能,同样比例的学生表示其对他们的职业发展产生了积极影响。
生成式人工智能在当下的发展阶段,能够与开发人员密切合作,共同发挥作用,产生更好的效果。例如,它可以帮助开发人员解决代码中遇到的问题,加快代码编写速度等,双方相互配合,实现优势互补。(@IT 之家)
2、称字节 AI 硬件团队首款自研产品为智能耳机,与豆包大模型联动
据报道,字节正在探索将大模型与硬件结合,既自己开发 AI 硬件,也会与外部硬件公司合作。
据称字节 AI 硬件团队的第一款产品为智能耳机,该款耳机将植入豆包大模型,并与字节 2023 年 8 月上线的对话类 AI 应用豆包 App 结合:戴上智能耳机后,用户可通过语音对话随时使用豆包,在豆包 App 上也可以操控这款耳机。
在此之前,字节跳动已在本月完成对开放式耳机品牌 Oladance(主体公司:深圳大十未来科技有限公司)的收购,并实现 100% 控股。
字节的 AI 硬件团队目前主要以大十未来科技的人员为基础,隶属于字节 AI 产品团队 Flow。此外也有少数人来自 Kayden(字节 AI 硬件相关团队负责人)在 2020 年创立的一家硬件公司,该公司的部分专利和团队在 2022 年被字节收购。
报道称字节同时在探索 AI 眼镜方向,可能会投资一家新公司或组建内部团队,一名互联网公司的前大模型核心人物已在与字节合作研发 AI 眼镜。(@IT 之家)
3、AMD 将推出 AI 芯片
AMD 首席执行官苏姿丰在高盛举办的通信和技术会议上表示,人工智能的发展超出了她五年前的预期,AMD 正在为未来五年做出重大投资。
在 AMD 的 MI300x 成功发布九个月后,苏姿丰表示,新的 MI 系列芯片将紧随其后发布。今年晚些时候,AMD 将正式推动其 MI325 人工智能芯片上市,明年将推出 MI350,2026 年将推出 MI400,以挑战竞争对手英伟达的主导地位。
苏姿丰透露,新一代 MI 系列芯片将拥有高达 192GB 的内存和惊人的 1530 亿个晶体管。强大的内存能力意味着 AMD 的人工智能芯片可以用来训练大型语言模型——比如 OpenAI 的 ChatGPT。当然,目前的 AI 芯片市场仍是由英伟达占据绝对主导地位,但 AMD 正在快速追赶中。(@雷锋网)
4、曝 OpenAI 神秘新模型将在两周内发布
据 The Information 报道,OpenAI 的神秘大模型「草莓」(Strawberry,之前称为 Q*)可能要提早发布。
报道称,OpenAI 计划在未来两周内将 Strawberry 整合到其 ChatGPT 服务中推出。不过,知情人士表示,虽然 Strawberry 是 ChatGPT 的⼀部分,但它是⼀个独⽴的产品。
报道指出,Strawberry 与其他模型的最⼤区别在于它能够在响应之前「思考」,⽽不是⽴即回答查询。
另外,初始版本的 Strawberry ,只能输入和⽣成⽂本,⽽不能⽣成图像。(@爱范儿)
5、DeepSeek-Coder-V2-Instruct-0724
DeepSeek 发布了他们的 DeepSeek-Coder-V2-Instruct-0724,它在 Aider LLM 排行榜上排名第 2,击败了 DeepSeek V2.5。DeepSeek-Coder-V2 是一个开源的 Mixture-of-Experts (MoE) 代码语言模型,在代码特定任务中表现可与 GPT4-Turbo 相媲美。该模型从 DeepSeek-V2 的中间检查点进一步预训练,增加了 6 万亿个 tokens,显著增强了编码和数学推理能力,同时在一般语言任务中保持了相当的性能。支持的编程语言从 86 种扩展到 338 种,上下文长度从 16K 扩展到 128K。(@机器之心 SOTA 模型)
02 有态度的观点
1、Andrej Karpathy 最新访谈:未来模型将聚焦于处理重要信息的 「认知核心」
OpenAI 联合创始人、前特斯拉 AI 总监 Andrej Karpathy 强调 Transformer 不仅是一个神经网络,更像是一种通用的 「差分计算机」,能够通过自我调整高效处理复杂任务,其扩展性使得大规模模型成为可能。他认为,尽管当前大模型非常强大,但小模型通过蒸馏技术也将拥有巨大的潜力,甚至能够处理复杂任务。随着互联网数据的饱和,AI 发展将更多依赖于合成数据,而大模型在处理多任务和类似生态系统的 「集群化」 方式中展现其优势。未来的模型将更加聚焦于 「认知核心」,即处理重要信息的能力。
Karpathy 还讨论了自动驾驶技术的发展,认为尽管技术已经很成熟,但从示范到产品化的过程中存在很大差距,主要是由于监管和其他非技术因素。他对 Tesla 的自动驾驶项目持乐观态度,认为软件问题相对更容易解决,而 Waymo 面临的是硬件问题。在人形机器人的研发中,他提到了技术转移的可能性,认为技术转移可能会比人们想象的更容易,它们可能首先在工厂里进行自我孵化,然后进入 B2B 领域,最后应用于 B2C。并讨论了人形机器人的应用领域和发展方向。
关于 AI 与人类结合的未来,Karpathy 认为 AI 工具将成为人类大脑的外部扩展,有助于赋能人类,并可能通过某种形式的 「神经链接」 进一步增强人类能力。他还谈到了开源系统的重要性,以及如何通过 AI 提供全球优质教育。最后,他建议未来的学习重点应该放在数学、物理和计算机科学等核心学科上,以培养解决问题的能力。(@雷锋网)
写在最后:
我们欢迎更多的小伙伴参与「RTE 开发者日报」内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。
对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。
素材来源官方媒体/网络新闻
评论