写点什么

MoE

0 人感兴趣 · 3 次引用

  • 最新
  • 推荐
https://static001.geekbang.org/infoq/f6/f692c385b28eafcad415378c902fa083.png?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

深度解读混合专家模型(MoE):算法、演变与原理

用户头像
Zilliz
11-18

将任务分配给专门的专家,使神经网络能够高效地扩展。

https://static001.geekbang.org/infoq/3e/3e06d05be7d4048256e6f08c7bd89d4a.jpeg?x-oss-process=image%2Fresize%2Cw_416%2Ch_234

「混合专家模型」可视化指南:A Visual Guide to MoE

编者按: 对大语言模型进行扩展的过程中,如何在保持高性能的同时有效控制计算资源消耗?混合专家模型(MoE)作为一种新兴的架构设计方案正在得到越来越多的关注,但它究竟是如何工作的?为什么越来越多的大语言模型都在采用这种架构?

MoE 模型性能还能更上一层楼?一次 QLoRA 微调实践

编者按:最近,混合专家(Mixture of Experts,MoE)这种模型设计策略展现出了卓越的语言理解能力,如何在此基础上进一步提升 MoE 模型的性能成为业界热点。

MoE_MoE技术文章_InfoQ写作社区