软件测试学习笔记丨人工智能 | mixtral 大模型
简介
Mixtral 是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。 Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。
Mixtral 的特点
可以优雅地处理 32k 令牌的上下文。
可以处理英语、法语、意大利语、德语和西班牙语。
在代码生成方面表现出强大的性能。
基于 Hugging Face Transformers 使用 mixtral
复制代码
使用 langchain 调用 mixtral
复制代码
总结
Mixtral 是一种具有开放权重的高质量稀疏专家混合模型。
软件测试开发免费视频教程分享
版权声明: 本文为 InfoQ 作者【测试人】的原创文章。
原文链接:【http://xie.infoq.cn/article/87498d4b748823fb202dacf61】。文章转载请联系作者。
评论