更强模型效果!豆包大模型 1.6 系列上线边缘大模型网关,最高申领 1000 万免费 Tokens
6 月 11 日,火山引擎正式发布豆包大模型 1.6 系列,该系列由 “doubao-seed-1.6”“doubao-seed-1.6-thinking”“doubao-seed-1.6-flash” 三个模型组成。豆包大模型 1.6 具有更强的模型效果,在众多权威测评集上,得分均属于国际第一梯队。在推理能力、多模态理解能力、GUI 操作能力上具备领先优势。

目前,火山引擎边缘大模型网关已全面支持豆包大模型 1.6 系列!即日起,用户可以在边缘大模型网关使用豆包全系列模型,并享受 200 万 tokens 免费额度,只要在网关访问密钥使用了本次新增的豆包大模型,还可以申请将免费额度提升至 1000 万 tokens !
边缘大模型网关,助力豆包大模型 1.6 系列快速可靠调用
火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。
在边缘大模型网关,用户可以通过两种方式调用豆包大模型 1.6 系列:
一是通过平台预置模型,边缘大模型网关预置模型中,新增豆包大模型 1.6 系列,您可直接使用并对其创建网关访问密钥;
二是通过自有三方模型,您可以将您在第三方模型平台的密钥纳管至边缘大模型网关,通过边缘大模型网关签发的网关访问密钥,进行对应模型的访问与调用。

据了解,豆包大模型 1.6 系列由三个模型组成:
doubao-seed-1.6:All-in-One 的综合模型,是国内首个支持 256K 上下文的思考模型,支持深度思考、多模态理解、图形界面操作等多项能力。支持选择开启或关闭深度思考、自适应思考三种方式,其中自适应思考模式可根据提示词难度自动决定是否开启思考,提升效果的同时大幅减少 tokens 消耗。
doubao-seed-1.6-thinking:豆包大模型 1.6 系列在深度思考方面的强化版本;在代码、数学、逻辑推理等基础能力上进一步提升;支持 256K 上下文。
doubao-seed-1.6-flash:豆包大模型 1.6 系列的极速版本,支持深度思考、多模态理解、256K 上下文;延迟极低,TOPT 仅需 10ms;视觉理解能力比肩友商旗舰模型。

通过边缘大模型网关调用豆包大模型 1.6 系列,还具备以下优势:
加速调用:基于端侧请求发起位置,边缘大模型网关将请求就近路由到网络延时最低的节点,加速豆包大模型 1.6 系列的响应速度,提升服务质量。
控制成本:边缘大模型网关利用边缘缓存机制对请求就近存储,并在相同请求发出时就近调用,减少豆包大模型 1.6 系列调用请求的回源次数,降低模型调用成本,实现成本管控。
自动重试:当请求调用超时或失败时,配置请求重试次数,即可通过边缘大模型网关实现模型调用自动重试,降低手动运维成本。
故障转移:当单个模型故障时,通过边缘大模型网关的一个 API 配置多个模型,就可以自动切换同类型下的备用模型,确保服务的连续性和可靠性。

豆包大模型特惠,扩容免费提升至 1000 万 tokens
当前,火山引擎边缘大模型网关已适配 100+ 种主流大模型及智能体,首次创建每个网关访问密钥可用额度为 200 万 tokens !
针对豆包大模型 1.6 系列,边缘大模型网关推出特惠活动,只要在边缘大模型网关创建网关访问密钥,并关联本次最新的豆包大模型,即可提交扩容申请,免费额度提升至 1000 万 tokens !
免费额度获取方式:
登录边缘大模型网关控制台(https://console.volcengine.com/vei/aigateway/overview),创建网关访问密钥即可获得 200 万免费 tokens 额度
在已经完成创建的网关访问密钥中,关联带有 NEW 标识的最新豆包模型,即可申请获取更多额度,最高可达 1000 万免费 tokens!
扩容申请指导免费额度获取方式:
登录火山配额中心:https://console.volcengine.com/quota/productList/ParameterList?ProviderCode=vei_api
选择“ai-gateway-token-limit”提交申请:申请中需要说明需要配置免费额度的网关访问密钥 ID,额度可以选择至 1000 万,选择更高额度,以 1000 万进行生效
详细指导说明请见:https://www.volcengine.com/docs/6893/1456325
评论