Claude 用不了?火山引擎为开发者上线“搬家”方案
资料来源:火山引擎-开发者社区
9 月 5 日,Anthropic 宣布停止向中国资本控股(超 50% 股权)的企业及其子公司提供 Claude 服务。此前,Claude 系列模型因其编程能力出众受到开发者的好评和广泛应用。
为此,火山引擎在第一时间上线了“搬家”方案。
现在,开发者可以直接调用火山引擎上的模型使用 Claude Code,或者使用「TRAE+火山方舟」组合,实现同等场景能力。
同时,火山引擎也为开发者提供了多重优惠:来体验火山引擎 AI 开发能力,即可享 300 万 Tokens 免费赠送 + 10 亿 Tokens 五折!
对于企业和个人用户,首次开通最新模型,赠 300 万 Tokens 代金券 + 限量每模型 10 亿 Tokens 五折优惠。
加入数据奖励协作计划,额外赠送个人用户每模型每天 50 万 Tokens,企业用户每模型每天 500 万 Tokens。

方案一:Claude Code 接火山方舟模型
Claude Code 上可以接入火山方舟上的模型,例如豆包大模型 1.6,下面是接入的代码示例。
1.安装 Claude Code:使用命令 npm install -g @anthropic-ai/claude-code 进行安装。
2.安装 Claude Code Router:使用命令 npm install -g @musistudio/claude-code-router 进行安装。
3.创建配置文件:创建 ~/.claude-code-router/config.json 文件,在其中设置 Providers 和 Router 信息,注意:models 和 api_key 要使用火山方舟创建的,配置如下:
4. 启动 Claude Code Router
注意每次更改 ~/.claude-code-router/config.json 配置文件,都要重启 Claude Code Router
重启命令:ccr restart
重启后再通过 Claude Code Router 开启 Claude Code:
选择 yes,然后愉快地使用 Claude Code 吧!
方案二:TRAE + 火山方舟,一站式替代解决方案
在 TRAE 中,开发者只需将原本 Claude Code 的代码目录拷贝或引入到 TRAE 的开发环境中,即可无缝切换至 TRAE 中,继续使用火山方舟模型进行开发。TRAE 完全支持所有 MCP 协议,平滑迁移体验确保开发者在保持原有的工作流程的同时,还享受更加可靠的本地化服务。
TRAE (The Real AI Engineer)是全球首个专为中文开发者量身打造的 AI IDE。目前月活用户突破百万量级,长期稳居 AI 编程权威评测平台 Swebench Leaderboard 榜首。
TRAE 提供完整的用户反馈闭环与体验优化流水线,持续提升多语言、多框架及边缘场景下的覆盖能力,提供丰富的开发模式:
Chat 模式(代码问答):基于企业代码仓库、内部文档和 API 说明,快速问答,提供函数调用关系、业务流程图、相关依赖精准定位。
Builder 模式(Coding Agent):从自然语言需求生成任务分解与代码实现建议。自动关联现有模块、代码及内部 API,任务级半自动开发。
Cue 模式(代码补全):根据上下文实时理解代码语义、项目结构与依赖关系,生成高准确度、可直接采纳的代码建议,支持行内补全、智能改写、多点编辑、光标预测。
在 TRAE 中,预置了一系列表现出色的模型,也支持添加自定义的大模型资源,满足开发者个性化的场景需求。
除了基于文本开发,借助豆包大模型 1.6 的多模态能力,TRAE 还可以支持基于图像理解的应用开发。此外,TRAE 还能与火山引擎 MCP Hub 打通,一键链接企业级云服务,“从开发到上线”全链路自动化。
火山方舟持续提供更多优质模型、更强服务能力、更丰富工具生态
火山方舟平台提供丰富的模型,在不同的企业需求场景下表现出色:
DeepSeek V3.1:编程能力出色,特别是在复杂代码生成和代码理解方面表现卓越。
豆包大模型 1.6:多模态能力出色,支持 256K 长上下文,并以高并发、低延迟和出色的性价比帮助企业降低大模型应用门槛。
Kimi K2:1T 总参数量开源模型,在自主编程、工具调用和数学推理方面表现出色。
企业可以在更快、更稳的资源保障下调用模型,获得 20-40ms 吐字间隔(TPOT)超低延迟,500 万初始并发 TPM,以及全周期安全可信服务。同时方舟还提供完整的 AI 应用开发工具链,包括代码编辑、模型调用、应用部署、应用实验室、MCP Hub、PromptPilot 等,帮助开发者快速构建复杂 Agent,落地 AI 应用。
评论