获取字节火山 DeepSeek 系列 API 完整教程及超多实用玩法!
资料来源:火山引擎-开发者社区
原文首发在“Equity AI”公众号,内容经由“WaytoAGI 社区整理汇总”,本篇包含了火山 DeepSeek API 使用的几种方式:飞书多维表格调用,Coze 智能体调用,浏览器插件调用。快薅羊毛用起来吧!
发现火山方舟大模型服务平台的模型服务计费文档悄咪咪的更新了。

文档很长,总结一下更新重点:
1、上线 DeepSeek 系列模型
2、DeepSeek-R1、V3 模型,分别提供了 50 万免费额度和****API 半价活动 (算下来 5 元有 100 万) !

即日起至北京时间 2025-02-18 23:59:59 ,所有用户均可在方舟享受 DeepSeek 模型服务的价格优惠。
( 现在时间延长了!!! )
大家懂这一行字的含金量吗?
我们来看看 DeepSeek 官方:

和其他三方平台的价格:

基本上都是 16 块钱/每百万 Tokens(输出),在 DeepSeek 火爆到“露头就秒”的时刻,火山引擎竟敢直接搞“半价”。
对于我这种,一次工作流测试就跑 3000 多万 tokens 的消耗户来说,这个价格太“感人”了。


并且!并且!火山引擎默认就提供了高达 500 万 TPM 的初始限流,没有记错的话,这已经是当前的全网最高的 TPM 支持量了。(/有高并发需求的小伙伴一定懂我在说什么)
而且“大聪明”还做了响应测试,火山引擎推理速度第一梯队。

刚好结合上周我发的《15 分钟零基础个人电脑部署 DeepSeek-R1(无限制版)保姆级教程!》,这次再配上火山引擎免费的满血 DeepSeek-R1,就可以真的打造自己的专属 AI 助理了。
连夜给小伙伴们安排小白教程,这羊毛咱们必须得薅上。
我多遍重复了流程,整个操作比上篇更加简易,只需 5 分钟就可以接入一个专属于你自己的 DeepSeek-R1(满血版)了!
一、获取 DeepSeek-R1 满血版密钥
1、注册并登录火山引擎,点击立即体验进入控制台。
(火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头)

2、创建一个接入点
点击在线推理--创建推理接入点

3、为接入点命名为 DeepSeek-R1


然后可能会提示:“该模型未开通,开通后可创建推理接入点”。 如果有提示,就点击“立即开通”,开通一下就可以了。
如果无提示则直接到:第 5 步,点击确认接入。

4、点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的)

5、确认以下无误后,点击“确认接入”按钮。

6、自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。

重点来了:这个就是推理点的 ID,复制他放到你的微信里,发给自己保存一下。

7、保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】

8、 如果你已经有 API key 了,就直接查看并复制。
如果没有,则点击【创建 API key】



9、把这个复制好之后,也放到你自己微信里,保存好。
到这一步,我们已经完成拿到了模型的密钥。接着,我们就可以把他配置到各个地方使用。
二、多种可以使用的方法和途径
1.飞书多维表格
获取 API_KEY

获取 ENDPOINT_ID

将获取到的 API_KEY 和 ENDPOINT_ID 填入至关联账号处
API_KEY 填第一行,ENDPOINT_ID 填第二行,注意顺序

2.使用 Coze 接入
1.创建账号
如果你还是普通账号,请自行升级或注册专业号后使用

开通成功的是这样:

2.创建智能体
点击创建,先完成一个智能体的创建

如果你在最上面的教程里已经创建好自己的推理点了

那么直接在 Bot 编排里就可以直接看到和选择 创建好的推理模型了

测试一下,可以用了! 直接发布就可以
注意事项:如果发布到公共空间,其他人用的是你的 API,要注意 Token 消耗哦!(也可以设置成仅自己使用)

3.使用网页聊天
1、安装插件
也可以使用其他插件
下面为举例示意使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:

2、打开聊天页面
点击右上角的插件列表,找到 Page Assist 插件,点击打开。

3、配置“DeepSeek-R1”模型的 API key



基础 URL:https://ark.cn-beijing.volces.com/api/v3
填好之后,点击保存,关掉提醒弹窗。
4、添加“DeepSeek-R1”模型。



5、可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用 R1。

使用测试
既然已经部署完成,我们来使用一道“2024 年高考全国甲卷理科数学”压轴题来测试一下 R1 的速度。

面对这个复杂的推理问题,火山引擎的 DeepSeek-R1 的推理速度,足足比官方版本的快了 “3 分 34 秒”。
在问题提出后,能够明显感受到火山引擎接口的延迟非常低,发出去问题的一瞬间就得到了回复。

(因耗时长,剪辑时做了 60 倍加速)
看着满屏流畅的推理日志,突然有些恍惚。曾几何时,大模型于开发者而言是隔着 API 的神秘黑箱,是算力成本与响应速度的艰难取舍,两年前第一次调用 GPT-3.5 接口时,盯着计费面板上跳动的数字,手心微微发汗——每千 Token 近 4 毛钱的价格,让每次点击回车键都像在投掷硬币。
那时的我们不会想到,大模型赛道的狂奔会如此剧烈:从硅谷到北京,无数工程师用成山的 GPU 与代码重构了技术普惠的刻度。恍然惊觉这两年的光阴里,模型厂商们竟把算力的“黄金”炼成了“氧气”。这是 AI 浪潮中的动人叙事:当技术突破撞上工程化巨浪,曾经实验室里的星辰开始照亮普通开发者的键盘。
或许,当你看着教程,敲下第一个 API 调用时
也会像我一样
听见时代齿轮与代码共鸣的清脆声响。
评论