写点什么

大模型太贵?找找自己的原因好吧?

作者:白洞计划
  • 2023-10-06
    天津
  • 本文字数:1059 字

    阅读完需:约 3 分钟

什么?

炼个大模型还嫌贵?

到底哪里贵了!?

大模型算力贵?哪里贵了!?

争先恐后训练大模型,

搞得现在“算力慌”“一卡难求”,

算力当然水涨船高了!

“特供版”GPU 又贵又缩水,

大家自己愿意当“冤大头”囤卡,

还好意思埋怨贵了?



这么多年有没有认真工作?

为什么这么多算力还依赖进口!

自己为什么不能制造芯片?

有没有在自主化上想想办法?



解决算力难题,

厂商们可以选择 AI 云服务。

在社会层面进行算力集约,

让算力普惠。

同时支持国产 AI 算力,

让国内市场活跃起来。

大模型基础设施贵?哪里贵了!?

数据需要存,接入 AI 模型需要网,

部署 AI 模型需要终端。

哪个不需要投入了!

任何一个地方出现短板,

就会出现木桶效应!

加一加算一算,当然不便宜了!



有时候找找自己的原因!

综合成本那么高,

是不是盲目追求高配置了?

IT 设施能不能跟上大模型发展?

是不是 IT 采购做得东一榔头,西一棒槌?

有没有做过全盘的数字化设计?



想要把基础设施的综合成本打下来,

就需要选择和大模型

适配的存储、网络产品。

统筹规划自己的 ICT 基础设施,

让大模型获得良好的数字化土壤。

大模型数据贵?哪里贵了!?

专用数据从采集、清洗到标注、验证,

每一个环节都需要成本。

有的企业整理 3TB 数据成本就高达数十万。

通用数据便宜!

不担心大模型差异化问题你去买啊!



平时有没有重视自有数据?

全员通宵埋头标注数据的时候,

高价买数据的时候,

就没想想怎么能剩下一笔数据成本?



想降低数据成本,

首先就要重视自身的数据资产,

加强数据资产的收集保存,

同时强化流通,

数据流通起来才有价值!

大模型运维贵?哪里贵了!?

大模型数据规模大、迭代版本多、算力节点多。

多就代表复杂,复杂就代表故障率高。

一出故障要推倒重训,

一次训练恢复就要一星期以上,

项目进度停滞,人工和算力开销照旧,

整体成本咔咔上涨!



运维成本上涨,

有时候找找自己的原因!

为什么一边抱怨人工贵,

一边还要让员工加班?

为什么不找找运维“平替”?



想要找人工运维的“平替”,

当然就是 AI 运维了 !

用 AI 来运维 AI,

提升运维智能化水平,

实现故障精准定位,快速恢复。

让运维能力秒变省钱超能力!

大模型人才贵?哪里贵了!?

也就是应届生比其他 T 人才溢价个 50%左右,

算法工程师年薪 50 万起步,

多一点的 100 万也够了!

有时候挖一个专家,

还要把他学生、助手、

亲戚七大姑八大姨都给挖过来,

1000 万起步差不多吧。



有些时候找找自身原因!

这么多年有没有认真工作?

自己能不能变成 AI 人才?

有没有让员工都去研究学大模型?

有没有送自己小孩去学 AI?



破解 AI 人才难题,

需要产学研协同努力,

加大人才培养力度,

丰富相关岗位分工,

推进 AI 资质考核标准化

校园培养、在职培养、

社会培养共同发展。



发布于: 刚刚阅读数: 4
用户头像

白洞计划

关注

还未添加个人签名 2020-07-06 加入

还未添加个人简介

评论

发布
暂无评论
大模型太贵?找找自己的原因好吧?_大模型_白洞计划_InfoQ写作社区