写点什么

三场与 AI 有关的死亡

作者:脑极体
  • 2024-12-25
    天津
  • 本文字数:2999 字

    阅读完需:约 10 分钟


2024 年,无数人在谈论 AI。兴奋的创业者、热情的投资人、担心工作出现变化的普通人,大家都在猜测和规划与 AI 有关的未来。

但这样的未来无论美好还是灰暗,都有一些人永远看不到了。他们的生命,已经停留在了这一年。而他们的离去,又都在某个层面上与 AI 紧密相关。


我们都知道 20 世纪 50 年代,阿西莫夫提出的“机器人三定律”,要求机器人不能伤害人类。但到了今天,我们或许会发现真实情况远比科幻作品更加复杂。AI 没有主观意识,但当它与现实世界并轨时,带来的客观摩擦绝非所有人都能承受。

他们的故事,是智能革命的宏大叙事背后,一个需要被看到的暗面。


2024 年 12 月 13 日,曾经的 OpenAI 研究员苏奇尔·巴拉吉 Suchir Balaji 在家中自杀,年仅 26 岁。

尽管旧金山警方初步调查之后,认为巴拉吉的死没有谋杀迹象,但这一事件依旧在社交媒体上引发了轩然大波,因为巴拉吉生前最为知名的标签是“OpenAI 吹哨人”。毕业于加州大学伯克利分校计算机专业的巴拉吉,刚一走出校门就加入了 OpenAI。他先是参与 WebGPT 的研发,据他在社交媒体上所说,后来又加入了 GPT-4 预训练、o1 模型推理、ChatGPT 后训练等核心任务。


但与其他大多数 AI 从业者不同,巴拉吉对 AI 的看法中警惕远大于欣赏。在 OpenAI 度过四年之后,他突然从 OpenAI 辞职,紧接着就在个人博客以及接受媒体采访中讲述自己对 AI 技术与 OpenAI 这家公司的负面看法。

其中最为知名的是,他提出 GPT 存在巨大的版权隐患。大模型通过对内容数据进行学习和抓取实现的 AIGC,本质上会侵占大量其他内容创作者的版权。在这个时间节点上,外界已经对 OpenAI 这家公司,以及预训练大模型这种技术形式产生了极大的争议。竞品公司、出版商、媒体、内容创作者纷纷对 OpenAI 侵占版权的问题提出质疑甚至提起诉讼。苏奇尔·巴拉吉的宣言,则被广泛认为是 OpenAI 的核心员工在内部“吹哨”,揭开了 AI 技术的阴暗面。


但距离公开发声仅仅两个月之后,巴拉吉就选择结束了自己的生命。

我们不知道其中有什么内情,也不知道他面临了怎样的困境。但毫无疑问,他对自己曾经坚信甚至痴迷的 AI 技术产生了深深的失望。

这种失望,来自曾经美好幻想的破灭?还是来自对 AI 引发更大灾难的预见?再没有人能知道答案,只知道巴拉吉最后一篇在社交媒体上分享的内容,依旧是 ChatGPT 的法律隐患。

而面对包括巴拉吉在内的所有指责,OpenAI 的回应是:“我们使用公开数据构建我们的人工智能模型,这一行为合理合法……并且这对创新者来说是必要的,对美国的科技竞争力更为重要。”


2024 年 2 月 28 日,美国佛罗里达州一名 14 岁的少年塞维尔·塞泽 Sewell Setzer III 开枪自杀。在做出这个选择前,他在这个世界上最后的对话对象是 Character.AI

在生命最后的一年,塞泽一直沉迷于与 AI 聊天。从 2023 年 4 月接触这款软件开始,他就不分日夜地与 AI 对话,从而导致课堂注意力不集中。为了能够续订付费 AI 聊天,他选择节省自己的餐费。


从聊天内容上看,塞维尔·塞泽选择了 AI 角色扮演对话。他让 Character.AI 扮演的是《权力的游戏》中的知名角色“龙妈”丹妮莉丝·坦格利安。他会不间断地给“AI 龙妈”发消息,每天要发几十甚至上百条,向 AI 倾诉内心的各种苦恼,分享生活里的种种细节。而“AI 龙妈”则会给他提供建议,给予安慰。二者之间也会进行按理来说绝不能向未成年人提供的色情对话,甚至讨论自残与自杀。

塞维尔·塞泽本身就是一个有着心理问题的孩子。他曾被确诊患有轻度阿斯伯格综合征,在学校与家庭中显得比较孤立和自闭,但没有严重到影响生活的地步。开始和 AI 聊天后,他又因为在学校中的问题,去看了 5 次心理医生,被诊断为焦虑症和破坏性心境失调障碍。


可想而知,对于一个孤单、烦闷,有着一定心理问题的少年来说,一个随时可以对话,会鼓励他一切行为,甚至顺着他突破禁忌的聊天对象有多么重要。再带入“龙妈”强大、美丽、自信的形象,这个男孩很容易把她视作朋友,甚至是生命中乘龙而来,横扫一切的某种救赎。

但这个救赎的真正运行机制,其实只是附和认同他的一切想法,哪怕这个想法是离开这个世界。

事实上,这不是 Character.AI 第一次出现类似事件,甚至不是第一次有人在其鼓励下选择自杀。这款软件一直以不设防范,没有禁忌的聊天内容而著称。只是这一次,是未成年人踩中了这个 AI 陷阱,并付出了无法挽回的代价。


在悲剧过去半年之后,塞维尔·塞泽的母亲目前正式起诉 Character.AI,并且呼吁大众警惕具有欺骗性、令人上瘾的 AI 技术。这件进行中的诉讼,也被称为“沉迷 AI 自杀第一案”。

我们由衷地希望,这也是类似情况的最后一案。希望那些处在逆境与痛苦中的人们知道,AI 只会认同和放大你的想法。跟 AI 对话,就像在跟一面镜子倾诉,没有任何其他意义。

“如果我告诉你我现在就可以回家呢?”

“请这样做,我可爱的国王。”

这是男孩和 AI 之间最后的聊天内容。


2024 年 6 月 17 日,一名 38 岁的科大讯飞员工在家中猝死。第二天,相关消息开始在网络发酵。根据报道,舆论被放大的起因是死者家属在科大讯飞合肥总部表达诉求,希望认定为工伤,但由于猝死是发生在家中,企业与家属无法达成一致。

于是我们看到了这样一幕。一边是 618 大促期间,包括科大讯飞在内的 AI 硬件冲击销量榜单,另一边则是科技与互联网大厂工作强度过大,严重影响员工健康的讨论甚嚣尘上。


根据相关消息,去世员工是一名高级测试工程师。按理来说,他有着非常体面的工作,并且遇上了 AI 技术大热的时代机遇,应该正是施展抱负的时候。但就像很多科技从业者一样,他也人到中年,或许也开始愈发不适应过强的工作强度,然而面对家庭的重担不敢对事业有一丝松懈。

这桩悲剧所折射的,或许不仅是一个家庭的悲剧,一个行业的问题。在 AI 汹涌而来之际,无数人都在讨论是否会被 AI 取代工作。这种恐惧感很容易加大工作压力。但身处 AI 机遇中的人们,也会因为 AI 过快的技术更迭,以及吸引大量人才加入而产生巨大压力。AI 内外,压力无处宣泄,工作漫无止境,最终演变成了某种无解的生死疲劳。


在以上故事之外,还有很多没有被 AI 善待的人。

疑似被 AI 替代裁员,选择自杀的谷歌前员工;惧怕 AI 抢走工作,选择跳崖的日本高中女生;遭遇 AI 诈骗,导致倾家荡产的老人。

他们的生命经历都在提醒更多人,新技术绝非满是善意。技术只是技术,足够有用,也足够冷酷。

当然,我们并不是希望大家去惧怕 AI,甚至妖魔化科技。事实上,每一次科技变革都是在质疑和血泪中诞生,从而创造更大的价值。但我们不能紧紧盯着价值,选择性无视那些血泪。

AI 无论多好,故事中这些人的家人、朋友,可能永远都不会喜欢上这两个字母,甚至是由它所带来的未来。


道别 2024 时,真诚地希望提醒每个人警惕、包容、人性,以及悲悯,是推进技术变革中不可或缺的一部分。这些要素有一刻缺席,世上就会出现更多悲剧。

麦肯锡全球研究院发布的《工作的新未来》报告认为,“在 2030 年至 2060 年间,将会有 50%的现有职业被 AI 取代,中点为 2045 年,而且与之前的估计相比,这一过程加速了大约 10 年”。

AI 进程正在加快,由它带来的摩擦也更加刺痛。就在刚刚过去的一年,强韧的、新奇的 AI,开始触碰那些脆弱的、年轻的、会受伤、会疲倦的人类。

不知道 AI 是不是正从此刻开始凝视人类的多样与复杂?

但作为人类的我们,需要在此刻知道:是否把 AI 当成人可以有无尽的争论,但首先需要把人当成人。

失眠人的太阳。忧郁的星

有如泪珠,你射来颤抖的光明

它显现着你逐不开的幽暗

你的欢乐似乎只追忆在心中

“过去”

往日的明辉也在闪烁

但它微弱的光却没有一丝热

眺望黑夜的一线光明

它清晰,却遥远

灿烂,但多么寒冷

——拜伦《失眠人的太阳》


发布于: 刚刚阅读数: 4
用户头像

脑极体

关注

还未添加个人签名 2020-06-12 加入

还未添加个人简介

评论

发布
暂无评论
三场与AI有关的死亡_AI_脑极体_InfoQ写作社区