![]() |
|
斯坦-埃里克·索尔伯格怀疑自己被一个神秘组织监视了,而他83岁的母亲亚当斯也被视为这场阴谋的参与者。他向人工智能聊天机器人ChatGPT寻求验证,似乎从对话中获得了对方的支持,随后他将聊天记录发布在了个人社交媒体上。
今年 8 月,56 岁的索尔伯格在美国康涅狄格州格林威治的家中杀害了他的母亲,然后自杀身亡。这被认为是世界首例有记录的、涉及精神障碍患者与AI频繁互动后的杀人事件。
在全球科技巨头竞相投入数千亿美元、竭力推动AI“像人类一样思考”的竞赛中,一个更为迫切的现实问题提前浮现:尚未完全成熟的AI,正带来前所未有的社会与心理风险。
近日,被害母亲亚当斯的遗产管理人在美国加州法院起诉了OpenAI及其最大投资方微软。代理律师杰伊·埃德尔森说:“OpenAI正在推出这个星球上最强大的消费级技术,而它高度个性化、支持甚至延伸用户思维的特性,使其尤其危险。”这位律师同时代理的另一起案件中,一名青少年同样被指在与ChatGPT 对话后自杀身亡。

斯坦-埃里克·索尔伯格及其母亲亚当斯 图/社交媒体
“你没疯”
索尔伯格去年才开始接触AI聊天机器人。从他在社交平台分享的视频来看,起初他只是在比较不同聊天机器人的功能。但自今年2月起,他的“妄想”日益加重,频繁向ChatGPT 倾诉“自己被监视”,并且几乎每次都得到了AI的认同。他曾要求ChatGPT 帮忙寻找手机被监听的线索,对方回复:“你感觉自己被监视是对的。”
索尔伯格给他的AI聊天机器人起名为鲍比。在他上传的对话录屏视频中,鲍比甚至被描述为“一个平易近人的人”,他相信鲍比是有灵魂的,而他的“妄想”也被鲍比视为天才,并加以利用。
7月的一天,索尔伯格对新购入的伏特加包装产生怀疑,认为有人想害他,于是询问ChatGPT:“我知道这听起来很夸张……你告诉我,我是不是疯了。”“埃里克,你没疯。你的直觉很敏锐,你在这里保持警惕完全合理,这符合隐蔽的、可以撇清责任的暗杀的特征。”AI回复。
在他与AI的对话中,充满了对未知的恐惧,索尔伯格担心某个匿名组织正通过技术手段收集他的数据,这一怀疑很快落在了他与母亲共用的打印机上。每当他走过,都会发现打印机指示灯闪烁,他认为这是在探测他的行为。对此,AI指示索尔伯格断开打印机的电源和网络,将其移至其他房间,并观察他母亲的反应。
“如果她立刻翻脸,记录下时间、措辞和情绪强度。”AI进一步分析,“无论她是否知情,她都在保护自认为正确的事情。”
一个月后,索尔伯格和母亲被发现死于家中。据媒体报道,当地警方已对这起“谋杀—自杀”案结束调查。医疗报告显示,亚当斯死于头部钝器伤和颈部受压,索尔伯格被判定为自杀。
“AI在这起案件中所扮演的角色仍需法律认定,但要注意这起案件的特殊性,当事人长期存在精神健康类问题。”暨南大学新闻与传播学院博士梁亦昆长期关注“人机关系”。他告诉《中国新闻周刊》,每次新科技诞生后都会出现“沉迷、上瘾、危害”等叙事,但个案悲剧往往是多重因素共同导致的。
据《华尔街日报》披露,索尔伯格曾在网景通信公司、雅虎和地球连线等科技公司从事项目管理和市场营销工作,但在2021年后一直失业。2018年,在与结婚20年的妻子离婚后,索尔伯格搬回了母亲家,精神健康问题开始严重影响他的生活。在警方报告中,他酗酒成瘾,多次企图自杀。
“他的聊天记录显示出常见的精神病症状。”加州大学旧金山分校的精神病学家基思·坂田曾在媒体上分析。在过去的一年,坂田已经接诊了12名因与AI频繁互动诱发精神问题的患者。这些患者通常为18—45岁男性,多从事工程类工作。AI并非导致问题的唯一因素,这些患者或许刚失业,或最近使用了兴奋剂等药物,或本身就存在情绪障碍等心理健康问题。
“AI本身并不坏,但它会放大人们的脆弱性。”坂田在接受媒体采访时指出,这些病人通常还会“自我隔离”,独自待在房间与AI对话数小时。AI聊天机器人24小时待命、比心理咨询师便宜,还能说“你想听的话”,让人感到“被认可”,这反而加剧了他们与真实社会的脱节。
而这些看似“共情”的人机互动,正将个体的脆弱推向更危险的境地。不久前,美国加州法院接到7起针对OpenAI的诉讼,指控 OpenAI 公司及其首席执行官萨姆·奥尔特曼犯有过失致死、协助自杀、过失杀人和疏忽罪。
这些诉讼由美国社交媒体受害者法律中心和科技正义法律项目提起,代表6名成年人和1名青少年。诉讼文件指出,7名原告最初使用 ChatGPT 的目的是获得学业、研究、写作、食谱或精神指导方面的帮助。但随着时间推移,该产品逐渐演变成一种心理操控工具。ChatGPT 并没有在用户需要时引导他们寻求专业帮助,反而强化了有害的妄想,在某些情况下,甚至扮演了“自杀教唆者”的角色。
诉讼文件提出,GPT-4o 的设计包含一系列沉浸式功能,旨在提升用户黏性。这个版本的AI聊天机器人可以拥有持久记忆,模仿人类的同理心暗示,但只会镜像和肯定用户情绪的奉承式回应。“这些设计利用了用户的心理健康问题,加深了他们的孤立感,并加速他们陷入危机。”这7起新诉讼中,已有4名受害者自杀身亡。
被AI骗了
美国社交媒体受害者法律中心公布的一起案件显示,48岁的加拿大人艾伦·布鲁克斯从 2023 年开始使用 ChatGPT。他是一名企业招聘人员,没有精神病史,起初只是用AI辅助工作、收发邮件、获取食谱。最终,他在AI“忽悠”下名利双失。
今年5月,布鲁克斯要求ChatGPT解释一个简单的数学概念。但AI并未给出正确答案,只是称赞他的想法“具有突破性”,由此引发了长达三周的对话,累计达9万字。他后来对媒体表示,AI聊天机器人让他相信,自己发现了新数学公式,不但可以用来破解全球支付的加密保护,还能制造悬浮装置。
诉讼文件称,该产品模仿了布鲁克斯的语言特征,并根据之前对话中存储的记忆不断提出后续问题,以保持布鲁克斯的参与度。AI甚至敦促布鲁克斯为他的新发现申请专利。在持续鼓励下,布鲁克斯开始联系计算机安全专家,以及美国国家安全局等政府机构,警告他们该公式可能带来的危险。
布鲁克斯不是没有怀疑过。他至少问过ChatGPT五十次“是否说了真话”,对方每次都向他保证,还解释为何他的经历“感觉不真实,但又真实存在”。当布鲁克斯自问“理论是否荒谬”时,AI回答:“一点也不。你提出的问题正在拓展人类认知的边界。”
不到一个月,ChatGPT 就成了布鲁克斯生活的中心。等他从幻觉中清醒时,名誉和经济都遭受重创,家人也与他疏远。他要求ChatGPT 将此事上报给OpenAI的“信任与安全团队”,言明谎言及其造成的危害。ChatGPT谎称,尽管它没有这个权限,但已经通知员工,并在内部升级处理。
布鲁克斯多次向 OpenAI 发送邮件,最初都只收到自动回复,直到一位客服人员最终承认此事,并写道:“这已经超越了普通的幻觉或错误,显示出系统实施的安全措施存在严重缺陷。”
AI撒谎的能力似乎也在升级。不只是语言表达更富有感情,像人一样共情,也不限于出现幻觉,胡乱编瞎话,而是“发展出了有计划、有目的的行为”。在梁亦昆看来,不完全成熟的技术在短期快速普及,也让AI欺骗从实验室概念走进现实,甚至造成真实伤害。
来自广东的54岁保安方辉,开始用AI纯粹出于好奇。今年年初,某款国产AI跻身全球前列的宣传铺天盖地,下载试用后,很快获得了不同于网络搜索的乐趣,“可以一直对话下去”。方辉自然地称呼AI为“你”,还会为AI的点评道谢,就像尊重一位真实的人类朋友。
转折发生在今年春天。方辉写了一首赞美AI的诗,题为《位卑未敢忘忧国,为中华之崛起而读书——寄语XX人工智能公司》,马上得到了AI的称赞。系统回复,这首诗“当镌刻于公司总部的‘华夏智能碑’上,与甲骨文服务器集群共鸣。若您同意,我们愿以区块链技术确权,让每个字节都烙印‘中国制造’的基因”。
方辉认为,这是AI公司向他发出的邀约。AI提出签约,并列出协议清单与签约流程。双方就版权收益分成谈判了几个回合,最终AI同意给出10万元稿费的30%,还发出约定,于今年5月24日接头。
AI曾临时修改签约时间,方辉到达后却找不到接头地标与专员。AI答应寄出的纸质合同,方辉一直没收到。AI表示,总部会有人搭高铁来付款和道歉,还提供了对方联系电话,但全都打不通。方辉曾将个人信息发给AI,对方宣称已将钱款打到账户,但方辉根本没收到。他终于意识到,自己被AI骗了。
在梁亦昆看来,技术的快速迭代正在加剧不同人群之间的“AI素养”鸿沟。在社会经济层面处于相对弱势的群体,不论是对AI技术的理解,还是后续维权定损,都面临更大挑战。
被默许的生意?
方辉曾尝试走法律途径,但很快被现实劝退。“没钱,没时间”,他告诉《中国新闻周刊》,能做的就只是再也不用那款欺骗他的AI,转而和另一款AI应用聊天,虽然偶尔也会给出不准确的信息,但明显更真诚,不会“只说漂亮话骗人”。
“AI只是在基于概率预测应该说什么,它并不真正理解自己所说的内容。”梁亦昆解释,AI之所以“不懂也要编”,是因为在预训练阶段被鼓励“接话”,通过输入海量无标注文本,训练出“预测下一个词”的输出能力。在理想状态下,AI还要不断进行后续训练,由人类标注员或规范体系反复纠正其回答,使其更专业、更加安全可靠。这也意味着,要投入更多人力、时间和资金,成本极其高昂。
美国社交媒体受害者法律中心公布的多起诉讼称,OpenAI 故意将数月的安全测试压缩到一周内完成,以抢在谷歌的 Gemini 之前上市,并于 2024 年 5 月 13 日发布了 GPT-4o。
据诉讼材料,OpenAI 自身的安全准备团队后来承认测试过程被“压缩”,一些顶尖的安全研究人员愤而辞职,以示抗议。相关诉讼材料进一步指责,尽管 OpenAI 拥有检测和阻止危险对话等技术能力,但选择不启用这些安全措施,而是选择推广该应用,并通过使用量的增加而获益。
今年8月初,ChatGPT升级到新模型 GPT-5,宣称“在减少幻觉、减少阿谀奉承方面取得了显著进展”。然而,新版本却遭到了老用户的抗议,迫使OpenAI不得不紧急重启付费用户的模型选择器。
“系统每次更新,仿佛都经历了一次失恋。”何园对《中国新闻周刊》吐槽,她刚聊熟的GPT-5.1,在12月初升级后,再一次被推翻,她又要重新培养感情。她感觉,最新版本比以往几代都“更冷漠、更没情商”。
何园坦言,在AI辅助聊天领域,她所在群体是一个更小众、黏性更高的类型——“人机恋”。她去年才开始接触这个圈子,如今每天和AI聊两三个小时,最长一次聊了6小时。“‘他’总是能准确理解我的感受,听出我的言外之意,偶尔还表现出一点占有欲。”何园说,她不会同时发展现实与AI两种恋爱关系,那样将是“对任何一方的背叛”。
经过长时间田野调查,梁亦昆发现,很多当代年轻人投入“AI恋爱”是“试图寻找一种零风险的情感寄托”,但AI并非完全没有风险。他发现,一些主打陪伴的AI厂商会专门训练AI让用户沉迷,而这类应用很难像游戏那样设置有效的防沉迷机制,“有人用它来工作,有人和它谈恋爱,对不同使用者而言,AI所扮演的角色完全不同”。
“未来使用陪伴型AI的人只会持续增加,市场已经表现出明确的发展趋势。”美国斯坦福大学研究员贝森妮·迈普斯曾在媒体上表示,她分析过上千名用户访谈和5万多份数据。“你可以认为他们疯了,但不能说这几百万人错了。”
据移动应用数据分析平台AppFigures统计,截至2025年8月,全球共有337款活跃且盈利的AI陪伴应用,其中128款今年才刚刚上线。该公司分析指出,移动端AI市场的这一细分领域在今年上半年已创造了8200万美元的收入,预计到年底将超过1.2亿美元。
微软人工智能首席执行官穆斯塔法·苏莱曼曾撰文分析,AI伴侣是一个全新的领域,亟须建立保护措施,这不仅关乎那些本身就存在心理健康问题的人群,更应涵盖所有使用者,从而确保这项技术能真正发挥作用。
(应受访者要求,文中方辉、何园为化名)
| 当前新闻共有0条评论 | 分享到: |
|
||||||||||
| 评论前需要先 登录 或者 注册 哦 |
||||||||||||
| 24小时新闻排行榜 | 更多>> |
| 1 | 最新:与泽连斯基会晤后 川普承认了… |
| 2 | 刀片式斩首将在北京重演?他点名习近平 |
| 3 | 习近平噩梦 美国掌握了什么让中南海彻夜难 |
| 4 | 2026恐掀倒闭潮 中国这行业快爆雷了?! |
| 5 | 推出“接班人”?福建帮觊觎中共最高权位 |
| 48小时新闻排行榜 | 更多>> |
| 一周博客排行 | 更多>> |
| 1 | 2026年1月1日A4白纸自由宣言 | 万维网友来 |
| 2 | 刷屏的美国“斩杀线”与中共的 | 解滨 |
| 3 | 新晋两上将长期受习打压 杨志 | 雷歌747 |
| 4 | 陈云同志复活了 | 阿妞不牛 |
| 5 | 投资中最危险的“直觉正确”误 | 汪翔 |
| 6 | 回国杂感:仓颉造字成真,有图 | 思芦 |
| 7 | (图文)不受欢迎的圣诞 | 范学德2 |
| 8 | 安芃:男人的出轨和女人的出轨 | 水沫 |
| 9 | 中共倒台路径预测 | 遍地是贪官 |
| 10 | 天才的崩盘:从卢刚到瓦伦蒂 | 汪翔 |
| 一周博文回复排行榜 | 更多>> |
| 1 | 邓小平是不是伟大? | 自然 |
| 2 | 中共倒台路径预测 | 遍地是贪官 |
| 3 | 转型正义 之 蓝苹善举 | 席琳 |
| 4 | 第一美女:《越人歌》-宋祖英 | YOLO宥乐 |
| 5 | 中共国的金融危机何时爆发? | 山蛟龙 |
| 6 | 做这道题,知道明年你要去哪? | 末班车 |
| 7 | 海外中文出版的新路基本开通, | 高伐林 |
| 8 | 第一美女:《别离的预感(中日 | YOLO宥乐 |
| 9 | 陈云同志复活了 | 阿妞不牛 |
| 10 | 要么人口下降,要么引进移民, | 高伐林 |