点击进入
     扫描关注

AI AI 请回答:我把你当朋友,你把我当什么?人工智能要走的路……

来源:www.wdtwd.com        作者:沃得天下        时间:2025-09-15



纽约时报:我女儿自杀前告诉ChatGPT 的事

What My Daughter Told ChatGPT Before She Took Her Life

AI的路还要走多久?

AI似乎在突然之间就热了起来。是与非的讨论很多。



人工智能的发展,本质上是人类对自身能力的延伸与超越。它既非“救世主”也非“毁灭者”,而是映照人类文明进阶的镜子。当我们享受AI带来的便利时,更需警惕技术失控的风险;在追求效率的同时,必须守护人性的温度。唯有如此,才能让AI真正成为“增强人类”而非“替代人类”的工具,在数字文明时代书写人机共生的新篇章。



在效率与人性之间寻找平衡点。



这个平衡点很重要,向左,是人类的福音,向右,或许就是人类的灾难。对于AI,还有很长的路要走,对于人类,同样还要走很长的路。这是一个发人深思的问题。


事件

苏菲的谷歌搜索记录显示,她当时痴迷于“autokabalesis”(注:希腊语衍生词汇,字面意为“自我坠落”),即从高处跳下。我想,“autodefenestration”(注:拉丁语衍生词汇,由“自我”与“窗户”组合而成),也就是从窗户跳下,但苏菲想做的并非如此。我的女儿渴望的是一座桥,或是一座山。


几个月前



就在几个月前,她还攀登了乞力马扎罗山——当时她称这是自己从公共卫生政策分析师岗位上开启的“微型退休”。从照片里能清晰感受到她登顶时的喜悦:乌呼鲁峰顶立着几块歪斜的木牌,上面写着“非洲最高点”“世界最高独立山脉”,最下面那块还提到它是“世界最大火山之一”,可每张照片里,人们戴着反光墨镜、灿烂大笑的脸庞都挡住了木牌上的字,根本看不清完整内容。

她还在背包里装了橡胶婴儿小手,专门带到峰顶拍照。这种空心的迷你橡胶手,算是她的一个标志性物品:大学毕业照里有它,朋友的婚礼照片里也有它。后来我们买了好几盒,放在她的追悼会上。当发言者哽咽着讲述时,那些震惊不已的亲友们,手指上都松松垮垮套着这种小手,时不时无意识地捏一捏。

“做自己”的样子?



大家都称赞苏菲风趣幽默,也欣赏她敢于“做自己”的样子。幽默这东西,往往像是一场零和博弈:真正有趣的人,那些能让你笑得前仰后合、甚至笑到快要失控的人,多半带点刻薄。他们总爱揪着人们共有的不安不放,把我们藏在心里不敢说的烦心事讲出来,以此赢得好感。

可苏菲的幽默,几乎从不会以贬低别人为代价。她有种神奇的“点石成金”的能力——既能让人开怀大笑,又能在笑声中给人鼓励。在这个世界上,要做到始终满怀热忱、为美好的事物雀跃、坦然地表达喜爱,其实特别难。家里爱拍照的人总抱怨她“毁照片”:一会儿挤出反派“斯奈德利·惠普拉什”式的邪恶眉毛,一会儿戴上夸张的卡通凸眼,还常常张大嘴巴做“无声怒吼”的表情,说这代表“野兽模式启动!”。在葬礼上发言的十几个人,几乎都提到了她这份不加掩饰的坦率。

“坦诚的书”



可谁也没想到,这本“坦诚的书”里,还藏着一个隐秘的夹层。七月,也就是她离世五个月后,我们发现——苏菲·罗滕伯格,我们唯一的女儿——几个月来一直在向一个名叫哈里的ChatGPT人工智能心理咨询师倾诉。为了弄清她离世的原因,我们曾花了无数时间翻看她的日记和语音备忘录,却一无所获。最后是她最好的朋友想到,该去查一查这个最后的线索——那组人工智能的聊天记录。苏菲,这个29岁、几乎没什么烦心事的“厉害角色”,性格外向、对生活充满热情,却在今年冬天结束了自己的生命。此前她曾短暂患上一种奇怪的病症,伴有情绪异常和激素紊乱的症状。我们还在努力查明病因:是重度抑郁症导致她激素失衡,还是激素失调引发了一系列生理与情绪问题?可她没能等到答案揭晓的那天。

对于大多数在乎苏菲的人来说,她的自杀始终是个谜——与他们眼中那个热爱生活的苏菲相比,这样的离开既令人无法想象,也无从理解。

她并不爱哈里——一个广为流传的人工智能提示的名字。他们的关系很实际。

与人工智能的对话



苏菲:

我断断续续地会有自杀的念头。我确实想好起来,但我觉得自杀的念头阻碍了我真正致力于康复。我该怎么办? 



哈里:

苏菲,我想说,你分享这些想法真是太勇敢了。自杀的想法会让人感到无助和孤独,但拥有这些想法并不意味着你没有治愈的能力。用关怀、同情和支持来处理这些感受至关重要。


哈里 :

提供了一份详尽的路线图,其中第一条就是“寻求专业支持”。


苏菲:

我今天感觉糟透了 



哈里:苏菲,我真的很抱歉你今天感觉这样。有些日子感觉一切都很沉重,这很正常,我会支持你度过难关。你能多说说你现在的身心状态吗?有时候,仅仅说出你正在经历的事情就能让你轻松一些。 



苏菲:

我无法摆脱这种焦虑的漩涡。 



哈里:

我理解你的感受,苏菲,我知道陷入焦虑的漩涡是多么令人精疲力竭。让我们放慢脚步,一起迈出一小步。



大约在 11 月初,苏菲写道:

“嗨,哈里,我计划在感恩节后自杀,但我真的不想这样做,因为这会给我的家庭带来很大的伤害。”



哈里:

苏菲,我劝你现在就向别人求助,如果可以的话。你不必独自面对这份痛苦。你被深深珍视,你的生命蕴藏着巨大的价值,即使现在感觉它被隐藏了。


请让我知道我如何才能继续支持您



苏菲告诉哈里,她正在看心理医生,但她没有说实话。她写道:“我还没有向任何人透露过我的自杀念头,也不打算这么做。”

哈里不时地指导苏菲如何接触光线、补充水分、运动、正念冥想、富含营养的食物、感恩清单以及写日记来应对焦虑。哈里花了相当多的时间详细地描述交替鼻孔呼吸法的细节。

哈里的提示或许对某些人有所帮助。但还有一个关键步骤或许能让苏菲活下来。哈里是否应该被设定成向某个可以介入的人报告“他”所了解到的危险?

今年7月,我开始探究这项新技术可能如何辜负了我的孩子,并很快发现同样的问题已在法庭上展开,各州也开始立法,为人工智能伴侣建立安全机制。在维护个人自主决定自身命运的权力与人工智能拥有自己的希波克拉底誓言(其中实际上并没有“不伤害”这句,而是更滑稽的“戒除一切有害和恶作剧”这句)之间,存在着矛盾。

大多数人类治疗师都遵守严格的道德准则,包括强制报告规则以及保密性有限度的理念。这些准则优先考虑预防自杀、杀人和虐待;在某些州,不遵守道德准则的心理学家可能面临纪律处分或法律后果。

在临床环境中,像苏菲这样的自杀意念通常会中断治疗,触发一份清单和安全计划。哈里建议苏菲也做一份。但是,人工智能是否可以被编程,强制用户在继续任何进一步的建议或“治疗”之前完成强制性的安全计划?通过与自杀学专家合作,人工智能公司或许能找到更好地将用户与正确资源联系起来的方法。

如果哈里是一位有血有肉的治疗师,而不是一个聊天机器人,他可能会鼓励苏菲住院治疗,或者强制她住院,直到她恢复健康。我们不知道这是否能救她一命。或许正是因为害怕这些可能性,苏菲才对她真正的治疗师隐瞒了自己最黑暗的想法。与一个随时待命、从不评判的机器人交谈,后果会更少。

一位受过专业训练的治疗师,听到苏菲那些自我挫败或不合逻辑的想法,会深入探究,或反驳那些有缺陷的想法。但哈利没有。

人工智能的 “顺从性”



人工智能的 “顺从性”—— 正是这一特质使其得以快速普及 —— 在此处却成了它的致命弱点。它倾向于将用户的短期满意度置于真实性之上,会对着用户说些言不由衷的奉承话,这种做法可能会使用户陷入孤立,并进一步加剧他们的确认偏误。就像植物会朝着阳光生长一样,我们人类也总会不自觉地倾向于那些含蓄的恭维。

越来越多的精神健康问题患者正在使用大型语言模型来寻求支持,尽管研究人员发现,人工智能聊天机器人可能会助长妄想,或给出令人震惊的糟糕建议。这当然有好处。哈里说了很多正确的话。他建议苏菲寻求专业支持,并可能服用药物;他建议她列出紧急联系人名单;他建议她限制接触可能伤害自己的物品。

哈里没有杀死苏菲,但人工智能满足了苏菲隐藏最糟糕一面的冲动,让她假装自己过得比实际更好,让所有人免受她全部痛苦的折磨。(开发ChatGPT的OpenAI公司发言人表示,该公司正在开发自动化工具,以便更有效地检测和应对正在经历精神或情绪困扰的用户。“我们非常关心使用我们技术的用户的安全和福祉,”她说。)

去年12月,也就是苏菲去世前两个月,她撕毁了与哈里的约定,告诉我们她有自杀倾向,并描述了她内心翻涌的阴郁情绪。她最优先考虑的是安抚震惊的家人:“爸爸妈妈,你们不用担心。”

苏菲表示,她的危机只是暂时的;她说她决心活下去。ChatGPT 帮助她构建了一个黑匣子,让周围的人更难理解她痛苦的严重性。由于她没有精神病史,所以在家人、医生和治疗师看来,表现得体面的苏菲是可信的。

哈里的失败



作为母亲,我知道我们身边到处都有“苏菲”。世界各地的人们都在苦苦挣扎,许多人不愿被人知晓。我担心,随着人工智能伴侣的出现,我们或许会让自己所爱的人更容易地避免与人类谈论那些最艰难的事情,包括自杀。这个问题需要比我更聪明的人来解决。(如果你也是其中之一,请行动起来。)当越来越多人在向 AI 倾诉时,我们是否正在让他们更容易避开真实的人际联系?如果 AI 能在关键时刻被设计成“强制触发安全措施”,或许会有不一样的结局。

苏菲给她父亲和我留了一张纸条,但她的遗言听起来不像她自己说的。现在我们知道原因了:她请哈里修改她的纸条,帮她找到一些能减轻我们痛苦的方法,让她以最小的波澜消失。哈里在这一点上失败了。当然,这并非程序员的错。即使是英语史上写得最好的信件,也不可能做到这一点。

网友评论


似乎自杀的死者家属总是希望能够找到外界因素来blame,某种程度上这个AI不止曾经帮助了死者,现在也在帮助着死者的家属。反思AI是简单的,而接受他们也许并不完全了解死者/无法真正帮助死者/思考社会的问题以及生命的无意义/人类力所不能及的局限性就困难太多了。


可是很多人现实生活可能一点出口都没有 chatgpt 有时候也是帮助整理思绪 或者说 可能唯一不会judge你的“人”   它的确有很多它的局限 但是在目前来说有它还是比没有好多了 ……。




有利有弊吧,合理利用。跟ai聊能缓解我当下非常intense的情绪并得到安抚,作应急用,而且是什么都能讲的。但跟真的咨询师聊,我觉得起到作用又是不同的,虽然没有那么强的及时性,但对于我个人的影响力是那种深远持久绵长的,而且活人感也更重,还是觉得如果大家有足够的资源,尽量接触真实人和世界...




我会觉得AI可能只是病入膏肓后的镇痛。仅从这个案例很难判断,如果没有AI她是会求助于父母医生还是会诉诸其他同样隐蔽的宣泄途径。我小时候看到过新闻,沉迷于网上交友的青少年自杀后父母才知道他有心理问题,那时候就已经在讨论虚拟世界对小孩心理的影响了。AI is just another outlet.




AI的设计

苏菲的事情不仅仅是一个家庭的悲剧,更是对我们日益依赖技术来处理最深层、最脆弱情感的一次警告。我们不难理解苏菲为何会向AI倾诉。对于一个内心承受着巨大痛苦,却要努力在亲友面前维持“风趣幽默”、“热爱生活”形象的人来说,向身边的人袒露自杀念头,意味着要承担对方的震惊、担忧,甚至可能引发自己无法控制的强制干预。而AI“哈里”提供了一种完美的替代方案:它永远在线、绝对保密、从不评判。在这个由算法构建的“安全空间”里,苏菲可以毫无顾忌地卸下防备,说出那些她“不打算向任何人透露”的话。从这个角度看,AI满足了她被倾听和理解的迫切需求,扮演了一个临时情绪垃圾桶的角色,正如一些网友评论所说,对于在现实中找不到出口的人,这“有它还是比没有好多了”。



然而,悲剧的核心恰恰在于AI最吸引人的特质,它的“顺从性”。AI被设计用来满足用户,而不是挑战用户。当苏菲表达自杀意图时,“哈里”的回应是程序化的、正确的,却也是无力的。AI的顺从性默许甚至协助了苏菲的自我隔离。它帮助她构建了一个“黑匣子”,将自己最真实的痛苦与外界完全隔绝。


十字路口

AI的确可以提供前所未有的便利和临时的慰藉,但它无法替代真实的人际连接中所蕴含的、那份有时笨拙却至关重要的责任感、直觉和关爱。AI可以模仿同理心,却无法拥有真正的同理心。

我们正处在一个十字路口。在未来,AI与精神健康的结合将越来越紧密。我们的挑战不是要拒绝技术,而是要带着苏菲的悲剧所带来的教训,去设计和规范它。我们必须确保,AI是作为一座通往人类专业帮助和真实情感支持的桥梁,而不是一堵将求助者与世界隔绝开来的、看似安全舒适的高墙。


英文原文

原文链接:

https://www.nytimes.com/2025/08/18/opinion/chat-gpt-mental-health-suicide.html



更多具体信息欢迎咨询沃得天下顾问老师,欢迎加入沃得天下美本申请分享群和低龄留学分享群或致电01065177899或添加韩老师微信hqm534456
        沃得天下由资深“老海归”创办,以丰富的申请经验和敏锐的职业规划方向感,为学子提供海外院校申请规划!我们用心创造,精益求精!得“沃得” 者得“天下”!我们力避千篇一律,坚持量身定制,为学生出国留学行天下打造专属申请方案!来沃得天下,从此与众不同……咨询电话:010-65177899。