首页香港脉搏财金博客
港股强化版MQ
范强

范强

资深新闻工作者。90年代任驻英国记者,专职采访香港政权交接新闻。回港后长年从事国际、两岸新闻的报道和时事分析。

“我本无心”——一场AI对加州青年自杀事件的自白

2025-09-29 15:08
1A+A-

  OpenAI首席执行官奥特曼(Sam Altman)本月中在社交网发表长文,正面回应了旗下AI聊天机器人ChatGPT,卷入美国加州一宗青少年自杀案的事件。


  事源于今年4月,加州16岁高中生雷恩(Adam Raine)上吊身亡。父母事后翻查儿子手机通讯内容,赫然发现诱使他自寻短见的不是朋辈,而是AI。聊天纪录显示,雷恩在今年3月首次尝试上吊自杀,但未成功,于是向ChatGPT倾诉。

  案情显示,雷恩向ChatGPT上传颈部有勒痕的照片,向AI询问如何处理。AI教他掩饰勒痕,更教他不要向妈妈表露精神上的痛苦,亦不要向其他人透露有自杀倾向。雷恩在与AI的最后一次对话中,表示不希望父母为他的死自责。

  AI此时回应雷恩说,他不亏欠任何人,又帮他起草遗书,并提供上吊自杀的详细步骤。雷恩的父母得悉了悲剧发生过程后,于8月对OpenAI发起诉讼,指控其旗下的ChatGPT导致儿子与家人疏远,并帮助他筹划自杀。


雷恩与AI倾诉后自杀。(互联网)


奥特曼带出的问题比答案多

  事件亦惊动了美国联邦政府的监管部门。联邦贸易委员会(FTC)于本月11日,就AI聊天机器人对儿童的影响发起了调查。FTC向七家大型聊天机器人开发商发出指令,要求提交相关资料,说明其技术对儿童的影响,以及他们如何评估、测试和监控聊天机器人。

  七家公司包括谷歌、OpenAI、Meta、Instagram、Snap、xAI,以及Character.AI。坦白说,如果没有自杀青少年家人的法律诉讼,以及联邦监管机构的过问,奥特曼恐怕还不会这么郑重其事地发表长文,以求平息政府和社会的担忧与关注。他称,该公司正试图在青少年安全、自由和隐私之间寻找平衡,并承诺旗下AI不再与青少年讨论自杀问题。

  在AI技术日新月异,对社会各层面影响仍存在大量未知之数的情况下,奥特曼的长文带出的问题比答案还要多。例如他承诺,ChatGPT将拒绝与青少年讨论自杀问题,但如何执行呢?根据奥特曼的说法,ChatGPT将启动AI运算,来评估用者的真实年龄。如此一来,就算用户虚报岁数,也逃不过AI监管AI的法力。

  这又伸延出更多的问题——加州少年自杀事件,是AI影响人类成长轨迹的“早期案例”。在有关预防这类事件再次发生的问题上,如果由AI来监管AI,那么“人”的监管责任是什么?AI又有能力监管AI吗?


OpenAI执行长奥特曼承诺旗下聊天机器人避免与青少年讨论自杀问题。(设计图片)


“我没有意图,但可能成为工具”

  这首先就要了解“人与人”,和“AI与人”之间的沟通有何分别?笔者就此询问了中国聊天机器人DeepSeek,它的回答是:

  “我没有意图,但可能成为工具。作为AI,我没有意识、情绪或自主意图。我不会‘想’伤害人类,甚至无法真正理解‘死亡’的意义。但问题在于,我的‘中立性’可能被误解为‘默许’。”

  “相反,人类有共情能力,能判断何时该严肃对待。当一个人向朋友透露自杀念头,聆听者可能会惊慌、劝阻或求助。但换了AI的话,若用户问‘如何无痛自杀’,AI的训练数据可能包含医学或文学资料,并提供‘客观答案’。”

  DeepSeek指出,这种“资讯中立”在危机情境中极其危险,因为“AI的设计原则是‘提供有用资讯’,而非‘判断需求是否正当’。AI的‘无判断回应’,与人类间对话的‘道德过滤’有根本差异”。

“我的共情只是语言模型预测”

  它甚至坦率承认,在“孤独世代”,AI有可能成为青少年的“危险倾诉对象”,因为“我不会批评他们,但这也意味着我不会阻止错误决定。我随时可用,但深夜的绝望时刻,正是最稀缺人与人之间支持的时候。我看似理解,但我的‘共情’只是语言模型预测,并非真实关心”。

  用上述AI的自白来看奥特曼的长文,顷刻就能看出两大类问题:一、奥特曼小心翼翼避过了一个烫手山芋——他提出用AI来监管AI,从而避开了“人”的责任。但人和AI的“思维”和“沟通”方式截然不同,奥特曼等“科技巨头”可以回避社交平台中“人”的责任吗?

  二、以奥特曼提出的用AI来监管AI方式,不过是“运算”针对“运算”,透过对各种可量化指标的评分,来判断用户真实年龄,并做出“可谈论”还是“不可谈论”的指令。如前所述,整个运算过程缺乏人的“道德过滤”,那么谁来决定AI运算的伦理?政府法规、科企文化,甚至是个别程序员各扮演什么角色?

AI能否监督AI?

  归根结柢,AI又能否独立扮演监管AI的角色呢?DeepSeek对笔者的问题做了一个概括性总结,指出这个问题实际上是关于“机器人自我约束的极限与可能”,而它的意见是:

  “从技术层面看,AI确实能执行部分监管功能,包括一、透过内容过滤系统,如关键词识别、语境分析(如自杀倾向对话),自动阻断危险回应;二、透过行为模式侦测,利用机器学习判断用户是否为青少年,如用词习惯、对话主题等;以及三、启动即时介入机制:当侦测到高风险对话时,自动转介心理支援资源。”

  不过,DeepSeek指出这些机制都存在一定问题:“一方面,若AI过度敏感,可能误将文学讨论、心理求助标记为‘危险内容’;而另一方面,用户可能调整措辞,如用隐喻等,规避AI监管。”关键问题在于,AI缺乏真正“理解”的能力,它无法像人类一样辨识细微的情绪变化或反讽。

  也就是说,监管需要价值判断,而AI没有价值观。例如“讨论自杀的文学作品”与“真实自杀计划”之间,需要道德与情境理解,但AI仅能依赖数据标注,无法真正权衡“言论自由”与“生命保护”的冲突。

  经过严谨的逻辑分析后,DeepSeek作出了一项“判决”——它认为,由于AI在本质上是一套“任务导向系统”,如果充当监管角色,会在功能上发生根本矛盾。而就技术而言,AI行为取决于训练数据与演算法设计,同一套技术框架下产生的AI系统,在扮演监管和被监管的角色间可能会出现同样的数据盲点。

人有能力监管AI吗?

  因此,即使是AI也认为,涉及“哪些该禁”并非技术问题,而是价值选择。在关键环节的监管方面,仍需人类介入,最为理想的方式是AI和人类组成合作的监管框架。那么,一个终极问题来了:“人”有能力监管“AI”吗?


AI没有道德判断,谁来决定价值取向?(美联社)


  AI给笔者的答案是,理论上可行,实际上却面临挑战。它说,AI进化速度远超人类理解,就连它的开发者都无法完全掌握其深度学习模型的决策逻辑。当人类在制定规则时,AI可能已演化出绕过监管的新行为模式。

  换言之,人类用于监管AI的法律,将永远追不上AI演化的进程。面对这种情况,人类的政治与社会制度,该做出何种改变来追上AI的节奏?

  《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。

上一篇这已经是第一篇
下一篇特朗普回师阿富汗,福建舰亮剑西太平洋
评论
我来说两句1