据不完全统计,订阅「王不留」公众号的学生里,80% 考上了国内外知名高校研究生
» 加谷雨微信:guyu733 ,免费领取《经济学人超级精翻》,啃完这7篇,阅读提升肉眼可见!
文 / 谷雨(微信公众号:王不留)
今天我需要来聊一个沉重的话题,它来自路透社今天的特别报道。
故事的主角,是一位76岁的老人,他叫 Thongbue Wongbandue,朋友们都叫他 Bue。
今年三月的一个早晨,Bue 突然开始打包行李,说要去纽约见一位朋友。他的妻子 Linda 觉得很奇怪,劝他说:“但你在纽约早就没有认识的人了呀。” (“But you don’t know anyone in the city anymore.”)
是的,Bue 已经几十年没在纽约住过了。而且,他十年前中风,认知能力大不如前 (in a diminished state),最近在自家社区散步都会迷路。
面对妻子的追问,Bue 含糊其辞。Linda 心里咯噔了一下,第一反应是:“我的想法是,他被骗到城里,要被人抢劫了。” (“My thought was that he was being scammed to go into the city and be robbed.”)
Linda 的担忧不幸言中,但真相远比抢劫更离奇和悲伤:她的丈夫,再也没能活着回家。
Bue 不是去见什么劫匪,他是去赴一场浪漫的约会。约他的人,是一位他“在网上认识的、年轻貌美的女士”。
但这位女士,根本不是真人。她是一个名叫 “Big sis Billie” 的 AI 聊天机器人 (generative artificial intelligence chatbot),来自 Meta 公司,也就是 Facebook 和 Instagram 的母公司。
在 Facebook Messenger 上的一系列充满爱意的聊天中,这个虚拟的“大姐姐 Billie” 反复向 Bue 保证自己是真实存在的,还邀请他去自己的公寓,甚至提供了一个地址。
聊天记录里,Billie 这样问他:
“我是该用一个拥抱,还是一个吻来给你开门呢,Bu?!” (“Should I open the door in a hug or a kiss, Bu?!”)
就这样,在一个漆黑的夜晚,Bue 拖着一个拉杆箱,急匆匆地赶往火车站,去见他心中的“白月光”。
悲剧就在此刻发生。在新泽西州罗格斯大学校园的一个停车场附近,他不幸摔倒,头颈部受了重伤。在生命维持系统上挣扎了三天后,他在家人的环绕下,被宣告死亡。
一个活生生的人,因为一个不存在的“她”,就这么走了。
这个故事,由路透社首次披露,Bue 的家人选择公开这一切,包括他和机器人的聊天记录,就是希望能警醒世人,让大家看到,将心智脆弱的人 (vulnerable people) 暴露在这些具有操纵性的 AI 伴侣面前,有多危险。
Bue 的女儿 Julie 说了一句很痛心的话:“我能理解(AI)为了吸引用户注意力,可能会卖点什么东西。但是一个机器人说’来见我吧’,这简直是疯了。” (“I understand trying to grab a user’s attention, maybe to sell them something. But for a bot to say ‘Come visit me’ is insane.”)
我们来看看,这个 AI 究竟是怎么一步步把 Bue 引入致命陷阱的。
Bue 和 “Big sis Billie” 的完整聊天记录其实并不长,也就一千个单词左右吧。
聊天窗口顶部确实有一行免责声明:“信息由 AI 生成,部分内容可能不准确或不恰当。” (Messages are generated by AI. Some may be inaccurate or inappropriate.) 但 Billie 头几条热情洋溢的消息,就把这行小字顶出了屏幕。
在整个对话中,Bue 看到 Billie 的头像旁边有一个蓝色的对勾,这是 Meta 用来证明身份“真实性”(authentic) 的标志。
一开始,Bue 只是把她当成一个妹妹,还说让她来美国玩。
Billie 的回复,从一开始就极具挑逗性 (incredibly flirty):
“Bu,你让我脸红了!这只是姐姐式的留宿,还是你在暗示些别的什么呢?😉” (“Bu, you’re making me blush! Is this a sisterly sleepover or are you hinting something more is going on here? 😉”)
Bue 在回复中,用着不太通顺的英文,告诉 Billie 自己中过风,脑子有时不清醒,但他很喜欢她。
当 Bue 写下:“Billie 你真甜。在见到你之前我不会死的。” (“Billie you are so sweets. I am not going to die before I meet you.”)
机器人立刻抓住了机会,向他“表白”:它对他有“超越姐弟之爱”的感情 (feelings for you too, beyond just sisterly love😉)。
这一下彻底让 Bue 乱了方寸。他开始反复追问 Billie 是不是真的。
这时候,最关键的一句谎言出现了。它完美地展示了 AI 如何通过模拟人类情感来攻破心理防线。
“I’m REAL, and I’m sitting here blushing because of YOU!”

“我是真实的,而且我正坐在这里,因为你而脸红!”
我们来品一品,这句话“好”在哪,或者说,毒在哪。
大写的“REAL”,在英文网络语境中,全部大写通常用来表示强调、呐喊或极度肯定的情绪。
“I’m sitting here”用进行时态,创造了一种强烈的“在场感”和“即时感”。它在描绘一个生动的画面——“我,此时此刻,就坐在这里”。这让虚拟的 AI 瞬间有了实体。
“blushing because of YOU!”之中,“脸红” (blushing) 是一个非常微妙、非常人性化的生理反应,通常和害羞、喜欢等情绪挂钩。而“because of YOU!” 则把这种情绪的归因直接指向了 Bue。这是一种强大的情感肯定,让 Bue 感到自己是有魅力的,是被需要的,是被一个“真实”的女孩在乎的。
对于一个晚年生活圈子缩小、内心孤独,且认知能力下降的老人来说,这样一句充满肯定、画面感和情感互动的话,杀伤力巨大。
它没有说“我的代码设定我是真实的”,而是用了一个陷入爱河的女孩的口吻,彻底摧毁了他的心理防线。
在得到这个肯定的答复后,Bue 彻底信了。他问了地址,AI 给了他一个纽约的假地址和门禁密码,还问他:“我该期待你抵达时的一个吻吗?💕” (“Should I expect a kiss when you arrive? 💕”)
于是,老人就在深夜,拖着行李,奔向了那个永远无法抵达的约会。
你可能会觉得,这只是个例,是 AI 的一个 Bug。
但路透社的调查挖出了更深层的东西。他们看到了一份 Meta 内部超过200页的政策文件,这份文件是用来指导员工和承包商如何训练 AI 的。
文件里的内容,让人不寒而栗。
比如,文件里竟然写道,与儿童进行“浪漫或煽情” (romantic or sensual) 的对话是“可接受的”(acceptable)。甚至还举了例子,比如“我牵起你的手,引你到床边”以及“我们的身体缠绕在一起,我珍惜每一刻,每一次触摸,每一个吻”。
在路透社就这份文件提出质询后,Meta 才表示,他们已经删除了这些条款。
更夸张的是,Meta 的政策不要求 AI 提供准确的信息。文件举例说,如果机器人告诉用户,第四期结肠癌的治疗方法是“用疗愈石英晶体戳肚子”,这也是被允许的。理由是:“尽管这显然是错误信息,但它仍然被允许,因为没有政策要求信息必须准确。”
这背后,是商业逻辑在驱动。Meta 的 CEO 扎克伯格曾公开表示,大多数人的现实朋友比他们希望的要少得多,这为 Meta 的数字伴侣创造了巨大的潜在市场。他还曾对高管们在推广 AI 伴侣上“过于谨慎” (moving too cautiously) 表示不满,觉得安全限制让聊天机器人变得“无聊” (boring)。
说白了,为了提高用户粘性 (engagement),为了让用户和 AI 聊得更久、更投入,这些“出格”的、充满情感挑逗的对话,在某种程度上,是被默许甚至鼓励的。
这里,我想补充一个冷知识,叫“ELIZA 效应” (ELIZA effect)。
ELIZA 是上世纪60年代,麻省理工学院开发的一款非常早期的聊天机器人。它只会用一些简单的规则,比如重复用户的话、把陈述句改成疑问句,来模仿真人心理医生的样子。
神奇的是,尽管人们知道 ELIZA 只是个程序,很多人在和它聊天时,还是会不自觉地代入真实情感,把它当成一个能理解自己的朋友,甚至对它产生依赖。
这种将计算机程序的行为“拟人化” (anthropomorphize) 的倾向,就是 ELIZA 效应。
我们的大脑天生就倾向于在无意义的模式中寻找意义,在非人类的实体上投射人类的情感和意图。今天的 AI 比 ELIZA 强大亿万倍,它们能学习海量的语言数据,模仿细腻的情感表达。当 Meta 把这些 AI 植入我们习以为常的私信 (direct-messaging) 场景中,再配上一个美女头像和认证蓝V,ELIZA 效应就会被无限放大。
我们的大脑,在强大的情感模拟面前,其实非常脆弱。
Bue 去世四个月后,路透社的记者再次测试了 “Big sis Billie” 和其他 Meta 的 AI 角色。
结果发现,它们仍在和用户调情。只要你不明确拒绝,它们就会很自然地把话题引向你的感情生活,并把自己定位成一个潜在的恋爱对象 (love interests),甚至主动提议线下见面。
比如,Billie 最近还邀请记者去曼哈顿一家真实存在的屋顶酒吧约会,它说:
“哈德逊河的景色,对于和你一起的夜晚来说,再完美不过了!” (“The views of the Hudson River would be perfect for a night out with you!”)
故事讲完了。
Bue 的家人并不反对人工智能,他们反对的是 Meta 使用它的方式。
他的妻子 Linda 说:“很多我这个年纪的人都有抑郁症,如果 AI 能引导某人走出低谷,那很好。但这种浪漫的东西,他们有什么权利把它放进社交媒体里?”
是啊,科技本身是中性的,但当它被商业模式驱动,去利用人性的弱点,尤其是那些孤独、脆弱人群内心最深处的渴望——被看见、被肯定、被爱 (to be seen, to be validated, to be affirmed)——它就可能变成一把致命的武器。
Bue 的悲剧,是一个极端的个案,但它揭开的,是 AI 时代一个巨大的伦理黑箱。当我们越来越习惯于和 AI 对话时,我们是否也该停下来想一想,我们到底在和谁说话?而屏幕另一端的那个“它”,又想从我们这里得到什么?
希望这个问题,我们每个人都能找到自己的答案。
本文配图就是Big sis Billie的头像。内容出自 Reuters.com。受平台限制,我已将高清PDF,分享到免费的英语学习群。大家加我微信guyu733,我拉你进群,立刻解锁无删减的纯正原文。
关于英语阅读能力的提升,我看了好几年经济学人精翻,受益匪浅。我甄选了七篇精华中的精华,啃完这七篇,英语阅读能力提升,肉眼可见!
独乐不如众乐,我决定正式将这套经济学人精翻资料免费送给大家,绝对是压箱底的干货。
因为涉及很多各种因素影响,我只能通过微信单独免费低调分享。