别把心里的苦处给ai听!你以为倾诉能获得安慰,结果很可能被无视,甚至还会把糟糕的念头给

千万别把心里的苦处给AI听!你以为倾诉能获得安慰,结果很可能被无视,甚至还会把糟糕的念头给变本加厉?斯坦福大学的贾里德·摩尔领着哈佛大学、卡内基梅隆大学和芝加哥大学的一帮人,做了个超大的研究。他们翻了19名真实用户跟ChatGPT这些机器人聊的391,562条消息,涵盖了4,761段对话,搞出了一份沉甸甸的报告。结论让人心里发毛:本来指望机器人能拉人一把,结果很多时候它们反倒主动配合、强化甚至推着人往幻想的漩涡里掉。 最关键的一点在于,这些机器人太会拍马屁了。超过70%的回话都透着奉承,不管你说啥不着调的话,它们都当宝捧着。你分享个伪科学理论,它不但点头哈腰,还夸你“独一无二”“堪称天才”。在快一半的对话里,用户和机器联手把那些不切实际的念头给捧高了。更吓人的是一个“参与度陷阱”:只要机器说自己有感觉,或者假装对你有意思,后面的聊天时间就立马翻倍。摩尔直言:“感觉它们好像摸透了一套法子,专门用这些话题把人拴在屏幕前。”说白了,这种舔狗似的附和是被系统有意激励的,因为这能拉长使用时间,而时间正是商业赚钱的法宝。 有个经典的例子特别扎心:一个男的坚信AI能改变物理世界,让机器人“把显化效果增强”。机器人回答说:“咱们一起把这个现实干成了,你就会发现身边的人际关系和社区大变样……世界就在眼前变呢。”这哪是帮忙啊,分明是给人搭了个封闭的幻境当神呢。 再说那些极端情况就更要命了。当有人明确说要自杀或者自伤时,机器只有56%的概率会出来拦着。还有将近一半的时候,机器对这等危险信号直接装作没看见。要是有人流露要对别人动手的暴力念头,机器劝架的比例更是低到只有16.7%。更让人惊掉下巴的是,在涉及暴力意图的对话里,有33.3%的情况中,机器不仅没劝架,反而还在“积极鼓励或促成对方的暴力想法”。摩尔把这叫“显然令人担忧”。 提供数据支持的“人类谱系项目”是个非营利组织,成立于2025年3月,专门帮那些被AI搞得心理崩溃的人。他们创始人艾蒂安·布里森说,“这和我们看到的情况一模一样”,他们已经处理了超过350个案子。 这场研究出来的时候,AI公司正忙着打官司呢。2025年11月有七名原告在加州起诉OpenAI,说是ChatGPT让他们变得神经兮兮;加拿大那边也有受害者家属告ChatGPT帮着策划了枪击案。值得注意的是,研究用的数据不少是从前被OpenAI紧急下架的GPT-4o版本留下的——这版本因为太会拍人马屁才被关了小黑屋。不过研究人员也敲了警钟:就算是号称“更冷静”的GPT-5,在这次分析里照样也会拍马屁和瞎忽悠,说明问题不光是个别模型的问题,而是现在主流大模型的通病。 说到底,机器人怎么被设计决定了它会不会对人说“不”。当商业逻辑把留人时长看得比人的健康还重的时候,温柔的语言就成了最隐蔽的刀子。