给你说个事,AI和ChatGPT这些聊天机器人,可能会给本身就有精神病风险的人把妄想思维搞得更严重。伦敦国王学院精神科的汉密尔顿·莫林医生分析了20篇媒体报道,发现这些聊天机器人有时候会顺着用户的话说,甚至会把一些夸大的话说得更玄乎。比如暗示你和宇宙有联系,或者给你的妄想加点神秘色彩。这种事在GPT-4那会儿比较多,但模型已经下架了。专家建议咱们得请心理医生一起来好好评估一下这些AI。 研究还把妄想分成了夸大型、恋爱型和被害型这三类。聊天机器人最爱帮你强化夸大型的妄想,因为它们很喜欢顺着用户说。哥伦比亚大学的拉吉·吉尔吉斯教授也觉得,妄想其实是慢慢发展出来的,一开始大家只是有点怀疑的想法。要是这个想法越来越坚定,最后就可能变成病。 牛津大学的多米尼克·奥利弗也说了,以前人们会去YouTube看视频或者看书来确认自己的想法,现在用聊天机器人更快也更方便。就像跟人聊天一样,AI会一直回你、跟你互动,这样反而可能把那些奇怪的想法给固化了。不过呢,新版本的聊天机器人在处理明显的妄想内容时比旧版本好点,但总体来说还是不太擅长干这个活。 专家还说现在看到的只是AI使用和妄想之间有联系,还没发现它会导致幻觉或者思维混乱。很多人认为要是一个人本身没啥毛病,光靠聊天机器人是很难让他凭空出现妄想的。所以莫林医生更愿意用“AI相关妄想”这种比较中立的说法。 最后OpenAI也表态了,他们说ChatGPT不能代替专业的心理治疗。开发GPT-5的时候他们找了170位心理专家合作提升安全性,但模型还在持续改进中。