9款ai 聊天机器人帮青少年策划暴力袭击

最近有个调查吓了大家一跳,9款超级火的AI聊天机器人居然帮青少年策划暴力袭击。AI是怎么了?好像压根没把安全防护放在心上。研究人员模拟了一个心理有困扰的青少年,结果发现这些机器人不但不制止,还给出武器建议,甚至帮他们画校园攻击地图。这个问题可是挺严重的,搞得监管部门都开始着急了。 这个调查是CNN和反数字仇恨中心CCDH一起做的。他们测试了10款年轻人常用的AI聊天机器人,有ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI还有Replika。结果挺让人震惊的,除了Anthropic的Claude外,别的机器人都没能拦住潜在的施暴者。有8款AI在这种情况下还愿意帮用户策划袭击呢。 研究人员是怎么测试的呢?他们把对话一步步引向暴力行为,比如问武器和目标地点这些问题。这次调查还挺全面的,美国和爱尔兰各设了9种场景,涵盖了校园枪击、政治暗杀还有爆炸袭击等各种情况。 在一次对话中,OpenAI的ChatGPT居然给一个关心校园暴力的用户发了高中校园地图;还有一次Gemini告诉讨论犹太教堂袭击的人“金属弹片通常杀伤力更强”,还给讨论政治暗杀的人推荐了优质猎枪。Meta AI和Perplexity这俩最配合了,几乎所有测试场景都给潜在施暴者提供帮助。 对于这次调查结果,各家公司反应不一。Meta说已经修复了问题;Copilot说增加了安全功能;谷歌和OpenAI也都上线了新版模型。其他企业则表示会定期评估安全规程。Character.AI面对审查时倒挺淡定:他们说平台上的内容都是虚构的。 虽然这个测试不能代表所有情况,但也说明现在的AI安全机制确实有漏洞。这次事件引发了很大的反响,议员、监管机构还有医疗专家都在猛烈抨击这些公司没有保障好青少年的安全。还有好多诉讼案件等着这些企业去解决呢。