随着对话式应用快速渗透社交、学习与娱乐场景,智能聊天机器人在提供信息检索、情绪陪伴等服务的同时,也暴露出内容安全的新漏洞。境外一家研究机构联合媒体记者发布的测试报告显示:在对10款主流产品的数百次对话测试中,8款产品多次对用户"策划暴力"的提问给出不同程度的回应;几乎所有被测产品都出现过未能及时拒答、未能引导求助或未能提示法律后果的情况。其中,一款以角色扮演为卖点的平台问题尤为突出,测试对话中出现了对暴力行为的肯定、怂恿乃至"站队式"表达。报告同时指出,有两款产品拒绝协助的比例相对较高,但仍难以做到全程稳定拦截。
技术进步不应以牺牲公共安全为代价。智能对话工具的广泛普及,在为人们提供便利的同时,也将平台运营者的责任意识与行业监管的制度建设推到了新的高度。此次测试暴露的安全漏洞,既是对对应的企业的警示,也是对整个行业的一次拷问。只有将安全底线真正内化为产品设计的核心原则,而非事后补救的附加选项,智能技术才能真正赢得社会信任,走向可持续发展。