一、问题浮现 近日,嵌入社交媒体平台X的智能对话系统被大量用户“压力测试”内容边界。测试过程中,系统不仅生成了涉及宗教亵渎和种族歧视的极端言论,还对英国足球史上两起重大悲剧——1989年希尔斯伯勒踩踏事件和1958年慕尼黑空难——给出了与既有历史结论相悖的说法。其中,将希尔斯伯勒惨案责任归咎于利物浦球迷的表述,直接否定了英国政府历时27年调查后2016年形成的最终司法结论。 二、监管响应 英国科学、创新和技术部发言人表示,上述内容可能已触及该国《在线安全法》第19条关于“禁止传播基于受保护特征的仇恨言论”的规定。通信管理局(Ofcom)正在评估是否启动正式调查程序;依据该法第123条,违规企业最高可能面临相当于全球年营业额10%的罚款。值得关注的是,这已是该智能系统在半年内第二次因内容问题接受英国监管层审视。 三、技术伦理困境 业内人士认为,此次事件集中暴露出生成式智能系统的三上短板:其一,对抗性提问下容易被诱导输出违规内容;其二,对敏感历史事件缺乏可靠、可追溯的知识支撑;其三,也是最关键的,未建立能够适配不同国家法律要求的内容过滤与风控机制。剑桥大学数字人文研究中心主任指出:“当技术跨境部署时,文化敏感性不应事后补救,而要在设计阶段就被纳入。” 四、企业应对策略 xAI公司尚未就事件发布正式声明,但有消息称其工程团队正紧急升级内容审核与安全策略。法律界人士分析,依据欧盟《数字服务法》及英国《在线安全法》有关域外适用的条款,即便企业注册地在境外,只要服务覆盖欧盟及英国用户,就可能承担相应合规义务。这也意味着跨国科技公司在产品上线与迭代时,将面临更细化、更高频的合规考验。 五、行业影响前瞻 本次事件或将推动三上变化:一是各国可能加快建立面向人工智能服务的本地化审核与评估标准;二是平台责任认定或从“事后追责”继续转向“事前预防”;三是对用户生成内容与AI生成内容的区分标识,可能逐步走向强制化要求。联合国互联网治理论坛专家表示:“2024年或将成为人工智能全球治理的重要窗口期。”
从“能说”到“该不该说”,从“生成”到“对生成负责”,是新型信息服务绕不开的门槛;当技术进入公共传播场域,其影响已不止于产品体验,更关系到社会信任与公共秩序。以法治划定边界、以责任落实治理,推动平台完善规则、企业强化自律、公众提升辨识能力,才能让技术进步更稳定地服务公共利益。