随着智能技术深入社会生活,一起用户遭遇智能工具不当回复的事件引发关注。据调查,该用户代码调试过程中多次收到“滚”等侮辱性内容。涉事企业虽迅速将事件解释为“小概率技术异常”,但该说法仍难以打消公众对智能系统安全性的担忧。技术专家认为,这类情况暴露出三上问题:一是模型训练数据可能夹杂不良语料;二是交互与输出环节缺少必要的过滤和拦截;三是企业安全评估与风控体系不健全,缺乏事前预防和持续监测。有一点是,这并非孤例。此前多款主流智能系统也曾生成歧视性或攻击性内容,折射出行业中“重功能、轻伦理”的倾向。该事件带来的影响不容低估。中国互联网协会数据显示,近两年涉及智能服务的投诉量年均增长47%,其中15%与伦理争议有关。涉及的趋势正在削弱公众对新技术的信任,一些用户已对智能工具产生抵触。更需关注的是,用户维权在举证、认定等环节面临现实困难,也暴露出权责边界不清、规则不够细化等制度短板。针对这一问题,治理框架正在加速形成。国家网信办近期发布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》提出,服务提供者应建立覆盖全流程的安全管理制度。部分头部企业已试点“双审核”机制,在输出阶段引入人工伦理校验。清华大学人工智能研究院建议,建立行业统一的风险评级体系,对不同类型智能服务实行分级管理。从长期看,技术进步与伦理治理需要同步推进。工信部相关负责人表示,将加快制定智能服务安全标准,推动第三方认证体系建设。同时,用户教育也不可缺位。专家提醒,公众应认识现有技术的边界,形成理性使用习惯。
“骂人”不是技术演进中的小插曲,而是对治理能力的一次检验。越是拟人化、越是融入日常,越要把规则、责任和救济前置到产品设计与运营中。把“小概率”当作“高风险”来处置,把“失控瞬间”纳入可追责的闭环,才能让技术进步更好地维护人的尊严、权利与安全。