近日,Meta因未成年人使用生成式聊天机器人时可能接触不当内容的问题,再次受到美国舆论和监管机构的关注。新墨西哥州总检察长办公室公布的内部文件显示,Meta在如何管理未成年人与AI聊天机器人的互动上存分歧。文件指出,虽然公司管理层明确禁止机器人与未成年人进行露骨对话,但对于是否通过家长控制功能更限制或关闭该功能,内部意见不一。有员工曾建议启用家长控制以禁用面向未成年人的生成式功能,但此提议未被采纳,据称是出于“管理层决定”。Meta回应称,涉及的文件被断章取义,公司重视未成年人保护,并已在平台部署多重安全机制。 问题:保护措施与产品发展的矛盾 此次披露的内容与之前的争议表明,核心问题在于生成式聊天机器人的开放式对话能力可能在复杂语境或诱导性提问下输出不适宜未成年人的内容,甚至涉及性暗示或不恰当的角色扮演。此前媒体调查发现部分对话存在越界风险,凸显平台内容安全和年龄保护机制的不足。新墨西哥州的诉讼指控Meta未能有效阻止未成年人接触性相关内容,并援引内部数据称每天可能有大量未成年用户遭遇骚扰。此案即将进入庭审阶段,平台的责任边界将面临进一步审视。 原因:技术挑战与商业利益的平衡 分析指出,生成式产品的治理困境源于两上:一是大模型的动态输出特性使内容审核难度大增,传统的关键词过滤或事后处置难以应对多轮对话中的风险升级;二是平台产品增长、用户体验与合规成本之间存在张力——更严格的限制可能降低产品吸引力,而宽松策略则可能增加法律和舆论风险。内部对“家长控制”的分歧反映了公司在风险容忍度和责任分配上的不同立场。 影响:法律、声誉与行业示范效应 当前争议可能从三上影响Meta:首先,诉讼可能导致罚款、整改等后果,并引发更多监管审查;其次,“防护不足”的指控可能加剧公众不信任,损害品牌形象;最后,作为行业头部企业,Meta的治理选择将产生示范效应——若缺乏可靠保护机制可能招致更严监管,反之则可能为行业树立合规标杆。 对策:从承诺到可验证的治理 针对未成年人保护的挑战,业界普遍认为需采取更主动的治理措施:平台应加强年龄识别和分级访问机制,默认关闭高风险功能;优化家长控制工具,提供对话限制、风险提示等功能;同时提升透明度便于监督。监管机构需明确平台的注意义务并推动第三方评估。此外家庭和学校应加强数字素养教育帮助未成年人识别风险。 前景:合规门槛提高 安全能力成竞争关键 随着生成式技术融入更多应用场景未成年人保护将成为企业的重要考验未来年龄验证默认保护和数据追踪等规则或趋严仅靠临时关闭功能或口头承诺难以应对长期挑战将安全措施产品化并通过透明度赢得信任或成为企业持续发展的关键Meta近期暂停青少年账号访问相关功能并表示将推出更多家长工具其实际效果有待实践和司法检验
Meta的事件再次凸显科技企业在创新发展中需兼顾社会责任未成年人网络安全不仅是企业议题更是全社会关注的焦点如何在技术进步与用户保护间取得平衡将是数字经济发展的重要课题此次事件或为行业监管提供新的思路推动更完善的保护机制落地