问题:近日,美国科技企业OpenAI与美国国防部的合作计划美国国内引发强烈争议。部分用户以卸载应用、打低分等方式表达不满,舆论焦点集中在“技术是否会被用于追踪、监视美国人”等隐私与权利风险。面对质疑,OpenAI负责人公开表示将修改与国防部的协议文本,增加更为明确的限制性表述:涉及的系统不得被故意用于对美国公民或居民进行国内监控,并强调须遵守美国宪法第四修正案以及多项与国家安全、对外情报相关的法律框架,同时要求采购和使用环节避免通过商业渠道获取可识别个人信息用于监控目的。 原因:一是安全需求与权利保障之间的张力加剧。近年来,生成式技术在情报分析、网络安全、反欺诈等领域的应用空间扩大,但其对数据的高度依赖也带来“用途外溢”风险,一旦缺乏清晰边界,容易引发对“技术被滥用”的担忧。二是信息发布与沟通节奏失当。OpenAI负责人坦言此前发布过于仓促,复杂议题未能充分说明,容易被解读为在敏感节点“投机取巧”。三是行业竞争与政策环境叠加影响。此前,另一家美国人工智能公司与五角大楼沟通受挫后,美国政府部门对其采取限制性措施并将其列入供应链风险关注对象。此背景下,OpenAI迅速宣布其模型将进入机密环境部署安排,更放大了外界对“合作边界”的审视力度。 影响:从产业层面看,科技企业与政府机构的合作将面临更严格的合规审查与舆情压力,“能做什么、不能做什么”需要以可核验的制度文本加以固定,否则将对品牌信誉与市场表现造成冲击。从治理层面看,此事再次凸显生成式技术在公共部门应用的两难:一上,国家安全部门希望借助新技术提升分析与响应效率;另一方面,公众对隐私权、正当程序、监督机制的要求同步提升,任何模糊空间都可能引发对权力扩张的担忧。对美国国内政治生态而言,相关争议也可能更推动立法与监管趋严,促使政府采购、数据留存、审计追责等规则更加细化。 对策:业内人士认为,避免类似争议升级,需要多管齐下。其一,合同与技术规范上“写清楚、可执行”。除明确禁止条款外,还应配套用途限定、访问控制、日志留存与第三方审计等机制,形成从制度到技术的闭环。其二,强化透明沟通与风险评估。涉及国防、情报等高敏场景的合作,应在合规框架内尽可能披露边界与监督安排,减少公众误解空间。其三,完善数据治理。对个人信息的获取、处理、共享与删除应建立严格流程,降低通过商业数据拼接实现“画像追踪”的可能性。其四,推动行业形成共同底线。围绕“不得用于大规模国内监控、不得用于完全自主武器”等红线,企业间虽存在竞争,但在安全与伦理层面需要更一致的自律与外部评估。 前景:随着生成式技术向政务、国防、公共安全等领域渗透,类似争议预计仍将出现。未来合作模式可能呈现三上趋势:一是“条款更硬”,以更细致的法律引用、用途限定与违约责任降低不确定性;二是“审计更强”,政府与企业将更依赖独立评估、持续监测与可追溯机制来换取社会信任;三是“应用更分层”,在机密环境、非机密环境、公共服务等不同场景下,采用差异化模型与数据策略,以控制风险外溢。对企业而言,能否在安全需求与权利保障之间建立可验证的平衡,将成为其获得公共部门订单与社会认可的关键变量。
科技企业与政府的合作是大势所趋,但必须建立清晰的伦理和法律框架之上。OpenAI此次修订协议既是对公众关切的回应,也是对自身责任的确认。这提醒我们,AI技术的发展不应由市场或权力单上主导,而需要企业、政府与社会各界的共同参与和制约。唯有创新与伦理并重,技术进步才能真正造福社会。