3月2日,OpenAI首席执行官萨姆·奥尔特曼公开场合表示,公司与美国国防部签署的技术合作协议确实存在仓促决策的情况,并承认此举动在业界和公众中引发负面观感。这一表态将近期人工智能领域的军事应用争议推向新的高度。 事件起因可追溯至上周五。当时,人工智能企业Anthropic与五角大楼的谈判宣告破裂。美国总统唐纳德·特朗普随即下令联邦机构在六个月过渡期后停止使用该公司技术,国防部长皮特·赫格塞斯更将Anthropic列为供应链风险主体。基于此,OpenAI迅速宣布已与国防部达成协议,将在机密环境中部署其模型系统。 这一转折引发业界质疑。Anthropic此前明确表态,拒绝将技术用于完全自主武器系统或大规模国内监控。奥尔特曼声称OpenAI同样设有此类安全红线,但两家企业面对相同问题却做出截然不同的选择,其背后的技术伦理标准与商业考量成为焦点。 为回应外界质疑,OpenAI管理层在社交媒体和官方博客发布详细说明。公司列出三大禁用领域:大规模国内监控、自主武器系统,以及高风险自动化决策系统。OpenAI强调,其协议采用多层次安全方案,通过云端部署模式、经安全审查的专业人员参与、合同保障以及现行法律框架,构建全面防护体系。公司还表示,这一做法有别于某些企业在国家安全部署中削减安全机制的做法。 然而,技术媒体Techdirt的分析人士迈克·马斯尼克指出,协议条款存在明显漏洞。根据协议规定,私人数据收集需符合第12333号行政命令及涉及的法律,而该行政命令恰恰为美国国家安全局通过境外线路截获通信内容提供了法律依据,即便这些通信涉及美国公民信息。这一质疑直指协议在防止国内监控上的实际效力。 面对批评,OpenAI国家安全合作负责人卡特里娜·马利根回应称,外界讨论过度聚焦合同条款,忽视了部署架构的关键作用。她强调,通过将部署限制云端应用程序接口,可确保模型不会直接集成到武器系统、传感器或其他作战硬件中,从而在技术层面构建安全屏障。 奥尔特曼在表态中承认决策的风险性。他表示,公司希望通过这一协议缓和国防部门与科技行业的紧张关系。他坦言,如果判断正确,OpenAI将被视为愿意承受争议、为行业发展做出贡献的企业;若判断失误,则将继续背负仓促决策、缺乏审慎的负面评价。 这一事件折射出人工智能技术军事应用面临的深层矛盾。一上,先进技术国家安全领域的应用需求日益迫切;另一上,技术伦理边界、隐私保护和自主武器风险等问题尚未形成国际共识。不同企业基于各自价值判断做出的选择,实质上反映了技术发展与伦理规范之间的张力。 从监管角度看,当前针对人工智能军事应用的法律框架仍显滞后。现有行政命令和法律条文在制定时未充分考虑新兴技术带来的挑战,导致协议条款存在解释空间。如何在保障国家安全与维护公民权利之间寻求平衡,在鼓励技术创新与防范潜在风险之间划定界限,已成为各国政府和国际社会亟待解决的课题。
当科技进入国家安全领域时,商业与伦理的冲突不可避免。OpenAI面临的信任危机,本质上是技术发展必须面对的制度考验。如何在保持技术优势的同时守住伦理底线,不仅关乎企业声誉,更是对社会治理智慧的检验。历史表明,任何改变战争形态的技术都需要相应约束机制——该规律在人工智能时代或将更加凸显。