科技伦理争议再起:OpenAI机器人项目负责人因军事合作风险辞职

近日,OpenAI一位核心技术负责人的辞职决定,在业界引发广泛关注。凯特琳·卡林诺夫斯基作为该公司硬件与机器人工程负责人,仅在职不足一年半就选择离职,其背后的原因值得深入剖析。 事件的触发点源于上月底OpenAI与美国国防部达成的合作协议。2月28日,OpenAI首席执行官山姆·奥特曼宣布,五角大楼获得在其分类网络中使用OpenAI人工智能模型的权限。该消息公开后,立即引发舆论风波。相比之下,竞争对手Anthropic公司此前因坚持在合同中加入更严格的伦理限制条款而被拒,甚至遭到美国国防部长的公开批评。OpenAI最终接手了这笔合作。 用户反应的激烈程度超出预期。协议宣布当日,ChatGPT的卸载量较前一天激增295%。一场名为"退出GPT"的社交媒体运动迅速蔓延,三天内支持者超过250万。Anthropic旗下的Claude应用趁势超越ChatGPT,成为美国日均下载量最高的应用。面对舆论压力,奥特曼在3月3日承认仓促推出该合同——并宣布修订条款——明确AI系统不应被故意用于针对美国人员和公民的国内监控。 然而,问题的症结在于这一修订的局限性。卡林诺夫斯基所看到的,是比公众讨论更加具体和令人担忧的现实。作为硬件与机器人工程部门的负责人,她面对的不是抽象的伦理讨论,而是实实在在的技术现状——她的团队正在为人工智能系统配备物理形态,包括机械臂、移动底盘和视觉感知系统。当OpenAI与国防部的合作从模型使用扩展至未来可能的具身AI军事应用时,这项工作的性质发生了根本改变。 自主武器领域的研究人员长期以来就在警示这一发展方向的危险性。根据现行美国国防部政策,自主武器在使用武力前并不要求必须获得人工审批。换言之,OpenAI签署的合同在技术层面并未阻止其模型成为自主决策杀伤系统的组成部分。乔治敦大学政府采购法讲师杰西卡·蒂利普曼指出,修订后的合同措辞仅要求五角大楼不能用OpenAI技术违反现有法律和政策,但自主武器领域本身就存在监管空白。这意味着修订条款实际上并未提供像Anthropic那样的实质性伦理保障。 牛津大学的治理专家也持相似观点,认为OpenAI的协议难以有效弥补AI驱动的国内监控和自主武器系统在法律框架上的不足。这些专业人士的评估为卡林诺夫斯基的担忧提供了学术依据。她的离职,实际上是对这一监管困境的直接回应——一位亲手参与构建AI物理形态的工程师,用行动表达了对其创造物潜在用途的深刻忧虑。 这一事件也在更广层面反映了AI产业内部的价值观分化。当科技公司在商业利益和伦理责任之间做出选择时,不同企业体现出了截然不同的立场。Anthropic的坚守和OpenAI的妥协,向业界和监管部门传递了不同的信号,也为从业者提出了艰难的个人抉择。

从技术高管的离职到用户的强烈反应,再到合同的紧急修订,这诸多事件表明:当AI开始影响现实世界的安全秩序,仅靠"负责任"的承诺远远不够。社会需要建立可执行、可审计、可追责的制度框架。技术能力越强大,越需要明确的规则边界和落实的责任机制——这不仅是对公众权益的保障,更是行业健康发展的基石。