一、问题的浮现 上周五,OpenAI宣布与美国国防部达成合作协议,明确其AI系统军事领域的使用范围。消息一出,社交媒体迅速出现强烈反弹。不少用户认为,这与OpenAI创立时“造福人类”的初衷相悖,也动摇了外界对其伦理承诺的信任。 更敏感的是时间点——协议公布仅数小时后,美国与以色列对伊朗发动军事行动,造成伊朗高层人员及大量平民伤亡。尽管两者并无直接因果,但这个前后衔接加剧了公众对OpenAI技术可能被用于战争的担忧。 二、竞争对手的对比效应 与OpenAI的选择形成对照的是Anthropic的立场。这家由前OpenAI员工创立的公司曾明确拒绝五角大楼的要求,坚持其Claude模型不得用于自主武器系统或大规模监控。据称,即便美国国防部以“供应链风险”为由施压,甚至传出将其列入黑名单、没收技术等威胁,Anthropic仍未松口。 这种对比让OpenAI的决定显得更突兀:在同样面对政府压力的情况下,一家选择合作,另一家选择拒绝。 三、用户反应与市场冲击 用户的反应来得又快又猛。社交媒体上出现大量“卸载ChatGPT、转向Claude”的呼吁,从普通用户到公众人物都表达了类似态度。Reddit上一条题为“你们现在正在训练战争机器”的帖子迅速走红,成为该社区历史点赞最高的内容之一。 舆论很快反映到市场端:Claude在苹果应用商店的排名迅速攀升,周末冲至榜首,并在随后工作日仍保持第一;ChatGPT则跌至第二。这一变化被不少人视为对OpenAI商业信誉的直接冲击。 四、奥特曼的危机应对 面对舆论风暴,奥特曼迅速进入危机应对状态。他罕见地在社交媒体上举行问答,试图回应外界质疑。奥特曼表示,OpenAI与国防部的协议包含与Anthropic类似的限制条款,包括禁止用于自主武器和大规模监控。他还称,若国防部提出违宪要求或要求进行非法监控,OpenAI会拒绝,必要时愿意承担法律后果。 但他的回应也暴露出更深层争议。奥特曼对军方表现出高度信任,称“军队中的人比普通人更忠于宪法”,并把国防部官员的口头承诺作为信任基础。这种表态引发大量批评:不少用户认为,依赖一个“常常不透明、甚至被指不实陈述的政府”的承诺来建立信任并不可靠。批评者还指出,他似乎低估了先进监控技术被用于现实政策执行的风险,也忽略了历史上权力被滥用的前例。 五、伦理困境的深层反思 事件折射出AI企业面临的根本矛盾:一上,与政府合作意味着资源、订单和市场机会;另一方面,企业又承诺遵守伦理底线与社会责任。当两者发生冲突时,企业的真实选择会更清晰地体现为来。OpenAI的决定让不少人担心,在足够的商业或政治压力下,伦理承诺可能被让位于现实利益。 同时,这个问题并不止于“是否合作”。有报道称,美军方甚至可能在伊朗目标筛选中使用过Claude。这意味着即便企业拒绝直接合作,其技术仍可能以其他路径进入军事场景,深入增加了AI企业在“可控性”与“责任边界”上的难题。 六、前景与启示 这场争议很可能对AI行业产生持续影响。它表明用户和公众对AI公司的伦理立场有明确期待,一旦企业被认为背离这些期待,舆论与市场会迅速给出反馈。对OpenAI而言,这份“观感很差”的协议所带来的信任损耗,可能需要更长时间修复。 更重要的是,争议再次抛出关键问题:AI企业如何在国家安全需求与伦理原则之间划定边界?政府又该如何规范AI在军事领域的应用?这些问题的答案,将深刻影响AI产业下一阶段的走向。
技术越强大,越需要边界清晰。此次争议提醒各方:面对具有深远社会影响的通用技术,单靠企业自我声明难以消解公众疑虑,单靠行政需求也难以替代社会共识。以透明规则守住底线、以制度审计增强信任、以公开对话凝聚共识,才是推动技术真正服务公共利益的长久之道。