奥特曼的双面博弈:前脚支持Anthropic反军方,后脚就签了美军机密合同
硅谷这场AI权力换位,从一开始就骗了所有人。
2026年2月27日,美国战争部正式将Anthropic列为国家安全供应链风险,勒令所有联邦机构停用其技术。数小时后,OpenAI CEO山姆·奥特曼高调官宣,与美国战争部达成协议,旗下模型将直接部署到美军机密军事网络中(来源:OfficeChai 2026年2月28日公开报道)。
全网都在说,这是一场“伦理败给商业”的经典戏码:Anthropic死守底线出局,OpenAI务实妥协赚得盆满钵满。但很少有人停下来,看清这场博弈里最讽刺的反转——OpenAI写进合同里的核心条款,恰恰是Anthropic用出局换回来的。
奥特曼在公开声明里明确写着,这份协议牢牢守住了两条安全红线:禁止将AI用于国内大规模监控,确保人类对武力使用负有最终责任,包括自主武器系统(说白了就是能自己决定是否开火、不用人实时操控的武器AI)。他特意强调,这两条原则已经被写入具有法律约束力的协议文本中(来源:山姆·奥特曼 2026年2月28日 X平台官方声明)。
我前阵子和一位硅谷AI安全合规领域的一线从业者聊天,他说了一句从未对外公开的行业真话:“和军方谈合作,没人愿意第一个站出来提红线。第一个提的人,大概率会被打成‘不爱国’;但只要有人把红线砸在了台面上,后面的人就能顺着台阶,把它变成合同里的白纸黑字。”
这正是这场事件最核心的盲区。Anthropic始终坚持,双方的僵局根源,是政府一开始就要求无限制的“任何合法用途”权限,没有给核心安全原则留下任何谈判空间(来源:Anthropic 2026年2月27日 公司官网公告)。它用自己的联邦业务、行业声誉甚至创始人的个人口碑为代价,把“AI军事应用的两条红线”,从公司的内部伦理准则,变成了全行业都无法回避的公共议题。
而OpenAI的合同,恰恰证明了美国军方从一开始,就愿意接受这些红线。那为什么非要把Anthropic踢出局?
【真正的赌局,才刚刚开始】
答案藏在美国战争部副部长埃米尔·迈克尔的两句话里。对OpenAI,他用极尽热情的语气写道:“当涉及到我们战士的生死问题时,在这个AI时代,拥有一个可靠、真诚合作的伙伴,意义重大。”(来源:埃米尔·迈克尔 2026年2月28日 X平台官方发文)而就在几天前,他还公开辱骂Anthropic创始人达里奥·阿莫迪,是“有上帝情结的骗子”。
这种180度的态度反转,戳破了这场博弈的本质:这从来不是伦理之争,而是美国军方对AI行业的一次“合规性筛选”。它要的不是AI公司的伦理底线,是行业的“服从性”——你可以有底线,但你不能用底线对抗我,你要坐下来,按我的规则谈。
我始终觉得,我们对这场博弈的解读,从一开始就陷入了非黑即白的误区。没人是绝对的圣人,也没人是绝对的恶人。Anthropic的离场,不是毫无意义的牺牲;OpenAI的签约,也不是毫无底线的妥协。
奥特曼前脚还在公开支持Anthropic,说自己不认为五角大楼应该用国防生产法威胁AI公司,后脚就签下了这份合同。这种看似矛盾的选择,本质上是两种不同的博弈策略:Anthropic选择用离场做警示,OpenAI选择用入场做约束。
但真正的考验,从来都不在合同的纸面上。OpenAI承诺会部署现场工程师全程监控模型运行,搭建技术层面的安全护栏,可这一切都将发生在外界无法触及的机密军事网络里。我们总在争论AI能不能用于战争,却很少问:当AI进入了没有阳光的黑箱,谁来监督它有没有遵守那些写在纸上的伦理红线?
AI伦理的最高境界,从来不是拍桌子离场,而是把你的底线,变成对手必须遵守的规则。但如果规则的执行,全靠对手的自觉,那这份规则,到底有多少分量?
这场博弈里,没有真正的赢家。最终的答案,要等这份合同在军事场景里真正落地的那天,才能见分晓。
你觉得,AI公司面对军方的合作邀约,是应该拍桌子离场坚守底线,还是坐下来把底线写进合同里?当AI进入机密军事网络,我们还能相信那些写在纸上的伦理红线吗?欢迎在评论区留下你的看法。AI垄断之争 ai垄断危机 AI职场真相 AI代码霸权 AI三大家 AI商业竞争
