首页 > 滚动

从Anthropic风波看AI军事化应用风险

2026-03-04 07:50 来源:环球时报
查看余下全文
(责任编辑:邓浩)
首页 > 滚动

从Anthropic风波看AI军事化应用风险

2026年03月04日 07:50 来源:环球时报 李艳
[字号 ]

当Anthropic这家美国本土AI公司被政府贴上“供应链风险”的标签,这场刚刚发生的风波,绝非简单的美国内部政企分歧,而是一场关于技术、权力、战争与伦理的激烈碰撞。整件事的脉络并不复杂,却充满强权碾压与极限翻转的戏剧张力。

2025年夏,美国国防部主动向Anthropic抛来合作橄榄枝:两亿美元的合同,让它的Claude大模型顺利进入美军涉密网络,承担情报分析、战场模拟、网络防御等核心任务。一时间,这家AI公司成为美国军方最倚重的技术伙伴。谁也没想到,短短半年后就出现反转。

今年1月,五角大楼突然提出要求,让Anthropic移除模型中两项安全限制:一项是禁止用于美国国内大规模监控,另一项是禁止用于全自主致命性武器。面对军方的要求,Anthropic没有立刻照单全收,它的犹豫很快引来更直接的施压。2月下旬,美国国防部长发出最后通牒,要么无条件服从,要么取消合同、列入黑名单。面对压力,公司CEO阿莫迪还是没有松口,仍然提出只支持防御性用途和逐案审查军事需求。最后通牒当天,Anthropic正式被美国列为国家安全供应链风险实体,联邦机构全面停用。几乎同一时间,OpenAI火速补位,接受政府的所有合作条款,接过了原本属于Anthropic的军方合作。

这场快速反转的戏码,把美国科技领域政企关系的潜规则暴露无遗。美国政府一旦祭出国家利益大旗,再顶尖的技术、再坚持的企业,都必须低头。其实这样的故事,在美国科技史上并非第一次上演。2015年那场苹果与FBI之争,至今让人记忆犹新。

当时圣贝纳迪诺恐怖袭击案发生后,FBI以反恐为名,要求苹果公司为涉案手机开发专属破解工具,受到苹果CEO库克以确保用户隐私为由公开拒绝。那场对峙持续数月,最后FBI依靠第三方技术破解了手机,此事草草收场。彼时争论的是数据隐私与政府权力边界,如今Anthropic面对的是AI军事化与伦理底线,看似主题不同,内核却完全一致:美国政府始终试图将科技公司工具化,无论企业是出于自身商业利益考虑还是为了坚守科技伦理底线,只要它在事实上不能满足美国政府要求,遭到“收拾”的戏码就会不断重演。

在谈到为何自己要坚持“红线”不退让时,阿莫迪说,现在AI正进入快速迭代期,算力每四个月就会翻一倍,这种前所未有的创新速度使人类面临不可预测的黑盒效应,作为创造这些模型的人,没有人比他们更清楚“没有刹车片”的应用会有多危险。阿莫迪在接受媒体采访时苦笑着说,直到现在,他们都没有接到任何正式的官方文件,所有的封杀与指控都是在“社交媒体”上完成的,总统特朗普也是发推文批评其“不顾国家安全”。但换个角度看,因为没有正式文件,事件或还有转圜的余地。

当然,对外界来说,美国内部后续会如何调停此事并没那么重要,各方更加关注Anthropic被封杀背后一个更加让人不安的真相:AI的加速军事化或因此面临失控的风险。令人感到嘲讽的是,在美以对伊的军事行动中,被美国政府封杀的Claude大模型,据称依然在战场上发挥着作用:融合多源情报、秒级生成战场态势、精准识别军事目标、辅助打击决策。虽然现在对于这场军事行动中“AI含量”到底有多高,战争是否因为AI进入所谓“算法作战”新阶段尚无定论,但AI军事化应用的迹象与趋势是不言而喻的。

结合美国政府近来在AI军事化应用上的立场与态度,其核心要义无疑是追求绝对的技术领先,拒绝国际约束,强化AI军事部署与应用效能。美国政府在联合国框架下反对具有法律约束力的自主武器系统禁令,主张根据自愿性准则,拒绝国际监管。2026年1月,美国国防部发布《AI加速战略》,提出以AI赋能作战样式与能力建设,重塑未来战争形态,并要求移除影响其部署与应用的“制度性障碍”;2月,美国明确在“军事领域负责任使用AI峰会”上拒签《军事领域负责任使用人工智能宣言》。加上此次对Anthropic的“出手”,美国的种种迹象无疑给全球AI安全治理蒙上了一层浓重的阴影。

一直以来,国际社会都在呼吁建立包容、多边、有约束力的AI治理规则,希望约束技术的滥用,尤其是防止AI的军事化失控。然而,美国用实际行动告诉世界,为了自身的军事优势与地缘利益,它可以随意将科技供应链政治化,甚至不惜把自己的企业也打成风险实体,把AI变成地缘博弈的武器。这种做法的示范效应与外溢影响,将进一步加剧AI军备竞赛,使国际安全困境愈演愈烈。如此一来,技术发展越快,人类面临的风险就越大。

从苹果到Anthropic,从数据隐私到AI安全,美国一次次用强权碾压科技伦理,一次次把技术绑上霸权与战争的战车。当权力可以随意左右技术的方向,当霸权可以轻易撕裂伦理的底线,未来AI发展的最大风险可能不是“不可预测”的技术本身,而恰恰是“已在眼前”的不负责任应用。(作者是中国现代国际关系研究院科技与网络安全研究所所长)

(责任编辑:邓浩)