过去这个周末,在科技和国家安全领域绝非平静。五角大楼与AI公司Anthropic之间的合同纠纷,迅速与一次重大军事行动交织在一起,突显了人工智能在地缘政治战略和现实世界冲突中日益复杂的作用。

合同纠纷与伊朗打击

周五,国防部长皮特·赫格塞斯宣布Anthropic为供应链风险,似乎结束了紧张的谈判。在几个小时内,这场官僚冲突似乎可能从头条新闻中淡出。但这一情况在周六清晨发生了变化,当时美国对德黑兰发动了一次重大空袭,据报道涉及约100架军用战斗机,导致包括阿亚图拉·阿里·哈梅内伊在内的伊朗领导人死亡。

到周日,有报道称这个故事比最初看起来更加紧密相连。据《华尔街日报》报道,Claude驱动的智能工具——Anthropic的AI系统——在行动期间被多个美国军事指挥中心使用。虽然具体应用仍属机密,但《华尔街日报》指出,五角大楼已将Claude嵌入用于情报评估、目标识别和模拟战斗场景的技术中——这些技术显然在伊朗打击中得到了部署。

AI的复杂性与战略影响

这一事件突显了两个关键发展。首先,关于Anthropic所谓的国家安全风险的公开争议,可能更多是政治表演而非真正的关切。其次,也是更重要的,AI已达到一种复杂程度,能够促进精确的军事行动,甚至针对那些处于近乎全面互联网封锁的国家——正如伊朗在之前几个月的情况。

未来生命研究所的AI与国家安全负责人哈姆扎·乔杜里分析了长期影响。他指出,美国和伊朗已经在战争中使用AI,伊朗在最近的演习中部署了AI辅助导弹。乔杜里描述了一个“二元自动化战争”的新兴场景,其中两个AI系统通过动能行动进行通信,优化和响应速度超过人类决策者的跟踪能力。

他更令人担忧的评估集中在核威慑上。最近对冲突的分析表明,AI使得二次打击核力量更加透明和脆弱。虽然核武库仍然阻止全面战争,但AI降低了亚阈值侵略的门槛,并压缩了政治反应时间。如果对手认为其核威慑变得可追踪,理性的反应可能是扩大其武库或转向预警即发射姿态——在没有充分国际治理的情况下威胁全球稳定。

模糊的法律框架

与此同时,关于这些军事AI合同中存在哪些保障措施的问题仍然存在。同样获得五角大楼合同的OpenAI发布了摘录,声称其系统不会用于“无限制监控”美国公民的私人信息,引用了现有的安全法律。然而,法律专家指出,这一术语并非公认的法律术语,并且所引用的法律在历史上被广泛解释,以允许9/11后广泛的监控计划。

这里的实际权衡是明确的:公司希望通过看似施加道德边界来维持公众信任,而军方则在过去证明具有灵活性的法律框架内运作。这造成了一个治理缺口,既没有公开保证也没有现有法律提供明确的约束。

政治操纵与不明确的后果

政治层面增加了另一层混乱。总统唐纳德·特朗普周五关于Anthropic的社交媒体帖子包含了一个有条件威胁——仅在公司在逐步淘汰期间“不整顿行为”的情况下使用“总统的全部权力”。白宫观察家将此解读为一种降级策略,为谈判争取时间。

这一解读持续了大约九十分钟,之后国防部长赫格塞斯正式将Anthropic指定为供应链风险,宣布他的决定是“最终的”,并威胁要惩罚与该公司进行“任何商业业务”的国防承包商。科技行业陷入不确定性,不清楚“任何商业活动”意味着什么,或者非国防合同可能面临什么惩罚。

关于AI未来的更广泛辩论

在这场危机中,一场关于AI是否会使工作过时的单独辩论正在进行。论点范围从预测广泛的失业和社会动荡,到乐观的愿景,即AI增强人类工作并改善生活。双方都承认,企业利益可能负面引导结果,突显了深思熟虑的治理的必要性——这一必要性在周末事件中得到了尖锐的体现。

AI融入军事行动已不再是理论上的。该技术在一次高风险行动中展示了实际效用,同时成为华盛顿的政治足球。缺乏清晰的国际框架和国内法律保障的模糊性表明,我们正进入一个技术能力超越治理结构的时期。对于关注这些发展的娱乐和科技行业来说,实际启示是,AI在冲突中的作用已从推测性小说转变为操作现实,伴随着所有相关的伦理和战略复杂性。