OpenAI 的形势变化

OpenAI 硬件部门的一位重要人物已离开公司,这标志着业界在将安全与快速创新之间的权衡上出现了一个转折点。Caitlin Kalinowski 指出她认为需要更深入审视的两个核心问题:在没有司法监督的情况下对美国公民进行监控的可能性,以及在没有人工授权的情况下部署致命的自主系统。

这一决定正值 OpenAI 最近与美国战争部(Department of War)的接触之际,这一举动放大了关于安全边界、问责以及人工智能在国家安全领域的运用范围的辩论。

辞职及其背后的信息

在社交平台 X 上发布的消息中,Kalinowski 将这一选择描述为困难但出于原则。她认为,尽管人工智能在国家安全领域有重要作用,但她强调的两条红线应得到比当时的流程更周密的审议。

背景

这一事件发生在人工智能开发者与该领域其他主要参与者之间紧张局势的背景之下。在 Kalinowski 离任之前,Anthropic 就武器化与大规模监控的安全措施与战争部存在分歧。OpenAI 通过寻求政府合约介入此事,这一举动引发了行业观察家和安全倡导者的广泛关注。

高层对安全与速度的看法

OpenAI 的领导层公开承认了进度问题。首席执行官萨姆·奥特曼(Sam Altman)表示,某些步骤推进过快,并澄清美国战争部不会在美国情报机构中使用 OpenAI 工具。他强调,未来的工作将更为审慎,在政府合作下进行安全防护和全面风险评估。

Kalinowski 的下一步计划

根据她的 LinkedIn 资料,Kalinowski 曾领导 OpenAI 内一个快速扩张的机器人项目的规划与运营。她表示将休整一段时间后再转入专注于构建负责任的具身人工智能的岗位,标志着在现实世界机器人工作中向治理与实际安全性的转变。

这对 AI 领域有何意义

这一辞职凸显了政府合作在塑造 AI 能力方面应走多远的持续辩论。随着主要实验室推进快速开发,政策制定者与行业声音都在呼吁设立更清晰的安全边界,以在保护公民自由的同时继续推动创新。

来源:PC Gamer,2026 年 3 月 9 日;有关 Anthropic 与战争部讨论的背景;Kalinowski 与 Altman 的陈述。