News Hacker|极客洞察

696 73 天前 techcrunch.com
🤥Anthropic CEO 指责 OpenAI 对军方合约“公然撒谎”
真有人还相信 Altman 这回没撒谎吗?

🎯 讨论背景

一封据称来自 Anthropic 高层的内部邮件在媒体与社群流出,指控 OpenAI 在与美国国防部的合同与对外表述上存在误导。事件核心是 Anthropic 以不允许用于“国内大规模监控”和“完全自治武器”为红线拒绝某些国防用途并要求更严格的 AUP,随后被国防部列为供应链风险(SCR)并改用 OpenAI。讨论同时牵涉到 Palantir(一个为政府提供数据整合和情报平台的公司)将 Claude 嵌入其 Maven 情报系统的报道、合同措辞如“all lawful use”在秘密法庭与行政权力下的模糊性、以及前沿模型对资金、人才和国防采购依赖带来的商业与伦理张力。

📌 讨论焦点

指控 OpenAI 公关误导与撒谎

大量评论认定 OpenAI 在对外宣称与国防部的合约条件“相同”时存在误导行为:Anthropic 表示 OpenAI 公布的条款实际上是含糊的“all lawful use”和表面上的“safety layer”,并非真正等同于 Anthropic 的红线。多个评论援引内部邮件与公开声明,认为 OpenAI 的高层刻意用模糊措辞安抚员工与媒体,同时在幕后与国防部协调以取代 Anthropic。有人还指出政治捐款与关系网可能影响合同分配,形成不对称的政治和商业优势。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

“all lawful use” 与国家监控风险

许多评论强调合同中“all lawful use”或类似措辞可能成为对政府滥用的免责条款:在秘密法庭(如 FISA)和行政令的背景下,“合法”可以被广泛解释,从而为大规模监控或灰色政策打开后门。评论反复提到 Snowden 事件和国家情报机构既往以“合法”名义扩展监控能力的历史,担心 AI 会把原本的被动数据整合升级为实时画像与目标优先级排序。有人还预期,一旦出事,厂商会以“黑箱/不知何故出错”为由推脱並拖延调查,形成事实上的免责链条。

[来源1] [来源2] [来源3] [来源4] [来源5]

对 Anthropic 与 Palantir 合作的伪善质疑

不少评论质疑 Anthropic 在对 OpenAI 道德指控时的自洽性,因为 Anthropic 之前与 Palantir(一个提供政府/执法的数据整合与情报产品的公司)有合作。反驳者指出 Anthropic 与 Palantir 的联手会把 Claude 嵌入政府情报工作流(例如被指在 Palantir 的 Maven 系统中用于目标优先级),因此所谓“不做国内监控或无人武器”的立场看起来有矛盾。支持 Anthropic 的人反驳称双方合同条款不同,Anthropic 对 Palantir 的使用有更严格的 AUP(Acceptable Use Policy)与约束,并非完全矛盾。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

财政与战略压力:军方资金、人才与市场考量

评论普遍指出前沿模型训练需要巨额资金,国防部是少数出得起长期账的买家之一;因此拒绝军方合同对 Anthropic 是高风险的商业赌注。有人分析称 Anthropic 可能赌的是声誉与人才吸引力:坚守红线短期损失合同但可能长期吸引对“安全/对齐”有要求的研究人才与用户。反面观点认为军方预算空间巨大且可能通过政策或列入供应链管控来惩罚不合作的厂商,短期内也有现实的现金流与资源压力。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

合同、法律与政府强制力的边界争论

评论就公司能否用合同限制政府使用技术展开辩论:一派认为私营企业有权在合约中设定 AUP 与使用限制,政府若签了合同就应遵守;另一派警示政府可以通过非常规手段(如行政命令、供应链风险认定、战时权力或监管压力)绕过或惩罚厂商。有人提到历史先例(如战时动员与 War Production Board)和司法程序的局限,担忧法律救济在政治化冲突中可能难以迅速或有效发挥。

[来源1] [来源2] [来源3] [来源4] [来源5]

技术能力、守护措施与“安全剧场”的分歧

讨论聚焦于模型本身能否靠所谓的“guardrails”或监督层防止滥用:很多人称这些外部过滤器或监控人员在战场/情报环境中是“safety theater”,因为模型无法判断更广泛的上下文(例如数据来源是否为国内民众、是否有人真正处在回路中)。另一些评论指出 Anthropic 的 Claude 在推理与拒绝不当请求上表现更好,可能源于训练方法或 AUP 实施,而 OpenAI 的策略被怀疑更易被“合法使用”措辞掩盖。也有技术派提醒:现有 LLM 并非最佳的实时目标识别或推断系统,误报/幻觉风险依然显著,特别是在自动武器或情报决策环节。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

📚 术语解释

SCR(Supply Chain Risk,供应链风险认定): 美国政府用来标记被认为可能危及国防/供应链安全的供应商或产品的行政/安全标签;被认定为 SCR 会影响供应资格、合同授予与采购链,评论中指 Anthropic 被贴上此类标签后被替换。

AUP(Acceptable Use Policy,可接受使用政策): 厂商对其 AI 服务允许与禁止用途的合同或服务条款,用来限制诸如国内监控、传播错误信息或用于武器化场景等用途;讨论中 Anthropic 与 OpenAI 的 AUP 是否实质不同是争议焦点。

human-in-the-loop(人类在回路): 一种安全/操作要求,指在关键决策(例如武器发射)中必须有人类监督并批准,而非完全由算法自动决定。合同与政策常以此作为道德或法律界线。

safety theater(安全表演/安全戏法): 评论中常用的批判性术语,指表面上的技术或组织措施看起来像是在保障安全,但在现实部署环境下无效或容易被规避,主要用于形容简单的过滤器、审计或“监督小组”无法真正阻止滥用。

Constitutional AI: 一种训练范式(Anthropic 常提及),通过给模型一套“宪章”或原则来引导其输出与行为,从而试图在训练时内建价值约束与拒绝机制。