News Hacker|极客洞察

40 68 天前 forbes.com
🤨Claude 因政府合约疑虑、限流与性能问题失血,ChatGPT 用户回流
连五眼情报都互换了,你真信公司不卖你数据?

🎯 讨论背景

讨论源于新闻标题称 Anthropic 的 Claude(Anthropic 是一家 AI 公司,其大型语言模型为 Claude)在 ChatGPT 回流的背景下增长承压,部分原因是围绕与美国政府/国防部合作的伦理争议。OpenAI 的声明称“不会用于对美国人的国内监控”,但评论指出这只保护美国公民——在 n‑eyes agreements(如 Five Eyes 情报共享联盟)和 Project Maven(美国国防部的影像分析 AI 项目)等情境下仍存在隐私与伦理风险。用户在道德立场(是否抵制与军方有关的服务)与务实考量(价格、稳定性、模型在具体任务如代码生成或 Bazel/Starlark 构建规则上的实际表现)之间发生分裂。整个讨论把公司公关可信度、政府合同、以及 GPT-5.4、Opus、Codex、Gemini 等模型在现实用例中的表现交织在一起,形成复杂的迁移动因。

📌 讨论焦点

政府/军事合约与隐私担忧

大量评论把用户迁移归因于对公司与美国政府或军方合作的担忧。有人指出 OpenAI 只声明“不会用于对美国人的国内监控”,这反而让非美国用户更紧张——评论里还提到 n‑eyes agreements(如 Five Eyes 情报共享)会让单一国家的保证失效。对 Anthropic 自称设限的怀疑也很普遍:评论质疑这些声明是公关手段或“无牙的”,并提到公司内部因此产生人事震荡或回撤声明的报道,进而降低信任。总体讨论集中在政府合同、情报共享机制与公司公关可信性如何影响用户选择上。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]

道德考量与实际权衡

评论中存在明显分歧:部分用户把伦理问题(拒绝支持与军方相关的组织)放在首位,另一些用户则把性能、价格和可用性放在更重要的位置。有人强调在现实中很难做到“完全道德消费”,会在道德准则与工具价值之间权衡,有人认为即便无法 100% 符合也应选择更好的一方。也有观点认为 AI 正扩散到更广泛的经济场景,因此用户迁移可能更多由生产力与成本驱动,而非单一的伦理抗议。总体上评论呈现出“理想主义道德考量”与“务实的成本/效果权衡”并存的局面。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

模型性能与产品体验的具体对比

另一批评论把迁移归因于产品策略、限流和模型在具体任务上的差异。有人抱怨 Claude 的频繁限流和奇怪的使用策略(例如被限制只能用到 Claude Code、不能运行 Openclaw 等),这让转向 ChatGPT 成为容易的选择;同时有用户分享技术性对比:GPT-5.4 在自动生成单元测试方面表现突出,但在生成 Bazel/Starlark 的 build 规则时表现糟糕,Opus 4.6 在这类任务上更稳健。对 Gemini 的评价也分裂——有人说它在实验室条件下得分高但处理复杂现实问题欠佳,也有人认为 Gemini 在代码审查上很强。可用性指标(宕机率、定价)与具体任务表现共同驱动了工具选择,构成混合动因。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]

📚 术语解释

n‑eyes agreements / Five Eyes: 指多个国家间的情报共享机制(例如 Five Eyes 英语系情报联盟),评论中用来说明单一公司对某国公民的保护声明在跨国情报交换下可能毫无意义。

Project Maven: 美国国防部的影像分析 AI 项目,历史上引发科技公司与员工对参与军事用途的争议,评论中被用作企业参与国防合同的代表性例子。

Bazel: 由 Google 发起的开源构建系统(build tool),评论中用作生成构建规则的具体技术场景示例。

Starlark: Bazel 使用的配置/脚本语言(类似精简版 Python),评论中作为评价模型在生成构建规则时表现的衡量对象。

Codex / Opus: Codex(OpenAI 的代码生成模型)与 Opus(评论中提及的模型版本名,如 Opus 4.5/4.6),评论以这类具体模型版本对比代码生成、测试生成和任务稳定性。