News Hacker|极客洞察

722 12 天前 bloomberg.com
😬微软松绑 OpenAI:取消分成、放开多云与 AGI 争议
把 AGI 改成盈利门槛,就叫科学突破?

🎯 讨论背景

这次争议源自 Microsoft(微软)与 OpenAI(ChatGPT 背后的公司)重新谈判合作条款:旧协议大体上把 OpenAI 绑定在 Azure(微软云)上,并伴随 revenue share、IP 权利和与 AGI 挂钩的条款;新协议据说取消了 Microsoft 向 OpenAI 支付 revenue share,同时放松 exclusivity,让 OpenAI 能把模型放到 AWS(Amazon 的云服务)和 GCP(Google Cloud Platform,Google 的云平台)等平台。评论里补充说 OpenAI 还承诺继续购买大量 Azure 服务,并且 Microsoft 仍持有相当比例股权和部分 IP 权利,所以这不是简单“分手”,更像重新定价的长期合作。很多人把它放在 AI compute 紧缺、云厂商争夺 model providers、以及 OpenAI 试图企业化/上市的背景下理解。与此同时,AGI 触发条款被传为“1000 亿美元利润”这种商业定义,也让整件事更像合同和资本运作,而不只是技术路线之争。

📌 讨论焦点

合作条款重构

不少人把这份新协议看成一次“松绑”而不是纯让利。评论里普遍提到旧协议把 OpenAI 绑在 Azure 上,还伴随 revenue share 和某种 AGI 触发条款,而新版本取消了 Microsoft 向 OpenAI 支付 revenue share、放松了独占限制,但 Microsoft 仍保留股权、IP 权利和长期 Azure 采购。有人认为 Microsoft 这样做是在保护自己那笔巨额投资,也有人觉得 OpenAI 是靠威胁反垄断诉讼和争取多云能力才拿到更好条件。整体上,这一派把这次改约理解为双方从“捆绑婚姻”走向“可分手但还得合作”。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9]

TPU/GPU 与云生态

硬件话题里,Google TPU 被不少人当成潜在赢家,理由是很多 frontier lab 早就在用 TPU,而且 OpenAI 现在可能也会考虑上 TPU。反方则强调训练不是只看芯片算力,更看软件栈和互连:CUDA 生态、NVLink 带宽、以及 NVIDIA 的成熟工具链才是最难替代的部分。AMD 和 Apple 的路线被认为更适合 inference 或桌面端场景,但在大规模 training 上经常卡在软件 QA、网络驱动和部署体验。这个分歧本质上是在争论:决定 AI 供应链的是芯片本身,还是围绕芯片的生态和工程成熟度。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]

AGI 口径与估值

很多评论直接嘲讽 OpenAI 和 Microsoft 对 AGI 的定义,尤其是那个“系统能产生 1000 亿美元利润才算 AGI”的说法。大家认为这让 AGI 从技术目标变成财务门槛,甚至像是为融资、估值和合同条款服务的营销口径。也有人指出,OpenAI 公开 charter 里所谓“outperform humans at most economically valuable work”本来就更像经济替代指标,而不是科学定义。结果是,AGI 在讨论里被反复形容成 eschatology、话术,甚至只是把投资故事讲得更顺手的标签。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]

LLM 智能争论

另一大主线是在争论 LLM 到底是不是“智能”,还是只是高阶 next-token predictor。支持者拿 code review、数学、合同、RCA、以及不靠 tools 的算术任务举例,认为模型已经能做出有用的推理和抽象,至少不是简单的 stochastic parrot。反对者则强调它们没有真正的自主目标、长期记忆和持续运行状态,离开 prompt 就什么都不做,因此更像强力工具而不是会思考的主体。很多人最后落到一个务实结论:把它当工具用、让人类负责结果,别把“看起来像会思考”误当成真正的 general intelligence。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14] [来源15]

微软/Azure 执行力

有人把这笔交易理解成 Microsoft 在承认自己更适合做 distribution 和 cloud infra,而不是去争最强模型。评论里对 Azure、Teams、SharePoint、IPv6、Copilot 的抱怨很多,核心意思是微软产品经常功能堆得多但体验和可靠性一般,所以它更可能接受“够用的 AI + Office 365 套餐”这种路线。也有人说 Microsoft 其实只是想把 compute 占住、把 OpenAI 的流量变成自己的云收入,而不是真正押注模型领先。少数更悲观的看法则认为这只是公司在以更漂亮的说法掩盖自己落后于 Anthropic 和 Google。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14]

PR 改稿与免责声明

不少人注意到微软/OpenAI 的公告和新闻稿被反复改写,甚至评论区出现了“我刚看时还不是这个版本”的反馈。有人把这理解成临时公关接管,也有人吐槽连 HN 的原始链接都被换成了 Bloomberg 文章,说明外界根本拿不到一个稳定、可核对的原文。另一条支线是对“opinions are my own”这种免责声明的嘲笑与辩护:一方觉得这是过度表演,另一方则提醒大公司社交媒体政策和法律风险确实会让人这么写。这个主题反映的是对 corporate PR 和个人身份边界的普遍不信任。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13]

📚 术语解释

AGI: Artificial General Intelligence(通用人工智能);在这串讨论里常被拿来指“能替代大多数经济性工作的系统”,也被讽刺成利润指标。

TPU: Tensor Processing Unit,Google 自研的 AI 加速芯片,评论里被视为推理和训练的强势替代路线。

CUDA: NVIDIA 的 GPU 计算软件生态,也是很多人认为最难跨过去的训练护城河。

NVLink: NVIDIA GPU 之间的高速互连技术,用于大规模训练时提升带宽和扩展性。

inference: 模型推理阶段,即模型部署后实际生成答案或执行预测的过程。

Azure: 微软的云计算平台,也是 OpenAI 过去最重要的独占云基础设施。

Bedrock: AWS 的模型托管与调用平台,企业可通过它直接接入第三方模型。