News Hacker|极客洞察

61 10 天前 wheresyoured.at
💸AI经济争议:高毛利、按量计费与泡沫担忧
AI 经济说不通,估值怎么还能一路飞天?

🎯 讨论背景

这场讨论围绕一篇认为生成式 AI 的经济模型“说不通”的文章展开,核心争点是 LLM(大语言模型)到底是在靠补贴烧钱扩张,还是已经能靠真实毛利来覆盖推理成本。评论里频繁提到 Anthropic(Claude 背后的公司)、OpenAI、Cursor(AI 编程工具)、Perplexity(AI 搜索产品)和 DeepSeek(以低成本模型著称的公司),并拿 Opus、Sonnet、Kimi K2.6 等模型做价格和能力对比。争论焦点还包括 token 计费、cache 命中、reasoning models 的额外开销,以及订阅制和按量计费哪一种更适合 AI 服务。更大的背景则是市场对 AI 高估值、巨额 credit、以及“谁会先在推理成本上撑不住”的持续怀疑。

📌 讨论焦点

前沿模型并非在亏本卖

不少评论认为文章把 AI 推理成本和真实售价算得过于悲观。有人给出估算称,前沿模型厂商的毛利率可能仍在 80% 以上,像 Kimi K2.6 这类模型也能在每百万 token 4 美元的价位下保持盈利。评论还指出,cache 命中会让大量重复上下文便宜很多,实际“等效成本”远低于名义 API 价格。再加上硬件、架构、训练方法和 inference 优化持续进步,第一方厂商未必会像文章预言那样马上陷入补贴泥潭。

[来源1] [来源2] [来源3] [来源4]

按量计费的预算失控感

另一组评论强调,用户真正讨厌的是 metered billing 带来的不可控超支。和固定月费相比,模型一次请求到底会烧掉多少 token 很难预估,尤其是复杂提示、长上下文和 autonomous agents 连续运行时更容易把账单推高。有人把它类比成早年网站被 Slashdot、CI 重试循环失控,或者深夜自动任务疯狂耗钱的老问题。电费类比也被多次提起:只有当用量足够可预测、价格足够可承受时,这种“按用多少付多少”的模式才会显得自然。

[来源1] [来源2] [来源3] [来源4] [来源5]

泡沫论与反驳

最悲观的评论把这场争论看成 AI 资本泡沫的出清前夜。有人认为巨额 credit 和过高估值只是把问题往后拖,最终会演变成一场财务血洗,而不是平稳过渡。也有人点名更便宜、算力要求更低的模型会把市场拉回现实,让用户不必死守最贵的 frontier model。与此同时,另一部分人反驳说这并不意味着所有新技术都是 scam,真正危险的可能是依赖昂贵 API 的包装层,而不是模型本身。

[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]

📚 术语解释

token: 大模型计费与处理文本的基本单位,输入和输出通常都按 token 计算成本。

inference: 模型在推理、生成答案时进行计算的过程,也是主要运行成本来源。

cache / caching: 对重复输入或上下文的复用机制,可显著降低再次调用时的成本。

frontier model: 性能最强、最前沿的大模型,通常也是最贵、最耗算力的一类。

metered billing: 按实际使用量收费的计费方式,费用随调用次数、token 数或时长变化。

flat-fee subscription: 固定月费或年费订阅,不随每次调用单独计费,但常伴随隐性限额。