加载失败
这场讨论围绕 Anthropic 的 Claude Code(一个用于读写代码仓库的命令行代理)展开,争议点集中在 Pro/Max 订阅的 token 限额、5 小时会话窗口和模型质量变化。评论里频繁提到 Sonnet 与 Opus 等不同模型档位,以及用户把它当 copilot 还是 autopilot 的两种工作流。Anthropic 之前发布过关于 Claude Code 的 postmortem,承认 reasoning effort、闲置会话的 thinking cache 和 verbosity 调整曾引入退化,但用户是否相信这些解释仍有分歧。讨论也延伸到 OpenAI Codex、Gemini、Qwen、Kimi、DeepSeek 以及本地推理工具(如 LM Studio、llama.cpp、Ollama),并牵涉到订阅锁定、版权和开放权重模型的可行性。
很多人最直接的不满不是模型本身,而是 token 计费和 session 限额越来越像黑箱。有人说一个普通提问就把当天额度打满,也有人遇到 Sonnet 中等 effort 直接跑到 32000 output token 上限,再被额外扣费。5 小时窗口、缓存 TTL 缩短、默认设置被悄悄改动、会话恢复后重新载入上下文等变化,让人不得不围着产品的“游戏规则”安排工作。更糟的是,支持被描述成机器人回复、拒绝退款、缺乏明确公告,用户对产品沟通的信任被快速消耗。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
另一条主线是人们感觉 Claude 在 4.5 之后明显退步,尤其是 4.6/4.7 的稳定性和记忆力。评论里反复提到会漏需求、写重复代码、偷偷引入技术债、忘掉上文,甚至在长上下文里做出很离谱的决定。也有人引用 Anthropic 的 postmortem,认为 reasoning effort、thinking cache 和 verbosity 调整确实造成过问题,但许多人觉得这不足以解释最近持续的劣化。少数回复则表示自己没遇到退化,说明体验可能和任务类型、时段或使用方式强相关。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
不少人并不把 Claude 当成自动写完整应用的机器,而是把它当 copilot:先自己定架构,再把小而清晰的子任务丢给模型。常见做法包括先写 spec 或计划,再让它逐步实现、写测试、做 review,或者用第二个 agent 复核第一个 agent 的输出。支持者认为这样能显著减少手腕负担、加快 debug 和重构,尤其在 greenfield 或边界清晰的任务上效果最好。反对者则指出,一旦必须不断审查、纠错和补上下文,节省下来的时间可能还不如自己直接写。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13]
不少人已经开始转向 Codex、Kimi、Qwen、DeepSeek、Gemini,或者本地运行的 LM Studio、llama.cpp、Ollama、OpenRouter、Aider、Pi、Crush、Swival 等工具链。有人觉得这些模型在特定任务上已经足够好,配合 Claude Code 兼容 harness 甚至更灵活;也有人强调本地方案带来更稳定的行为、固定成本和更好的隐私控制。另一部分回复则提醒,硬件、量化、吞吐和配置复杂度仍然是本地推理的门槛,尤其在大上下文和重度编码场景下。这个分支的核心不是“谁永远最好”,而是尽量降低对单一厂商的依赖。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
更宏观的担忧是:一旦把工作流建立在某家闭源订阅上,就很容易被价格、容量和策略变化绑架。评论里反复出现 enshittification、vcware、rug pull 这类说法,认为厂商先用补贴和高质量把用户吸进来,之后再靠提价、降级或改默认设置回收利润。另一条争论线是版权:有人认为训练和输出是 transformative fair use,另一些人则把它视为版权洗白,主张开放许可、公共领域或合法授权的语料才更可持续。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
Claude Code: Anthropic 的命令行编码代理,可读取仓库、执行工具并辅助改代码。
context window: 模型一次能看到的上下文长度,决定它能同时记住多少代码和历史。
token metering: 按 input/output token 计费和限额的机制,直接影响订阅可用性。
prompt caching: 把已处理过的上下文缓存起来以降低延迟和重复成本,缓存失效会让模型像“失忆”一样。
vibe coding: 把 AI 当自动写代码机,更多依赖模型直接产出而不是自己逐步控制。
enshittification: 产品先用补贴和体验吸引用户,之后通过降质、提价或限流逐步榨取价值。
open weights: 权重可获得、可自部署或可换供应商托管的模型,便于规避单一厂商锁定。