加载失败
Anthropic(AI公司)对外宣布发现MiniMax、DeepSeek、Moonshot(被指为第三方模型/团队)以大规模交互方式对其对话模型Claude进行distillation的证据,报告称使用约24,000个伪造账号进行了约1,600万次交互。Distillation(模型蒸馏)指用目标模型的输出作为训练数据来复制其行为,这类做法可以通过API或伪造账户规模化生成示例并用于训练新模型。讨论集中在道德与法律矛盾:许多人指出前沿公司长期依赖Common Crawl(公共网页抓取数据集)和大量抓取受版权内容训练foundation models(大型基础模型),因此对蒸馏的指控被视为双重标准或伪善。评论还延伸到监管可行性、TOS与法律的区别、成本与能耗影响以及蒸馏在现实中难以完全防御的技术细节。
大量评论认为Anthropic对蒸馏提出控诉具有伪善性——行业内前沿公司长期依赖大规模抓取公共与受版权保护内容训练模型,且Anthropic自身也被指控未经授权使用受版权内容并正面临诉讼。评论提到既然大厂可以“蒸馏/抓取”互联网与人类文化以构建基础模型,就不应对他人用API或伪造账户提取模型能力表现出同情。言辞中充满讽刺和报应感,强调“你们自己做过的事现在被做回你们头上”。讨论把伦理批判具体化为对公司言行不一致和行业道德边界的质疑。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
许多评论把MiniMax、DeepSeek、Moonshot等公开或可用的蒸馏模型视为对封闭昂贵模型的有效补充,强调蒸馏能把前沿性能以大幅更低成本带给更多使用者。具体论据包括评论中提到的“以原模型90%性能、仅为1/10或1/20成本”的说法,以及蒸馏让小型本地模型和在本地部署成为可能,从而促进去中心化与可及性。评论者还举出OpenRouter等平台上可直接调用这些模型的实例为证,认为若公司不释放权重,其他团队终会把开源或可用权重放出市场推动竞争。
多条评论指出蒸馏行为通常违反API的TOS但不一定构成非法,因而通过法律完全禁止很难实现。有人认为除非厂商停止向公众出售API或监管能做到极严密的访问控制,否则规模化调用和伪造账户仍能实现蒸馏。另有观点警告监管捕获风险:Anthropic在对外表述时明显在向监管机构发声,试图用“安全”“风险”话术争取有利规则,但执行和证明蒸馏归属的技术/法律困难仍然存在。
评论引用的量化细节显示规模化蒸馏在现实中可行:报告称被用于提取Claude能力的是约24,000个伪造账号与超过16,000,000次交互,这说明通过API高频调用即可产生大量训练样本。讨论还具体计算了交互密度(例如每账户数百次交互)和可能的高token消耗,表明这类攻击既高效又不易被简单流量指标拦截。因此许多评论推断类似蒸馏行为可能广泛存在且难以溯源,一旦生成的数据进入公共语料会持续影响后续训练数据质量。
评论围绕蒸馏带来的成本下降与商业策略博弈展开:有人指出蒸馏可把训练成本降到原来的一小部分(有评论提1/10、1/20甚至1/100的说法),从而改变大厂保持领先的难度和市场竞争态势。另有评论从环境角度论证:若蒸馏能以远低能耗达到接近性能,出于减碳和伦理应优先采用。与此同时也有反向观点认为公司会因营收压力选择保密与收费来维持业务,蒸馏既推动竞争也可能促使更严格的闭源与监管策略出现。
distillation(模型蒸馏): 通过调用目标模型生成大量输入-输出对,把这些输出作为训练数据来训练新模型以复制原模型行为。评论里也称之为“蒸馏攻击”,常通过高频API调用或伪造账户规模化生成样本,技术上可行且难以仅靠TOS或简单检测完全阻止。
Claude: Anthropic 的对话/助手型大模型,在本次讨论中被指称为蒸馏目标——报道与评论提到约24,000个伪造账户与约1,600万次与Claude的交互用于提取其能力。