News Hacker|极客洞察

32 12 天前 techcrunch.com
🙄OpenAI限Cyber、Anthropic限Mythos:高危模型营销战
先说太危险不能开,再拿来卖天价订阅和营销?

🎯 讨论背景

OpenAI(ChatGPT 背后的 AI 公司)和 Anthropic(另一家主打 AI safety 的 AI 公司)都在高阶模型访问上采取了更严格的限制,这类做法常被包装成“防止 misuse”的安全措施。标题里提到的 Mythos 和 Cyber 可理解为两家公司受限的高能力模型代号,争议点在于:Anthropic 先被指责限制 Mythos,随后 OpenAI 又限制 Cyber,于是双方都陷入“既批评对方、自己又照做”的尴尬。评论区因此把讨论分成两层:一层是这些模型是否真的足够危险,另一层是限制访问是否也是制造稀缺、抬高定价、吸引企业客户的营销策略。讨论还牵涉到 Sam Altman(OpenAI CEO)的可信度、第三方是否能独立验证模型的安全/攻击能力,以及开源大语言模型是否会在高价和封闭策略下重新获得优势。

📌 讨论焦点

危险模型被包装成稀缺商品

不少评论把“模型太危险所以限流”解读成一种营销手法,而不是单纯的安全决定。有人用“velvet ropes”“怪奇秀”来比喻:先把门槛抬高、制造神秘感,再把模型包装成稀缺而高价的产品。也有人直说,只要公开发布不如制造恐慌更赚钱,这些公司就会优先选择后者。整体上,这一派认为所谓高危叙事更像商业戏码。

[来源1] [来源2] [来源3] [来源4] [来源5]

对 Altman/OpenAI 信誉的怀疑

评论区对 Sam Altman 和 OpenAI 的可信度明显偏低,很多人默认他们的话不能照单全收。有人表示根本不明白为什么还会有人相信他,也有人把这种信任类比成公众明知政客常撒谎却仍继续听信。还有回复直接嘲讽,认为如果没关注过围绕他的长期争议,就等于漏看了大量相关信息。这个观点的核心不是具体模型,而是对发言者动机和诚信的持续怀疑。

[来源1] [来源2] [来源3]

能力宣称与外部可验证性争议

一部分评论承认这些模型可能确实具备不错的 vulnerability research 能力,至少在 security 方向上不只是空喊。反对者则指出,问题在于外界没有公开访问权限,也缺少值得信任的第三方评测,因此“demonstrably”这个说法站不住脚。换句话说,争论焦点不是模型有没有能力,而是谁能验证、怎么验证、验证结果是否可信。

[来源1] [来源2]

AGI话术、商业化与开源反弹

有评论把这场争论上升到 AGI 竞赛,讽刺地问“真正的 AGI”会不会先去 hack 竞争对手实验室来拖慢进度。紧接着又把 AGI 解释成“Automatically Generating Income”,把话题拉回赚钱和商业模式,而不是科幻愿景。另一条线索则认为补贴一旦消失,token 价格会上涨,企业会被迫为 premium access 买单,最后可能逼更多人转向 open LLMs(开源大语言模型)。这派观点把当前限制访问看成整个行业从烧钱扩张转向收费、垄断和替代方案回流的信号。

[来源1] [来源2] [来源3] [来源4] [来源5]

📚 术语解释

AGI: Artificial General Intelligence,通用人工智能;评论里既被认真讨论,也被拿来开玩笑,甚至被改成“Automatically Generating Income”。

LLM: Large Language Model,大语言模型;这里指 OpenAI、Anthropic 这类公司推出的生成式模型。

vulnerability research: 漏洞研究/安全研究,指寻找系统漏洞、攻击面和潜在利用方式的工作。