加载失败
这篇帖子讨论的是 Sam Altman 在自家门口遭到 Molotov cocktail(燃烧瓶)袭击后写下的回应,他把事件与前几天 The New Yorker(美国长期调查杂志)对他和 OpenAI(前沿 AI 公司)的长篇调查联系起来,并强调自己被 words and narratives 伤到了。评论区一方面在争论这篇报道是否只是 critical 而非 incendiary,另一方面质疑他是否借受害者叙事把公众注意力从 OpenAI 的 DoD(美国国防部)合同、监管游说和权力集中问题上移开。许多讨论默认读者了解 frontier AI lab(前沿模型实验室)、open weight model(可下载权重模型)、distillation(蒸馏)以及 AGI/ASI 的含义,因为争论重点是这类公司是否真的拥有足以影响国家、就业和军事的能力。也有人把 OpenAI、Anthropic(前沿 AI 公司)、Google、DeepSeek(中国 AI 公司)和 Mistral(欧洲 AI 公司)放在一起比较,讨论所谓 6个月领先 到底有没有现实意义。
不少评论把这篇回应看成一篇危机公关文,而不是对袭击本身的诚恳说明。大家注意到他把家人照片、深夜愤怒和 words and narratives 放在一起,像是在把私人受害与公众舆论捆成一体,用来软化外界对 OpenAI 和他本人的批评。还有人认为他故意把 The New Yorker 的调查、袭击事件和自己的形象串起来,核心目的仍是争夺叙事权,甚至有人怀疑这是自导自演或被拿来做 PR。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
另一大类评论明确谴责 Molotov cocktail 和对家宅的攻击,认为无论目标多么讨厌,暴力都不能作为回应。即使有人承认 Altman 的行为可恶、甚至该被追责,仍主张应该走诉讼、监管、抵制和公开批评,而不是把家庭成员置于危险中。反方则不断把话题拉向革命、工人斗争和历史上的政治暴力,但这种辩护也被不少人反驳为在为更广泛的报复开门。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
很多评论围绕他那句 AI has to be democratized; power cannot be too concentrated 展开,认为 OpenAI 说得越多越像在替自己的封闭策略洗白。有人提到 OpenAI 追求 DoD 合同、推动减责法案、限制别家 distillation,同时又把自己包装成公共利益代表,这种做法与为所有人创造繁荣的口号明显冲突。也有人把 Anthropic、OpenAI、xAI 这类 frontier lab 归为同一类:一边喊 safety,一边靠资本、算力和监管套利累积更大权力。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
围绕 6个月领先 是否致命,评论分成了极乐观和极怀疑两派。前者认为一旦出现闭环 self-improvement,短暂领先就可能放大成巨大优势,甚至先手控制资源;后者则强调现实中的模型进步更像 sigmoid 或 logistic 曲线,LLM 目前连基本错误都常见,离真正 AGI 还很远。许多人还把 OpenAI、Anthropic 与 Google、DeepSeek、Mistral、GLM 等模型放在一起比较,质疑 benchmark、蒸馏和 marketing 是否真的能说明谁领先了 6个月。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
另一个主轴是 AI 会不会真的把大量人推向失业、贫困和社会动荡。悲观者认为当劳动不再值钱、利润继续流向顶层时,住房、食品、医疗和社保都会承压,UBI 也只会是缓冲而不是解决方案。乐观者则觉得 LLM 更像劳动力补充而非全面替代,AI 的经济冲击被夸大了;但双方都承认,如果分配机制不变,反弹、罢工甚至更激烈的冲突会越来越常见。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
还有一条支线是在争论他口中的 incendiary article 到底是否成立。多数评论认为 The New Yorker 那篇调查是克制、细致、以多方来源拼出的负面报道,最多只能算 critical,而谈不上煽动暴力。于是问题变成:他是在陈述事实,还是在把一次独立袭击和记者报道硬绑定,借机削弱批评者的正当性。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7]
AGI: Artificial General Intelligence,指能在广泛任务上达到接近或超过人类水平的通用智能。
ASI: Artificial Superintelligence,指能力显著超越人类整体水平的超级智能。
open weight: 公开模型权重,允许下载和本地运行,但不一定公开训练代码、数据或完整流程。
distillation: 用大模型的输出或行为来训练小模型,以较低成本复制部分能力。
recursive self-improvement: AI 通过改进自身训练、架构或工具链,进一步加速下一轮能力提升的设想。
singularity: 技术奇点假说,指智能或技术进步进入极端加速、难以预测的阶段。
systemic violence: 结构性暴力,指制度、经济或政策长期造成的大规模伤害,而不一定表现为直接肢体攻击。