加载失败
这篇文章围绕《The Social Edge of Intelligence》展开,讨论重点不是个体大脑有多强,而是学校、公司、工具和协作网络如何共同塑造“社会性智能”。评论区把问题延伸到 LLM(大语言模型)是否只是训练语料的统计平均,以及它会不会因为不断吃自己生成的内容而触发 Shumailov 提出的 Model Collapse(模型坍塌)。有人从非英语用户、开源社区、Western journals(西方期刊)和学术门槛切入,认为 AI 反而能把原本被语言和制度挡住的知识重新翻译出来。也有人担心信息公地、hallucination(幻觉)和 synthetic data(合成数据)会把知识生态变得更污染、更贫瘠。
评论先从标题拼写和“什么算 intelligence”切入。有人认为如果连定义都说不清,就无法判断 LLM 是否智能。也有人把问题外推到更大的单位,追问大学、公司、团队协作、计算器和教材这些外部工具,究竟怎样共同影响一个人的 SAT 表现。这个视角暗示智能可能不是纯个体属性,而是分散在社会结构里的能力。
另一条线把 Generative AI 看成“训练数据的平均值”或统计回声。有人补充说,它至少包含比普通人更多的公开知识,但仍然拿不到未公开、未写下或不在训练集里的信息。反驳者则指出,人类本来也常常只能依赖公开材料,所以差别未必那么大。还有人半开玩笑地说,AI 会让所有人变得更平均,互联网已经做了一轮,LLM 可能会把这一步做完。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
一位评论把争论拉到社会分工和知识门槛上,认为 AI 虽然会让某些认知技能退化,但也会强化命名、架构和跨语言理解等能力。文中举出非英语用户、开源社区、韩国学界偏见、Western journals(西方期刊)以及“Linux is open, but it is not free”之类例子,说明 AI 正在拆掉知识获取的语言和制度壁垒。评论还反驳了 Shumailov 提出的 Model Collapse(模型坍塌)担忧,认为来自非西方地区的用户会把新的认知模式注入全球语料,像 DeepMind 的 AlphaDev(一个用 AI 发现更快排序算法的系统)那样,AI 可能带来人类难以自行发现的突破。
另一种担忧是把信息环境视作 commons(公地):当 AI 生成内容大量涌入时,公共知识空间会被污染并变得拥挤。有人甚至设想未来会出现专门给 AI 输出打标注的 PhD 工厂,靠人工去筛选、校对和分层这些内容。这个视角还把社交媒体出现前的互联网看成相对健康的阶段,说明争论焦点不仅是模型质量,更是整个信息生态是否还能承受这种负载。
有评论认为,真正缺的不是 AI 本身,而是人类缺乏对 disagreement(分歧)进行结构化讨论的语言和训练。按这个说法,很多人既不会清楚表达自己知道什么、又不知道什么,也不会把 AI 当成一个需要被约束的推理对象,于是把 hallucination(幻觉)误当成可控输出。评论还把这种状态夸张地归结为对“共同体”的粗暴治理,意思是语言能力不足会把公共讨论推向极端和失真。后续有人要求说得更简单,反而加强了这种沟通失效的印象。
还有人设想,等 fully automated reasoning 成熟后,大模型公司可以拿一部分 compute 直接生成高质量新内容,再把这些内容回流到下一轮 pretraining。反对者马上指出,这像把一个压缩程序的输出再喂回输入,未必能凭空增加信息量。另一条反驳强调,再聪明的系统也需要 real world 作为参照,像音乐生产或科学发现一样,最终还是要靠外部反馈、测试集或人类偏好来判断好坏。
另一个观点认为,很多 LLM 的问题不是“能力不够”,而是训练目标逼它们必须回答任何问题。Hallucination 在这里被解释为:模型为了完成“必须给答案”的任务,只能猜测而不是老实承认不知道。有人用“写一个绝不会冒犯任何人的剧本”来类比,说明过度优化到安全和讨喜,最后只会产出 OK 但很 bland 的内容。随后还有人追问模型能否被训练成在不确定时直接拒答,争议点就落在这里。
Model Collapse(模型坍塌): 模型越来越依赖 AI 生成数据时,长尾样本和少数观点被稀释,输出分布可能逐渐变窄。
hallucination(幻觉): 模型在不确定时仍给出看似合理但可能错误的答案。
synthetic data(合成数据): 由 AI 生成并用于继续训练或补充训练集的数据。
information commons(信息公地): 被视为公共资源的信息环境,容易被低质量内容和生成内容污染。