加载失败
这场讨论围绕一篇断言“不会用 AI 的人会被淘汰”的帖子展开,焦点其实是 LLM(Large Language Model,大语言模型)在软件开发和知识工作里的位置。评论里有人把它类比成计算器、汽车、OOP(面向对象编程)等历次工具革命,认为学习门槛很低,真正重要的是能否在竞争中把它纳入日常流程。另一派则担心把思考、写作和代码生成外包给模型会让人丧失学习能力、审美和基本功,尤其在编程、检索和表达上形成依赖。还有人把争论放进更大的产业背景里看,提到 Claude Code(Anthropic 的代码助手)功能快速下放、vibecoding(主要靠提示词让模型直接产出代码)、数据中心扩张、RLHF(基于人类反馈的强化学习)劳动问题以及 AI 泡沫。
很多评论把 AI 看成已经进入工作流的基础设施,拒绝使用更像主动放弃生产力。有人认为上手门槛很低,几天甚至几小时就能达到“跟上行业”的水平,真正重要的是会不会把需求说清楚、会不会把模型当成执行器。也有人用计算器、汽车、OOP 等历史类比,强调只要工具能显著减少 toil 并提升产出,商业竞争就会逼着大家接受。对这派来说,风险不在于“会不会用”,而在于你是否还想保住竞争力。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
反对者最担心的是技能萎缩:一旦把写作、检索、编程和思考长期外包给 LLM,人就会越来越不愿意独立推理。有人把这类工具类比成 chess engine,认为依赖它们会让人连基本的判断、学习和简单问题拆解都退化。也有人担心软件工程里出现“自己没真正理解代码却疯狂交付”的情况,开源项目被大 PR 淹没、code review 跟不上,最后只剩表面产出。对这群人来说,问题不是“能不能做”,而是“做得快了以后还剩多少基本功”。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
另一条线索是“被迫使用”的不适感:不少人不是单纯讨厌技术,而是反感公司用 AI 叙事压员工、裁员,或把使用 AI 变成职业门槛。有人把自己真正担心的东西列成版权、钱、数据完整性,意思是被“left behind”的未必是能力,而可能是权利和控制权。还有人提到自己的写作风格、独特声音、甚至 dignity 会被 AI 流程稀释,问题触及身份认同而不只是效率。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
更温和的一派认为,AI 的价值取决于使用方式,而不是“用或不用”的二选一。它可以像 mentor、critic 或 search aid 一样帮助你发现 bug、质疑方案、做 quiz,特别适合 boilerplate、重复任务和自学;但让它替你做决策、替你思考,就会把人带进浅层输出。有人说真正有优势的是会表达、会架构、会把问题拆给模型的人,甚至有人把它看成学习政府结构、fusion power、heat pump sizing 这类主题的 autodidact 工具。随着 Claude Code(Anthropic 的代码助手)这类产品不断把边缘技巧下放到默认功能,很多人对“被落下”的焦虑也在下降。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
还有一层更宏观的怀疑,是认为这波 AI 热潮本质上是商业叙事和资本激励驱动的。有人直指 LLM 只是统计式 next-token prediction,却被包装成接近思考的东西;企业借此推高估值、推数据中心、卖更贵的服务,同时把 RLHF 劳工、生态成本和社区噪音外部化。也有人注意到低质量 PR、captcha 激增、vibecoding 式垃圾内容,以及大规模算力投入和延期或取消的 data center 计划,说明这场热潮并不等于长期价值。于是讨论不只是技术好不好,而是这门生意最终会把谁推到“left behind”的位置。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
LLM: Large Language Model,大语言模型;用大量文本训练、生成自然语言和代码的模型。
next-token prediction: LLM 的核心机制之一,通过预测下一个词元来生成文本,看似“理解”但本质上是概率生成。
prompting: 用自然语言提示词引导模型完成任务的方式,评论里多次提到提示质量会显著影响输出。