加载失败
Brent A. Yorgey(一位美国 CS 教授)写了一封公开信给学生,担心软件 industry、政治环境和 LLMs(大型语言模型)的扩散正在把计算机教育推向一个更冷酷的方向。他劝学生不要盲信“技术必然如此”的叙事,要尽早设定伦理底线,保护深度思考时间,并把代码可读性、文档和稳健性当作真正的 craft。文章里他还明确表示自己不会使用 LLMs,并把自己描述成“generative AI vegetarian”(拒用生成式 AI 的人)。评论区因此分裂成几条线:一派认为这正是教育该做的事,另一派认为这对进入 industry 的新人过于脱离现实,另一些人则把讨论延伸到 ABET(美国工程与技术认证机构)课程、Therac-25(著名医疗软件事故)和工程伦理教育。
不少人把这篇文章理解为写给学生的教育宣言,而不是给 industry 的求职手册。支持者认为,CS 教育不该只围绕赚钱,而应培养对 programming 作为 craft、艺术和长期能力的理解。有人强调,学生可以很快学会用 LLMs,但亲手做 toy project、写规范、做深度练习,才能建立真正的抽象和系统直觉。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
反对者普遍认为,这套建议太像 academia 里的理想主义,放到真实工作场景里会让新人吃亏。评论里反复提到,entry-level engineer 更看重按时交付、客户价值和团队协作,而不是花很多时间去重构或坚持慢工细活。也有人质疑作者缺乏第一手 industry 经验,难以真正理解绩效、组织压力和市场约束。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
另一派则认为,refactoring、documentation 和清晰代码并不是装饰,而是在减少长期成本。评论者举出维护、排错、上手速度、性能、uptime 等具体收益,强调这些“看不见的成本”最终会变成 tech debt。有人用“slow can be fast”和“speed vs velocity”来概括:真正有用的快,是少返工、少走弯路,而不是一味追速度。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
围绕 LLMs 的争论非常尖锐:一边是明确拒用 generative AI 的伦理立场,理由包括剥削人类劳动、消耗稀缺资源、使用未授权训练数据,以及削弱人的 agency。另一边则认为这种态度更像身份表演或怀旧情绪,现实中的经济激励会推动行业继续采用自动写代码工具。也有人采取折中立场,认为学生应先打好基础,再把 LLM 当工具,而不是把它当替代思考的捷径。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
讨论还延伸到工程伦理教育是否真的有效。很多人提到自己的课程里确实有 ethics requirement,也会讲 Therac-25、Bhopal 这类事故,但也有人认为单独一门课很难真正改变价值观。更深层的担忧是,软件、AI、监控和国防系统都可能造成现实伤害,所以学生应该尽早思考自己愿意为哪些项目和公司工作。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
LLM / 大型语言模型: 用于生成文本或代码的模型,是这场争论的核心技术对象。
refactoring: 在不改变功能的前提下重组代码,以提升可读性、可维护性和后续扩展性。
tech debt: 为了赶工或偷懒留下的长期维护成本,后续会以返工、缺陷和复杂度的形式累积。
ABET: 美国工程与技术认证机构,很多工程/CS 项目据此设置课程要求,常包含伦理教育。
Therac-25: 1980年代放射治疗设备的软件事故案例,常被用来说明工程失误的严重后果。
generative AI vegetarian: 一种自我标签,指原则上拒绝使用生成式 AI / LLMs 的人。