加载失败
RPCS3(一个 PlayStation 3 模拟器)维护者在 GitHub 上提醒大家,不要把大量 AI 生成的 PR 直接丢给项目。PS3 架构复杂、文档稀缺,很多看起来像修复或新增功能的提交,实际上没有经过足够测试,反而会让维护者承担额外审查和回滚成本。评论区把问题扩大到开源协作机制:有人主张邀请制、信誉分或 web of trust(信任网络),也有人认为更现实的是先 fork 再自己维护分支。讨论里还提到 AGENTS.md / CLAUDE.md 这类给 AI coding agent 的项目说明文件,以及 Linux kernel 常见的 'developers take full responsibility' 和 'Assisted-by:' 习惯。
一派认为问题首先是行为而不是工具:不会理解、测试和记录决策的人,不管用不用 AI,都不该把 PR 直接丢给维护者。另一派则强调工具本身在误导新手,尤其是带聊天界面的 LLM 会不断给出自信、顺从但错误的回答,让不懂代码的人更容易误以为自己已经写对了。讨论里还出现了把 AI 比作会胡说的工具、会把人带偏的系统等说法,核心是它不只是生成代码,还在塑造错误的判断。双方最终都指向同一个现实:如果提交者自己都无法识别输出是否正确,维护成本就会被转嫁给别人。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
不少评论认为,热门开源项目现在的 PR 门槛太低,已经接近需要回到邀请制或半封闭协作的模式。有人提出信誉分、邀请图谱、web of trust 之类的过滤机制,也有人直接主张让 fork 重新成为常态,由原项目只挑选真正值得 upstream 的改动。Linux kernel 的经验被拿来作对比,但也有人指出那套体系本来就依赖高度筛选的人脉网络,不适合随便套到普通 FOSS 项目。共同点是:当 PR 数量大到维护者无法分辨质量时,单纯开放提交入口会把筛选成本全部压到维护者身上。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
很多人结合 PS3 homebrew、Classic Macintosh APIs、现代主机图形、mkv 容器脚本等场景,表示 LLM 在自己所在的细分领域常常输出看似合理、实际错误的代码。RPCS3(一个 PlayStation 3 模拟器)之所以更明显,是因为 PS3 架构复杂、文档稀缺、模拟目标极难,训练语料远不足以支撑可靠推理。有人补充说,只要先把文档、linters、parsers、formatters 等基础设施补齐,LLM 才能在局部任务上表现尚可,但遇到深度领域知识和性能敏感逻辑仍会频繁失手。整体判断是:AI 在宽泛通用场景里可能有用,但在这种高复杂度、低文档密度的项目里,今天的表现仍然很难支撑大规模 PR 外包。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
很多评论把底线说得很明确:AI 辅助可以接受,但前提是提交者要亲自看懂、测试、修正 diff,并承担后续沟通和维护责任。维护者尤其反感那种一眼看出是 AI 生成的 PR,因为这意味着更难的审查、更大的错误面,以及作者无法解释代码、只能充当中间人的额外摩擦。有人建议把个人需求留在 fork 里,或者先开 issue / discussion 说明功能价值,再由维护者决定是否 upstream,而不是把未消化的代码直接丢给主仓库。也有人强调,能否上游并不只取决于代码是否能跑,更取决于它是否可维护、可复现、可被作者自己负责。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14]
一些人猜测,盲目往开源项目灌 PR 的动机并不总是善意,可能是简历、声望、瞬时成就感,或者只是想让 AI 替自己做点看起来厉害的事。也有人认为很多提交者其实并非坏心,而是根本没意识到自己给维护者增加了多少噪音,尤其是在 emulation 这种大量玩家都想“修好自己游戏”的圈子里更常见。另有评论质疑这是否真的已经是“洪水”,因为他们翻阅 RPCS3 的 PR 历史后觉得,至少从可见记录看并没有夸张到失控。与此同时,也有人担心如果社区把所有 AI 辅助提交都污名化,真正想帮忙的人会因为害怕被骂而干脆不再提 PR。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
RPCS3: 一个开源的 PlayStation 3 模拟器项目,目标是在 PC 上运行 PS3 游戏。
AI slop: 指 AI 生成但质量低、未经充分理解或测试的代码或内容。
web of trust: 基于互相引荐与信任关系来筛选贡献者的分布式信任机制。
endless September: 指新手持续涌入并逐渐冲击原有社区规范的现象。
AGENTS.md / CLAUDE.md: 给 AI coding agent 提供项目规则、测试要求和代码风格的说明文件。