加载失败
这篇讨论源自一家名为 Set Studio(一个以网页设计与前端为主的独立工作室)发布的自述:他们把“不会为 AI 产品做产品营销”作为道德底线,结果今年业务和教学课程流量大幅下滑。评论区从这个具体案例展开,分歧集中在两点:一是服务性公司是否应以市场需求为先(“adapt or die”),二是大规模训练 LLM(大型语言模型)所用数据的合法性、环保与社会后果。许多技术性讨论涉及 LLM 在代码生成、教学与原型方面的生产力、其局限(如需专业校验与上下文管理),以及行业如何通过技术整合、修补 AI 产物或转向难以被替代的细分市场来应对变局。
很多评论把工作室出于“道德”拒绝为 AI 产品做营销视为自伤式决策:作者说大量来询的都是和 AI 有关的项目,但他们都拒绝,导致业务量急剧下降。反对者认为服务型公司必须顺应客户需求,否则就是“adapt or die”,市场不会为原则买单;有人承认道德立场高尚但提醒公开宣称会对销售构成实质性伤害。也有评论指出,坚持原则可以理解,但要有心理与财务准备,否则应考虑调整商业模式或转向不会被市场迅速淘汰的细分服务。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
大量评论集中在模型训练数据的来源与版权问题:有人指出 GitHub、公共网页与社交媒体数据被用来训练模型,创作者未获授权或报酬,形同“被掠夺”的劳动力和内容。线程引用了实际数据集构成(如 Common Crawl、GitHub、维基等)和风格被直接复制的案例,呼吁对训练数据的合法性、归属与赔偿进行规范。反驳意见认为历史上“学习他人成果”并不新鲜,但反对者强调规模化、商业化吸取他人劳动并未经同意、且难以归属,是新的伦理与法律问题。
不少有经验的开发者报告 LLM(如 Claude、Gemini)在做样板代码、快速原型、生成 PoC、教学辅导上能大幅提速,某些人甚至宣称在熟练使用下能把开发时间缩短到过去的十分之一。评论反复强调前提:只有操作者事先具备足够专业知识、能拆解任务、写好架构和 prompt(提示词),并有校验输出的能力,LLM 产出才有用;否则“多数人手里就是垃圾产出”。对复杂交互、监管约束或企业级遗留系统,LLM 仍常表现欠佳,需要人工介入与严谨验证。
评论里普遍担忧初级岗位、网页前端与编程教育会被 AI 商品化:有人报告课程销量比 2015–2021 年骤降到不到 5%,另有观点指出基本的网页/前端工作逐渐成为“可由 AI 产生的标准产物”。因此短期会产生“修复 AI 产物”的新需求,但长期可能让初级入门岗位和培训市场萎缩、薪资承压。也有人指出并非所有岗位都会消失:对老旧系统(ERP、医疗、金融)深入理解与整合的工作短期内仍难被替代。
部分评论把当前 AI 投资视为由极少数资本推高的热潮或泡沫,类比 dot‑com、NFT、Pets.com 等历史事件,警告估值与承诺可能在资金或廉价算力消退时快速崩盘。怀疑论者指出许多 AI 产品靠免费/廉价云算力撑场,若“算力水龙头”收紧,AI 优先的公司将被冲击。与此相对,另有评论指出开源/开权重模型(open‑weight models)和社区方案能在一定程度上分散风险,并且若技术真有用处某些长期价值会留下。
讨论也涵盖实操建议:有人建议把精力放在“收入中心”而非“成本中心”,优先服务直接带来营收的客户或转向整合遗留系统、自动化集成等难被 AI 替代的领域;另有人建议提供“AI 辅助但人工把关”的产品线或为客户做“修 AI 产物/校验”服务以获取新收入。具体战术包括:推出包含 AI 选项的低价入口产品、把 LLM 当作学习/教练工具、专注不可被低成本复制的高端定制或小而美的自有产品。
LLM(Large Language Model, 大型语言模型): 以海量文本(和有时的多模态数据)训练、能生成自然语言或代码的模型类别,例如 ChatGPT、Claude、Gemini。评论中讨论其在代码生成、教学、内容创作上的效率与误差、以及训练来源带来的版权/伦理问题。
提示词工程(prompt engineering / prompting): 为让 LLM 给出期望结果而设计和迭代输入指令与上下文的技巧。许多评论指出提示词质量直接决定 LLM 输出是否可用,且需要配套分解任务、架构文档与校验机制。
训练数据 / 数据抓取(training data / dataset scraping): 指训练模型所用的大规模语料(如 Common Crawl、GitHub、维基、社交媒体等)。评论频繁围绕未经作者同意的抓取是否构成著作权侵害、是否应当给予补偿或法律约束展开讨论。
vibe code / vibe‑coded: HN 社区常用的非正式术语,指用 AI 快速生成“看起来不错但质量或可维护性较低”的前端/产品(通常是表面精致、内部松散的产物)。许多人担心该类产物淹没市场并带来后续维护负担。
上下文窗口(context window): LLM 在一次推理中能考虑的输入长度限制,影响模型对长文档或多轮任务的记忆与一致性。评论中提到通过分块任务和精心组织上下文来缓解窗口大小的限制。