News Hacker|极客洞察

379 184 天前 twitter.com
🤦《Dawn》误将AI对话尾句印出,暴露自动化写稿与审稿缺失
把 AI 的客套尾巴直接印上报纸,谁替真相买单?

🎯 讨论背景

巴基斯坦权威英文报Dawn刊出题为《Auto sales rev up in October》的报道时,印刷版尾部意外出现了来自对话式模型的续写/客套段落(例如主动提出“要我接着做吗?”之类的句子),引发公众与从业者对自动化写稿流程与校对缺失的讨论。线上版随后更正并声明该报道“用AI编辑,违反本报AI政策”,删除了多余句子并表示调查中。评论把此事放入更广的自动化新闻脉络,提到像Quakebot(洛杉矶时报的地震机器人)、Tracer(路透的工具)、StatSheet等历史案例,并讨论了Gemini(Google的对话式模型)等客户端在交互末尾追加续写提议造成的上下文污染。多数意见集中在两个层面:一是界面/工程可改进(如“END OF ARTICLE”分隔、动态续写按钮或裁剪会话上下文);二是制度与编辑责任需补强,包括透明披露AI参与度与在流程中保留人工核验。

📌 讨论焦点

印出的不是原始 prompt,而是模型的尾段“客套/续写提议”

多位评论澄清报纸并非把用户给LLM的原始提示贴出,而是直接把模型回应里的后续客套或行动建议段落印成正文,例如那句“如果你愿意,我可以做一个更醒目的‘头版风格’版本……要我接着做吗?”。这一错误显示出写作流程是把模型输出原文复制粘贴入版面而非只引用数据或改写稿件。评论指出这种尾句会混淆上下文,且与“prompt被打印”这一标题用词不符,因为被刊登的是AI生成的多余附言而非初始提示。该类细节让人怀疑发布前缺乏必要的人工审校。

[来源1] [来源2] [来源3] [来源4]

财经/体育新闻长期模板化、易被自动化

讨论把事件放在自动化新闻的长期趋势下:体育和财经因依赖结构化数值而最容易模板化与自动生成,行业里早有实践例子(如StatSheet、Thomson Reuters 的 Tracer、LA Times 的 Quakebot等)。评论者提供了NPR、Wired与维基等历史资料链接,指出这类系统能快速把表格数据变成文字,但主流媒体却很少直接展示图表或原始数据。有人提醒,即便使用AI把数据写成叙述,模型在扩展或补数字时容易“hallucinate”捏造统计,从而带来可信度风险。整体论点是:这次失误是自动化流水线与编辑实践交织出的可预见问题,而非孤立偶发。

[来源1] [来源2] [来源3] [来源4]

编辑与校对责任缺失;更正声明的公关与诚意之争

已发布的在线版后来以更正声明说明该报道“原本用AI编辑,违反本报AI政策”,并删除了印刷版中多余的AI句子;对此有评论称赞其承认错误,也有评论怀疑这是公关性措辞而非真正自查。有人针对更正文风如“The violation of AI policy is regretted.”批评其被动语态可能在回避责任,同时指出根本问题是文章在刊发前未被逐字校对。类似的案件并非孤立:德国《Spiegel》与某篇学术论文也出现因AI导致的更正或撤稿,从而放大了对编辑流程与问责的质疑。

[来源1] [来源2] [来源3] [来源4]

LLM接口行为与产品/工程解决办法的讨论

评论里很多人把责难指向模型客户端或对话式界面:某些模型(如评论中提到的Gemini)会在每次回答末尾追加“要不要我接着做?”之类的续写提示,污染后续上下文并拖慢交互质量。提出的解决方案包括把续写选项做成动态按钮、在提示末尾加入“END OF ARTICLE”分隔符、一镜式(one-shot)重启会话,或在前端/后端脚本中裁剪不需保留的上下文。有人还分享使用API重组会话上下文的实践与指南,说明这是界面与工程层面可修复的问题,而非纯粹语言模型的不可控性。

[来源1] [来源2] [来源3] [来源4] [来源5]

AI促成的写作懒惰与职业冲击担忧

许多评论表达对把写稿工作过度外包给LLM的担忧,认为这会催生大量低质量“AI slop”、削弱记者写作技能並降低审稿标准。有人举例银行内部公文与新闻室的情形,怀疑许多内容是复制粘贴生成而未经核验;同时也有观点认为会催生新岗位(如Prompt Engineer)或把人工把关移向流程前端。讨论因此涉及效率提升与价值流失之间的权衡,并呼吁在流程中保留人工核心环节或开发领域专用工具以减少错误传播。

[来源1] [来源2] [来源3] [来源4]

对非英语母语记者的利弊与风格一致性问题

评论中有人赞成LLM能帮助非英语母语的记者把草稿润色成“更好的英文”,这在实际工作中提高了可读性并减少语法校对工作量。反对者指出这种“纸面上的改进”可能改变原意、掩盖作者真实表达,且长期会导致风格趋同(例如默认美式拼写或典型LLM口吻)。部分讨论者建议在提示中显式指定区域用法或保留人工校对,避免把语言优雅视为替代事实核验的借口。

[来源1] [来源2] [来源3]

全球多起相似事故与透明度诉求

有人把这起事件与世界其它地方的类似案例并列,例如孟加拉国的主流英文报也曾把AI回复印出,德国《Spiegel》与某篇学术论文则出现因AI生成导致的更正或撤稿记录。评论讨论是否应像食品标注成分那样强制披露AI参与程度,或建立更明确的刊登/更正流程來保护公众知情权。反对者指出LLM并非中性工具,会带偏差與捏造风险,因此单纯标注并不足以解决质量与责任问题,需要制度化的审查与问责。

[来源1] [来源2] [来源3] [来源4]

📚 术语解释

LLM: LLM(Large Language Model,大型语言模型):一种以海量文本训练、用于生成或理解自然语言的模型,常用于自动撰写新闻稿、摘要或对话。

prompt(提示词): 用户或系统提供给模型的输入文本,用以指示希望模型完成的任务或生成的内容;示例包括问题、数据描述或格式要求。

prompt engineering(提示工程): 设计和优化提示词以控制模型输出质量与风格的技术或流程,包含模板化指令、约束条件和分隔符等策略。

Automated journalism(自动化新闻/机器人记者): 用算法、模板或模型从结构化数据自动生成新闻报道的做法,常见于体育、财经、地震等基于数值的快讯。

Quakebot: Quakebot:洛杉矶时报用于自动发布地震快讯的程序,会读取美国地质调查局(USGS)数据并生成报道,是自动化新闻的经典实例。