加载失败
这帖讨论的是 Chrome 的 Prompt API(浏览器向内置小模型发起自然语言请求的接口),它通常调用 Gemini Nano(Google 的端侧小模型),而 Edge 之类浏览器也可能绑定不同模型。它属于 Chrome built-in AI / WebML 这条路线,主打摘要、情绪分析、改写、tool-calling 和 structured output,但前提是先把模型下载到本机,容量和首响延迟都成了争议焦点。评论里有人把它想成社媒去毒、邮件分类、新闻摘要和 comment summarization 的基础设施,也有人担心它会把网页内容变成经过 AI 过滤的二手文本。这个讨论同时牵涉浏览器标准化、跨平台 Model API、厂商锁定、隐私,以及 AI 功能是否会进一步把互联网变成一个更可控的中间层。
很多人把这个 API 想象成社媒和新闻的“去噪层”:先保留事实,再把 snark、clickbait、aggressive tone 压平。有人希望它能把长线程压缩成几段干货,只留主文章、少量有价值的评论,以及待办事项,从而把上网时间压到最低。邮件自动归档、新闻摘要、DeArrow 和 boringreport 这类工具被反复拿来类比,说明不少人真正想要的是“默认无娱乐性、只看信息”。这种用法在评论里很受欢迎,因为它直接对应了减少刷屏、减少 FOMO、把时间还给现实生活的诉求。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
反对者担心这会把互联网变成“平均 slop”,让所有评论都听起来差不多。更关键的是,pushback、冲突和不同立场可能会被一起抹掉,而不是只去掉真正的 snark。有人明确指出,种族主义或煽动性语言不该被润色成中性文本,而应该直接点名其意图。还有人担心这种过滤器会根据用户偏好制造 distortion layer,把 echo chamber 变得更牢固。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9]
技术层面的争论集中在模型太大、太慢、首响太差。有人提到模型下载量比浏览器本身大得多,而且必须先下载完才能拿到第一个 token;也有人查到实际模型文件夹大约 4GB,但文档又写着至少要预留 22GB。当前小模型在很多机器上只有几 tps,还会明显发热,因此“能用”不等于“好用”。不少人认为正确方向是共享资源,而不是每个网站各自下载一份模型;也有人设想 OS 直接预装模型,或者通过 lazy loading 缓解首响问题。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13]
评论里反复比较 Gemini Nano、Gemma 4 和其他轻量模型,结论普遍是:本地小模型在能力、速度和可靠性上仍落后于托管模型。有人指出这个 API 实际上依赖浏览器里可用的模型,Chrome、Edge 等浏览器会各自绑定不同实现,这会让 prompt 调优变成 model-specific 而不是 model-agnostic。也因此,开发者担心同一套 prompt 在不同浏览器上静默退化,却又缺乏足够的 capability introspection 来分支处理。虽然这被看作迈向更通用 Model API 的一步,但也可能进一步强化对某一家浏览器模型节奏的依赖。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
也有人把它看成浏览器和 OS 层标准化的起点,而不只是 Chrome 的单点功能。设计者提到这类 API 是在 W3C WebML Community Group 里和其他浏览器一起讨论出来的,目标是尽早开放给社区反馈。评论里有人希望未来会有统一的模型管理接口,让 app 能在 on-device 和 remote models 之间切换,并且不要只绑定“推荐模型”。Apple Foundation Models 也被拿来对比,说明大家已经在想一个跨平台、跨设备的 Model API 生态。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7]
最阴暗的担忧是滥用:如果浏览器能替网页调用本地模型,恶意 JS 也可能把访客机器变成 token 生成池,或者做 spam bot、广告识别、cookie 管理之类的自动化。更怀疑的人认为,Chrome 这类闭源浏览器完全可能借新 API 扩大数据收集能力,并通过 EULA 和默认设置把敏感功能藏起来。还有人担心未来网页内容会先经过 AI pipelines,用户看到的根本不是原始页面。尽管如此,也有人承认把能力放进浏览器至少比每个网站自己下载一套模型更现实,只是它到底是在共享算力还是在扩大平台控制,争议很大。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13]
Prompt API: 浏览器提供给网页的自然语言调用接口,可把提示词发送给内置小模型并返回文本或结构化结果。
Gemini Nano: Google 的端侧小模型,Chrome 等浏览器可在本机离线调用它。
Gemma 4: Google 的较小模型家族,被拿来和 Gemini Nano 比较能力、速度和可部署性。
MoE: Mixture of Experts,一种按 token 只激活部分子网络的模型结构,常被讨论用于降低推理成本或做分层加载。