加载失败
这场讨论围绕 Chromium 提出的 Prompt API 展开:它想让网页通过浏览器直接调用本地或浏览器内置的语言模型,而 Mozilla 在 standards-positions 里给出了反对意见。Chrome 和 Edge 已经在试验本地模型路线,常见例子包括 Gemini Nano(Google 的小型 on-device model)和 Windows/Edge 的 Phi 路线;Apple 也在 macOS/iOS 上推出了 Apple Foundation Models(苹果的本地 AI 能力)。支持者把它看成 Web 平台继续扩张的一部分,反对者则担心模型选择、隐私、内容政策和硬件成本会一起绑进浏览器。评论里还多次提到 WebGPU(浏览器里的 GPU 计算接口)和 WebLLM(通过 WebGPU 在浏览器里跑 LLM 的开源库)作为替代路径。
反对者把重点放在三件事:Prompt API 会增加新的 fingerprinting 信号,浏览器几乎无法伪造这些信号,因而可能被拿去做 device verification。其次,API 让 prompts 和某个具体 model 强耦合,网站很快会写出依赖 Gemini 或特定 quirks 的代码,进一步逼迫其他浏览器或国家浏览器跟进,形成 first-class 和 second-class 浏览器。第三,本地 LLM 需要大量 RAM、CPU 和磁盘,普通设备会明显变慢;评论里也有人认为如果真要做离线能力,应该走 WebGPU 或 WebLLM,而不是把模型塞进浏览器内核。
另一条强烈批评集中在 Google 的 Generative AI Prohibited Uses Policy。评论者认为浏览器 API 不该附带一套超出法律的内容限制,更不该要求开发者先 acknowledge 一份由厂商定义的 AI 使用条款。有人把这看成自由表达和 Web 中立性的坏先例,担心以后会出现按厂商意志限制 CSS、JS 或其他 API 用法的情况。也有人指出,浏览器层面的权限和政策已经越来越多,这类做法只会加重对平台方的信任危机。
支持或缓和的一派认为,这更像是一个正常的 Web platform API 争议,而不是对 AI 的总体否定。有人拿 geolocation、speech synthesis、translation 等非确定性 API 类比,强调不同 model 的行为差异本来就是技术的一部分,开发者会被迫写成 progressive enhancement,而不是把站点直接锁死在某个 model 上。评论里还提到 Chrome 的 Dev Trial 和 Origin Trial 已经收集到反馈,推动了 structured responses、tool use 和语言支持的改进;Mozilla 的立场更像是当前设计不好,而不是永远不要这类能力。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
很多评论把这事放进 Google 对浏览器生态的长期控制里看。Chrome 的市场支配、Web standards 的事实垄断、Widevine 和 Cloudflare 等依赖带来的被动兼容,让一些人觉得所谓标准化其实是在把整张 Web 往 Google 方案上推。于是有人提到反垄断、公共资助、反 Chromium 生态,甚至靠 ungoogled chromium、tor 等替代品来争取浏览器主权。也有人提醒,Chrome 早期确实改善了 IE 时代的混乱,但近年的 manifest v3、privacy sandbox 和各种新 API 让它越来越像在把规则写成对自己有利。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10]
讨论里也有一大块在争论用户到底想不想要这类 AI。有人说浏览器和 OS 这几年确实在不断 shipping local models,Chrome、Edge、macOS、iOS、Windows 都在往这个方向走,所以这不是凭空捏造的趋势;而且本地翻译、离线处理、不给云端喂数据这些场景确实有吸引力。反对者则举出 iOS 文本摘要、Copilot、Gemini 等例子,认为 LLM 经常 hallucination,尤其在医疗、沟通这类高可信场景里会让人厌烦。结论更像是:AI 可以有,但应该 opt-in,而不是默认塞进每个角落。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
还有人从安全角度担心,这会把随机网站变成调用本地 model 的入口,相当于让网页按自己的意图消耗用户机器上的 compute。评论里提到 prompt injection、把 tokens 当成有价值资源去滥用,甚至像 hostile crypto mining 一样的攻击面,这些都要求浏览器给 LLM 提供和普通网页代码一样强的 sandbox 保证。与此同时,Chrome 还会悄悄下载几 GB 的本地模型,普通 3 年旧笔记本往往连内存、磁盘和 GPU 条件都不够,更别说让用户理解自己在付出什么成本。
Prompt API: 一种让网页直接向浏览器内置或本地运行的语言模型发起 prompt 的 Web API 提案。
fingerprinting: 通过设备、浏览器或系统细节识别用户的做法,常被视为隐私风险。
Generative AI Prohibited Uses Policy: Google 为其生成式 AI 设定的使用限制条款,讨论中被批评为超出法律范围。
WebGPU: 浏览器中的 GPU 计算接口,常被提议作为在 Web 上运行模型的替代路径。
WebLLM: 一个通过 WebGPU 在浏览器里运行本地 LLM 的开源库。
Gemini Nano: Chrome 试验中的小型本地模型,用于在设备上提供部分 AI 能力。