加载失败
这是一篇 Google 对 2025 年内部研究与工程进展的年度回顾,重点列举生成式 AI、agent 工作流、自研硬件以及在生物学、气象与量子计算等领域的成果。评论讨论围绕两条主线:这些成果能否摆脱“广告资助的表演”,以及 LLM/agents 的短期热度是否会挤占长期基础研究。相关背景术语包括 AlphaFold(DeepMind 的蛋白质折叠预测)、TPU(谷歌自研 AI 加速器)、OpenTitan(开源安全芯片项目)、Fuchsia(谷歌的实验性操作系统)和 Carbon(C++ 的试验性后继语言)。理解争议还需认识到模型生态(如 Gemini、GPT)与搜索/广告商业化之间的交互如何直接影响用户体验与行业竞争。
部分评论强调 Google 在 2025 年确有多领域的实质性科研成果,超出单纯广告公司的范畴。评论列举了与量子计算相关的高影响力研究、医疗与生物学成果(例如 AlphaFold 的周年影响)、先进的气象建模,以及自研 AI 硬件和基础设施。许多人提到 DeepMind 的公共形象(如纪录片《The Thinking Game》)和谷歌对长期工程的投入,诸如 TPU、OpenTitan、Fuchsia、Carbon 与 Beam 等,使公司在训练/推理与系统层面具备独立优势。总体观点是:广告盈利为“月球计划”式的长期研究和自有基础设施提供资金,而这些研究也带来了值得注意的技术落地与积累。
另一大批评论聚焦于谷歌的广告营收与搜索体验恶化,认为公司本质仍强烈受广告驱动。多个评论引用了财报数据(例如 2024 年约 78% 收入来自广告、2025 Q3 约 72%)并指出搜索结果常先返回 LLM 生成内容、随后是伪装成正文的广告,这削弱了信息提供者的流量與公平竞争。评论还具体指责 SEO 操纵、把 URL 栏变成搜索入口、品牌必须为自身商标竞价、以及移动端通过 Google Play Services 弱化 AOSP,甚至有人呼吁反垄断与分拆。总体担忧是科研成果能否避免被商业化或广告策略侵蚀用户体验与生态健康。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
评论中对模型优劣存在明显分歧:有用户表示在编码类任务上仍偏好 ChatGPT/GPT 系列,认为 Gemini 在某些专门任务上表现不足;也有人声称 Gemini 3/3 Pro 在质量与价格上战胜特定版本的 GPT(引用了 5.1/5.2 版本混淆的争议)。另有观点强调 Google 的优势来自自研硬件(TPU)和不同架构(例如 flash 被提及),这让其在不依赖 Nvidia 的前提下推出 SOTA 模型成为可能。评论同时提到模型命名和比较的混乱、以及产品层(如 Gemini 在回答中插入购物/广告卡片)对用户感受的影响,表明“谁更好”往往取决于具体任务与定价/版本。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
不少评论批评学术与媒体将“突破”标签过度集中在生成式 AI 与 agents 上,担心这会压缩研究多样性和长期基础科学投入。有人指出 Science 等媒体近年年度评选趋向 AI 专题,质疑“Year of agents”说法是否夸大:agents 在许多场景仍停留在编程/实验室阶段,尚未全面走出开发者生态。批评者还提到公司内部对非生成式方向人才的压力(包括编程语言专家离职或被迫离开),认为短期商业化优先可能损害长期创新。持相反意见的评论则列举了 Carbon、Fuchsia 等仍在推进的长期项目,认为谷歌并未完全放弃非-LLM 的基础研究。
多个评论给出具体用户级的失败案例,说明 LLM 在某些“人类易做但对模型难”的任务上仍表现欠佳。典型例子是将银行对账单交给模型识别复杂模式时会出现重复识别、汇率/费用延迟记账识别错误、忽视明确说明等问题,使人工复核成为必要。回应者建议更稳健的解决方案:让模型生成可检验的代码(如用 Claude Code 或生成 Python 脚本并运行在本地/CLI),以获得可重复、可测试的结果;同时也有评论指出 LLM 在日志追踪、快速定位根因等任务上却能显著提速,体现所谓的“jagged frontier”。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
部分评论把谷歌的“精彩一年”与宏观经济或普通人的实际感受对比,认为公司巨额利润并不等同于大众福祉。就宏观指标有引文指出美国第三季度 GDP 增长等新闻,但也有讨论表示这是一个 K 型复苏:股市与 AI 投资带动公司富裕,而许多人仍感受到生活成本上升与债务压力。具体数据争论包括消费者债务创历史高位与债务服务比率的差异、以及不同人口分布/中位数与平均数统计的解读问题。因此有人质疑在“普遍困顿”的语境下大张旗鼓宣传公司科研成就是否合适。
LLM: LLM(Large Language Model,大型语言模型):通过大规模语料和自监督预训练生成或理解文本,用于聊天、摘要、代码生成、检索增强等多种下游任务。
Gemini: Gemini:Google 推出的系列大模型产品(如 Gemini Pro、Gemini 3 等),用于对话、多模态和编码任务,评论中被频繁拿来与 GPT 系列比较。
TPU: TPU(Tensor Processing Unit):谷歌自研的 AI 加速器芯片,用于大规模模型训练与推理,评论指出它让 Google 在硬件层面减少对 Nvidia 的依赖。
AlphaFold: AlphaFold:DeepMind 开发的蛋白质折叠预测系统,用深度学习预测蛋白三维结构,对生物学和药物研发产生重大影响。
TensorFlow: TensorFlow:Google 开源的机器学习框架,曾广泛用于模型训练与部署;评论中提及其生态和 Google 对外部使用的策略争议。
agents: agents(AI agent/代理):指可自动执行多步骤任务、调用工具或编排 LLM 的系统架构,讨论集中在 agents 是否已成熟并走出编程场景。