加载失败
这场讨论源自 Google Cloud Threat Intelligence Group(Google Cloud 的威胁情报团队)发布的研究/博客,称攻击者利用 AI 帮助发现并武器化了一个漏洞;随后 NYT(The New York Times)把它写成“黑客用 AI 找到重大软件缺陷”。实际被影响的不是 Google 自家产品,而是一个流行的开源、Web-based system administration tool(网页式系统管理工具),Google 还表示它不认为 Gemini(Google 的模型/聊天机器人)或 Anthropic 的 Mythos(一个受限的安全研究模型)参与其中。评论区主要在争论“high confidence”到底凭什么、是否只是基于 LLM 风格代码或攻击流量痕迹作推断,以及媒体是否过度复述厂商对 AI 安全能力的宣传。讨论随后延伸到 AI 既能帮助黑客,也可能被用来推动模型限制、本地部署、KYC 和 open-weight 生态的控制。
很多评论者并不相信公开声明足以区分“AI辅助”与普通的 zero-day 攻击。大家质疑所谓“high confidence”到底来自什么,因为文章并没有展示被捕获的攻击者终端、聊天记录或可直接证明使用 LLM 的证据。有人推测线索可能只是 LLM 风格的 Python 代码、过度解释性的注释、emoji 项目符号、em-dash,或看起来像 hallucinated library references 的痕迹。也有人认为顶多只能说明攻击链里某处用了 AI,不足以证明它就是发现漏洞的关键原因。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
另一派认为,Google、Cloudflare、Microsoft 这类平台能看到大量互联网级别的信号,因此 threat intelligence 团队给出高置信度并不奇怪。评论里提到他们可能能交叉比对搜索查询、DNS lookups、analytics、email 轨迹、工作站 telemetry,甚至模型 transcripts,从而还原攻击路径。也有人强调 Google 已明确说不是 Gemini 或 Mythos,这至少说明公开说法不是简单拿自家模型背书。这个观点的核心是:外界低估了大平台在后台拼接证据的能力。
不少人把这篇报道看成 enterprise AI 的营销素材,而不是纯粹的安全新闻。有人怀疑“AI 找到漏洞”这种说法很适合拿来推销受限模型、强化恐惧叙事,甚至为限制“危险”的 Chinese AI models 预热。也有人直接批评媒体在复述厂商宣传时缺乏怀疑精神,把模型能力的夸张表述当成既定事实。这个阵营认为,故事本身可能没那么新,真正被放大的反而是公关和政治效果。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9]
还有一批评论接受了一个更现实的前提:黑帽黑客本来就很适合用 LLM。攻击者只需要一次成功,所以模型偶尔犯错并不致命,只要它能加速枚举、读代码、改 payload 或反复试探 API。有人把这和 fuzzing 的历史类比,认为 AI 可能会带来类似的漏洞发现潮,尤其是在冷门代码路径或边角 API 上。与此同时,也有人提醒 AI 生成的代码常常只会局部“看起来对”,对整个系统行为并不敏感,所以它更可能挖出低垂果实或系统级协调漏洞。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
讨论很快扩展到更大的政策问题:安全会不会成为限制 open-weight 和 local LLMs 的借口。有人担心厂商和政府会借“安全”推动模型必须跑在受控服务器上,甚至通过 KYC、地区封锁或实体清单来压缩开放生态。也有人主张本地 AI 才能避免隐私和平台监控,但现实是高端 GPU、VRAM 和成本门槛让本地替代短期内很难追平云端。这个主题的底层焦虑,是攻击者用 AI 的风险,最终可能换来更封闭的 AI 供应链。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14] [来源15] [来源16]
也有人把问题翻过来问:既然坏人能用 AI 找漏洞,防守方为什么不能更快地用 AI 补洞。评论指出真正的瓶颈往往不是发现,而是验证修复、协调发布和落地部署。另一些人则更悲观,认为 AI 写出来的代码正在把软件质量整体拉低,增加 bug、放大 slop,并让系统层面的判断更弱。这个视角下,AI 不只是攻击工具或防御工具,而是在同时重塑软件工程的两端。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9]
zero-day: 尚未公开或尚未修补的漏洞,攻击者可在厂商未知时先行利用。
LLM: Large Language Model,大语言模型,能生成文本、代码并辅助分析安全问题。
open-weight model: 可获取模型权重并自行部署的模型,通常更容易本地运行和调参。
Mythos: Anthropic 的受限安全研究模型,评论中被拿来和 Gemini、GPT-5.5-Cyber 对比。