加载失败
Yann LeCun(著名深度学习研究者、前Meta首席AI科学家)创办的AMI/Amilabs完成约10亿美元种子融资,媒体与评论普遍称其为欧洲有史以来规模最大的种子轮。LeCun宣称将沿着JEPA(Joint Embedding Predictive Architecture,一类自监督嵌入预测方法)和world models(旨在学习物理/时空因果动力学的模型)路线推进研究,这直接触发社区对“是否比以自回归为主的LLM更可能通往AGI”的激烈辩论。讨论同时涉及办公地(巴黎、蒙特利尔、新加坡、纽约等报道)、投资者构成(含美方资金)、与已有欧洲玩家(如Mistral)或先例(如Thinking Machines Labs)的比较,以及算力、股权和税务等落地细节与风险评估。
不少评论把这笔资金视为对欧洲有利的信号:一方面可以建立不以美中为中心的前沿实验室,以防像Mistral(法国AI公司)那样转向集成与企业咨询而放弃研究前沿。评论具体提到AMI将在巴黎、蒙特利尔、新加坡和纽约设点,讨论中有人担忧出于税务或激励考量IP可能会放在新加坡,但也有声音希望借此吸引并留住本地AI人才。部分评论还把投资者构成(含美方资金)与欧洲资本稀缺、人才流动等现实问题联系起来,认为资金能否真正落地于研发和雇佣是关键。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7]
讨论核心是LeCun倡导的JEPA路线(以嵌入空间预测为目标的自监督方法)与当前以自回归token预测为主的LLM路线谁更可能走向AGI。支持者认为 JEPA/世界模型能直接从视频、时序与感知数据学习因果与时空动力学,弥补仅从“静态文本”学习的LLM在泛化与真实世界推理上的结构性限制;举例有人在健康时序数据上用JEPA训练出可用结果。反对者指出令牌化的多模态LLM、VLM或ViT也能表示时空信息,且在大量数据与交互循环下模型架构差异可能被数据和工程路径稀释;讨论同时触及持续学习、在线更新、以及是否需要exabytes级数据和更大模型才能实现可靠世界模型的具体争议。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8]
许多评论对10亿美元级种子轮表达警惕,认为超大种子轮带有名人效应和炒作风险,历史上像Thinking Machines等高额种子项目并未必能产出商业化成果。有人强调投资者对回报的期望会给纯研究导向施压,若团队不能快速pivot或实现产品化,这笔钱可能只是回到了市场上而没有带动更广泛的欧盟初创生态。讨论还具体提到种子轮中高比例股权(例如有评论指出33%)以及100%超额认购等融资细节,提醒注意估值与长期算力/运营成本之间的差距。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
部分评论质疑LeCun在Meta拥有大量资源却未带来明显的应用级成果,认为此次融资在某种程度上是对其个人世界观和领导力的押注。另一派为其辩护,列举Meta期间对开源与基础研究的贡献(例如推动模型开源、DINO、SAM、JEPA相关研究等),并指出LeCun更多是科研引导者而非产品负责人。讨论同时涉及他在公开场合的言论与形象(例如维基百科描述或公开推文)对团队管理和外界看法的影响,认为投资本质上也在赌创始人的判断与路线选择。
评论中有人把焦点拉回到实际开销:即便是10亿美金,也可能被几个大型训练运行或云厂商账单迅速耗光,一位评论者还按AWS粗估过大模型训练成本。有人具体询问这轮资金会怎样在算力/训练、研究人员、基础设施和日常运营之间分配,担心种子轮性质使得长期硬件与持续训练成本难以覆盖。另有观点指出硬件与基础设施支出可能远超预期,估值与实际可用算力之间的不匹配会影响能否在短期内与OpenAI/Anthropic等巨头正面竞争。
JEPA: JEPA(Joint Embedding Predictive Architecture):一种由Yann LeCun倡导的自监督学习范式,目标是在嵌入表示空间中预测未来或其他视图的表示,避免像素/令牌级重构以获得抽象、压缩的时空表示,常用于视觉与世界建模研究。
世界模型 (world model): 直接学习物理/时空动力学、因果关系和持久对象表示的模型,通常通过视频/传感器数据与动作交互来训练,用于预测、规划与控制,目标是获得比纯文本更具“落地”因果理解。
自回归模型 (autoregressive models / LLMs): 按序列逐步预测下一个token的模型训练范式(多数Large Language Model采用),训练目标是最大化下一个令牌的概率;优点是可扩展且易于训练,但被部分学者批评在长期因果推理和连续物理世界建模上存在结构性局限。
递归自我改进 (RSI): Recursive Self-Improvement:指AI通过改进自身设计或训练流程来加速下一代AI发展的能力,理论上可能产生指数级能力提升,并引发安全、治理与时间窗口的忧虑。