Reflection 是一家由前 Google DeepMind 研究人员创立的初创公司,已筹集 20 亿美元资金,估值为 80 亿美元。该公司的目标是在美国建立一个开源的前沿人工智能实验室,以挑战封闭的和外国的竞争对手。该公司由联合创始人 Misha Laskin 和 Ioannis Antonoglou 于 2024 年 3 月成立。 Laskin 此前在 Google DeepMind 领导了 Gemini 项目的奖励建模,而 Antonoglou 是 AlphaGo 的联合创始人,该人工智能系统在 2016 年击败了世界围棋冠军。这一经验为他们在成熟科技巨头之外构建前沿模型的战略提供了信息。 Reflection 最初专注于创建自主编码代理,然后扩大其使命,成为 OpenAI 和 Anthropic 等实验室的开源替代品。新一轮 20 亿美元融资将 Reflection 的估值提升至 80 亿美元,比七个月前的 5.45 亿美元估值增长了 15 倍。在获得新资本的同时,Reflection还宣布从DeepMind和OpenAI招募顶尖人工智能人才。该公司还表示,它已经开发了一个向所有人开放的先进人工智能培训堆栈,并“确定了一个符合我们开放智能战略的可扩展商业模型。” Reflection 的团队由首席执行官 Misha Laskin 领导,约有 60 人。这些员工主要由从事基础设施、数据训练和算法开发的人工智能研究人员和工程师组成。据拉斯金介绍,这家初创公司已经获得了一个计算集群,并计划明年发布一个前沿语言模型。该模型预计将在“数十万亿代币”的数据集上进行训练。在社交媒体平台 X 上的一篇帖子中,Reflection 详细介绍了其技术成就。该公司表示:“我们建立了一些曾经被认为只能在世界顶级实验室内实现的东西:一个大型法学硕士和强化学习平台,能够在前沿规模上训练大规模专家混合(MoE)模型。” “当我们将我们的方法应用于自主编码的关键领域时,我们亲眼目睹了该方法的有效性。随着这一里程碑的实现,我们现在正在将这些方法引入通用代理推理。” https://twitter.com/reflection_ai/status/1976304405369520242 Mixture-of-Experts (MoE) 模型是支撑前沿级大型语言模型的特定系统架构。直到最近,大规模训练这些复杂模型的能力主要局限于大型封闭式人工智能实验室。包括 DeepSeek 在内的中国公司通过开发以开源方式训练 MoE 模型的方法取得了重大进展。随后,Qwen 和 Kimi 等其他中国车型也取得了类似的成就。这些来自中国的强大开源模型的出现是 Reflection 使命的主要动力。 “DeepSeek 和 Qwen 以及所有这些模型给我们敲响了警钟,因为如果我们不采取任何行动,那么实际上,全球情报标准将由其他人建立,”拉斯金说。他补充道,“它不会由美国建造。”