当前位置: 首页
AI
田渊栋团队获44亿投资布局递归进化AI新赛道

田渊栋团队获44亿投资布局递归进化AI新赛道

热心网友 时间:2026-05-14
转载

没有产品,只有25个人。成立不到半年,估值却冲到了46.5亿美元。更令人侧目的是,这家公司的八位联合创始人,清一色是AI领域最顶尖的研究员。他们手握6.5亿美元,赌的竟是自己这个职业的消亡。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

图片

看看这份名单:NLP词向量奠基人、Salesforce前首席科学家Richard Socher;Salesforce AI Research前高级副总裁Caiming Xiong;Meta FAIR前研究总监田渊栋;Vision Transformer(ViT)第一作者Alexey Dosovitskiy;达尔文·哥德尔机作者、进化算法先驱Jeff Clune;DeepMind Genie世界模型核心研究员Tim Rocktäschel;OpenAI机器人团队搭建者Josh Tobin;以及OpenAI早期成员、AI客服独角兽联创Tim Shi。

这几乎就是过去十年AI关键突破的作者名录。他们的公司名叫“递归超级智能”(Recursive Superintelligence),昨天正式从“隐身模式”中走了出来。背后的投资阵容堪称豪华——GV(谷歌风投)和Greycroft领投,AMD Ventures和英伟达跟投。

图片

八个顶级AI研究员,烧6.5亿美元赌自己失业

Socher几周前的一句话,现在看来更像是一份战书。他提出了神经网络的“第三阶段”,并暗示这或许是最后一个阶段。

第一阶段,神经网络学会了自动提取特征,特征工程师这个岗位随之消失。第二阶段,统一大模型干掉了任务专用的架构设计,一批细分赛道的公司不见了踪影。那么第三阶段呢?答案是:AI学会训练自己。

图片

如今打造一个前沿模型,OpenAI、Anthropic、DeepMind这些头部实验室需要动用数百人忙活好几个月。从数据筛选、训练设计,到后训练对齐、研究方向选择,每一步都高度依赖人类专家。

但问题在于,全世界真正能胜任这项工作的人,恐怕不超过几千个。而且,模型越复杂,人类理解和优化它的能力就越接近天花板。

Recursive要做的,就是把上面这条完整的研发管线自动化。评估、数据筛选、训练、后训练、研究方向选择,全部交给AI自己来完成。整条链路形成闭环,从头到尾无需人类插手。

如果这件事做成了,它将开启一个自我强化的反馈循环:AI改进自己 → 改进后的AI更擅长改进自己 → 循环不断加速。这就是所谓的“递归自我进化”(Recursive Self-Improvement, RSI),也正是这家公司名字的由来。

图片

全明星首发阵容

田渊栋

上海交通大学本硕,卡内基梅隆大学机器人研究所博士。在Meta FAIR工作近十年,离职前担任研究总监,领导大语言模型的推理、规划与决策方向。他主导的ELF OpenGo项目曾用单块GPU击败围棋职业选手,还孵化了StreamingLLM和GaLore等知名项目。他也是ICLR 2026递归自我进化研讨会的联合组织者。

图片

Tim Shi

清华大学计算机科学学士(期间在MIT交换),斯坦福大学AI实验室博士,研究方向为自然语言处理与强化学习。2016年作为早期成员加入OpenAI,参与核心模型开发。后来联合创办了AI客服公司Cresta并担任首席技术官。

图片

Caiming Xiong

纽约州立大学布法罗分校计算机科学博士,加州大学洛杉矶分校统计学博士后。他与Socher是MetaMind时期的老搭档,公司被Salesforce收购后,共同搭建了其AI研究体系,并担任AI研究高级副总裁,管理过NLP、计算机视觉、对话AI等多个团队。发表论文超百篇,曾获ACL 2019杰出论文奖。

图片

Richard Socher

斯坦福大学计算机科学博士,NLP领域被引用最多的研究者之一,发明了最早一批被广泛使用的词向量和上下文向量技术。2014年创办MetaMind,2016年被Salesforce收购后出任首席科学家和执行副总裁。离开后创办了AI搜索引擎You.com,估值一度达15亿美元。如今,他放下了这一切,投身于这家尚无产品的公司。他近期解释过自己的动机:在一次招聘中,候选人拒绝了offer,理由是“AI研究员这个岗位几年内就会被自动化”。Socher听完,决定亲自去验证这个判断。

图片

Jeff Clune

密歇根大学哲学学士,密歇根州立大学计算机科学博士,现任不列颠哥伦比亚大学计算机科学教授。他是进化算法和开放式AI系统领域的先驱,曾在Uber AI Labs担任创始成员,后于OpenAI担任研究管理职务。他在Sakana AI主导的达尔文·哥德尔机研究,首次证明了AI智能体可以自主重写自身代码以提升基准测试性能。

图片

Alexey Dosovitskiy

莫斯科国立大学数学博士。他最广为人知的成就是提出了Vision Transformer(ViT),那篇题为《一张图像值16x16个词》的论文是过去五年计算机视觉领域被引用最多的研究之一,直接将Transformer架构从NLP引入视觉领域,重塑了整个技术路线。

图片

Tim Rocktäschel

柏林洪堡大学计算机科学硕士,伦敦大学学院博士。现任伦敦大学学院人工智能教授,曾在Meta FAIR担任研究经理,后加入Google DeepMind担任高级研究科学家,参与了Genie世界模型项目。

图片

Josh Tobin

哥伦比亚大学数学学士,加州大学伯克利分校计算机科学博士。读博期间即在OpenAI担任研究员三年,一手搭建了OpenAI的机器人能力,参与了著名的AI解魔方机械手项目。离开后联合创办了机器学习监控公司Gantry。他的专长在于将研究成果转化为可用的工程系统。

图片

这八个人,背景横跨Meta FAIR、Google DeepMind、OpenAI、Salesforce AI、Uber AI等顶尖机构,研究方向覆盖进化算法、世界模型、视觉Transformer、强化学习、机器人、自然语言处理等核心领域。他们从不同的路径出发,却独立得出了同一个结论:AI的下一步,是让AI自己创造模型。目标不是更大,而是更自主。

这种“殊途同归”的故事,向来是投资人最爱听的剧本。显然,GV和英伟达也听进去了。

不是科幻:有人已经跑通了一半

Recursive的野心并非凭空而来。过去一年,“AI自我进化”正从学术设想一步步走向可操作的工程方向。

2025年5月,Google DeepMind发布了AlphaEvolve。这个系统以大语言模型为核心引擎,通过进化搜索来设计和优化算法。它证明了一件事:AI在算法设计领域,已经能做出人类研究员级别的工作。

几乎在同一时间,Jeff Clune在Sakana AI发布了达尔文·哥德尔机。这个项目更为激进,它让AI智能体自主重写自己的优化函数和代码,然后在基准测试上验证改进效果。有效则保留,无效则回滚,这个循环可以无限进行下去。

再看近处,2026年5月,国际学习表征大会在里约热内卢举办了首个专门研究“AI递归自我进化”的学术研讨会。一个领域从“有人在做”发展到“拥有顶会专属研讨会”,通常意味着它已越过概念验证,进入了工程化竞赛的新阶段。

用Jeff Clune的话说:“我们正处在递归自我进化系统的拐角处。”

图片

当然,也有不同的声音。AI2的知名研究员Nathan Lambert在今年3月提出了一个对立概念——“有损自我进化”。他的观点是,模型越复杂,优化就越困难,投入再多的算力和智能体也会产生巨大的冗余损耗。顶级模型的训练成本已是数十亿美元量级,不会有人放任AI在无人监督的情况下烧掉这么多钱。进步会有,但更可能是线性的,而非指数级的。

这个判断是否正确?Recursive用6.5亿美元和八个顶级大脑,押上了另一边的赌注。

Anthropic已经在赚这笔钱了

如果你觉得“AI训练AI”还只是实验室里的遥远构想,不妨看看产品端正在发生什么。

最近,Claude Code的产品负责人Cat Wu也描述了一个三阶段演进图景:第一阶段是“同步开发”,即人类写代码,AI实时辅助,这是去年的常态。第二阶段是“自动化常规任务”,现在正在发生,用户将重复性工作交给Claude自动处理。而第三阶段,她称之为“主动预判”。

在她看来,下一个突破口就是“主动性”。AI将能理解你正在进行的工作,然后主动帮你把相应的自动化流程搭建好。你甚至还没开口,它就已经动手了。

Cat Wu说这番话时,Anthropic的年化收入刚刚突破300亿美元,实现了80倍的增长。Claude Code的年化收入超过25亿美元,企业订阅数量从年初至今翻了四倍。

这些数字和这种产品态度说明了一件事:“AI从被动走向主动”已经不再是概念,而是在产生真金白银的收入。

于是,局面变得清晰起来:在实验室一端,Recursive在构建让AI自己做研究的系统;在产品一端,Anthropic在打造让AI主动替人类干活的工具。两条战线看似相隔甚远,但终点指向同一个未来:AI不再等待人类按下按钮。

这一场,赌的是整条赛道

从AGI(通用人工智能)终极竞赛的视角来看,这件事的味道就完全不同了。

当前Claude与GPT的双强对决,比拼的是研究团队、算力储备和企业客户。每一个百分点的性能提升,背后都是数千人苦干数月的成果。

而Recursive想要做的事,如果成功了,无异于将这场游戏的规则彻底掀翻重写。它赌的不是某个模型的胜利,而是整个AI研发范式的碘伏。

来源:https://www.51cto.com/article/843249.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
微软AI内存优化新突破:模型更聪明却无需额外内存消耗

微软AI内存优化新突破:模型更聪明却无需额外内存消耗

这项由微软研究院与清华大学联合发布的突破性研究成果,于2026年4月正式公开,论文编号为arXiv:2604 01220v1。它针对当前人工智能发展中的一个核心挑战——如何在提升模型能力的同时控制资源消耗——提出了一个极具创新性的解决方案。 如今,手机AI助手已融入日常生活,但你是否想过:能否让AI

时间:2026-05-14 21:01
清华大学AI视觉模型推理能力深度评测报告

清华大学AI视觉模型推理能力深度评测报告

这项由清华大学、美团、香港大学等多家顶尖机构联合开展的研究,于2026年3月以预印本论文(arXiv:2603 25823v1)的形式发布。它直指当前AI视觉生成领域一个被长期忽视的核心问题:这些能画出“神作”的模型,到底有多“聪明”?研究团队为此构建了一套全新的测试基准——ViGoR-Bench,

时间:2026-05-14 21:01
AI科学写作新突破:机器自动生成完整学术论文

AI科学写作新突破:机器自动生成完整学术论文

人工智能的浪潮席卷了各个领域,机器在诸多任务上已展现出超越人类的能力。然而,有一个看似寻常却异常复杂的领域,始终是AI研究者们渴望攻克的堡垒——让机器像真正的学者那样,撰写出一篇结构严谨、逻辑自洽、图文并茂的完整科学论文。这远比下棋或识图要困难得多。 2026年3月,一项由中科院AgentAlpha

时间:2026-05-14 21:01
法国Hornetsecurity与里尔大学合作:AI隐私保护技术从675亿到1.5亿参数的知识迁移实践

法国Hornetsecurity与里尔大学合作:AI隐私保护技术从675亿到1.5亿参数的知识迁移实践

这项由法国Hornetsecurity公司与里尔大学、法国国家信息与自动化研究院(Inria)、法国国家科学研究中心(CNRS)以及里尔中央理工学院联合开展的研究,发表于2026年3月31日的计算机科学期刊,论文编号为arXiv:2603 29497v1。 在信息爆炸的今天,我们每天都在网上留下数字

时间:2026-05-14 21:01
清华大学AI自主编写操作指南研究突破人工编程局限

清华大学AI自主编写操作指南研究突破人工编程局限

当你满怀期待地拆开一台全新的智能设备,最令人困扰的往往不是如何使用它,而是如何让它真正“理解”指令并智能地执行任务。如今,一个更为优雅的解决方案可能已经出现。来自清华大学深圳国际研究生院与哈尔滨工业大学(深圳)的联合研究团队,近期取得了一项极具前瞻性的突破:他们成功训练人工智能自主“撰写”并精准理解

时间:2026-05-14 21:01
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程