当前位置: 首页
AI
清华物理系传奇姚顺宇告别Anthropic,开启新征程,转投Google DeepMind

清华物理系传奇姚顺宇告别Anthropic,开启新征程,转投Google DeepMind

热心网友 时间:2025-10-08
转载

近日,科技领域传来一则引人关注的消息:曾在清华大学物理系斩获传奇特奖的姚顺宇,已从知名人工智能公司Anthropic离职,转而加入谷歌旗下的人工智能研究部门DeepMind。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

姚顺宇的学术履历堪称耀眼。2015年,他考入清华大学物理系,大二时便开始选修研究生理论课程。在周期驱动系统拓扑场论领域,他提出了一种针对非厄米系统中拓扑能带理论的新方法,并成功预测了相关现象。这一研究成果发表在世界物理学顶级期刊《物理评论快报》上,引发了学界的广泛关注。一位211大学的副教授曾感叹,即便是在该校担任教授的学者,其物理水平也难以超越姚顺宇本科时期的成就。

2019年,姚顺宇从清华大学本科毕业后,前往斯坦福大学攻读博士学位。毕业后,他先在加州大学伯克利分校从事博士后研究,随后于2024年10月1日加入Anthropic的Claude团队,参与了一项后来被称为Claude 3.7 sonnet的论文研究。这标志着他从物理领域正式转向人工智能领域。

谈及为何放弃物理学而选择人工智能,姚顺宇表示,理论物理学是一个极具智力挑战的领域,需要综合运用数学、计算机科学(如复杂性理论)以及物理学本身的知识。然而,这个领域多年来缺乏实验验证,导致很难客观判断理论工作的重要性,也难以通过实验消除分歧和困惑。相比之下,人工智能或量子计算可能提供更多机会。尽管他认为量子计算未来会变得重要,但目前的瓶颈主要在于实验平台。因此,他最终选择了人工智能。

在Anthropic期间,姚顺宇参与了Claude从3.7版本升级到4.5版本的工作。人工智能的快速发展让他感到惊讶,也让他学到了很多。然而,他最终决定离开,主要有两个原因。

姚顺宇在博客中提到,Anthropic是物理学家(以及其他STEM背景的博士)开启AI研究之旅的理想平台之一。但尽管在Anthropic的经历让他受益匪浅,他认为现在是时候继续前行,探索新的机会。

来源:https://www.itbear.com.cn/html/2025-10/980038.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
吉利银河之光第二代北京车展亮相 智擎混动技术革新绿色出行体验

吉利银河之光第二代北京车展亮相 智擎混动技术革新绿色出行体验

在第十九届北京国际汽车展览会上,吉利汽车以一系列创新成果成为全场焦点 展台上,全新发布的银河之光第2代概念车、原生新能源越野架构,以及i-HEV智擎混动技术,共同勾勒出吉利在新能源与智能化领域的战略版图。这不仅仅是几款产品的展示,更像是一次技术路线的集中宣言。 产品落地与技术普及双线并进 具体到产品

时间:2026-05-06 17:01
知识图谱AI构建!复杂知识点可视化,理解更轻松

知识图谱AI构建!复杂知识点可视化,理解更轻松

知识图谱AI构建:五种方法,让复杂知识一目了然 面对海量、零散又抽象的知识点,是不是常常感觉理不清头绪?问题很可能出在缺乏结构化的梳理和可视化的呈现。将知识转化为图谱,恰恰是破解这一困境的利器。下面这五种AI构建方法,几乎覆盖了从技术极客到纯小白的全部需求场景,总有一款能帮你轻松跨越从0到1的门槛。

时间:2026-05-06 15:58
用Minimax进行SEO文章撰写:关键词布局与自然度控制

用Minimax进行SEO文章撰写:关键词布局与自然度控制

用Minimax进行SEO文章撰写:关键词布局与自然度控制 如果你用Minimax生成的SEO文章,总感觉关键词生硬堆砌,排名纹丝不动,甚至被搜索引擎判定为低质内容,那问题很可能出在两个地方:关键词布局失当,以及文章自然度失控。别急,这并非工具本身的问题,而是方法需要优化。下面这套系统性的操作路径,

时间:2026-05-06 15:58
代码自动审查_本地大模型充当程序员副驾

代码自动审查_本地大模型充当程序员副驾

可本地运行开源大模型实现离线代码审查:部署轻量模型、集成提示词、绑定IDE插件、配置Git钩子与上下文感知分析 跨越从0到1的创作门槛,AI智能助手能提供诸多便利。但当你处理敏感代码,希望完全避免云端传输时,一套本地的、自动化的代码审查方案就显得尤为关键。 将敏感代码上传至云端总伴随着潜在风险。那么

时间:2026-05-06 15:57
Llama 3 批量推理配置_处理十万条数据需要预估多少时间成本

Llama 3 批量推理配置_处理十万条数据需要预估多少时间成本

一、基于 vLLM 引擎的吞吐反推法 如果你已经部署了vLLM服务,并且能拿到实时的性能监控数据,那么用吞吐量反推总耗时,可能是最直接、最贴近实际的方法。这个思路的核心就两点:一是你当前服务的稳定吞吐能力,二是你那十万条数据到底“吃”多少token。 首先,你得拿到一个可靠的基准数据。查看监控指标v

时间:2026-05-06 15:57
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程