AlphaGo之父警示:AI被严重低估,2026年或能自主创业
当我们还在调侃「AI写错代码」时,实验室里的科学家却看到它能独立完成几个小时的复杂任务。AlphaGo作者Julian罕见发声:公众对AI的认知,至少落后一个世代。最新数据更显示,AI正以指数速度逼近专家水准,2026或许就是临界点。我们,是在见证未来,还是在自欺欺人?
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
AlphaGo、AlphaZero的核心作者——Julian抛出了一个尖锐的比喻:人们今天对AI的态度,很像当初面对新冠疫情早期的反应。
Julian的意思很直接:我们正在严重低估AI的进展。
图片
很多人还在笑它写错代码,抱怨它没法替代人类;但在实验室里,研究者早已看到另一幅景象——AI已经能独立完成几个小时的复杂任务,并且还在按指数速度进化。
这就是他决定站出来发声的原因:公众的认知,和前沿的现实,之间至少隔着一个世代的落差。
图片
科学家不忍再沉默:AI为何被大众低估?
Julian Schrittwieser的名字,或许不像马斯克、奥特曼那样家喻户晓,但在AI圈,他是响当当的存在。
图片
作为AlphaGo、AlphaZero、MuZero的核心作者之一,他亲历了AI从「围棋科幻」到「现实碾压」的全过程。
也正因如此,当他在个人博客写下那段话时,格外刺耳:
人们注意到AI还会犯错,就急着下结论:它永远不可能达到人类水准,或者影响有限。可别忘了——就在几年前,让AI写程序、设计 还完全是科幻!
在他看来,今天的舆论氛围有点荒谬。
大众盯着模型出错的细节,就断言「AI不过如此」;记者拿两代模型的闲聊对比,觉得「没啥变化」,就认定「进步停滞」;政策讨论里,AI被当成遥远的、虚浮的「泡沫」。
然而,实验室里的研究者看到的,却是另一幅画面:AI的能力曲线正在以指数型跃升。
Julian bluntly指出,公众与前沿之间的认知差距,至少滞后了一个世代。
他之所以站出来发声,不是为了渲染危机,而是为了提醒:如果连科学家眼前清晰可见的趋势都被忽视,真正的临界点到来时,我们几乎没有准备。
指数曲线下的震撼,AI「独立上班」的时间在翻倍
Julian提出的第一个关键证据,来自一家专门研究模型能力的机构——METR (Model Evaluation and Threat Research)。
他们的思路很直白:不再只看模型答题对错,而是衡量它们能自主完成多长时间的真实任务。
在今年早些时候的研究里,METR给出的答案是:Claude 3.7 Sonnet能在约1小时长度的软件工程任务中保持50%的成功率。
图片
这意味着,它已经具备独立撑起一段「实打实的工作时长」的能力。
Julian指出,更令人震惊的是——这条曲线呈现出指数增长趋势,每7个月翻一倍。
Sonnet 3.7已经是7个月前的模型,正好对应METR统计出的翻倍周期。
他随即给出最新的对照:在METR正式更新的图表里,可以看到Grok 4、Claude Opus 4.1、GPT-5已经排在右上角。
图片
Julian博文引用的METR数据,横轴为时间,纵轴为可完成任务的时长。可以看到GPT-5、Opus 4.1已经突破两小时大关。
它们不再是「1小时工作」,而是能够支撑超过2小时的任务。指数并没有放缓,反而略超预期。
这条线的含义不止是「2小时」,而是它所暗示的外推未来:
如果趋势不变,2026年年中,模型将能连续完成8小时工作;再往后,2027年,模型可能在不少复杂任务上超越人类专家。
Julian的意思很明确:你也许不必喜欢这种预测,但忽视它的代价极高。
跨行业评测:AI已逼近人类专家
如果说METR的研究证明了AI在软件工程任务上的「时间地平线」不断拉长,那么另一项研究——OpenAI的GDPval则把这个趋势带进了现实经济。
GDPval的设计非常直接:找来44个职业、9大行业的任务,每个职业挑选30个真实工作样本,总共1320项任务。
图片
GDPval任务覆盖9大行业,44个职业,模型表现已与人类差距极小。Claude Opus 4.1在多个维度甚至领先GPT-5。
这些任务由平均14年经验的行业专家设计,再交给模型去完成,最后由盲评打分:只看结果,不看作者是谁。
Julian在博文里写道:
最新的结果显示,GPT-5在许多职业任务上已经接近人类水准。更令人意外的是,Claude Opus 4.1(发布时间甚至早于 GPT-5),在GDPval上的表现显著优于GPT-5,几乎追平了行业专家。
这不是某个孤立benchmark的「漂亮成绩」,而是在跨越法律、金融、工程、医疗、创意等行业的真实检验中,AI开始逼近人类平均水平。
图片
OpenAI GDPval评测结果(2024–2025)。纵轴为模型在真实职业任务中的胜率(对比有多年经验的行业专家),深色为纯胜率,浅色为胜或平局。可以看到GPT-5已逼近「行业专家水平线」。
更值得注意的是:OpenAI在这份报告中,并没有刻意凸显自家模型,反而坦诚承认友商Claude的表现更好。
图片
Julian特别称赞这一点,认为这是行业少见的「科研诚信」:
在追求安全和有益结果时,比拼输赢反而不是最重要的。
当然,GDPval的设计也并非完美。
Julian也提醒,许多任务依然相对「整洁」(messy程度不高),没有模拟长周期、多轮反馈的复杂工作环境。
但即便如此,趋势已经足够说明问题——AI不只是能写点小程序,而是在真实的职业场景里,正一步步靠近甚至超越人类。
质疑声出现:趋势真的可靠吗?
在Julian的博文下,不少读者认同「AI没有泡沫」,但也有人提出尖锐的质疑。
其中,Atharva Raykar的评论获得了高赞。他指出:
把AI的进展直接类比成指数曲线,其实很危险。疫情的指数传播有明确机制支撑,而AI的提升并不是必然的。
图片
他的观点是:AI的进步更像是摩尔定律,靠整个行业不断叠加创新与工程突破。
如果没有推理模型等关键节点的突破,能力曲线可能早就「撞墙」。所以,单纯外推曲线,未必能保证未来必然继续加速。
Atharva还提到另一个问题:评测任务不够「messy」。
METR的任务平均「复杂度得分」只有3/16,相当于结构清晰的小型工程任务;而现实世界中的软件项目、科研探索,往往在7–16的区间,远比benchmark混乱。
也就是说,现在的评测结果可能高估了AI在真实世界中的适用性。
Julian在后续回复中承认了这些提醒的合理性,但也强调:
我类比的重点并不是AI一定会像病毒传播那样加速,而是公众和决策层正在忽视已经发生的增长。
短期(1–2 年)的趋势依然很清晰——在这种尺度上,外推往往比专家预测更靠谱。
在他看来,问题的关键不是曲线未来是否会「拐弯],而是:如果趋势真的继续,而社会却没有准备,那代价将会极其沉重。
未来是替代,还是百倍增幅的协作?
Julian 在文章的最后给出了他最具冲击力的预测:
2026年中,至少有一款顶级模型能连续自主完成8小时的工作任务——这意味着它不再只是一个「对话工具」,而是能真正以「全职员工」的形式参与工作流。
2026年底,在多个行业任务中,会有模型的表现正式达到人类专家的平均水平。
2027年之后,在不少垂直任务里,AI的表现将频繁超越专家,并逐步成为生产力的主力。
这不是科幻,而是从当前曲线直接外推出的「保守版本」。
Julian直言,忽视这种趋势,比过度担忧更危险。
但他同时也强调,AI的未来不一定意味着「替代」。在他设想的画面里,更有可能出现的是这样一种场景:
人类依旧是指挥者,但身边会有几十个、上百个超强助手。人机协作下的效率提升,不是1倍,而是10倍、100倍。
这种模式不仅能避免大规模失业的恐慌,还可能释放前所未有的创造力。
科研、设计、医疗、法律、金融……几乎所有行业都会因此重组。
Julian把这种可能性称为「更安全、更有益的道路」:让AI成为超强工具,而不是对手。
这幅未来图景令人震撼:或许在不远的2026或2027,你不是被AI取代,而是带着一支「AI 团队」去上班。
Julian的提醒,其实很简单:我们正在低估AI。
不是说它完美无缺,而是它的曲线比多数人想象的更快、更陡。
按照当前的趋势,2026或许就是关键转折点——AI可能不再是「实验室的奇观」,而是走进每一个普通行业,真正改写经济的底层逻辑。
这不是危言耸听,而是一个事实:未来两三年内,我们都将直面一个被低估的临界点。
而当那一刻到来时,每个人都要回答同一个问题:你会抵抗、观望,还是率先和你的AI团队并肩上岗?
参考资料:
https://x.com/polynoamial/status/1972167347088904371
https://www.julian.ac/blog/2025/09/27/failing-to-understand-the-exponential-again/
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
一篇讲透:豆包、元宝、DeepSeek、Kimi、WorkBuddy,职场里到底怎么分工
别再把所有 AI 当成一个东西:WorkBuddy 和豆包、元宝、DeepSeek、Kimi,到底该怎么选? 这一年,AI 的进化速度着实叫人眼花缭乱。 大家的关注点,早就从“这工具能写文章吗”跳到了“它能不能帮我做方案、改稿子、整理会议纪要,甚至把任务往前推一步”。 于是,一个新问题浮出水面。 很
我用WorkBuddy“克隆“了一个我,从此每句话像我自己说的
如何使用WorkBuddy深度学习我的说话方式,让每一份文案都自带个人风格 作为一名企业培训师,每年主讲上百场课程是行业常态。无论是线下公开课、线上直播,还是视频号、公众号的内容创作,每天的工作状态不是在授课,就是在准备各种讲稿的路上。早期借助通用AI工具辅助创作,写作效率确实有所提升,但生成的内容
英国视障跑者挑战马拉松,将借助智能眼镜“看”到赛道、辨别方向
英国视障跑者挑战马拉松,将借助智能眼镜“看”到赛道、辨别方向 最近有一则科技助残的新闻,让人眼前一亮。当地时间4月2日,英国BBC报道称,视障跑者克拉克·雷诺兹正计划借助一项创新技术,参加一场全程马拉松。这项技术的巧妙之处在于,它能让世界另一端有视力的志愿者,实时“看到”雷诺兹眼前的景象,并为他提供
彻底卸载 OpenClaw (龙虾) 指南
彻底卸载 OpenClaw (龙虾) 指南 想把 OpenClaw(大家常叫它“龙虾”)从你的系统里清理干净?这事儿得讲究个章法,胡乱删除往往治标不治本,残留的服务和文件就像散落在角落的贝壳,时不时硌你一下。接下来,咱们就按一套稳妥的流程,帮你把它请走。 卸载原则 核心原则就一句话:先停服务,再卸工
AI 让英国学生“不会思考”,近 6000 名英格兰中学教师表示担忧
AI让英国学生“不会思考”?近6000名教师敲响教育警钟 一项来自英国教育界的深度调查,为当前AI技术涌入课堂的热潮带来了冷静思考。据英国《卫报》4月2日报道,英格兰的中学教师们普遍观察到一种现象:随着人工智能在教育中的应用日益广泛,学生的批判性思维能力与深度思考习惯正面临下滑风险。这项由英国全国教
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

