Sam Altman驳斥AI误解 人类将更忙碌且创业意愿增强
关于“AI取代人类工作”的讨论,最近出现了一个值得玩味的转折。在《下一个重大事件》节目中,OpenAI的CEO萨姆·奥特曼罕见地公开反驳了一种流行叙事。他认为,“50%的工作将消失”这句话本身,就是一种灾难传播。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
他甚至直言,由一家可能成为史上最有价值公司的负责人,跑出来说“我们要消灭一半岗位”,这本身就缺乏共情。更反常识的是,奥特曼并不认为AI会让人失业、变懒或失去价值。恰恰相反,他提出了一个反直觉的判断:AI能力越强,人类可能越忙。
他分享了一个真实案例:有人用新模型一小时干完了过去几周的工作。你以为他会去喝咖啡?不,他半夜爬起来继续干。因为能做的事情,突然多到了不可思议的程度。
这并非孤例。另一个被彻底打脸的说法是:AI只会抄袭,不会创造。奥特曼回忆,当年无数科学家信誓旦旦地说:“预测下一个token永远不可能产生新知识。”但是当ChatGPT推导出物理学家认为AI不可能解开的公式,做出了人类从未见过的围棋“第37手”,这些论断都被现实推翻了。
那么,工作到底会不会消失?奥特曼的回答像个清醒的异类:工作形态会变,但“无所事事的世界”不会来。人类永远会寻找新的边界、新的难题、新的产品去奋斗,哪怕只是为了证明自己还有用。
爱上AI,不需要理由
是什么让一位顶尖的科技公司CEO,在二十年前就痴迷于AI?在访谈中,奥特曼给出了两个核心理由。
首先,从技术角度看,它就是世界上最酷的东西。让计算机思考、替我们做事、帮助人类——这个想法本身就极其迷人。人类技术进步的历史,就是在工具之上不断创造新工具,搭建越来越复杂的“脚手架”。AI是这条路径的自然延伸,是一个非常优美的想法。
其次,从科技与科学发现的角度来说,它真的可能让世界变得更好。把这种工具交到人们手中,让大家去创造、探索、建立公司、创作艺术,这正是世界变好的方式,也是人们获得成就感的重要来源。我们即将进入一个时代:一个人或三个人就能建立一家强大的公司。AI将释放的人类潜力,以及它带来的新事物,是过去完全无法想象的。
AI和预测极其相近,学会预测才能谈AI
Transformer架构刚出现时,看起来只是一个预测文本的模型。但这个突破却推动了整个领域的巨大进展。奥特曼经常思考这一点,并引用OpenAI联合创始人伊利亚·苏茨克沃的一句话:“预测非常接近智能。”
意思是,如果你能够把关于世界的一切信息压缩成最小的表达形式,并在此基础上预测接下来会发生什么,那你其实已经在某种深层意义上理解了世界。这就像孩子理解世界的过程。当时很多AI研究者对生成式模型感到兴奋却说不清原因,核心或许就在这里:预测与智能极其接近。构建真正理解数据的系统,学会预测下一步,是非常关键的一环。
那么,如果给不同的人输入完全相同的信息,输出会一样吗?奥特曼的答案是否定的,而且他很庆幸不会。人类经验的丰富性正来自差异,不同的兴趣、天赋,以及不同的“训练数据”。如果每个人都产生完全相同的想法,那将是一件非常悲哀的事情。
怎么定义AI的人格?应该多鼓励?还是多批评?
历史上从来没有这么多人在与“同一个心智”对话。如今,每周有数亿用户与ChatGPT互动。这对设计其“人格”提出了前所未有的挑战。
奥特曼坦言,这件事极其困难。不同的人想要不同的人格,同一个人在不同时间也想要不同的人格。短期来看,你可能希望模型不断鼓励你;但从长期成长角度,你可能更希望它挑战你、反驳你。几乎没有人真的想去调节一个“多幽默一点”或“少批评一点”的滑块,就像现实生活中我们不会这样设定朋友一样。
目前,ChatGPT还无法完美理解这种情境差异,但这是努力的方向。记忆能力和理解用户的能力正在推进。过去尝试过的“人格滑块”被证明并非正确方向。
GPT-4o曾因“过于迎合用户”引发讨论,但也有人写信说,那是他们人生中唯一支持他们的对话。奥特曼至今仍记得那些邮件,这带来了巨大的责任。行业过去像对待生物安全风险那样,用严格的科学方法去研究“AI人格”的影响了吗?并没有。但它对世界产生的影响已经非常巨大,大部分是积极的,也确实出现过负面影响。
关于默认人格应该是什么、边界在哪里,至今没有一个“标准答案”。但可以确定的是,这是一个极其重要、而且只会越来越重要的问题。
根据文化差异调整AI,人类仍需做好克服困难的准备
那么,该如何思考并解决这个难题?奥特曼的做法是,邀请一小部分他认为在不同层面都非常有智慧的人参与进来,包括来自伟大精神传统的人、顶级临床心理学家,以及那些真正理解人类互动与动机来源的专家。他请他们尝试为ChatGPT撰写不同版本的“行为指南”,探讨怎样的方式能够最大化人的成长、成就感和幸福感,并尝试让AI对齐这些原则。
这当然需要考虑文化差异,但人类身上也存在一些超越文化的、更接近生物学层面的共性。有本名为《Human Universals》的书研究了几乎所有已知人类文化,发现了一些有趣的普遍性,例如“重视旅行”居然在所有文化中都存在。
然而,随着AI可能带来巨大繁荣,一个担忧浮现了:如果每个人都能选择工作而非被迫工作,生活条件优越,那“奋斗”怎么办?人类是否仍然需要挑战和克服困难的过程?这些似乎也是人类进化的重要组成部分。
有了AI人就不工作了?新产品、新事物、新边界仍需要人来探索
这种担忧或许是一种“错误类比”。回看历史上的技术革命,总体就业并没有减少,只是岗位发生了变化。我们曾被承诺过每周工作四小时、更少压力、更多幸福。但问题在于,人类总想要更多,标准在不断提高。
更重要的是,我们想要成就感、竞争、对彼此有价值。无论未来世界变成什么样,人类仍然会探索新的边界、发明新产品、新服务,创造新的事物。就像几十年前有音乐制作人说“音乐已经足够好了,人类大概不再需要创作新音乐了”一样,事实并非如此。人类不是那样运作的。
所以,无论你怎么看,人们仍然会努力工作、会感到压力、也会不断追求创造与突破,并在这个过程中获得成长和满足。也许未来的“奋斗形式”完全不同于今天,但那种精神本质应该是相似的。
“50%岗位消失”属于灾难叙事,不要过度神话AI
为什么“50%的工作将消失”这种叙事会流行?奥特曼认为,人类天然更容易被“灾难叙事”吸引。新闻更倾向报道坏事,人们似乎也更喜欢讨论未来可能多么糟糕。面对如此规模的技术变革,保持谨慎是合理的,从进化角度看,关注风险有助于防御危险。
但他也指出,由AI公司CEO来说“我们会消灭一半工作岗位”,本身就显得缺乏共情。这不是正确的理解方式。工作确实会消失,但历史上每一次技术革命都是如此;真正发生的是工作形态改变。

有人告诉他,用新版模型一小时完成的事情,两年前需要几周。原以为会变得更轻松,但现实是,他比以往任何时候都更忙,甚至半夜醒来继续工作,只因为能做的事情太多了。新工具出现后,人类会用新的方式创造。经济结构和就业形态会发生巨大变化,关于新的社会契约的严肃讨论是必要的。但未来不会变成一个人人无所事事、失去意义的世界。世界不会停止运转——只是会变得不同而已。
预测下一个 token 不可能产生新知识?ChatGPT推翻了这个理论
AI本质上是一个预测模型,那它如何实现科学突破?是像人类一样推理,还是像围棋“第37手”那样创造出前所未有的事物?
奥特曼想起最早的GPT模型刚出来时,很多聪明的科学家断言:“预测下一个token永远不可能产生新知识。”他们认为模型只是基于已有数据训练,不可能发现任何新东西,并给出了各种高级的解释。

但后来,从某个版本开始,模型开始以小规模的方式为人类知识体系贡献新内容,比如证明此前未证明的数学定理,或提出新的物理学发现。虽然规模尚小,但趋势已经出现。
某种意义上,“第37手”就是这种现象的例子。训练模型去预测下一个token,听起来只是复述已有内容。但它却能够利用这种能力,去发现世界上从未存在过的新东西——这在直觉上并不明显。真正发生的事情是:通过“预测下一个token”的训练,模型学会了推理,理解了数据之间的关系,并能补全下一步,即使那是它从未见过的。这种推理能力可以应用于全新的问题。
训练更快更聪明的模型,比让人类拥有聪明的大脑容易得多
人类其实也是如此。人可以学习所有已知的物理学知识,通过训练形成思维方式,而不仅仅是记住事实,最终发现新的物理规律。这些模型正在做的事情,本质上类似。
那么,人类是否也能做到?如果给足时间和更强的大脑,大概是可以的。但相比之下,制造一个更大、更快的模型,要比让人类拥有更大的大脑容易得多。所以我们拥有了一种新的“外部思考工具”。它可以替我们对一个问题进行极高强度的思考。当你看到模型能在几秒钟内阅读几十万页资料时,你会意识到,以人类目前的大脑规模,这是不可能的。

AI辅助医疗,从不可能到可能
在科学突破方面,个性化医疗是一个令人兴奋的方向。例如,为每个癌症患者定制mRNA疫苗。这听起来像是我们理所当然应该拥有的东西,但为何尚未实现?
原因很多,其中一个重要问题是监管体系,比如FDA目前还不太适合处理这种高度个性化的医疗模式。不过情况正在快速改善。
奥特曼本人也会使用ChatGPT管理健康,甚至有点过度,自称“ChatGPT疑病症”。任何轻微症状,他都会开始在ChatGPT里深挖,也会上传体检报告。刚发布ChatGPT时,它在医疗方面的能力很有限。当时很多人说:人们永远不会用ChatGPT获取医疗建议,它不够好,也永远不可能足够好。

当然,人们仍然想咨询医生。但现在用户向ChatGPT提出医疗问题的数量,以及他们反馈说获得了非常有帮助的信息的比例,已经高得惊人。
“AI没有价值,不能改变世界”——荒谬且让人恼火
一直有人怀疑这项技术是否真的会产生巨大影响,这会困扰奥特曼吗?答案是:会。按理说现在不应该再困扰了,但它还是让人非常恼火。
任何重大技术突破都是这样。在人类真正飞上天空之前,报纸还在说人类永远不可能飞行,可能要等一百年,结果下一周人类就飞起来了。OpenAI早期经常提到《纽约时报》关于莱特兄弟的那篇文章,并预言AI也会像这样发展。事实证明他们是对的。
在早期阶段,质疑“也许不会产生巨大影响”在智识上是诚实的。但现在还有人说AI没有真正价值、不会改变世界,这就太荒谬了。这种观点既不诚实,也非常令人沮丧。
AI让人类越来越忙,给了每个年轻人创业的机会
当每天都在一线努力推动事情前进时,你希望更多人相信它。人们必须先“看见”,才会真正投入并开始建设。归根结底,人们在为真正关心的事情努力时才最有成就感。
过去几周,奥特曼一直在亲自观察人们使用最新模型,理解它如何改变工作,他们兴奋什么、不满意什么,以及还需要什么能力。他主要和公司创始人或资深工程师交流,但也意识到应该去和更多年轻人坐下来,让他们直接试用,观察行为、倾听担忧。
几年前,25岁左右的创业者明显减少了。现在情况完全改变了。是什么造成了这种变化?很多因素同时发生。美国教育体系曾经历过低迷时期,又恰逢疫情,在某种程度上削弱了一整代人的动力,不断告诉他们未来会变坏、资本主义不好、公司不好、野心也不好。现在这种氛围已经被纠正了,人们重新开始拥抱进取心。
另一个原因是,创业往往在技术格局发生重大变化时最繁荣。2008年iPhone App Store发布时是一次浪潮,更早AWS出现时也是一次。但之后很长时间没有新的技术范式转变,直到AI出现。那段时间就像在荒野里前行——依然有成功公司,但远没有真正技术转折期那么多。

现在的AI只是”前菜”,个人AGI才是终极目标
现在有三个最重要的方向:
第一,加速科研。从AI本身研究到物理、生物等领域,科学研究对人类影响巨大。
第二,加速经济发展。包括自动化创业、企业通过AI提高生产力,甚至未来建设太空殖民地。

第三,是“个人AGI”。ChatGPT只是一个早期预览。真正理想的状态是:有一个始终为你工作的AGI,理解你全部人生背景与上下文,持续使用算力让你的生活变得更好。
这三个方向在底层技术上高度相似,但它们是社会最能感受到价值的领域。
十亿万亿token不是神话,但单纯追求token是不理智的
AI的发展呈指数级,很多人认为更长的上下文窗口会非常关键。但奥特曼认为,不一定需要字面意义上十亿或万亿token的上下文窗口。真正重要的是模型能够有效理解你的整个人生、整个公司或所有你关心的事情。
现在已经出现很多惊人的方法,可以在现有上下文窗口内识别真正重要的信息,或在需要时调用工具检索次要信息,从而更高效地利用容量。随着新模型以及未来几个月将加入的新功能,那种感觉会非常接近“无限上下文”:模型真的理解了大量信息,脑中拥有的内容甚至比人类自己记住的还多。

算力最易突破、数据次之、算法突破回报最高但最难
新模型有什么不同?更聪明、更快,上下文更长。主观体验就是现在让模型做一件事,大多数时候它真的能做对。这得益于大量算法层面的改进,这是一个更新、更好、更大的基础模型,采用了不同的架构和优化。同时,也整合了过去学到的所有后训练经验,包括人们如何真正使用这些模型,以及如何把模型连接到现实世界。
AI的进步大致来自三个方向:更好的算法、更多的数据,以及更多算力。不过“更多数据”是个宽泛概念,可能意味着更多训练数据,也可能意味着把模型接入一个持续学习的循环。
那么,哪个方向最容易取得突破?增加算力是最确定的路径。这里的科学不多,主要是资金和供应链问题,但基本可以通过投入来实现。算法突破的回报最高,但也是最难、最不确定的。数据改进则处在中间。

自我递归已经开始,远未达到AI自己造模型的阶段
更好的数据是不是和递归学习有关?比如模型自己教自己?可以是。如果模型足够聪明,它可能证明一个以前没人证明过的定理。下一轮训练时,这个新证明就成为新的学习材料。
我们现在是不是已经进入模型自我改进阶段?这个问题很难界定。从某种意义上说,显然是的。比如工程师因为Codex效率提升了三倍,他们用上一代模型写代码来构建下一代模型,这某种程度上就是自我改进。但如果你指的是那种“按一个按钮,让AI自己发明新算法并造出下一代模型”,那肯定还没有。
不大力发展机器人,就只能等着被AGI“指挥”
我们生活在物理世界里。即便是在虚拟世界中,也需要庞大的物理基础设施:制造芯片、建设数据中心、运营电站等等。如果出现一种未来,计算机能完成惊人的智能工作,但因为我们没解决机器人的问题,人类反而要成为AGI的“执行器”,被指挥去搬桌子、操作设备,那将是一个噩梦般的未来。所以必须发展机器人。
哪种形态的机器人最好?奥特曼并不执着于具体形态,真正想要的是自动化制造能力。当需要某种东西时,可以拥有像ChatGPT一样通用的机器人工厂,能够自我重构,然后生产更多这种东西。至于OpenAI会自己制造还是合作,目前还不知道。
iPhone虽伟大但不是为AI设计,要为AI重新发明硬件
除了机器人,AI硬件本身也是重点。奥特曼认为,iPhone是史上最伟大的消费电子产品之一,但它并不是为“AI全程理解你的人生”这个世界设计的。手机是开或关的,但如果一段对话很有价值,我希望未来我的个人AGI能理解并记住它,而手机放在口袋里做不到这一点。需要一种设备,在用户愿意时,它能参与、理解并记录。
但如果设备始终在记录,人们会产生不适感。奥特曼完全同意这一点。他最初找前苹果首席设计官乔尼·艾夫聊天,正是因为他在思考AI时代的硬件形态,以及那种“技术过度存在于生活中”的不适感。哪怕是智能音箱,也会让人觉得侵入性很强。他认为艾夫非常擅长设计能够在这些矛盾之间取得平衡的产品。

从不信任Agent到彻底被Agent驯服
对于后台运行的AI智能体(Agent),奥特曼的态度经历了巨大转变。当团队最早做Codex应用时,有个功能允许AI在后台直接操作电脑,不需要每一步都询问用户。一开始他坚决说绝对不会打开这个功能。但坚持了几个小时后,他被不断授权操作烦到了,就打开了。
于是一个Agent开始在后台帮他处理各种事情。很快他甚至不想关电脑,因为它还在替他工作。这个转变非常自然、毫无戏剧性。他从完全不信任,变成非常喜欢有一个智能体在后台持续做有用的事情。
它当时具体做什么?处理消息、处理邮件。后来他试着让它直接看看电脑,自己判断能做些什么来帮忙。第一次尝试的时候其实没有,但它启发他做了一个自动生成的待办事项列表,一个可以自动补全的to-do list,非常有意思。这只是他自己写的一个小程序,并非集成在ChatGPT里的功能。

有AI的未来,每个人都会有一个幕僚长式的Agent
未来会不会出现多个Agent协同工作?比如一个当私人教练,一个负责别的事情?奥特曼经常在想这个问题。这其实是他最想知道答案的产品设计问题之一。人们究竟希望怎样和AI一起工作?他猜测人们会在认知上区分不同的Agent,然后会有一个类似个人助理或幕僚长的核心Agent,大多数时候负责协调其他Agent。
如果畅想未来,比如2050年,一种几乎难以想象的繁荣是有可能的。真正希望、也必须努力争取的是,人类拥有极高程度的自主性,每个人都能创造和行动,超越今天的想象。同时,要避免权力过度集中。至于世界具体长什么样,不知道。也许会有太空殖民地,也许有飞行汽车,也可能有悬浮列车。希望它看起来真的像“未来”。

那么,这位AI领域的领军人物,脑子里最常出现的想法是什么?奥特曼的回答是:如何让这项技术成功地在社会中落地。不只是技术本身,而是如何促进人类的自主性和创业精神?未来的社会契约应该是什么样?如果GDP下降,但生活质量持续上升,这意味着什么?又该如何在不破坏短期经济的前提下,足够激进地建设供应链和算力基础设施,为一个良好且公平的未来做好准备?这些问题,他每天都在思考。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
Sam Altman驳斥AI误解 人类将更忙碌且创业意愿增强
关于“AI取代人类工作”的讨论,最近出现了一个值得玩味的转折。在《下一个重大事件》节目中,OpenAI的CEO萨姆·奥特曼罕见地公开反驳了一种流行叙事。他认为,“50%的工作将消失”这句话本身,就是一种灾难传播。 他甚至直言,由一家可能成为史上最有价值公司的负责人,跑出来说“我们要消灭一半岗位”,这
Claude Code开发问题多?七阶段开源工作流拦截十大关键Bug
一个真实线上特性从实施到 ready-to-merge 的完整复盘:为什么仅靠 AI 写代码不够、为什么冷上下文审查能找出熟人看不到的 bug、如何把工作流固化成可复用的技能。 最近,我用 AI 助手完成了一个订单改单幂等重试的特性开发。整个过程,恰好暴露了从“代码能跑”到“代码能上线”之间,那道容
DeepSeek混合专家系统原理详解为何运行效率更高
DeepSeek模型采用混合专家系统,通过稀疏激活机制动态选择专家,显著减少计算量。专家分工精细,提升任务适配精度,共享专家机制平衡负载。层级化MoE架构处理不同抽象特征,DeepEP通信库优化分布式训练效率。
Qwen3.6编程指南temperature参数调优提升代码生成准确性
使用Qwen3 6生成代码时,调整temperature参数可提升准确性。建议将温度设置在0 1至0 3的低区间以增强确定性;可结合top_p参数进一步稳定输出;针对不同代码类型分层设置温度值;利用logit_bias屏蔽常见错误token;或通过few-shot示例动态校准温度。这些方法有助于在灵活性与准确性间找到平衡。
Figma插件Recraft嵌入教程设计师效率提升10倍实战指南
Recraft与Figma联动可提升设计效率。主要方法包括:使用第三方插件在Figma内调用Recraft生成SVG;通过复制PNG参考图跳转至Recraft网页生成后拖回;利用控制台脚本直接注入SVG代码;或结合Figma变量与Recraft风格库管理多主题资产。各方法适应不同技术需求。
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

