OpenAI将跳过5.3版,直接发布GPT-5.4升级计划
近日,OpenAI的一名工程师在公开的Codex GitHub仓库中提交了一则拉取请求(PR),不经意间让GPT-5.4这一型号出现在代码版本判断条件中,引发外界关注。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
OpenAI是否打算跳过GPT-5.3,直接迈向GPT-5.4?
就在这条PR被网友发掘出来的同时,另一条线索也浮出水面:有用户发现,GPT-5.4曾短暂出现在Codex应用的模型选择器里。据说这张截图最初源自一位OpenAI员工在X上的发帖,不过帖子很快被删除。
图 1
两则信息的源头,都指向OpenAI内部员工,这很难不让人产生联想:GPT-5.4是否已经在内部测试,甚至进入发布准备阶段?
然而,更耐人寻味的是,这两条线索在被传播后迅速被修改或删除:PR被强制推送覆盖,社交平台帖子消失。
图 1中那条写着“gpt-5.4 or newer”的PR,在数小时后被悄悄修改为“gpt-5.3-codex or newer”。
图 2中引用的原帖也已经被删除。
这些操作反而让讨论更加升温,是内部测试分支被提前暴露?还是命名体系尚未最终确定?又或者只是一次占位符版本号的误用?在没有最新说明的情况下,代码层面的擦痕本身,也成为了新的解读对象。
而更具戏剧性的,是后续在社交平台上流传的进一步爆料。
有X用户声称,GPT-5.4的真正突破不在常规推理基准,而在内存与上下文架构。传闻指向一个高达200万token的上下文窗口,并配合真正的有状态AI(stateful AI)。这意味着模型不再是会话内记忆,而是能够在不同会话之间保留工作流、环境配置乃至工具状态。
如果这一方向属实,GPT-5.4变化的重心就不再是更聪明的回答,而是更持久的认知连续性。
你觉得OpenAI会完全跳过5.3版本,直接用5.4吗?
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
新加坡国立大学破解AI看图说话难题让机器描述更准确
人工智能的“幻觉”问题,特别是大模型在图像描述任务中凭空捏造内容的现象,一直是制约其可靠应用的关键挑战。2026年2月,一项由新加坡国立大学与北京大学深圳研究生院联合发布的突破性研究,为这一难题提供了全新的理解与一套高效、简洁的解决方案。这项研究(论文预印本编号:arXiv:2602 22144v1
斯坦福大学JavisDiT++实现AI有声有色视频生成
这项由浙江大学、新加坡国立大学、多伦多大学等全球顶尖科研机构联合完成的研究成果,已正式发表于2026年国际学习表征会议(ICLR 2026),论文预印本编号为arXiv:2602 19163v1。对于希望深入探究技术细节的读者,可通过此编号查阅完整的学术论文。 在浏览短视频时,你可能已经察觉到一种普
北大提出AI推理双车道方案解决大模型对话卡顿难题
这项由北京大学计算机学院主导,联合清华大学及DeepSeek-AI共同完成的前沿研究,其成果已正式发布于2026年2月的arXiv预印本平台,论文编号为arXiv:2602 21548v1。关注大语言模型推理优化的研究者与开发者,可通过此编号查阅论文全文与技术细节。 在与大语言模型进行深度、多轮对话
清华大学AI突破:赋予虚拟世界持久记忆,解决视频生成失忆难题
想象一下,你正在体验一款开放世界游戏。当你站在高塔之巅,远方的山脉清晰可见。随后你转身离开,去探索地图的其他角落。许久之后,当你再次回到这座塔顶,那座山依然以完全相同的姿态矗立在原地。这种空间持久且一致的认知,是人类理解世界的基础。 然而,若让当前的主流AI来动态生成这样的游戏场景,结果会大相径庭。
大模型压缩技术COMPOT让AI运行更高效
随着人工智能模型参数规模不断突破千亿级别,其庞大的存储需求和计算开销已成为实际部署的主要瓶颈。针对这一挑战,MWS AI基础研究中心与ITMO大学联合提出了一种名为COMPOT的创新模型压缩技术。这项发表于2026年2月预印本平台(arXiv:2602 15200v1)的研究,为大语言模型高效“瘦身
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

