OpenAI发布GPT-5.3-Codex-Spark:每秒千Token即时反馈
IT之家2月13日消息,Cerebras与OpenAI联合发布了全新的GPT-5.3-Codex-Spark模型,专注于实时编程场景的应用。这也是两家公司首次公开合作成果。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
IT之家备注:该模型由Cerebras提供算力支持,已于当地时间2月12日以“研究预览”形式向特定用户开放。

据介绍,Codex-Spark主要面向对交互速度要求极高的实时软件开发场景,能够实现超过1000 tokens/s的推理速度,从而提供近乎即时的编码反馈体验。
OpenAI在公告中指出,近年来“智能编码代理”正逐步改变软件开发模式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的挑战,包括开发者等待时间延长、对开发过程的掌控感降低等问题。
OpenAI表示,软件开发本质上属于迭代过程,需要开发者在过程中持续把控方向、进行决策审阅,因此Codex-Spark被设计为与Codex实时协作的模型,强调“快速响应、及时反馈、可引导操作”的特性,确保开发者在工作中始终保持主导地位。
从定位来看,Codex-Spark被描述为“具备高度能力的小型模型”,主要针对快速推理场景进行了专门优化。OpenAI称,在SWE-Bench Pro、Terminal-Bench 2.0等软件工程基准测试中,Codex-Spark在显著缩短任务耗时的同时,能够给出比GPT-5.1-Codex-mini更优质的回答。
在具体能力方面,OpenAI强调Codex-Spark擅长进行精准代码修改、计划调整,并能围绕代码库进行上下文问答。最新说明还提到,该模型适用于快速可视化新布局、优化样式方案,以及测试界面变更等工作。
OpenAI同时介绍了Cerebras的硬件支持能力。据悉,Wafer-Scale Engine拥有业内最大的SoC片内内存,可支持用户实现每秒数千token级别的高速推理,并可扩展至数千套系统,将高速内存容量提升至多TB级别,以支持万亿参数模型的训练与推理。OpenAI表示,预计在2026年将这种“超高速推理”能力扩展到更大规模的前沿模型。
在开放范围方面,OpenAI称Codex-Spark将以研究预览形式向ChatGPT Pro用户推送,覆盖Codex应用、命令行工具以及VS Code扩展,同时API接口将逐步向部分设计合作伙伴开放。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
行业首发:OpenClaw全网刷屏,ClawManager一键收编AI龙虾大军
新智元报道编辑:KingHZ【新智元导读】研究员三个月科研对话记录一夜清零,企业敏感数据公网裸奔……全行业首个企业级OpenClaw服务器部署管理方案ClawManager问世,让OpenClaw真
甲子光年:科技如何重塑空间设计行业新价值
当“好看”成为基础门槛,头部设计公司开始把自己改造成一种新的组织:它既做创意,也做设计开源;既做项目,也做科技能力构建。矩阵纵横(Matrix Design)上海新总部的落成,正是这一产业价值锚点变
马斯克AI创业项目xAI:完整解析与未来展望
智东西作者 陈骏达编辑 李水青智东西3月29日报道,今天,xAI联合创始人罗斯·诺丁(Ross Nordeen)在社交平台X上悄然移除了自己的xAI员工认证,离开了这家以马斯克为首的AI独角兽。至此
海归AI人才潮:从少年极客到中年创客的归国路
田晏林 发自 凹非寺量子位 | 公众号 QbitAI春分之后的北京海淀,暖意至,万物生。人工智能产业的发展更是如火如荼。过去五天里,位于“宇宙中心”五道口的AI原点社区,30多场派对狂欢不停。这是在
AI for EDA提速25倍:论芯率如何以AI读懂芯片协议文档
允中 发自 凹非寺量子位 | 公众号 QbitAI当所有人在讲AI for EDA的故事,论芯先跑进了产线芯片设计的复杂度每两年翻一番,但有一个环节的效率几乎没变过——读文档SoC验证工程师,在写下
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

