OpenAI携手Cerebras发布GPT-5.3-Codex-Spark:专为实时编程打造
2月13日,OpenAI与芯片公司Cerebras联合发布最新AI编程模型GPT-5.3-Codex-Spark,主打“实时编程”场景。该模型由Cerebras提供算力支持,目前已以“研究预览”形式开放,是双方合作的首个公开发布成果。
Codex-Spark的核心定位是对交互速度要求极高的实时软件开发场景。OpenAI表示,该模型可实现超过每秒1000 token的推理速度,从而为开发者提供近乎即时的编码反馈。这一特性旨在应对近年来“智能体编码”(agentic coding)趋势中可能产生的新问题——当机器能够长时间自主工作时,开发者可能面临等待时间变长、过程掌控感降低等挑战。
OpenAI在公告中指出,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、做出审美与决策判断。因此,Codex-Spark被设计为与现有Codex模型实时协作的工具,强调“快速、响应及时、可引导”,让开发者保持在工作流中的主导地位。
从技术定位上看,Codex-Spark被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI称,在SWE-Bench Pro、Terminal-Bench 2.0等软件工程基准测试中,该模型在显著缩短任务完成时间的同时,能够给出比GPT-5.1-Codex-mini更高质量的回答。
在具体能力上,Codex-Spark擅长精确代码修改、计划调整,并能围绕代码库进行上下文问答。OpenAI还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等任务,进一步贴近前端开发与界面设计的实际需求。
Cerebras的硬件能力在此次合作中扮演关键角色。据称,其Wafer-Scale Engine具备业内最大的片上内存,可支撑用户实现每秒数千token级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展至多TB级别,以支持万亿参数模型的训练与推理。OpenAI表示,预计在2026年将这种“超高速推理”能力带到更大规模的前沿模型上。
上线范围方面,Codex-Spark将以研究预览形式向ChatGPT Pro用户推送,覆盖Codex应用、命令行工具(CLI)以及VS Code扩展,同时API访问将向部分设计合作伙伴逐步开放。此次发布标志着AI编程工具从“能写代码”向“实时协作”的进一步演进。在强调速度与可控性的实时编程场景中,Codex-Spark试图在“自主智能体”与“人工主导”之间找到新的平衡点。