OpenAI发布GPT-5.4 mini与nano:最强小模型主打低延迟与高性能
3月18日,OpenAI发布迄今最强大的小型模型GPT-5.4 mini与GPT-5.4 nano,专为高频且对延迟敏感的任务设计。官方强调,在代码助手、系统截图解析以及实时图像推理等对延迟要求极高的场景中,响应迅速且能可靠调用工具的小型模型往往比大型模型更具优势。
GPT-5.4 mini在编写代码、逻辑推理、多模态理解以及工具调用方面的表现远超GPT-5 mini,同时运行速度提升了2倍以上。在SWE-Bench Pro和OSWorld-Verified等多项基准测试中,成绩已经逼近体积更大的GPT-5.4模型。凭借极低的延迟,该模型特别适合需要快速迭代的代码工作流,能够高效处理精准编辑、代码库导航及前端生成等任务。在多模态领域,它也能迅速解析密集的电脑用户界面截图,出色完成各类计算机操作任务。
GPT-5.4 nano是目前体积最小、价格最亲民的版本,作为GPT-5 nano的重大升级版,专为将速度和成本视为首要考量的任务而生。开发者可将其广泛应用于文本分类、数据提取、内容排序,以及处理简单辅助任务的代码子代理中。
两款模型目前已正式开放使用。GPT-5.4 mini已全面接入API、Codex及ChatGPT。其API版本支持400k上下文窗口,输入与输出成本分别为每百万Token 0.75美元和4.50美元;在Codex中调用仅消耗GPT-5.4额度的30%;在ChatGPT中,Free和Go用户可通过“思考”功能体验。相比之下,GPT-5.4 nano目前仅通过API提供,输入与输出成本极低,分别为每百万Token 0.20美元和1.25美元。