OpenAI持续加速:轻量级模型矩阵正式亮相

在GPT-5.4发布仅两周后,且该版本本身距离前代仅相隔两天,OpenAI于本周二再度推出两款新型模型——GPT-5.4 Mini与GPT-5.4 Nano。这两款并非传统意义上的精简版,而是专为高响应速度与低运营成本设计的垂直场景解决方案。

专为极速响应打造的微型架构

OpenAI将其定义为‘当前最强小型模型’,并披露GPT-5.4 Mini在推理速度上相较前代提升逾两倍。对于那些因等待数秒才得回复而困扰的开发人员而言,这一改进意义重大——尤其在实时编码辅助等对延迟敏感的应用中。

尽管准确度未达旗舰水平,但其适用性恰恰建立在‘精准非唯一需求’的前提之上。若应用场景为高频重复问答(如客服系统处理固定问题集),则无需动用资源密集型模型,而应选择能在百毫秒内完成响应、单次调用成本不足一美分的高效方案。

性能逼近主流基准线

测试数据显示,GPT-5.4 Mini在SWE-Bench Pro编码修复能力评估中取得54.4%得分,显著优于旧版GPT-5 Mini的45.7%,接近完整版GPT-5.4的57.7%。在桌面操作能力验证平台OSWorld-Verified中,其表现达72.1%,虽略低于旗舰模型的75.0%,但已远超人类平均表现(72.4%)。

GPT-5.4 Nano同样实现跃升,在相同测试中获得52.4%(SWE-Bench Pro)与39.0%(OSWorld)的成绩,较前代同类产品有明显进步,展现出在特定流程中的实用潜力。

多模型协同工作的新范式

内部评估显示,此次发布的Mini与Nano已在实际测试中展现出协同潜力。专家指出:‘Mini具备强大逻辑推理能力,适合承担复杂任务;而Nano则在实时交互中表现出极佳响应效率。’

这为系统架构带来全新思路——未来应用可采用混合模式:由大型模型负责整体规划与调度,多个小型模型并行执行具体操作,如代码检索、文档解析或表单处理。模型的角色定位正日益成为系统设计的核心考量。

面向开发者的经济化部署路径

API调用价格方面,GPT-5.4 Mini每百万输入token收费0.75美元,输出为4.5美元;而更轻量的GPT-5.4 Nano输入仅需0.2美元,输出1.25美元,成本约为Mini的四分之一。此价格策略极大降低了初创企业每日处理海量请求的门槛。

目前,基础用户可通过附加菜单启用‘思考’功能体验GPT-5.4 Mini;当付费用户达到GPT-5.4使用上限时,系统将自动降级至Mini版本。而GPT-5.4 Nano现阶段仅开放API接口,明确指向开发者生态,暂不面向普通终端消费者。