摘要:OpenAI在短短两周内接连发布GPT-5.4 Mini与GPT-5.4 Nano两款轻量化模型,聚焦低延迟、低成本场景。新模型在编码与桌面操作任务中表现亮眼,且商业化定价亲民,为开发者构建高效协作系统提供新可能。

OpenAI持续加速:轻量级模型矩阵正式亮相
在GPT-5.4发布仅两周后,且该版本本身距离前代仅相隔两天,OpenAI于本周二再度推出两款新型模型——GPT-5.4 Mini与GPT-5.4 Nano。这两款并非传统意义上的精简版,而是专为高响应速度与低运营成本设计的垂直场景解决方案。
专为极速响应打造的微型架构
OpenAI将其定义为‘当前最强小型模型’,并披露GPT-5.4 Mini在推理速度上相较前代提升逾两倍。对于那些因等待数秒才得回复而困扰的开发人员而言,这一改进意义重大——尤其在实时编码辅助等对延迟敏感的应用中。
尽管准确度未达旗舰水平,但其适用性恰恰建立在‘精准非唯一需求’的前提之上。若应用场景为高频重复问答(如客服系统处理固定问题集),则无需动用资源密集型模型,而应选择能在百毫秒内完成响应、单次调用成本不足一美分的高效方案。
性能逼近主流基准线
测试数据显示,GPT-5.4 Mini在SWE-Bench Pro编码修复能力评估中取得54.4%得分,显著优于旧版GPT-5 Mini的45.7%,接近完整版GPT-5.4的57.7%。在桌面操作能力验证平台OSWorld-Verified中,其表现达72.1%,虽略低于旗舰模型的75.0%,但已远超人类平均表现(72.4%)。
GPT-5.4 Nano同样实现跃升,在相同测试中获得52.4%(SWE-Bench Pro)与39.0%(OSWorld)的成绩,较前代同类产品有明显进步,展现出在特定流程中的实用潜力。
多模型协同工作的新范式
内部评估显示,此次发布的Mini与Nano已在实际测试中展现出协同潜力。专家指出:‘Mini具备强大逻辑推理能力,适合承担复杂任务;而Nano则在实时交互中表现出极佳响应效率。’
这为系统架构带来全新思路——未来应用可采用混合模式:由大型模型负责整体规划与调度,多个小型模型并行执行具体操作,如代码检索、文档解析或表单处理。模型的角色定位正日益成为系统设计的核心考量。
面向开发者的经济化部署路径
API调用价格方面,GPT-5.4 Mini每百万输入token收费0.75美元,输出为4.5美元;而更轻量的GPT-5.4 Nano输入仅需0.2美元,输出1.25美元,成本约为Mini的四分之一。此价格策略极大降低了初创企业每日处理海量请求的门槛。
目前,基础用户可通过附加菜单启用‘思考’功能体验GPT-5.4 Mini;当付费用户达到GPT-5.4使用上限时,系统将自动降级至Mini版本。而GPT-5.4 Nano现阶段仅开放API接口,明确指向开发者生态,暂不面向普通终端消费者。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
