← 返回 AI 热点新闻 OpenAI 发布 o3-mini,面向开发者的低延迟推理模型全面开放
访问首页
🧠 推理模型 发布日期:2025-02-05 来源:OpenAI Developer Blog

OpenAI 正式发布 o3-mini,将 o1 系列的链式推理能力带入秒级延迟体验。新模型针对复杂问题默认启用逐步思考,并允许开发者通过 reasoning tokens 精细控制推理长度,实现性能与成本的平衡。o3-mini 在 ChatGPT、Assistants API 与直接 API 请求中均可使用,适合嵌入代码解释、分析报告与多步骤代理等场景。

核心升级亮点

  • · 默认启用思考链输出,可通过参数设定最大 reasoning tokens,防止成本失控。
  • · 引入 Structured Output,接受 JSON Schema 定义并返回完全符合约束的结构化结果。
  • · 在安全层面升级推理审计,提供思考过程日志与拒绝敏感任务的策略开关。

生态与工具链

  • · Assistants API 中的 o3-mini 支持 Code Interpreter 与文件检索,形成闭环解决方案。
  • · 与新推出的 Reasoning API 计费模式兼容,可基于推理步数与完成 tokens 分别计价。
  • · Playground 提供可视化推理流程,开发者可逐步调试思考链并导出配置。

OpenAI 表示,o3-mini 将作为 2025 年上半年重点推广的推理模型,与 o1-preview、o1-mini 形成互补矩阵。未来版本还计划加入自定义工具调用顺序与思考链复用功能,帮助企业在合规审计的前提下加速自动化部署。

落地建议

建议的下一步

建立推理成本监控指标,跟踪 reasoning tokens 消耗、任务成功率与响应延迟,确保模型升级对业务产生正向 ROI。

原文与延伸阅读