OpenAI推出一对AI推理模型:o3和o4-mini

无限长的字节 2025-04-18 03:28:44

OpenAI 周四宣布推出 o3 和 o4-mini,这是新的 AI 推理模型,旨在在回答问题之前暂停并思考问题。该公司称 o3 是其迄今为止最先进的推理模型,在数学、编码、推理、科学和视觉理解能力的测试中均超越了该公司之前的模型。

与此同时,o4-mini 提供了 OpenAI 所说的价格、速度和性能之间的平衡——这三个因素是开发人员在选择用于支持其应用程序的 AI 模型时经常考虑的。

与之前的推理模型不同,o3 和 o4-mini 可以使用 ChatGPT 中的工具(例如网页浏览、Python 代码执行、图像处理和图像生成)生成响应。从今天开始,这些模型以及 o4-mini 的一个变体 o4-mini-high(花费更多时间精心设计答案以提高其可靠性)可供 OpenAI 的 Pro、Plus 和 Team 计划的订阅者使用。

这些新模型是 OpenAI 在激烈的全球 AI 竞赛中击败Google、Meta、xAI、Anthropic 和 DeepSeek 的努力之一。虽然 OpenAI 率先发布了 AI 推理模型 o1,但竞争对手也迅速跟进,推出了性能匹敌甚至超越 OpenAI 的版本。事实上,随着 AI 实验室不断提升系统性能,推理模型已开始成为该领域的主导。

O3 差点没能在 ChatGPT 中发布。OpenAI 首席执行官 Sam Altman 今年 2 月曾表示,公司打算投入更多资源,开发一个融合 O3 技术的更复杂的替代方案。但竞争压力似乎最终促使 OpenAI 改变了方向。

OpenAI 表示,o3 在 SWE-bench 验证中达到了最佳性能,该测试衡量了编程能力,得分为 69.1%。o4-mini 模型也达到了类似的性能,得分为 68.1%。OpenAI 的次优模型 o3-mini 在测试中得分为 49.3%,而 Claude 3.7 Sonnet 得分为 62.3%。

OpenAI 声称,o3 和 o4-mini 是其首批能够“用图像思考”的模型。实际上,用户可以将图像上传到 ChatGPT,例如白板草图或 PDF 中的图表,模型会在“思维链”阶段分析图像,然后再做出回答。凭借这项新发现的能力,o3 和 o4-mini 能够理解模糊和低质量的图像,并在推理过程中执行缩放或旋转图像等任务。

除了图像处理功能之外,o3 和 o4-mini 还可以通过 ChatGPT 的 Canvas 功能直接在浏览器中运行和执行 Python 代码,并在被问及时搜索网络。

除了 ChatGPT 之外,所有三种模型(o3、o4-mini 和 o4-mini-high)都将通过 OpenAI 面向开发人员的端点 Chat Completions API 和 Responses API 提供,从而允许工程师按照基于使用率的费率使用该公司的模型构建应用程序。

鉴于 o3 性能的提升,OpenAI 向开发者收取的费用相对较低,每百万输入词元(约 75 万字,比《指环王》系列更长)收费 10 美元,每百万输出词元收费 40 美元。对于 o4-mini,OpenAI 的收费与 o3-mini 相同,每百万输入词元收费 1.10 美元,每百万输出词元收费 4.40 美元。

OpenAI 表示,未来几周内,它计划发布 o3-pro,这是 o3 的一个版本,它使用更多的计算资源来生成答案,专门供 ChatGPT Pro 订阅者使用。

OpenAI 首席执行官 Sam Altman 表示,o3 和 o4-mini 可能是 GPT-5 之前 ChatGPT 中的最后几个独立 AI 推理模型,该公司表示,GPT-5 将把 GPT-4.1 等传统模型与其推理模型统一起来。

0 阅读:0

无限长的字节

简介:感谢大家的关注