OpenAI 在其 API 中引入了新的 o1 推理模型, 推出它 从 2024 年 12 月 17 日开始向选定的开发人员开放。此次发布是更广泛更新的一部分,其中还包括为开发人员增强功能和定制的新功能。为了获得使用资格,开发人员必须花费至少 1,000 美元并维护帐户超过 30 天。
“今天,我们推出功能更强大的模型、新的定制工具和升级,为使用人工智能进行构建的开发人员提高性能、灵活性和成本效率。”
-OpenAI
OpenAI 为选定的开发人员推出 o1 API
o1 模型取代了之前的 o1-preview,拥有能够对自己的响应进行事实检查的功能,这是人工智能模型中不常见的优势。作为权衡,推理模型往往需要更长的时间才能生成答案。使用 o1 进行处理的成本很高;它向开发者收取每分析 750,000 个单词 15 美元的费用,向生成内容收取 60 美元的费用,与最新的非推理模型相比,费用增加了六倍, GPT-4o。
新的 o1 旨在改进早期的限制,OpenAI 声称它提供“更全面、更准确的响应”,特别是对于与编程和业务相关的技术查询。它包括一些增强功能,例如推理工作参数,允许开发人员控制查询的处理时间。此外,该模型比其前身更具适应性,支持开发人员消息等功能来自定义聊天机器人行为,并使用 JSON 模式实现结构化输出。
为了促进更动态的交互,OpenAI 改进了其函数调用能力,允许模型在生成答案时利用预先编写的外部函数。据报道,与之前相比,此 API 迭代需要的处理令牌减少了 60% o1-预览,同时还实现了更高的准确率,在 LiveBench 和 AIME 等基准测试中提高了 25 到 35 个百分点。
OpenAI 还通过其 Realtime API 扩展了其实时交互的功能,现在支持 WebRTC 以实现更流畅的音频通信。此添加旨在简化开发人员的集成,将代码的复杂性从大约 250 行显着降低到大约十几行。此外,OpenAI 将 o1 音频代币的成本降低了 60%,将迷你代币的成本降低了 90%,以鼓励开发人员使用。
OpenAI 在博客中写道:“我们的 WebRTC 集成旨在在现实条件下实现流畅且响应灵敏的交互,即使网络质量参差不齐。” “它处理音频编码、流媒体、噪声抑制和拥塞控制。”
另一个重要更新包括一种用于微调人工智能模型的新方法,称为直接偏好优化。这允许模型训练器提供两个输出并指定偏好,而无需为每个场景提供准确的输入/输出示例。 OpenAI 声称这种方法增强了模型适应响应风格、格式和帮助方面的各种怪癖的能力。
使用 Go 和 Java 等编程语言的开发人员现在可以访问专为更轻松的 API 集成而设计的新软件开发套件 (SDK)。随着这些更新的进展,OpenAI 计划扩大访问范围并提高更多开发人员的速率限制,超出最初的 5 级类别。
特色图片来源: 开放人工智能