OpenAI 将其 o1 原理模型引入 API —— 特定开发者将受益

评论 · 9 浏览

OpenAI 正将其 O1 模型集成到 API 中,并在产品组合中推出一系列其他针对开发者的改进。

OpenAI 正将它的“推理”AI 模型 o1 推向 API,但目前仅限于某些开发者。

从周二开始,o1 将开始向 OpenAI 的“第 5 级”使用类别中的开发者推出。

要符合第 5 级的资格,开发者必须在 OpenAI 上至少花费 1000 美元,并且账户自首次成功付款起已有超过 30 天。

o1 将取代已经在 API 中可用的 o1-preview 模型。

与大多数 AI 不同,推理模型如 o1 能够自我验证事实,这有助于它们避免一些常见的陷阱。

然而,这也意味着它们往往需要更长的时间来得出解决方案。

此外,它们的价格也相对较高——部分原因是运行这些模型需要大量的计算资源。

OpenAI 对于 o1 每分析约 75 万字收费 15 美元,每生成约 75 万字收费 60 美元。

这比 OpenAI 最新的“非推理”模型 GPT-4o 的费用高出六倍。

在 OpenAI API 中,o1 比 o1-preview 更具可定制性,这得益于新功能如函数调用(允许模型连接到外部数据)、开发者消息(让开发者指导模型的语气和风格)以及图像分析。

除了结构化的输出外,o1 还有一个名为“reasoning_effort”的 API 参数,可以控制模型在回应查询前思考的时间长度。

OpenAI 表示,在 API 中的 o1 版本——以及不久后即将推出的 AI 聊天平台 ChatGPT——是一个“新训练后”的版本。

与两周前在 ChatGPT 中发布的 o1 模型相比,“o1-2024-12-17”版本根据反馈改进了某些模型行为。

“我们正在逐步扩大访问权限,并努力扩展到更多的使用类别,并提高速率限制。

”公司在一篇博文中写道。

在网站的一则通知中,OpenAI 表示最新的 o1 应该能够提供更全面和准确的回答,尤其是在编程和商业相关的问题上,并且不太可能错误地拒绝请求。

周二,在其他与开发者相关的新消息中,OpenAI 宣布了其 GPT-4o 和 GPT-4o mini 模型的新版本作为 Realtime API 的一部分。

这些新模型(“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)具有更好的数据效率和可靠性,并且使用成本更低。

说到 Realtime API(无意间用了双关语),它仍然处于测试阶段,但已经获得了几个新功能,如并发的后台响应能力,这使得内容审核等任务可以在不中断交互的情况下运行。

API 现在还支持 WebRTC——一种构建基于浏览器、智能手机和物联网设备的实时语音应用的开放标准。

显然不是巧合的是,在十二月初,OpenAI 雇佣了 WebRTC 的创作者 Justin Uberti。

“我们的 WebRTC 集成旨在即使在网络质量变化时也能实现平滑和响应式的交互。

”OpenAI 在博文中写道,“它处理音频编码、流传输、噪声抑制和拥塞控制。

周二最后更新的内容中,OpenAI 将偏好微调带到了其微调 API;偏好微调通过比较模型响应对来“教导”模型区分问题的首选答案与非首选答案。

此外,公司还推出了 Go 和 Java 的官方软件开发工具包的早期访问版 Beta 测试。

评论