OpenAI 正将它的“推理”AI 模型 o1 推向 API,但目前仅限于某些开发者。
从周二开始,o1 将开始向 OpenAI 的“第 5 级”使用类别中的开发者推出。
要符合第 5 级的资格,开发者必须在 OpenAI 上至少花费 1000 美元,并且账户自首次成功付款起已有超过 30 天。o1 将取代已经在 API 中可用的 o1-preview 模型。
与大多数 AI 不同,推理模型如 o1 能够自我验证事实,这有助于它们避免一些常见的陷阱。
然而,这也意味着它们往往需要更长的时间来得出解决方案。此外,它们的价格也相对较高——部分原因是运行这些模型需要大量的计算资源。
OpenAI 对于 o1 每分析约 75 万字收费 15 美元,每生成约 75 万字收费 60 美元。这比 OpenAI 最新的“非推理”模型 GPT-4o 的费用高出六倍。在 OpenAI API 中,o1 比 o1-preview 更具可定制性,这得益于新功能如函数调用(允许模型连接到外部数据)、开发者消息(让开发者指导模型的语气和风格)以及图像分析。
除了结构化的输出外,o1 还有一个名为“reasoning_effort”的 API 参数,可以控制模型在回应查询前思考的时间长度。OpenAI 表示,在 API 中的 o1 版本——以及不久后即将推出的 AI 聊天平台 ChatGPT——是一个“新训练后”的版本。
与两周前在 ChatGPT 中发布的 o1 模型相比,“o1-2024-12-17”版本根据反馈改进了某些模型行为。“我们正在逐步扩大访问权限,并努力扩展到更多的使用类别,并提高速率限制。
”公司在一篇博文中写道。在网站的一则通知中,OpenAI 表示最新的 o1 应该能够提供更全面和准确的回答,尤其是在编程和商业相关的问题上,并且不太可能错误地拒绝请求。
周二,在其他与开发者相关的新消息中,OpenAI 宣布了其 GPT-4o 和 GPT-4o mini 模型的新版本作为 Realtime API 的一部分。
这些新模型(“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)具有更好的数据效率和可靠性,并且使用成本更低。说到 Realtime API(无意间用了双关语),它仍然处于测试阶段,但已经获得了几个新功能,如并发的后台响应能力,这使得内容审核等任务可以在不中断交互的情况下运行。
API 现在还支持 WebRTC——一种构建基于浏览器、智能手机和物联网设备的实时语音应用的开放标准。显然不是巧合的是,在十二月初,OpenAI 雇佣了 WebRTC 的创作者 Justin Uberti。
“我们的 WebRTC 集成旨在即使在网络质量变化时也能实现平滑和响应式的交互。
”OpenAI 在博文中写道,“它处理音频编码、流传输、噪声抑制和拥塞控制。”周二最后更新的内容中,OpenAI 将偏好微调带到了其微调 API;偏好微调通过比较模型响应对来“教导”模型区分问题的首选答案与非首选答案。
此外,公司还推出了 Go 和 Java 的官方软件开发工具包的早期访问版 Beta 测试。