先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gpthuiyuan
“ OpenAI对开发者的支持一直还算友好,除了价格比较贵其他没什么毛病。”
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
在今天的直播中,OpenAI为开发者提供了新的模型和功能接口,完善了对高级语音模式API的支持(WebRTC)和一个新的微调模式(偏好微调)。
从最终用户的产品体验上应该没啥太大区别,但可能为开发人员省点时间。
01
—
o1模型API
OpenAI开始提供其最强推理模型o1模型的API,如果有什么AI应用或工具需要很强的推理能力,那么这个新模型的API可能会有一些帮助。
02
—
高级语音模式的API
OpenAI现在支持开发者通过WebRTC调用实时语音API。这对开发者是一个不错的消息,开发语音助手、语言翻译工具、口语对练等更“方便”了,包括更容易开发跨平台应用、网络适应性、音频编码、噪声抑制等。
对,只是让做这些应用更容易了,对话质量并不会更好(不过现在的也不错)。
此外,OpenAI还给实时语音API价格降了价,这个最有用。—
偏好微调
开发者可以把“想要的”输出和“不想要的”输出同时给到模型,训练模型输出用户“想要的”的内容,减少输出用户“不想要的”内容的可能性。这一新的微调方式适用于往往是用户主观判断内容好还的场景,比如创意协作、总结等。
OpenAI的研究员举了一个例子——我觉得不是一个特别好的例子。
例如用户询问一个AI金融助手“公司 X 的增长速度有多快”,传统微调方式下AI的回复缺少 ARR 等指标。偏好微调则将基准模型的准确性从 75% 提高到超过 80%。提升似乎也不是特别明显~