OpenAI直播发布,高级语音模式的API,o1模型API

先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gpthuiyuan

 OpenAI对开发者的支持一直还算友好,除了价格比较贵其他没什么毛病。

推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top 

在今天的直播中,OpenAI为开发者提供了新的模型和功能接口,完善了对高级语音模式API的支持(WebRTC)和一个新的微调模式(偏好微调)。

从最终用户的产品体验上应该没啥太大区别,但可能为开发人员省点时间。

01

o1模型API

OpenAI开始提供其最强推理模型o1模型的API,如果有什么AI应用或工具需要很强的推理能力,那么这个新模型的API可能会有一些帮助。

此外OpenAI在o1模型的API中同时提供了包括对function calling(函数调用)、structured output(结构化输出)和developer message(开发者消息)等特性的支持,这些功能特性原则上有利于更好的指令遵循,让模型按要求输出用户所需的内容。
一个可能比较有用的功能是新的推理参数,开发者可以设定让模型花多少时间思考,简单问题快速回答、把更多的推理时间留给复杂问题。
图像输入-分析能力。更新的API允许开发者把图像传输给o1模型了,让模型对图像内容进行识别分析。多模态能力是否有大的提升,拭目以待。这一支持可能是今天更新最重要的部分,4o模型对图像的分析能力比较一般,有些细节内容往往捕捉不到,o1模型的图像识别令人期待。

02

高级语音模式的API

OpenAI现在支持开发者通过WebRTC调用实时语音API。这对开发者是一个不错的消息,开发语音助手、语言翻译工具、口语对练等更“方便”了,包括更容易开发跨平台应用、网络适应性、音频编码、噪声抑制等。

对,只是让做这些应用更容易了,对话质量并不会更好(不过现在的也不错)。

此外,OpenAI还给实时语音API价格降了价,这个最有用。
03

偏好微调

开发者可以把“想要的”输出和“不想要的”输出同时给到模型,训练模型输出用户“想要的”的内容,减少输出用户“不想要的”内容的可能性。这一新的微调方式适用于往往是用户主观判断内容好还的场景,比如创意协作、总结等。

OpenAI的研究员举了一个例子——我觉得不是一个特别好的例子。

例如用户询问一个AI金融助手“公司 X 的增长速度有多快”,传统微调方式下AI的回复缺少 ARR 等指标。偏好微调则将基准模型的准确性从 75% 提高到超过 80%。提升似乎也不是特别明显~

chatgpt plus(GPT4)代充值

本文链接:https://lechangxia.cc/gpt4/2157.html

高级语音模式的APIo1模型API

相关文章