OpenAI发布会:实时语音API,还发布了三个新模型 o1pro API发布,同时大降价!

先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gpthuiyuan

省流版: 

推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top 

  • o1的API:支持函数调用、开发者消息、结构化输出和视觉功能。

  • 最新版的o1-2024-12-17:更快的推理速度,旨在处理复杂的多步骤任务,并提高了准确性。已经更新到ChatGPT

  • 实时 API更新:包括简单的 WebRTC 集成、GPT-4o 音频价格降低 60% 以及以之前音频价格的十分之一支持 GPT-4o mini。

  • 偏好微调(PFT):一种新的模型定制技术,可以更轻松地根据用户和开发人员的偏好定制模型。

  • 新的 Go 和 Java SDK

你是不是以为发了GPT4.5?
但很抱歉,今天只是发布了o1的API以及实时语音的新玩意。 

还记得前段时间的OpenAI的DevDay吗?那上面曾经说过会更新OpenAI的API,现在期货交割了!这次OpenAI表现很好,才用了短短的一个多月就完成了交割,值得鼓励!(我是在吹不下去了。。。) 

首先是o1的更新:

本次发布会发布了o1的API,现在已经可以在API平台里调用,目前仅向 Tier 5 级别开发者提供,但将在几周内推广给其他用户。 

o1的API提供如下能力:

  • 函数调用(Function Calling): 允许 o1 与外部工具和 API 交互。内部评估中,性能比 GPT-4o 显著提高。与结构化输出配合使用效果良好。

  • 结构化输出(Structured Outputs): 使模型能够以指定的 JSON 格式生成响应。确保 100% 遵守模式,有助于构建丰富的应用程序和提取结构化数据。性能也比 GPT-4o 显著提高。即使在使用时也能保持推理能力。

  • 开发者消息(Developer Messages): 一种新型的系统消息,使开发者能够更直接地控制模型的行为。是指令层级工作的一部分。

  • 视觉输入(Vision Inputs): 允许模型处理和分析图像,为制造业、科学等领域的应用开辟了可能性。通过表单错误检测示例进行了演示。

  • 可调COT参数(Reasoning Effort Parameter): 允许开发者控制模型花费在“思考”上的计算时间,针对不同类型的问题优化成本和延迟。

同时也发布了o1-2024-12-17,他是o1的最新版本(Post-Train),它旨在处理复杂的多步骤任务,并提高了准确性。最新版o1也已经更新到ChatGPT里面,现在Plus和Pro用户都已经可以使用! 

o1 使用的“思考”token比预览版减少了 60%,从而加快了速度并降低了使用成本。在各种评估(函数调用、结构化输出、编码、推理)中,都比预览版和 GPT-4o 表现出显著的改进。 

虽然大家都想要o1 Pro,但 o1 Pro 尚未提供API,正在开发中。(谁用得起啊,不得贵死。。。) 

然后是实时语音的 API 更新:

今天发布了两个新模型GPT-4o-realtime-preview-2024-12-17和GPT-4o-mini-realtime-preview-2024-12-17 

新模型改进了的语音质量、提供了更可靠的输入(尤其是口述数字)和大幅降低的成本。

GPT-4o 音频 token 价格降低了 60%,Whisper Mini 音频 token 价格降低了 10 倍。 

模型细节

先来看看GPT-4o-realtime-preview-2024-12-17 

他有128k token的上下文窗口,最大 4,096 个 输出token、知识截止时间为 2023 年 10 月 

价格: 

文本:2.50 美元 / 100 万个输入 token,10.00 美元 / 100 万个输出 token 

音频:40.00 美元 / 100 万个输入 token,80.00 美元 / 100 万个输出 token 

然后是GPT-4o-mini-realtime-preview-2024-12-17 

他也有128k token的上下文窗口和最大 4,096 个 输出token,知识截止时间也为 2023 年 10 月 

价格: 文本:0.15 美元 / 100 万个输入 token,0.60 美元 / 100 万个输出 token;音频:10.00 美元 / 100 万个输入 token,20.00 美元 / 100 万个输出 token 

并且还发布了

  • WebRTC: 这次更新增加了 WebRTC 支持,简化了低延迟、实时语音应用程序的开发。WebRTC 自动处理互联网的可变性、回声消除和比特率变化。这大大减少了所需的代码(从使用 WebSockets 的约 200-250 行减少到使用 WebRTC 的约 12 行)。

  • 嵌入式集成(Microcontroller Integration): 使用一个小鹿玩具进行演示,展示将实时 API 嵌入到可穿戴设备、摄像头和其他硬件中的能力。

    (AI玩具创业者们狂喜)

  • 其他改进: 改进了 Python SDK 和 API 更改,以简化函数调用和护栏。

最后,展示了API的微调功能:在API平台里引入了偏好微调能力(PFT),你仅需12行代码,就可以基于你的数据微调一个API。

此方法使用直接偏好优化 (DPO) ,与SFT相比PFT对于语气、风格和创造力很重要的主观任务尤其有效。

非常适合改进诸如响应格式、风格、帮助性、创造力和内容审核(例如,与特定品牌基调保持一致)等方面。

偏好微调将于今日上线gpt-4o-2024-08-06,并将很快上线gpt-4o-mini-2024-07-18。

它将以与监督微调相同的价格提供,并将于明年初支持最新模型o1等。 

最后

今天发布的东西其实都是实用的,开发者需要的能力。但最后结束的这个冷笑话有点搞

“你们知道圣诞老人有一个坏孩子名单,上面都是用了o1的API的孩子。为什么结构化输出会在坏孩子名单上?因为圣诞老人听说它是“模式化的”。”

圣诞老人因为听说结构化输出是“模式化的”(a schema),就误以为它是“搞阴谋的”(a schemer),因此把它放到了坏孩子名单上。

Fine,是我理解不了的老外梗,我们明天见!

PS:前几次发布会↓

Day1:OpenAI马拉松发布会Day1:GPT-o1全新升级

Day2:OpenAI马拉松发布会Day2:你可以快速低成本的微调o1了

Day3:OpenAI马拉松发布会Day3:Sora 正式发布,从今天开始真实与虚拟的界限已经消失

Day4:OpenAI马拉松更新Day4: 直播翻车的Canvas🚗

Day5:OpenAI马拉松发布会Day5: 百度来学学人家OpenAI是怎么跟Apple合作的

Day6:OpenAI马拉松发布会Day6:4o实时视频通话与圣诞老人模式!

Day7:OpenAI马拉松发布会Day7:ChatGPT 全新“项目”功能发布:打造你的专属 AI 工作空间!

Day8:OpenAI马拉松发布会Day8:AI搜索免费用,并支持实时语音搜索!但比字节豆包慢了几个月~

chatgpt plus(GPT4)代充值

本文链接:https://lechangxia.cc/gpt4/2155.html

o1pro APIo1API

相关文章