【官方】OpenAI DevDay 更新:GPT-4 Turbo、Assistants API、新模态 +定制版GPTs
文:城主
【OpenAI团队官方邮件】
我们很高兴在我们的首次会议OpenAI DevDay上分享一些重大的新功能和更新。你可以在我们的博客上阅读完整的细节,观看主题演讲的录像,或者查看新的@OpenAIDevs Twitter,但是这里有一个简短的总结:
新的GPT-4 Turbo:
我们宣布了GPT-4 Turbo,这是我们最先进的模型。它提供了一个128K的上下文窗口,并且知道到2023年4月为止的世界事件。
我们已经大幅降低了GPT-4 Turbo的价格:输入令牌现在的价格是每1K $0.01,输出令牌的价格是每1K $0.03,分别比之前的GPT-4价格便宜3倍和2倍。
我们改进了函数调用,包括在一条消息中调用多个函数的能力,总是以JSON模式返回有效的函数,并且在返回正确的函数参数上提高了准确性。
模型输出通过我们新的可复制输出beta功能变得更加确定。
你可以通过在API中传递gpt-4-1106-preview来访问GPT-4 Turbo,我们计划在今年晚些时候发布稳定的生产就绪模型。
更新的GPT-3.5 Turbo:
新的gpt-3.5-turbo-1106默认支持16K上下文,这个4倍长的上下文以更低的价格提供:每1K输入$0.001,每1K输出$0.002。这个16K模型的微调是可用的。
微调过的GPT-3.5使用起来更便宜:输入令牌价格降低了75%,到每1K $0.003,输出令牌价格降低了62%,到每1K $0.006。
gpt-3.5-turbo-1106加入了GPT-4 Turbo,提供了改进的函数调用和可复制的输出。
助手API:
我们很高兴介绍我们新的助手API的beta版本,它旨在帮助你轻松地在你的应用程序中构建类似代理的体验。使用案例范围从基于自然语言的数据分析应用,编码助手,AI驱动的假期规划器,语音控制的DJ,智能视觉画布——列表还在继续。这个API使得创建特定目的的AI助手成为可能,这些助手可以遵循特定的指示,利用额外的知识,并与模型和工具进行交互以执行各种任务。助手有持久的线程供开发者将线程状态管理交给OpenAI并解决上下文窗口约束。他们还可以使用新的工具,如代码解释器,检索和函数调用。我们的平台Playground允许你在不编写代码的情况下玩这个新的API。
多模态能力:
GPT-4 Turbo现在支持在Chat Completions API中的视觉输入,使得像字幕生成和视觉分析这样的使用案例成为可能。你可以通过使用gpt-4-vision-preview模型来访问视觉功能。这个视觉能力将在今年晚些时候的预览结束时被集成到生产就绪版本的GPT-4 Turbo中。
你还可以通过图像生成API将DALL·E 3用于图像生成集成到你的应用程序中。
我们通过新引入的TTS模型发布了文本到语音的能力,它将使用六种自然的声音为你阅读文本。
在ChatGPT中定制的GPTs:
我们推出了一个叫做GPTs的新功能。GPTs将指令,数据和能力结合成一个定制版的ChatGPT。
除了OpenAI构建的能力,如DALL·E或高级数据分析,GPTs还可以调用开发者定义的操作。GPTs让开发者能够控制更大的体验部分。我们有意地将插件和操作设计得非常相似,只需要几分钟就可以将现有的插件转换为操作。阅读文档以获取详细信息。
我们很期待看到这些更新如何帮助你在你的项目中更好地利用AI。
-OpenAI团队