#AI 今天凌晨,OpenAI举办发布会推出新功能。

1. GPT-4 Turbo模型:

- 能力:比前一代GPT-4更强大。
- 知识更新:知识覆盖到2023年4月的世界事件。
- 上下文窗口:拥有128k的上下文窗口,能够处理相当于300多页文本的内容。
- 性能优化:性能得到优化,价格降低,输入令牌价格降低3倍,输出令牌价格降低2倍。

2. 新的助手API(Assistants API):

- 目的:帮助开发者构建具有目标的辅助AI应用程序。
- 功能:可以调用模型和工具,进行任务执行。
- 应用范围:从自然语言数据分析应用到编码助手,再到AI驱动的假期规划器等。

3. 多模态能力:

- 视觉:平台新增了视觉功能。
- 图像创建:集成了DALL·E 3。
- 文本到语音(TTS):新增了文本到语音转换功能。

4. 功能调用更新:

- 描述:允许描述应用程序的功能或外部API。
- 智能选择:模型可以智能地选择输出包含调用这些功能的参数的JSON对象。

5. 改进的指令跟随和JSON模式:

- 指令跟随:在需要仔细遵循指令的任务上表现更好。
- JSON模式:支持新的JSON模式,确保模型以有效的JSON格式响应。

6. 可复现输出和对数概率:

- seed参数:使模型能够返回一致的完成结果。
- 用途:对于调试、编写单元测试等场景非常有用。

7. 更新的GPT-3.5 Turbo:

- 上下文窗口:支持默认16K上下文窗口。
- 改进:在指令跟随、JSON模式和并行功能调用方面进行了改进。

8. 助手API、检索和代码解释器:

- 助手API:允许开发者创建具有特定指令的AI。
- 检索:从模型外部增加知识,如专有领域数据。例如专有领域数据、产品信息或用户提供的文档。
- 代码解释器:在沙盒执行环境中编写和运行Python代码。允许 Assistants 迭代运行代码来解决具有挑战性的代码和数学问题等等。

9. 新的API模态:

- GPT-4 Turbo视觉:可以接受图像作为输入。
- DALL·E 3:现在可以通过Images API直接集成到应用程序和产品中。
- 文本到语音(TTS)API:现在可以从文本生成人类质量的语音。

10. 模型定制:

- GPT-4细微调整:提供了细微调整的实验性访问。
- 定制模型程序:为需要超出细微调整提供的定制化程度的组织提供了定制模型程序。

11. 降低价格和提高速率限制:

- 价格降低:平台降低了多个价格。
- 速率限制提高:为所有付费GPT-4客户提高了每分钟令牌限制的两倍。

12. 版权保护:

- 版权保护盾:如果客户面临版权侵权的法律索赔,OpenAI将介入并支付费用。

13. Whisper v3和一致性解码器

- Whisper large-v3:发布了下一版本的开源自动语音识别模型。
- 一致性解码器:为Stable Diffusion VAE解码器的替代品,改进了与Stable Diffusion 1.0+ VAE兼容的所有图像。

这些更新旨在提高模型的能力、降低成本,并为开发者提供更多的工具和API以构建更高质量的AI应用程序。
 
 
Back to Top