在美国当地时间6日周一的 OpenAI 首届开发者大会上,OpenAI 推出了 GPT-4 Turbo,这款模型正处于预览状态,号称对于开发者而言“比上代 GPT-4 便宜三倍”。
据IT之家报道,GPT-4 Turbo 支持 128k 上下文,输入价格比 GPT-4 便宜了三倍,速率限制翻倍,知识库更新到 2023 年 4 月,此外还添加了 JSON Mode,更新了多个函数调用能力。相对此前 GPT-4 性能更强、价格更便宜、开发成本也更低。
据 OpenAI 介绍称,相比于此前 GPT-4 的 8k 上下文长度,GPT-4 Turbo 具有 128k 上下文长度,以一篇文章约 1k 文字计算,GPT-4 Turbo 可同时处理 128 篇文章的总和。
此外,OpenAI 还推出了名为 Json Mode 的新功能,可确保开发人员更容易让模型调用 Json 和 XML 内容,使模型更容易返回一致的输出结果,从而实现可重复输出,对控制模型行为、编写模型单元测试内容有一定作用。
GPT-4 Turbo 还支持图像输入,集成 DALL・E 3,可自动总结图片内容及带有图片的文档内容,OpenAI 还计划为主要的 GPT-4 Turbo 模型提供视觉支持。
在价格方面,开发人员可以通过 OpenAI 图像 API 指定模型,每生成一张图像的起价为 0.04 美元(当前约 0.292 元人民币)。
而 GPT-4 Turbo 输入 tokens 价格,是此前 GPT-4 的 1/3,1k tokens 仅需 0.01 美元(约 0.073 元人民币),输出 tokens 价格为 1k tokens 0.03 美元(当前约 0.219 元人民币)。
公司 CEO 萨姆・奥特曼(Sam Altman)表示,将分辨率为 1080×1080 像素的图像,上传至给 GPT-4 Turbo 将花费 0.00765 美元(当前约 0.056 元人民币)。
此外,OpenAI 还宣布了自家下一代开源语音识别模型,这款模型提供了六种预设声音及两种模型变体,用户可通过文本转语音 API 生成更自然的语音文件,每输入 1000 个字符起价为 0.015 美元(当前约 0.1095 元人民币)。
萨姆・奥特曼声称,今天 GPT-4 Turbo 可供所有付费开发者通过传递 gpt-4-1106-previewAPI 进行尝鲜,相关稳定版本预计将在未来几周内发布。