GPT-4o
GPT-4o(英语:Generative Pre-trained Transformer 4 Omni)是由OpenAI训练的多语言、多模态(多种类型数据,例如文本、图像、音频等)GPT大型语言模型。GPT-4o于2024年5月13日发布。 [1] 该模型比其前身GPT-4快两倍,而价格仅为其50%。该模型由米拉·穆拉蒂在OpenAI直播演示中宣布。 [1] OpenAI声称该模型将对所有用户免费, 并为付费ChatGPT Plus用户提供高达5倍的消息上限。[2]
开发者 | OpenAI |
---|---|
首次发布 | 2024年5月13日 |
前任 | GPT-4 Turbo |
类型 | |
许可协议 | 专有软件 |
网站 | openai |
背景
编辑GPT-4o最初在LMSYS上以3个不同模型的形式暗中发布。这3个模型分别称为gpt2-chatbot、im-a-good-gpt2-chatbot和im-also-a-good-gpt2-chatbot。2024年5月7日,萨姆·奥尔特曼透露OpenAI发布了这些神秘的新模型。[3]
功能
编辑GPT-4o在语音、多语言和视觉基准测试中获取了最先进的成果,在音频语音识别和翻译领域创下了新纪录。[4] GPT-4o在MMLU基准测试中的得分为88.7,而GPT-4 的得分为86.5。[4] [5]
根据该公司的演示,GPT-4o将有效地将ChatGPT转变为可以进行实时语音对话的数字个人助理。 它还能够使用文本和“视觉”进行交互,这意味着它可以查看用户上传的屏幕截图、照片、文档或图表,并就它们进行对话。OpenAI演示了与ChatGPT的语音对话,以获得解决数学问题的实时说明、讲述睡前故事并获得编码建议。[6] 免费ChatGPT用户将可以与新的GPT-4o模型进行有限次数的交互,然后该工具会自动恢复依赖更小的GPT-4o mini模型;付费用户将可以使用最新GPT-4o访问更多数量的消息。[6]
该模型支持超过50种语言,覆盖超过97%的口语语言。它目前是LMSYS Elo Arena基准测试中的领先模型。[7]
GPT-4o mini
编辑OpenAI于2024年7月18日发布了GPT-4o mini,比起GPT-4o更小,而且价格更便宜。[8]
根据OpenAI的说法,其低成本预计对那些希望将其集成到服务中的公司、初创企业和开发者特别有用,因为他们通常会进行大量的API调用。其API的费用为每百万输入标记15美分,每百万输出标记60美分,相比之下,GPT-4o分别为5美元和15美元。它的性能也比GPT-3.5更好,而且比后者便宜60%。
参见
编辑参考资料
编辑- ^ 1.0 1.1 Wiggers, Kyle. OpenAI debuts GPT-4o 'omni' model now powering ChatGPT. TechCrunch. 2024-05-13 [2024-05-13]. (原始内容存档于2024-05-22) (美国英语).
- ^ Mauran, Cecily. OpenAI announces GPT-4o, a multimodal voice assistant that's free for all ChatGPT users. Mashable. 2024-05-13 [2024-05-13] (英语).
- ^ Sam Altman "https://twitter.com/sama/status/1787222050589028528" Twitter, X. Retrieved 14 May 2024.
- ^ 4.0 4.1 Hello GPT-4o. OpenAI. [2024-05-13]. (原始内容存档于2024-05-14).
- ^ OpenAI教谷歌做语音助手!新模型GPT-4o科幻级语音交互,零延迟满情绪,AI进入HER时代, 郭晓静、郝博阳 腾讯科技 2024-05-13 18:15.
- ^ 6.0 6.1 OpenAI unveils newest AI model, GPT-4o. 2024-05-13 [2024-05-13] (英语).
- ^ Fedus, William. GPT-4o is our new state-of-the-art frontier model..
- ^ OpenAI. GPT-4o mini: advancing cost-efficient intelligence. [2024-07-21].