草稿:GPT-4 Turbo
您所提交的草稿仍需改善。在2024年1月27日由Newbamboo (留言)審閱。
如何改善您的草稿
|
原作者 | OpenAI |
---|---|
開發者 | OpenAI |
首次發布 | 2023年11月6日 |
源代碼庫 | 閉源 |
取代 | GPT-4 |
語言 | 67種語言 |
類型 | 多模態模型 |
許可協議 | 專有 |
數據截至 | 2022年11月 |
生成型預訓練變換模型 4 Turbo(英語:Generative Pre-trained Transformer 4 Turbo,簡稱GPT-4 Turbo,gpt-4-1106-preview)是由 OpenAI 在其首屆 DevDay 開發者日(11月6日)上推出[1],其新的大語言模型表現得更為聰明,文本處理上限更高,價格更為便宜[1][2][3]。
能力 編輯
上下文 編輯
與普通的 GPT-4 相比,GPT-4 Turbo 支持 128k 的上下文,輸入價格比 GPT-4 便宜了約三倍[2][1],速率限制翻倍[1][4]。此外,還更新了知識庫,將其內容更新到2023年4月[1][3][4]。 得益於 128K token 的上下文長度,GPT-4 Turbo 能夠處理相當於 365 頁書的文本內容,而不會丟失信息[5]。這在實際應用中有意義,比如複雜對話的對話狀態管理、處理大型文檔等等。尤其是對長文本的處理,普通模型容易出現遺忘的問題,而 GPT-4 Turbo 可以更準確地處理標記,能夠更好地跟蹤和理解長篇章節[5]。
多模態 編輯
GPT-4 Turbo 也表現出了出色的適應性和多元化的應用能力[3][4],使用 Code Interpreter 能夠執行 Python 代碼,完成數據分析、生成圖形和圖表、處理多種格式的文件、迭代運行代碼來解決具有挑戰性的代碼和數學問題等操作。
其次,OpenAI 在此次更新中還為 GPT-4 Turbo 模型新增了關於視覺的處理能力(gpt-4-1106-vision-preview)以及 DALL·E 3 文生圖(Text to image)模型,可以使用自然語言生成圖像[1]。增強了模型與用戶的交互體驗,使模型可以理解和生成視覺內容,跨越了純文字的界限。
理解能力 編輯
此外,GPT-4 Turbo更好地理解用戶的問題,並針對用戶問題做出更準確的回答[3]。它可以更深入地分析問題,並對問答進行深度優化,提供更準確、上下文相關的回答[5]。
使用 編輯
ChatGPT Plus 編輯
GPT-4 Turbo(gpt-4-1106-preview)、 GPT-4V(gpt-4-1106-vision-preview)、DALL·E 3 均可通過 API 和 ChatGPT Plus 用戶使用。
參見 編輯
參考資料 編輯
- ^ 1.0 1.1 1.2 1.3 1.4 1.5 New models and developer products announced at DevDay. openai.com. [2024-01-23] (美國英語).
- ^ 2.0 2.1 Pricing. openai.com. [2024-01-23] (美國英語).
- ^ 3.0 3.1 3.2 3.3 用过GPT-4 Turbo以后,我们再也回不去了-36氪. 36kr.com. 2023-11-08 [2024-01-23].
- ^ 4.0 4.1 4.2 OpenAI 推出 GPT-4 Turbo:支持 128k 上下文,集成 DALL・E 3,号称“比上代便宜 2/3” - IT之家. www.ithome.com. [2024-01-23].
- ^ 5.0 5.1 5.2 GPT-4 Turbo:自 ChatGPT 首次亮相以来最具里程碑意义的更新! | HackerNoon. hackernoon.com. [2024-01-23] (英語).
|