就在今天凌晨,OpenAI 馬不停蹄地又雙叒叕更新啦!
這一次,不僅重磅升級了 ChatGPT 背后的 GPT-3.5-turbo?模型、以及最先進(jìn)的 GPT-4 文本生成模型,而且大幅降低了價格,另外還為 gpt-3.5-turbo 提供 16000 個 Token 的語境窗口(Context Window)上下文選項(xiàng)。
一、更新速覽
詳細(xì)來看,在今天的更新中,OpenAI 主要聚焦在下面幾個維度:
全新的 16k 上下文 GPT-3.5-Turbo 模型版本(今天向所有人提供)
升級版的 GPT-4?和?GPT-3.5-Turbo 模型
Chat Completions?API 中的新函數(shù)調(diào)用功能
最先進(jìn)的 V2 嵌入模型降價 75%
gpt-3.5-turbo?的輸入 Token 成本降低 25%
宣布?gpt-3.5-turbo-0301?和?gpt-4-0314?模型的淘汰時間表
GPT-4 的 API 權(quán)限將開放給更多的人
值得一提的是,OpenAI 再次重申,所有這些模型都具備 OpenAI 在 3 月 1 日推出的數(shù)據(jù)隱私和安全保證--用戶從他們的請求中產(chǎn)生的所有輸出,以及 API 數(shù)據(jù)都不會被用于訓(xùn)練。
據(jù) OpenAI 公告顯示,最新的 gpt-4-0613 版本包括一個帶函數(shù)調(diào)用的更新和改進(jìn)的模型。
gpt-4-32k-0613 包括與 gpt-4-0613 相同的改進(jìn),同時擴(kuò)展了上下文長度,以便更好地理解更大的文本。
有了這些更新,在未來幾周內(nèi),OpenAI 表示將會邀請更多候補(bǔ)名單上的人試用 GPT-4,目的是通過這個模型完全取消等待名單。
三、GPT-3.5-turbo-16k? 大更新
事實(shí)上,在大型語言模型(LLMs)中,"語境窗口"(Context Window)就像一個短期存儲器,存儲著提示輸入的內(nèi)容,或者在聊天機(jī)器人的情況下,存儲著正在進(jìn)行的對話的全部內(nèi)容。在語言模型中,增加語境大小已經(jīng)成為一場技術(shù)競賽,Anthropic 最近宣布為其 Claude 語言模型提供 75000?個語境窗口選項(xiàng)。此外,OpenAI 已經(jīng)開發(fā)了一個 32,000?個 Token 的 GPT-4 版本,但它還沒有公開提供。
在今天的最新更新中,OpenAI 推出了 gpt-3.5-turbo 的新的 16000 個上下文語境窗口版本,官方名稱叫做:gpt-3.5-turbo-16k,允許一個提示的長度達(dá)到 16000 個 Token。
來源:https://twitter.com/minchoi/status/1668738225567875072
由于它提供了 4 倍于 gpt-3.5-turbo 的上下文長度,這意味著 gpt-3.5-turbo-16k 模型現(xiàn)在可以在一次請求中支持 20 頁的文本。
這對于需要模型處理和生成較大塊文本響應(yīng)的開發(fā)者來說是一個相當(dāng)大的提升。
不過,想要廣泛使用還需要再等一等。
再者,gpt-3.5-turbo-0613 版本與 GPT-4 一樣有著函數(shù)調(diào)用功能,以及通過系統(tǒng)消息提供的更可靠的可引導(dǎo)性,這兩個特性使開發(fā)者能夠更有效地引導(dǎo)模型的響應(yīng)。
四、函數(shù)調(diào)用支持新版 GPT-4 和 GPT-3.5
要論最最最為重磅的更新,便是開發(fā)者現(xiàn)在可以向 gpt-4-0613 和 gpt-3.5-turbo-0613 描述函數(shù),并讓模型智能地選擇輸出一個包含參數(shù)的 JSON 對象來調(diào)用這些函數(shù)。
這是一種全新的方式,開發(fā)者可以更可靠地將 GPT 的能力與外部工具和 API 連接起來。
簡單來看,OpenAI 聯(lián)合創(chuàng)始人Greg Brockman 解釋道,這是插件的底層機(jī)制,允許開發(fā)者與自己的工具集成起來:
那該具體怎么用?
OpenAI 舉了三個例子,其表示,這些模型已經(jīng)過微調(diào),既可以檢測到何時需要調(diào)用一個函數(shù)(取決于用戶的輸入),又可以用符合函數(shù)簽名的 JSON 來響應(yīng)。函數(shù)調(diào)用允許開發(fā)人員更可靠地從模型中獲得結(jié)構(gòu)化的數(shù)據(jù)。
例如,開發(fā)人員可以:
創(chuàng)建聊天機(jī)器人,通過調(diào)用外部工具(例如,像 ChatGPT 插件)來回答問題
將諸如 "給 Anya 發(fā)郵件,看她下周五是否想喝咖啡 "這樣的查詢轉(zhuǎn)換為send_email(to: string, body: string)這樣的函數(shù)調(diào)用。
或者將 "波士頓的天氣如何?"轉(zhuǎn)換為 get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')。
將自然語言轉(zhuǎn)換為 API 調(diào)用或數(shù)據(jù)庫查詢
將 "誰是我這個月的十大客戶?"轉(zhuǎn)換為內(nèi)部 API 調(diào)用,如 get_customers_by_revenue(start_date: string, end_date: string, limit: int)。
或?qū)?"Acme, Inc.上個月有多少訂單?"轉(zhuǎn)換成 SQL 查詢,使用sql_query(query: string)。
從文本中提取結(jié)構(gòu)化數(shù)據(jù)
定義一個名為 extract_people_data(people: [{name: string, birthday: string, location: string}] 的函數(shù),以提取維基百科文章中提到的所有人物。
這些用例是由 OpenAI 的? /v1/chat/completions 端點(diǎn)中的新 API 參數(shù) functions 和 function_call 促成的,它允許開發(fā)者通過 JSON Schema 向模型描述功能,并可選擇要求它調(diào)用一個特定的功能。
1000.jpg
如果,現(xiàn)在你有 GPT-4 訪問權(quán)限,那么這些模型可以用函數(shù)調(diào)用功能。
五、舊模型即將廢棄
今天,OpenAI 將開始對 3 月份宣布的 gpt-4 和 gpt-3.5-turbo 的初始版本進(jìn)行升級和廢棄處理。使用穩(wěn)定模型名稱(gpt-3.5-turbo、gpt-4 和 gpt-4-32k)的應(yīng)用程序?qū)⒃?6 月 27 日自動升級到上面列出的新模型。
為了比較不同版本的模型性能,OpenAI 還提供開源的 Evals 庫(https://github.com/openai/evals)支持公共和私人評估 LLM,幫助開發(fā)者評測模型的變化將如何影響你的用例。
當(dāng)然,對于需要更多時間過渡的開發(fā)者,OpenAI 也表示,可以繼續(xù)使用舊的模型。這些舊型號將在 9 月 13 日之后,徹底棄用。
六、加量不加價,即日起生效
除了以上功能更新之外,OpenAI 宣布下調(diào)價格,即日起生效。
首先,對于?OpenAI 最受歡迎的嵌入模型——text-embedding-ada-002,OpenAI 將成本降低 75%,至每 1K Token 是 0.0001 美元。
其次,對于最受歡迎的聊天模型——GPT-3.5 Turbo,OpenAI 將輸入 Token 的成本直降 25%,現(xiàn)在每 1K 輸入 Token 只需 0.0015 美元,每 1K 輸出 token 只需 0.002 美元,這相當(dāng)于 1 美元大約有 700 頁的文本。
再者,最新推出的 gpt-3.5-turbo-16k 的價格是每 1K 輸入 token 是 0.003 美元,每 1K 輸出 Token 為 0.004 美元。
OpenAI 表示,降低成本是通過提高其系統(tǒng)的效率來實(shí)現(xiàn)的。毫無疑問,這是初創(chuàng)公司關(guān)注的關(guān)鍵領(lǐng)域,因?yàn)樗谘邪l(fā)和基礎(chǔ)設(shè)施上花費(fèi)了數(shù)億美元。
七、一騎絕塵的 OpenAI
OpenAI 已經(jīng)表示,在 4 月初 GPT-4 發(fā)布之后,會對現(xiàn)有模型的增量更新,而不是大規(guī)模的從頭開始的新模型開發(fā)。在最近由《經(jīng)濟(jì)時報(bào)》主辦的一次會議上,OpenAI CEO ?Sam Altman 也重申過,OpenAI 尚未開始培訓(xùn) GPT-4 的繼任者,這也側(cè)面意味著該公司在開始新模型之前“還有很多工作要做”。如今便是維護(hù)已發(fā)布模型的一大進(jìn)步。
當(dāng)然,這一進(jìn)步也受到了不少網(wǎng)友的點(diǎn)贊:
當(dāng)然,OpenAI 的快跑也給做大模型的同行帶來了巨大的壓力,有網(wǎng)友評論道:
對此,你最看好哪個更新?最新的 GPT-4 和 GPT-3.5-turbo 模型,還是 16k context turbo 模型?