您現(xiàn)在的位置:首頁 > 綜合 > 特別關注 > 正文

研究:GPT-4 在執(zhí)行多項現(xiàn)實任務中擊敗其他大語言模型

時間:2023-08-11 11:10:17    來源:站長之家    

本文概要:

1. GPT-4在大型語言模型中表現(xiàn)出色,取得最高總分4.41。

2. GPT-4在幾乎所有領域都領先于其他模型,只有在網(wǎng)購任務中,GPT-3.5表現(xiàn)更好。


(資料圖片僅供參考)

3. 開源模型整體表現(xiàn)不佳,遠遠落后于商業(yè)模型和 GPT-3.5。

市面上已經(jīng)有有許多商業(yè)和開源的文本生成人工智能?,F(xiàn)在專門為測試輔助任務開發(fā)的基準測試表明,GPT-4在這一領域脫穎而出。

編程客棧()8月11日 消息:最新的研究顯示,在 “現(xiàn)實世界語用任務” 中,GPT-4在大型語言模型中表現(xiàn)出色。研究團隊使用一個名為 “AgentBench” 的基準測試對多個提供商的25個大型語言模型以及開源模型進行了測試。

“AgentBench”是專門為衡量大語言模型在“現(xiàn)實世界語用任務”中的輔python助能力而設計的標準化測試。所有測試均在實時交互環(huán)境中進行。這使得該基準特別適合其想要測量的內(nèi)容:大型語言模型處理總共八個領域的各種日常任務的能力。

操作系統(tǒng):LLM必須執(zhí)行與計算機操作系統(tǒng)的使用相關的任務。

數(shù)據(jù)庫:這個環(huán)境是關于LLM如何與數(shù)據(jù)庫合作。

知識圖:此環(huán)境測試LLM如何使用知識圖。

數(shù)字卡牌游戲:這測試了LLM對數(shù)字卡牌游戲和制定策略的理解程度。

橫向思維難題:此挑戰(zhàn)測試法學碩士在解決問題時的創(chuàng)造力。這要求他們跳出框框思考。python

預算:此場景涉及基于 Alfworld 數(shù)據(jù)集的預算中發(fā)生的任務。

android聯(lián)網(wǎng)購物:此場景測試LLM在與在線購物相關的任務上的表現(xiàn)。

網(wǎng)頁瀏覽:基于 Mind2Web 數(shù)據(jù)集,此場景測試LLM執(zhí)行與使用互聯(lián)網(wǎng)相關的任務的能力。

結果顯示,GphpPT-4以最高總分4.41領先于其他模型,在幾乎所有領域都表現(xiàn)出色,只在網(wǎng)購任務中稍遜于 GPT-3.5。

競爭對手 Anthropic 的 Claude 模型緊隨其后,總得分為2.77,領先于 OpenAI 的免費 GPT-3.5Turbo 模型。商業(yè)模型的平均得分為2.24。與開源模型相比,GPT-4的優(yōu)勢更加明顯,開源模型的平均得分只有0.42。

研究人員指出,開源模型在所有復雜任務中普遍表現(xiàn)不佳,遠遠落后于 GPT-3.5。研究團隊將工具包、數(shù)據(jù)集和基準測試環(huán)境提供給研究界,以編程客棧便進行更廣泛的性能比較。

關鍵詞:

凡本網(wǎng)注明“XXX(非中國微山網(wǎng))提供”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和其真實性負責。

特別關注