GPT-5 效能將立即提升 OpenAI 解決模型切換問題
OpenAI 近期積極解決其 AI 模型 GPT-5 的初期問題,並承諾將在短期內大幅提升其容量、品質及使用者介面。
用戶體驗提升與限制調整
OpenAI 執行長 Sam Altman 表示,ChatGPT Plus 用戶在更新全面推出後,其 GPT-5 的訊息速率限制將會翻倍。此外,Plus 訂閱者目前仍可繼續使用舊有的 GPT-4o 模型。OpenAI 將持續追蹤這些「舊版」模型的使用情況,以決定其保留時間。目前,ChatGPTPlus 用戶每三小時可傳送最多 100 則訊息,達到上限後系統會自動切換至較小的模型,直到限制重置。GPT-5-Thinking 的每週訊息上限為 200 則,但從 GPT-5 切換至 GPT-5-Thinking 的訊息不計入該每週總數。
自動模型切換器的挑戰與改善
Sam Altman 透露,用戶將立即感受到 GPT-5 效能的顯著提升,讓模型「從今天開始顯得更智能」。系統核心是一個自動模型切換器,負責判斷由哪個 GPT-5 版本處理每個提示。他承認,GPT-5 首次推出時,這個切換器曾出現問題,導致模型在部分時間內表現得「笨拙許多」。此次面向所有用戶的更新推出時間比預期長。Sam Altman 形容這是一次「大規模的巨大變革」,並指出過去 24 小時內 API 流量大約翻了一倍。雖然預料到這麼多變更同步上線會有些波折,但他坦言這次的開局「比預期稍微顛簸」。
調整模型路由策略與未來展望
OpenAI 也正調整其決定哪個模型處理特定提示的策略,旨在讓任務與模型之間能更可靠地匹配。Sam Altman 表示,OpenAI 計劃讓用戶更清楚地知道目前正在使用哪個模型,並允許他們透過介面手動觸發「Thinking」模式。他並未說明這些功能何時會推出。這些更新顯示 OpenAI 正在重新考慮其先前的全自動路由模式。雖然自動路由對於不希望自行選擇模型的入門用戶來說更方便,但它可能導致答案的可靠性降低,或為任務選錯模型,為原本就難以預測的 LLM 輸出增加額外的不確定性。若用戶希望繼續使用舊版ChatGPT模型,可在設定中啟用「舊版」模型存取。啟用後,它們將顯示在「其他模型」下方。然而,GPT-5「Thinking」和「Pro」版本只能透過 Pro 帳戶直接選用。
NewMobileLife 網站:https://www.newmobilelife.com