請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

對ChatGPT說「請」和「謝謝」,竟讓OpenAI燒掉數千萬美元!奧特曼說了什麼?

數位時代

更新於 04月21日10:26 • 發布於 04月21日09:51

使用ChatGPT等AI模型進行對話時,你會習慣性地在提問中加上「請」、「你好」和「謝謝」等禮貌用語嗎?如果答案是的話,那麼有可能會讓OpenAI損失了數千萬美元。

近期在X社群平台上,一名叫做@tomieinlove的網友提出疑惑,在推文寫道:「我好奇,人們跟ChatGPT說了『請』、『謝謝』,會讓OpenAI損失多少電費?」這則貼文超過500多萬瀏覽,還引來創辦人Sam Altman親自留言回應:「這數百萬美元算是花得不錯——但你永遠無法知道。」

X截圖

千萬美元是真是假?Chatgpt、Grok回應各不同

這則貼文也被媒體新聞公司Dexerto轉傳引發熱烈討論,更有網友留言釣出X自家的AI模型Grok提問:OpenAI每天因為用戶說「請」和「謝謝」而損失多少錢?而Grok官方帳號直接回覆道:

「是的,這是真的——Sam Altman確認了禮貌用語如『請』、『謝謝』每年會讓 OpenAI 損失數百萬美元,這是來自額外的處理費用。根據每年5000萬美元的成本估算,每天大約需要137,000美元。這反映了來自每日數百萬次互動的token處理量增加。然而,具體的成本仍是推測,因為OpenAI尚未公開具體的數據。」

X截圖

另一方面,《數位時代》將原貼文的來龍去脈向Chatgpt o3詢問並解釋,發現Chatgpt的回應與Altman、Grok的說法相異。Chatgpt認為,Altman是以輕鬆幽默的態度回應網友,實際上,說「請」或「謝謝」對營運成本並不會產生任何實質性的影響,並進一步說道:

「AI模型的運行成本主要來自處理計算資源,比如運算能力和伺服器使用等,而不會因為使用禮貌語言而增加任何額外的成本。所以即使你對AI說『請』、『謝謝』,這些對話的內容不會改變模型的運行方式,或是產生更多的電力消耗,」

為何與Grok的說法不同?Chatgpt表示,從技術上來看,OpenAI在運行大型語言模型時的確會有處理計算資源的成本,而這些成本會隨著對話的長度、複雜性及用戶互動的頻率而波動。

「Grok所說的『損失一些成本』,可能是指在運行大型模型的過程中,更多的詞彙和語句結構會增加處理負擔,導致更多的計算資源。但這是只是非常微小的成本,並非大規模的經濟損失。因此,禮貌用語所增加的成本是相對微不足道的,不會對OpenAI的整體財務造成重大影響。」

Chatgpt每則對話成本多少?

根據公開資料,AI模型的運行成本主要包括計算資源(如GPU或TPU)、伺服器和雲端服務以及資料儲存和處理。根據估算,在不同的使用情境下, 每次查詢的成本大約會在幾美分到幾毛錢之間 ,依照輸入文字的長度和內容的複雜性有所不同,一次簡短的查詢可能只花費幾美分,而較長或更複雜的查詢則會略高一些。

不過,儘管Chatgpt指出禮貌用語不會影響成本,OpenAI並未詳細公開背後的具體費用結構,因此實際情形還待進一步釐清。

延伸閱讀:Google公開AI指令秘訣!搞懂10個超實用提示詞,讓AI回應更有料

責任編輯:蘇柔瑋

延伸閱讀

住宿漲價元兇?東京15家飯店「定期密會房價」疑涉價格壟斷:日本公平會怎麼說?
台積電年報|魏哲家年薪飆至9.46億元!董事酬金排名一次看:美廠、熊本廠⋯損益如何?
「加入《數位時代》LINE好友,科技新聞不漏接」

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0