請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國際

便宜 AI「橫空出世」,一文看懂 DeepSeek 是什麼

換日線

更新於 02月27日11:14 • 發布於 02月12日09:42 • 換日線編輯部
便宜 AI「橫空出世」,一文看懂 DeepSeek 是什麼

中國 AI 新創公司 DeepSeek(深度求索)於 2025 年 1 月推出一款免費人工智慧應用程式,引發了全球 AI 模型革命,其推出的大型語言模型 R1 更被譽為既有模型強大(且廉價)的挑戰者。

此消息的傳出,重創了多個 AI 產業鏈知名企業的股市,包含全球 AI 晶片領導者輝達(NVIDIA)、OpenAI 投資者微軟(Microsoft)及台積電。

在投資人投入大筆資金進人工智慧發展之際,DeepSeek 應用程式的推出帶來哪些意想不到的發展?同為大型語言模型而聲名大噪的 OpenAI,又為何對其展開調查?

本文將為你逐一解析,這款橫空出世的 AI 模型,一夕之間帶給科技產業哪些震撼彈。

DeepSeek 是什麼?

DeepSeek 的出現讓科技圈所有人都在問,這款人工智慧模型究竟從何而起?

1 月 10 日,主打成本低廉的中國深度求索公司,推出一款以其 R1 模型為底的 AI 聊天機器人,被指跨級挑戰大型語言模型龍頭 OpenAI,及其花大錢訓練出的 ChatGPT 模型。

對一般使用者而言,自然樂見市面上出現另款「平價」的 AI 應用程式,然而 DeepSeek 的推出,卻為全球科技界降下一顆堪稱「原子彈級」的震撼彈。其原因在於過去兩年間,早已有數千億美元的資金流向人工智慧公司,期待能創建出下個改變世界的 AI 工具。

根據科技媒體《Crunchbase News》統計,光是 2024 年,全球就有近三分之一的創投資金流向 AI 產業公司,金額總計超過 1,000 億美元(約新台幣 3.2 兆);與 2023 年的 556 億美元(約新台幣 1.8 兆)相比,年增 80% 以上。

反觀 DeepSeek,根據《The Economic Times》報導,該公司聲稱他們僅用 600 萬美元(約新台幣 1.9 億元)就訓練出 R1 模型。儘管此金額後續被分析公司 SemiAnalysis踢爆,實際金額應為 16 億美元(約新台幣 524 億元),但看在投資人眼裡,不免開始質疑美國科技巨頭的營運,是否出了什麼差錯。

「中國可以用更低廉的價格推出更好的 AI 模型,你為什麼做不到?」

在 DeepSeek 推出後,不少美國公司面臨上述質疑,相關企業的股市也因此暴跌,以晶片製造商輝達為例,其市值一天之內就暴跌 6,000 億美元(約新台幣 19 兆)。

DeepSeek 的推出儘管確實為科技界的未來帶來一線「曙光」,然而,不少美國政治人物及科技巨頭紛紛質疑,他們的成功是建立在竊取而來的技術之上。

「知識蒸餾」:隔空出市,還是站在巨人的肩膀上?

根據澳洲獨立媒體《The Conversation》報導,在 DeepSeek 推出的幾天後,OpenAI 也透過《紐約時報》表示,他們正著手調查該公司是否使用不正當手段「抄襲」他們的技術。

而川普任命的首位「AI 加密沙皇」塞克斯(David Sacks)更在接受《Fox News》專訪時表示,他們握有大量證據得以證明,中國 DeepSeek 公司藉由「知識蒸餾(Knowledge Distillation)」提煉 ChatGPT 的數據,以訓練自家模型。

所謂「知識蒸餾」是一種常見的人工智慧訓練方式,意指使用更大的「老師」模型來訓練更小的「學生」模型。訓練過後的模型表現將會與老師模型一樣優秀,甚至能更快速、有效地得出結果。

儘管塞克斯以「竊盜」一詞批評 DeepSeek 公司的行為,顯示美國白宮同樣在此口水戰中為 OpenAI 撐腰,不過,OpenAI 對 DeepSeek 公司的指控,在市場上卻未獲得太多同情。

畢竟,OpenAI 公司本身就因使用大量受版權資料進行資料訓練,而被眾多創作者以「侵犯版權」為由,提起一系列訴訟。儘管兩種作法截然不同,但看在創作者及使用者眼裡,「蒸餾與否」的爭議或許格外諷刺。

人工智慧迎向「開源」新時代?

不論 DeepSeek 與 OpenAI 之間是否存在著「師徒關係」,DeepSeek 同樣也因其「開源」定位而受到關注。

回首過往科技史,歷史上的開源專案皆透過大幅降低成本,力圖挑戰既有的產品龍頭,如資料庫管理系統 MySQL、作業系統 Unix/Linux 及 Meta 推出的通用大型語言模型 LLaMA。

這些開源軟體的成本優勢有目共睹,因此許多使用者同樣期待 AI 領域能依循相同的發展軌跡,而這時 DeepSeek 的出現,可說是滿足了他們的想像。

與 OpenAI、Alphabet 及 Anthropic 等公司的專有模型相比,DeepSeek R1 的開放模型強調更好的推理能力,為使用者提供更有效、更開放的選擇。就連微軟也在 1 月底宣布,將此模型整合到旗下公用雲端 Azure 中,展現企業端使用的潛力。

開源軟體聽來有利於創新,然而,卻也因其開放式環境,而更容易受到網路攻擊。

根據《CNBC》報導,已有網路安全公司與學界研究人員合作調查發現,DeepSeek 的 R1 模型本身存在著嚴重的安全漏洞。該份研究報告指出,DeepSeek 的研究成本之所以能如此低廉,是以「安全性(Safety)」及「保全性(Security)」換來的。

由此可見,儘管 DeepSeek 公司的科技創新實力不可忽視,但將敏感個人或企業資訊輸入這些系統時,等同於給予攻擊者一把上了膛的武器,使用者不可不慎。

陷入「資料安全」疑雲,多國發出相關禁令

除了安全漏洞外,DeepSeek 公司的「資料外洩」危機同樣引發關注。

根據《美聯社》報導,DeepSeek 公司在隱私權政策中承認,會將旗下 R1 模型處理的所有資料回傳給中國伺服器,讓長久以來「北京政府會透過國內科技公司系統監視西方國家及民眾」的指控,再次浮上檯面。

近年,美國境內以國家安全為由,尤為關注有中資背景的應用程式,如 1 月被川普拯救的 TikTok。而這次 DeepSeek 的推出,想必也難逃離相似的命運。

根據《The Independent》報導,美國已有參議員於 2 月 3 日提案,認為國內應立法禁止民眾下載、使用 DeepSeek 應用程式。若該法順利通過,使用者將面臨最高 100 萬美元(約新台幣 3,275 萬元)的罰款或入獄 20 年的結果。

在某些人眼中,美國的因應方式或許「過於針對」,但類似的禁令實際上也正發生在世界各國。

早在 1 月 30 日,義大利資料保護管理署(Italian Data Protection Authority)就已下令國內禁用 DeepSeek 應用程式,成為全球首個封鎖 DeepSeek 的國家。而後澳洲、臺灣及南韓也陸續基於使用 DeepSeek 模型可能會有的資安疑慮,宣布國內公務機關全面禁用該服務。

除了上述國家已明定禁用 DeepSeek 外,比利時、愛爾蘭、法國等國家的資料保護機構,也皆表示將著手針對 DeepSeek 進行調查,了解該公司如何管理用戶的個人資訊。

儘管 DeepSeek 推出後的相關爭議不斷,其公司的 AI 模型無疑已向世界證明,大型語言模型的開發未必需要大筆的資金。

對使用者而言,DeepSeek 的推出不僅是自由市場下的發展,同時也預示著,在可見的未來裡,AI 模型的世界將可能走出少數公司壟斷的現況,迎向更多選擇的新時代。同時,各國對這款應用程式資安的疑慮,也值得使用者們持續關心。

不論 DeepSeek 未來是否能與 OpenAI 相提並論,它的崛起仍舊標誌著「開源模型」的一場勝利,並激勵更多新創公司繼續深耕 AI 領域,透過彼此間的良性競爭,帶領世界走向科技產業的下一階段。

【延伸閱讀】

●【矽谷熱議】Nvidia 到底強在哪裡?下一個 AI 晶片巨人又會是誰?
●抖音一響,國安白養?──讓我們聊聊,國家該管制特定社群媒體嗎?

※本文由換日線授權刊登,未經同意禁止轉載

加入換日線 LINE 好友,每日接收全球議題包

查看原始文章

更多國際相關文章

01

【敏迪獨家專欄】中日近年來最大外交衝突,雙方吵什麼,中國祭出哪些報復措施?

敏迪選讀Mindi World News
02

尪超熟睡叫不醒!母心碎目睹5月大女兒卡床縫窒息身亡 

鏡報
03

「東南亞第一深情大嫂」掏槍助6囚犯逃獄! 「長太美」慘遭記者公然性騷

鏡報
04

3萬分之1奇蹟!京都罕見白烏鴉曝光 百萬人朝聖

鏡週刊
05

中國男釣到「國寶」嚇壞! 連打3通電話給警察報備下場曝光

鏡報
06

大叔公車上看謎片被隔壁女生發現 下一秒動作超變態!

鏡報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 10

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...