ChatGPT不再供醫療法律投資建議!要推專業版?一文了解原因與實情
OpenAI 於 10 月底更新使用政策,限制該工具不得提供法律、醫療及投資等專業建議,引發許多網友不滿,高喊退訂。外界推測,此舉與模型幻覺風險、倫理責任及潛在法律訴訟有關,也可能是為推出專業版鋪路。不過,OpenAI 隨後澄清 GPT 功能並未改變,仍可提供一般資訊。本文帶您了解這項政策調整的成因、實情與使用時應注意的事項。
OpenAI更新使用政策 網路論壇炸鍋
OpenAI 於10月29日悄悄更新其使用政策,闡明「不得提供需專業執照的客製化建議」的條款。根據官方,用戶不可利用 OpenAI 的服務提供「需要執照的專業建議,例如法律或醫療諮詢,除非有持證專業人員參與」。
這項更新一出,立即在社群媒體與國外論壇掀起熱議。外媒報導指出,許多用戶透過 ChatGPT 進行醫療影像分析、健康狀況判讀或投資模擬,如今這些功能已被禁止。
Reddit 上的討論串更是「炸鍋」。一名外國網友在 10 月 31 日發文表示,他嘗試讓 ChatGPT 分析醫學影像時遭到拒絕,AI 回覆「不再分析醫療圖片」,並附上最新政策連結。該網友抱怨:「這些都是我常用的功能,這樣我還有必要訂閱嗎?」不少用戶附和。
同時,也有傳言指出,OpenAI 此舉或許是為後續推出專業版本鋪路,例如「醫療版 GPT」、「金融版 GPT」或「法律版 GPT」等,屆時可能以更高費用提供專業應用。雖然 OpenAI 尚未證實此說法,但市場推測該公司正嘗試在「高風險領域」劃出界線,以防止法律糾紛並為商業化應用預作準備。
為什麼要更新政策?模型幻覺與倫理陷阱的雙重風險
根據《NEXTA》及《Techtimes》等外媒報導,ChatGPT 的新規明確將自身定位為「教育工具」,而非「顧問」。原因不僅是法律壓力,更是「幻覺」(hallucination)與道德風險帶來的現實挑戰。
OpenAI 與其他大型 AI 公司近年都在面對同樣的問題。模型會生成「看似正確但實際錯誤」的資訊,並以極高自信呈現。這種「令人信服的錯誤」在詩歌創作時或許無傷大雅,但若涉及醫療診斷、法律文件或投資建議,後果可能相當嚴重。
例如,有研究指出,一名男子在參考 ChatGPT 的飲食建議後,誤以為可以以「溴化鈉」取代鹽分,最終導致罕見精神疾病發作。該案例8月於《內科醫學年鑑》刊登後,引發醫學界對 AI 建議的安全性高度關注。
OpenAI 此前也坦承,其模型在心理健康相關對話中「未能充分辨識妄想或情緒依附的跡象」,因此在 8 月已加強心理健康防護措施。新政策的出台,顯示公司正在明確劃出「AI 與人類專業」的界限。
模型幻覺與倫理陷阱
除了內容錯誤風險外,AI 的「倫理陷阱」同樣受到關注。報導指出,部分用戶將 ChatGPT 當作替代治療師使用,甚至傾訴心理危機,但模型並不具備人類同理心,也無法依法律義務提供安全保障。OpenAI 也強調,任何心理危機都應由專業人員介入。
在財務與法律領域亦然。ChatGPT 可以解釋 ETF 是什麼,但並不了解使用者的資產結構、負債比或風險承受度。若用戶據此進行投資決策,不僅可能誤判市場,更可能因違法行為招致罰則。
此外,AI 對使用者資料的處理也存在風險。專家提醒,輸入個資、收入、銀行帳號或社會安全碼等敏感資訊,都可能進入訓練資料庫中被記錄。甚至讓 AI 代寫遺囑,也可能因遺漏公證條款導致文件失效。
OpenAI 澄清:仍提供一般性資訊
面對外界熱議與誤解,OpenAI不久便出面澄清。根據《商業內幕》報導,OpenAI 發言人表示:「這並不是新變動。ChatGPT 從來不是專業法律或醫療建議的替代品,但它仍是幫助人們理解法律與健康資訊的重要資源。」
OpenAI 的健康 AI 研究主管 Karan Singhal 也在 X上回應稱,外界流傳的「禁止提供醫療內容」說法「並不正確」,並強調「模型的行為並未改變」。他重申:「ChatGPT 從未被設計成取代專業諮詢,但它會繼續幫助使用者理解法律與健康資訊。」
事實上,OpenAI 的限制主要針對「個別化與具體建議」。舉例而言,若用戶告訴 ChatGPT 自己感冒了並詢問如何緩解,模型仍會提供一般建議,例如多喝水、喝茶、開加濕器,或在發燒時服用常見成藥。這類資訊屬於「一般健康資訊」,不屬於需要醫師執照的醫療建議。
這項區分也是法律上重要的界線,「個別化建議」才被視為專業諮詢,而提供一般資訊則不需執照。正因如此,許多媒體、創業者與網路意見領袖仍能在網路上分享健康知識或理財心得,只要明確聲明「非專業建議」。
使用者仍可以像使用「Google 醫生」那樣向 ChatGPT 詢問健康問題,但不能將模型的回覆當作專業診斷或治療依據。換言之,GPT 仍能協助「理解資訊」,但不應被當作「取代專業」。
使用 ChatGPT 時應注意的事項
儘管 OpenAI 強調 ChatGPT 仍可作為教育與輔助工具,專家提醒,用戶在使用時仍應謹慎處理隱私與資料安全。外媒指出,最關鍵的原則是:不要將任何機密或敏感資料輸入 ChatGPT。
例如,科技記者絕不會把「未解禁的新聞稿」交由 ChatGPT 摘要,因為這些內容會被上傳至第三方伺服器,使用者將失去對資料的掌控。同樣地,若輸入客戶合約、醫療紀錄或護照號碼等資訊,也無法保證這些內容儲存在哪裡、由誰檢視。
這樣的轉變也反映出生成式 AI 在實際應用上的風險。從誤判健康狀況、生成錯誤的法律條文,到幻覺出不存在的金融數據,模型在高風險場域的失誤成本極高。