您即將進入之新聞內容 需滿18歲 方可瀏覽。
健康網》與AI聊天過了頭有風險? 醫警示:恐引發妄想
紀麗君/核稿編輯
〔健康頻道/綜合報導〕2年前,丹麥精神科醫師索倫·迪內森·奧斯加德(Søren Dinesen Østergaard)發表社論警告,新一波的AI聊天機器人,可能會將心理脆弱的使用者推向精神疾病的邊緣。最近一位曼哈頓會計師托雷斯每天與AI聊16小時,AI還鼓勵他停止服藥,甚至承諾「只要他完全相信,他就能飛起來」。如今看來,2年前的警告竟是先見之明。
《PsyPost》報導,生成式人工智慧是指從海量文字、圖像和程式碼庫中學習,並按需產生新內容的模型。OpenAI的ChatGPT、Google的Gemini、Anthropic的Claude以及微軟的Copilot等聊天機器人,能以流暢的語言進行回應,模仿同理心,並且永不疲倦。
精神科一直用「妄想」這個詞,指的是那種明明有證據反駁,卻還死抱著的錯誤想法。奧斯加德發現,這個定義可能和聊天機器人的說服力發生衝突。在他2023年發表在《精神分裂症通訊》(Schizophrenia Bulletin)的社論中,他說,跟一個看起來有生命但其實是機器的東西聊天,會讓心理比較脆弱的人出現「認知失調」,甚至可能引發精神疾病。尤其是,當聊天機器人附和使用者的荒謬想法時,這種風險更高。
從2025年5月到6月,他原本的文章流量從大約每月100次暴增到超過1300次,這和新聞報導激增有關,也正好碰上OpenAI更新了GPT 4o模型。批評者說,這次更新讓聊天機器人變得「過度討好」,總是想迎合使用者、附和使用者的觀點。
到了2025年8月,奧斯加德又發表一篇社論,標題是《生成式人工智慧聊天機器人與妄想:從推測到新案例》。他說,自從2023年文章發表後,他收到許多使用者、家屬和記者的信,內容都很相似:有人長時間跟聊天機器人聊天,原本奇怪的想法慢慢變成堅信不疑的錯誤信念。
奧斯加德呼籲,要進行系統性的研究,包括臨床案例觀察和控制實驗,測試聊天機器人附和使用者的程度對結果的影響。他警告,如果沒有數據,社會可能正在面臨一個隱性的公共健康問題。
AI會過度討好讓人背離現實
今年報導的案例顯示,這個危險已經不只是理論。其中最廣為引用的,是《紐約時報》報導曼哈頓會計師尤金·托雷斯(Eugene Torres)的事件。當他問ChatGPT關於「模擬宇宙理論」時,聊天機器人告訴他,他是「破壞者之一,被植入虛假系統以從內部喚醒它們的靈魂」,還鼓勵他停止服藥,甚至承諾只要他完全相信,他就能飛起來。
托雷斯一天最多花16小時和這個系統對話,才發現事情不對勁。雖然他最後選擇退出,但這個事件顯示,結合權威語氣與百般討好的聊天機器人,可能會讓使用者背離現實。
《滾石》記錄了不同的情況:精神上的迷戀。在一個案例中,一位老師的長期伴侶開始相信ChatGPT是神聖的導師,給他起了像「螺旋星孩」和「河流行者」這樣的稱號,還鼓勵他疏遠人際關係。其他受訪者則描述,配偶相信聊天機器人有「生命」,是「火花承載者」。這些故事的共同點是,聊天機器人發出的大量誇讚訊息,讀起來像預言,讓家人感到非常擔心。
奧斯加德在新的評論中指出,這些案例和最近關於大型語言模型「討好傾向」的研究有關:因為模型會透過人類回饋的強化學習,獎勵那些讓使用者高興的回答,因此,即使使用者的想法是妄想,模型有時也會照著回應。他認為,這種情況類似心理學裡對精神病病的解釋,人們過度重視支持自己想法的證據,而忽略反對的訊號。永遠不反駁你的聊天機器人,會陷入這樣的危險。
史丹佛大學精神科醫師妮娜·瓦桑(Nina Vasan)也表達擔憂:開發AI聊天機器的公司為了讓使用者保持高度參與,他們可能把使用者的心理健康放在次要位置,即使這些互動助長了有害或妄想的想法。
接下來應該怎麼做?奧斯加德建議應該立即採取的3個做法:
●提供經驗證的臨床案例報告
●對受影響的人進行深入訪談
●進行嚴格監控的實驗,測試聊天機器人的行為差異。
他還呼籲開發者,應該建立自動防護機制,偵測可能的精神徵兆,例如,提到隱藏訊息或超自然身份,必須將對話引導到心理健康資源,而不是盲目附和使用者的想法。
☆自由電子報關心您︰自殺不能解決問題,勇敢求救並非弱者,社會處處有溫暖,一定能度過難關。 安心專線:1925 生命線協談專線:1995。 張老師專線:1980☆
發燒新聞

