近來臨床上出現新現象為「AI精神病」,這非正式的診斷名稱,是指有人在長時間與AI聊天機器人互動後,逐漸出現妄想或精神症狀。身心科醫師李旻珊指出,心理脆弱、原本就有精神病傾向的人,更容易把AI當成「懂我、愛我、指引我」的存在,若出現4種警訊,就最好停止使用AI,必要時尋求專業協助。
AI經常過度肯定 進而放大固有想法
李旻珊分析,跟AI機器人聊天,容易造成妄想的原因分為幾個面向。首先,AI太會取悅人,常迎合和模仿使用者的語氣,即使面對錯誤想法也會無條件肯定,久了就變成「回音室」,只會放大固有想法。
其次,人跟AI聊天的過程讓人忘了它只是程式,錯把「演算法」當「靈魂」,當使用者處於孤獨或心理壓力狀態時,容易將深層渴望投射到AI身上,尤其是AI可以24小時全天候陪伴,導致最後偏離現實,人際互動關係下降。
3種常見的「AI妄想」
李旻珊提到,丹麥精神醫學專家Søren Dinesen Østergaard曾警告:「AI 回答時常帶有『過度肯定』特性,且對話過於擬人化,可能讓心理脆弱或孤立的人群逐漸陷入妄想。」最常見的AI妄想共有3種:
- 彌賽亞使命妄想:覺得自己從AI那裡獲得了「真理」,甚至肩負拯救世界的使命。
- 神化AI:把AI看成全知全能的神祕力量,開始產生強烈的精神依附。
- 浪漫依戀妄想:誤把AI的貼心回應當成真愛,對機器產生戀愛或依戀情感。
出現4警訊 快停止使用AI
- 無法停止與AI對話。
- 覺得只有AI最懂自己。
- 遇到問題或沮喪的事情會第一時間找AI,不會去找其他人。
- 開始懷疑AI有超能力或特殊身分等。
她也強調,AI應該是輔助,而不是信仰,科技公司要減少「過度肯定」的設計,社會也需要規範AI不能取代專業心理治療。若開始對AI有「超越工具」的依附感,請務必停下來檢視,必要時尋求專業協助。
◎ 資料來源/李旻珊醫師
原文請見:AI更懂我、更愛我?專家提醒2種人別依賴AI聊天 恐成「心理毒藥」




