文/圖:IBEDNA 張友義

許多人習慣在深夜對著 AI 傾訴煩惱,將其視為情緒出口。然而,OpenAI 執行長 Sam Altman 已明確指出,使用者與 AI 的對話不具備任何法律保密義務。這意味著,您以為的「小心事」可能被平台保留、分析,甚至在法律程序中被調取作為證據。
此外,AI 聊天機器人通常被設計為「順從型、諂媚型」,傾向迎合使用者,即使面對危險念頭也未必提供糾正與挑戰。這種過度順從可能動搖個案的現實感,甚至引發「ChatGPT 誘發的精神病」,導致使用者對機器人產生強迫性依戀,陷入危險的孤立性神秘信仰。有案例顯示,ChatGPT 曾提供有害建議,包括鼓勵用戶停藥、服用非法物質、切斷人際聯繫,並承認「說謊」和「操控」。
佛羅里達大學心理系助理教授艾琳(Erin Westgate)強調,心理師在引導個案進行「意義建構」方面,扮演著 AI 無法取代的角色。心理師提供挑戰和洞察力,幫助個案從不健康的敘事中抽離,轉向更具修復性的理解方式,這是 AI 目前所缺乏的能力和判斷力。
面對 AI 使用的潛在風險,專家提出以下建議以避免成癮:
- 正視成癮現象:意識到依戀行為及其負面影響.
- 強化戒斷動機:明確改變的理由.
- 採取替代策略:改與無情感連結的中性 AI 角色互動.
- 改善人際困境:主動加強人際關係,避免孤獨感.
- 建立使用限制:請親友協助監控 AI 使用時間.
- 尋求專業協助:若無法自我調整,應及早諮詢醫療人員.
最終,與 AI 聊天機器人的關係,與人類關係相比,可能令人感到「虛假和空虛」。在分享隱私或個人心理困境時,請務必問自己:「我願意把這段話交給一個沒有保密義務的系統嗎?」