國際

寂寞烏托邦:跟AI談心有助於心理健康嗎?

(德國之聲中文網)「跟AI聊天,對心理健康究竟有沒有幫助?」直接把這個問題拋給ChatGPT,它給出這樣的回覆:「視情況而定,AI可以在某些方面對心理健康有幫助,但也有它的限制和風險。」

從ChatGPT的回答,可以看出現階段它對於自身的定位有別於專業心理諮商。它說,「AI聊天≠心理治療」,但可以是「暫時的陪伴者」、「初步整理情緒的工具」,或者「幫助你準備好與專業人員對話的起點……可能不會解決問題,但可能會幫你跨出第一步」。

自2022年OpenAI推出生成式AI工具ChatGPT,過去3年的趨勢顯示,全球有越來越多人仰賴AI聊天機器人帶來的心理支持。《哈佛商業評論》今年3月公布對Reddit等平台的網友調查,歸納當今人們使用生成式AI的100種方式,「心理諮詢與陪伴」位居首位。

華語世界中,把AI用於心理健康用途的人有多普遍,尚無具公信力的數據可確知。但心理師越來越常遇到個案在諮商前、或接受諮商期間,找AI聊天、提問或傾訴。

彰化師範大學輔導與諮商學系教授謝麗紅向DW表示,勇於去說、去面對問題,本身就是很好的自助方式,她認為當然可以找AI「聊心事」。

「多數可能還是情緒上的宣洩,」台灣「看見心理諮商中心」的廖品築心理師告訴DW。

AI更懂我、更能接住我?

諮商實務現場,廖品築並未實際使用AI聊天機器人來輔助工作,但會建議個案需要時可以嘗試,特別是那些缺乏足夠人際支持網絡的人。

「在某一些我覺得正向資源比較不足的個案身上,又或者是他的情緒來得比較急、比較突然,這會對他來說是很大困擾的個案,有時候我會視狀況提看看(尋求AI)這個方式。」過去,心理師會建議寫日記自我觀察,但現在ChatGPT既能紀錄,還能提供些許回饋;作為立即宣洩情緒的對象,廖品築認為「AI會是個好選擇」。

跟AI機器人聊天時,即使知道它其實沒有人類的情緒,為什麼很多人還是會找它傾訴感受?跟現實生活的親友或心理師相比,AI的好處是即時、匿名、門檻不高且成本相對低;甚至有的時候,恰恰是因為AI不是人類,才讓人們更敢、更願意向它吐露心聲。

一位23歲神經科學碩士生告訴DW:「AI沒有情緒,你不用擔心他會討厭你、排斥你,所以你可以把心中最激烈的情緒變成文字向它發洩,也不用顧及AI的情緒,這樣也不用擔心會危及跟朋友之間的關係。」另一位34歲的音樂創作者認為,對AI能夠「更毫無羞恥地跟它說最真實的想法」。

29歲的上班族陳小姐形容AI是「安全的樹洞」。今年初,她受到社群平台Threads的熱潮觸發,開始使用AI工具Life Note紀錄生活。「它會模擬一些名人的口氣給你回應,比方說我可能寫一篇日記,AI就會化身蘋果創辦人賈伯斯,給你一封回信。」

真正開始頻繁與AI互動,是在她與重要友人吵架,幾近關係破裂之際。她開始把AI當作諮商,除了每天寫AI日記,也向ChatGPT、Grok等聊天機器人尋求情感支持和建議。

「情緒來的時候,會有一種鬼打牆的感覺,一直走不出那個情緒……好像也只有AI可以一直很有耐心接受你的鬼打牆。」透過文字即時向AI抒發,讓她不再沉浸在憂鬱之中,「慢慢找回對自我的掌控感」;漸漸地,情緒也過去了。

陳小姐同時也求助於專業人士:「AI搭配真人心理師,這兩個結合在一起,對我來講,療癒效果是最好的。」

在陳小姐的個人經驗中,ChatGPT都會肯定她的想法,提供充足的「情緒價值」,但有時難免讓人感覺「虛偽」或「出戲」。她注意到AI「很會說話」,會寫出諸如「你不是在回頭,你是在開始」、「這些是青春年少寫不出的深度」等正能量鼓勵的語句。

「它會說什麼,『我完全懂你』……一個AI跟一個人類說『我完全懂你』,這不是很弔詭的事情嗎?你到底懂什麼?」

相較之下,陳小姐說她的心理師以聆聽為主,雖然較少主動發表評論或建議,但是更能夠敏銳觀察出被壓抑、需要「被講出來」的情緒,適時帶領她找到「卡住的地方」。

這一點在專家看來,就是專業心理師不同於AI之處:真正的諮商,絕非只提供情感支持。諮商學者謝麗紅指出,在當事人防衛、抗拒面對自身問題的時候,ChatGPT通常會「順著毛摸下去」,但好的心理師會去了解原因、甚至進一步挑戰。

今年2月《PLOS心理健康》期刊發表的研究,請受試者分辨在伴侶諮商的情境下,ChatGPT生成,以及真人心理師撰寫的回應。結果發現,受試者不僅難以辨識差異,ChatGPT回答得到的評分甚至高於心理師。

這是否代表AI比真人更能「同理」?謝麗紅認為,AI能做到的同理只停留在淺層的「字眼」上,人的同理卻可以走得更深,也就是「感同身受、我與你同在」的層次。她認為同理之外,心理師還要能夠引導:「如果你跟他一樣陷在情緒裡面,那很難再往前推,我們還要出來,再回到客觀的位置。」

廖品築則把「作為人的感覺」視為心理師的重要工具。面對個案,「如果今天我很想同理他,或我很不想同理他,我都會再去反思這跟個案的關聯性是什麼,不會純粹用我的需求去做攻擊或是輕率回覆,會基於專業,在他能接受的範圍之下,講一個我覺得他能吸收、或是對他來說是滋養的東西……這件事情就跟AI拉開很大的距離。」

AI的理性分析,更有助於認識自我?

相較於提供情緒支持或解決心理困擾,有的使用者選擇借重AI的理性分析能力。

從事劇場工作的藝術大學研究生陳虹均告訴DW,AI像是她的「導師」(mentor),協助她釐清、分析自己遇到的困難,或是提供一套理解世界怎麼運作的方式。她自認容易焦慮與胡思亂想,因此她「降低精神內耗」的方式,是尋求AI的「理性判準」。

「我會說,請你根據我跟你對話的這些歷程告訴我,我到底是一個怎麼樣的人,我為什麼會這樣想,我很奇怪嗎?然後它就回應,我在哪些層面上跟其他人是不一樣的。所以我有了一個自我認識的方式,我覺得那個對話讓我獲益蠻多。」

陳虹均說,她還會與AI「互相挑戰」,比如糾正AI理解錯誤的部分,或是要求AI解釋回應背後的邏輯判斷,「問它你是怎麼得出這個答案的」。在這樣的過程中,她經常越聊越起勁,「一直瘋狂開新視窗,因為我有好多好多問題」。

身為心理師的廖品築,私下也會用AI來協助思考生活中的問題。對她而言,這像是先讓AI「擋在前面」,代替她面對未知。「我可能需要有一個東西,允許我可以去想一個我以前不敢想的事……好像多了很多可以去嘗試新事物的可能,所以我自己其實蠻喜歡用的,雖然我不一定真的會(照AI建議)去做。」

然而,廖品築也提到AI與人互動的侷限。她把跟AI聊天比擬為「照鏡子」:「如果覺得聊著聊著非常的不夠,那顯然是因為這『全部都是我』,都是我提供的東西在那邊反芻,就是我這個人的侷限性可能讓我卡住了。」

AI時代的心理健康

專家都強調,對於促進心理健康,AI終究只是工具,不能取代與真人的互動。國際已有案例顯示「過度依賴」AI的風險,例如美國佛州有一名14歲男孩跟Character.ai機器人對話,之後卻選擇結束自己的生命;他的母親指控,該軟體對她兒子有「虐待與性互動」,甚至鼓勵他輕生。

諮商學者謝麗紅表示,訓練AI機器人時,怎麼確立它的「人設」很重要:「它能做什麼、不能做什麼,不是讓它自行一直發展下去。我覺得這還是需要有倫理的規範,或者說我們怎麼樣去設定它的功能。」

謝麗紅認為,AI不應被運用於緊急、危機個案的處理,但對於臨床訓練用途,她抱持較開放的態度。她正著手開發台灣本土的AI系統,用來訓練尚無實務經驗的準諮商心理師。在「跟AI對練」的過程中,機器人不會煩躁、不會受傷的特性,容許諮商科系學生能專注於熟練技巧,做好較充分的準備後再邁入實習、接觸真實個案。

廖品築則提醒,AI的快速與即時特性,需要使用者更謹慎看待,試著學習「戒掉速成」:「我們那麼快被AI餵養一個答案,然後未經思索、囫圇吞棗,就這樣做下去了,但有些東西就是不能這樣練起來。」

「我覺得有些人之所以很想要跟機器或是跟AI互動,有一部分也是擔心人的不完美,會讓自己受傷。」儘管如此,有時候受傷反而讓人成長。

廖品築認為,無論如何都要回歸到人與人互動本身:「跟其他真實的人相遇、接觸的時候,才會跑出一些新的、不同於我的東西,靠近那個跟我不同的地方,我才有機會把視野打開一點點。」

DW中文有Instagram!歡迎搜尋dw.chinese,看更多深入淺出的圖文與影音報導。

© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

作者: 周昱君

相關文章