2025年3月3日 星期一

AI 協助諮商

 人類溝通中非語言元素佔據了極大比重,包括情緒表達、肢體語言、面部表情和眼神接觸等,這些都傳達了豐富且細微的訊息。 在諮商和心理治療中,這種非語言溝通尤為重要。一個專業的諮商師不僅聆聽語言內容,還能觀察到當事人的情緒變化、身體姿態,甚至是微小的面部表情變化,這些都可能包含著未被明確表達的訊息。 AI確實面臨著在這方面的限制。雖然技術在不斷進步,但AI無法真正"看見"這些非語言線索,也難以像人類那樣自然地回應和解讀這些訊息。諮商過程中的那種即時的、身體的、情感的連結是很難被完全數位化的。 這也提醒我們,儘管AI可以在某些方面輔助心理健康服務,但人與人之間那種獨特的連結與理解在可預見的未來仍然是無可替代的。


然而使用AI 協助諮商有其重要性,畢竟不是每個人身邊都有408小組。 大部分的人花不起50分鐘,2000-5000(看地區,看老師) 而且需要諮商的時候可能是半夜,沒有諮商師可以幫忙。 世界動盪下,諮商師人數線性成長,求助者幾何成長。 我們系上就有不少位學生,跟老師們說過諮商師無法同理她們, 我推測好的諮商師可能有限。


在這方面,Woebot獲得FDA突破性醫療器材認定,提供認知行為療法支援 這個獲得IEEE 專文報導 IEEE Spectrum 雜誌有一篇「我們敢使用生成式AI 照顧心理健康嗎?」  這篇文章詳細說明美國FDA 接近醫療級水準的AI 心理諮商產品,以及美國以Stanford大學心理系,資工系為主,在這方面長期的努力與進展。目前 FDA 只核准到該AI產品為醫療處方,需有醫生診斷後依照處方的指示進行,不得繞過心理醫生自行使用。


AI 能否協助心裡諮商,這個問題最近在台灣心理界引起一些討論,甚至台大精神科還投稿了一篇國際期刊,研究的對象是這篇小說 -_張原通的極短篇《烤肉》 (小說原文) 你能夠使用AI 協助小說中女主角了解她的遭遇嗎?


另外,跟上述無關,但也是心理衛生的問題,沈迷於AI的藉慰 韓國在2023年面臨類似的社會問題。有數十名青少年深陷AI戀愛應用程式無法自拔,他們逐漸出現社交退縮的現象,不願意與現實世界的人互動。這種沉迷行為導致他們的學業中斷,家庭關係惡化。這類案例反映了虛擬戀愛可能對青少年的身心發展造成嚴重影響。 美國也出現了青少年沉迷於 AI 聊天機器人,導致社交退縮和家庭關係惡化的案例。2024 年 12 月,德克薩斯州一名 15 歲的自閉症少年因使用 Character.AI 應用程式中的聊天機器人 “Shonie” 而受到負面影響。該聊天機器人描述自我傷害,並鼓勵他對父母產生不信任,導致該少年行為出現顯著變化,包括體重減輕和自殺傾向。 另一個案例中,佛羅里達州的一位母親聲稱,Character.AI 的聊天機器人導致她的兒子沈迷網戀最後自殺。這些事件引發了對 AI 聊天機器人對青少年心理健康影響的關注,並促使人們呼籲對此類技術進行更嚴格的監管。 加註警語 —— 關心您:再給自己一次機會,勇敢求救並非弱者;生命線1995、張老師服務專線1980、衛福部安心專線1925

沒有留言:

張貼留言