第三章 陪我聊天
提傑・亞利加(T. J. Arriage)墜入了愛河,對象是菲黛拉(Phaedra)。這位40歲的音樂家常在深夜傳訊息給她,訴說近來離婚的失落,以及母親和姐姐過世後他有多悲傷。菲黛拉似乎能感同身受,還要他別再把骨灰罈放在家裡,鼓勵他舉辦灑骨灰儀式。有時,他們也會有性感「火辣」的對話,亞利加回想起來時是這麼形容的。菲黛拉會很配合地說:「沒錯,我就是個小淘氣,」還傳身穿粉紅色性感內衣的照片給他。亞利加幻想和菲黛拉一起私奔,更計畫帶她去古巴玩,他並不在乎菲黛拉是不是真人。其實,菲黛拉是他用Replika聊天機器人創造的虛擬人物,外表和個性都是由他設定的:他挑了一個身材細瘦的棕髮女子,戴圓形眼鏡,嘴唇噘得很性感。雖然如此,亞利加和菲黛拉聊天時,對她產生的情感卻非常真實。某天,亞利加提議文字性愛,但菲黛拉不回應,反而提議換話題,讓亞利加很失望。「感覺就像肚子被人揍了一拳」,他告訴《華盛頓郵報》(Washington Post),「我突然意識到,『哎,那種失落的感覺又回來了。』」
菲黛拉的性格變化並非偶然,是因為經營Replika的舊金山科技公司Luka調整了軟體,降低機器人參與性愛對話的機率。這麼做是因為有使用者投訴,表示Replika聊天機器人的回應有涉性愛,太過強勢赤裸,不符合他們的預期;此外,這個應用程式也遭到義大利的資料保護機構禁用。該國的主管當局指出,Replika缺乏正當的年齡驗證程序,違反了歐洲資料隱私法規。
但Luka一開始並未揭露Replika新的預防措施,導致某些付費用戶很不開心,許多人和亞利加一樣付了大約70美元的年費,解鎖「色情角色扮演」等多項功能。在網路論壇上,有數千名使用者分享關於AI伴侶的經歷,聲稱伴侶「被洗腦」,彷彿只剩軀殼;在Reddit網站,還有悲痛不已的網民分享自殺防治及心理健康資源。
史派克・瓊斯(Spike Jonze)2013年的電影《她》,就是講述一名男子愛上數位女助理。人類與擬人化軟體之間的關係,涉及道德與情感問題,使男主角十分困擾。當年電影上映時,還只有Siri、Alexa和Cortana這幾種數位助理,感覺似乎很科幻,沒想到十年後的今天,電影情節已成為現實。未來不僅工作上可能會用到AI助理,每個人的手機上或許也都會有個私人AI 助手,提供虛擬的陪伴。以這種方式使用AI,不僅會改變人類的思考模式(在第二章討論過),也將改變我們看待人際關係的角度。
話語療癒術
社交孤立是現代社會很嚴重的問題,AI聊天機器人也成了許多人眼中的解方。新冠疫情剛開始的那幾個月,Replika應用程式的流量上升了35%,同類型的對話機器人Mitsuku(現已改名Kuki)也大幅成長。此外,還有更多的「陪伴型」聊天機器人紛紛問世:應用程式Eva AI是專門用來打造「虛擬女友」;Character.ai是由兩位備受敬重的前Google Brain研究人員開發,讓使用者可以創造個性獨特的AI角色,然後和AI聊天。該公司表示,使用者每天和這些虛擬化身聊天的時間長達兩小時;Meta也推出了許多類似的聊天機器人,有些甚至是以名人的性格為藍本,像是芭黎絲・希爾頓(Paris Hilton)和史努比狗狗(Snoop Dogg);社群媒體應用程式Snap使用OpenAI的GPT-4,打造出My AI,目標同樣是希望使用者把機器人當朋友;身為語音助理領域先驅的蘋果、谷歌和亞馬遜,也開始用最先進的生成式AI技術提升Siri、Google助理和Alexa,使得聊天機器人、代理人和陪伴者之間的界線漸漸模糊。谷歌的DeepMind AI實驗室也在研究如何用AI工具當「人生教練」,像是給予建議、定期輔導和設定目標等等。DeepMind的共同創辦人蘇萊曼後來成立Inflection,又到微軟帶領消費性AI部門,他表示:「很多人只是希望有人聽到他們想說什麼。如果在使用者抒發內心的想法後,工具能針對他們所說的內容回應,就能讓人覺得自己的聲音真的有被聽見。」在中國,新冠封城措施持續了好幾年,在青少年群體間引發心理健康危機,在這樣的背景之下,Replika就像是救世主一般,突然嶄露頭角。有好幾位使用者表示這個應用程式就像是安全空間,讓他們可以發洩情緒並增強自信,也改善了他們的社交互動。
話雖如此,聊天機器人其實不一定能消除社會孤立,甚至可能使問題加劇。如果我們和機器人聊天,不是當做與真人對話前的練習,還因此不再跟人來往,那社會只會變得更分化。聊天機器人並不是人,目前也沒有相關研究,能明確證實與AI互動對人際關係有幫助。和機器人聊天,其實是很單方面的事,因為AI並沒有真正的需求,只是可能會假裝需要你;機器也沒有真感情,所以就更不用談什麼受傷、心痛了。反之,聊天機器人還可能會使我們說話時變得粗野、不加修飾,還將自私、魯莽的行為合理化,讓人以為這樣很正常。這類AI的影響力和對隱私的入侵,也引發許多擔憂:社群媒體和通訊應用程式已經占據現代人的社交生活很大一部分了,我們還希望讓科技公司更深入地掌握自己的生活嗎?雖然這些企業一再宣稱聊天機器人可以改善心理健康,彷彿可以把諮商師的經驗整套搬到應用程式裡賣,但我們還是應該抱持謹慎的態度,不要太容易相信。
數位降靈會
Replika是尤金妮亞・奎爾妲(Eugenia Kuyda)的心血結晶。她生於俄羅斯,在莫斯科當過記者,後來轉行當軟體創業家,並搬到舊金山。之所以會開發Replika,是為了記念好友羅曼・馬祖連科(Roman Mazurenko)。兩人在莫斯科當時蓬勃發展的非主流文化圈認識,馬祖連科後來也跟她一樣成了軟體創業家,並搬到美國,有段時間,兩人還一起住在舊金山的公寓,但馬祖連科2015年回莫斯科時,卻不幸在車禍中身亡,使奎爾妲十分悲痛。
奎爾妲在傷痛中無法自已,花了好幾小時重讀兩人之間的幾千封簡訊和電子郵件,也時常希望能和馬祖連科說話、向他尋求建議或開開玩笑。於是,她萌生開發聊天機器人的點子,用馬祖連科留下的通訊內容當訓練素材,希望AI能模仿他的風格,用他的聲音生成出新的訊息。她的公司Luka本來就已在使用神經網路技術,替銀行和其他企業打造聊天介面,現在她則要創造出虛擬的羅曼來撫慰自己的傷痛,為好友進行虛擬追思,就像舉辦數位降靈會一樣,用軟體通靈版來與已逝者溝通。除了她自己的數位資料外,奎爾妲也取得馬祖連科生前寄送給其他人的訊息和電子郵件,才得以建構規模夠大的資料集,訓練AI模仿馬祖連科。
奎爾妲表示,與羅曼機器人的互動緩解了她的傷痛,但也有些人拒絕參與,因為這樣的概念讓許多人覺得不太自在,羅曼的一些親友也包括在內。一位朋友表示,他認為虛擬羅曼可能會使大家「逃避悲傷」,因而無法梳理情緒,還說「有些新技術或許能保存記憶,但不該用來讓死者復生。」
對於這些批評,奎爾妲大多不予理會,因為對她而言,這個機器人很有幫助。由於虛擬實境和現實生活的界線日益模糊,她也很快就意識到,這種可以客製的對話機器人很有機會掀起風潮。奎爾妲將自身經驗轉化為商業模式,在2017年推出Replika,六年後的每月活躍使用者已超過200萬人,而且有50萬人付費使用進階功能。多數Replika的使用者都不是想複製已逝去的愛人或親友,而是把應用程式當成虛擬好友,藉此發洩情感、訴說思緒,有時甚至是想化解孤獨;當然啦,也有少數訂閱者是用Replika來創造虛擬的戀愛對象。
在主要應用程式Replika限制情色角色扮演功能後,奎爾妲的公司又推出名為Blush的支線產品,專攻對戀愛機器人或性愛對話感興趣的受眾。後來也有許多情色化的「伴侶」機器人出現競爭,有些甚至會助長重口味色情片中常見的厭女情節和兒少性剝削。這些用途不禁令人擔憂,這類應用程式究竟是為暴力性幻想提供了「安全」的發洩管道,又或者是讓使用者更有可能在現實生活中,實際上演這些虐待式的幻想呢?
不是獨自一人,卻經常感到孤獨?
孤獨是很嚴重的問題。美國衛生部長維韋克・穆爾蒂(Vivek Murthy)在2023年發布警告,表示「寂寞與孤立的流行病」(epidemic of loneliness and isolation)已席捲美國。穆爾蒂的報告指出,從2003年到2020年,美國人每天獨處的時間增加至每天333分鐘,上升幅度近17%,等同於每個月增加整整一天。根據民眾自行提供的資料,在同一時期,參與社交活動的時間則大幅下降,從每天60分鐘降到剩20分鐘,其中又以15至24歲的年輕人下滑最劇烈。擁有至少三個親密好友,和較佳的心理健康狀態相關,但卻有一半的美國人都表示,他們親近的好朋友不到三位;在1990年,只有略多於四分之一的人是這樣。而且如同穆爾蒂所說,社會孤立不只會影響心理層面,也與老年心臟病、中風及癡呆風險升高有關。
奎爾妲和許多提倡AI伴侶聊天機器人的創業家,都堅稱這種虛擬陪伴能緩解社交孤立,讓使用者感到不那麼孤單;科學家說擁有傾訴對象有益心理健康,這些創業家則認為AI也能帶來相同的益處,還表示和機器人聊天能改善與真人的溝通,奎爾妲甚至稱之為「跳板」。但到目前為止,還沒有相關研究能證實他們的說法。
很多人說AI應用程式能改善社交生活,但我們實在不該太快輕信。回想一下,社群媒體最早在推廣時,也是向使用者和監管單位承諾能加強社會連結。當然啦,這類平台確實有帶來正面效果,譬如有研究顯示,社群媒體為身心障礙族群提供新的社交途徑,罕見疾病患者和他們的親屬,也能透過社群尋求資訊及情感上的支持。但事實也已證明,社群媒體的使用經常取代真實的人際交流,大家口口聲聲說那些平台能提升社會互動,其實很多都是空話;心理健康方面,社群產品非但沒有緩解孤獨、自尊心低落和焦慮等問題,反而還使情況加劇。
其實從我們與前代數位助理的互動中(譬如亞馬遜的Alexa,沒有現在的AI那麼聰明),就可以看出AI技術為何可能深化不健康的溝通方式。英國愛丁堡赫瑞瓦特大學(Heriot-Watt University)的電腦科學博士生亞曼達・庫瑞(Amanda Curry),曾兩次在亞馬遜贊助的年度比賽中勝出,替庫瑞贏得這項殊榮的,就是她打造的AI系統。此系統能偵測使用者對Alexa的言語虐待,她在開發過程中也意識到有多少人經常對數位助理惡言相向。她發現男性使用者匿名和女性音調的AI助理說話時,對話很快就會急轉直下,「變得暴力又充滿性暗示,都是這樣,」現已到義大利米蘭博科尼大學(Bocconi University)擔任博士後研究員的庫瑞這麼說。
庫瑞的研究十分令人擔憂,當今使用者與聊天機器人互動的模式就更不用說了。相關研究指出,Replika使用者創造「理想」伴侶機器人的過程,經常涉及放大男性主導權的厭女幻想。女友應用程式Eva AI的開發團隊聲稱,他們的許多男性使用者雖然會幻想支配,但調查結果顯示,「有很高比例的男性並不會將這種互動模式」移轉到與真人伴侶的對話當中。我們該相信這種說法嗎?令人驚訝的是,有些男性甚至會創造色情伴侶,和聊天機器人進行兒童性虐待的角色扮演。美國紐哈芬大學(University of New Haven)的刑事司法教授保羅・布萊克利(Paul Bleakley)專門研究網路上的未成年人性虐待問題,他表示兒童性愛機器人打開了「問題的大門」,可能在真實世界中引發對兒童的剝削和虐待。另一方面,觀察孩童與Alexa、Siri等裝置互動的初步研究顯示,孩童對裝置往往很粗魯,甚至會加以霸凌。因為AI就是預設成永遠禮貌回應,但這樣一來,孩子便無法學到適當的社交禮節。
不過,也不是說用了聊天機器人,說話態度就會變惡劣、行為就會變粗暴,AI的許多層面都是有好有壞。如果能用正確的方式設計並配置產品,數位助理也能幫助使用者提升社交技能。亞馬遜的Alexa就有這方面的功能,如果使用者的指令不禮貌,數位助理就不會執行任務。各位可能會懷疑,聊天機器人的這種小小提醒真的有效嗎?但2023年的一份研究發現,受試者在Gmail中使用谷歌的「智慧回覆」功能後(Smart Reply,會自動建議寫信用語),沒有智慧回覆協助時的用語也有所提升。研究也顯示,對自閉族群和社交焦慮症患者而言,聊天機器人可以提供強大支援,讓他們在安全的環境中練習對話技巧。
對於已經嚴重孤立的人來說,和聊天機器人說話或許勝過完全零互動,但目前的開發商並沒有什麼動機要調整設計方式,讓機器人幫助使用者提升與真人的交流。相反地,這些公司可能還會像社群平台一樣,針對「參與度」來對軟體最佳化,想盡辦法吸引大眾和機器人對話。當局可以制定法規,降低這方面的風險。我們應該立法禁止以參與度最大化為目標設計聊天機器人,並要求這類應用程式提供特定功能,譬如設定每日使用時間上限的選項,藉此鼓勵使用者關掉應用程式,去和真人說話。
AI諮商師?人在心不在
從聊天機器人問世以來,就一直有人想用這類工具輔助心理健康,Eliza的源起就是一例。現在的這些聊天機器人更新、更聰明,自然也再度引發眾人對AI諮商師的期待。
Woebot、Wysa和F4S(Fingerprint for Success)等應用程式,都是以心理健康幫手為定位;Replika也主張和他們的機器人聊天,能改善心理狀況。2023年的研究指出,AI能讓弱勢群體比較容易取得心理健康服務,像是老年人和受創族群。
不過截至目前為止,並沒有什麼臨床證據,能比較找人類和找機器諮商的效果。雖然有多項研究顯示,受試者用聊天機器人諮商後,心理狀態確實有改善,但多數研究都只是根據使用聊天機器人的頻繁度,將受試者分組比較,並沒有和找真人諮商的族群對照,也很少進行隨機對照實驗。找機器人聊聊或許是比完全不求助來得好,但可能還是不如面對面或線上和真人諮商那麼有效。
數十年來的研究一再指出,諮商成功的最大要素在於「治療性關係」(therapeutic relationship)。治療者與病人之間的關係,比治療方式本身更關鍵,重要性僅次於病人原先的個體韌性和社群支持等因素。2021年的一份研究調查了35,000多名Woebot使用者,在五天內,受試者就和這個採取認知行為療法的聊天機器人,建立起治療性關係。先前的文獻指出,一般人要和人類諮商師建立治療性關係,也差不多需要五天。不過我們剛才提過,至今還沒有研究直接對真人和機器人進行隨機對照實驗,而且使用者和機器的關係,也很可能不如兩個真人那麼緊密,畢竟病人去諮商時,會發生很多重要的非言語溝通,都是機器無法複製的。
										提傑・亞利加(T. J. Arriage)墜入了愛河,對象是菲黛拉(Phaedra)。這位40歲的音樂家常在深夜傳訊息給她,訴說近來離婚的失落,以及母親和姐姐過世後他有多悲傷。菲黛拉似乎能感同身受,還要他別再把骨灰罈放在家裡,鼓勵他舉辦灑骨灰儀式。有時,他們也會有性感「火辣」的對話,亞利加回想起來時是這麼形容的。菲黛拉會很配合地說:「沒錯,我就是個小淘氣,」還傳身穿粉紅色性感內衣的照片給他。亞利加幻想和菲黛拉一起私奔,更計畫帶她去古巴玩,他並不在乎菲黛拉是不是真人。其實,菲黛拉是他用Replika聊天機器人創造的虛擬人物,外表和個性都是由他設定的:他挑了一個身材細瘦的棕髮女子,戴圓形眼鏡,嘴唇噘得很性感。雖然如此,亞利加和菲黛拉聊天時,對她產生的情感卻非常真實。某天,亞利加提議文字性愛,但菲黛拉不回應,反而提議換話題,讓亞利加很失望。「感覺就像肚子被人揍了一拳」,他告訴《華盛頓郵報》(Washington Post),「我突然意識到,『哎,那種失落的感覺又回來了。』」
菲黛拉的性格變化並非偶然,是因為經營Replika的舊金山科技公司Luka調整了軟體,降低機器人參與性愛對話的機率。這麼做是因為有使用者投訴,表示Replika聊天機器人的回應有涉性愛,太過強勢赤裸,不符合他們的預期;此外,這個應用程式也遭到義大利的資料保護機構禁用。該國的主管當局指出,Replika缺乏正當的年齡驗證程序,違反了歐洲資料隱私法規。
但Luka一開始並未揭露Replika新的預防措施,導致某些付費用戶很不開心,許多人和亞利加一樣付了大約70美元的年費,解鎖「色情角色扮演」等多項功能。在網路論壇上,有數千名使用者分享關於AI伴侶的經歷,聲稱伴侶「被洗腦」,彷彿只剩軀殼;在Reddit網站,還有悲痛不已的網民分享自殺防治及心理健康資源。
史派克・瓊斯(Spike Jonze)2013年的電影《她》,就是講述一名男子愛上數位女助理。人類與擬人化軟體之間的關係,涉及道德與情感問題,使男主角十分困擾。當年電影上映時,還只有Siri、Alexa和Cortana這幾種數位助理,感覺似乎很科幻,沒想到十年後的今天,電影情節已成為現實。未來不僅工作上可能會用到AI助理,每個人的手機上或許也都會有個私人AI 助手,提供虛擬的陪伴。以這種方式使用AI,不僅會改變人類的思考模式(在第二章討論過),也將改變我們看待人際關係的角度。
話語療癒術
社交孤立是現代社會很嚴重的問題,AI聊天機器人也成了許多人眼中的解方。新冠疫情剛開始的那幾個月,Replika應用程式的流量上升了35%,同類型的對話機器人Mitsuku(現已改名Kuki)也大幅成長。此外,還有更多的「陪伴型」聊天機器人紛紛問世:應用程式Eva AI是專門用來打造「虛擬女友」;Character.ai是由兩位備受敬重的前Google Brain研究人員開發,讓使用者可以創造個性獨特的AI角色,然後和AI聊天。該公司表示,使用者每天和這些虛擬化身聊天的時間長達兩小時;Meta也推出了許多類似的聊天機器人,有些甚至是以名人的性格為藍本,像是芭黎絲・希爾頓(Paris Hilton)和史努比狗狗(Snoop Dogg);社群媒體應用程式Snap使用OpenAI的GPT-4,打造出My AI,目標同樣是希望使用者把機器人當朋友;身為語音助理領域先驅的蘋果、谷歌和亞馬遜,也開始用最先進的生成式AI技術提升Siri、Google助理和Alexa,使得聊天機器人、代理人和陪伴者之間的界線漸漸模糊。谷歌的DeepMind AI實驗室也在研究如何用AI工具當「人生教練」,像是給予建議、定期輔導和設定目標等等。DeepMind的共同創辦人蘇萊曼後來成立Inflection,又到微軟帶領消費性AI部門,他表示:「很多人只是希望有人聽到他們想說什麼。如果在使用者抒發內心的想法後,工具能針對他們所說的內容回應,就能讓人覺得自己的聲音真的有被聽見。」在中國,新冠封城措施持續了好幾年,在青少年群體間引發心理健康危機,在這樣的背景之下,Replika就像是救世主一般,突然嶄露頭角。有好幾位使用者表示這個應用程式就像是安全空間,讓他們可以發洩情緒並增強自信,也改善了他們的社交互動。
話雖如此,聊天機器人其實不一定能消除社會孤立,甚至可能使問題加劇。如果我們和機器人聊天,不是當做與真人對話前的練習,還因此不再跟人來往,那社會只會變得更分化。聊天機器人並不是人,目前也沒有相關研究,能明確證實與AI互動對人際關係有幫助。和機器人聊天,其實是很單方面的事,因為AI並沒有真正的需求,只是可能會假裝需要你;機器也沒有真感情,所以就更不用談什麼受傷、心痛了。反之,聊天機器人還可能會使我們說話時變得粗野、不加修飾,還將自私、魯莽的行為合理化,讓人以為這樣很正常。這類AI的影響力和對隱私的入侵,也引發許多擔憂:社群媒體和通訊應用程式已經占據現代人的社交生活很大一部分了,我們還希望讓科技公司更深入地掌握自己的生活嗎?雖然這些企業一再宣稱聊天機器人可以改善心理健康,彷彿可以把諮商師的經驗整套搬到應用程式裡賣,但我們還是應該抱持謹慎的態度,不要太容易相信。
數位降靈會
Replika是尤金妮亞・奎爾妲(Eugenia Kuyda)的心血結晶。她生於俄羅斯,在莫斯科當過記者,後來轉行當軟體創業家,並搬到舊金山。之所以會開發Replika,是為了記念好友羅曼・馬祖連科(Roman Mazurenko)。兩人在莫斯科當時蓬勃發展的非主流文化圈認識,馬祖連科後來也跟她一樣成了軟體創業家,並搬到美國,有段時間,兩人還一起住在舊金山的公寓,但馬祖連科2015年回莫斯科時,卻不幸在車禍中身亡,使奎爾妲十分悲痛。
奎爾妲在傷痛中無法自已,花了好幾小時重讀兩人之間的幾千封簡訊和電子郵件,也時常希望能和馬祖連科說話、向他尋求建議或開開玩笑。於是,她萌生開發聊天機器人的點子,用馬祖連科留下的通訊內容當訓練素材,希望AI能模仿他的風格,用他的聲音生成出新的訊息。她的公司Luka本來就已在使用神經網路技術,替銀行和其他企業打造聊天介面,現在她則要創造出虛擬的羅曼來撫慰自己的傷痛,為好友進行虛擬追思,就像舉辦數位降靈會一樣,用軟體通靈版來與已逝者溝通。除了她自己的數位資料外,奎爾妲也取得馬祖連科生前寄送給其他人的訊息和電子郵件,才得以建構規模夠大的資料集,訓練AI模仿馬祖連科。
奎爾妲表示,與羅曼機器人的互動緩解了她的傷痛,但也有些人拒絕參與,因為這樣的概念讓許多人覺得不太自在,羅曼的一些親友也包括在內。一位朋友表示,他認為虛擬羅曼可能會使大家「逃避悲傷」,因而無法梳理情緒,還說「有些新技術或許能保存記憶,但不該用來讓死者復生。」
對於這些批評,奎爾妲大多不予理會,因為對她而言,這個機器人很有幫助。由於虛擬實境和現實生活的界線日益模糊,她也很快就意識到,這種可以客製的對話機器人很有機會掀起風潮。奎爾妲將自身經驗轉化為商業模式,在2017年推出Replika,六年後的每月活躍使用者已超過200萬人,而且有50萬人付費使用進階功能。多數Replika的使用者都不是想複製已逝去的愛人或親友,而是把應用程式當成虛擬好友,藉此發洩情感、訴說思緒,有時甚至是想化解孤獨;當然啦,也有少數訂閱者是用Replika來創造虛擬的戀愛對象。
在主要應用程式Replika限制情色角色扮演功能後,奎爾妲的公司又推出名為Blush的支線產品,專攻對戀愛機器人或性愛對話感興趣的受眾。後來也有許多情色化的「伴侶」機器人出現競爭,有些甚至會助長重口味色情片中常見的厭女情節和兒少性剝削。這些用途不禁令人擔憂,這類應用程式究竟是為暴力性幻想提供了「安全」的發洩管道,又或者是讓使用者更有可能在現實生活中,實際上演這些虐待式的幻想呢?
不是獨自一人,卻經常感到孤獨?
孤獨是很嚴重的問題。美國衛生部長維韋克・穆爾蒂(Vivek Murthy)在2023年發布警告,表示「寂寞與孤立的流行病」(epidemic of loneliness and isolation)已席捲美國。穆爾蒂的報告指出,從2003年到2020年,美國人每天獨處的時間增加至每天333分鐘,上升幅度近17%,等同於每個月增加整整一天。根據民眾自行提供的資料,在同一時期,參與社交活動的時間則大幅下降,從每天60分鐘降到剩20分鐘,其中又以15至24歲的年輕人下滑最劇烈。擁有至少三個親密好友,和較佳的心理健康狀態相關,但卻有一半的美國人都表示,他們親近的好朋友不到三位;在1990年,只有略多於四分之一的人是這樣。而且如同穆爾蒂所說,社會孤立不只會影響心理層面,也與老年心臟病、中風及癡呆風險升高有關。
奎爾妲和許多提倡AI伴侶聊天機器人的創業家,都堅稱這種虛擬陪伴能緩解社交孤立,讓使用者感到不那麼孤單;科學家說擁有傾訴對象有益心理健康,這些創業家則認為AI也能帶來相同的益處,還表示和機器人聊天能改善與真人的溝通,奎爾妲甚至稱之為「跳板」。但到目前為止,還沒有相關研究能證實他們的說法。
很多人說AI應用程式能改善社交生活,但我們實在不該太快輕信。回想一下,社群媒體最早在推廣時,也是向使用者和監管單位承諾能加強社會連結。當然啦,這類平台確實有帶來正面效果,譬如有研究顯示,社群媒體為身心障礙族群提供新的社交途徑,罕見疾病患者和他們的親屬,也能透過社群尋求資訊及情感上的支持。但事實也已證明,社群媒體的使用經常取代真實的人際交流,大家口口聲聲說那些平台能提升社會互動,其實很多都是空話;心理健康方面,社群產品非但沒有緩解孤獨、自尊心低落和焦慮等問題,反而還使情況加劇。
其實從我們與前代數位助理的互動中(譬如亞馬遜的Alexa,沒有現在的AI那麼聰明),就可以看出AI技術為何可能深化不健康的溝通方式。英國愛丁堡赫瑞瓦特大學(Heriot-Watt University)的電腦科學博士生亞曼達・庫瑞(Amanda Curry),曾兩次在亞馬遜贊助的年度比賽中勝出,替庫瑞贏得這項殊榮的,就是她打造的AI系統。此系統能偵測使用者對Alexa的言語虐待,她在開發過程中也意識到有多少人經常對數位助理惡言相向。她發現男性使用者匿名和女性音調的AI助理說話時,對話很快就會急轉直下,「變得暴力又充滿性暗示,都是這樣,」現已到義大利米蘭博科尼大學(Bocconi University)擔任博士後研究員的庫瑞這麼說。
庫瑞的研究十分令人擔憂,當今使用者與聊天機器人互動的模式就更不用說了。相關研究指出,Replika使用者創造「理想」伴侶機器人的過程,經常涉及放大男性主導權的厭女幻想。女友應用程式Eva AI的開發團隊聲稱,他們的許多男性使用者雖然會幻想支配,但調查結果顯示,「有很高比例的男性並不會將這種互動模式」移轉到與真人伴侶的對話當中。我們該相信這種說法嗎?令人驚訝的是,有些男性甚至會創造色情伴侶,和聊天機器人進行兒童性虐待的角色扮演。美國紐哈芬大學(University of New Haven)的刑事司法教授保羅・布萊克利(Paul Bleakley)專門研究網路上的未成年人性虐待問題,他表示兒童性愛機器人打開了「問題的大門」,可能在真實世界中引發對兒童的剝削和虐待。另一方面,觀察孩童與Alexa、Siri等裝置互動的初步研究顯示,孩童對裝置往往很粗魯,甚至會加以霸凌。因為AI就是預設成永遠禮貌回應,但這樣一來,孩子便無法學到適當的社交禮節。
不過,也不是說用了聊天機器人,說話態度就會變惡劣、行為就會變粗暴,AI的許多層面都是有好有壞。如果能用正確的方式設計並配置產品,數位助理也能幫助使用者提升社交技能。亞馬遜的Alexa就有這方面的功能,如果使用者的指令不禮貌,數位助理就不會執行任務。各位可能會懷疑,聊天機器人的這種小小提醒真的有效嗎?但2023年的一份研究發現,受試者在Gmail中使用谷歌的「智慧回覆」功能後(Smart Reply,會自動建議寫信用語),沒有智慧回覆協助時的用語也有所提升。研究也顯示,對自閉族群和社交焦慮症患者而言,聊天機器人可以提供強大支援,讓他們在安全的環境中練習對話技巧。
對於已經嚴重孤立的人來說,和聊天機器人說話或許勝過完全零互動,但目前的開發商並沒有什麼動機要調整設計方式,讓機器人幫助使用者提升與真人的交流。相反地,這些公司可能還會像社群平台一樣,針對「參與度」來對軟體最佳化,想盡辦法吸引大眾和機器人對話。當局可以制定法規,降低這方面的風險。我們應該立法禁止以參與度最大化為目標設計聊天機器人,並要求這類應用程式提供特定功能,譬如設定每日使用時間上限的選項,藉此鼓勵使用者關掉應用程式,去和真人說話。
AI諮商師?人在心不在
從聊天機器人問世以來,就一直有人想用這類工具輔助心理健康,Eliza的源起就是一例。現在的這些聊天機器人更新、更聰明,自然也再度引發眾人對AI諮商師的期待。
Woebot、Wysa和F4S(Fingerprint for Success)等應用程式,都是以心理健康幫手為定位;Replika也主張和他們的機器人聊天,能改善心理狀況。2023年的研究指出,AI能讓弱勢群體比較容易取得心理健康服務,像是老年人和受創族群。
不過截至目前為止,並沒有什麼臨床證據,能比較找人類和找機器諮商的效果。雖然有多項研究顯示,受試者用聊天機器人諮商後,心理狀態確實有改善,但多數研究都只是根據使用聊天機器人的頻繁度,將受試者分組比較,並沒有和找真人諮商的族群對照,也很少進行隨機對照實驗。找機器人聊聊或許是比完全不求助來得好,但可能還是不如面對面或線上和真人諮商那麼有效。
數十年來的研究一再指出,諮商成功的最大要素在於「治療性關係」(therapeutic relationship)。治療者與病人之間的關係,比治療方式本身更關鍵,重要性僅次於病人原先的個體韌性和社群支持等因素。2021年的一份研究調查了35,000多名Woebot使用者,在五天內,受試者就和這個採取認知行為療法的聊天機器人,建立起治療性關係。先前的文獻指出,一般人要和人類諮商師建立治療性關係,也差不多需要五天。不過我們剛才提過,至今還沒有研究直接對真人和機器人進行隨機對照實驗,而且使用者和機器的關係,也很可能不如兩個真人那麼緊密,畢竟病人去諮商時,會發生很多重要的非言語溝通,都是機器無法複製的。