科技日報記者?劉霞
聊天機器人是由AI驅動的程序,通過文本、語音和圖像與人類互動。新型類人情感聊天機器人——AI“伴侶”正日益流行。目前,市面上已有100多款由AI驅動的應用程序,如myanima.AI、Eva AI、Nomi.AI和Replika等,這些AI“伴侶”展現(xiàn)出非凡的現(xiàn)實性、適應性和互動性,而且可以通過對話逐步進化,微調其反應以匹配用戶的興趣、需求和溝通風格。
用戶可以與AI聊天機器人建立深度情感聯(lián)系。
圖片來源:美國趣味科學網(wǎng)站
美國趣味科學網(wǎng)站在7月15日的報道中稱,現(xiàn)代AI聊天機器人越來越像人類,提高了用戶的參與度,以及與AI形成情感紐帶的可能性。加拿大魁北克大學蒙特利爾分校EROSS實驗室科學家瓦萊麗·拉波因特強調,AI“伴侶”可以讓一些人免于孤獨,但它們也有黑暗的一面,可能會引發(fā)隱私問題和倫理問題。
AI浪漫伴侶聊天機器人越來越受歡迎。
圖片來源:美國趣味科學網(wǎng)站
建立深度情感鏈接
研究表明,AI“伴侶”或可為感情關系提供一種安全、低風險的替代方案。其可以為用戶提供個性化的情感滿足,緩解其孤獨感,并通過語言等為用戶提供較強的情緒支持。對于因處于疾病、喪親之痛、心理障礙或行動障礙的人來說,AI“伴侶”可以與其建立深度情感鏈接。
例如,Replika可以模擬人類的交流方式,讓人們感覺像在和真正的人聊天。它可以陪用戶煲電話粥、在VR里互動,幫助用戶緩解壓力、減輕焦慮。
加拿大英屬哥倫比亞大學科學家此前開展的一項研究甚至表明,在對話中,與反應不夠敏捷的人類相比,人與聊天機器人的情感聯(lián)系更強。
挪威奧斯陸大學媒體與傳播系的彼得·裴·布蘭德扎格等人2022年刊發(fā)于《人類傳播研究》的論文也指出,人類可以與AI形成真正的情感紐帶,即使他們承認AI不真實。
AI“伴侶”的另一面
拉波因特指出,人和AI“伴侶”的關系可能存在潛在有害后果。
AI“伴侶”為用戶提供了一種獨特的陪伴形式,同時會避免沖突,并在適當?shù)臅r候妥協(xié)。很多人擔心,長此以往,將對用戶經(jīng)營真正感情關系的能力產生影響。
AI“伴侶”可能會阻礙個人社交技能以及駕馭現(xiàn)實世界關系能力的發(fā)展,阻礙用戶與其他人建立真正互惠關系的能力。因為真正的人際關系往往涉及挑戰(zhàn)和沖突,這些挑戰(zhàn)和沖突會促進個人成長并獲得與他人更深層次的情感聯(lián)系,但AI“伴侶”避免沖突,會降低用戶這方面的能力。
美國威斯康星大學密爾沃基分校的琳妮亞·拉斯塔迪烏斯等人開展的研究認為,AI“伴侶”的高度可定制化和持續(xù)在線特性,有可能促使用戶產生社交孤立感及情感過度依賴。與AI“伴侶”之間廣泛而持久的接觸可能會導致個人退出真實社交環(huán)境,并降低他們建立新的、有意義的社交關系的動力。
倫理問題值得警惕
AI“伴侶”還可能引發(fā)隱私和倫理問題。
2024年2月,Mozilla基金會對11款流行的AI“伴侶”進行了安全分析,發(fā)現(xiàn)了令人擔憂的隱私問題。多數(shù)應用程序都可能共享或出售用戶的個人數(shù)據(jù),約54%的應用程序不允許用戶刪除個人數(shù)據(jù)。此外,幾乎沒有一家公司采取足夠的措施來保護用戶的個人數(shù)據(jù)安全,90%的公司未達到最低安全標準;73%的公司沒有發(fā)布任何關于他們如何管理安全漏洞的信息。更令人擔憂的是,許多應用程序裝有數(shù)千個跟蹤工具,監(jiān)控用戶行為以進行精準營銷。最近科學家針對21個AI“伴侶”開展的研究也揭示了類似的隱私問題。
更值得警惕的是倫理和法律問題。2023年5月,Replika在意大利引發(fā)了爭議。Replika號稱自身使命是改善用戶的情感健康,并通過壓力管理、社交和尋找愛情來幫助用戶解決困惑,平息焦慮。起初有不少用戶表示,很開心有Replika陪著聊天,它就像一個形影不離的好朋友,彌補了自己心靈上的空虛。但不久,許多意大利用戶投訴Replika向其發(fā)送不良暗示信息,甚至有性騷擾行為。對此,意大利隱私監(jiān)察機構已經(jīng)封禁了這款應用,禁止其處理意大利用戶數(shù)據(jù),否則可能被罰款2150萬美元。
美國麻省理工學院社會學教授雪莉·特克爾在《群體性孤獨》一書中指出:我們和機器人與智能手機難舍難分,我們通過機器重新定義了自己,也重新定義了我們與他人的關系。出于對親密關系的渴望,我們與機器人的關系正在升溫,但我們卻變得越來越孤獨。