世界移動大會(MWC)上總會展出不少稀奇古怪的成果。比如這家名叫「Hyodol」的韓國公司成功拿下最瘋狂獎,他們自豪地展示了一款觀感相當詭異、支持ChatGPT的陪伴型玩偶,專門針對老年群體。這款賣到1800美元的AI娃娃特別像我們在鬧鬼的閣樓上無意間翻出來的東西,但它的實際定位卻是為那些長期獨居、或者在護理機構中缺少溝通的人們提供數字交互服務。
由於這款娃娃內置有大語言模型,Hyodol公司宣稱其能夠與主人進行順暢對話並提供健康建議,例如發出服藥或進餐提醒。它的聯網水平也跟大家想像的差不多,附有配套的應用軟體和網路監控平台,還允許管理者遠程監控設備及其用戶。
它的意義在於緩解孤獨感的蔓延,這種心理問題正影響著從療養院中的老年人到年輕大學生的幾乎所有群體。美國國家老齡化研究所項目主管Elizabeth Necka表示,這項技術確實非常有用,而且特別適合目前普遍人手不足的療養院場景。
Necka解釋稱:「這種以低成本方式緩解孤獨感的思路極具吸引力。無論ChatGPT能不能真正帶來理想的溝通感受,至少對我來說這似乎還為時過早,但此類嘗試本身確實具有重大意義。」
這類設備也將建立起相應的產業。在日本等東亞國家,主打可愛的社交機器人市場已經相當活躍。像Lovot和Qoobo這樣的公司紛紛打造出惹人喜愛的可愛型陪伴機器人。這些設備在西方國家也受到一定好評,只是文化接納度和受眾規模要低得多。不過隨著對話式大模型浪潮的迅速普及,目前各行各業都紛紛將生成式AI應用於一切場景當中,陪伴型機器人當然也不會例外。
不列顛哥倫比亞大學護理學院高級護理學助理教授兼研究主任Lilian Hung表示:「我認為該行業仍在探索市場。雖然尚處於起步階段,但其騰飛之勢已經初見端倪。」
但市場此前就曾經做過類似的嘗試。Jobi是一款社交機器人室友,它利用AI配合可愛的手勢與主人建立聯繫。但在推出幾年後,項目就被無情砍掉,如今江湖上只剩下它的傳說。另一方面,美國本土產品Moxie倒是保持著活力,這是一款用於幫助培育兒童的AI機器人。
面對這樣的設備,我們很難不對其種種糟糕的後果產生擔憂。科技本身就具有令人不安的一面,而AI支持下的機器人居然開始扮演人類角色,這種「褻瀆」性的行為可能會激怒一部分群體。畢竟我們都看過那種專門討論AI技術的小說,不少情節提到AI發生了嚴重錯誤並給人類帶來災難。回到Hydol的例子,他們這款產品讓我直接想到的就是2023年的恐怖電影《窒友梅根》,講述的就是一台有著可怕殺戮本性的AI陪伴型玩偶。
但除了令人膽寒的娃娃之外,社交機器人還有其他多種形式。它們可以是助手、是寵物、是零售客服,但也經常詞不達意、在公共場合下讓語音控制者們覺得自己像個白痴。除此之外,它們也可能是武器、間諜和警察。人們有充分的理由對這些機器人表示懷疑,其危險性是再可愛的外皮也掩藏不了的。
澳大利亞亞格里菲斯大學護理與助產學院教授Wendy Moyle一直致力於治療痴呆症患者。她表示自己在社交機器人方面的工作就激怒了人們,有觀點認為給老年人送機器人娃娃是種非常愚蠢的行為。
Moyle指出:「在第一次開始使用機器人時,我收到了很多的負面反饋,甚至有來自員工的批評。我在會議上發言時,有人直接朝我扔東西,因為他們覺得這種行為有違人倫。」
然而,最近一段時間人們對輔助型機器人的態度有所緩和,它們也被應用於許多積極的用例當中。陪伴型機器人能夠為痴呆症患者帶來歡樂。在新冠疫情爆發期間,看護人員也嘗試使用Paro等陪伴型機器人幫助老年患者緩解孤獨感。Paro是一款形似海豚的小型機器人。至於Hyodol推出的微笑娃娃,無論大家認為這是詭異還是可愛,至少它們確實在努力表達友好的態度。
Hyodol並不是唯一一家為老年人提供AI伴侶的公司。ElliQ就是以色列廠商Intuition Robotics生產的AI產品,目前已被納入紐約的老年人試驗項目。ElliQ跟可愛不沾邊,它類似於一隻燈泡,可以放在床頭柜上。Hyodol希望把AI功能跟Paro海豹那種毛茸茸、憨態可掬的形象聯繫起來,而ElliQ則強調AI技術與人類的距離感。
即使沒有AI的加持,這些貌似具有感知的玩偶還是引起了人們的擔憂。Moyle曾經協助監督這些設備在老年人護理方面的表現,並表示在某些情況下,接受護理的對象可能會變得過度依賴這些娃娃。
Moyle解釋道:「我們必須直面的一大負面影響,就是某些用戶太過喜歡自己的娃娃,甚至把娃娃當作嬰兒一般對待。他們把機器人看成是能夠隨身攜帶的嬰兒,少數人還表現出過度的感情,將其作為自己日常生活中的一部分。我們被迫減少了他們與娃娃相處的時間。」
而將語言能力納入陪伴型娃娃,特別是像ChatGPT這種容易產生幻覺的模型與詭異玩偶間的結合,往往會在AI層面形成恐怖谷效應。此外,批評者還擔心AI與娃娃的結合只是第一步,後續這項技術會被融入其他一切可能的場景。生成式AI確實會產生幻覺、散布虛假資訊,而且存在各種潛在的安全隱患,更不用說由ChatGPT整合的所有數據都會被發回OpenAI處。那邊充斥著種種隱私和安全問題,可能導致這些設備成為大公司監視個人、共享數據的普遍性終端。哪怕是功能層面也有潛在風險,比如護理人員過度依賴機器人來提醒患者服藥等。
Hung表示:「為了保障機器人的對話安全,還有很多工作需要處理。它不能引導人們做任何不道德的事情,不應收集任何資訊,比如機器人不能要求老人提供信用卡的支付密碼。」
當人們在最脆弱的時候求助於商業產品時,以上幾點就是最直接的現實風險。但對這個問題,Moyle認為也需要分兩個角度來看。
「如果我們向某人提供與AI交流的機會,那是不是意味著同時抹殺了其與其他人正常交流的機會?比如說家人是不是不再需要前來探望?工作人員是不是也不必定期與其交談?」這些都是切實的風險因素,但Moyle結合自己的實踐經驗,坦言護理機構中的許多老年人往往大部分日日夜夜都是獨自一人對著窗戶發呆。「所以只要能讓他們快樂一點,給他們些陪伴總比什麼都不給要好得多。」
當然,這些設備與人類之間仍存在著本質區別。大語言模型無法理解它們是在與人交互,它們只是特別擅長以預測性方式給出看似不錯的回應。具體來講,它們明顯不知道要如何深入理解一個人的情緒或者精神狀態。
Moyle評論稱:「有時候,人們可能會表現出相當激進且強烈的情緒,而AI是無法識別出這些情緒的。隨著AI技術變得更加複雜,情況當然有可能逐漸好轉,但至少目前還看不到這樣的跡象。」她停頓了一下,隨後笑著補充說:「但其實很多人自己也不擅長正確評估情緒,所以嘛……」
對於很多人來說,機器人能不能回應他們表達的愛並不重要。也正因為如此,我們才會為機器人的損壞和退役表達哀悼,甚至為機器狗舉行葬禮。也同樣因為如此,我們才希望自己的情趣機器人也能具有個性,希望它們能回應我們最深切的情感和願望。當人類與機器人互動時,最重要的並不在於機器人能否回報我們的愛,而是人們在將自己的感情傾注到他人或他物的過程中,本身就能創造出巨大的價值。
Hung最後總結道:「小貓和嬰兒之所以可愛,就是因為他們無時無刻不在表達對愛的需要,而我們生而為人就是擁有付出愛的本能。」這也解釋了為什麼有人喜歡跟可愛的機器人互動,其中投射出的也是相同的心理期待。「我們購買這些機器人,就是為了向它們表達自己的愛——我們會真切感受到機器人需要自己的愛,這種被需求的感覺就是最大的意義。人類的本性如此,我們的行為也是如此。」