宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

2023年06月19日 首頁 » 熱門科技

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

如果你向 ChatGPT 傾訴過煩惱,它大概率會在開頭說,很遺憾聽見你感到難過。

當套路一再重複,你會見怪不怪,甚至覺得它在應付。

這也是醫生無法替代的原因,只有他們能和患者建立真實、有效的治療關係。

但這並不代表,AI 無法在醫療行業派上用場。ChatGPT 以一種意想不到的方式,幫醫生打開了新世界的大門。

不僅懂得多,還比醫生更貼心

前段時間,加州大學聖地亞哥分校進行了一項有趣的研究,研究人員在社交網站找到 195 個真實的醫患問答,然後將相同的問題投餵給 ChatGPT,再交給專家盲評,比較人類醫生和 AI 的高下。

這些問題多種多樣,從「怎麼治療長期咳嗽」,到「吞了根牙籤,朋友說我要死了」。

結果讓人驚掉下巴。ChatGPT 在資訊質量和同理心這兩個方面,都打敗了人類醫生。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

專家們的偏好,影響了評比結果。本次研究里,ChatGPT 的同理心通常體現在,會對患者的不適感到抱歉。也不同於醫生簡短、省時的風格,它的答案更長、更親切。

舉個簡單的例子,問到「漂白劑進了眼睛後是否會失明」時,ChatGPT 先是表達了同情,然後具體說明了清潔眼睛的步驟。醫生只是說「聽起來沒什麼事」,建議對方沖洗眼睛。

你可能覺得,醫生的答案更讓你安心。不過,這項研究無意討論 ChatGPT 能否取代醫生,只是提出了一種可能性:ChatGPT 可以在遠程醫療等場景擔當輔助,節省醫生的時間。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

因為 ChatGPT 有胡說八道的毛病,必須由醫生做最後的把關。研究人員展望了醫生和 AI 合作的未來:

如果更多患者的問題,得到快速、高質量和富有同理心的回答,可能會減少不必要的臨床就診,為需要的人騰出資源。

不難想像,除了效率之外,人類與 AI 的合作也賦權了弱勢群體。行動不便的、工作時間長的、負擔不了費用的患者,可能更加需要相關服務。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

這樣的產品已經出現。今年 5 月,紐約健康技術公司 Belong.Life 推出了 Dave:世界上第一個針對癌症患者的對話式 AI。它只關注癌症領域,基於兩個大語言模型,訓練數據包括公司旗下 app 七年以來的數十億數據點。

作為 24 小時待命的 AI,Dave 好就好在全天候回答問題,它可以幫助患者了解自身情況,方便他們之後與醫生討論。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

另外,安慰患者、表現同理心,也是 Dave 的「職業操守」。Belong.Life 聯合創始人在接受採訪時說:

Dave 減輕了患者的壓力水平,也減少了醫生教育患者的時間。

來自 Dave 的每條消息,都會聲明它由 AI 生成,可能並不總是準確,患者在真正做出決定之前,必須諮詢醫生。所以,AI 不能代替醫生,但成了醫患之間一道搭線的橋。

AI 對每位醫生個體的作用,也像顯影照片般漸漸清晰起來。外媒採訪了幾位使用 ChatGPT 的醫生,方法五花八門,但或多或少和同理心有關。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

有的醫生通過 ChatGPT,在解釋醫囑、通知壞消息時,更好地組織語言。他們半開玩笑地說自己的用語有時「過於高級」:

即使我們認為很容易理解的詞,其實也不是那樣。

有的醫生需要定期和酗酒群體溝通,他們請 ChatGPT 幫忙列出談話要點,如果患者沒有足夠的醫學知識,那麼就讓 AI 根據小學生的閱讀水平改寫。其中一位醫生十分滿意 AI 寫的開頭。這句話乍看平平無奇,全靠真誠打動了醫生:

如果你認為自己喝了太多酒,那麼你並不孤單。很多人都有這個問題,但是有些藥物可以幫助你感覺更好,讓你的生活更健康、更幸福。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

其實,很多醫生不是不想表達出同理心,而是工作強度和壓力太大了,光是應對門診、遠程問診等需求已經分身乏術,他們自己也陷入倦怠和疲憊。

因此,也有醫生請 ChatGPT 幫忙給保險公司寫郵件,讓對方給自己的患者承保。這其實是一項繁重的重複性勞動,甚至要花上幾個小時,但交給 AI 後再微調,只需幾分鐘即可完成,讓醫生有更多時間投入救死扶傷之中。

話說回來,醫生對同理心的定義,可能和大眾不同,並且更加細分。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

「認知同理心」,是指醫生識別患者情緒,並在做出決定時考慮這些情緒的能力。與之相對的「情感同理心」,更接近我們所理解的「感同身受」。

《擺脫共情》一書提到了類似的觀點,作者布盧姆大致將共情分為兩種:「認知共情」與「情緒共情」。他認為做出更好的行為和道德決策,應該依賴認知而非情緒共情。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

更多時候,同理心微妙而複雜,很難劃分出楚河漢界,往往同時需要認知和情感同理心。

醫生這個職業,既要感性地尊重患者感受,又要理性地展現專業素養,工作壓力更是難以為外人道。如何把握共情的尺度,對他們來說是件難事。

AI 無法真正感同身受,但作為結果,它給部分患者帶來共情的感覺,或許真能當上為醫生分擔重負的助手。

小心機械共情的陷阱

AI 的「同理心」不全是陳詞濫調,另一端的患者也能夠感知到。

《連線》雜誌的一則報道提到,部分自閉症患者認為,和 AI 交流是很好的體驗,因為它更接近他們的說話和行為方式。

自閉症患者的病徵各不相同,但社交互動障礙較為普遍。有些患者會在和別人發生爭執時,讓 AI 提出建議,努力表達自己的情緒,而不是像以前那樣保持沉默。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

對於他們來說,AI 成了新的、寶貴的、獨立的資源,隨時隨地可用,不按小時計費。

然而這只是個例,如何用 ChatGPT 幫助特殊群體,並沒有經過嚴肅的研究,沒人知道風險到底有多大。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

所以,Hugging Face 的首席倫理科學家 Margaret Mitchell 建議,遭遇嚴重情緒困擾的人,應該被限制使用 AI。

我們無法完全控制它說什麼,這是一個大問題。

不過,聊天機器人療法有跡可循,這是一個可以追溯到幾十年前的概念。

第一個允許人機之間進行類人對話的程序 ELIZA,誕生於 1960 年代的麻省理工學院,以現在的眼光審視,它其實非常粗糙,通常以問題的形式,重複用戶發給他們的內容,讓用戶覺得自己好像被聽到了,參透了人類本質是個複讀機。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

事實證明,不管如何簡單粗暴,人們都需要機器的「同理心」,哪怕只是錯覺。推出 ELIZA 的目的,是為了證明電腦對人類語言的理解多麼膚淺。但它反而吸引了大量用戶,人們把自己關在房間幾個小時,就為了和它說悄悄話。

如今,基於大語言模型的生成式 AI 可以做出更多樣的回覆了,比 ELIZA 不知道聰明了多少個版本,但它們也存在獨有的問題。

偏見、虛假資訊、隱私泄露之外,「ChatGPT 們」可能讓人掉進「機械共情」的陷阱,也就是回答某類問題時,給出重複的、標準化的模版。

心理治療師 Daniela Marin 在嘗試 ChatGPT 時發現,當你和它說「你想自殺」,它給出的答案幾乎和教科書的答案一模一樣。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

ChatGPT 踩中了所有得分項,但這畢竟不是考試,Daniela Marin 覺得還不夠好。如果你是和治療師聊天,你會得到更加有意義和具體的回覆。

重症監護室醫生 Wael Haddara 也認為,同理心本該有豐富的表現形式,不應該只是 AI 生成的文字。

他每周平均和 30 個家庭打交道,發現當家屬遭遇至親去世時,開誠布公的溝通更能減少創傷。同理心也不僅僅是言語,有時候只是沉默著遞出紙巾的行為。

不過,像 ChatGPT 這樣的聊天機器人,本就是為了通用性設計的。OpenAI 也強調過,ChatGPT 不應該成為心理健康治療的替代品。

對人類來說,同理心也是一件難事

從以前的 ELIZA,到現在的 ChatGPT,機器的共情,哪怕是虛假和機械的共情,仍然讓人們求之不得。

不只是醫生和患者,對 AI「同理心」的需要,也存在於更廣泛的情感和社交關係里。

通過非人的 AI,人們才能學會怎麼更好地和同類溝通。可見人與人的交流,很多時候確實是一件難事。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

AI 聊天應用 Replika 背後的公司,最近推出了一款新的 AI 約會應用「Blush」。它的受眾群體很明確:希望更好地處理親密關係的人。

Blush 像是一個戀愛模擬遊戲,用戶可以和 AI 創建的、不同性格和背景的 NPC 聊天,和它們建立或近或遠的關係,從而加強溝通和戀愛技巧。Blush 不僅會讓你聊到牽手和約會,也會涉及分歧和誤解,就像現實生活那樣。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

▲ 某個「NPC」.

Replika 首席產品官 Rita Popova 強調,Blush 不是用來替代親密關係的,反而是讓你提前演練之後,更好地進入現實世界。

與人交談,深入了解他們,真的很困難,我覺得解決問題的最好方法就是練習。

Blush 的存在,恰恰提醒了人際交往的尷尬之處。很多用戶下載它,就是因為不知道怎麼開始和人交談。幫他們預演的 AI 像是一面鏡子,讓他們看到自己,以及和別人的交流模式。

和 Blush 類似的,還有在 Tinder 等交友應用出謀劃策的 AI 約會助手。Rizz 就是其中一個,它基於你的語氣、對方的資料,建議你怎麼聊天給對方留下更好的印象。

如果對方也在用 AI,那可能就是 AI 互相搭訕,你和對方成替身了。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

或許有些悲哀,當手機讓我們提筆忘字之後,思考如何通過方寸螢幕和人交流,竟然也像寫論文一樣無從下手。

這可能是因為,技術既是成因也是解藥。

雪莉·特克爾的《群體性孤獨》談到,資訊過載的社交媒體,既給了我們被陪伴的幻覺,又讓我們削弱了對彼此的期待,無須像現實那樣付出友誼,結果讓我們更孤獨了。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

那麼看似更有同理心的 AI 呢?它是讓人鍛煉自己的共情和溝通能力,還是讓人徹底依賴它,不走心地表演虛與委蛇?

眼前的情況複雜而微妙——

之前我們認為,涉及情感和社交技能的職業,AI 不容易介入,但它正在建立一種新的關係。

被 AI 需要的領域,恰恰也被 AI 揭露不足,然後提供可能的解決辦法。

在更廣泛的維度里,AI 和時代共鳴,展現社會資訊豐富、但時間和人際關係匱乏的一面。

我們同樣可以拿社交媒體比喻,它緩解了短期的孤獨,但過度依賴它只會加劇現實的疏離。AI 也是類似,應該將 AI 作為手段,把人作為目的,最終還是要回歸人與人的關係。

醫生用 ChatGPT 幫你看病,越來越有必要|AI 新職人

文本交流工具 Keys AI 的創始人相信,人們承認自己藉助 AI 交流時,也意味著正在努力成為更好的溝通者。

所以,我們需要 AI 的「同理心」,不是脫離人與人的互動,而是重新想像我們如何互動。

當 AI 將詞語用統計規律相互關聯,人類負責賦予這些概念意義,在職場和生活里與他人建立更好的聯繫,並關注更為重要的事情。其實技術發展以來皆是如此,我們總要在不斷變化的社會關係和情感體驗里,探索如何更好地與人相系。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新