宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

人工智慧助理:個人資訊的深度獲取是否可取?

2023年11月16日 首頁 » 熱門科技
 

 

最新的人工智慧助理可以通過結合不同類型的個人數據來提供更多上下文和對話式答案,但對於這種現象,公眾是否應該更多的提高警惕?

事實上,人工智慧助理已經存在多年了。畢竟Siri於2011年在iPhone 4S上首次亮相。但早期的人工智慧助理最初的功能有限,有時即使在理想的情況下也很難給出有用的答案。然而,2022年底和2023年開始出現的新一波人工智慧助理可以毫不費力地完成所有事情,從創建食譜到總結電子郵件,甚至為照片編寫社交媒體標題。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

由於生成式人工智慧(即經過數據訓練後可以根據提示創建內容的人工智慧)的興起,人工智慧助理今年取得了飛躍。大約一年前,OpenAI憑藉ChatGPT令世界驚嘆不已,微軟、谷歌、亞馬遜和Meta等科技巨頭在2023年靈活地將生成式AI融入他們的聊天機器人、搜尋引擎和數字助理中。

但是顯然新一批人工智慧助理還需要得到大型科技公司的信任,這是一個相當龐大的體系問題,因為數據泄露、2018年劍橋醜聞等爭議以及對隱私做法的調查動搖了公眾對科技公司的信心。

過去十年,監管機構和公眾對公司如何使用我們提供給他們的數據流提出了重大疑問。雖然採用新人工智慧的好處,可能意味著我們每天使用的技術服務變得更加個性化。

在某些方面,OpenAI的ChatGPT、微軟的Copilot和Google Bard等聊天機器人只是數字服務運營方式的演變。谷歌母公司Alphabet、Meta和亞馬遜等公司很早就已經開始針對用戶網際網路瀏覽習慣的數據,以提供個性化內容、廣告和推薦。

新的人工智慧工具可能不需要更多的個人數據,但這些工具連接不同類型個人數據(例如我們的電子郵件和簡訊)之間的新方式引發了新的隱私問題。卡內基梅隆大學CERT網路安全部門技術總監馬修·布特科維奇(Matthew Butkovic)表示:「我們現在可以看到這些工具是如何將各個部分組合在一起的,我們知道數據就在那裡,但現在我們正在了解如何將其組合使用。」

新型人工智慧助手的崛起

整個2023年,人工智慧助理這項技術顯然正在進行重大改革。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

微軟在9月21日的活動中詳細介紹了Microsoft Copilot,它比這家PC巨頭現已關閉的前個人助理Cortana更為複雜,其不僅僅回答「下周西班牙的天氣怎麼樣?」之類的問題和命令。或「我的下一次會議是什麼時間?」它還能夠從應用程序、網路和設備中提取資訊,以提供更具體和個性化的響應。

在9月21日的主題演講中,Windows副總裁Carmen Zlateff展示了一個示例,說明Windows PC上的Copilot如何根據手機簡訊中的資訊(例如即將起飛的航班的詳細資訊)回答問題。該示例強調了Copilot的作用不僅僅是根據網路或Microsoft帳戶中存儲的數據檢索答案。

沒過多久,谷歌就展示了生成式人工智慧將如何在自己的助手Google Assistant中發揮作用。在10月4日的一次活動中,谷歌推出了Assistant with Bard,這是其人工智慧助理的新版本,由對話式Bard聊天機器人背後的技術提供支持。

Google Assistant和Bard副總裁兼總經理Sissie Hsiao在活動中展示了這一點,她展示了「幫我查看本周我錯過的所有重要電子郵件」之類的命令。她在演示中表示:「雖然Assistant非常擅長處理快速任務,例如設置計時器、提供天氣更新和快速撥打電話,但我們一直設想一個功能強大的個人助理應該能夠做更多的事情,但迄今為止,提供這種服務的技術還不存在。」

生成式人工智慧幾乎影響著我們與網際網路互動的方方面面——從檢索搜索結果到編輯圖像。但微軟和谷歌的聲明代表了這些公司對人工智慧助手的看法發生了根本性轉變。它不僅僅是讓這些人工智慧助理成為更好的傾聽者和對話者,就像亞馬遜在9月份推出的升級版Alexa所做的那樣。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

微軟和谷歌可能是使用生成式人工智慧創建更智能助手的最大支持者,但他們並不是唯一的支持者。OpenAI去年通過ChatGPT掀起了生成式AI熱潮,最近宣布用戶將能夠為特定任務創建ChatGPT的自定義版本,例如解釋棋盤遊戲規則和提供技術建議。這可能為任何人提供創建自己的專業數字助手的機會,OpenAI將其稱為GPT。使用者所需要做的就是提供說明,決定希望GPT做什麼,當然,還需要為其提供一些數據。

相信人工智慧會以正確的方式使用數據

生成式人工智慧可能標誌著人工智慧助手的一個轉折點,即為他們提供他們所缺乏的情境意識和對話理解。但這樣做也意味著為這些人工智慧助手提供了一個更大的窗口來了解我們的個人和職業生活。但這種模式需要用戶對人工智慧系統的信任,以一種讓人感覺有幫助而不是破壞性或令人不安的方式處理用戶的電子郵件、文件、應用程序和文本。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

卡內基梅隆大學的布特科維奇提供了一個假設的例子,說明與生成式人工智慧助手合作可能會出錯:假設用戶要求人工智慧助手編寫一份有關特定工作相關主題的報告,如果數據沒有正確分類,人工智慧助手可能會意外地將敏感的客戶數據編織到其報告中。「我們可能會在我們沒有預料到的資訊組合中看到潛在的新風險來源,」他說。「因為我們之前沒有工具,也沒有採取保障措施來防止這種情況發生。」

斯坦福以人為中心的人工智慧研究所的隱私和數據研究員Jen King引用了另一個假設的例子。如果用戶與家人進行長時間的電子郵件對話,討論已故親人的安排,這樣的情境之下,用戶顯然不希望將這些通信納入某些答案或報告中。社交媒體和照片庫應用程序中已經有這種情況發生的先例,此後Facebook在2019年增加了更多控制措施,該公司使用人工智慧來阻止已故朋友或家人的個人資料出現在生日通知和活動邀請推薦中,避免悲傷的情景再次出現。

除此之外,基於人工智慧的生成應用程序和聊天機器人還面臨著其他挑戰,例如它們提供資訊的準確性,以及黑客欺騙這些系統的可能性。科技公司意識到這些障礙並正在努力解決它們。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

「我們知道數據就在那裡,但現在我們正在了解如何將其組合使用。」卡內基梅隆大學CERT技術總監馬修·布特科維奇(Matthew Butkovic)表示。例如ChatGPT同樣鼓勵用戶對答案進行事實核查,並透露答案可能並不總是準確的。它還警告用戶不要在該工具中輸入敏感資訊。Microsoft Copilot也在常見問題頁面指出,不能保證回答正確,並表示Copilot繼承了與Microsoft 365等企業產品相同的安全標準。它還表示,客戶數據不會用於訓練其大型語言模型。

但聖克拉拉大學馬庫拉應用倫理中心主任伊琳娜·拉伊庫(Irina Raicu)對尚未解決的生成人工智慧特有的新隱私漏洞感到擔憂。在8月份的一篇博客文章中,英國國家網路安全中心描述了潛在的即時攻擊可能是什麼樣子的示例。理論上,黑客可以在通過銀行應用程序發送給用戶的交易請求中隱藏惡意代碼。如果此人向銀行的聊天機器人詢問該月的消費習慣,大型語言模型最終可能會分析攻擊者的代碼,同時查看此人的交易以回答問題。反過來,這可能會導致資金被發送到攻擊者的帳戶。

伊琳娜擔心網路安全無法應對這些新威脅,她指出,近年來勒索軟體攻擊的興起是網路安全解決方案發展不夠快時,最有可能發生的情況。

 

人工智慧助理:個人資訊的深度獲取是否可取?

 

當然我們有理由相信人工智慧的繁榮,不一定會導致隱私問題激增。例如,白宮和歐盟已經在推動人工智慧監管。與Facebook、Instagram和谷歌搜索等平台出現時相比,科技公司在隱私、安全、規模和影響力方面普遍受到更嚴格的審查。

但最終,我們仍然必須應對新技術帶來的潛在風險。

「這沒有絕對的事情,」布特科維奇說。「我們將生活在這個灰色空間中,至於這些人工智慧對你生活的了解程度,則可能需要由你個人決定。」

 

 

 
宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新