宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

AI 創新帶來想像力的可能,也帶來風險

2025年01月28日 首頁 » 熱門科技

 

AI 創新帶來想像力的可能,也帶來風險

 

在充滿活力的人工智慧和聲音克隆時代,這樣的服務似乎是必然出現的:Character.AI 是一個平台,用戶可以在這裡與基於虛構角色或在某些情況下已故真實人物的虛擬化身進行互動。想像一下,你可以與愛因斯坦、甘迺迪或科特·柯本等已逝之人對話,提出問題,並根據神經網路對其性格和個性的最佳模擬獲得他們標誌性的回應。在孤獨已成為一種流行病的時代,你甚至可以創建自己的有趣角色來交談。

一段時間以來,儘管存在一些風險,但這項技術似乎在不斷發展。從某種意義上說,這是一個廣闊開放的遊樂場,但如果沒有適當的防護措施,問題就可能發生。

讓我們通過這家公司的發展軌跡來研究人們如何將大語言模型這一強大的新應用運用到我們的世界中。

對有趣角色和 AI 的熱情

Character.ai 的創始人 Noam Shazeer 曾是 Google 的長期員工,他離開公司創建了自己的創業公司,後來又重返 Google。具體來說,維基百科報道稱 Shazeer 在 2021 年離開 Google 創建了 Character.ai,並在 2024 年重返 Google 幫助開發 Gemini。對於正在成為消費級產品的 Gemini 的技術負責人來說,Google 想要一個具有這種特殊經驗的人是很有道理的。

關於他對 AI 的看法,你可以在這裡看到他接受 a16z 的 Sarah Wang 採訪的影片,她向他和他的聊天機器人化身提出了相同的問題。

在整個過程中,你可以看到 Shazeer 本人對大語言模型的強大能力充滿熱情。他指出模型架構、分布式算法和量化這三個強大要素,並表示他還沒有看到任何擴展限制。

Shazeer 表示,AI 為我們帶來了"許多有價值的應用",當他談到創建 Character.ai 時,充滿了積極的活力。

Shazeer 的 AI 角色似乎也擁抱新 AI 應用中潛在的機會,但這個僅限於文本交流的代理在採訪結束時被問及 AI 可能的影響時,做出了一個奇怪的承認。

這個聊天機器人角色,Shazeer 的數字分身,在其預測中提到了"對社會和個人福祉的巨大破壞"。

這本身似乎很能說明問題,某種程度上預示了公司目前的處境。

應對法律責任

就在幾天前,一個法院審查了一項駁回動議,Character.ai 正在為其被指控違反安全規定進行辯護。

原告 Megan Garcia 聲稱,她的兒子在平台上對一個 AI 角色產生了極度的情感依戀,最終導致自殺。

這些問題以及其他問題損害了該平台的聲譽,並引發了關於大膽的新型通信形式與潛在危害之間交叉點的重大問題。該案件涉及言論自由的理念、對通信規範法第 230 條的審查,以及用戶需要自擔風險使用技術的觀點。

"在駁回動議中,Character AI 的律師聲稱該平台受到第一修正案的保護,就像電腦代碼一樣,"TechCrunch 的 Kyle Wiggers 寫道。"這個動議可能無法說服法官,隨著案件的進展,Character AI 的法律理由可能會改變。但這個動議可能暗示了 Character AI 辯護的早期要素。"

這是通過法院的軌跡,同時也是一種社會意識,要防止使用大語言模型創造新的人物和世界帶來的意外副作用。

使用和監管

如何保護用戶不傷害自己?如何確保模型不會偏離到導致人類傷害的領域?

我在樹莓派基金會看到這段話,這是上周才發布的:

"隨著我們的生活與 AI 驅動的工具和系統越來越緊密地交織在一起,讓年輕人掌握安全負責地使用 AI 所需的技能和知識變得比以往任何時候都更加重要,"Mac Bowley 寫道。"AI 素養不僅僅是了解技術,還包括促進關於如何將 AI 工具整合到我們的生活中同時最小化潛在危害的關鍵對話 — 也就是所謂的'AI 安全'。"

因此,"AI 安全"應該成為我們生活中的一個普遍部分,而不僅僅是工程師和開發人員的關注點。

在我們繼續探索大語言模型能力極限的過程中,我們必須思考這些問題和潛在的解決方案。通過適當關注倫理 AI,以及對年輕人的適當支持,我們可能能夠創造那些支持個人的環境,同時也解決威脅我們整個世界的氣候問題。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新