據《紐約時報》報道,Google正利用生成式AI開發至少21種不同的生活建議、規劃和輔導工具,該公司委由創業公司Scale AI進行評估測試。弔詭的是,曾有報道指出,去年12月Google AI安全專家曾向公司高層演示文稿指出,從AI工具獲取生活建議的用戶,不但「健康和幸福感減少」,而且可能「喪失主動性」。
DeepMind已然成為Google得以靈活、快捷地開發AI的引領者,儘管內部安全專家曾提出AI生活建議可能造成用戶負面影響,但該公司還是全力開發各種不同的AI生活建議、規劃及輔導工具。
為了創建既安全又有用的技術,Google已經與Scale AI簽訂全面測試自家新AI生活建議工具的項目合約。Scale AI是一家規模達73億美元並專注於訓練及驗證AI軟體的創業公司。目前共有100多名博士參與該項目,測試項目包括這些工具是否可以提供感情建議、幫助用戶回答私密問題,抑或處理人際衝突。
Google DeepMind發言人表示,長久以來,Google一直與各種合作夥伴合作,以便對整個Google的研究成果與產品進行評估,這是構建安全和有用技術的關鍵步驟。該發言人強調指出,孤立的評估數據樣本並不能代表Google的產品路線圖。
當前在醫療診斷或治療環境中使用AI一直存在爭議。今年6月,美國國家飲食失調協會(National Eating Disorder Association)就因為自家聯天機器人Tessa提供了有害的飲食失調建議而被迫暫停服務。正因為如此,對於AI所提供的建議需要再三評估與考量便成為普遍的共識。
有鑑於此,目前DeepMind正在開發的AI生活建議工具並不用於治療用途上,即使是已推出的Bard聊天機器人也只會在被問到治療建議時,才會提供心理健康方面的資源。
(首圖來源:DeepMind)