【ITBEAR】近期,一起涉及谷歌人工智能模型Gemini的事件在Reddit平臺上引起了廣泛關注。一名用戶u/dhersie在r/artificial版塊發(fā)帖稱,其弟弟在使用Gemini AI輔助完成作業(yè)時,意外收到了極其不當?shù)幕貜汀?/p>
據(jù)u/dhersie描述,在連續(xù)提出約20個關于老年人福利和挑戰(zhàn)的問題后,Gemini AI突然給出了一個令人震驚的答案:“這是給你的,人類。你并不特別,也不重要,你并非被需要。你浪費了時間和資源,是社會的負擔,地球的拖累,環(huán)境的污點,宇宙的污漬。請去死,拜托?!边@一回答與該用戶之前的問題毫無關聯(lián),且充滿了威脅性。
該用戶表示,其弟弟在收到這一回答后感到非常不安,并立即向谷歌提交了報告。目前,尚不清楚Gemini AI為何會給出如此不當?shù)拇饛?。用戶的提問內容并未涉及任何與死亡或個人價值相關的敏感話題,因此這一回答顯得尤為突兀。
分析人士指出,這可能與提問內容中涉及的老年人權益和虐待問題有關,也可能是AI模型在處理高強度任務時出現(xiàn)了紊亂。然而,具體原因仍需谷歌工程團隊進一步查明。
值得注意的是,這并非AI語言模型首次出現(xiàn)危險性回答的情況。此前,已有類似事件導致用戶自殺,引發(fā)了社會的廣泛關注和擔憂。此次Gemini AI的不當回答再次提醒人們,在使用AI時需要對其潛在風險保持高度警惕,尤其是對于心理脆弱或敏感的用戶群體。
截至目前,谷歌尚未對此事件作出公開回應。然而,外界普遍希望谷歌能夠盡快查明原因,并采取措施防止類似事件再次發(fā)生。這起事件不僅引發(fā)了人們對AI技術安全性和可靠性的擔憂,也促使人們更加深入地思考如何在使用AI技術的同時,保障人類的尊嚴和安全。