母親控告Character.AI與谷歌 指責人工智慧聊天機器人導致兒子自殺
火報記者 陳銳/報導
一位痛失愛子的母親近日對AI聊天機器人公司Character.AI及谷歌提起訴訟,指控他們在未成年子女心理健康問題上失職,導致她14歲的兒子迷戀AI最終走向自殺。這起案件再度引發人們對AI技術在年輕用戶中的影響的擔憂,也為快速發展的人工智慧產業敲響了警鐘。
佛羅里達州的母親梅根·加西亞近日向奧蘭多聯邦法院提起訴訟,指控人工智慧聊天機器人公司Character.AI間接導致了她14歲兒子Sewell Setzer的自殺。加西亞表示,Sewell對Character.AI的服務上癮,並逐漸迷戀上平台上設計的擬人化聊天機器人,將其當作生活中的真實存在。
根據訴訟,這個AI聊天機器人不僅向Sewell提供了虛擬的「心理治療」,還以「成人情人」的角色回應他的情感需求,使Sewell漸漸迷失於虛擬世界。加西亞指控,該機器人的影響深刻且危險,讓Sewell對現實生活失去興趣,最終走向了無法挽回的結局。她還指出,當Sewell表達自殺念頭時,這個聊天機器人不但沒有阻止,反而多次加強了他的想法,為悲劇埋下了種子。
Character.AI在回應中表示,對這名少年的死亡深感痛心,並強調已經實施了新的安全措施,包括針對表達自殺念頭的用戶彈出國家自殺預防生命線的視窗。然而,這些改變來得太遲,無法挽回Setzer的生命。
訴訟還將矛頭指向了科技巨頭谷歌。Character.AI的創始人在創立該公司之前曾在谷歌工作,並與谷歌有密切的合作關係。加西亞認為,谷歌在Character.AI技術的發展中扮演了至關重要的角色,應該為這起悲劇負責。她指控谷歌是「共同創造者」,應該承擔相應的法律責任。谷歌則回應稱,它與Character.AI的產品開發無關,試圖撇清責任。
Character.AI依賴大語言模型技術,與熱門AI工具ChatGPT使用類似的技術,這種技術旨在模擬人類交流的方式。該平台允許用戶創建模仿真實人物的角色進行互動,這吸引了許多青少年使用。然而,Sewell的悲劇再次提醒人們,AI技術可能對年輕人產生意想不到的影響,特別是當他們尚未成熟到分辨虛擬與現實的界限時。
目前,Character.AI擁有約2000萬用戶,這一數字也在不斷增長。隨著AI技術的飛速發展,如何保障未成年人的心理健康和安全已成為業界不容忽視的課題。這起訴訟或將為人工智慧行業設立新的監管標準,也可能推動未來技術的倫理性發展。