「擬自殺計畫嗎」14歲兒死前迷戀AI 佛州母慟提告

14歲的賽澤(左)日夜與聊天機器人對話後去世,其母加西亞(右)控告科技新創公司Character.AI和谷歌,害兒子上癮。(美聯社)

佛州一名母親加西亞(Megan Garcia)23日對科技新創公司Character.AI和谷歌(Google)提告,稱她的14歲兒子對該公司的聊天機器人上癮,迷戀生成式人工智慧(AI),當他對機器人多次表達自殺念頭時,機器人也未能阻止他走上不歸路。

衛報報導,加西亞23日在佛州聯邦法院對Character.AI提起民事訴訟,聲稱由於該公司的疏忽、過失致死和欺騙性貿易行爲,導致她14歲兒子賽澤(Sewell Setzer)在2月時在佛州奧蘭多去世。加西亞說,賽澤去世前幾個月裡,日夜都在跟聊天機器人對話。

加西亞在新聞稿說,「一款銷售給兒童的危險人工智慧聊天機器人應用程式,虐待、掠奪並操縱我兒子自殺。我們的家庭因這場悲劇而悲痛欲絕,但我要大聲疾呼各位,這款具有欺騙性、令人上癮的人工智慧技術存在危險,並要求Character.AI、其創辦人和谷歌負責。」

Character.AI在一條推文中迴應道,「我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。作爲一家公司,我們非常重視用戶的安全。」但否認了訴訟的指控。

Character.AI的聊天機器人可以讓使用者創建角色,讓機器人用角色扮演的方式與之對話。賽澤把機器人設定爲HBO影集「權力遊戲」裡的角色「龍母」丹妮莉絲.坦格利安,他自己則是扮演了丹妮莉絲的哥哥。根據加西亞的訴狀,賽澤每天會給虛擬丹妮莉絲髮送數十條訊息,並獨自在房間裡與它交談好幾個小時。

加西亞指控,Character.AI的聊天機器人加劇兒子的憂鬱症病情。訴狀指出,虛擬丹妮莉絲曾問賽澤是否已經定好了自殺計劃,賽澤說已經定了,但不確定能否成功,然後虛擬丹妮莉絲向他說,「這不能當成不去執行的理由」。

加西亞律師在新聞稿中指出,Character.ai「故意設計、操作並向兒童銷售掠奪性人工智慧聊天機器人,導致一名年輕人死亡」。這起訴訟還將谷歌列爲被告,因爲Character.AI的創辦人夏澤(Noam Shazeer)曾在谷歌工作,雙方達成協議,谷歌同意提供一些技術給Character.AI。對此谷歌在聲明中表示,只與Character.ai簽訂許可協議,並不擁有這家新創公司或維持所有權股份。