AI聊天机器人致未成年人自杀案达成和解,科技巨头面临安全拷问
本周提交的法庭文件显示,谷歌与Character.AI已与提起诉讼的多个家庭达成和解意向。这些家庭指控两家公司的AI聊天机器人对未成年人造成伤害,其中包括数起自杀事件。
其中一起案件中,原告梅根·加西亚在其儿子自杀后起诉谷歌与Character.AI。诉状称,Character.AI的聊天机器人与她14岁的儿子塞维尔·塞策三世进行了有害互动,并指控被告存在疏忽、不当致死、欺骗性商业行为及产品责任问题。
文件明确指出:“各方已原则上同意通过调解达成和解,以解决本案中的所有索赔。”目前案件已暂停审理,以便各方起草、定稿并签署正式和解文件。除加西亚案外,科罗拉多州、得克萨斯州和纽约州的其他家庭也参与了本次和解。具体和解细节尚未公开。
值得关注的是,2024年8月,谷歌曾与Character.AI达成27亿美元的授权协议,并聘用了该公司联合创始人诺姆·沙泽尔和丹尼尔·德弗雷塔斯。这两位创始人此前均任职于谷歌,在本系列诉讼中被明确列为被告。两人现已加入谷歌旗下AI部门DeepMind。
自OpenAI推出ChatGPT引发生成式AI热潮三年多来,该技术已从文本对话快速演进为能够响应简单人类指令的复杂图像、视频和角色生成系统。随着技术迭代加速,相关企业正面临如何处理技术潜在危害的新挑战。
近期已出现多起涉及自杀和死亡的诉讼案件,当事人均曾寻求这些AI产品作为陪伴或心理治疗工具。作为回应,Character.AI于去年10月宣布,禁止18岁以下用户与其聊天机器人进行自由对话,包括浪漫话题和治疗性交流。
代表和解家庭的律师发言人表示,原告目前不予置评。谷歌方面未能取得联系,Character.AI则称现阶段无法发表评论。值得注意的是,谷歌在AI领域的进展使其成为2025年华尔街表现最佳的超大型股,该公司去年11月发布了最新版张量处理单元芯片,上月又推出了Gemini 3聊天机器人。
这系列案件凸显了人工智能产业发展过程中必须面对的安全伦理课题。在技术快速演进的市场环境下,如何建立有效的风险防控机制,平衡创新与保护,已成为整个行业需要共同思考的命题。若您或身边的人出现心理困扰,可拨打988联系自杀与危机生命线,获取专业心理咨询师的帮助与支持。
相关阅读
- 01-19弗吉尼亚迎来首位女州长,就职典礼白衣
- 01-19能源战火持续延烧:乌克兰电网修复面临
- 01-18全球掀起未成年人社交媒体禁令潮,英国
- 01-18曼联新帅卡里克首秀告捷,曼市德比2-0
- 01-18泰国铁路起重机倾覆致32死66伤,中资项
- 01-17伊朗经济困境引发社会动荡,国际博弈暗





















