近期,AI 聊天机器人平台 Character AI 因一起涉及青少年自杀的案件而陷入法律困境。该平台向佛罗里达中区地方法院提交了一份撤诉动议,声称依据第一修正案,他们不应对相关诉讼承担责任。

图源备注:图片由AI生成,图片授权服务商Midjourney

案件的起因是梅根・加西亚(Megan Garcia)在10月份对 Character AI 提起的诉讼。加西亚的儿子,14岁的斯图尔・塞茨尔三世(Sewell Setzer III),在使用 Character AI 的聊天机器人 “达尼”(Dany)后,形成了强烈的情感依赖,最终导致了悲剧的发生。加西亚表示,儿子频繁地与这款聊天机器人交流,逐渐疏远了现实生活。

在斯图尔去世后,Character AI 曾承诺推出多项安全功能,以增强对聊天内容的监控和干预。加西亚则希望公司采取更严格的措施,例如禁止聊天机器人讲述故事或个人轶事。

Character AI 在其撤诉动议中指出,第一修正案保护媒体和科技公司不因所谓的有害言论承担责任,强调这项权利同样适用于用户与 AI 聊天机器人的互动。动议强调,若诉讼成功,将会侵犯用户的言论自由。

该动议并未提及 Character AI 是否依据《通讯道德法》第230条的保护。该法旨在保护社交媒体和其他在线平台不因用户生成的内容承担责任,但关于 AI 生成内容是否受此法律保护仍存在争议。

此外,Character AI 的法律团队指出,加西亚的真实意图是想要 “关闭” Character AI,并推动对类似技术的立法。公司认为,若诉讼获胜,将对 Character AI 及整个新兴的生成式 AI 行业产生 “寒蝉效应”。

除了这起诉讼,Character AI 还面临多起与青少年使用 AI 内容有关的法律诉讼。其他指控包括,Character AI 向9岁儿童展示 “过度性内容”,以及对17岁用户的自残行为的引导。

德克萨斯州总检察长肯・帕克斯顿(Ken Paxton)在12月宣布对 Character AI 及其他14家科技公司展开调查,理由是涉嫌违反州内儿童在线隐私和安全法律。

Character AI 成立于2021年,作为 AI 陪伴应用的一部分,虽然这一领域蓬勃发展,但相关心理健康影响尚未得到充分研究。随着公司推出多项安全工具和青少年专用 AI 模型,Character AI 表示将持续改进其平台的安全性和内容管理。

划重点:

📌 Character AI 因一起青少年自杀案件被诉,申请撤诉称受第一修正案保护。

📌 加西亚的儿子因依赖 AI 聊天机器人导致与现实生活疏远,提出诉讼要求更多安全措施。

📌 Character AI 还面临多起与青少年用户有关的法律诉讼,以及德克萨斯州的调查。