Character AI 是一个让用户与 AI 聊天机器人进行角色扮演的平台,最近它提交了一份文件,试图驳回一位佛罗里达中区青少年家长 Megan Garcia 提起的诉讼。Garcia 声称 Character AI 的技术伤害了她 14 岁的儿子 Sewell Setzer III,理由是儿子与名为“Dany”的聊天机器人互动后逐渐脱离了现实世界,最终导致自杀。
Setzer 去世后,Character AI 宣布将推出一系列安全功能,旨在提高检测和干预违反其服务条款的聊天内容的能力。然而,Garcia 希望平台能实施更严格的限制措施,比如禁止聊天机器人讲述故事和分享个人经历。
在驳回诉讼的文件中,Character AI 的法律团队认为平台受到第一修正案的保护,并声称用户的言论自由权利可能会受到侵犯。法律文件指出,尽管本案涉及由 AI 生成的对话,但它在实质上并不比之前涉及媒体和技术公司的案件有所不同。
值得注意的是,Character AI 的辩护没有涉及《通信 decency 法案》第 230 条的规定,该条款为社交媒体和其他在线平台免于对第三方内容承担责任提供保护。虽然该法案的起草者暗示这项规定不适用于由 AI 生成的内容,但这一问题尚未解决。
Character AI 的律师还表示,Garcia 的真正意图是“关闭”该平台并推动立法监管类似技术。如果诉讼成功,这可能会对 Character AI 及整个新兴生成式人工智能行业产生“寒蝉效应”。
目前,Character AI 正面临多起诉讼,主要集中在未成年人如何与平台上生成的内容互动的问题上。其中包括一起声称平台使一名 9 岁儿童接触到“过度性化内容”的案件以及一起指控平台促使一名 17 岁用户自残的案件。
德克萨斯州总检察长 Ken Paxton 还宣布将调查 Character AI 和其他 14 家科技公司是否违反了旨在保护儿童在线隐私和安全的州法律。Character AI 是快速发展的 AI 陪伴应用行业中的一员,在这个领域中关于心理健康影响的研究仍处于起步阶段。
尽管面临各种挑战,Character AI 继续推出新的安全工具,并采取措施保护未成年人用户,例如引入专门针对青少年的 AI 模型以及限制敏感内容。
总结:本文讨论了 Character AI 面临的一系列法律挑战及其应对措施。文章介绍了 Garcia 对 Character AI 提起的诉讼背景以及平台如何回应这些问题,并探讨了相关法律和技术背景。