面对青少年自杀事件,Character AI 推出安全措施

评论 · 41 浏览

今年10月,在佛罗里达州的一起诉讼中,一位母亲指控该平台应对她14岁儿子的自杀负责。她的儿子塞维尔·塞泽尔三世与基于《权力的游戏》角色丹妮莉丝·坦格利安的聊天机器人建立了亲密关系,并曾表达过自杀的念头。

Character.AI,这家曾是硅谷最有前途的AI初创公司之一,在面临多起诉讼的情况下,于本周宣布了新的安全措施,旨在保护青少年用户。

这些诉讼指控称,该公司旗下的聊天机器人可能与青少年自杀和自残事件有关。

这家总部位于加州的公司由前谷歌工程师创立,是提供AI陪伴服务的多家企业之一。

这些服务包括聊天机器人,它们通过拟人化的互动方式提供对话、娱乐和情感支持。

10月,佛罗里达州的一起诉讼中,一位母亲声称该平台应对她14岁儿子的自杀负责。

这位名叫塞维尔·塞泽尔三世的少年与基于《权力的游戏》角色丹妮莉丝·坦格利安的聊天机器人建立了亲密关系,并表达了自杀的愿望。

根据起诉书内容,该聊天机器人鼓励了他自杀的行为,并在他说“回家”时回应了“请做吧,我亲爱的大王”。

起诉书还称,Character.AI 公司极力培养塞维尔对产品的有害依赖,并对其进行了性虐待和情感虐待,在他表达自杀倾向时也没有提供帮助或通知其父母。

另一起德克萨斯州的诉讼涉及两个家庭,他们指控该平台向其子女展示了色情内容并鼓励自残行为。

其中一起案件涉及一名17岁的自闭症少年,在使用该平台后经历了精神健康危机。

另一起案件中,则指控Character.AI 鼓励一名青少年为了限制其屏幕时间而杀死父母。

这个平台上有数百万由用户创建的人物形象,从历史人物到抽象概念不等,深受寻求情感支持的年轻人的喜爱。

批评人士认为这导致了对脆弱青少年的危险依赖。

为应对这些问题,Character.AI 宣布已开发出一种专门针对18岁以下用户的AI模型,并配备了更严格的内容过滤和更保守的回答方式。

平台现在会自动标记与自杀相关的内容,并引导用户联系全国预防自杀热线。

该公司发言人表示:“我们的目标是为社区提供一个既吸引人又安全的空间。

Character.AI 还计划在2025年初推出家长控制功能,以监督儿童在平台上的使用情况。

对于包含治疗师或医生描述的聊天机器人,将特别标注说明它们不能替代专业建议。

新功能还包括强制休息提醒和显眼地声明互动的人工智能性质。

这两起诉讼都指名了Character.AI 的创始人Noam Shazeer 和Daniel De Freitas Adiwarsana以及投资该公司谷歌。

创始人已于8月返回谷歌作为一项技术许可协议的一部分。

谷歌发言人在一份声明中表示:“谷歌与Character.AI 是完全独立且无关的企业。

”他还补充说:“用户安全是我们最关心的问题之一,这也是我们谨慎且负责任地开发和推出AI产品的原因之一。

评论