周一,英国的互联网监管机构Ofcom发布了在线安全法下的首批最终指导方针,这标志着在线危害法律首个合规期限的开始。
监管机构预计该期限将在三个月后生效。Ofcom在夏季 riots之后面临着更快实施在线安全制度的压力,这些riots被认为是由社交媒体活动引发的。
尽管它只是遵循立法者设定的过程,该过程要求它进行咨询,并获得议会批准最终合规措施。“关于非法危害代码和指导方针的这一决定标志着一个重要里程碑,现在在线服务提供商将依法被要求保护用户免受非法危害。
”Ofcom在一份新闻稿中写道。“服务提供商现在有责任评估其服务中的非法危害风险,最后期限为2025年3月16日。
在完成法规程序后,从2025年3月17日起,服务提供商需要采取法规中规定的安全措施或使用其他有效措施来保护用户免受非法内容和活动的影响。”“如果服务提供商未能及时应对服务中的风险,我们将采取执法行动。
”它补充道。据Ofcom称,超过10万家科技公司可能需要遵守该法规以保护用户免受各种非法内容类型的侵害——涉及超过130种优先犯罪行为,涵盖恐怖主义、仇恨言论、儿童性虐待和剥削、欺诈和金融犯罪等领域。
未能遵守规定将面临高达全球年度营业额10%的罚款(或高达1800万英镑,取两者中较高者)的风险。
受监管的服务提供商范围从科技巨头到“非常小”的服务提供商不等,涉及社交媒体、约会、游戏、搜索和色情等领域。
“根据法案的规定,提供与英国有关联的服务的企业无论其位于何处都需承担相应责任。
受监管的在线服务数量可能超过10万家,从世界上最大的科技公司到非常小的服务提供商都有涉及。”Ofcom写道。这些代码和指导方针是在咨询过程中制定的。
Ofcom参考了研究并听取了利益相关方的意见来帮助形成这些规则。自去年秋天法案通过议会并通过于2023年10月成为法律以来。监管机构概述了用户对用户和服务搜索减少与非法内容相关风险的措施,并总结了风险评估、记录保存和审查方面的指导意见。
Ofcom还发布了一份摘要,涵盖了今天政策声明中的每一章内容。
英国法律采取的方法不是一刀切的方式——通常情况下,在存在多种风险的大规模服务和平台上有更多的义务要求,而在较小的风险较低的服务上则较少。
然而,较小的风险较低的服务也不免除义务。
事实上——确实——许多要求适用于所有服务。例如,拥有能够迅速删除非法内容的内容审核系统;提供用户提交内容投诉的机制;制定清晰易懂的服务条款;移除被禁止组织的账户;等等。尽管许多这些普遍措施是主流服务至少已经提供的功能。但可以肯定的是,在英国提供用户对用户或搜索服务的每家科技公司都需要对其业务如何适用法律进行评估,至少需要对特定领域的监管风险进行操作调整。
对于以互动为中心的大平台来说——其盈利模式与其保持对人们注意力的控制密切相关——更大的运营调整可能是必要的以避免违反保护用户免受各种危害的责任。
推动变革的关键杠杆之一是法律引入了某些情况下高级管理人员可能面临的刑事责任机制,这意味着科技CEO可能因某些类型的不合规而个人承担责任。
Melanie Dawes在周一上午接受BBC Radio 4 Today节目采访时指出:“今天我们宣布的是在线安全的一个重要时刻,在三个月后技术公司将需要开始采取适当的行动。
”“他们需要改变算法的工作方式,并测试它们以确保恐怖主义、仇恨言论、亲密图像虐待等非法内容不会出现在我们的推送中。
”“如果这些内容漏网了,则必须删除它们。
对于儿童来说,我们希望他们的账户设置为私人状态,这样他们就不会被陌生人联系到。”不过需要注意的是,Ofcom的政策声明仅仅是实施法律要求的第一步。
监管机构仍在制定与该法其他方面相关的进一步措施和义务——包括Dawes所说的“更广泛的儿童保护”措施,并表示将在新的一年推出这些措施。因此直到今年晚些时候才可能出现更多实质性的儿童安全相关变化。
Dawes表示:“一月份我们将提出年龄验证要求以确定儿童的位置。”Dawes还表示:“四月份我们将最终确定更广泛的儿童保护规则——这将涉及色情、自杀和自伤材料、暴力内容等,并确保孩子们不再受到这种已成为常态但实际上是有害的做法的影响。
”To keep pace with技术发展如生成式AI的增长趋势, Ofcom总结文档还指出可能需要进一步措施。
监管机构还计划制定紧急事件应对协议;提出封禁分享CSAM(儿童性虐待材料)账户的人的提案;并提供使用AI应对非法危害的指导意见。