政策制定者在推荐人工智能的安全保障措施时面临一项艰巨的挑战:科学本身仍在不断发展。
美国人工智能安全研究所的负责人伊丽莎白·凯利在周二表示,人工智能开发者自己也在努力防止新型系统的滥用,这为政府机构提供了一个简单的解决方案。凯利在纽约举行的路透社NEXT会议上指出,网络安全是一个值得关注的领域。
她提到,绕过AI实验室为安全设置的护栏和其他话题(称为“脱狱”)的方法可能非常简单。凯利说:“当我们在实际中不知道哪些方法有效、哪些无效时,很难说这是我们应该推荐的最佳实践。”技术专家正在探讨如何在不同维度上评估和保护人工智能。
另一个关注点是合成内容。凯利指出,篡改数字水印——这种做法可以向消费者标明哪些图片是由AI生成的——仍然过于简单,以至于难以为行业提供指导。美国人工智能安全研究所是在拜登政府时期成立的,通过与学术界、产业界和民间社会的合作来评估技术,凯利表示。
当被问及该机构在唐纳德·特朗普于1月份上任后的情况时,凯利表示人工智能安全是一个“根本性的两党问题”。
她说,在12月举行的全球首个人工智能安全机构会议中,该研究所最近主持了来自世界各地的10个国家成员参加的首次会议。凯利表示:“这些会议的结果是,这些国家成员正在共同努力开发互操作性测试方法,并得到了更多技术专家的支持,而不是典型的外交会议上的西装革履的专家。
”她说:“这确实是在房间里召集‘极客’的过程。”