AI安全在科学尚不稳定的情况下难以掌控,美国官员表示

评论 · 17 浏览

美国人工智能安全研究所的负责人伊丽莎白·凯利在周二表示,AI开发者本身正努力应对如何防止新型系统的滥用问题,这并不是一个政府机构可以轻易解决的难题。该研究所是在拜登政府时期成立的,通过与学术界、产业界和民间社会的合作,其技术评估工作得到了多方面的支持和指导。

政策制定者在推荐人工智能的安全保障措施时面临一项艰巨的挑战:科学本身仍在不断发展。

美国人工智能安全研究所的负责人伊丽莎白·凯利在周二表示,人工智能开发者自己也在努力防止新型系统的滥用,这为政府机构提供了一个简单的解决方案。

凯利在纽约举行的路透社NEXT会议上指出,网络安全是一个值得关注的领域。

她提到,绕过AI实验室为安全设置的护栏和其他话题(称为“脱狱”)的方法可能非常简单。

凯利说:“当我们在实际中不知道哪些方法有效、哪些无效时,很难说这是我们应该推荐的最佳实践。

技术专家正在探讨如何在不同维度上评估和保护人工智能。

另一个关注点是合成内容。

凯利指出,篡改数字水印——这种做法可以向消费者标明哪些图片是由AI生成的——仍然过于简单,以至于难以为行业提供指导。

美国人工智能安全研究所是在拜登政府时期成立的,通过与学术界、产业界和民间社会的合作来评估技术,凯利表示。

当被问及该机构在唐纳德·特朗普于1月份上任后的情况时,凯利表示人工智能安全是一个“根本性的两党问题”。

她说,在12月举行的全球首个人工智能安全机构会议中,该研究所最近主持了来自世界各地的10个国家成员参加的首次会议。

凯利表示:“这些会议的结果是,这些国家成员正在共同努力开发互操作性测试方法,并得到了更多技术专家的支持,而不是典型的外交会议上的西装革履的专家。

”她说:“这确实是在房间里召集‘极客’的过程。

评论