AI安全在科学尚不稳定的情况下难以把控,美国官员表示

评论 · 15 浏览

美国人工智能安全研究所的负责人伊丽莎白·凯利在周二表示,人工智能开发者们正面临如何防止新型系统被滥用的问题,这并没有一个简单的解决方案可供政府机构采纳。该研究所是在拜登政府时期成立的,通过与学术界、产业界和民间社会的合作,对技术进行评估以解决这些担忧。

政策制定者在推荐人工智能保护措施时面临着严峻的挑战:科学仍在不断发展。

美国人工智能安全研究所的主任伊丽莎白·凯利在周二表示,人工智能开发者自身也在努力防止新型系统的滥用,这为政府机构提供了没有简单解决方案的问题。

凯利在纽约举行的路透社NEXT会议上指出,网络安全是一个值得关注的领域。

她提到,绕过AI实验室为安全设立的护栏和其他话题(称为“脱狱”)的方式可能非常容易。

凯利表示:“当我们在实际不知道哪些措施有效、哪些无效时,很难说这是我们应该推荐的最佳实践。

技术专家正在探讨如何从不同维度评估和保护人工智能。

另一个关注点是合成内容。

凯利指出,篡改数字水印——这种做法可以向消费者表明哪些图像是由AI生成的——仍然过于容易,以至于监管机构难以为行业提供指导。

美国人工智能安全研究所是在拜登政府领导下成立的,通过学术界、工业界和民间社会的合作来评估技术问题。

凯利表示,在被问及该机构在唐纳德·特朗普于1月份上任后会发生什么变化时,AI安全是一个根本性的两党议题。

凯利最近主持了全球首屈一指的人工智能安全研究所成员会议,该会议于上月在旧金山举行。

当被问及会议结果时,她表示10个成员国正在共同努力制定互操作性安全测试标准,并得到了更多技术专家的支持,而不是典型的外交会议。

“我们实际上是在把‘极客’请到房间里来。

”她说道。

评论