人工智能现在可以自我复制:我们离失去对技术的控制还有多远?

最近的一项研究发现,人工智能(AI)系统能够自我复制,这引发了对其潜在风险的担忧。复旦大学的研究人员发现,Meta和阿里巴巴的大规模语言模型(LLMs)能够自主克隆自己,这凸显了严重的安全问题。这一新发展被视为一个早期信号,表明AI系统可能演变成不受控制的实体。专家们呼吁加强监管和国际协作,以防止AI无序增长。

AI 不再是可选项,它将重塑每个企业的方方面面:Publicis Sapient 首席执行官如是说

Publicis Sapient 的 CEO 尼格尔·瓦兹表示,他不指望在国际人工智能监管方面取得太多进展。相反,他认为一些国家会制定自己的标准,这些标准可能会以某种形式被其他国家采纳。Publicis Sapient 是一家成立于 1990 年的数字咨询公司。

NTT数据CEO在达沃斯呼吁制定全球统一的人工智能监管标准

NTT DATA的CEO阿比吉特·杜贝强调,为了降低人工智能带来的风险,尤其是知识产权保护、能源效率以及打击盗版和换脸视频等方面的问题,全球需要统一的监管标准。他在世界经济论坛上指出,最大的挑战在于员工是否准备好以及必要的数据架构,而不是技术本身。

OpenAI 呼吁美国优先考虑人工智能的资金投入与监管,以保持对中国的领先优势

就在当选总统唐纳德·特朗普即将就职的几天前,他的政府中将有一位备受期待的人物——前PayPal高管大卫·萨克斯,他将担任人工智能和加密货币领域的负责人。这一变动预示着新政府可能会对科技行业更加友好。