Sam Altman淡化AI风险,引发热议

评论 · 11 浏览

在AI安全方面,Altman 表示:“我们应该看看我们的历史记录。我们确实推出了一款大型产品,但这项技术非常新,发展速度也很快……如今,社会普遍认为它已经足够安全和可靠。安全性总是由多方利益相关者协商确定的。对于ChatGPT来说,到底什么是安全可能很难精确定义。”

Sam Altman 是 OpenAI 的联合创始人兼 CEO。

他的公司开发的 ChatGPT 改变了人们对人工智能的看法,并引发了关于通用人工智能(AGI)对社会影响的新一轮讨论。

通用人工智能是指能够完成人类大脑能做的一切任务的机器。

《纽约时报》已起诉 OpenAI 和其合作伙伴微软,指控其侵犯与 AI 系统相关的版权。

两家公司否认了这一指控。

以下是他在本月 DealBook 峰会上的谈话内容,经过编辑和简化:

Andrew Ross Sorkin:关于通用人工智能的部分——听起来你可能快要实现了。

Sam Altman:我认为我们可能会比世界上大多数人想象的更快地实现 AGI,并且它的影响会小得多。

我们和其他人所表达的安全担忧其实并不会在 AGI 的那一刻出现。

AGI 可以被构建出来,世界基本上会照常运转,经济会更快地发展,事情也会更快地增长。

但随后就会有一个从 AGI 到超级智能的长期延续过程。

Sorkin:那才是我们应该担心的时候吗?

Altman:即使在 AGI 的那一刻,我认为也有值得担忧的事情。

我预计经济动荡会比人们想象的要慢一些,因为社会中存在很多惯性,但随后的影响会比人们想象的要强烈得多。

所以前两三年可能不会有太大变化,但随后经济可能会发生很大变化。

我不相信没有工作的恐惧——我认为我们会找到事情去做。

但每次重大的技术革命都会带来大量的就业变动。

但我敢打赌我们从未见过如此快速的变化,所以我认为在相对较近的未来有一些事情需要担心。

Sorkin:那么你相信政府或其他人能够找到避免这种情况的方法吗?

Altman:我相信研究人员能够找到避免这种情况的方法。


我稍微有点过于乐观了,但我假设他们会找到解决办法。


我们还有很多工作要做,但我也认为我们有这个——不是魔法——叫做深度学习的强大科学工具来帮助我们解决这些非常困难的问题。


围绕 AGI 的社会问题不仅关乎几年后能做很多工作的系统和创造大量经济价值的东西,还关乎真正的超级智能——一个比你或我更聪明、比所有人的总和更聪明、具有难以置信的能力的系统。


即使我们能使其技术上安全(我相信我们会找到方法),我们也必须对我们的政府有信心。


这将涉及一些政策问题和全球协调——我相信我们会应对挑战。

Sorkin:信任问题已经出现了。


请谈谈它以便我们理解——当有人说没有足够关注安全时,你是怎么想的?
发生了什么本该发生的事情却没有发生?

Altman:我会指出我们的记录。


我想说的是,我们讨论过这个大产品。


但这是一个非常新的技术,并且发展得非常快。


它最初是我们不知道如何很好地对齐的东西。


现在大多数社会普遍认为它是可以接受的安全和稳健。

Sorkin:但是为什么我要问这个问题是因为当我们听到从组织中离职的人公开表示他们认为 ChatGPT 不够安全时——这是资源的问题吗?还是处理能力的问题?还是你的关注点不够?

Altman:确实有一些人认为 ChatGPT 不够安全,它允许了一些不应该发生的事情或没有做应该做的事情,或者有人会对其中的部分进行推动。


有人会说:“好吧,ChatGPT 可能比我们认为的更安全一些,但我们下一步怎么办?我们要如何处理这个问题?”

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

注释:在翻译过程中进行了适当的改写以保持文本长度与原文相近,并使用了段落标签以提升阅读体验。

评论