人工智能的脆弱性

人工智能的脆弱性

在讨论了模拟人类行为方面的挑战之后,让我们稍微谈谈创造通用人工智能的尝试。我们现在使用的人工智能(简称AI)系统只专注于某些特定的任务——比如识别语音、图像分类、下国际象棋或是过滤垃圾邮件。而通用人工智能则不是这样,它能够像人类一样理解和学习,甚至比人类做得更好。

许多知名人士都对如此强大的人工智能的开发表达了担忧。埃隆·马斯克认为这是“人类生存的最大威胁”12;史蒂芬·霍金认为,这可能是“人类文明史上最糟糕的事情”13;苹果公司联合创始人史蒂夫·沃兹尼亚克认为,人工智能将“摆脱迟钝的人类,更高效地运营公司”14;比尔·盖茨也认为自己是“关注超级智能的阵营”中的一员15。2015年,生命未来研究所发布了一封超过8000人署名的公开信,呼吁人们在人工智能的研发上谨慎行事,并且制定了一份研究重点清单。16

这些担忧并非没有道理。与任何新兴技术一样,人工智能也会带来风险。虽然我们还远远没有创造出智力哪怕稍微有点儿接近人类水平的机器,但只有尽早打算到时候要如何处置它们才是明智之选。然而,我认为这些担忧忽略了人工智能有可能会带来的一些更加紧迫的问题。

人工智能不会很快就摆脱人类,因为它们在相当长的一段时间内还需要我们的帮助。人脑可能不是最好的思考装置,但它相比于我们迄今为止建造的所有机器来说都有一个显著的优势:它可以稳定运行好几十年。人类大脑的鲁棒性[6]极强,具备自我修复的能力。数百万年的进化不仅优化了我们的大脑,也同样优化了我们的身体,虽然进化的结果称不上尽善尽美(这该死的膝盖[7]),但它仍然比我们迄今为止创造的任何硅基思维设备都更加耐用。17一些人工智能研究人员甚至认为,某种类型的身体对于达到人类水平的智能来说是必要的。如果他们所言非虚,那么人工智能的脆弱性问题将大大加剧。

每当我向热衷人工智能的人提出这个问题时,他们都会告诉我人工智能可以学会自我修复;即使它们学不会,它们也可以将自己上传到另外一个平台。其实在我们眼中,人工智能的威胁很大程度上来自,我们认为它们可以高效、轻易地自我复制,并且基本上可以说是不死不灭的。但我认为人工智能不会朝这一方向发展。

在我看来更有可能的是,人工智能的数量和种类起初都会很少,而且在很长一段时间内都将如此。通用人工智能的搭建和训练需要大量的人力和多年的时间,而且复制起来并不比复制人类大脑轻松。它们一旦损坏就很难修复,因为就像人类的大脑一样,我们无法将硬件与软件分开。早期的通用人工智能可能很快就会死去,而我们甚至无法理解其中的原因。

我们已经看到这种趋势初见端倪。即使我们的计算机具有相同的模型,运行着相同的软件,它们也不可能一模一样。黑客可以利用计算机之间的些许差异来追踪你在互联网中的活动。例如,帆布指纹识别是一种让计算机渲染字体以及输出图像的方法,而你的计算机在执行这些任务时所采用的具体方式取决于你的硬件和软件配置,因此,输出结果可以用于识别设备。

目前,你可能还不太会注意到不同计算机之间的这些细微差别(除非你一边喃喃自语“之前一定有人遇到过这个问题”,一边花费几个小时的时间去浏览互助论坛,结果却一无所获)。计算机越复杂,它们之间的差异就越明显。总有一天,它们会成为具有不可复制的怪癖和缺点的个体,就像你我一样。

因此,虽然我们面临着人工智能的脆弱性,但越来越复杂的软硬件也会逐渐发展出各自的独特性。顺着这个趋势往后推几十年,那时候的政府、大型企业,或许还有一些亿万富翁就可以负担得起他们各自的人工智能。这些人工智能将足够精巧,并且需要配备专员持续维护。

如果你也这么认为,那就需要考虑下列问题:

1.谁可以问问题?可以问哪些问题?

对于个人所有的人工智能来说,这个问题可能不值得探讨,但是对于那些由科学家制造或是由政府采购的人工智能呢?可以保证每人每月都有一次提问机会吗?难度较大的问题是否必须提请议会批准?谁来负责?

2.你怎么知道你是在和人工智能打交道?

一旦你开始依赖人工智能,就会立马面临这样的风险:人类可以将自己的观点伪装成人工智能的观点,进而推动议程。这个问题早在人工智能的智力足以为自己制定目标之前就会出现。假设政府运用人工智能为一个利润丰厚的建筑项目寻找最合适的承包商,那么你能确定当选公司的最大股东同时也是一位政府高官这件事情只是巧合而已吗?

3.你如何判断人工智能是否擅长解答问题?

如果你只有少数几个人工智能,而且这些人工智能是为了完全不同的目的而训练的,你就有可能无法再现它们得出的任何结果。那你怎么才能确定可以相信它们?一个比较好的解决方法可能是,要求所有人工智能都有同一专业领域的知识,这样就可以比较它们的表现了。

4.由于使用人工智能的机会有限,这会不可避免地加剧国家内部以及国家之间的不平等,你将如何避免出现这种现象?

让人工智能来回答难题可能会带来巨大的优势,但如果只凭借市场的力量,它可能会让富人更富,让穷人更穷。如果这是“不富裕”的人不想看到的结果——这当中当然包括我——那我们就应该考虑如何处理这个问题。

我个人认为,通用人工智能的到来几乎是完全可以预见的。它可能为人类文明带来巨大的收益,也有可能引发巨大的问题。思考到底要给这些智能机器编码什么样的道德规范固然很重要,但人工智能最直接的问题一定是来自我们的伦理,而不会是它们的。