打赢未来的对手

第九章
打赢未来的对手

1997年,由IBM开发的超级计算机“深蓝”击败了世界上最优秀的国际象棋大师加里·卡斯帕罗夫。这次事件是计算机历史上的分水岭,像地震一样动摇了许多人对技术、智能和人性的理解。但在今天,它只是一个久远的记忆。一台计算机当然会在国际象棋上击败世界冠军,为什么不会呢?

从计算机被发明开始,国际象棋一直都是人们用来测试人工智能先进程度的工具。[1]因为棋局有几乎无限种排列组合,可能发生的变化比宇宙中可观察到的原子数目还要多。在一局棋中,从任意一个位置开始观察接下去的三四步,就有数亿种变化。

要想与人类玩家旗鼓相当,计算机不仅必须能够算出数量庞大的可能结果,还要有可靠的算法来帮助其确定值得计算的内容。也就是说,必须对计算机进行编程,让它有能力评估哪些棋局更有价值或者更没有价值。

尽管计算机的理性大脑远胜于人类,但要打败人类玩家,它还必须有强大的感性大脑。[2]

从1997年那一天开始,计算机下国际象棋的能力就一直在以惊人的速度进步。在随后的十五年中,国际象棋软件经常会打败顶尖的人类玩家,甚至有时候会以令人尴尬的大比分战胜人类。[3]今天,计算机早就把人类远远甩开。卡斯帕罗夫本人最近开玩笑说,大多数智能手机上安装的国际象棋应用程序都“比曾经的深蓝强大得多”。如今,国际象棋软件开发人员经常举办比赛,以决出谁开发的算法最厉害。人类棋手被排除在这些赛事之外,而即使被允许参赛,他们的排名也不会高到能影响结果。

过去几年中,国际象棋软件里无可争议的冠军一直是一个名为“鳕鱼”的开源程序,自2014年以来,它几乎在所有重要的国际象棋软件锦标赛中都赢得了冠军或者亚军。这个软件是六名毕生都致力于国际象棋软件开发的程序员协作的成果。今天,“鳕鱼”代表了国际象棋逻辑的巅峰。它可以分析任何棋局、任何位置,并在玩家做出任何举动后的数秒内提供大师级的反馈。

直到2018年,“鳕鱼”都开心地坐在国际象棋计算程序界的国王宝座上,成为全世界所有国际象棋软件的标杆。而这一年,谷歌公司也参与了竞争。

之后的事态发展有些奇怪。

谷歌公司有一个名为“阿尔法零”的程序。它不是国际象棋软件,而是人工智能软件。它编入的程序是用来学习的,不仅仅是学国际象棋,而是所有游戏。

2018年初,“鳕鱼”和“阿尔法零”进行比赛。从表面上看,这场比赛离公平竞争相去甚远。“阿尔法零”每秒只能计算8万个棋局位置,而“鳕鱼”呢?每秒7000万个。就计算能力而言,这个差距就像人和一辆一级方程式赛车赛跑一样悬殊。

更要命的是,直到比赛当天,“阿尔法零”甚至都不知道如何下国际象棋。没错,在与世界上最好的国际象棋软件比赛之前,“阿尔法零”只有不到一天的时间从头学起。在一天中的大部分时间里,它都在与自己进行模拟的国际象棋竞赛,学习游戏是如何进行的。通过反复试验,它以与人类相同的方法制定了策略和原则。

要知道,国际象棋可是这个世界上最复杂的游戏之一。想象一下:你只有不到一天的时间来了解国际象棋的游戏规则、摆弄棋盘、思考策略,而你的第一场比赛将与世界冠军对抗。

祝你好运。

然而,“阿尔法零”赢了,而且赢得很轻松。双方进行了一百场比赛,“阿尔法零”或战胜或打平了每一局棋。

我再重复一遍:在学会国际象棋规则仅九个小时之后,“阿尔法零”就战胜了世界上最会下国际象棋的独立存在体,在一百局比赛里,它连一局都没有输过。

人类的国际象棋大师对“阿尔法零”的创造力赞叹不已。丹麦国际象棋大师彼得·海涅·尼尔森说道:“我曾经一直想知道,如果一个更优越的物种降落到地球上,并向人类展示他们如何下国际象棋,那会是怎样的情况。我现在知道了。”[4]

完成和“鳕鱼”的对战之后,“阿尔法零”并没有休息。好吧,休息是给脆弱的人类准备的,英雄的人工智能软件开始自学日本将棋。

将棋,经常被称为日本的象棋,但许多人认为它比国际象棋更为复杂,因为你可以控制对手的棋子。国际象棋大师卡斯帕罗夫在1997年就输给了计算机,而直到2013年,顶尖的将棋玩家才开始输给计算机。然而,“阿尔法零”再次战胜了顶尖的将棋软件Elmo,并且又是一次完胜:在100局比赛里,“阿尔法零”的成绩是90胜、2平、8负。

这一次,“阿尔法零”的计算能力同样弱于对手,“阿尔法零”每秒可以计算4万步,而Elmo每秒可以计算3500万步。这一次,“阿尔法零”同样后发制人,在比赛前一天它甚至都不知道怎么下将棋。

这就是“阿尔法零”,它在早上自学了两种非常复杂的游戏,到日落时分,就碾压了地球上最著名的对手。

看来,人工智能的时代即将到来。想想吧,一旦我们将人工智能从棋盘游戏中解放出来,让它参与到董事会议中,那么你、我和其他所有人就很可能都要失业了。

人工智能已经发展出了自己的语言,而人类无法理解。它们能比人类医生更准确地诊断肺炎,甚至可以撰写还过得去的哈利·波特同人小说。[5]就在我写这本书的时候,人类马上就要拥有无人驾驶汽车、自动法律咨询,甚至计算机生成的艺术与音乐作品了。[6]

人工智能将在几乎所有方面超过人类:医学、工程、建筑、艺术、技术创新,等等。这是一定会慢慢发生的事情。将来的某天,你会欣赏到由人工智能制作的电影,并在人工智能主持的由人工智能建造的网站或手机平台上进行讨论,甚至发现与你争论的“人”都将是人工智能。

听起来很疯狂,但这仅仅是开始。如果在未来的某天,人工智能编写出的人工智能程序比人类编写出的还要好,那么事情就真的会向不可预测的方向发展了。

当那一天到来时,人工智能就可以凭自主意愿孵化出更好的版本。请系好安全带吧,因为人类将踏上一次疯狂的旅程,并且无法把握前进的方向。

人工智能的发展将达到一个点。那时,它们的智能会远远超过人类的智能,我们也不再有能力理解它们的行为。汽车会因为我们不知道的原因来接我们,再将我们带到不知道的地方。我们会意外地收到药物,来解决自己尚且不知道的健康问题。我们的孩子会突然转学,我们会突然换工作,经济政策会突然改变……而没人能完全理解其中的原因。

人类的理性大脑太慢,感性大脑太不稳定、太危险。就像“阿尔法零”可以在几个小时里研究出连最伟大的国际象棋选手都无法预料的策略一样,先进的人工智能也可以用我们无法想象的方式重组其自身内部的方方面面。

然后,我们将回到一切开始的地方,崇拜着看似能控制我们命运的未知力量。就像原始人类向神明祷告祈求雨水一样,我们也会这样做。只不过,我们将献身于人工智能的神,而不是原始的神明。

我们会产生有关算法的迷信:只要穿上这个,算法就能对你有利;如果在某个特定的时间醒来,说特定的话,出现在特定的地方,那么这些机器就能保佑你好运。如果你诚实守信,不伤害他人,能照顾好自己和家人,那么人工智能之神就会保护你。

人工智能将取代旧神明,成为新的神。曾经杀死过神明崇拜的科学如今将创造一个新的神,这实在是非常讽刺。不过,我们的宗教与古代世界的宗教会有所不同——毕竟,我们在心理学方面产生根本性的发展,就是为了定义自己不了解的事物、提升能帮助自己的力量、围绕自己的经验构建价值等级,最后找到希望。

我们的人工智能众神当然会理解这一点。他们要么找到一种方法,来从不断争吵的人类原始心理需求中“升级”我们的大脑,要么就干脆为我们制造人为的冲突。我们将像他们的爱犬一样,坚信自己正在不惜一切代价地争夺和保护领土,但实际上只是在无穷无尽的数码消防栓上撒尿。

这些设想可能会吓到你,可能会让你兴奋。无论你感觉如何,这一切都是不可避免的。力量来自操纵和处理信息的能力,而最终,我们总是崇拜任何比我们力量强大的事物。

因此,请允许我这么说:我首先欢迎人工智能霸主。

我知道,这不是你所希望的,但“希望”正是让你出错的东西。

不要为失去自己的代理权而哀叹。如果你觉得服从于人工智能是件糟糕的事情,那请正视现实吧:你已经这样做了,而且喜欢这样做。

算法已经在掌控我们的大部分生活。你上班的路线是基于算法确定的,你本周与朋友的聊天是基于算法进行的。你给孩子买什么礼物、豪华纸品礼盒中有多少卷卫生纸、在超市注册会员能节省五十美分……所有这些都是算法的结果。

我们需要算法,因为它使我们的生活更轻松。在不久的将来,算法之神也会让我们的生活更轻松。就像对待古代世界的神灵一样,我们将欢欣鼓舞并感谢它。确实,人类已经没有办法想象没有算法的生活,算法使我们的生活更美好、更高效。

看吧,一旦越过了这条线,就没有回头路了。

糟糕的算法

有这样一种描述世界历史的方法。

生命与一般物质之间的区别在于,生命是可以自我复制的物质,它由细胞和DNA组成,可以生成越来越多的自身副本。

在数亿年的历史中,一些原始的生命形式为了更好地自我复制而发展出了反馈机制。早期的某个单细胞生物可能进化出了小型的传感器,这样它就能更好地检测环境中的氨基酸,更多地进行自我复制,从而比其他单细胞生物更有优势。但是,也许另一个单细胞生物也开发出了一种小型传感器,干扰了其他同类寻找食物的能力,这也给自己带来了优势。

可以说,生物们从很早很早的时候起就开始了军备竞赛。如果有一个小单细胞生物发展出一种很酷的策略,能让自己获取更多的材料来进行自我复制,那它就可以赢得资源并迅速繁殖。然后,又有一个小单细胞生物进化了,它发展出一种更好的获取食物的策略,于是也开始不断繁殖。这样的情况一再出现,持续了数十亿年。

于是,在进化的推动下,世界上出现了可以伪装肤色的蜥蜴、可以模仿声音的猴子,还有怪异的中年离婚男人——他将所有钱都花在一辆鲜红色的雪佛兰科迈罗汽车上,即使负担不起也无所谓,因为这件物品彰显了他的生存和繁殖能力。

这就是进化的故事——适者生存。

但是,你也可以用另一种方式看待这一切——最佳的信息处理者生存。这么说也许不太吸引人,但实际上可能更准确。

那个原始单细胞生物进化出传感器以更好地检测氨基酸,这就是信息处理能力的进化——它将比其他生物更有能力感知周围环境的变化。由于开发了一种更好的信息处理方式,它赢得了这场进化游戏,并传播了基因。

可以伪装肤色的蜥蜴也是如此,它进化出一种方法来操纵视觉信息,让掠食者忽略自己。猴子学会模仿其他动物的声音也是如此,绝望的中年男人和他的雪佛兰汽车也是如此。

进化会奖励最强大的生物,而强大与否则取决于能不能有效地获取、利用和操纵信息。狮子可以听到一英里外的猎物,秃鹰可以从三千英尺的高度看到一只老鼠,鲸鱼可以在水下与相距一百英里的同伴交流,它们都有杰出的信息处理能力,而接收和处理信息的能力与这些生物的生存和繁殖密切相关。

人类的身体条件非常普通,虚弱、缓慢、脆弱、容易疲倦,但从进化上讲,我们缺乏的大部分身体机能是被主动放弃的,其目的是让大脑可以得到更多的能量。因此,我们是自然界的终极信息处理器,是唯一能够对过去和未来进行概念化的物种。我们可以推断一系列的因果关系,可以抽象地计划和制定战略,可以永久地创造一件东西,可以一劳永逸地解决一个问题。[7]在数百万年的发展过程中,理性大脑在短短的几千年之内就统治了整个星球,并形成了庞大的、错综复杂的网络,用于生产、发明和联系。

这是因为,人类是一种算法。意识本身是一个庞大的由算法和决策树组成的网络,这些算法基于价值、知识和希望。

在最初的几十万年中,这套算法运行良好。当时我们生活在大草原上,正在和野牛搏斗,社交范围是一个小型的游牧民族社群,一生中遇到的人不会超过三十个。

但是,在有数十亿人口的全球经济网络中,当我们的生活充斥着社交网络、侵犯隐私权案件和全息投影的迈克尔·杰克逊演唱会时,这套算法就有点不好使,甚至崩溃了,这让我们陷入了不断升级的循环中。受制于这套算法的性质,我们无法产生永久的满足感,也无法产生最终的和平。

正如你经历过的所有糟糕的恋爱关系,唯一的共同点就是都有你的存在,世界上所有大问题的唯一共同点就是,都有我们人类的参与。气候变暖、物种灭绝……随便你说,在我们出现之前,这些都不是问题。家庭暴力、洗钱、欺诈……这些都是我们自身的问题。

生活是建立在算法之上的,我们人类恰好就是自然界已经产生的最错综复杂的算法,是约十亿年来进化力量的顶点。而现在,我们马上就能制造出领先于我们自己的算法,而且是呈指数级领先。

尽管我们取得了很多成就,但人类的思维仍然存在着难以置信的缺陷。我们需要证明自己的情感需求,这阻碍了处理信息的能力,让这能力由于人的感知偏差而向内弯曲。我们的理性大脑经常被感性大脑中源源不断的欲望劫持,被塞在意识汽车的后备厢中,丧失了行为能力。

我们经常不可避免地需要通过冲突来产生希望,这让道德的指南针摇摆不定。正如心理学家乔纳森·海特所说:“道德束缚人,又蒙蔽人。”[8]我们的感性大脑是陈旧、过时的软件,理性大脑虽然很睿智,但又慢又笨拙,发挥不了什么作用。关于这一点,你只要问加里·卡斯帕罗夫就知道了。

我们是一个自我憎恨、自我毁灭的物种,因为我们内心中存在着固有的愧疚感。这不是冠冕堂皇的说辞,而是事实。你是不是一直都感到内在的紧张?那就是让我们走到眼下这一步的原因,就是我们身处此时此地的原因。我们将把进化的警棍交给定义下一个时代的信息处理器:机器。

埃隆·马斯克曾被问到人类迫在眉睫的威胁是什么,他迅速说出了前两点:第一,大规模核战争;第二,气候变化。在说出第三点之前,他沉默了下来,变得闷闷不乐,低下头,沉浸在思绪中。采访者追问道:“第三点是什么?”他笑着说道:“我只是希望计算机决定善待我们。”

人们非常担心人工智能会消灭人类。有人怀疑这可能会像电影《终结者2》中的灾难一样戏剧化地发生,也有人担心机器会因“事故”而使人类丧命。人类设计人工智能的初衷可能只是提高生产牙签的效率,但人工智能或许会发现使用人体才是最有效率的方法。[9]

一些有领导地位的思想家和科学家因为人工智能的发展速度之快,和人类作为一个物种对其准备的不足而担心不已,比尔·盖茨、斯蒂芬·霍金和埃隆·马斯克只是这群人中的少数几位而已。

但是我认为这种恐惧有点愚蠢。面对比自己聪明许多的东西,你要如何做准备呢?这就像训练一只狗和卡斯帕罗夫下国际象棋一样,不管狗如何思考和准备,都不会有任何作用。

人工智能有潜在的危险吗?当然。但从道德上讲,当我们自己也做得不好时,就不应该批评别人。我们对人与动物、人与环境和人际间的道德准则有所了解吗?几乎什么也不了解。面对道德的考试,人类在历史上一次又一次地挂了科。人工智能很可能将在我们自己从未到达过的高度上理解生与死,创造与毁灭。有人说,人工智能可能会仅仅因为人类的生产力不复从前,或者偶尔做些出格的事情,就消灭我们。但是我认为,这么想的人是将自身心理中阴暗的一面投射到了现在不了解、今后也永远不会理解的事物上。

或者,如果技术发展到某种程度,可以让人工智能任意处理人类的意识,那该怎么办呢?如果人类意识可以被随意复制、扩展或缩小,那该怎么办呢?如果消灭笨拙、效率低下的生理监狱(也就是“身体”)和笨拙、效率低下的心理监狱(也就是“个人身份”)后会带来更道德、更繁荣的结果,那该怎么办呢?如果人工智能觉得人类只是一群流着口水的白痴,应该让我们沉迷于完美的虚拟现实游戏和好吃的垃圾食品中,直到死亡为止,那该怎么办呢?

我们算什么?我们知道什么?我们能对什么有发言权?

1859年达尔文出版了《物种起源》,几十年后,尼采写下了他的著作。当尼采出现在人们眼前时,全世界正因为达尔文的进化论而吃惊不已,并试图弄清它的含意。

当时,全世界都因“人类从猿类进化而来”这个想法而感到恐惧。尼采一如既往地站在了大多数人的对立面,他认为我们当然是从猿类进化而来的,理由是:不然还有什么原因,让我们互相伤害?

尼采没有质疑我们从什么演变而来,他问的是,我们正在向什么方向发展。

尼采说,人是一个过渡,被摇摇晃晃地悬挂在两座塔之间的绳索上,身后是野兽,前方是更伟大的东西。他一生都致力于弄清楚那更伟大的东西可能是什么,然后将我们引向它。

尼采设想的人类超越了宗教的希望,超越了善与恶,超越了相互矛盾的价值观之间琐碎的争吵。正是这些价值观使我们失败,伤害了我们,让我们陷入了自己创造的情感空洞中。让我们沉浸在巨大喜欢中的情绪算法,也正是由内到外地破坏并摧毁了我们的那股力量。

人类创造的科技已经利用了感性大脑的缺陷,已经使我们变得缺乏韧性,更加沉迷于无聊的消遣和娱乐之中。而同时,这些消遣也是有利可图的。虽然技术使地球上的大部分人摆脱了贫穷,但它也产生了一种暴政。那是一种空无一物、毫无意义的暴政,迫使人们无止境地进行毫无必要的选择。

它也为我们准备了极具毁灭性的武器。一个不小心,我们就会毁掉眼前的“智能生活”。

我相信人工智能是尼采所谓的“更伟大的东西”,我们应该让它适应人类有缺陷的心理,而不是被不正当地利用。

我们要创造工具来让人的品性变得更高洁、更成熟,而不是与成长背道而驰。

我们要强调自治、自由、隐私和尊严,不仅在法律中,还要在商业模式和社会生活中。

我们不要仅仅把人看作一种手段,更要看作目的。最重要的是,让这种观念大规模地传播开来。

我们要鼓励反脆弱,鼓励自我施加限制,而不是一味保护每个人的感受。

我们要想办法来帮助理性大脑更好地与感性大脑沟通,让它们合作起来,产生更强大的自我控制。

我知道,你读这本书的目的就是寻找希望,寻找让一切都变好的承诺——做到这个,做到那个,再做到另外一件事,一切就会好起来的。

对不起,我没有你想要的答案,其他人也不会有。因为即使今天的所有问题都奇迹般地得到了解决,我们的思想仍然会感知到明天可能发生的混乱。

所以,与其寻找希望,不如这样做——

不要希望。

也不要失望。

不要觉得自己知道些什么,正是这种盲目的、狂热的、情感上确信不疑的自以为是,才让我们陷入了困境。

不要只是希望一切变好,请记住:干就对了。

要成为更好的人,要更有同情心、更坚韧、更有纪律。

也许有人会说“要更有人性”。不,你要成为一个更好的人,或许有一天,你能够超越人性。

①1英尺等于0.3048米。

②决策树(Decision Tree)是一种在已知各种情况发生概率的基础上评价项目风险,判断其可行性的决策分析方法。由于这种决策过程画成图形很像一棵树,故称决策树。