机器人的崛起会让人类屈居其下吗

伟大的思想家长久以来都害怕“技术奇点”,在这个点上,我们设计的机器将超越我们本身。托比·沃尔什解释了为什么这可能不会发生。

2014年,斯蒂芬·霍金告诉英国广播公司:“完全人工智能的发展可能意味着人类的终结……它将自行起飞,并以更快的速度重新设计自己。受到缓慢生物学演化限制的人类无法与之竞争,并终将被取代。”次年,他认为人工智能很可能“对人类来说要么是最好的事情,要么是最坏的事情”。

霍金的恐惧主要围绕着技术奇点这样一个想法。它的产生可以追溯到许多不同的思想家,包括计算机的创始人之一约翰·冯·诺伊曼,以及科幻小说作家弗诺·文奇。这个想法几乎在人工智能诞生的同时就出现了。1958年,数学家斯坦尼斯拉夫·乌拉姆写了一篇文章悼念不久前逝去的冯·诺伊曼,他回忆说:“其中一次谈话集中在不断加速的技术进步和人类生活方式的改变上,这给人们带来了接近某种基本奇点的感觉……越过这个奇点,正如我们所知,人类事务便无法继续下去。”

人类之所以成为主宰地球的物种,主要是因为我们非常聪明。许多动物比我们大,比我们跑得快,或比我们强壮。但是我们利用我们的智慧发明了工具,这些改变了我们的生活,并让我们主宰了地球。因此,认为那些会思考,甚至比我们更会思考的机器可能会篡夺我们的地位,也就不令人惊讶了。正如大象、海豚和熊猫的持续生存依赖于我们的善意一样,我们的命运可能取决于这些高级思考机器的决定。

摩尔定律预测,集成电路上的晶体管数量每两年将增加一倍,几十年来,它几乎做到了这一点。因此,人工智能经历指数增长也就是顺理成章的了。和我在人工智能领域的许多同事一样,我预测再过三四十年,人工智能就会实现超人类智能了。但是,还有几个强有力的原因认为技术奇点未必会发生。

“快速思维狗”论

硅元件的运算速率比我们的大脑快得多,而且根据摩尔定律,这种优势每两年左右增加一倍。但是速度本身并不能带来更高的智力。即使我能让狗更快速地思考,它也不太可能会下棋。它没有必需的心智结构、语言和抽象概念。史蒂芬·平克阐述了这一论点:“纯粹的处理能力并不是能够神奇地解决你所有问题的魔法粉。”

智力远不只是在某个问题上比别人思考得更快或更久而已。我们的机器现在学习得更快,能记住更大的数据集。更快的计算机肯定会帮助我们建立人工智能。但是,至少对人类来说,智力取决于许多其他东西,包括多年的经验和训练。只是通过在硅中调快时钟或增加更多的存储器,并不能缩短这一路径。

人类中心论

奇点理论假设人类智慧是一个特殊的点——一个临界点。如果说有一件事是我们都应该从科学史中学过的,那就是我们并不像自己想象的那么特殊。哥白尼告诉我们宇宙不是围绕地球旋转的。达尔文告诉我们,我们和其他类人猿没有什么不同。沃森、克里克和富兰克林揭示了主宰我们的DNA生命代码与主宰最简单的变形虫的生命代码是一样的。人工智能无疑会告诉我们,人类智慧本身也并没有什么特别之处。没有理由认为人类智慧是一个临界点,一旦越过它,智力就会迅速增长。

当然,人类的智力也是一个特殊的点,因为就我们目前所知,人类是唯一能够造出比自己智力更高的人工制品的生物。但这并没有使我们成为一个转折点,越过这个点,机器就会不断地自我提升。我们没有理由假设人类的智慧足以设计出聪明绝顶,以至于开启技术奇点的人工智能。即使我们有足够的智慧来设计超越人类的人工智能,结果可能也不足以创造出技术奇点。提高智慧比仅仅拥有智慧要困难得多。

智力极限论

宇宙中有许多基本的极限。有些是物理上的:你不能把任何物体的速度加到超过光速,不能同时精确地知道物体的位置和动量,也无法知道放射性粒子何时会衰变等。我们建造的任何思维机器都会受到这些物理定律的限制。当然,如果这是一台电子机器,或是量子机器的话,它们很可能就超越了我们人类大脑所受到的生物和化学的限制。然而,人工智能可能会遇到一些根本性的限制,其中一些可能是由于自然固有的不确定性。无论我们如何努力地思考一个问题,我们的决策水平都会有所限制。即使是超人类的智力,对下一次大乐透彩票结果的预测也不见得会比你更好。

“计算复杂性”理论

最后,对于许多计算问题,哪怕计算能力有了指数级的改进都不足以实际解决它们。计算机不能分析某些代码并确定它是否会停止,即“停机问题”。众所周知,“计算机和人工智能之父”艾伦·图灵证明了无论计算机分析代码的速度有多快或多好,这样的问题通常都是不可计算的。有些设想中的超级计算机可能会突破这些计算上的障碍。然而,这种设备能否存在仍然存在争议。

所以,有很多理由可以解释为什么我们无法见证技术奇点。我们需要做的可能只是不胜其烦地亲自为其编写程序。人工智能对我们的经济和社会的冲击可能没有霍金等人警告的那么可怕。然而,我们仍需要为这一冲击做好准备。如果我们以正确的方式使用人工智能,它将帮助所有人变得更健康、更富裕、更幸福。而如果我们做错了,人工智能则很可能是我们所犯过的最严重的错误之一。