繁体
首页

第76章 评估和控制技术(8)(2 / 3)

例如,麻省理工学院机器人研究员罗德尼·布鲁克斯(Rodney Brooks)建议,到2020年,医生可能会在我们的大脑中植入无线上网接口。他说,人们会习惯这样的做法,可能就和现在他们在商场里就可以做激光眼科手术一样自然。与心脏移植手术或心脏起搏器相比,这种植入设备会让一个人更加缺少人性吗?在未来的几十年,更高的智能会带来什么样的社会问题?当我们把人类和机器智能以这种亲密的方式结合,会产生什么样的哲学和伦理问题?

展望更远的将来,我们是否会把我们的大脑“下载到更长寿的机器人身体中?如果我们这样做,我们还可以被称作是人类吗?

技术奇点

技术奇点(technological singularity)这个术语指的是人工智能或一些组合的人机智能可能会发展到的某个地步,以至于我们无法理解在这个点上的另一边会是什么样的。计算机科学家维格(Vinge)认为,很可能会成真的是,“我们可以在相当近的将来,创造或成为在每一种智能或创造性的维度都能超越人类的一种生物。超越这样一个奇异事件之后的所有事件,都是我们难以想象的,就如扁形虫无法理解歌剧一样。”

有些技术人员欢迎这样的想法,在本世纪内,把人类转变成一种超级智能的、基因工程生物,这将是一种我们无法识别的物种。其他人则觉得它很可怕,且认为这不太可能发生。有些人看到这有可能对人类的生存产生潜在威胁。他们看到,机器自身可能会实现人类的智力水平,然后会迅速把它们自己提高到超人类的水平。一旦机器人可以改进自身的设计和创造更好的机器人,他们是不是就可能“胜过”人类?他们是否会取代人类,就像各种动物会取代其他动物一样?这会很快发生吗?比如说在未来20年左右的时间?

有两种估计会支持这些场景。一个是对人类大脑的计算能力的估计。另一种是基于摩尔定律的估计,即通过观察发现新的微处理器的计算能力大约每18至24个月会增加一倍。如果硬件能力还会继续以这样的速度发展,那么在大约2030年,计算机硬件将会同一个人的大脑能力一样强大,足以支持智能机器人所需要的计算能力需求。

无论是认为机器智能或人机智能的极端进展很可能会在不久的将来发生的人,还是那些批评这些想法的人,都提供了几个原因来说明它为什么可能不会发生。下面是其中的一些原因。首先,硬件的进步可能会放缓。第二,我们可能无法在未来几十年开发所必需的软件,或根本不可能开发这些软件。在人工智能领域的进展,尤其是在通用智能的领域的进展,已经远远比该领域开始时研究人员所预期的要慢。第三,关于人类大脑的“硬件”计算能力(复杂的神经元的计算能力)的估计可能比实际上要低很多。最后,一些哲学家认为,使用人工智能软件编程的机器人不可能复制人类心智的完全能力。

如何应对智能机器的威胁

无论该奇点是出现在几十年内,或之后,或根本不出现,许多相关领域的专家都预言,在你的生命期内,会出现通用的智能机器。根据它的定义,我们无法对该奇点之后的事情做任何准备,但是我们可以对更加缓慢的发展做一些应对。在前面的章节中,我们探讨的问题与更高的智能有关。那么软件错误或其他故障是否会杀死成千上万的人?如果黑客破解大脑呢?在人力所能及的智能与超智能之间,是否会出现非常大的区别?我们看到,在计算机系统中的安全性和隐私保护往往很薄弱,因为他们从一开始就没有加以认真设计。我们有必要在超智能系统和人类智能增强之前,提前开始考虑这些问题,这样可以使我们设计出最佳的保护方法。

比尔·乔伊(Bill Joy)是Sun公司的创始人之一,也是Berkeley Unix和Java编程语言的主要开发者。在他的文章《为什么未来不需要我们》[20]中,乔伊描述了他对机器人学、基因工程和纳米技术的担忧。他指出,这些技术将会比20世纪的技术(如核武器)更加危险,因为它们将会自我复制,而且并不需要稀有和昂贵的原材料和巨大的工厂或实验室。乔伊预言可能会出现影响深远的威胁,其中包括人类灭绝。