繁体
首页

第76章 评估和控制技术(8)(3 / 3)

那么,担心人类未来的专家,有没有提出什么样的保护建议?乔伊描述和批评了一些其他人的建议,然后给出了他自己的建议。太空爱好者建议建立太空殖民地。乔伊指出,这不会很快发生。如果是的话,它可能会拯救人类,但是无法拯救地球上的绝大多数人。如果殖民者把他们的现有技术带上,那么相同的威胁还会存在。第二个解决方案是,开发能阻止失控的危险技术的保护方法。未来学家弗吉尼亚·波斯特莱尔(Virginia Postrel)建议“一种弹性反应的组合”。乔伊认为,我们无法及时造出来这样的“盾牌”,而且即使我们能够造出来,它们也必然至少与它们应该保护我们免受威胁的技术是一样危险的。乔伊的建议是“放弃”,他的意思是,我们必须“通过限制我们对某些种类知识的追求,以限制开发太危险的技术”。他举例说,就像前面的例子,可以使用条约来限制某些种类的武器,以及美国单方面决定放弃发展生物武器。然而,放弃本身也拥有乔伊所反对的方法的弱点:它们是“不讨人喜欢或无法实现的,或两者兼而有之”。强制放弃如果不是不可能的,也会是非常困难的。乔伊承认,让他担忧的智能机器人和其他技术,也存在大量的潜在有益的应用,其中许多将拯救生命和改善生活质量。政府应该在什么时候停止对知识和发展的追求呢?伦理专家会拒绝参加一些人工智能应用程序的开发,但他们也面临在哪里划清界线的难题。假设我们使用的技术发展到一个地步,使我们在得到有用的应用程序的同时,还会受到法律和技术的安全控制。但是,我们将如何防止有远见或疯狂的科学家、黑客、青少年、激进政府或恐怖分子会规避管制,而超越被禁止的程度呢?乔伊设想的是我们需要一种规模空前的放弃验证程序,把它应用到网络空间和物理设施中,会严重破坏隐私、公民自由、商业自主和自由市场。因此,放弃不仅意味着我们可能会失去创新发展、有益的产品和服务。我们还将会失去许多基本的自由。

虽然我们可以在所有用以防止强大技术的建议中,都找到其缺陷,但这并不意味着我们应该忽视其风险。我们需要在各种不同建议中选择适当的元素,并尽我们所能开发出最好的保护措施。

“预测是困难的,尤其是关于未来。” [21]

7.4.4 一些观察

我们已经给出了一些论据,用来反对从一开始就要对新技术进行评估,或者干脆加以禁止的观点。这是否意味着,任何人都不应该对开发一项新技术的某个特定应用是好是坏做出决定?并非如此。前面的论据和实例表明了两件事:(1)我们对决定是否开发新技术的加以限制,或许可以限定到特定产品上;(2)我们下放决策过程,并把它变为非强制性,以减少失误的影响,避免害怕竞争的根深蒂固的公司对此加以操纵,以及防止对自由的侵犯。我们往往无法预测个别工程师、研究人员、程序员、企业家、风险资本家、顾客和青少年在他们的车库中鼓捣的时候所做出的决定,以及他们的决定会带来的结果,但是这样做会有较好的健壮性。根本的问题不是要对某个特定技术做什么决定。相反,它是为了选择一个好的决策过程,它最有可能得到人们想要的东西,尽管很难预测后果,它还能工作地很好,它尊重人们关于理想生活方式的个人意见的多样性,同时还可以做到相对较少的政治操纵。

当我们考虑最极端的潜在进展(例如超智能机器人)时,我们应该对其产生的可怕后果有多么肯定,才能够对有可能带来奇妙好处的技术和产品的开发加以限制呢?

本章练习

复习题

7.1 关于维基百科(Wikipedia)最主要的批评之一是什么?

7.2 我们应该用什么问题来评估计算机模型?

7.3 在发展中国家的农村地区提供互联网接入的一种最常见的用途是什么?

7.4 给出新勒德分子对电子商务的一个批评。

7.5 举一个例子,说明计算机在其中做出的预测是错误的。

练习题

7.6 考虑在一个社交媒体网站上,根据读者的投票来决定显示哪些新闻。它的网站经营者有没有道德上的义务确保选票不会被人收买?还是说这仅仅是一个良好的商业政策?或者说二者都有?