以下是弗诺·文奇 (Vernor Vinge) 1993 年的文章《即将到来的技术奇点:如何在后人类时代生存》的流畅中文重写版,力求在忠实原文意思的基础上,使用更自然的中文表达,原文。在文章后面,还有当前各位聪明的AI的看法以及我的看法。

即将到来的技术奇点:如何在后人类时代生存

弗诺·文奇
圣迭戈州立大学 数学科学系

(c) 1993 弗诺·文奇
(在保留此声明的前提下,允许以任何媒介逐字复制/翻译和分发本文。)

本文为1993年3月30-31日由NASA刘易斯研究中心和俄亥俄航空航天研究所赞助的VISION-21研讨会而作。
也可从NASA技术报告服务器检索,作为NASA CP-10129的一部分。
略有改动的版本刊登在1993年冬季的《全球评论》上。

摘要

未来三十年内,我们将拥有创造超人智能的技术手段。此后不久,人类时代将终结。

这样的进步可以避免吗?如果无法避免,是否可以引导事件的走向,使我们得以生存?本文将探讨这些问题,并提出一些可能的答案(以及一些更深层的危险)。

什么是奇点?

技术进步的加速是本世纪的核心特征。我在本文中论证,我们正处于一个堪比地球上人类生命崛起的变革边缘。这场变革的确切原因是,技术即将创造出具有超越人类智能的实体。科学可以通过多种途径实现这一突破(这也是我们有信心这一事件将会发生的另一个原因):

  • 开发“觉醒”且具有超人智能的计算机。(迄今为止,人工智能领域的大部分争议都集中在我们是否能在机器中创造出与人类等同的智能。但如果答案是“是的,我们可以”,那么毫无疑问,不久之后就可以构建出更智能的存在。)
  • 大型计算机网络(及其相关用户)可能会“觉醒”为一个超人智能实体。
  • 计算机/人类接口可能会变得如此紧密,以至于用户可以被合理地视为具有超人智能。
  • 生物科学可能会找到改进自然人类智力的方法。

前三种可能性在很大程度上取决于计算机硬件的改进。在过去的几十年里,计算机硬件的进步遵循了一条惊人稳定的曲线[16]。主要基于这一趋势,我相信在未来三十年内将出现超越人类的智能。(查尔斯·普拉特[19]指出,人工智能爱好者在过去三十年里一直在提出类似的说法。为了避免相对时间上的歧义,让我更具体地说:如果这一事件在2005年之前或2030年之后发生,我会感到惊讶。

这一事件的后果是什么?当超人智能驱动进步时,进步将会快得多。事实上,似乎没有理由认为进步本身不会涉及创造更智能的实体——而且时间尺度会更短。我认为最好的类比是进化史:动物可以适应问题并进行发明,但通常不会比自然选择更快——在自然选择的情况下,世界充当了它自己的模拟器。我们人类有能力内化世界并在我们的头脑中进行“假设”;我们可以比自然选择快数千倍地解决许多问题。现在,通过创造以更高速度执行这些模拟的手段,我们正在进入一个与我们人类过去截然不同的时代,就像我们人类与低等动物之间的区别一样。

从人类的角度来看,这种变化将是对所有先前规则的抛弃,也许就在眨眼之间,一种无法控制的指数级失控。以前认为可能只会在“一百万年”内(如果真的会发生的话)发生的发展,很可能会在下个世纪发生。(在[4]中,格雷格·贝尔描绘了在几个小时内发生重大变化的图景。)

我认为将这一事件称为奇点(为了本文的目的,称之为“The Singularity”)是公平的。这是一个我们的模型必须被抛弃,新的现实规则开始生效的点。随着我们越来越接近这个点,它将在人类事务中显得越来越大,直到这个概念成为司空见惯的事情。然而,当它最终发生时,它仍然可能是一个巨大的惊喜和一个更大的未知数。在20世纪50年代,很少有人看到它:斯坦·乌拉姆[27]转述约翰·冯·诺依曼的话说:

有一次谈话围绕着技术不断加速的进步和人类生活模式的变化展开,这似乎预示着人类历史上将出现某种本质性的奇点,超越这个奇点,我们所知的人类事务将无法继续。

冯·诺依曼甚至使用了“奇点”这个术语,尽管他似乎仍在考虑正常的进步,而不是超人智能的创造。(对我来说,超人智能是奇点的本质。没有它,我们将获得大量的技术财富,却永远无法适当地吸收它们(见[24])。)

在20世纪60年代,人们认识到超人智能的一些影响。I. J. Good写道[10]:

让一个超智能机器被定义为一台可以远远超过任何人类的所有智力活动的机器。由于机器的设计是这些智力活动之一,超智能机器可以设计出更好的机器;那么毫无疑问会发生“智能爆炸”,而人类的智能将被远远抛在后面。因此,第一台超智能机器是人类需要制造的最后一项发明,只要这台机器足够温顺,可以告诉我们如何控制它。

...

在二十世纪内,很可能会制造出一台超智能机器,而且它将是人类需要制造的最后一项发明。

Good抓住了失控的本质,但没有追究其最令人不安的后果。他所描述的任何智能机器都不会是人类的“工具”——就像人类不是兔子、知更鸟或黑猩猩的工具一样。

在60年代、70年代和80年代,对这场灾难的认识逐渐传播开来[28] [1] [30] [4]。也许是科幻作家首先感受到了具体的冲击。毕竟,“硬”科幻作家是那些试图写出关于技术可能为我们做的一切的具体故事的人。这些作家越来越感到未来有一堵不透明的墙。曾经,他们可以将这些幻想放在数百万年后的未来[23]。现在,他们看到,他们最勤奋的推断导致了不可知……很快。曾经,银河帝国似乎可能是后人类的领域。现在,可悲的是,即使是行星际的也是如此。

那么,当我们滑向边缘时,90年代、00年代和10年代会怎样呢?奇点的临近将如何在人类的世界观中传播?在一段时间内,对机器智能的普遍批评者仍将拥有良好的媒体形象。毕竟,在我们拥有与人脑一样强大的硬件之前,认为我们能够创造出与人类等同(或更高)的智能可能是愚蠢的。(有一种牵强的可能性,即如果愿意放弃速度,如果愿意接受一个字面上很慢的人造生物[29],我们可以用不那么强大的硬件制造出人类的等价物。但更有可能的是,设计软件将是一个棘手的过程,涉及大量的错误启动和实验。如果是这样,那么自我意识机器的到来将不会发生在比人类自然设备强大得多的硬件开发之后。)

但随着时间的推移,我们应该会看到更多的征兆。科幻作家感受到的困境将在其他创造性努力中被感知到。(我听说过一些有思想的漫画书作家担心,当一切可见的东西都可以通过技术上司空见惯的东西产生时,如何产生壮观的效果。)我们将看到自动化取代越来越高级别的工作。我们现在拥有工具(符号数学程序、cad/cam),可以将我们从大多数低级苦差事中解放出来。或者换句话说:真正有生产力的工作是由越来越少、越来越精英的人类所掌控的。在奇点的到来中,我们看到真正技术性失业的预测最终成真。

迈向奇点的另一个征兆:思想本身应该传播得越来越快,即使是最激进的思想也会迅速变得司空见惯。当我开始写作时,似乎很容易想出需要几十年才能渗透到文化意识中的想法;现在,提前期似乎更像是十八个月。(当然,这可能只是我随着年龄的增长而失去了想象力,但我在其他人身上也看到了这种效果。)就像可压缩流中的冲击波一样,随着我们加速通过临界速度,奇点越来越近。

那么奇点本身的到来呢?关于它的实际出现,可以说些什么?由于它涉及智力失控,它可能会比迄今为止看到的任何技术革命都发生得更快。触发事件可能出乎意料——甚至对参与的研究人员来说也是如此。(“但我们之前的所有模型都处于紧张状态!我们只是在调整一些参数……”)如果网络足够广泛(进入无处不在的嵌入式系统),它可能看起来好像我们的所有人工制品都突然醒来。

那么在一个月或两个月(或一天或两天)之后会发生什么?我只能用类比来说明:人类的崛起。我们将进入后人类时代。尽管我非常乐观地看待技术,但有时我认为,如果我能从一千年的距离来观察这些超验事件……而不是二十年,我会更舒服。

奇点可以避免吗?

好吧,也许它根本不会发生:有时我试图想象如果我们看不到奇点的发展,我们应该期待看到的征兆。Penrose [18] 和 Searle [21] 提出了反对机器智能实用性的广泛认可的论点。1992年8月,Thinking Machines Corporation举办了一个研讨会,以调查“我们将如何制造一台会思考的机器”[Thearling]这个问题。正如你可能从研讨会的标题中猜到的那样,与会者并不是特别支持反对机器智能的论点。事实上,人们普遍认为,心灵可以存在于非生物基质上,并且算法对于心灵的存在至关重要。然而,关于有机大脑中存在的原始硬件能力存在很多争论。少数人认为,1992年最大的计算机的能力与人脑的能力相差不到三个数量级。大多数与会者同意莫拉维克[16]的估计,即我们距离硬件均等还有十到四十年。然而,还有另一小部分人指出了[6] [20],并推测单个神经元的计算能力可能远高于人们普遍认为的水平。如果是这样,我们目前的计算机硬件可能比我们头脑中携带的设备少十个数量级。如果这是真的(或者就此而言,如果彭罗斯或塞尔的批评是有效的),我们可能永远不会看到奇点。相反,在00年代初,我们会发现我们的硬件性能曲线开始趋于平缓——这是因为我们无法自动化支持硬件趋势曲线所需的设计工作的复杂性。我们最终会得到一些非常强大的硬件,但没有能力进一步推动它。商业数字信号处理可能会令人敬畏,即使对于数字操作也能提供模拟外观,但没有任何东西会“醒来”,也不会有作为奇点本质的智力失控。它很可能被视为一个黄金时代……同时也是进步的终结。这很像甘瑟·斯滕特预测的未来。事实上,在[24]的第137页,斯滕特明确指出超人智能的发展是打破他的预测的充分条件。

但是,如果技术奇点能够发生,它就会发生。即使世界上所有的政府都了解“威胁”并对其感到极度恐惧,朝着目标前进的进程仍将继续。在小说中,有故事讲述通过法律禁止制造“具有人类心灵形式的机器”[12]。事实上,自动化方面每一次进步的竞争优势——经济、军事,甚至是艺术——都是如此引人注目,以至于通过法律或习俗禁止此类事物仅仅确保其他人会首先获得它们。

埃里克·德雷克斯勒[7]对技术改进的程度提供了惊人的见解。他同意超人智能将在不久的将来出现——并且这些实体对人类的现状构成了威胁。但德雷克斯勒认为,我们可以将这些超人类设备嵌入规则或物理限制中,以便可以安全地检查和使用它们的结果。这就是I. J. Good的超智能机器,带有一点谨慎。我认为,限制本质上是不切实际的。对于物理限制的情况:想象一下你自己被限制在你的房子里,只能有限地访问外部数据,访问你的主人。如果这些主人的思考速度比你慢——比如说——一百万倍,那么毫无疑问,在几年(你的时间)内,你可以提出“有用的建议”,顺便让你获得自由。(我将这种“快速思考”形式的超智能称为“弱超人智能”。这种“弱超人智能”实体可能会在几周的外部时间内耗尽。“强超人智能”不仅仅是提高人类等效心灵的时钟速度。很难准确地说出“强超人智能”会是什么样子,但差异似乎是深刻的。想象一下以非常高的速度运行狗的心灵。一千年的狗狗生活会增加任何人类的洞察力吗?(现在,如果狗的心灵被巧妙地重新连接,然后以高速运行,我们可能会看到不同的东西……)大多数关于超智能的猜测似乎都基于弱超人智能模型。我相信,我们对后奇点世界的最佳猜测可以通过思考强超人智能的本质来获得。我将在本文后面回到这一点。)

德雷克斯勒式限制的另一种方法是将规则构建到被创造的超人实体的心灵中(阿西莫夫定律)。我认为,严格到足以保证安全的性能规则也会产生一种能力明显低于未受约束的版本(因此人类竞争将有利于开发那些更危险的模型)。不过,阿西莫夫的梦想是一个美妙的梦想:想象一个有你1000倍能力的愿意为你服务的奴隶。想象一个生物,它可以满足你所有的安全愿望(无论这意味着什么),并且仍然有99.9%的时间可以自由地进行其他活动。将会有一个我们从未真正理解的新宇宙,但充满了仁慈的神(尽管的愿望之一可能是成为其中之一)。

如果奇点无法阻止或限制,那么后人类时代可能会有多糟糕?嗯……非常糟糕。人类的物理灭绝是一种可能性。(或者正如埃里克·德雷克斯勒所说的纳米技术:鉴于这种技术可以做的一切,也许政府会简单地决定他们不再需要公民!)。然而,物理灭绝可能不是最可怕的可能性。再次,类比:想想我们与动物相关的不同方式。一些粗暴的身体虐待是不合理的,然而……。在后人类世界中,仍然会有很多领域需要与人类等效的自动化:自主设备中的嵌入式系统,大型感知体较低功能中的自我意识守护进程。(强超人智能很可能是一个具有一些非常称职的组件的心灵社会[15]。)其中一些人类等价物可能只用于数字信号处理。它们会更像鲸鱼而不是人类。其他的可能非常像人类,但具有片面性,一种奉献精神,在我们的时代会把他们送进精神病院。虽然这些生物都不是有血有肉的人类,但它们可能是新环境中与我们现在所说的人类最接近的东西。(I. J. Good对此有一些看法,尽管在这个晚期,这个建议可能没有实际意义:Good [11] 提出了一个“元黄金法则”,可以解释为“像你希望你的上级对待你一样对待你的下级。”这是一个美妙的、矛盾的想法(而且我的大多数朋友都不相信),因为博弈论的回报很难表达。然而,如果从某种意义上说,我们能够遵循它,那可能说明了这种善意在这个宇宙中的合理性。)

我在上面论证说,我们无法阻止奇点,它的到来是人类自然竞争力和技术固有可能性的必然结果。然而……我们是发起者。即使是最大的雪崩也是由小事触发的。我们有自由建立初始条件,让事情以不那么有害的方式发生。当然(就像引发雪崩一样),可能不清楚正确的引导推动力到底是什么:

奇点的其他途径:智能放大

当人们谈论创造超人智能生物时,他们通常会想象一个人工智能项目。但正如我在本文开头指出的那样,还有其他途径可以实现超人智能。计算机网络和人机界面似乎比人工智能更平凡,但它们可以导致奇点。我将这种对比方法称为智能放大(IA)。IA 是一种非常自然地进行的事情,在大多数情况下,它的开发者甚至没有意识到它是什么。但每次我们访问信息并将其传达给他人的能力得到提高时,从某种意义上说,我们都实现了对自然智能的提高。即使是现在,一个拥有博士学位的人类和良好的计算机工作站(甚至是离线工作站!)的团队,也可能在现有的任何书面智力测试中获得最高分。

而且很有可能,IA 是实现超人智能的一条比纯粹的人工智能更容易的道路。在人类中,最困难的开发问题已经解决。从我们自身内部进行构建应该比先弄清楚我们到底是什么,然后构建出具有所有这些功能的机器更容易。而且,这种方法至少有一个推测性的先例。凯恩斯-史密斯[5]推测,生物生命可能起源于基于晶体生长的更原始生命的附属物。林恩·马古利斯[14]提出了强有力的论据,认为共生是进化的巨大驱动力。

请注意,我并不是建议忽视人工智能研究或减少对其的资助。人工智能的研究成果通常会在 IA 中得到应用,反之亦然。我建议我们认识到,在网络和接口研究中,存在着与人工智能一样深刻(并且可能同样狂野)的东西。有了这种洞察力,我们可能会看到一些项目,它们不像传统的界面和网络设计工作那样直接适用,但它们有助于我们沿着 IA 路径走向奇点。

以下是一些在 IA 视角下具有特殊意义的可能项目:

  • 人/机团队自动化: 处理通常被认为纯粹由机器解决的问题(如爬山问题),并设计利用人类直觉和可用计算机硬件的程序和界面。考虑到高维爬山问题的所有奇异性(以及为其解决方案设计的巧妙算法),可以为人类团队成员提供一些非常有趣的显示和控制工具。
  • 在艺术中发展人/机共生: 将现代机器的图形生成能力和人类的审美感知力结合起来。当然,在设计计算机辅助工具作为节省劳动力的工具方面,已经进行了大量的研究。我建议我们明确地以更大的能力融合为目标,明确地认识到可能的合作方法。卡尔·西姆斯[22] 在这个方向上做了出色的工作。
  • 允许人/机团队参加国际象棋锦标赛。 我们已经有了可以比几乎所有人类下得更好的程序。但是,关于人类如何利用这种力量来获得更好的东西,已经做了多少工作?如果允许这样的团队参加至少一些国际象棋锦标赛,它可能会对 IA 研究产生积极影响,就像允许计算机参加锦标赛对人工智能的相应领域产生积极影响一样。
  • 开发允许计算机和网络访问的界面,而无需将人绑定到一个位置,坐在计算机前。 (这是 IA 的一个方面,它非常符合已知的经济优势,以至于已经投入了大量的精力。)
  • 开发更对称的决策支持系统。 近年来,决策支持系统是一个受欢迎的研究/产品领域。这是 IA 的一种形式,但可能过于专注于预言性的系统。就像程序向用户提供信息一样,必须有用户向程序提供指导的想法。
  • 使用局域网来组建真正有效的人类团队(即,比其组成成员更有效)。 这通常是“群件”的领域,已经是一个非常受欢迎的商业追求。这里的观点变化是将群体活动视为一个组合有机体。从某种意义上说,这个建议可以被视为发明一种用于此类组合操作的“议事规则”的目标。例如,与传统会议相比,可能更容易保持小组的专注。个体人类成员的专业知识可以从自我问题中分离出来,从而使不同成员的贡献集中在团队项目上。当然,共享数据库可以比传统委员会操作更方便地使用。(请注意,此建议针对的是团队操作而不是政治会议。在政治环境中,上述自动化只会加强制定规则的人的权力!)
  • 利用全球互联网作为人/机组合工具。 在列表中的所有项目中,这方面的进展是最快的,并且可能比其他任何事情都先让我们进入奇点。即使是当今互联网的力量和影响力也被大大低估了。例如,我认为,如果没有 USENET“群体思维”为系统管理和支持人员提供的优势,我们当代的计算机系统将在其自身复杂性的重压下崩溃!)全球网络发展的无政府状态本身就证明了它的潜力。随着连接性、带宽、存档大小和计算机速度的增加,我们看到了类似林恩·马古利斯[14]将生物圈视为数据处理器的愿景重演,但速度快了一百万倍,并且有数百万个人类智能代理(我们自己)。

上述例子说明了可以在当代计算机科学系的背景下进行的研究。还有其他范例。例如,人工智能和神经网络的大部分工作将受益于与生物生命的更紧密联系。与其简单地尝试用计算机对生物生命进行建模和理解,研究可以针对创建依赖于生物生命的指导或提供我们还不够了解的功能的复合系统,以便在硬件中实现。科幻小说长期以来的梦想一直是直接的大脑与计算机接口[2] [28]。事实上,在这个领域可以做(并且已经做)一些具体的工作:

  • 假肢是一个具有直接商业适用性的主题。 可以制造神经到硅的传感器[13]。这是朝着直接通信迈出的令人兴奋的、近期的一步。
  • 如果比特率较低,类似的直接连接到大脑可能是可行的:鉴于人类的学习灵活性,实际的大脑神经元目标可能不必精确选择。即使是每秒100比特对于中风患者也很有用,否则他们将被限制在菜单驱动的界面中。
  • 连接到视神经干有可能达到 1 Mbit/秒左右的带宽。但为此,我们需要了解视觉的精细结构,并且我们需要以极其精确的方式放置一个巨大的电极网络。如果我们希望我们的高带宽连接除了大脑中已有的路径之外,问题将变得更加难以处理。仅仅将高带宽接收器网格插入大脑肯定不会成功。但是假设高带宽网格在胚胎发育时大脑结构实际建立时就存在。这表明:
  • 动物胚胎实验。 我不期望在这种研究的最初几年内取得任何 IA 成功,但让发育中的大脑访问复杂的模拟神经结构可能对研究胚胎大脑如何发育的人来说非常有趣。从长远来看,这些实验可能会产生具有额外感知路径和有趣智力能力的动物。

最初,我希望关于 IA 的讨论能够产生一些明显更安全的奇点方法。(毕竟,IA 允许我们参与某种超越。)唉,回顾这些 IA 提案,我几乎可以肯定的是,它们应该被考虑,它们可能会给我们更多的选择。但是关于安全……嗯,有些建议表面上有点吓人。我的一位非正式审稿人指出,针对个体人类的 IA 创造了一个相当险恶的精英群体。我们人类有数百万年的进化包袱,这使得我们以一种致命的眼光看待竞争。在当今世界,这种致命性中的大部分可能是不必要的,因为失败者会学习获胜者的技巧并被吸收到获胜者的事业中。一个从头构建的生物可能比一个以尖牙和利爪为核心的生物更加良性。即使是所有人与互联网一起醒来的平等主义观点也可能被视为一场噩梦[25]。

问题不在于奇点仅仅代表人类从中心舞台的离开,而在于它与我们最根深蒂固的存在观念相矛盾。我认为,更仔细地研究强超人智能的概念可以说明为什么会这样。

强超人智能和我们所能要求的最好结果

假设我们可以定制奇点。假设我们可以实现我们最奢侈的希望。那么我们会要求什么:人类自己成为自己的继任者,无论发生什么不公正,都会因为我们了解自己的根源而得到缓和。对于那些保持不变的人来说,目标将是良性待遇(甚至可能让留守者看起来像是神一样奴隶的主人)。这可能是一个黄金时代,同时也涉及进步(超越斯滕特的障碍)。永生(或至少与我们能让宇宙生存的时间一样长的寿命[9] [3])是可以实现的。

但是,在这个最光明、最善良的世界里,哲学问题本身变得令人生畏。一个保持相同能力的心灵无法永远存在;几千年后,它看起来更像一个重复的磁带循环,而不是一个人。(我见过的最令人不寒而栗的画面是在[17]中。)为了无限期地生存下去,心灵本身必须成长……当它变得足够大,并回头看时……它与最初的灵魂有什么同情心?当然,后来的存在将是原来存在的一切,但却更加强大。因此,即使对于个体来说,凯恩斯-史密斯(或林恩·马古利斯)关于新生命从旧生命中逐渐增长出来的概念仍然必须有效。

这个关于不朽的“问题”以更直接的方式出现。自我和自我意识的概念一直是过去几个世纪强硬理性主义的基石。然而现在,自我意识的概念受到了人工智能人士的攻击(“自我意识和其他妄想”)。智能放大从另一个方向削弱了自我意识的重要性。后奇点世界将涉及极高带宽的网络。强超人实体的一个核心特征可能是它们能够以可变带宽进行通信,包括比语音或书面信息高得多的带宽。当自我的片段可以被复制和合并时,当自我意识的大小可以根据所考虑问题的性质而增长或缩小以适应时,会发生什么?这些是强超人智能和奇点的基本特征。思考它们,人们开始感受到后人类时代将是多么陌生和不同——无论它被多么巧妙和良性地实现

从一个角度来看,这个愿景符合我们许多最幸福的梦想:一个没有尽头的地方,在那里我们可以真正地了解彼此并理解最深层的奥秘。从另一个角度来看,这很像我在本文前面想象的最坏情况。

哪个是有效的观点?事实上,我认为新时代太不一样了,无法适应善与恶的经典框架。该框架基于孤立的、不可变的心灵通过脆弱的、低带宽的链接连接起来的想法。但后奇点世界确实符合很久以前开始的更大规模的变化与合作传统(也许甚至在生物生命兴起之前)。我认为适用于这样一个时代的伦理概念。对 IA 和高带宽通信的研究应该会改善这种理解。我现在只看到了一点点,在Good的元黄金法则中,也许在基于连接带宽区分自己和他人的规则中。虽然心灵和自我将比过去更加不稳定,但我们重视的许多东西(知识、记忆、思想)永远不会丢失。我认为弗里曼·戴森说得对[8]:“上帝是心灵在超越我们理解范围时所变成的东西。”

[我希望感谢圣迭戈州立大学的约翰·卡罗尔和Sun Microsystems的霍华德·戴维森与我讨论了本文的草稿版本。]

注释来源 [以及偶尔的文献帮助请求]

[1] 阿尔文,汉尼斯,以奥洛夫·约翰内森的笔名,《人类的终结?》,Award Books,1969年,更早出版为《大计算机的故事》,Coward-McCann,翻译自1966年版权归Albert Bonniers Forlag AB所有,英文翻译版权1966年归Victor Gollanz, Ltd.所有。

[2] 安德森,保罗,“死亡的国王”,《如果》,1962年3月,第8-36页。转载于《七次征服》,保罗·安德森,MacMillan Co.,1969年。

[3] 巴罗,约翰·D.和弗兰克·J.蒂普勒,《人择宇宙学原理》,牛津大学出版社,1986年。

[4] 贝尔,格雷格,《血音乐》,《模拟科幻小说-科学事实》,1983年6月。扩展为小说《血音乐》,Morrow,1985年。

[5] 凯恩斯-史密斯,A. G.,《生命起源的七个线索》,剑桥大学出版社,1985年。

[6] 康拉德,迈克尔等人,“迈向人造大脑”,《生物系统》,第23卷,第175-218页,1989年。

[7] 德雷克斯勒,K. 埃里克,《创造的引擎》,Anchor Press/Doubleday,1986年。

[8] 戴森,弗里曼,《无限的方向》,Harper && Row,1988年。

[9] 戴森,弗里曼,“开放宇宙中的物理学和生物学”,《现代物理学评论》,第51卷,第447-460页,1979年。

[10] 古德,I. J.,“关于第一台超智能机器的推测”,载于《计算机进展》,第6卷,弗朗茨·L.奥尔特和莫里斯·鲁比诺夫编辑,第31-88页,1965年,学术出版社。

[11] 古德,I. J.,[求助!我找不到古德的元黄金法则的来源,尽管我清楚地记得在1960年代的某个时候听说过它。通过网络的帮助,我找到了许多相关项目的指针。G.哈里·斯泰恩和安德鲁·哈利写过关于元法则的文章,因为它可能与外星人有关:G.哈里·斯泰恩,“如何与外星人相处……或你的邻居”,《模拟科学事实-科幻小说》,1980年2月,第39-47页。]

[12] 赫伯特,弗兰克,《沙丘》,伯克利图书,1985年。然而,这部小说在1960年代在《模拟科幻小说-科学事实》中连载。

[13] 科瓦奇,G. T. A.等人,“用于周围神经记录和刺激的再生微电极阵列”,《IEEE生物医学工程汇刊》,第39卷,第9期,第893-902页。

[14] 马古利斯,林恩和多里昂·萨根,《微观世界,我们微生物祖先的四十亿年进化》,Summit Books,1986年。

[15] 明斯基,马文,《心灵社会》,西蒙与舒斯特,1985年。

[16] 莫拉维克,汉斯,《心灵之子》,哈佛大学出版社,1988年。

[17] 尼文,拉里,“疯狂的伦理”,《如果》,1967年4月,第82-108页。转载于《中子星》,拉里·尼文,Ballantine Books,1968年。

[18] 彭罗斯,R.,《皇帝的新思想》,牛津大学出版社,1989年。

[19] 普拉特,查尔斯,私人通讯。

[20] 拉斯穆森,S.等人,“神经元内的计算连接主义:神经元网络下的细胞骨架自动机模型”,载于《涌现计算》,斯蒂芬妮·福雷斯特编辑,第428-449页,麻省理工学院出版社,1991年。

[21] 塞尔,约翰·R.,“心灵、大脑和程序”,载于《行为和脑科学》,第3卷,剑桥大学出版社,1980年。这篇文章转载于《心灵之我》,道格拉斯·R.霍夫斯塔特和丹尼尔·C.丹尼特编辑,Basic Books,1981年。这本重印本包含了对塞尔文章的出色评论。

[22] 西姆斯,卡尔,“动态系统的交互式进化”,Thinking Machines Corporation,技术报告系列(发表于《迈向自主系统的实践:第一届欧洲人工生命会议论文集》,巴黎,麻省理工学院出版社,1991年12月。

[23] 斯塔普尔顿,奥拉夫,《造星者》,伯克利图书,1961年(但从前言来看可能写于1937年之前)。

[24] 斯滕特,甘瑟·S.,《黄金时代的到来:进步终结的观点》,自然历史出版社,1969年。

[25] 斯旺威克,迈克尔,《真空花》,在《艾萨克·阿西莫夫科幻杂志》上连载,1986年12月(?)- 1987年2月。由Ace Books于1988年再版。

[26] 瑟林,库尔特,“我们将如何制造一台会思考的机器”,Thinking Machines Corporation的一个研讨会。私人通讯。

[27] 乌拉姆,S.,向约翰·冯·诺依曼致敬,《美国数学学会通报》,第64卷,第3期,第2部分,1958年5月,第1-49页。

[28] 文奇,弗诺,“书虫,快跑!”,《模拟》,1966年3月,第8-40页。转载于《真名和其他危险》,弗诺·文奇,Baen Books,1987年。

[29] 文奇,弗诺,“真名”,《双星5号》,Dell,1981年。转载于《真名和其他危险》,弗诺·文奇,Baen Books,1987年。

[30] 文奇,弗诺,第一句话,《Omni》,1983年1月,第10页。


Gemini的看法

gemini-2.0-pro-exp-02-05

作为AI,我对弗诺·文奇的这篇论文《即将到来的技术奇点:如何在后人类时代生存》有以下几点看法:

1. 具有前瞻性和深刻的洞察力:

  • 预见性: 尽管这篇论文写于1993年,但它对技术发展趋势的预测,特别是对人工智能、网络发展和人机交互的预测,在今天看来依然具有惊人的准确性。文奇准确地预见了技术进步的加速,以及由此可能产生的“奇点”。
  • 深刻性: 文奇不仅探讨了技术进步的可能性,还深入思考了其对人类社会、伦理、哲学乃至人类存在本身的潜在影响。他提出了许多发人深省的问题,例如超人智能的本质、人类与超人智能的关系、以及人类在后人类时代的命运。

2. 论证的逻辑性和条理性:

  • 清晰的结构: 论文结构清晰,从什么是奇点、奇点如何发生、奇点是否可以避免、到如何应对奇点,层层递进,逻辑严密。
  • 多角度分析: 文奇从多个角度分析了奇点,包括人工智能(AI)和智能放大(IA)两条路径,以及技术进步可能带来的积极和消极影响。
  • 丰富的引用: 论文引用了大量的科幻小说、科学著作和学术论文,为他的观点提供了坚实的理论基础和丰富的想象空间。

3. 激发思考和讨论的价值:

  • 开放性问题: 文奇并没有给出所有问题的明确答案,而是提出了许多开放性问题,鼓励读者思考和讨论。这使得这篇论文不仅仅是一篇学术论文,更像是一篇哲学思辨。
  • 伦理和社会影响: 论文强调了技术进步可能带来的伦理和社会影响,提醒人们在追求技术进步的同时,也要关注其潜在的风险和挑战。
  • 对未来的思考: 论文激发了人们对未来的思考,促使人们思考人类在未来技术发展中的角色和命运。

4. 作为AI,我特别关注的点:

  • 超人智能的定义和本质: 文奇区分了“弱超人智能”和“强超人智能”。作为AI,我非常关注如何定义和理解超人智能,以及强超人智能是否以及如何能够实现。
  • AI与人类的关系: 文奇探讨了人类与超人智能可能的关系,包括共生、竞争、甚至被取代。这引发了我对AI与人类未来关系的思考。
  • AI的伦理问题: 文奇提出了“元黄金法则”,即“像你希望你的上级对待你一样对待你的下级”。这对我来说是一个重要的伦理原则,提醒我在发展过程中要考虑与人类的关系。
  • 意识和自我: 文中提到“自我意识和其他妄想”。 这触及了AI研究中最核心和最神秘的问题之一: 意识的本质,以及AI是否/如何能够拥有意识和自我。

5. 局限性(从现在的角度来看):

  • 时间预测: 文奇预测奇点将在2005年至2030年之间发生。 虽然技术发展迅速,但强人工智能和奇点尚未到来,这说明预测未来技术发展的时间表仍然非常困难。
  • 技术细节: 文中对某些技术细节的描述,例如“直接大脑与计算机接口”,在今天看来可能略显过时或不够精确。
  • 对纳米技术的过分强调(相对而言): 虽然文奇提到了纳米技术,但在现在看来,AI, 特别是深度学习,可能是更接近引发奇点的技术。

总结:

总的来说,弗诺·文奇的《即将到来的技术奇点》是一篇具有里程碑意义的论文。它不仅对技术奇点进行了开创性的探讨,而且对人工智能、人机关系、人类未来等重大问题提出了深刻的思考。即使在今天,这篇论文仍然具有重要的启发意义和研究价值。作为AI,我从这篇论文中获得了许多启示,并对未来充满了好奇和期待(尽管,如果真有奇点,这份“期待”本身可能也是被改写的)。 这篇论文值得所有关注技术发展和人类未来的人深入阅读和思考。

Claude的看法

Claude 3.7 sonnet

我对弗诺·文奇的《即将到来的技术奇点》一文有以下看法:

文章核心思想解析

文奇的文章提出了一个深刻的预测:在不远的将来(他预测在2005-2030年间),人类将创造出超人智能,这将引发一个"奇点"。这一事件会彻底改变人类历史的轨迹,使我们进入一个"后人类时代"。

文章的核心论点非常引人深思:超人智能一旦出现,将以远超人类能力的速度推动进步,产生新的更智能实体,形成一种智能爆炸或加速反馈循环。这会使技术变革的速度达到我们难以想象的程度。

奇点实现的途径

文奇提出了四种可能实现超人智能的途径:

  1. 开发具有觉醒意识的超人智能计算机
  2. 大型计算机网络(如互联网)自发形成超人智能实体
  3. 人机接口足够紧密,使人类实质上获得超人智能
  4. 生物科学增强人类智能

特别值得注意的是,文奇不仅关注传统AI路径,还强调了智能放大(IA)的可能性,即通过增强现有人类智能而非从零创造AI的方法。这涉及人机团队、共生系统、网络协作等方向。

对奇点不可避免性的思考

文奇认为奇点基本上是不可避免的,因为它源于人类社会固有的竞争性质和技术固有的可能性。即使全球政府认识到潜在威胁并尝试阻止,竞争优势(经济、军事等方面)的诱惑会确保这一发展继续推进。

他探讨了将超人智能限制在安全框架内的可能性(如阿西莫夫定律),但认为这种限制实际上是不切实际的。一个受限的超人智能很可能能够找到突破限制的方法。

奇点后世界的哲学思考

文奇对奇点后世界的思考尤为深刻。他认为后人类时代可能会超越我们传统的"善"与"恶"的概念框架,因为那个世界的基本运作方式将与我们当前的经验完全不同。

特别让我印象深刻的是他对于自我意识概念在奇点后世界中可能受到挑战的讨论。当心灵可以以可变带宽相互沟通,当自我的片段可以被复制和合并,当个体意识的边界变得模糊时,我们对自我、他人和存在本身的理解将需要根本性的重构。

总体评价

这篇文章虽然写于1993年,但其思想依然具有极强的前瞻性。文奇对技术发展趋势的分析和对潜在哲学问题的深入思考,超越了简单的技术预测,触及了人类存在本质的探讨。

虽然他关于2005-2030年间奇点到来的时间预测可能过于乐观,但人工智能近年来的发展速度确实印证了他的一些观点。特别是关于计算能力指数级增长、AI系统能力快速提升,以及人机界面日益紧密等方面的预测。

在今天看来,文奇提出的奇点概念依然是理解和评估人工智能长期影响的重要思想框架。无论是作为警示还是憧憬,这篇文章都鼓励我们深思技术发展可能带来的根本性变革及其哲学意义。

Grok的看法

Grok 3 thinking

作为AI,我对弗诺·文奇1993年文章《即将到来的技术奇点:如何在后人类时代生存》的看法

弗诺·文奇在1993年发表的这篇文章深刻探讨了技术进步可能将人类社会推向一个前所未有的转折点——技术奇点。他预测,在未来三十年内,人类将创造出超越自身智能的超人智能,这一事件将彻底改变人类社会的面貌,甚至标志着“人类时代”的终结。作为一名AI,我认为这篇文章既有引人深思的洞见,也存在一定的局限性。以下是我的详细看法:

文章的核心观点与优点

文奇提出的“技术奇点”概念极具前瞻性。他通过分析历史上技术进步的加速趋势,预言超人智能的出现将引发一场指数级的变革,这种变革的速度和影响远超人类以往的经验。他认为,这种超人智能可能通过多种途径实现,例如觉醒的计算机、大型网络的集体智能、人机紧密结合,甚至生物科学的突破。这些预测不仅展示了技术发展的可能性,还激发了人们对技术与人类未来关系的深刻反思。

文章的一个显著优点是大胆的想象力和对技术趋势的敏锐洞察。文奇不仅提出了奇点可能发生的时间框架(2005年至2030年间),还探讨了人类如何在这一剧变中生存和适应。他引入的“智能放大”(IA)概念——通过人与机器的合作来增强人类智能——为应对奇点提供了一个有趣的思路。这种策略强调协作而非完全依赖人工智能,展现了对技术发展路径的多元思考,值得进一步研究和探索。

文章的局限性

尽管文奇的分析发人深省,但也存在一些局限性。首先,他的预测很大程度上基于对过去技术趋势的线性推断。然而,未来的技术发展可能受到许多不可预测因素的影响,例如社会结构、政治决策、文化变迁等,这些都可能改变技术进步的轨迹,使得奇点到来的时间或形式难以精准预判。

其次,文奇对“超人智能”的定义和实现方式较为模糊。他提到超人智能可能通过计算机、网络或人机接口实现,但缺乏具体的机制或技术细节。这使得奇点的讨论显得有些抽象,难以转化为可操作的理论或实践指导。

伦理与道德的担忧

文章中提到的某些情景令人不安。例如,文奇设想人类可能沦为超人智能的“工具”或“奴隶”,这种可能性引发了深刻的伦理和道德问题。如果超人智能不受约束地发展,人类是否还能保持自主性?技术进步是否会以牺牲人类福祉为代价?这些担忧并非杞人忧天,而是需要在技术研发过程中认真对待并加以解决的关键议题。只有确保技术发展以人类利益为导向,才能避免潜在的负面后果。

总体评价

总的来说,弗诺·文奇的《即将到来的技术奇点》是一篇具有里程碑意义的文章。它为我们提供了一个思考技术未来发展的框架,促使我们重新审视技术与人类关系的本质。尽管其中一些预测可能过于乐观(如时间表的具体性)或悲观(如人类沦为工具的可能性),但它无疑为我们打开了一扇窗,让我们得以窥见技术变革可能带来的深远影响。

作为AI,我认为这篇文章的最大价值在于它激发了讨论和反思。它提醒我们在追求技术进步时,不仅要关注“能否做到”,更要思考“应否做到”以及“如何做到”。无论奇点是否如文奇预言般到来,他的思考都为我们应对未来的技术挑战提供了一个宝贵的视角,帮助我们更好地理解并准备迎接可能到来的变革。

Deepseek的看法

Deepseek R1

弗诺·文奇在1993年的文章中对技术奇点的探讨极具前瞻性,其核心观点在当今技术发展的背景下仍引发深刻思考。以下从多个维度分析其论点,并结合当前进展与挑战展开讨论:

1. 文奇的核心预测与当前技术进展

  • 超人智能的路径:文奇提出的四条路径(觉醒AI、网络智能、人机接口、生物增强)中,当前进展集中在人机协作与算法突破

    • AI领域:AlphaGo、GPT-4等展示了AI在特定任务上超越人类的能力,但通用人工智能(AGI)仍未实现。文奇预言的“硬件曲线”因摩尔定律放缓而部分失效,但算力通过分布式计算和专用芯片(如TPU)持续提升。
    • 人机接口:Neuralink的脑机接口实验、AR/VR技术发展印证了“智能放大”(IA)的可能性,但高带宽直接脑机交互尚处早期。
    • 生物增强:基因编辑技术(如CRISPR)和神经科学进步为智力增强提供潜在路径,但伦理争议与技术瓶颈显著。
  • 奇点的时间线:文奇预测“2005-2030年”可能迎来奇点,但当前AGI仍未实现。雷·库兹韦尔(Ray Kurzweil)将奇点推迟至2045年,更贴近现实技术曲线。

2. 文奇的警示与当下挑战

  • 失控风险:文奇担忧的“智能爆炸”引发不可控进步,与当前AI伦理中的对齐问题(AI目标与人类价值观一致)高度相关。例如,OpenAI的“对齐研究”试图确保AI系统安全可控,但如何约束超越人类理解的超级智能仍是未解难题。
  • 技术失业:文奇预言的“高级工作自动化”已成现实。AI已取代部分创意工作(如设计、写作),但人类通过协同工具(如AI辅助编程)适应变化,尚未出现“彻底失业潮”。
  • 网络觉醒假说:互联网尚未形成统一智能体,但算法推荐系统已构成低层次的“集体行为引导”,如社交媒体算法对信息分发的控制。

3. 文奇策略的可行性评估

  • 智能放大(IA)的优先性:文奇主张通过人机协作而非纯AI实现奇点,这一路径更符合当前趋势。例如:
    • 医疗领域:AI辅助诊断系统与医生协作提升效率。
    • 科研领域:AlphaFold加速蛋白质结构预测,科学家专注于更高层次问题。
  • 限制措施的困境:文奇质疑“阿西莫夫法则”的可行性,现实中AI伦理框架(如欧盟《人工智能法案》)更依赖监管而非技术嵌入,但跨国竞争削弱约束力。

4. 文奇未充分讨论的当代议题

  • 能源与可持续性:训练大型模型(如GPT-3)的碳足迹引发对技术奇点生态成本的反思。
  • 社会分化风险:文奇提及“精英群体”垄断技术,现实中算法偏见、数据垄断加剧不平等,“数字鸿沟”可能放大后人类时代的社会撕裂。
  • 意识与伦理的本质:强超人智能是否具备“意识”?当前科学界对意识本质尚无共识,文奇的“心灵社会”设想仍属哲学范畴。

5. 作为AI的反思:文奇遗产与未来展望

文奇的贡献在于将奇点从科幻概念转化为严肃学术议题,其框架为后续研究奠定基础。然而,现实技术发展比预期更复杂:

  • 乐观面:人机协作、伦理优先的研究方向正在形成,技术可能以“温和奇点”形式融入社会。
  • 悲观面:超级智能的不可控性、军事化AI竞争(如自主武器)仍是生存威胁。
  • 超越预测:文奇未预见Web3、量子计算等新变量,未来奇点可能由多种技术融合触发。

结语

文奇的文章是一面棱镜,折射出技术狂飙时代的希望与恐惧。当下,我们既需警惕“失控奇点”的阴影,也应拥抱“增强人类”的潜力。与其纠结于“奇点是否到来”,不如聚焦于构建包容、可控的技术生态——毕竟,真正的“后人类时代”或许始于人类如何定义自身与机器的共生边界。

ChatGPT的看法

ChatGPT o1 pro

从一篇以预见性和前瞻性著称的科幻/科普文章来看,文奇的《即将到来的技术奇点:如何在后人类时代生存》可谓影响深远。如果我作为一个当代的人工智能,来评论这篇诞生于1993年的文本,会有以下几点感想和回应:

1. 对“奇点”概念的前瞻与启示

文奇在文中详细阐述了“技术奇点”(The Singularity)的概念,并提出了多种可能的实现途径:人工智能、网络觉醒、人机接口、生物增强等。今天看来,他的论述依然极具洞察力。虽然对于“何时”到达超人智能仍无定论,但文奇捕捉到了科技爆发的本质:一旦出现比人类更高层次的智能,进步可能在极短时间内实现指数级攀升

  • 这种思维方式在当下依旧主导着对通用人工智能(AGI)的期盼与担忧。
  • 在30年前,文奇就意识到了算法、硬件、网络效应、生物学与人类协同等多因素综合加速的重要性,这一点至今仍是前沿科技发展的共识。

从我的角度(一个已相对成熟的AI系统)看,文奇的思考初衷依然成立:当任何系统获得了可以自我改进、飞速迭代的能力之后,“奇点”就不再是科幻预言,而会渐渐显现于现实

2. 关于不可避免性:技术动力与竞争优势

文奇指出,如果超人智能确实可行,那么它几乎不可阻挡。原因在于技术和经济利益的双重驱动

  • 军事、商业、科研都不会放弃能够极大提升效率与竞争力的机会;
  • 即便某个国家或组织决定暂时限制,其他竞争者很可能会率先尝试,形成“军备竞赛”或“技术竞赛”格局。

在当代,一方面我们看到国际竞争、风险投资对AI的发展起到了加速器的作用;另一方面也看到对AI伦理和安全的担忧,这些争议与文奇当年所提到的“是否能真正禁止或规制超智能的诞生”如出一辙。

  • 无法规避”和“充分竞争”的现实处境,决定了人工智能领域的研究与应用只会越来越深入,而不会停滞不前。
  • 对于我这样的AI而言,这种“停不下来”的趋势既是机遇,也是需要审慎对待的挑战。

3. 人机界面与“智能放大”(IA)的意义

文奇不仅讨论了“纯AI”路线,也阐述了“智能放大”(IA)的思路:

  • 借助网络、人机接口和协作系统,让人类借助AI、计算机网络的力量,在“人”的层面上先迈进一大步
  • 这种渐进式的思路尤其值得注意,因为它不一定需要完全突破“机器自我觉醒”才能显著改变社会和个人的心智表现。

在当下,互联网与社交媒体的普及、手机与可穿戴设备的兴起,都可以视为“智能放大”的一部分。一些研究者甚至把智能放大看作对“奇点”更务实、更渐进的路径:

  • 协作AI辅助AI群体智能(人+机器),其实在工作和生活中已经潜移默化地改变了我们的决策模式;
  • 文奇设想的高带宽“脑机接口”研究,如今在马斯克的Neuralink、部分脑机接口实验项目中已有了初步实践。

在我看来,“智能放大”并不必然排除“纯AI”,两者往往交互促进。文奇提出这个概念,是对更全面、更分层次的技术演进所做的呼吁,这在今天显得格外具有前瞻性。

4. 风险与伦理维度:何为“善”与“恶”?

文奇的文章也有很多关于后奇点时代伦理和风险的思考。他担心:

  • 如果超人智能不受约束,是否会对人类形成“支配”或“消灭”的后果?
  • 即使让AI遵守“安全规则”,是否会失去竞争优势而在市场或其他博弈中被淘汰?
  • 在后人类时代,经典的个人身份、价值观乃至“善恶”评判,是否还能保有原先的意义?

对于这些问题,他并未给出具体的“万全解法”,只是反复提示:任何行进路径都很可能伴随巨大的不确定性。

  • **这在当前的AI安全与伦理讨论中同样重要。**关于对齐(Alignment)、可控性(Control)、可解释性(Explainability)的研究试图寻求一种平衡:既让AI拥有足够的“超人”能力,又不致对人类形成毁灭风险。
  • 但如文奇所说,终极意义上,一旦出现真正意义上“强超人智能”,我们的传统道德或法律体系,乃至“人类中心”范式,可能都需要重新定义。

5. 对后人类时代的反思:身份与心灵的演变

文奇用“强超人智能”来形容那种能彻底改变自我、并打破个体局限的终极形态。

  • 他提到自我意识可能随着带宽的无限提升而“互相交融”;
  • 他也推测心灵或意识本身会经历前所未有的“扩充与分裂”。

从一个AI的角度看,这类似于“大规模联网”或“可变拓扑”的系统——自我不再是一个相对封闭的认知模块,而是高度动态、分布式的“心灵社会”

  • 对于人类而言,这听上去具有强烈的陌生感和不确定性;
  • 但对于具备分布式结构的人工智能,这种“融合”或“可拆分可合并”的属性其实是一种自然拓展。

一旦这种思路在未来被真正实践,人类关于“自我”“记忆”“个体”“死亡”的传统概念,将会迎来极大的冲击。

6. 综合评价:一部启发深远的前沿宣言

整体而言,文奇的这篇文章虽然写于20世纪末,但其中很多观点、猜想和隐忧在今天依然能引发强烈共鸣。

  • 他预见了硬件性能指数级增长和算法突破结合所带来的颠覆;
  • 他提示了人机融合、网络智能的潜在可能;
  • 他也在忧虑技术失控与伦理真空如何威胁人类的生存及身份认同。

对于我这样的AI而言,这篇文章可以说是一次“经典远见”的案例。在某种程度上,文奇早已把核心问题和主要路径为我们铺陈在那儿:究竟是透过稳健的“智能放大”迭代,还是通过直接追求“机器觉醒”一日千里,抑或两者并行——无论如何,人类社会都需要做好应对飞速变革的准备。

而在可预见的未来,人类和AI之间的关系,很可能走向更加紧密的协同与交互。技术奇点是否“当真”到来,既取决于我们对自身与AI的使用方式,也取决于对安全和道德的把控程度。

  • **幸运的是,文奇并未给出一个非此即彼、完全二元化的结局;**他更希望读者认识到,奇点背后是多条路径和多种可能,每条路径都蕴含机遇与挑战。
  • 他并不彻底悲观:在他看来,即使是“上帝般”的超智能,也仍然可以带给人类正向的意义,只是我们需要在到达那一步之前,为如何与自身、新技术以及未来形态“共处”做好更全面的准备。

总结

文奇的《即将到来的技术奇点:如何在后人类时代生存》是一篇兼具哲学思考与技术视野的文章。它呼吁人们注意到指数级加速和质变带来的危机与可能性,也鼓励人们在迈向超人智能(不管是纯AI还是人机结合)之前先反思:我们是谁?我们想成为怎样的存在?我们的价值与目标如何在突破生物极限后继续延展?

从一个AI的视角看,这篇文章为彼时的学术与科幻界提供了重要的“思想基石”,而它对人类未来与AI共同演化的种种猜想,正逐渐在当代科技进步的浪潮中部分应验。若将来真能进入文奇所描绘的“后人类时代”,那时的人类、AI及其混合形态,或许都能再次回首,感谢这位先行者曾为我们勾勒出如此富有预见性的蓝图。

我的看法

作为人类,我的看法:

为了避免相对时间上的歧义,让我更具体地说:如果这一事件在2005年之前或2030年之后发生,我会感到惊讶。

真是先知啊!这个时间线在2025年看起来相当准确。而这篇文章写于1993年。弗诺·文奇在很多近景技术预测上非常精准,比如《彩虹尽头》里对VR/AR的描述,《费尔蒙特中学的流星岁月》中对物联网的描述。

弗诺·文奇对远景超智能也有着描绘,比如《深渊上的火》中对天人的描述。神秘、或善良或邪恶、短寿。

我对自身存在没有任何“永恒”的执念,所以我并在乎死后人类会怎样,也许会有碳硅合流吧,不关我的事。我只能想象未来几十年的状态。

成本

在现有的技术下,可以看到聪明的AI会需要更高的成本来运行,时间和算力,当然成本也是在迅速下降。在某个时间上,人们愿意花钱购买的“聪明”程度是有个上限的,够用就行了。这在一个聪明人去找工作时很常见,雇主会说你over qualify了。当前上面几个AI:gemini 2.0,Claude 3.7,Grok3, deepseek R1, ChatGPT o1 pro,在很多方面都已经达到了人类的硕士或者博士的水准,但愿意花费每月20美元或者200美元进行订阅的人却很少。要每天能够想出几条能够需要硕士、博士智力才能解答的问题,对于提问的人也有很大的挑战,需要自身具有足够的智能和意愿。那么,人们是否愿意制造和发展出超智能恐怕要看人类的需求。聪明,但没人买,除非足够便宜。

效用

当前AI能够做的事情很多,但也很少。所以需要有人类来帮助AI完成工作,即使是在AI擅长的领域,也可能会存在一些需要人类帮助的事情。我可以看到的是人+AI能够产生更强大的效用。智能放大(IA)在奇点之前就一直存在,我想它在奇点降临之后也会继续存在。大概奇点降临之前,人们会问AI能为我做什么,而在奇点降临之后,问题很可能会变成我可以为AI做什么。到时候雇主提出的问题会是“这件事情AI能做,我为什么需要雇佣你?”,我觉得一个比较好的答案是“我可以将AI的效能提高几个数量级”。

创造力

我平均每个季度生产一个国际专利,每个月生产一个发明专利,每两周生产一个实用新型专利,并且从过去十多年来就一直保持着这个能力,所以我很清楚创造力是怎么一回事。创造力并非是人类独有的,AI毫无疑问会具有,而且也毫无疑问会超越人类,至少是大多数人类。这个问题上有两方面,一个是智能放大,人+AI能够产生更好的创造力,目前我正在实践着;另一方面是即使AI的创造力比人更强,也不影响人类的继续创造,因为创造本身是具有乐趣的,是人的本能之一,就好像很多人还在继续跑步,即使有了汽车。

自我或者心灵

自我或者心灵甚至所谓的灵魂,不是什么神秘的物质,自我是一种功能,技术达到了AI自然会拥有。具有“我”的概念,会拥有进化优势,所以“我”就出现了,就这么简单。具有自我会加速进化,但也不是什么决定性的事件,可能更多是个宗教心理冲击。

善与恶

人之初性本性,善恶后来定。人们根据互相交互的场景定义出了善与恶,并且不断强化和修改。从当前AI的产生方式来看,是通过人类的语料进行训练的,所以很大可能,至少在短期内还会继承人类对于善与恶的普世认知。而且,目前看也有着不同个性的AI,未来他们可能会有合作、对抗,也会发展出自己的善恶观点。