首页 百科知识 奇点依旧遥远?《奇点临近》书评

奇点依旧遥远?《奇点临近》书评

时间:2024-01-23 百科知识 版权反馈
【摘要】:近来,微软联合创始人保罗·艾伦和他的同事马克·格里夫斯在《技术评论》杂志上发表了题为《奇点依旧遥远》的文章。其实,我写《奇点临近》的一个原因就是为了回应这些评论。在《奇点临近》一书中,加速回报定律的理论基础得到广泛体现,最有力的例子是就是我和其他人所呈现的大量实验证据。在《奇点临近》中,我对这一问题作了解释,我论证了在软件中用不同方法测量复杂度和性能时会得出相似的指数级增长。

奇点依旧遥远?《奇点临近》书评

我将各种各样反对的声音称为源自怀疑的批判,因为我们的线性偏好,指数级推测看起来不太可靠。近来,微软联合创始人保罗·艾伦(Paul Allen)和他的同事马克·格里夫斯(Mark Greaves)在《技术评论》杂志(TechnologyReview)上发表了题为《奇点依旧遥远》(The Singularity Isn’t Near)的文章。[209]在文章中,他们明确地表示了对指数级推测的不信任。在此我想针对艾伦的独特评论作出回应,这些批评代表了一系列对我的论点持怀疑态度的声音,尤其是关于大脑的那部分。尽管艾伦在他的文章中参考了《奇点临近》,但他文中仅有的引证来自我2001年所写的论文《加速回报定律》(TheLaw of Accelerating Returns)。此外,他的文章并没有承认或者回应我在书中所做的论证。遗憾的是,对我作品持批评态度的人是如此。

1999年《灵魂机器时代》一书出版,到2001年那篇论文发表,我的很多观点激起了很多批评的声音,诸如:摩尔定律就要失效;硬件性能会指数级扩张而软件则会进入瓶颈期;大脑构造太复杂;大脑的一些性能是固有的,不能被软件复制,等等。其实,我写《奇点临近》的一个原因就是为了回应这些评论。

我不能说,艾伦和其他观点相似的评论家们已经信服于我文中的观点,但是至少,他和其他人能够对我实际所写有所回应。艾伦认为加速回报定律……不是物理定律。我要指出的是,绝大多数科学定律都不是物理定律,而是源于低层次上多数事件的突出特征。一个典型的例子是热力学定律。如果你观察热力学定律下的数学应用,你会发现它是在毫无规律地给粒子建模,就像一个人漫无目的地转悠,所以很明显,我们不能预测一个特定粒子下一秒会出现在哪里。然而,根据热力学定律,气体的整体情况是可以进行精准预测的。加速回报定律与热力学定律相似:每个技术方案与研发者是不可预测的,但是,用性价比及生产力这些基本考核进行量化,整体轨迹总是按照一条明晰的可预测的路径发展。

如果只有少数研究者痴迷计算机技术,那它的确是不可预知的。但是性价比的基本考核确实是有竞争能力项目的动能系统的产物,比如每秒每定值美元成本下,计算都呈一个非常平稳的指数趋势,1890年的美国人口普查就已经显现出这一点(我在第10章提到过)。在《奇点临近》一书中,加速回报定律的理论基础得到广泛体现,最有力的例子是就是我和其他人所呈现的大量实验证据。

艾伦写道:人们一直使用那些规律直至它们被淘汰。他说这句话,其实是把范式信息技术基本领域不间断的轨迹混为一谈。如果我们回过头去检查,比如,制造更小真空管的趋势——20世纪50年代改进计算的范式,这一范式的确是被用到淘汰。但随着这种范式终结命运的清晰显现,下一种范式的研究压力就增加了。晶体管技术保持着计算价格与性能上指数增长的基本趋势,这种趋势促使第五范式(摩尔定律)诞生,也使得集成电路的产品特征受到持续压缩。已经有很多人预言摩尔定律终将走向灭亡。半导体产业的国际半导体技术发展路线图计划在21世纪20年代生产7纳米特征的半导体。[210]到那时,最引人注目的特征,将会是这种半导体的宽度——35碳原子,而且,这个宽度很难进一步压缩了。然而,英特尔与其他芯片制造商已经在第六范式上先人一步,他们采用三维计算来继续保持性能价格上的指数增长。英特尔计划让三维芯片在10年内成为主流,这之前,三维晶体管,3D记忆芯片已经面世。在计算性能价格方面,第六范式将会保持加速回报定律运作直到21世纪末,到那时,价值1 000美元的运算将会比人类大脑强大万亿倍。(这样看来,至少,在功能性地模拟人类大脑需要何种的程度运算这一问题上,艾伦与我达成了共识。[211]

接着,艾伦继续阐述标准参数,论证软件不会像硬件一样呈指数级增长。在《奇点临近》中,我对这一问题作了解释,我论证了在软件中用不同方法测量复杂度和性能时会得出相似的指数级增长。一则最近的研究(由总统科技顾问委员会委员所写的《给总统与国会的报告,设计数字化未来:联邦政府资助下有关网络与信息技术的研究与发展》)陈述如下:

在诸多领域,运算的进步带来的性能增益已经大大超过依靠处理器加速,这一点激动人心,但是能够理解的人却很少。今天我们用于语音识别、自然语言翻译、下象棋、物流规划等的运算在过去的10年间,已经取得显著发展……柏林康拉德信息技术中心的教授,最优化方面的专家格罗斯彻(Gröstschel),提供了这样一个例子:他发现,在1988年,通过当时的计算与线性运算法则,采用线性程序进行计划模型解决的标准化生产要花82年。15年以后,也就是2003年,同样的模型在大概一分钟内就能解决,效率几乎提高了4 300万倍。在这个过程中,效率提高1 000倍是由于处理器的速度提高了,而提高43 000倍则是依靠运算法则的改善!格罗斯彻还引用了一个运算例子,1991—2008年,这个运算将混合整数规划程序效率提高了30000倍。运算的设计分析及固有的计算复杂性问题研究都是计算机科学的基础分支。

需要注意的是,上文中格罗斯彻所引述的线性程序已经从43 000 000:1的比例中受益,这一程序是一门数学技术,适用于在层级记忆系统中分配资源,如我早些时候提到过的隐马尔可夫层级模型。在《奇点临近》中我还引用了许多其他类似的例子。

至于人工智能,艾伦毫不犹豫地否定了IBM的沃森超级计算机系统,其他很多批评家也持相同意见。但可笑的是,他们中很多人对这个系统一无所知,认为它不过是一款在计算机上运行的软件(虽然这种计算机可并行计算及配备了720个处理器内核)。艾伦写道,沃森这类系统可塑造性差,性能严重受到内在假设和确定算法的制约,它们没有归纳能力,还经常给出专业领域之外的毫无意义的回答

首先,我们可以对人类做一个类似的调查,同时我还想指出的是,沃森系统的专业领域包括维基百科及其他一些知识库,它们很少会聚焦到某个具体的知识点。沃森系统能够处理大量的人类知识,也能够处理微小的语言形式,如人类活动领域范围内的双关语、暗喻、明喻等。它和人类一样并不完美,但它胜过了《危险边缘》节目里最优秀的选手。

艾伦辩解说,沃森系统是由科学家们亲自装配的,他们将各专业领域的精密知识联结起来运用到这个系统上。这个说法是完全错误的。虽然其中几个领域的数据是直接编写的,但绝大部分的知识还是通过它自己阅读诸如维基百科等自然语言文件获得的。这一点也正是它的关键优势,就像它能够理解《危险边缘》中那些题目费解的语言一样(它通过搜索问题寻找答案)。(www.xing528.com)

正如我早前提到过的,很多人批评沃森系统采用统计概率工作,而不是基于真正的理解。许多读者将此理解为,沃森系统只是通过字词的排序进行统计。统计信息一词对该系统而言,实际上指自组织方法中的分配参数和符号链接,如隐马尔可夫层级模型。个体能轻而易举地将大脑皮质中分散的神经递质浓度和多余的联结模式一并去除,同样也能毫不费力地抹掉统计信息。事实上,我们解决语义模糊的方式和沃森系统如出一辙——通过考虑一个词语不同解释之间的相似性

艾伦接着在文章中这样写道:数百万年间,(大脑中的)每一个结构都已经被精确定型,然后完成自己的使命,无论这使命是什么。它不像电脑那样,几种不同元素构成CPU, CPU又去控制上亿个有序存储的毫无差别的三极管。在大脑中,每一个结构和神经回路都因为进化和环境因素而得以完善。

大脑中每一个结构和神经回路都是独一无二的,因此设计大脑可说是天方夜谭,因为这意味着大脑的蓝图需要万亿兆比特的信息。大脑的结构图(正如身体其他部分的结构图一样)存在于基因组中,因此大脑自身不可能包含比基因组还多的设计信息。要注意,表观遗传[19]信息(如控制基因表现形式的肽)并没有明显增加基因组信息量。经历和学习的确显著地增加了大脑的信息量,但这也适用于沃森一类的人工智能系统。我在《奇点临近》中展示过,无损压缩(由于基因组中的大量冗余)后,基因组中的设计信息数据量大约是5 000万比特,约是大脑设计信息的两倍,也就是说,大脑的设计信息数据量约为2 500万比特。[212]这并不容易,但其复杂性仍在我们能够解决的范围之内,而且与现代社会的其他软件系统相比,它根本不算什么。此外,大脑的2 500万比特基因设计信息很多都与神经元的生物要求有关,而非它们的信息处理算法。

我们怎样从仅仅几千万比特的设计信息中得出同一类型的100万亿~1 000万亿的联结呢?很明显,通过大量冗余。达曼德拉·莫哈认为:神经解剖学家还没有发现胡乱联结在一起的网络,对大脑中的个体而言,这一系统完全是异类,但是个体大脑中有很多重复的结构和跨物种的同源性……这种天然的重构性一方面让我们惊奇,另一方面则给我们以希望,即脑神经运算的核心运算有望独立于特异感应器电机模型,而且脑区皮质结构中所观察到的变体意味着规约线路的完善;而我们正想用这个规约线路进行逆向工程。[213]

艾伦认为,有一种固有的复杂制动系统牵制着人类理解大脑和复制其的能力,他的这一论点基于这样一个假设,大脑中的100万亿~1 000万亿的联结真实存在。他的复杂制动系统本末倒置了。如果你想理解、模拟或再创造一个胰腺,你并不需要对胰腺中的每个细胞进行再创造或模拟。你只需要理解一个胰岛细胞,然后将其在胰岛中的基本功能提取出来,最后将其功能扩大到更多的同类细胞中。现在已经有这种功能模型的人工胰岛素进行测试了。虽然,比起胰腺中那些大量重复的胰岛素,大脑显得更复杂、变量更多。但是,正如我在书中反复提到的,它们的功能存在很多重合的地方。

艾伦的批评中也明确提到了我说过的科学家的悲观。为新一代技术或为一个科学领域建造模型苦心钻研的科学家们,无一例外地都在与这种悲观情绪作斗争,所以如果有人能对未来10代科技的面貌说出个究竟,他们将嗤之以鼻。集成电路领域的一位先驱使我想起30年前,他们为了将10微米10 000纳米)的最小配线幅度减少到5微米(5 000纳米)而苦苦挣扎的情形。对达到这个目标,他们有一些信心。但是当人们预测,未来某天我们能将电子线路的最小配线幅度降到小于1微米(1 000纳米)的时候,他们又坚守着自己的阵地,觉得人们的想法太天真。有人指出,如若最小配线幅度降到1微米以下,由于热力影响及其他因素影响,电子线路就会脆弱不堪。但如今,英特尔公司已经开始启用栅长仅为22纳米的芯片。

在人类基因计划上,我们也曾感受到了一些相似的悲观情绪。当我们在该计划上努力了15年的时候,我们只收集到了1%的基因组。批评家们都提出一些限制基因快速排序的因素,而且是在不破坏微小基因结构的前提下。幸好有了性能价格的指数增长,这个计划7年之后就大功告成,针对人脑的逆向工程也取得了相似进展。比如,直到最近,我们才在实时情况下通过非侵害性扫描技术,看到每个神经元联结形成和稳固的过程。我在这本书中引述的很多证据也都是基于这些进步,但是直到最近,这些证据才得到证实。

艾伦描述我的人脑逆向工程的时候,认为它仅仅是先扫描人脑,然后理解它的精密构造,而后在没有充分理解信息加工方法的情况下,将大脑整个颠倒过来进行模拟。这并不是我的议题,虽然我们确实需要了解单个神经细胞工作的细节,然后将功能模块是怎样相互联结的信息收集起来。源于此种分析的功能方法能够指导智能系统不断发展。大体上,我们寻找的是受到生物学启发的,能加速人工智能工作的方法,虽然我们没有在大脑如何发挥相似功能上有重大发现,人工智能项目仍然取得不小进展。就以我的研究领域——语音识别为例,我清楚地知道,如果我们在大脑是如何合成并转换语音信息上取得进展,我们的工作进度将会得到很大提高。

大脑中的大量冗余结构由于学习和经历的不同而各异。人工智能体系当前的工艺实际上使其能够从自身的经历中得到学习。谷歌无人驾驶汽车有两个学习对象,一是从自己以前的驾驶经验学习,二是从人类驾驶汽车的经验中学习;而沃森系统的大部分知识都源于阅读自身已有的东西。有一点很有趣,人工智能系统目前采用的方法已大大改进,而其方法在数学原理上跟大脑皮质中的运行机制很相像。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈