首页 百科知识 人工智能未来:大脑核心算法驱动创造性思考

人工智能未来:大脑核心算法驱动创造性思考

时间:2024-01-23 百科知识 版权反馈
【摘要】:冯·诺依曼推断说大脑的工作方式不能包含较长的连续算法,否则人在如此慢的神经计算速度下无法快速作出决定。大脑极大的可塑性使我们能够进行学习。冯·诺依曼在他的时代将进行大量平行计算的大脑的容量与计算机进行了对比,得出大脑有更强大的记忆力和速度的结论。

人工智能未来:大脑核心算法驱动创造性思考

这引出了我们的第4个重要的思想,即打破艾达·拜伦提出的计算机不能进行创造性思考的结论,探索大脑采用的核心算法,将电脑变成人脑。艾伦·图灵在他1950年的论文《计算机器与智能》(Computing Machinery and Intelligence)中提出这个目标,还设计了今天有名的图灵测试来确认某一人工智能是否能达到人类的智力水平。

1956年,冯·诺依曼开始为耶鲁大学享有声望的西里曼讲座系列准备讲演。但由于癌症的折磨,他没有机会真正登上讲台,也没有完成手稿。但这些未完成的手稿仍然对计算机的发展——在我看来是人类最令人却步又最为重要的工程,作出了精彩而有预见性的构想,并于1958年在他去世后出版,名为《计算机与人脑》(The Computer and The Brain)。20世纪最杰出的数学家和电脑时代的先驱的最后著作是对智能的检视,这真是再合适不过了。这部作品是最早从数学家和计算机科学家的角度对人脑进行的严肃探究。在冯·诺依曼之前,计算机科学和神经科学是没有任何交集的两个领域

·诺依曼应用计算通用性的概念得到的结论是:尽管人脑和计算机的结构截然不同,但仍可以认为,冯·诺依曼机能够模仿人脑对信息的加工过程。反之则不然,因为人脑不是冯·诺依曼机,而且没有同样的存储程序(尽管我们的大脑可以模拟一个非常简单的图灵机的工作过程),它的运算法则或方式是内隐于结构中的。冯·诺依曼正确地归纳了神经可以从输入中学习模式,这些模式现在已被确定,并且部分通过树突强度来编码。在冯·诺依曼的时代还不为人所知的是,学习同样通过神经元联结的建立和破坏来进行。

·诺依曼预见性地指出神经加工的速度极为缓慢,大约每秒能进行100次计算,但是大脑通过大量的并行处理来补偿速度——这是他的又一个重要的洞察。他认为,大脑的1 010个神经在同时工作(这个估计值相当准确,今天估计的数目在1 0101 011之间)。实际上,每个联结(每个神经平均有约103104个联结)也都在同时进行计算。

考虑到当时神经科学的发展还处于初始阶段,冯·诺依曼对神经加工过程的推测和描述工作称得上是非常杰出。但他对大脑记忆容量的推测我却无法苟同。他称大脑能记住人一生中所有的输入。他认为人的平均寿命为60年,即2×109秒。每秒每个神经约有14个输入(这比实际情况低了至少3数量级),神经总数为1010个,那么可推断大脑总的记忆容量约为1020比特。但正如我之前提到的,事实上我们只能记住我们的思想和经历的一小部分,而且这些记忆的存储模式不是处于较低水平的比特模式(像视频图像一样),而是处于较高水平的序列模式。

·诺依曼在提出大脑工作的各个机制的同时,也展示了现代计算机怎样完成跟大脑同样的工作。尽管两者有明显的差异,但是大脑的模拟机制可以被数字化仿真,因为数字化计算可以实现任意精度的对模拟值的仿真(而且大脑内的模拟信息精度非常低)。考虑到计算机在连续计算中显著的速度优势,大脑中的大规模平行工作构造同样可以被仿真。另外,我们也可以通过平行地使用冯·诺依曼机在计算机上实现并行处理——这正是今天的超级计算机的工作原理。

·诺依曼推断说大脑的工作方式不能包含较长的连续算法,否则人在如此慢的神经计算速度下无法快速作出决定。当三垒手拿到球并且决定扔到一垒而不是二垒时,他是在不到一秒的时间内作出这个决定的,这段时间仅够各个神经进行少数几轮循环。冯·诺依曼正确推断了大脑的出色能力来自于1 000亿个细胞可以同时处理信息,因此视觉皮质只需要34个神经循环就能作出复杂的视觉判断。

大脑极大的可塑性使我们能够进行学习。但计算机的可塑性更大,通过改变软件就可以完全重建它的工作方式。因此,从这点上看,计算机可以仿真大脑,但反过来则不然。

·诺依曼在他的时代将进行大量平行计算的大脑的容量与计算机进行了对比,得出大脑有更强大的记忆力和速度的结论。现在能够在功能上仿真人脑(每秒运行约1016次),在某些方面能达到保守估计的人脑速度的第一代超级计算机已经出现。[166](我预测这种水平的计算机在21世纪20年代初期就可以买到,其费用将为1 000美元左右。)在记忆容量方面,计算机和人脑就更接近了。虽然在他写作手稿的时候计算机还处于发展的初始时期,但冯·诺依曼已充满信心地认为人类智能的硬件软件之谜最终会被解开,这也正是他准备这些演讲的动机所在。

·诺依曼深刻地意识到,科技发展不断加快的脚步及其对人类未来发展的深远意义。在1957年他去世一年后,他的同事、数学家斯坦·乌拉姆(Stan Ulam)引用他在50年代早期说过的话:技术的加速发展和对人类生活模式的改变的进程在朝向人类历史上某种类似奇点的方向发展,在这个奇点(singularity)之后,我们现在熟知的社会作用将不复存在。这是人类技术史上第一次使用奇点这个词。

·诺依曼的基本见解是,计算机和人脑在本质上是相同的。请注意,生物人的情商也是它智能的一部分。如果冯·诺依曼的见解是正确的,并且假如你能接受这个信念的飞跃,即令人信服地重现了生物人的智能(包括情感等其他方面)的非生物实体是有意识的,那么我们能得到的结论就是计算机(安装了恰当的软件)和人类意识本质上是可以等同的。那么,冯·诺依曼是正确的吗?

今天绝大多数计算机是完全数字化的,而人类大脑结合了数字法和模拟法。模拟法由数字法进行再现,再现较为容易且程序化,并能达到任意想要的精度。美国计算机科学家卡弗·米德(Carver Mead)提出了可以用他命名为神经形态的硅制芯片直接仿真人脑的模拟法,这种方法比数字仿真模拟法的效率高上千倍。[167]因为我们对新皮质大量重复的算法进行了编纂,所以完全可以使用米德的方法。由达曼德拉·莫哈领导的IBM认知计算小组已经推出了能够仿真神经和神经联结,并且能形成新联结的芯片,将之命名为突触[168]它的其中一个芯片能直接模拟约有25万个突触联结的256个神经元。这个项目的目的是创造一个非常接近人类大脑的,功率仅为1千瓦的,拥有100亿神经和100万亿神经联结的仿真新皮质。(www.xing528.com)

正如冯·诺依曼在50多年前描述的那样,大脑运行速度极其缓慢却拥有大量的平行运算能力。今天的数字电路至少比大脑的化学交换快1 000万倍。不过,大脑真皮质的3亿个模式识别器同时运行着,神经元间的上百亿个联结也同时进行着计算。提供能成功模拟人脑的必要硬件的关键问题在于实现总的记忆容量和计算量,而不是直接复制大脑的结构,但这种做法非常缺乏效率和灵活性。

让我们判断一下这些硬件要满足哪些要求。许多工程试图模拟在新皮质发生的分层学习和认知模式,包括我自己在进行的关于隐马尔可夫层级模型的研究。根据我自己的经验作出的保守估计是,模拟生物大脑新皮质上的一个模式识别器的一次循环需要约3 000次计算。绝大部分仿真运行的次数达不到这个估计数。大脑每秒进行约102次循环,那么每秒每个模式识别器会达到3×105次(即300 000次)计算。假设按我的估计模式识别器的数目在3×108(即3亿)左右,我们可以得到每秒1014次(即100万亿次)计算,这个数目与我在《奇点临近》一书中的估算是一致的。在那本书中我推断为了在功能上模拟大脑需要每秒进行10141016次计算,而1016次每秒只是保守估计。人工智能专家汉斯·莫拉维克(Hans Moravec)根据整个大脑内初始视力加工过程所需要的计算量推测得出的数字为1014次每秒,这与我的估计是一致的。

常规台式计算机可以达到每秒1010次计算,但这个速度可以通过云资源得到极大的提升。最快的超级计算机,日本的计算机K Computer)的速度已经达到了1016次每秒。[169]考虑到新皮质的算法大都是重复进行的,使用神经形态芯片的方法,例如上文中提到的IBM突触的前景非常乐观。

在记忆容量的要求方面,我们需要约30比特(约4字节)来使一个联结响应3亿个模式识别器中的一个。如果我们估计每个模式识别器向上平均有8个输入,即每个识别器收到32字节输入。如果我们给每个输入多加1字节,那么就有40字节。加上向下联结的32字节,总共就有72字节。但联结上下层级的分支通常会远远多于8个输入和输出。注意,较大的分支树通常由多个识别器共享,比如,可能会有上百个识别器参与识别字母“p”,那么在更高一层,即识别包含“p”单词或词组的层级就会有更多的、成千上万个识别器参与。然而,各个较低层级的“p”识别器并不分别占有联结高一层级的分支树,而是共享同一个联结分支树。对于向下的联结也是同样的道理:一个负责单词“APPLE”的识别器会通知所有低一层级的负责字母“E”的识别器,如果它看到了“A”“P”“P”“L”那么就有可能会出现“E”。对于需要向低一层级通知“E”可能会出现的各个单词或词组识别器而言,树状联结并不是多个重叠的,而是共享同一个。因为这个原因,总体上估计平均每个识别器上下各8个输入是合理的。即使增加个别识别器的估计数,也不会显著影响估计结果的数量级。

3×108个(即3亿个)模式识别器各有72字节输入,那么加起来总共就可以得到2×1010字节(即200亿字节)的记忆容量。这对于今天的常规计算机来说算不上一个太大的数字。

以上这些估算主要是为了提供一个大致的数量级估计。考虑到数字电路的速度是新皮质的生物性电路的1 000万倍,我们就不需要在平行构造的规模方面向人脑看齐,一般规模的平行构造就足够了(人脑中的平行线路高达万亿级)。我们可以发现,计算方面的必要要求都已经能够达到了。大脑的重新联结——树突持续不断地产生新的突触,也可以通过运用联结的软件来模拟,这个模拟系统比大脑还要灵活得多,相比之下大脑存在较多局限。

大脑用于保持记忆稳定性和一致性的冗余也完全可以用软件模拟。优化这类自组织层级学习系统的数学方法已经被充分理解。但大脑的组织还远远达不到优化的水平,当然,它也不需要达到最优化,只需要达到能够制造工具弥补自身水平的不足就足够了。

人类新皮质的另一个限制在于没有排除或复查相互矛盾思想的程序,这导致很多时候人们的思想缺乏一致性。我们也缺乏一个强有力的机制来执行批判性思想,当我们需要这个技能时,几乎一半的情况下都没能有效运用。一个以软件为基础的新皮质可以通过建立一个暴露不一致性的程序来克服这个弱点,方便我们对自身思想进行复查。

值得注意的是,设计整个大脑区域反而比设计单个神经元要简单。正如我们之前讨论的,用计算机进行模拟,越高层级的模型反而越简单。为了模拟晶体管,我们需要理解半导体物理特性的细节,而且一个真正的晶体管即使只是基础方程也非常复杂。一个能将两个数字相乘的数字电路需要上百个晶体管,但我们通过一两个公式就能准确模拟这个乘法电路。一个包含上10亿个晶体管的计算机的模拟仅需要指令系统和注册描述,短短几页文本和公式就能包括全部内容。操作系统、语言编译器或汇编程序的软件程序则相对复杂,但是模拟一个特定程序,比如一个基于隐马尔可夫层级模型的语言识别程序,则可以通过短短几页方程完整描述。在这些描述中肯定不会出现半导体物理特性的细节或计算机的构造。

类似的现象对大脑也同样适用。新皮质上侦查某一不变的视觉特征(比如人脸),或是执行声音的带通滤波(将输入限定在一个特定的频率范围内)任务,或是评价两个事件时间接近性的模式识别器,与控制神经递质、粒子通道,以及参与神经过程的其他突触或树突变异的化学物理联系相比,能得到的细节更少。尽管在迈向更高的概念层面之前需要仔细考虑所有这些复杂性,但绝大部分可以被简化,就像大脑展现的工作方式一样。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈