图灵 | 计算机器与智能
2023-01-30 09:29:07
  • 0
  • 0
  • 0

来源:原创 A · M · 图灵 人机与认知实验室 

【“计算机器与智能”选自《Mind》,no.2236(1950.10),P433-460。牛津大学出版社允许重印。刘西瑞、王汉琦 翻译】

1. 模仿游戏

我建议来考虑这个问题 :“机器能够思维吗?” 这可以从定义 “机 器” 和 “思维” 这两个词条的涵义开始,定义应尽可能地反映这两个词 的常规用法,然而这种态度是危险的。如果想通过检验它们通常是怎样使用的,从而找出“机器” 和 “思维” 的词义,就很难避免这样的结论:这些词义和对“机器能够思维吗?” 这个问题的回答,可以用类似 盖洛普民意测验那样的统计学调查来寻找。但这是荒唐的。与这种寻求定义的做法不同,我将用另一个问题来替代这个问题 ,用作替代的问题与它密切相关,并且是用没有歧义的语言来表达的。

这个问题的新形式可通过一个游戏来描述 ,我们称之为“模仿游戏”。游戏由三个人来做,一个男人(A),一个女人(B),还有一个提问者(C),性别不限。提问者待在一间与另两人分开的房子里 。提问者在游戏中的目标是,确定另外两人中哪一个是男性,哪一个是女性。他以标号 X 和 Y 称呼他们,在游戏结束时,他可能说“X是A, y是B”, 也可能说 “X是B, y是A”。提问者可以向A和B提出这样的问题:

C: X,请你告诉我你的头发长度,可以吗?

假定 X 实际上是 A,那么 A 必须做出回答。A 在游戏中的目标是,尽量使C 作出错误判断。于是,他可能回答说:“我的头发是瓦盖式的短发,最长的一束大约长9 英寸。”

为了不让提问者从声调中得到帮助 ,这些回答应当写出来,若能打 印出来则更好。理想的安排是 ,在两间房子之间,用一台电传打印机 进行交流。也可以用一个中介人来重复提间和回答 。第三个游戏参与者B的目标是帮助提问者。对她来说 ,最好的策略或许就是如实回 答。她在回答时,可以加上这样的话:“我是女性 ,别听他的!” 但是 这种做法无济于事 ,因为那个男士也可以运用同样的方式 。

现在我们要问的是:“如果在这个游戏中用一台机器代替 A,会出 现什么情况?” 在这种情况下做游戏时,提问者作出错误判断的次数,和他同一个男人和一个女人做这一游戏时一样多吗?这些问题替代了原来的问题 :“机器能够思维吗 ?”

2. 新问题的评论

我们除了问 “什么是对新形式问题的回答 ?” 还可以间“这个新问题值得去研究吗?” 后一问题研究起来更为直截了当 ,从而可以制止无 限回归。

新问题有利于在人的体力能力和智力能力之间划出一条截然分明的界线。任何工程师或化学家都认为,我们不可能制造出与人类皮肤一模一样的材料 。即使到了某个时候,有可能做到这一点,但是假定这项发明成为现实,我们还是会觉得,试图用这种人工血肉把一台“思维机” 装扮起来使它更像人类,是没有什么意义的。我们设定的这问题的形式,在防止提问者看到或接触到其他竞赛者或是听到他们的声音的条件下,反映了这个事实 。这个判据的其他一些优点 ,可以在提问和 回答的样本中得到说明。我们来看 :

问:请以福斯河大桥为主题 ,给我写一首十四行诗。答:这件事我可干不了,我从来不会写诗。

问:把34957 与 70764 相加。

答:(停顿约30 秒,然后给出答案) 105621。

问:你会下象棋吗 ?

答:会。

问:我在我方的K1处有 K,再没有别的子了,你只剩K6 处的 K

和 R1处的 R,该你走了,你走什么呢?

答:(停顿15 秒之后)R 到 R8 处,将死。

看来,问答法适合于引人几乎任何一个我们希望涉及的人类需要花费心力的领域。我既不希望贬低不能在选美竞赛中有出色表现的机器,也不希望贬低同飞机赛跑失败的人。这个游戏的条件使这些能力缺陷成为不相干的。那些 “证人” 可以尽量夸耀他们的魅力 、力量或英雄气概 ,如果他们认为这样做是可取的话,但是提问者不会要求这些实际方面的证明 。

这个游戏可能会因为条件对机器太不利而招致批评。如果有人想要装作机器,他显然只能做出拙劣的表现。他会因做算术时的迟缓和不准确而立即暴露出来。但是,机器在做那些理应看成是思维的事情时,难道不会采用完全不同于人类的方式吗?这一反问是相当有力的, 但是我们至少可以说,尽管如此,如果能够制造出一台机器,使它在模仿游戏中做出令人满意的表演,我们就不必再为这个反问操心了。

也许有人认为,在参与 “模仿游戏” 时,对机器来说,最好的策略可能并不是模仿人的行为。可能是这样的,但是我觉得这好像没有太大关系。不管怎样,这里不是打算研究游戏理论,所以我们可以假定,最好的策略就是设法提供那些人类会自然而然得出的答案。

3. 参与游戏的机器

如果我们不详细说明 “机器” 一词的意义是什么 ,我们在第1 节中 提出的问题就不是很确切的 。很自然 ,我们希望每一种工程技术都可 以用于我们的机器$ 我们也希望允许这种可能性 z 工程师或工程师小组 制造出一台能工作的机器 ,但是机器的制造者不能对它的运算方式作出 令人满意的描述,因为他们采用的方法主要是试验性的,最后,我们希 望以正常方式出生的人不在机器之列 。要框出一个能够满足这三个条 件的定义,不是件容易的事。例如 ,有人可能强调工程师小组内的所有成员应当是同一性别的 ,但实际上这不会令人满意,因为还有从一个 人的(比如说)皮肤单细胞里培养出一个完整个体的可能性 。如果做到 这一点,那是应给予最高奖赏的生物学技术的奇迹 ,但是我们并不会把 它看作是 “制造出思维机器” 的例子。这促使我们放弃了每一种技术 都可以被接受的要求 。本文关于 “思维机器” 的兴趣是由一种通常称 为 “电子计算机” 或 “数字计算机”的特殊机器引发的 ,鉴于这个事 实,我们更应该放弃上述要求。根据这一建议 ,我们只允许数字计算机参与我们的游戏 。

初看起来 ,这个限制显得十分苛刻。我将证明 ,在现实中并非如 此。要做到这一点,就需要对这些计算机的本质和特性作一简短 说明。

或许有这样的说法 :用数字计算机作为对机器的规定,就像我们有 关 “思维” 的判据一样,如果数字计算机在这个游戏中不能做出良好的 表现(这是与我们的信念相抵触的) ,这种规定就徒然令人不满意而已。

已有大量的数字计算机进入工作行列 ,所以我们可以间,“为什么不直接做实验昵?它们也许很容易满足游戏的条件。可以利用大量的提问者去得出统计资料,以说明作出正确确认的情况有多少。”简单的回答是,我们并不是在问是否所有的数字计算机在游戏中都能够干得很出色,也不是在问当前可用的计算机是否能够干得出色,而是在问是否存在可以想象得到的能够干得出色的计算机。但这只是一个简单的回答,稍后,我们将从不同的角度来思考这一问题。

4. 数字计算机

有关数字计算机的思想 ,可以从这种说法中得到解释 :这种机器将完成人类计算机所能完成的任何运算 s 我们假定人类计算机是遵循固定规则的,他没有任何权力稍许偏离这些规则。我们可以假定这些规则是由一本书提供的 ,人一旦从事新的工作,这本书就要更换。还有无 限多的纸张可供演算 。他也可以在 “台式机” 上做乘法和加法 ,不过这并不重要。

如果我们把上述解释作为定义,就有进入论证循环的危险。为了 避免这一点,这里提出一个可以取得满意效果的方法纲领。通常认为一台数字计算机是由三个部分组成的 :

1) 存储器

2)执行单元

3)控制器

存储器是存储信息的 ,相当于人类计算机使用的纸张,可以在这些 纸上做演算,也可以用它来印出充满规则的书 。当人类计算机在他的头脑里做演算时 ,一部分存储由他的记忆承担。

执行单元的作用是完成演算中所包含的各种具体的运算 。这些具体运算的内容因机器而异 ,一般情况下,可以完成相当长的运算 ,如 “3540675445 乘以 7076345687 ”,但是在有些机器中 ,能做非常简单的运算,如“写出 ”。

上面提到过 ,供计算机使用的“规则书” 可以用机器中的一部分存 储替代 ,这时就称它为“指令表”。控制器的职责就是监督这些指令 按正常顺序正确执行 。控制器的构造方式决定了 这种结果必然出现 。

存储器中的信息一般被分成大小适中的数据包 。例如,在一台机 器中,一个数据包可能由十个十进制数字构成。存储器中存放着各种 信息的数据包 ,数字按照某种系统方式被分配到存储器的这些部分中。一个典型的指令可能指示道 :

“把存储在 6809 位置上的数字加到存储在 4302位置的数字上去, 并把结果放入后一存储位置 。”

当然,它不可能以英语表达方式出现在机器中 ,它很有可能以这种 方式编码 :6809430217 。这里,17 的意思是指,在各种可能的运算 中,要对这两个数字执行哪一种运算。在这一情况下,运算是如上所 述 :“把数字 加上。”我们注意到 ,这个指令用了十个数字,从而 构成一个信息数据包 ,十分方便。在正常情况下 ,控制器会使这些指 令按照它们存储位置的顺 序一一执行 ,但是偶然也会 遇到这样的 指令 :

“现在执行位于 5606 处的指令,然后由此继续。” 或者:

“如果位置 4505 存的是 {) ,接着执行存在6707 处的指令,否则的 话,按原有方式进行。”

上面这两种类型的指令非常重要 ,因为它们能够使一个运算序列一遍遍地被替代 ,直到某个条件满足为止,但是在这样做的过程中,不是 每次执行新的指令 ,而是一遍遍地重复执行同一些指令。我们用一个 家务例子作比喻 :假定妈妈要托米每天早晨在上学的路上去鞋匠那里看 一看她的鞋做好没有 ,她可以每天早晨向托米说一遍 ,她也可以用另一 种一劳永逸的方法 ,即在厅里贴一张提示条 ,托米离家去上学时就能看 到 ,容是叫他去鞋匠那里看看 ,并在他取到鞋之后把字条取去 。

读者必须承认这个事实 :数字计算机是可以按照我们所描述的原理 制造的 ,而且的确已经制成了,同时,它们确实能非常接近地模仿人类 计算机的行动 。

说我们人类计算机是在使用充满规则的书,这当然只是一种方便的 说法,真实的情况是,实际的人类计算机记住了他们要做的事情。如 果要使一台机器模仿人类计算机在某种复杂运算中的行为 ,必须问一问 人是怎样做到这一点的 ,然后把答案翻译成指令表形式。建立指令表 通常被说成是 “编程序”。 “给机器编程序,让它完成运算A” 就意味 着把一个恰当的指令表放人机器 ,使它执行A。

在数字计算机思想的基础上出现了一个有趣的派生物,就是“带有 随机元件的数字计算机”。它们具有像掷假子这样的指令,或是某种 等价的电子过程 ,比如说,这种指令有可能是“掷假子 ,并把所得的数 字放入存储位置 1()()()”。 有时这样的机器被说成是有自由意志的(虽然 我自己并不使用这个词) 。一般情况下 ,不大可能通过观察机器来确定 它是否带有随机元件 ,因为像根据π 的十进制小数数字进行选择的装 置,也能产生出类似的结果。

大多数实际的数字计算机 ,存储都是有限的。使计算机带有无限 存储的思想 ,在理论上不存在困难。当然,在任一时刻 ,所使用的部 分只能是有限的。同样,所构成的内容也只能是有限的,但是我们可以设想根据需要增加越来越多的内容。这样的计算机具有特殊的理论 意义,可以称为无限容量计算机 。

数字计算机的思想是一个古老的思想。1828一1839 年间任剑桥大学卢卡斯讲座的数学教授巴比奇(C. Babbage )设计了一台这样的机器 , 叫作分析机,但是始终没有完成。尽管巴比奇已经掌握了所有的基本 概念 ,但是在那个时代,他的机器没有表现出那种十分诱人的前景。它可能达到的速度 ,肯定要比人类计算机快一些,但是比曼彻斯特机慢大约 100 倍,而在现代机器中,曼彻斯特机本身也是比较慢的一种。 巴比奇设计的存储完全是机械的 ,使用轮子和卡片。

巴比奇的分析机完全是机械的这一事实 ,有助于我们摆脱一个迷信。现代数字计算机是电子的 ,神经系统也是电子的,人们往往很看 重这个事实 。既然巴比奇的机器不是电子的 ,同时所有数字计算机在 某种意义上又是等价的 ,因此我们了解到使用电这一点在理论上不可能 很重要。当然,在信号快速传输的地方,总是离不开电的,所以我们 在这两个方面发现它 ,也不足为奇。在神经系统中 ,化学现象至少和 电一样重要。在某些计算机中 ,存储系统主要是声音的。 因此,使用 电这一特点看来只是表面上的相似性 。我们与其寻求这样的相似性 , 还不如寻求数学上的功能相似性 。

5. 数字计算机的普适性

上一节提到的数字计算机 ,可以归入“离散状态机” 一类 ,这些 机器的运动是通过突然跳动或是通过棘轮 ,从一个完全确定的状态 , 转变到另一个完全确定的状态 。这些状态截然不同 ,所以它们之间不 存在棍淆的可能 。严格地说,这样的机器并不存在,每一物体的真实

看来 ,一旦确定机器的初始状态和输入信号,就总是可以预见所有 未来的状态。这使我们想起拉普拉斯的观点 :从宇窗在某一时刻由它 的所有粒子的位置和速度所描述的完整状态出发 ,就可以预言出所有的 未来状态。然而,同拉普拉斯所作的预言相比,我们拟议中的预言更 具可行性。 “宇宙整体” 系统有这种特点 :初始条件中微小的错误, 在其后的时间中 ,会产生出势不可挡的效果。一个单个的电子在某一 时刻发生十亿分之一厘米的位移,就可能造成一个人一年后被雪崩杀死 还是死里逃生这样重大的区别 。这种现象不会在我们称之为 “离散状 态机” 的机械系统中发生 ,这是该系统的基本特性。即使我们考虑的 是实际的物质机器 ,而不是理想化的机器,在某一时刻对于某一状态的 足够准确的知识 ,在其后任何数量的步骤上,仍能产生出足够准确的知识。

如前所述 ,数字计算机属于离散状态的机器类别。但是这种机器 所能有的状态数一般是相当大的 。例如 ,现在在曼彻斯特工作的那台 机器,其状态数大约是216川,也就是约10抑制 。把它和上述例子中有 三个状态的棘轮加以比较 ,不难看出其状态数为什么会如此巨大 。计 算机中有存储器 ,它相当于人类计算机使用的纸张。必须有可能把写在纸上的任何一种符号组合写入存储器 。为简单起见 ,假定只使用从{) 到9 的数字作为符号 ,各种手写体不予考虑 。假定计算机可接受 1()()

张纸,每张纸有50 行,每一行有 30 个字的位置 。那么状态数就是1011•

状态数以 2 为底的对数通常称为机器的 “存储容量”。这样曼彻斯特 机的存储容量大约是 165000,而我们例子中的那个轮机的容量大约是 1. 6。如果把两台机器并到一起 ,它们的容量必须相加,才能得到合成 机的容量 。这种情况可能导致这样的陈述 :“曼彻斯特机含有 64 个磁 道,每一磁道的容量是2560 ,还有8 个电子管 ,每个容量为1280,其他 各项的存储量大约是 300 ,这样总计就是174380。”

一旦有了和离散状态的机器相对应的表 ,就可以预言它将要做什么。完全有理由说 ,可以用数字计算机来执行这样的演算 。如果数字 计算机干得足够快 ,它就能够模仿任何离散状态机的行为。那么,如 果用当前的机器(作为 B) 和模仿数字计算机( 作为 A) 来表演模仿游戏 , 提问者是无法把它们区分开来的 。当然数字计算机不仅要工作得足够 快,还要有足够的存储容量。此外 ,必须对每一台要进行模仿的新机 器重新编程 。

由于数字计算机具有能模仿任何离散状态的机器这一特殊性能 ,它 们被说成是万能机器 。存在着具有这种特殊性能的机器的意义是重大 的z 如果排除速度因素 ,就没有必要为完成各种不同的计算过程,而去设计各种不同的新机器 。所有计算都可以用一台数字计算机来完成 , 在每一种情况下只要配以适合的程序即可。 由此可以认为,在一定意 义上,所有数字计算机都是等价的。

现在我们再来看看第 3 节结尾处提出的那个观点 。我们曾经试探 性地提出 “机器能够思维吗?” 这个问题 ,可否代之以“存在着可以想象得到的能够在模仿游戏中干得出色的数字计算机吗 ?” 如果我们愿意 的话,我们可以使这问题看起来更具一般性,即问:“存在着能够干得 出色的离散状态的机器吗?” 但是从普适性的角度出发 ,我们认为上述 两个问题都与下述问题等价:“我们只讨论一台特定的数字计算机 C。如果经过改进 ,使这台计算机具备合乎要求的存储,动作速度也相应提高,同时还为它提供了恰当的程序 ,那么在模仿游戏中 ,由人担任B 的 角色 ,C 就能够令人满意地扮演 A 的角色,这有可能成为事实吗?”

6. 对主要问题的庭对意见

现在我们可以考察一下这个已经得到澄清的基础 ,并准备就我们的问题 “机器能够思维吗?” 以及上一节结束时提到的该问题的转换形式进 行辩论。我们不能完全放弃这个问题的原有形式 ,因为在替换形式恰当 与否的问题上 ,存在不同见解,我们至少应该昕一昕与之有关的意见。

如果我先就这一问题谈谈我自己的意见 ,对读者来说,情况可能会 更加明了。首先来看一下这一问题的较精确的形式 。我认为 ,在大约 50 年的时间里 ,有可能对具有约10"存储容量的计算机进行编程,使得 它们在演示模仿游戏时达到这样出色的程度 z 经过 5 分钟提间,一般提 问者作出正确判断的机会 ,不会超过70% 。我认为 ,原来的问题“机 器能够思维吗?” 意义太不明确,因而不值得讨论。但是我认为 ,到本 世纪末 ,在使用词以及由教育形成的一般见解方面将会发生很大变化 , 使得人们在谈论机器思维的问题时,可以不再担心有矛盾发生 。我还 进一步认为 ,把这些意见隐蔽起来,对任何有用的目标都是不适宜的。 有一种流行的观点认为 ,科学家坚持不懈地沿着从确认的事实到确认的 事实的路线前进 ,而从不受任何有改进的猜想的影响,这观点是相当错误的。假如澄清了什么是已经证明的事实 ,什么是猜想,不会产生什 么害处。猜想是极其重要的 ,因为它们可以为研究提供有用的思路 。

下面就来看看那些与我的见解相反的意见。

神学反对意见

思维是人类不朽灵魂的一种机能 。上帝把不朽的灵魂给了每个男人和女人 ,而没有给任何其他动物和机器。所以任何动物和机器都不能思维。[1]

我完全不能接受这种说法 ,但是我愿意用神学方式来寻求回答。 我觉得,把动物和人归入同一类,这样的论点更令人信服,因为在我的 思想中,典型的有生命之物和无生命之物之间的区别,要比人和其他动 物之间的区别更大些。如果我们考虑到其他宗教群体成员对待这个问 题的态度 ,这一正统观点的武断性就会显得更加清楚。穆斯林认为女人没有灵魂 ,对于这个观点,基督徒是怎样想的呢 ?但是让我们撇开这 一点不谈 ,言归正传。在我看来 ,上面引用的论点中隐含着对全能上 帝无限权力的一种严重的限制 。应该承认,有些事情上帝无法做到, 比如让 1 等于 2,但是难道我们不应该相信上帝有这样的自由z 他如果 认为合适而把灵魂给予一头大象吗 ?我们或可认为 ,上帝只在结合着能 给大象一个恰当改进的脑以满足灵魂需要的基因突变的情况下才运用这一权力。对机器来说 ,也可以作出形式上完全相似的论证。其不同之 处也许是后者更难以 “下咽”。但是这实际上只不过意味着 ,我们认 为,上帝是不大会考虑哪些环境是适合于赋予灵魂的。这里谈到的情 况将在本文的其他部分讨论 。在打算构造这种机器的时候 ,我们不应 当比我们在繁衍后代时更加不敬地悟越上帝创造灵魂的权力 ,不管就这 两种情况的哪一种而言 ,我们都不过是上帝意志的工具 ,是为他所创造 的心灵提供住所而已。

然而这只不过是一种臆想。至于神学论点 ,无论它们可以用来支 持什么,都不会给我留下深刻印象 。历史上 ,像这样无法使人满意的 论点屡见不鲜 。在伽利略时代 ,人们认为教科书上的“太阳仍站在那 里 整个白天里它都不急于落下” ( 《约书亚记》 11l: 13 ) 和 “上帝为 地球安放了基础 ,任何时候它都不会移动”( 《诗篇》 105: 5 ) 是反驳哥 白尼理论的充分理由 。从今天的知识来看 ,这样的论点毫无价值。 当一种知识失效之后 ,人们的印象就大不相同了 。

“把头埋在沙中” 的反对意见

“机器思维的后果太可怕了 ,我 们希望并且相信机器做不到这 一点。”

如此坦白的论点实属难得。但是大部分认真思考这一问题的人 , 都受到它的影响 。我们愿意相信 ,人类以某种微妙的方式优于其他生 物。如果能够证明人类必然优越,那是再好不过的 ,这样,人类就没 有失去其居高临下地位的危险 。神学论点的流行显然与这种情感有 关。在知识阶层中 ,这种情感似乎十分强烈,因为他们比别的人更加 看重思维的能力 ,并且更倾向于把他们有关人类优越性的信念建立在这 种能力的基础上。

我认为这个论点没有多大价值 ,不值一驳,给一点安慰可能更恰当 些,这种安慰也许应该从灵魂轮回说中去找。

鼓掌上的反对意见

数理逻辑的许多结果都可以 用来证明:离散状态机器的能力是有限 度的。这些结果中最著名的就是所谓的哥德尔定理( Godel 1931 ) ,它 表明,在任何功能充分的逻辑系统中,都可以形成一些陈述,它们在系 统内部既不能被证明 ,也不能被证伪,除非是这种情况:系统本身不一 致。还有一些在某些方 面与之类似的结果 ,它们来自丘奇 ( Church 1936) ,克利恩(Kleene 1935) ,罗素和图灵(Turing 1937) 。后一结果研 究起来最方便 ,因为它直接涉及机器,而其他的只能用于较为间接的论 证,例如使用哥德尔定理时,必须增加一些用机器描述逻辑系统以及用逻辑系统描述机器的方法 。该结果所涉及的机器本质上属于有无限容 量的数字计算机式的类型 。这一结果认为存在着这种机器做不到的某 些事情。如果像在模仿游戏中那样 ,使装备好的机器回答问题,就会 出现这样的后果 :对某些问题或是作出错误回答,或是根本无法回答,

尽管回答的时间不受限制 。这样的问题无疑有很多 ,这一台机器不能 回答的问题,另一台机器也许能作出令人满意的回答。当然,我们暂 且假定 ,问题属于只需作出 “是” 或 “不是” 这种回答的类型,而不是 像 “你对毕加索有什么看法 ?” 这样的问题。我们知道这些机器肯定无 法回答属于这种类型的问题 :“假如对机器作如下详细说明 这机器 对任何问题都回答 ‘ 是’ 吗?” 省略号将代之以对某一机器所作的标准形式的描述 ,有可能像§ 5 中使用的那种形式。当所述机器与接受提 问的机器具有某种比较简单的关系时,可以证明 ,或是作出错误回答, 或是无法回答 。这是一个数学结论 z 经论证,证明机器是有能力缺陷 的,而人类智能不比机器逊色。

对这个论点的简单答复是,虽然已经证明了任何一台特定机器的能 力都是有限的,但在没有任何一种证据的情况下,所阐明的只是:对于 人类智能 ,这种限度是不适用的 。但是我认为这个观点不可能如此轻易 地驳倒。只要向一台这样的机器提出恰当的难以 回答的问踵,当它给出 一个确定的答案时 ,我们知道这个答案必然是错误的,这样我们就产生了某种优越感。这种感觉是虚幻的吗?它无疑是真实的 ,但是我认为不 必过分看重这一点。我们因证明机器易犯错误而沾沾自喜,这是没有道理的,因为我们自己在回答问题时出的错是够多的了。进一步说 ,我们 之所以产生优越感 ,是因为在和一台机器打交道时,取得了优于它的小 小胜利。当然,也有可能是同时战胜所有机器。那么简言之 ,可能有 一些人比任何现有的机器都聪明 ,但是另一方面,也可能有另一些比人 更聪明的机器,如此等等。

据我看 ,那些持有数学论点的人,大都愿意接受模仿游戏作为讨论 的基础。那些相信前两种反对意见的人 ,很可能对任何判据都不感 兴趣。

有关意识的论点

杰斐逊教授在 1949 年的利斯特讲演中将这个论点表达得淋漓尽致,我引用其中一段 :

“除非机器能够做到因为有思想 、懂感情而不是通过符号的偶 然来临去 写 十四行诗或创作协奏曲 ,否则 我们不能认为机器与 大脑 是等同的一一 也就是说,不仅把它 写 出来 ,而且知道已经把它 写 出 来了 。任何机器都不可能感觉到( 不仅是人为 地发出 信号而已 ,这 种设计是简易的)成功 时的愉悦和电子管烧毁时的 悲 伤 ,也不会 因 听到奉承而兴奋 ,因犯错误而苦恼 ,因见到异性而着迷 ,在愿望 实现不了 时发怒或沮丧 。”

看来 ,这个论点否定了我们试验的有效性 。从这个观点的最极端 的形式来看,确认一台机器能否思维的惟一办法,就是变成这台机器, 并感受到自己在思维 。然后可以向世人描述这些感受 ,但是,毫无疑 问,任何人所做的任何介绍都不能被认为是正确的。同样,根据这一 观点,得知一个人会思维的惟一方法,就是变成这个特定的人。这实 际上是唯我论的观点 。这也许是可能持有的最符合逻辑的观点 ,但是 它使思想交流发生困难 。A 倾向于认为 “A 会思维 ,而 B 不会思 维”, B却认为 “B会思维 ,而A 不会思维”。我们不再就这一观点继 续争论,出于礼貌习惯,一般认为每个人都可以思维。

可以肯定 ,杰斐逊教授并不想采取极端的、唯我论的观点 ,他可能 十分愿意接受模仿游戏作为试验 。这个游戏( 在没有参与者 B 的情况 下)在实际运用时往往叫作口试 ,自的是了解某个人是真正懂得某个事 物 ,还是“死记硬背”。 让我们昕一段这样的口试 :

提问者 :你的十四行诗的第一行为“让我把你比作夏日”,是不是 同样可以用 “春日”,甚至更好些 ?

参试者 :这样不合韵律。

提问者 :“冬日” 怎么样?这完全合乎韵律 。参试者 :是的,但是没有人愿意被比作冬日。

提问者 :你是不是认为匹克威克先生让你想起圣诞节?参试者 :多少有一点。

提问者 :但是圣诞节是一个冬日,我想匹克威克先生是不会反对这 种比较的。

参试者 :我认为你不够认真。冬日的意思是一个有冬天特征的日 子,而不是一个像圣诞节那样的特殊的日子。

如此等等。如果写作十四行诗的机器在口试中能够作出这样的回答,杰斐逊教授会说什么呢?我不知道他是否还会认为机器的回答 “只 不过是人为地发出信号”,但是如果回答能像上段中那样令人满意 ,并 且滔滔不绝 ,我认为他就不会把机器说成是“一种简易的设计”。 我 想,这个短语所指的不过是这种装置:在机器中装入一段某个人阅读十 四行诗的记录,再加上→个’恰当的开关 ,可随时打开它。

总之 ,我认为可以说服大多数支持意识论观点 的人放弃这一论点 , 而不是把他们推向唯我论的立场 。这样的话 ,他们也许就愿意接受我 们的试验。

我不希望给人以我认为意识与神秘性无关的印象例如 ,某种悖 论的内容就与把神秘性限制在一定范围内的企图有关 。但是我认为 , 在我们能回答本文所涉及的那些问题之前 ,我们不一定非得将这些神秘 性弄清楚。

有关各种能力缺陷的论点

这些论点是这样的 :“就算你真的能够让一台机器完成你提到的所 有那些事情 ,但是你决不可能让一台机器做到X。”这里 X 的特征很多,下面只是其中的一部分 :

要仁慈 ,机智,漂亮 ,友好,有首创精神,有幽默感,能辨别是 非 ,会犯错误 ,会坠入情网,爱吃草莓冰棋淋,能让别人爱上自己,会 从经验中学习 ,用词得当 ,能成为自己思想的主题,像人一样行为多 变 ,做出某件全新的事情。

一般情况下 ,这些说法是无根据的。我认为 ,它们主要建立在科 学归纳原理的基础上 。人在一生中见过成千上万的机器 ,他从在机器 身上所看到的东西中 ,得出许多一般性结论 :它们又粗又笨,每台机器 只能用于非常有限的目标 ,目标稍有变化,它们就变得毫无用处 ,无论 何种机器 ,行为变化都非常之少,等等。他自然得出这样的结论 :这 些是机器一般的必要特性 。在这些局限性中 ,许多与大多数机器存储 容量过小有关 。( 我假定将存储容量的概念以某种方式扩展到离散状态 机以外的那些机器上去。准确的定义并不重要,因为在当前的讨论中并不要求数学上的精确性 。) 几年前 ,很少昕说过数字计算机,如果只 谈它们的特点 ,而不讲它们的构造,那就很可能对它们产生许多疑惑。 这大概是由于类似地运用了科学归纳原理 ,当然,这原理的这些运用在 很大程度上是无意识的 。挨过烧的孩子怕火 ,并且通过躲避火表现出 他怕火 ,这时,我就可以说他是在运用科学归纳 。( 当然,我也能用许 多别的方式来描述他的行为 。} 人类的工作和习惯看来不大适合作为科 学归纳的素材。要获得可靠的结果,必须在相当大的时空范围中进行研究 ,否则,我们有可能(像许多英国儿童那样) 判断说,人人都讲英 语,学法语真傻。

然而 ,针对前面提到的许多能力缺陆,有一些专门评论。没有品 尝草莓冰j其淋的能力,在读者看来,是无足轻重的。造一台能品尝这 种美昧的机器并非不可能 ,但是试图使人们这样做,近乎白痴。重要 的是,这种能力缺陷会引起另一些能力缺陷 ,比如难于在人与机器之间 形成像白人和白人或黑人与黑人之间那样的友谊 。

“机器不会出错” 这种断言显得有点奇特 ,有人甚至反驳说“这样 是不是更糟呢?” 但我们还是采取较为赞同的态度 ,看一看它真正的意 义是什么。我想,可以通过模仿游戏来解释这个批评 。有一种看法 是,提问者只要让人和机器做一些算术题,就可以把两者区分开来 。机器会暴露 ,因为它太准确了。对此作答复并不困难 。(为做游戏而 配有程序的)机器不必力求对算术问题作出正确回答 ,它可以在演算方

式中有意制造 些错误,来迷惑提问者。由于对算术错误类型选择不 当,机器的失误也会自己暴露出来。即使这样来解释这一批评 ,其赞 同的程度仍不够充分。但是我们进一步发展的余地已经不大了 。在我 看来 ,这种批评其实是混淆了两种类别的错误。我们可以称其为“功 能性错误” 和 “结论性错误”。 功能错误是由于有某种机械的或电的 问题,使机器不能按照设计方式运行。在哲学讨论中 ,人们倾向于忽 略这种错误的可能 ,因而所讨论的是“抽象机器”。这些抽象机器是 数学构想 ,而不是物理对象。根据定义 ,它们不会造成功能性错误。 在这个意义上 ,我们确实可以说 “机器从不出错”。 结论性错误只有在机器的输出信号具有某种意义时才会出现 。例如机器可能打印出数 学方程或英语句子 。如果机器打出一个错误的命题 ,我们就说它犯了 结论性错误 。显然没有任何理由说机器不会造成这种错误 。它也可能 除了反复地打出 “0 = 1” 以外什么也不做。举一个较合常理的例子 , 它可能运用通过科学归纳得出结论的方法 。我们→定会估计到 ,这种 方法偶尔也会产生错误的结果 。

这种看法认为 ,机器不可能成为自己思想的主题。要对此作出回 答,当然只有证明机器对某种题材具有某个思想 。然而 “机器运算的 题材” 看来必然意味着什么东西,至少对有关的人来说是如此 。举例

说,如果机器试图解方程x2 - 4x - 11 = O ,就不妨认为,在这一刻这个

方程就是机器的题材。在这种意义上 ,机器毫无疑问地可以是自己的 题材。它可以用来协助机器编自己的程序 ,或是预测它自己结构变化 后的结果。通过观察自己行为的结果 ,机器可以修改自己的程序,以 便更有效地实现某种目标 。这些都有可能在不久的将来实现 ,而不是 乌托邦式的梦想。

那种批评机器不可能有丰富多采的行为的说法 ,等于在说机器不可 能有丰富的存储容量。直至最近 ,甚至一千个数字的存储容量还是很 罕见的。

我们这里提到的种种批评 ,常常以意识论点的形式伪装起来。通常只要知道了机器能够做出一件这样的事情 ,并对机器可能使用的那种 方法加以描述 ,人们就不会依赖于印象了。大家都认为 ,方法(不管它 可能是什么 ,因为它必然是机械的)的确是相当低级的。我们可以比较 一下前面引用的杰斐逊讲演中括号内 的文字。

洛夫莱斯夫人的反对意见

有关巴比奇分析机的最详细资料,来自洛夫莱斯夫 人的回忆录 ( Lovelace 1842) 。她在回忆录中写道 :“分析机无权说它创造出什么 新的东西。它所能做的都是那些我们知道怎样命令它去执行的事 情。”(着重号为她自己所加)哈特里( Hartree 1949) 引用了这一陈述, 并补充说:

这并不表明 ,没有可能建造一 台这样的电 子装置 .它会 “ 为 自己着想

以此作为 “ 学习” 的基础 。 这在原理上是否 可 能 ,是一 个 剌 激人 和令人兴奋的问题 ,某 些新近的发展已 经暗示 出这一 点。 但是 , 看来那个时代制造或设计的机器并不具有这种特性 。

在这一点上,我与哈特里完全一致。应当看到 ,他并不是认为所 讨论的机器没有得到这种特性,而是认为洛夫莱斯夫人所能获得的证据 没有使她相信机器具有这种特性 。从某种意义上说 ,这种机器得到这 一特性的可能非常之大 ,因为我们可以设想某一离散机器具有这种特 性。分析机是一种普适的数字计算机 ,所以只要有相适应的存储容量和速率,就可以通过适合的程序 ,用来模仿我们所讨论的机器。伯爵 夫人或巴比奇不大可能提出这种观点 。无论如何 ,他们并没有责任断 言所有能够断言的东西。

这个问题将在以 “学习机” 为题的一节中完整地加以 考虑。洛夫莱斯夫人反对意见的另一种说法是,机器“从来不能做任何全

新的事情”。 我们可以暂时用谚语来对答 :“太阳底下没有新东西 。” 谁能断言他所做的“原创性工作” 不过是由老师在他身上播下的种子生 长而成的呢?或者不过是从众所周知的 般原理中得到的结果 。这种 反对意见还有一种较好的说法 :机器永远不会“使我们出乎意料”。这一说法是一种更直截了当的挑战 ,也可以直截了当地与之交锋。机 器让我出乎意料的时候非常之多 。这在很大程度上是因为我没有对于 要确定期待机器做什么作出充分的演算 ,或者毋宁说是因为虽然我做过演算 ,但是演算得有点匆忙、马虎,有点冒险。我也许对自己说 :“我 假定这儿的电压应当和那儿的一样 ,反正这样假定就是了。”毫不奇 怪,我会经常出错,得到出乎意料的结果 ,因为在实验做完时,我已经 忘记了这个假定。这些自供会招致人们对我不良作风的谴责 ,但是人 们不会怀疑我所说的意料之外体验的真实性 。

我并不指望这个答复会使批评我的人保持缄默 。他可能会说,那 种出乎意料是由于我身上的某种创造性心理活动造成的 ,并不能为机器 增光。这样,我们又被带回出自意识的论点,而远离出乎意料的这一 概念。我们应该认为这种争论已经结束 ,但是也许值得指出,把某一 事物评价为出乎意料的 ,同样需要“创造性心理活动”,无论出乎意料 的事是源自一个人 、本书、一台机器 ,或是其他什么东西。

我相信,机器不可能让人出乎意料的观点起因于哲学家和数学家们 特别容易持有的一个谬见 。它假定:一旦事实呈现于心灵,这个事实 的全部后果就会与之同时涌入心灵之中 。在很多场合,这是一个很有 用的假定 ,但是人们太容易忘掉它错误的一面。这样做的自然结果是人们就此假定 ,仅仅从数据和一般原理推出结论,是没有什么价值的。

有关神经系统连续性的论点

神经系统肯定不是一台离散状态的机器 。神经脉冲冲击神经元 时,有关它大小的信息方面出现一个小小的错误,就可能造成输出脉冲 大小的巨大差别。可以认为 ,如果这样,就不能指望用离散状态系统模仿神经系统的行为 。

诚然 ,离散状态的机器肯定不同于连续机,但是如果我们遵照模仿 游戏的条件 ,提问者也无法从这种不同中得到什么好处 。如果我们考 虑另外一台较为简单的连续机 ,情况就会更加清楚。微分分析机就很 合适。(微分分析机是用于某些演算的 种非离散状态型的机器 。)有 些微分分析机用打印方式给出答案 ,所以适合于做这个游戏。一台数 字计算机虽然不可能精确地预言微分分析机怎样回答一个问题 ,但是它

完全可以给出答案的正确类型 。例如,如果需要求出π 的值(实际值 约为 3. 1416) ,合理的做法是在3. 12, 3. 13, 3. 14, 3. 15, 3. 16 各值中

任意选取 ,它们的概率分别是 ( 比如说)0. 05, 0. 15, 0. 55, 0. 19,

0. 悦。在这种情况下 ,提问者很难把微分分析机与数字计算机区别开来。

有关行为的非形式特性的特点

建立一组规则 ,以说明一个人在所有情况下应该做什么 ,这是无法 办到的事情。例如 ,有这样一个规则 ,看到红色交通灯时应该停下来 ,看到绿灯时可以行进 ,但是,若由于某种故障,两灯同时亮起来 , 该怎么办?人们可能会作出判断 z 停下来最安全 。但是某个新的难题 又会随之而来 。想要为所有的突发性事件提供指导规则 ,即使就交通 灯的情况来说,也是办不到的。我完全同意这一点 。

由此,就论证了我们不可能是机器。我想重新提出这个论点 ,只 是担心有欠公允 。也许可以采用这样的说法 :“如果每个人都有一套确定的制约他的生活的指导规则 ,人就并不比一台机器更强s 但是这样 的规则是不存在的 ,所以人不可能是机器。”这里最醒目的是不周延中 项。我认为这个论点从未这样提出过 ,但是我相信这毕竟是一个曾经 使用过的论点。然而,“指导规则” 与 “行为规律” 之间可能有某种棍 淆,致使这个问题模糊不清 。我所谓的 “指导规则” 指的是像 “看到 红灯即停” 这样的条例 ,人们可以根据它来行动 ,也能意识到它的存

在。而所谓 “行为规律” 则是指适用于人体的自然规律 ,例如“如果 你刺痛他 ,他就会尖叫起来”。如果我们用 “制约他的生活的行为规 律” 来替换上述论点中的 “制约他的生活的指导规律”,那么不周延中 项就不再是不可逾越的 。因为我们相信,受到行为规律制约,就意味 着是某种机器(虽然不一定是离散状态的机器),这是正确的,不仅如 此,反过来,是这种机器,就意味着受到行为规律的制约,这也是正确的。然而,我们不能像认为完备的指导规则不存在一样,简单地认为 完备的行为规律也不存在 。就我们所知 ,发现这种规律的惟一方法是 科学观察 ,我们当然也明白,在任何情况下,都无法说:“我们的搜寻 已经很充分,并没有这样的规律。”

我们可以作出更为有力的证明 :任何这种形式的陈述都是未经证实 的。让我们假定 ,如果这种规律存在,我们就有把握找到宫。那么, 如果有一台离散状态的机器 ,就完全有可能在一个合理的时间段内,比 如说在一千年里 ,由对它的充分观察得到的发现,来预见它未来的行 为。但是看来事情并非如此 。我在曼彻斯特计算机上装了一个小程 序,仅用了1000 个存储单元 ,然后,给这台机器一个16 位数,它在两 秒钟内就用另一个16 位数作出答复。我会认为,没有人因熟知这些对 程序来说是充分的答复 ,而能够预言任何对未经试验的值所作的答复。

有关超感知觉的论点

我假定读者对超感知觉的思想是熟悉的 ,也熟悉它所指的四个方 面,即:心灵感应、视力穿透 、预知未来和远距离致动 。这些令人眼 花缭乱的现象 ,似乎是对我们所有常规科学思想的否定。我多么希望 证明这些都是假的 遗憾的是 ,至少对心灵感应 ,统计学提供了强有力 的证据。让人们改变思想 ,接受这些新的事实 ,是十分困难的。人们 一旦接受了这些思想 ,似乎离相信鬼怪也就不远了。作为第一步 ,我 们先来看看这种思想 :我们的身体是直接根据已知的物理定律,以及另 一些尚未发现 、但也多少有些类似的定律运动的 。

我认为这是一个很有分量的论证 。人们可以回答说,许多科学理 论尽管与超感知觉相抵触 ,在实践中看来仍是行之有效的 。还可以 说,如果忘记超感知觉 ,事实上是可以过得很好的 。这是一种没有什 么作用的安慰 ,人们所担心的是,思维恰恰是那种与超感知觉有特殊联 系的现象。

在超感知觉的基础上 ,可能出现下面这种较为特别的论点:“我们 来做模仿游戏 ,作为参试者的是一个擅长接受心灵感应的人和一台数字 计算机。提问者可以问这样的问题 :‘ 我手上的这张牌属于什么花色?’ 这个人通过心灵感应或视力穿透 ,在400 张牌中作出正确回答 130 次。机器只能任意猜测 ,可能有 104 次正确,于是提问者就能作出正 确判断。”这里出现的是→个值得注意的概率 ,假定数字计算机带有随 机数字发生器 ,自然会用它来决定作出什么回答。但是随机数字发生 器也可能受到提问者远距离致动作用力的影响 。这种远距离致动有可 能使机器猜对的次数多于由概率估算的次数 ,所以提问者还是不能作出 正确判断。另一方面,提问者也有可能根本不作提间,而是通过视力 穿透作出正确的猜测 。对于超感知觉来说 ,任何事情都可能发生。

如果承认有心灵感应 ,我们的试验必须严加控制。可以认为这情 况类似于 E 提问者正在自言自语 ,一个参赛者把耳朵贴在墙上倾听。只有把参赛者关在 “防心灵感应室” 内,才能完全符合要求。

7. 学习机

读者可能早就想到了 ,我无法从肯定的角度作出非常有说服力的论 证来支持我的观点 。如果能拿出的话 ,我就不用这样煞费苦心地列举 反面观点中的错误了。不过我还是有一点证据 ,现在就来谈一谈。

此刻我们再回到洛夫莱斯夫人的反对意见上 ,这个意见认为机器只 能做我们叫它去做的事情 。有的人说,人能够把一个思想“注入” 机

器,机器也会在一定程度上作出反应,然后回归静止,就像钢琴弦被小 锤敲了一下那样。另一种比喻是小于临界尺寸的原子反应堆 :注入的 思想像一个从外面进入反应堆的中子 。每一个这样的中子都会引 起一 定扰动 ,最后再归于沉寂。然而,反应堆的尺寸增加到 定程度,这个侵入中子引起的扰动就很可能继续进行 ,不断增大,直到整个反应堆 被摧毁。对心灵来说 ,有类似的现象存在吗?对机器来说呢?对人类 心灵来说,确乎有这样的现象 。大多数心灵状态看来 是 “亚临界 的”,即相当于这一比喻中所说的低于临界尺寸的堆 。一个出现在这 种心灵中的思想,所引起的思想响应平均起来还不到一个 。超临界的 情况所占比例甚小。一个出现在这种心灵中的思想,有可能引发整个 “理论”,其中包含着第二层 、第三层和更远距离的思想 。动物的心 灵看来毫无疑问是亚临界的 。从这种比喻出发 ,我们要问:“可以使 机器成为超临界的吗?”

“洋葱皮” 比喻也有助于我们的理解 。在考虑心灵或大脑功能 时,我们发现某些运算可以 用纯机械方式来解释 。这种情况不能代表 真正的心灵 ,它是一种表皮,如果我们要找到真正的心灵,就必须把它 剥掉。但是在剩余的部分中 ,我们又会发现新的要剥去的表皮,这种 做法可继续下去 。照此进行 ,我们是抵达了 “真正” 的心灵呢,还是 最终只看到一层内中空空如也的皮 ?如果是后者,整个心灵就是机械 的。( 然而它不是一台离散状态机器,这一点我们已讨论过。)

以上两段算不上令人信服的论证,把它们看作是“抛砖引玉” 也许 更为得当 。

能够对第 6 节开始时谈到的那个观 点提供真正令人满意的根据 ,恐 怕要等到本世纪末了 ,那时将由上述实验来说话。但是在这期间 ,我 们能说些什么 昵?如果要使这实验成功 ,我们现在应采取什么步骤呢?

正如我已经解释过的那样 ,这主要是一个编程问题。工程方面的 改进也是必要的 ,但看起来还能适应要求 。估计大脑的存储容量在 101<1到 1015个二进制数字之间 。我倾向于较低的值,并且认为用于较高级思维的只是其中的一小部分 。它们之中的大部分可能是用于保留视 觉印象的。如果成功表演模仿游戏所需的容量超过 1()'',我会感到吃 惊,至少与盲人的情况不符。 (注:第11 版 《大不例颠百科全书》 的容 量是 2 ×1(}9 。)即使采用目前的技术,也完全有可能实现1()7 的存储容 量。也许根本没有必要提高机器的运算速率 。那些可当作神经细胞对 应物的现代机器部件 ,它们的工作大约比神经细胞快一千倍。这样就 有了一个 “安全裕度”, 可以弥补各种情况引起的速率损失 。于是我 们的问题就是弄清楚该怎样为这些机器编制做这个游戏的程序 。根据 我目前的工作速度 ,我大概一天能编一千个数字的程序,所以如果不出 现失误,大约60 个人员,持续工作50 年,才有可能完成这项工作。看 来需要某种更迅捷的方法 。

在试图模仿成人心灵的过程中 ,我们必须对那个把心灵带入它所处 状态的过程作大量的思考 。我们应当注意三个因素 :

1.心灵的初始状态 ,比如说出生时的状态$

2. 所受教育$

3. 心灵经历的 、但不能看作是教育 的其他经验。与其试图编制模拟成人心灵的程序 ,为什么不代之以编制模拟儿童

心灵的程序昵?如果让儿童的大脑经历适当的教青过程 ,就能获得成人 的大脑。可以假定儿童的大脑多少有点像刚从文具店买来的笔记本 , 它的机制很少 ,但有大量空白页。( 根据我们的观点 ,机制和书写差不 多是同义的。)我们希望的是 ,儿童大脑的机制非常之少,很容易为类 似的东西编制程序 。作为初步近似 ,我们可以假定,对其实施教育的 工作量 ,与教育人类儿童所用的一样多。

这样,我们就把问题分作两部分:儿童心灵程序和教育过程。这 两个部分的联系十分密切 。我们不能指望在初次尝试中就得到性能良 好的儿童机 。我们必须对一台像这样的机器进行教学实验 ,看一看它 学习得如何 ,然后再试另一台机器,看它比前一台是好还是差。这一 过程和进化显然存在联系,如下列等式所示:

儿童机的结构遗传素质 儿童机的变化突变 实验者的判断自然选择

然而 ,人们也许希望这个过程能比进化更迅捷 。用适者生存作为 衡量优势的方法太缓慢。通过智能练习 ,实验者有可能使进度加快 。实验者不受随机突变的限制 ,这个事实也同样重要。如果能够追踪某 个弱点的原因,实验者就有可能设计出一种突变来改进它 。

教机器学习的过程 ,不可能与教普通儿童的完全相同。例如 ,没 有给机器安上腿 ,所以不能要求它到外面去把煤斗装满。它也可能没 有眼睛。尽管这些缺陷可以 由精巧的技术工艺来弥补,但是把这个杰 作送到学校去 ,不会不引起其他孩子对它的大肆取笑。必须对它作某 种个别辅导。我们不必过分看重腿 、眼睛什么的,海伦· 凯勒小姐的 例子表明 ,只要能够用这种或那种方法在老师和学生之间实现双向交流,教育就能够实现。

我们通常把惩罚和奖励与教育过程结合起来 。有些简单的儿童机 可以根据这种原理构造或编程 。机器必须构造得使那些在出现惩罚信 号前不久发生的事件不大可能再次发生 ,而奖励信号则能提高导致这信 号的事件的重复概率 。这些规定并没有预先假定机器部件有任何感知 方式。我曾在一台这样的儿童机上做过一些实验,成功地教会它一些 事情 ,但是教授方法太不正规了,所以这个实验还不能算是真正成 功的。

采用惩罚和奖励充其量只能是教学过程的一部分 。粗略地说 ,如 果教师没有其他与学生沟通的方法 ,那么能教给学生的信息量,不会超 过所施奖励和惩罚的总数 。在儿童学会重复“Casabianca "这个词时 , 如果其内容只能通过 “二十问” 的技巧获知 ,儿童很可能感到十分痛 苦,因为每一个“否” 字都是一次打击 。所以必须有某种别的 “非情 感” 交流渠道。如果有这种渠道存在 ,就有可能通过奖惩方式教机器学会服从用某种语言 ,例如符号语言下达的命令 。这些命令是经过

“非情感” 渠道传递的。使用这种语言,将会大大减少所需的奖惩 次数。

至于何种复杂程度适合于儿童机,有各种不同的见解。可以尝试 使它尽可能地简单 ,只要不违背一般原理即可。另一种做法则是 ,可 以用一个完全的 “嵌入” [ I] 逻辑推理的系统。在后一情况下 ,存储主要 被定义和命题所占据 。命题状况类型各异 ,例如:完全确认的事实、 猜想、由数学证明的定理、权威的意见 、具有逻辑命题形式而不具有置 信值的表达式 。某些命题可以看作是 “命令”。机器应按这种方式构 造 :只要一个命令被归入 “完全确立” 一类,就会有恰当的动作自动发 生。为了说明这一点,假定老师对机器说,“现在做你的家庭作业 。” 这样,就会使“老师说 ‘ 现在做你的家庭作业’ ”包括在 “完全确立” 的事实中。“老师所说的每件事都是正确的”,也属于这样的事实 。把这两者结合起来 ,最终会导致一个命令:“现在做你的家庭作业”, 这个命令也包括在完全确立的事实中 ,同时,根据机器的构造,这就意 味着实际上已经开始做家庭作业 ,而结果是非常令人满意的 。机器所 用的推理过程 ,没有必要得到最严格的逻辑学家的首肯。例如 ,可能 不存在类型的层级体系 。但是这也并不是说就会发生类型错误 ,这有 点像我们越过无护栏的悬崖 ,也不一定会坠落一样 。适合的命令(在系 统内部表达的 ,但并不形成系统所具有的规则的一部分)例如 “一个类 别,如果不是老师已经提到的那个类别的子类,就不要使用”,与“不 要走得太靠边” 有异曲同工之效 。

一台没有肢体的机器所能执行的命令,必然像上述例子(做家庭作 业)那样 ,具有一定的智能特征 。在这些命令之中 ,占重要地位的是那 些规定有关逻辑系统规则的实施顺序的命令 。因为在人们使用逻辑系统的每一阶段上,都有非常之多的步骤可供选择 ,就遵循逻辑系统的规则而言,无论应用其中哪一个,都是许可的。这些选择造成了有才华 的和无能的推理者之间的差异 ,但这不是正确的和谬误的推理者之间的 差异。能够产生这种命令的命题 ,可能是 “提到苏格拉底时 ,用三段 论第一格的第一式”, 或者 “如果已经证明了一个方法比另一个方法 快,就不要使用那个慢方法”。 这些命令中有的可能是 “权威制定 的”,而另一些可能是机器自身产生的 ,例如通过科学归纳产生。

有关学习机的思想 ,在有些读者看来,可能是自相矛盾的。机器 的运算规则怎么可能改变呢 ?这些规则应该完备地描述机器的反应 ,无 论它的历史可能是什么 ,无论它会经历什么变化。 因此这些规则在时 间上是相当恒定的 。的确是这样。在学习过程中发生变化的规则 ,是 那种力量不大 、只是暂时有效的规则 ,这就是对于这种自相矛盾的解 释。读者在美国宪法中也可以 找到类似的东西 。

学习机的一个重要特征是 ,它的教师对于它的内部过程是怎样的 , 往往知之甚少 ,尽管他在一定程度上仍能预言他学生的行为。这一特 征非常适用于一台其设计(或程序)经过充分试验的儿童机所产生的机器 的后续教育。这样做,显然有别于用机器做计算时的正常过程,在后 一种情况下 ,人们的目的是对机器在计算中的每一瞬间的状态,都给以 清晰的有关智力的描述 。这个目的要经过艰苦的努力才能达到 。在这 样的事实面前 ,那种认为“机器只是能做那些我们知道怎样命令它去做 的事情” [ I] 的观点,就显得不可思议了。我们能够装入机器的大多数 程序 ,都会使机器做一些我们根本无法意识到的事情,或是我们认为是完全随意的行为的事情 。可以假定 ,智能行为存在于对计算所含照章 行事做法的偏离中 ,不过只是小量的偏离 ,不会引起随意行为或没有意 义的重复循环 。通过教和学的过程 ,从为我们的机器参加模仿游戏做 准备中得出的另一个重要结果是 ,“人类的易错性” 很可能是通过一种 相当自然的方式消除的 ,也就是不用作专门 “训练”, 就可以消除 。

(1) 与洛夫莱斯夫人的说法相比 ,这里增加了“只是” ( only )一词。

( 读者应把这与 “有关各种缺陆的论点” 一节中的观点协调起来 。)由学 习得到的过程不会产生一个百分之百的必然结果 ,如果能产生,这些过 程倒是不能不学习的 。

明智的做法可能是在学习机中设置一个随机单元 。在我们搜索某 个问题的解时 ,随机单元是相当有用的。例如 ,假定我们要在 50 到 200 之间寻找一个数字,这个数字与它数位之和的平方相等,我们可以 从 51 开始,然后试52 ,并继续下去,直到找到那个有效的数字。换一 种方式 ,我们也可以随机地选出数字,直到选出那个正确的数字。这 个方法的优点是 ,不需要记录已经试过的值,而缺点是同一数字可能试 两次 ,但是在有几个解的时候,这就无所谓了。而系统方法的缺点 是,可能不得不先去试探很大一片根本没有解的区域。现在 ,学习过 程可以看作是寻找一种让老师(或某种别的判据)得到满足的行为形式 。既然可能有非常之多的合乎要求的解存在 ,随机方法看来比系统方法更 好一些。应该看到 ,在模拟进化过程中,用的就是这个方法。但是那 里不可能用系统方法 。人们怎么可能将已试验过的不同基因组合全都 记录下 ,以避免再做重复的试验呢?

我们或许期待着,有一天,机器能够在所有纯智能的领域中同人类竞争。但是从哪里起步最好呢 ?甚至这也是一个困难的抉择 。许多人认为,非常抽象的活动,比如下棋,可能是最好的 。也有人认为 ,最好是给机器配备能买得到的最好的感觉器官 ,然后教它懂英语,并讲英语。这个过程可以像通常教孩子那样,指着东西,说出它们的名字等等。我还是不知道正确答案是什么,但是我认为两种方法都应该试 一试。

我们的目光所及 ,只能在不远的前方 ,但是可以看到,那里有大量需要去做的工作。


 
最新文章
相关阅读