四、人工智慧

主讲:纽康.格林里夫

我是学电脑科学的,有人可能认为我不该来参加这个會议,因为这是讨论心智与生命的會议,而我是搞机器的。的确,在美国,而我猜想也在世界各处,对於人类与机器的关系,正在进行非常情绪化的争辩。那当然已经是个老掉牙的争论题目了,不过最近又死灰复燃,因为在我们四周的新机器当中出现了电脑。有些人一听到将机器与人类相提并论就大有被冒犯之感,他们觉得将一个人拿来与机器作任何比较,就是侵害了人的尊严。而在相反的一面却另有人说:「当然,那太明显了,心就是部电脑或者大脑就是部电脑!」如果他们比较细心,他们會说心就像电脑,或大脑就像电脑。我的演讲将试著在某些方面阐释这项争论。

在其他几位的演讲中,已经有许多关於电脑的谈论了。瓦瑞拉教授说到大脑中的「程式」,这不是个生物学名词,它是电脑科学的用词。罗许教授谈到「由下至上」与「由上而下」。她从哪里找来这些词儿的?不是从心理学,而是从电脑方面。我们的语言中已充满电脑用语,各种人都使用电脑语词来描述各种不同的情境。或许正因为我们是在谈论心,我们反而特别应该来谈电脑。之所以如此,是因为现在电脑科学家主要的努力目标之一,就是要将电脑作成比我们人还要聪明!许多电脑科学家,在二十五年前就非常自信地说,电脑在数年之内即将超越人类。不过到目前为止,这尚未能成真。没有人真正知道何时或根本有无可能到达那种境况,但是每个人都有自己的意见。

什麼是电脑?

首先我介绍一下电脑是什麼,然後再特别来谈,要使机器与我们一样聪明或比我们更聪明的各种尝试。要描述这类的努力,当然有许多种方式,而多数电脑科学家宁可不去碰「知觉」或「理解」这类字眼;他们倒像行为主义者,喜欢说「智力(intelligence)」,因为他们相信智力是可以示范或测量的东西,而他们愿意电脑以可示范、可测量的方式显示出智力来。他们想要使电脑现出高於人类的智力,并且的确可以将人类會做的工作做得更好。

嘉瓦仁波切:到目前为止,在哪些领域中已经证明电脑比人类更有效率?

纽康.格林里夫:最初制造电脑是为了做数学计算的,它们在这方面非常出色。但是在我们今日称为「人工智慧(artificialintelligence)」的范畴内,发展了非常高效率的程式,我等下會讲到,譬如帮助医生作医疗诊断或帮律师做法律研究等。电脑也操控飞机的飞行,以及控制许多我们的工业工厂。在具有这麼多益处的同时,也存在著很大的危机,已有许多难题被提出来。电脑曾经被牵连在许多重大的工业意外事件中,但我们实在不应该怪罪电脑,那应该是人的过失是那些相信电脑可以信赖,认为他们已将电脑程式设计得精明得足以处理任何突发事件的人。假如一个电脑帮忙医生决定对某一病人的疗程,而结果病人死了,谁应该负责?医师还是程式设计员?

我们在一九八七年的十月十三日曾有一件事例。纽约的证券交易发生大崩盘!怎麼回事呢?大部分是因为许多大量投资在证券上的人,用电脑程式来决定买什麼与卖什麼。有突发事件的时候,每个人的电脑都说「卖」每个人都卖了,因此股市崩盘。在这个例子中的肇因是贪心,他们相信他们的电脑會使他们致富。

一部电脑总是包函两方面。有「硬体(hardware)」实质的物体,主要并非指外箱,而是外箱里面的组件。另外是所谓的「软体(software)」电脑里面使之产生作用的模式。软体分为两部分:一部分是程式,它是一套告诉电脑要做什麼的指令,用以控制电脑的行动;另一部分是在电脑内部接受处理的资讯。

使用者直接接触到的硬体部分包括输入装置在李文斯敦医生的电脑中是键盘,与输出装置在这里是萤幕。在外箱里面的最重要组件是储存程式与数據的记忆体,也就是我们所称的「CPU」,它代表中央处理单元(centralprocessingunit)。CPU是实际上所有动作发生的地方计算与比较,以及所有程式指示要做的工作。不过如果你朝里面看,是看不出任何动静的,因为那都是在包函数千电醇伍晶片中的超微层次间进行的。

如果电脑是个机器人,输出的则是肢体的动作,而输入可能来自录影机或机器人的按钮装置。所以我们在这里看到与瓦瑞拉教授所描述的大脑组成非常相似的东西。电脑的感应表面是键盘(或其他输入装置),而动作表面是萤幕(或其他形式的输出),电脑藉萤幕与我们沟通,告诉我们结果。

程式则主要有两类。有些是特殊用途程式(specialpurposeporgrams),如李文斯敦医生电脑里的文书处理软体(wordprocessor),将文书处理程式放入他的机器里,他的电脑就变成一位理想的秘书。它笔录他口授的话,替他写信。他必须在键盘上打字,然後电脑将数據提供到他的信里,由他随意编辑、修改,直到他的信或书成为他想要的样式。那是一位理想的秘书,绝佳的仆人,有用得让他从加州的圣地牙哥把它一路带到德兰萨拉来。它只做秘书的工作,而不做数学计算,它只装有很简单的计算机。他无法让它做所有他想要的事,基本上,它只做文书处理,也许还加了少许额外功能。

它还有头可以连到电话上,如此他可以将信或书送到远处的资讯站,而在那边印出来。或者也可以将印表机连到这部机器上。就在这里印,如此输出的方式就不仅限於显示在萤幕上,不论如何,他是在使用一特殊用途的程式来处理文书。此外还有整系列的其他特殊用途程式。美国所有的企业都使用會计程式,建筑师也时常用电脑来设计建筑物。

除了所有的特殊用途程式之外,还有所谓的通用程式(universalporgrams),这项创意需要追溯到一九三五年的亚伦.特林(AlanTuring)人工智慧与电脑发展的一位先驱。通用程式通常被称为程式语言(porgramminglanguages),使用程式语言,可以让用电脑的人写出任何他们希望电脑执行的程式。程式语言就是一个程式,它可以执行另一个程式,它使你可以写出任何你能想像出来的特殊用途程式。当然,你不能单单说:「我想像一个程式它具有无限的智慧,或它是位证悟者。」你必须想像出所有的细节,你必须设计公式来说明:在这种情形,做这个和这个;在那种情形,做那个。如果你能够想像到那种层次,你就可以写程式,而通用的电脑程式會替你执行。

程式语言有许多许多种,其中最有名的有Fortran、Lisp、Basic、Pascal,不过真正由各电脑科学家所发明的,还有不下数千种之多。在李文斯敦医生放入他电脑中的磁碟片上,有一文书处理软体。如果他买的磁碟片上包函Lisp或Pascal,我们就可以坐下来,在他的电脑上写任何我们想要的程式,然後来执行。唯一的限制是电脑的大小,记忆的容量,以及我们愿意花多少时间等候输出。

在箱子里面,基本上共有两种东西。一种是贮存记忆与数據的晶片。如果你用电脑做文书处理,那麼记忆就包括文书处理程式,以及你写的东西,二者都在同一记忆区里。另一种东西就是CPU中央处理单元,由它执行所有的行动。它由记忆中取出东西来,并将它们放回去;它自键盘接受输入,并由萤幕发送输出;它做算术的计算,也做比较;它也执行程式,也就是说它进入储存在记忆中的程式,将下一步骤拿出来,执行完,再去拿下一步骤,再执行,如此继续下去。电脑只有一个CPU,因而我们立刻可以看出来,这电脑完全不像人脑!人脑有数十亿个神经元同时在工作,而这里我们只有一个中央处理单元。在每一瞬间,只有一个地方有事情发生,因此整个计算过程是一步步完成的;对於非常复杂的程式,就會造成瓶颈。因为有这麼多步骤要做,虽然机器已经快得不得了,作业还是可能很慢。这部机器每秒钟执行数百万次细微的操作,但是做二数相加这麼简单的计算,就需要操作很多次。如果你有极为复杂的问题,就會发生困难,原因是每一时刻真正只能有一处在做事。

目前电脑科学方面有许多研究是投注在平行处理(parallelprocessing)上,那包括许多中央处理单元,它们可能各有自己的记忆,也可能共用同一记忆。究竟哪一种安排最好,仍有很大的争议。各中央处理单元如何连接在一起?而它们每一个或所有的,又该如何连接到电脑其他各部分?建造一部平行处理电脑是极端复杂与困难的问题,而且设计它的程式更是难上加难!目前电脑科学的主要研究,在於制造平行处理电脑,以及学习如何写它的程式。这里的构想是,在可能有的五万个CPU中间,每一个在大部分的时间都在忙碌工作,如此则可将机器的功能大幅度地增加。但是我们只有在做某些特殊的计算时曾经成功地驾驭一部平行机器的功能。

程式

我现在转到程式,并且举一简单的例子。为了使事情更具体化,我要讲的这个程式,不會真正出现在电脑里,而是类似电脑中的程式。这是一个早餐的程式美式早餐的程式(见图12)两个煎蛋加冰橘子汁。一种方法应该称为「由下至上」法,是用简单、原始的方式来做的,它只是依序述说所有你需要做的工作:你取了橘子,你榨汁,你冰橘子汁;你拿两个鸡蛋,你取了煎锅,你把蛋打在锅子里,你煎蛋,然後你端出早餐。

现在请你看同一程式的「由上而下」方法。「由上而下」,是由整体的色出发。我们要供应早餐,这中间出现「供应者」的观念。供应者要做什麼?供应者招来冷冻的与煎蛋的。冷冻的,与煎蛋的做什麼?冷冻的在没有拿到榨好的果汁之前什麼也不能做,煎蛋的在没拿到煎锅与蛋之前也什麼都无法做。因此冷冻的就叫榨汁的:「给我一些果汁。」煎蛋的就叫负责打蛋的,并且要煎锅,他说:「把煎锅拿给我。」煎锅,就只是煎锅,它不包函任何过程,所以那边不需做别的事,而我们拿到了锅。但是榨汁的说:「我需要橘子。」而打蛋的说:「拿给我两个蛋。」一旦我们有了蛋与橘子,榨汁的与打蛋的就可以做他们的事,提供我们果汁与两个打出来的蛋。之後冰冻的与煎蛋的就可以做他们的工作,而我们會有两个煎蛋与冰果汁。现在,侍者终於可以做他的工作,而我们可以吃早餐了。这是由上而下。

这种由上而下法是一般程式所采用的策略,它同时也使你对於人工智慧的一个基本策略稍具概念。当你负有像供应早餐这样一个复杂的任务时,你把它分散为许多简单的小动作,而由各代理人负责做每一个小动作。这实在就是许多电脑科学家认为的心智。而昨天罗许教授在演讲中也透露类似的观念在我们的心智中有数千个代理,互相之间以各种不同的方式相关联,有一术语叫做「心智社會(societyofmind)」,即指此。所有这些心的代理都互有关系,发出请求与指令等等,而所有的事都同时在进行,其结果就是我们所说的心。

从某方面来说,它也是大脑的软体。有些人说:这不是心的社會,而是心的衙门,因为这些代理只做一件事。如果你请他们做点什麼别的,他们會大叫:「不,那不是我的事!」

什麼是智力?

现在让我们来看智力的问题。什麼需要智力?因为电脑,以及要创造有智力的机器,引发了一件很有趣的事,使我们在对智力的看法上经历了彻底的革命。假如你在二十年前问:「智力的要素是什麼?」你得到的答案可能是逻辑推理。下棋、會做数学的计算,往往被看成是高度智力的表现,但是會看、听得懂故事,以及小常识,是连小孩子都有的,这算不上是智力。

现在我们试试设计程式让电脑来做这些事。电脑非常精於逻辑推理,也很會做数学计算,我们也有很會下棋的电脑(等下我们再来谈它)。当二、三十年前电脑已经會做这些的时候,先进的研究人员非常乐观地预言:「在数年之内,电脑就會比我们更聪明,因为我们已经把困难的事情都做完了,剩下的都是容易的,连小孩子都會的东西。」然後他们开始看那些容易的东西,结果却发现,原来一点也不容易!

我们现在来看视力的问题。让电脑會看,是不可思议的难事。你可以连一架电视摄影机到电脑上,而得到的只是一片小点点与颜色,那根本不能算是看见。如果我们只能做到那样,我们就看不到周遭的世界。当我们看的时候,我们看到人。我看到法兰西斯可.瓦瑞拉,我看得出来他与椅子不一样。虽然他上半身是紫色与黑色,而下半身是灰色,并且那灰色与椅子的灰色几乎相同,但是我知道那灰色的不是椅子的一部分,是他的一部分!然而,想让电脑从电视摄影机的一个画面看出名堂来,却是困难之至。电脑如果能够弄明白画面是怎麼回事,那要花费很长的时间。这是当今非常活跃的研究领域,而电脑视力的发展却仍停留在非常原始的阶段。要看世界,我们需要对世界有所瞭解,而需要瞭解的事物何其繁多!

再来看听懂故事这件事。一个孩子如何能够听懂一个故事?就说一则关於一支狗、一个小男孩与一个小女孩的简单故事好了。你读一则故事给一个孩子听,然後问他几个问题。发生的是什麼事?为什麼那女孩与狗會做这事?他们去了哪里?结果你发现要把一个孩子听得懂的故事写成程式,却是难乎其难。我们还未能做得很好,已经有些进步,用过许多不同的方法,而我们的电脑仍然没本事像个孩子似地听懂故事。你可以将大量有关狗、孩子和游戏的资讯输入电脑中去,然而每一件需要瞭解的事物,都似乎还需要更进一步的瞭解,事情永远没个了结。可怜的电脑,从某方面看,它与现实世界真是脱节得厉害。

罗伯.李文斯敦:它没有母亲。

格林里夫:它没有母亲,它也没有身体这点恐怕更重要。你可以说一个机器人有身体,但那与我们的身体完全不是一回事。我下面还會再说到机器人,不过我们现在说的这可怜的电脑,它唯一可以感知外在世界的方式,就是透过键盘。此种与外界的关系,真是非常非常有限。研究人员正在试图使电脑与外界有更多接触,而当他们做成功这点时,却有其他的问题发生。机器人透过电视摄影机往外看,手臂上装了感应器,於是大批的数據开始涌入。你如何来处理这些数據?

或者机器人可用扩音器接收声音。听懂说话也是电脑做得很蹩脚的事。这个电脑可以听得懂我如果我像这样讲话。如果我照平常一个个字连成一气地讲,电脑则完全不知道Кab讲什麼,它无法将一个字与下一个字分辨开。

这里发生的事,实在是全盘性的革命,将我们对智力的观念完全颠倒了过来。如今当我们问到智力时,我们要设想一个孩子的智力,这才是智力之钥。如果我们可以做出一部和五岁的孩子一样聪明的电脑,那才是了不起的成就!因此智力一词与它固有的意思完全反过来了。

人工智慧研究的四项策略

以下是可以应用在人工智慧上的各种不同策略之简述。第一项是衰竭研究(exhaustiveresearch),在此我们并不试图模仿人类的智力,而主要借重电脑本身的力量它的速率与精确性。我们以它的力量筑造它的智力,而不去理會人的智力是怎麼来的。电脑可以在这麼短的时间内思考这麼多事情,那它就是有智慧的。这就是制造會下棋的机器所使用的策略。

另一种非常不同的方法是,模仿专家而创造的专家系统(expertsystem)。譬如说嘉瓦仁波切阁下,您是走在证悟之道上的专家,我们研究电脑科学的人前来,以很系统化的方式向您请问许多问题,然後我们写下在各种可能的情况下,一个人应该如何做方能达到证悟;我们會写下数目庞大的规则,成千上万的规则,然後这个程式就可以告诉我们如何达到证悟。这或许是个笨例子,不过医生与律师们使用的程式,确是采取这种方式的。

第三种方法是以心智社會之观点做为心的运作方式,这是罗许教授曾经提到过的,将心想成一个大框框,里面有许多小框框,小框框里面有更小的框框,每一个框框都是一个特定的色。就像那个早餐的例子一样,我们有侍者、专管冰冻的、专管煎蛋的等等,所有这些人都互相关联。不过,心当然比这要复杂多多,它有成千上万个互相有关系的代理。因此我们如要设计一个程式,所有这些代理都是其中的小程式。每一个代理都相当笨,不过如果所有的代理都能适当地相互配合,希望(目前真正只是个希望而已)可以有智慧出现。

最後的第四种方法是说:「谁知道心里面是怎麼回事?」不过对於大脑,我们倒有些真正的知识。我们可以看见神经元,看见它们是如何连接的。或许我们可以模仿大脑造一部有智慧的机器出来。

虽然四种人工智慧的策略有时是被置於互相反对的地位,但在AI

(人工智慧)实验室工作的人,一般并不坚持只使用单一策略,而是视特殊情形采用最有效的办法。一个程式可能结合衰竭研究、专家系统、模仿心智、模仿大脑各部分而成。一般而言,管用就是好,不过还是有各种不同的趋势。

一局西洋棋

我现在来谈一谈下棋。西洋棋chess每边有十六颗棋子,棋盘上共有六十四格。让电脑會下棋,真是花费了很大功夫。AI研究人员的首项工作是写一个很會下棋的程式。现在你可以想像一个很简单的方法来做这件事。目前棋盘上棋子的位置已经存入电脑的记忆了,轮到电脑走的时候,你可以审查每一步它可能走的棋。典型的状况是,它可能有三十种走法。对於其中每一步棋,对手大致也有三十种走法,依此类推。这些可能性可以用棋戏树(gametree)表示出来,它看来和真正的树只稍微有一点像而已(图13)。电脑科学里的树都是由上朝下长的,因此树枝向下。最顶上的根代表目前的情况。每一个方框代表棋盘上各个棋子的一种分布,而从那里通常约有三十个分枝代表下一步棋可能的走法。

好,棋若要下得高明,必须能够看出很多步。只能看出两、三步棋不够,那根本没有用,你必须能看十步甚至十五步才行。然而不幸的是,你事先看出来越多,可以产生的变化则依我们所称的「级数式(exponential)」增加。也就是说,如果这一排有三十个方框,下一排则由每一方框又生出三十个方框,总共是三十乘以三十。再下一排就是三十乘以三十再乘以三十。等到下面的第十排,你就有三十的十次乘方个方框了。这可是个惊人的大数目。即使是快得要命的电脑,也无法审查所有这些可能性。级数式增加的数量,根本就是无法处理的。

顺便提一下,事实上级数「爆炸」的观念由来已久。有一个关於棋盘和米粒的老故事。你放一粒米在第一个格子上,两粒在下一格上,四粒在再下一格上,每一次都把米粒的数目加倍。八、十六、三十二,依此类推,最後你必须放二的六十三次乘方粒米到最後一格上去。如果我们以平常写数字的方法将这个数字写出来,那就是9,223,372,036,854,775,808,这当然是多到不可能数量的米。

这种「蛮干式」的下棋法,是要看每一排的所有可能性。既然这个策略會引发级数爆炸,所以必须将树加以修剪。程式必须决定哪些棋子的分布不值得继续研究下去,而可以将这些树枝从树上剪掉。这意谓那程式必须有能力做评估。如果剪掉够多的枝,你的机器就能够预先看出许多步棋,而成为棋技精湛的棋士。关於如何修剪树方能使机器下好棋的研究,已经做过很多。如今,至少在美国,我可以走进一家小商店,花大约五十美金就买到一个小机器,每次下棋它必赢我。我的西洋棋下得真够差劲。

虽然现在的西瑅棋程式好到几乎可以下赢任何一个人,它们却尚未超越顶尖的人类棋士。传说部分的理由是因为有这些程式,使人类棋士进步了。人类棋士使用机器来分析棋谱,因而瞭解了他们以前不瞭解的东西。无论是什麼理由,虽然它已经能够击败百分之九十九点九的棋士了,我们尚待发展出一个足以击败世界棋王的程式。

专家系统

我要讲的下一个策略是专家系统。至少美国在这方面已经投下庞大的经费,各处都有新设立的公司试做专家系统。我们曾提到过它在医学与法律上的用途。专家系统使用颇频繁的一个范围是石油地质。你怎麼知道该在哪里钻井可以找到石油?如今你可以去问专家系统。对於所有的情况,基本上都是使用同一策略。所谓的「知识工程师(knowledgeengineer)」这类人,他们面试一位专家或许多位专家,他们有方法可以找出专家如何做决定。诸如,你在这种情况下會怎麼做?你还需要哪些进一步的资讯?或是你會怎样做决定?他们编辑成千上万的规则,然後他们有了包函所有规则的程式可以用来模仿专家。

在我去中国访问期间,看到一个非常有趣的例子。那是一个中医诊断的软体系统,一个模仿针灸医师的专家系统。病人走进去与电脑讨论他们的病症。「你有什麼不舒服?」「我臀部这里痛。」然後它會问一些其他的问题,诸如,「你有没有觉得发烫?」我实在并不清楚这种情况该问些什麼问题。不过一位知识工程师与一位针灸医师研究过了,而这个程式會说,应该在何部位下针。我对针灸知道得不多,不过这个程式相当好用,他们颇引以为傲,因此拿它出来炫耀一番。

通常都是有许多专家接受面试,而当人们谈到专家系统的优点时,也公认这一点是它效力的来源之一。这其中的道理是:如果你面试许多位专家,你就有所有他们的知识,那你的程式會比任何一个人的知识更丰富,自然效用也更高。当然,问题是专家们不一定永远彼此同意,这时你要怎麼办?

另一件可能发生的事是,资讯可以由仪器上的某种感应器直接传送至专家系统。譬如在一个诊断程式里,输入的资讯可以不必真正由医生提供。你可以用一个仪器来量脉搏、感觉心跳,或是测量大脑的电活动。这数據可以直接输入电脑中加以分析,而不必经过医生看数據的中间过程然後再输入。如此一来,大量的数據可以进入电脑,因为那是可直接来自病人身上的监测装置的。这方面发展的潜力很大,许多研究工作正在进行中。就整体来说,这种系统尚未被广泛使用。一位美国的医生通常是不會去请教专家系统的。事实上,那些想让医生使用它们的人,遭遇到许多挫折。他们发现一件事:医生讨厌打字。李文斯敦医生似乎是个例外。一般的医生则想尽办法避免坐下来在键盘上打字。

瓦瑞拉:我觉得我们应该区分清楚:一个医生可以去资料库找资料,或者使用集合了许多医生专长的人工智慧产品。前者显然是有用的,而对於後者,我们并不确知。它會像一位医生那样好,甚至會更好吗?也许诸位可以评论一下,人工智慧与更直接了当的资料库相较,究竟成效如何?

格林里夫:假如你是在处理一种特定的疾病,某些专家系统就整体来说,表现相当好。但是你如果对病人究竟是什麼毛病一无概念的话,专家系统则不知如何处理,甚至很可能犯严重错误。事实上,专家系统一般的表现颇令人失望,因为它所根據的知识总是很有限的。一旦有超出其数據及其设定之规则的情况发生,系统就會错得离谱。而我们人如果犯错,多半不會错得太厉害。

用电脑控制工厂或开飞机,也會发生类似的情形。只要一切正常,电脑可能比人做得好,但是若有特殊状况发生时,电脑就可能犯下人类不至於犯的大错。

曾有一段时间,大家认为专家系统很有希望成为人工智慧最具权威性的方法。如今许多人不做此想了,而有些人依然具有信心。诚然,专家系统有它的用途,但是在人工智慧的整体发展上说,目前更看好其他的方法。

心智社會

我们也曾提过另外一个方法就,是心智社會的方法:建构一个系统,其中包函许许多多一般所称的代理,这些代理就是些简单的小程式,它们又与许多其他类似的程式相连。我们前面看的那个早餐程式,就是这类程式在非常简单层次上的一个好例子。那里面有一大堆代理:侍者、冰冻的、煎蛋的、榨汁的、打蛋的、橘子和蛋。其中每一个都有它非常局限且简单的功能,每一个也都以特定的方式与其馀的相关联。当外界输入的讯息到达,传给侍者,并说:「请端早餐来。」侍者就招呼冰冻的、煎蛋的等等,像我们前面说过的那样,最後就有了早餐。心智社會的理念是,我们的心就像这样的,其中有数千个代理,每一个都与其他有各种不同的连带关系;而照我们的想法,我们真正就是如此,我们不过是以各种各样方式连接在一起的一大批代理。

昨天曾有人发问:这中间有「我」吗?有没有「我」这种代理,他是这一切的老板?在电脑界对此意见不一。有些人想放一个大老板进来总管一切,但是整个来说,我认为在人工智慧方面,使用「心智社會」方法的人中间,多半主张没有中央司令部,也就是说没有总司令。没有一位我可以说是「我」的代理,我也许就是全部代理的总合,但没有一个人在指挥这场秀,秀只是继续在上演。在准备早餐的时候,或许是侍者在负责;早餐後的其他任务,就會由其他的代理接手了。有时代理们合作,有时他们吵架。在争执不休的情况下,會有另一代理出来裁决,他會裁定应该听从哪一位等等。所以你有一庞杂的代理网路。这其中似乎包函了某种「无我(egolessness)」的概念。

到目前为止,我还没有听说过任何「心智社會」型的人工智慧程式有惊人的成就,但是许多人都正在朝这方面努力。有一天他们會生产出智慧吗?我们不知道。这将我们带到了人工智慧的第四种策略:模仿大脑而不模仿心。在这方面的工作者制造一种称为类神经网路(neuralnets)的网路处理器,它们可由经验中学习。且让我再次用早餐的例子加以说明。想像有一个网路,一边是侍者,另一边是橘子、蛋与煎锅。假如我们向侍者点早餐,这个网路就會被启动。刚开始网路所产生的反应是被任意设定的,所以我们可以预料早餐會弄得一团糟。也许鸡蛋掉到地上了,橘子飞出了窗外,而锅子打了你的头。你说:「不对,不对,太糟糕了,不能这样做。」但是你首先得确切说明究竟该怎麼做,然後网路可以调节它各处理器间的开系力量,结果很可能有较佳表现。有多种系统化的方法可以使用,下一次或许至少橘子汁榨好了,不过被倒在地上;一个蛋打了,锅子却被出了窗口。你再次说明该怎麼做,网路再重新调节。经过一段时间之後,网路就會有很大的改变;如果过程正确的话,它终於可以做出一顿相当不错的早餐。

不过,这当然不是个切合实际的例子。我再告诉诸位一个类神经网路真正成功的例子。人工智慧方面一个主要的问题是:电脑怎样能够认识A这个字母?如果你将所有的A都做成一模一样同样大小、同样粗细、朝同一方向放那麼写一个程式来认并不是太困难。不过问题是我们不會把A全做成一样的。我们拿一个标准字母A来,我们可以让电脑认识它;而当电脑看到另一个A时,那看起来不同,那就不是A不一样。再拿一个来,也不是A也不一样。依此类推,不论有多少个A都不一样。可是一个孩子,也许甚至一支鸽子,都能够认出这些全是A。鸽子在这方面很行,电脑则简直差劲透了!不过,类神经网路在这方面却已经证明相当成功。在这个例子里,输入是以摄影机拍下来的图案,电脑必须问:这是个A、或B、或C、或D、或都不是,不是个字母?对於这一类的问题,类神经网路近来有相当可观的成就,它因此成为人工智慧最时髦的方法。现在你在流行的杂志里,已经看不到关於专家系统的文章了,都是讲类神经网路的。

瓦瑞拉:类神经网路的一个有趣的例子是这样的:譬如你想让电脑大声念书给一个盲人听这一直是很困难的事,最近类神经网路會做了。一开始,你先要让机器看你要它念什麼书,比方说,念儿童读物给盲童听。电脑一开始會像这样大声念(发出不知所云的声音),你对电脑要像一位老师一样,每次它要说「狗」而说不清楚时,你要说:「不对,不对,是「狗」。」你要以填鸭式的教法将正确的图案输入机器中去,它會依照特定的规则在机器内部传送,而由输出传播回来。你一次、再一次、又一次地这样做。有趣的是这是现实,不是科幻经过一夜之後,电脑学會了。第二天,有别的人走进房间,电脑會念:「狗跟著小男孩走。」机器真的會学习。现在你可以买到这种产品,你把书给机器看几小时,然後机器就會念。

你是在强制机器模仿你,你在做老师。机器必须有老师,没有老师就学不成。如果老师训练机器念小男孩与狗的故事时教得很好,一旦它学會了,它可以念任何其他的故事,它真正学會了应该怎样去念。

李文斯敦:现在也有类神经网路可以将演讲用文字记述下来。它们尚不够熟练,不过已经相当好了。小孩子、大人或带外国口音的人讲的话,它们统统可以做得不错。现在也有给盲人使用的便宜程式,盲人可以把要写下来的东西讲给机器听。由於會有许多错误,所以机器會把写下的再念出来,包括逗点、句点等。如果有不熟悉的名字,它會把它拼出来。机器从头至尾这样做一遍,盲人就可以随意加以修正与改动。所以盲人已经不需要萤光幕来做文书处理了。

瓦瑞拉:这里的关键在於能够学习,那是专家系统所没有的。专家系统有许多规则,只此而已。一个类神经网路更像个活东西,它在适合的环境中會去学。

亚伦.华莱士(翻译):类神经网路程式具有弹性,专家系统程式较无弹性。

瓦瑞拉:是的,没错。当然这并非普性的,因为这种网路只能学會去读某一类书籍。如果你让它读数学方面的书,它就一筹莫展了。不过它相当富有弹性,已经较历来的产品高明很多。

嘉瓦仁波切:你说到这个程式可以让你教电脑读书。譬如说重复五次之後,它可学會读。别的机器同样次数也可以学會吗?

瓦瑞拉:基本上是如此。所有的机器都是试过相同次数就可以学會。那是由程式的品质决定的逆向学习(backwardlearning)之标准时间。

嘉瓦仁波切:它们学會之後,不會忘记吗?

格林里夫:,不會。

依莲娜.罗许:在史丹福大学有一部机器,是由一位美国人教它读英文的。後来让它读法文,它居然带美国口音!(笑声)

电脑与社會

格林里夫:关於使机器具有智慧的四种策略,我就介绍到这里。最後,我想就电脑与社會较为一般性的关系再说几句话。许多重大的社會议题都与电脑的使用相关。譬如,雷根总统是所谓的「星战计画(StarWars)」或战略防卫机先的大力支持者。其构想是在太空中设置大批电脑控制的武器,以防卫苏俄对我们的攻击。他们预备如何来做?苏俄一开始向我们发射飞弹,这些武器就可以侦测出来,并且将他们的飞弹打下来以保卫我们。我们正花费庞大经费发展这项计画。这项计画的基础建立在我们的信念之上,亦即是我们相信可以真正把电脑做得如我们愿望那样聪明,把它们放到太空中,它们就能够分辨出是俄国人向我们开火,还是火山爆发或陨石,或只是电脑故障。

这个构想的问题在於电脑几乎从来没有第一次就做对过!事实上,「除错(debugging)」是我们很常用的词。当你写一个程式想让电脑做某件事,结果它却做了别的。你回头去看写的程式,找「错误(bugs)」,改了错之後再试。经过数次之後,大概程式就可以正确地执行了。当你认定不會再有太多错误,才开始拿去出售。但是在大型的程式中,总难免尚有错误留在里面。这甚至在常用的文书处理软体中也如此。在缺少经验的情况,像在外太空监视苏俄飞弹这种事,问题的严重性真是无可比拟。我们无法将程式中的错误全除掉,唯一可做的就是请俄国人射一大堆飞弹过来试试。我们对於电脑无限的信赖在这里可说完全用错了地方,却还有人执著於他们的想法,认为我们可以做出非常聪明的电脑来保护我们。

在我们的学校里,因为师资不良产生很大的问题。请不到好老师的原因之一,是我们付给老师们的薪水太少。有人说,我们实在不需要去找好老师,因为不出几年,我们就能以机器、以电脑取代老师们,而这些电脑會将我们的孩子教育得非常好。如今很少再听到谁这样说了,但在十五或二十年前,你到处读到关於这些了不起的机器将會取代老师进驻学校云云。因为信仰电脑可以拯救我们,阻碍了我们积极去找好老师。

我们时常在社會中碰到信仰电脑可以拯救我们的人,而通常这只是盲目的迷信。电脑可以是个了不起的仆人、了不起的工具。如果我们使用电脑来帮我们的忙,那非常好;但是认为它可以拯救我们,则是大错特错了。对於电脑的过分依赖是很危险的事。

嘉瓦仁波切:说得真好。


返回《揭开心智的奥秘》目录

生死书 回到顶部