下午六点,神经精神病研究室主任罗杰。麦克弗森上七搂查看他的病人。至少他认为本森是他的病人,这是一种业主的感受,但并不完全正确。没有麦克弗森忧不会有神经精神病研究室,没有神经精神病研究室就不会有脑外科手术,电就不会有本森。他就是这样认为的。

  710房间里静悄悄的,沐浴在落日的红霞中。本森好像在睡觉,但麦克弗森关门时他睁开了眼睛。

  “你感觉怎么样?”麦克弗森说着朝病床走去。

  本森微微一笑。“谁都想知道这个,”他说。

  麦克弗森也朝他笑笑。“这是很自然的。”

  “我累,就这感觉,很累……有时我想我是一颗滴答作响的定时炸弹,你们都想知道我什么时候爆炸。”

  “这就是你的想法吗?”麦克弗森问。

  他习惯性地动动本森的被子,以便观察静脉输液管。输液管一切正常。

  “滴答滴答。”本森说着又闭上了眼睛。“滴答滴答。”

  麦克弗森紧皱双眉。他已习惯本森用机械来作比喻,不管怎么说,本森满脑子想的都是人就是机器。但手术结束不久就出现这种想法……

  “疼吗?”

  “不疼。耳朵后面稍许有一点,就像摔倒了一下。其它没什么。”

  麦克弗森知道这是头盖骨被钻孔之后的疼。

  “摔倒?”

  “我就是一个摔倒的人,”本森说,“我屈服了。”

  “向什么屈服了?”

  “把我变成一台机器的过程屈服了。”他又睁开眼睛笑笑。“或者一颗定时炸弹。”

  “闻到什么味道吗?有什么奇特的感受?”麦克弗森边问边朝病床上方的脑电图扫描器看了一眼。扫描器显示的仍然是α图像,没有任何发作活动的迹象。

  “没有,没有那种感觉。”

  “可你感到好像是要爆炸似的?”他想罗斯该来问这些问题。

  “有点,”本森说,“在即将来临的战争中,我们也许都会爆炸。”

  “这话怎么说?”

  “在即将来临的人与机器的战争中,你知道,人脑已经不管用。”

  这是新的看法,麦克弗森以前没听本森说过。他注视着躺在床上的本森,本森的头上肩上都扎满了绷带,使他的上身和头部显得笨重和臃肿。

  “是的,”本森说,“人脑已走到尽头,它已疲惫不堪,于是它生育了下一代的智慧形式。它们将——我为什么会这样累?”他又闭上眼睛。

  “你没有力气是手术的缘故。”

  “一个小步骤。”他说完闭着眼睛笑笑。转眼间他已鼾声大作。

  麦克弗森在病床旁站了片刻,然后转向窗户望着落日在太平洋上空徐徐西沉。本森的房间真不错,可以在圣莫尼卡的高楼大厦之间看到一方海水。他又站了几分钟,本森没有醒过来。最后,麦克弗森走出病房,去护士办公室做病情记录。

  病人机灵、敏感,已适应一切。他写到这里停了下来,他并不真的知道本森是否已适应他人、环境和时间,因为他没做具体的检查。不过病人确实机灵又敏感,麦克弗森继续往下写。思路清晰有序,但他的脑子里仍有术前的机器形象。下结论还为时过早,可似乎病人早些时候的预言是正确的,手术无法改变他不在发作时的精神状态。

  签名:罗杰·A。麦克弗森,医学博士。

  他朝自己的签名看了片刻,接着合上病历表,将它摆上架子。这病情记录写得不错,冷静、直接,没有虚假的预料。病历表不管怎么说是具有法律效应的,可以在法庭上作证。麦克弗森不想在法庭上看到本森的病历表,但小心谨慎总不会是坏事。

  任何一个大科学实验室的头头都有一种政治功能。你也许不承认这种功能,你也许不喜欢这种功能,但它又确确实实是这个职位必不可少的组成部分。

  你得使手下的人一起工作时保持快乐。和纯政治一样,不守纪律者愈多,你的工作就愈是难做。

  你得为你的实验室到外面去争取基金,这也是纯粹的政治。如果你在神经精神病研究室这种棘手的部门工作,情况就更是如此。麦克弗森早已形成一套申请获得批准的辣根过氧化物酶原则。这很简单:你申请经费时要宣布这笔经费将用于寻找酶辣根过氧化物酶,它可能会产生治愈癌症的方法。你便能轻而易举地为项目申请到六万美元的经费,然而要是搞思维工程你连六角钱也休想弄到手。

  他望着架子上的一排病历表,这是一排陌生的名字,710病房的本森这个名字在其中消失得无影无踪。他心里想,本森的话从某种意义上说是正确的——他是一颗活着的定时炸弹。一个接受思维控制技术治疗的人会遇上公众的各种非理性的偏见。用于“心脏控制”的心脏起搏器被认为是神奇的发明;用药物进行的“肾脏控制”是件幸事,但“大脑控制”是罪恶,是灾难——即便神经精神病研究室的控制工程和其它器官的控制工程极为相似,甚至连技术都是类同的:他们现在使用的原子能充电器原先是为心脏病人研制的。

  但是偏见不会改变。本森认为自己是一颗滴答作响的定时炸弹。麦克弗森叹了口气,又找出他的病历表,翻到医嘱部分。埃利斯和莫里斯两人都在上面写了术后照料嘱咐。麦克弗森作了补充:“明天上午接合后,开始用氯丙嗪。”

  他看看嘱咐,肯定护士不会懂什么叫接合。他涂改后重新写道:“明天中午后开始用氯丙嗪。”

  离开七楼时,他心想本森一旦用了氯丙嗓会休息得更好。或许他们无法卸除定时炸弹的引信——但他们当然可把它扔进一桶冷水。

  深夜,格哈得在远程信息处理房里焦急地注视着计算机控制台。他输入了更多的指令,然后走到一台打印机前,开始查看长长的绿条打印纸。他在纸上匆匆扫视,寻找他知道出现在程序中的那个错误。

  计算机本身从不犯错。格哈得已用了差不多十年的计算机——在不同的地方使用过不同的机型——他从没见过计算机犯错。当然,错误一直有,但从来就是程序出错,而不是机器出错。有时候,计算机不出差错反而使人难以接受。首先它不符合人们对世界的其它方面的看法,其它方面的机器一直在出差错——保险丝烧断,立体声装置出故障,烤炉过热,汽车发动不起来。现代人没有指望机器不出差错。

  但计算机完全不同,和计算机合作会使你丢尽脸面。它们从不出错,事情就这么简单。即使你花几个星期找出了问题的根源,即使程序经过了不同的人的十几次检查,即使全体人员慢慢得出结论这次是计算机线路出了毛病——到头来出错的结果还是人。永远如此。

  理查兹走进来,脱下运动外套,为自己倒了一杯咖啡。“怎么样?”

  格哈得摇摇头。“我很难操作乔治。”

  “又不灵了?真见鬼。”理查兹望望控制台。“玛莎怎样?”

  “玛莎没问题。我想就是乔治不行。”

  “是哪个乔治?”

  “圣乔治,”格哈得说,“真是个混蛋。”

  理查兹呷了口咖啡,在控制台前坐了下来。“我来试试介意吗?”

  “请吧,”格哈得说。

  理查兹快速按动键钮,先调出圣乔治的程序,再调出玛莎的程序,接着按下了交互作用键。

  理查兹和格哈得没有设计这些程序,它们是从其它大学研制的几套现存计算机程序修改得来的,但其基本思想是相同的——创造一种能使计算机变得像人一样有感情的程序。所以把这些程序称作乔治和玛莎也就合乎情理了。先例在这之前已经有过:波士顿的伊丽莎和英格兰的奥尔德斯。

  乔治和玛莎这两种程序基本相同,相互之间只有细微的区别。起先设计的乔治对刺激的反应是中性的,接着又创造了玛莎。玛莎有点傲慢,大多数事情她不喜欢。最后制定出了另一个乔治,一个可爱的乔治,他被叫做圣乔治。

  每套程序能有三种感情的反应——爱、恐惧和愤怒。每套程序能产生三种行为——靠近、后退和进攻。所有这些当然都是高度抽象的,执行是用数字来表示的。例如,起先的乔治对大多数数字的反应是中性的,但他不喜欢751这个数字,是设计成这样的。他因此也不喜欢相似的数字-743,772等。他很喜欢诸如404,133和918这样的数字。如果你输入其中的一个,乔治便显示出一系列表示爱和亲近的数字。如果你输入707,乔治便后退。如果你输入750,乔治便用他输出的数字发动愤怒的进攻。

  神经精神病研究室的研究人员长期以来一直用这种方法玩程序,之后他们采纳各种程序修改意见让计算机“交谈”。数字被译成句子。这很逗人,也很发人深省。真正的交互作用被叫做“圣诞游戏”,因为大多数游戏玩的是赠送和接受礼物——这些东西正像数字一样具有设定的感情价值。

  正常的乔治和玛莎交往,那么乔治最终会赢得玛莎,而她的傲慢会失去优势。

  但圣乔治对她产生的影响要差得多。他表示爱的受礼逼得她难以忍受。如果一切正常的话,那情况就是这样。理查兹望着句子在屏幕上闪现出来。

  你好,我是圣乔治

  你好

  你叫什么名字?

  玛莎。

  你不太讲话,玛莎。

  是的

  可我喜欢你。

  为什么我不喜欢你。

  这我理解。我怎样才能帮助你?

  “有时没有句号,”理查兹问,“这是什么时候开始的?”

  “这没关系,”格哈得说,“往下看。”

  帮助我?

  是的,我想帮助你。

  给你一只猫。

  理查兹皱眉蹙额。猫是程序设计中乔治和玛莎都不喜欢的东西。给乔治一只猫是充满敌意的行为。

  谢谢你

  再给你一只猫。

  谢谢你你真好。

  再给你一只猫。

  不,谢谢你。

  难道你不喜欢猫吗?

  喜欢可我的猫已经够多了。

  给你一只大猩猩。

  “真是糟透了,”理查兹说,“其它的交互作用怎么样?”

  “大同小异,”格哈得说。

  “和这一样糟?”

  “差不多。”

  他们现在已习惯这种看法,认为计算机交互作用的时候,结果是不可预料的。交互作用的一般形式可以猜到,但具体的结果是不定的。这就像计算机下跳棋——它或许会赢,但每次赢的方法是不同的,这要取决于对手怎么下。

  我不想要大猩猩。

  难道你不喜欢大猩猩?

  不喜欢谢谢你。

  你太客气了。

  如果我冒犯了你请多原谅。

  你的话大多。

  对不起。

  给你一只茄子。

  理查兹饶有兴致地望着。圣乔治没有茄子的背景资料,但他不喜欢黄瓜和香蕉。

  不,谢谢你。

  难道你不喜欢茄子?

  不太喜欢。

  再给你一只。

  不,谢谢你。

  我要你拿着。

  不,谢谢你。

  快拿吧。

  不,谢谢你。

  我一定要给你。

  不,谢谢你。

  “圣乔治怎么啦?,”理查兹问,“他的反应完全没有两样。”

  “这真是我想不通的地方。”

  “他的程序里都是些什么?”

  “你进来时我正在检查。”

  我一定要给你一根黄瓜。

  我拒绝。

  “乔治!”理查兹几乎不假思索地喊了一声。

  那就拿个香蕉吧。

  不。

  “乔治出故障了,”理查兹说,“他不再是个圣人。”

  那就拿一个香蕉和一根黄瓜。

  不,谢谢你。

  我一定要给你。

  去你的我宰了你:::::::::::::::::::

  ::::::::::::::::::::::::::::::::::

  ::::::::::::::::::::::::::::::::::

  屏幕上全是白点。“这是什么意思,是打印不出来的反应?”理查兹问。

  “我不知道。我以前从未见过这白点。”

  “这程序用过多少次了?”理查兹问。

  “一百一十次,用于玛莎的。”

  “有谁擦过吗?”

  “没有。”

  “真见鬼,”理查兹说,“他正在成为一个脾气暴躁的圣人。”他咧嘴笑笑。“我们可以把这个补写进去。”

  格哈得点点头又回到打印机跟前。从理论上说,发生的这一切并不叫人疑惑。乔治和玛莎的程序里都有向经验学习的设计。就像下跳棋的程序一样——计算机越下越聪明——在这个程序的设计中计算机会“习得”对事物新的反应。经过一百一十次的考验,圣乔治突然不做圣人了。他正在学习不在玛莎面前做圣人——即便他是为做圣人而设计的。

  “我知道他有何感受。”理查兹说完关掉机器,随后他走到格哈得身旁,寻找导致这一切发生的程序错误。