人类制造的最后一台机器?
□ 尹传红
半个月前撒手人寰的著名物理学家斯蒂芬·霍金,生前在其专业领域之外有两个惊人之论:一是主张不要主动去联系或接触外星人,二是警示人工智能最终有可能会毁灭人类。对于第一个论题,人们多半认为这位科学明星太“科幻”了,不是特别当真。而第二个论题,由于有比尔·盖茨和埃隆·马斯克等大佬的呼应支持,倒好像真有那么回事。
实际上霍金不止一次拿人工智能唬人。2014年5月,他与包括诺贝尔物理学奖得主弗兰克·维尔切克在内的几位著名科学家联合在英国《独立报》上发表文章,对人工智能的迅速发展提出告诫说:创建一台真正能思考的机器“将是人类历史上最大的事件”。一台超出人类智力水平的计算机可能会“超越人类研究者的发明,超越有控制能力的人类领导者”。把这一切视为科幻小说,则“有可能是我们历史上最糟糕的错误”。
而拥有机器人专业博士学位的美国作家丹尼尔·威尔森,几年前出版了一本生动描述机器人对人类发动战争的科幻小说《机器人启示录》。小说中,一个看似淳朴、婴儿外形的机器人阿考斯教训制造他的人类说:“你们人类只是一种被设计出来创造更多智能工具的生物机器,你们已经抵达你们物种的金字塔尖了,……你们的大限已到;你们已经达成你们被设计出来时所赋予的一切使命。”
自20世纪40年代计算机被发明出来之后,机器就一直被寄予厚望,人工智能的先驱者们大多数时候都不认为他们的事业可能会存在风险。不过,英国著名数学家、“计算机科学之父”阿兰·图灵早在1951年就曾表达出一种担心:“这似乎是可能的,一旦思维的步骤开始了,用不了多长时间,其力量就有可能超越我们脆弱的人类……它们可以通过互相交流来增进它们的心智。所以,到了某一个阶段,我们将不得不考虑机器控制世界这个问题了。”
美国应用数学家、信息论的创始人诺伯特·维纳是最先预见到信息技术双重可能性的人。在20世纪中叶计算机时代的开端,维纳就为我们描述了未来一个令人心悸的场面:……如果我们朝着制造机器的方向前进,这些机器可以学习,它们的行为可以通过经验来修正,那么我们必将面对这样一个事实:我们给予机器的任何程度的独立性都可能导致对我们自身意愿的反抗。瓶子里跑出的精灵不会心甘情愿地重新回到瓶子里。同样,我们也没有任何理由希望它们善待我们。
英国数学家欧文·约翰·古德大概是清晰阐述人工智能未来图景的第一人,1965年他指出:我们把超智能机器定义为具备超越所有聪慧人类智能活动的机器。一旦机器设计成为一项智能活动,那么,超智能机器就能设计出更好的机器。毫无疑问,肯定会出现诸如“智能爆发”这样的局面,人类智能会被远远地甩在后面。因此,第一台超智能机器将是人类制造的最后一台机器,如果这台机器不是足够听话并告诉我们要怎样才能控制它的话。
在《关于第一台超智能机器的推测》中,古德捎带也谈到了科幻:“本书的内容对一些读者来说可能很荒诞,但是对于作者来说,这都是真实而迫切的,绝不仅仅是科幻小说的内容,应该被认真对待。”
认真对待超智能机器的业内专家为数不少。美国发明家、未来学家雷·库兹韦尔于2005年推出《奇点临近:2045年,当计算机智能超越人类》一书。他在书中所阐释的“奇点”(Singularity)颇受关注,也广有影响。这是一个英文单词,表示独特的事件以及种种奇异的影响。数学家用这个词来表示一个超越了任何限制的值,如除以一个越来越趋近于零的数,其结果将激增。
据说,奇点由计算机的重要奠基人之一冯·诺伊曼第一次提出,并把它表述为一种可以撕裂人类历史结构的能力。而美国计算机专家和科幻作家弗诺·文奇则使用该词来描述那种无情的、飞速前进的科技发展最终将达到的一种临界聚集状态。
关于创新技术的神奇设想,听起来都像是科幻,但确乎向来如此。而在我们与创新技术的浪漫故事中,也总是风险和收益并存,永远会有好坏权衡。似乎不可避免的是,我们很快就要与一种前所未有的东西共享这个星球了。那是一种真正不可思议的具有超群才智的玩意儿。
接下来,我们要考虑什么,又该做些什么呢?