美国当代哲学家威廉·莱肯在很多观点上对图灵表示认同,但是莱肯意识到许多人仍然认为,即便可以制作出一个类似人类的机器,也永远无法制造出一个就是“人”的机器。对于着一些观点,莱肯举了一个例子——哈利。哈利是一个人形机器人,他有和人类极其相似的皮肤,他可以打球、弹琴、运动,也会紧张,会有情绪,也有弱点。哈利在各方面都给人以一种“人”的印象。他有意向也有情感。如果哈利被割伤,他流出的是机油而不是血,你一定会很吃惊。
莱肯认为,这样的情况不应该导致你改变对哈利的认知状态,如果你认为哈利不是“人”,那么哈利缺少了什么?一个可能的回答是“他是一个由编程制造出的机器”。莱肯对此会回应“我们难道不是吗?”我们每一个人出生时都带着遗传密码,它给我们预设了诸多不同的特性,比如性格、喜好、血型。我们成长的过程中也被家长、老师影响着,这也是一种不同的“编程”,还有你的行为、语言学习等,都是编程的过程。莱肯认为,你拥有超越程序的能力,而哈利也有。
事实证明,人类可以跳出自身的框架进行思考,而机器却无法做到这一点。许多人认为,即使有机器能够通过图灵测试,也并不能认为他们就是“强AI”。学界对于强人工智能所需要拥有的智力水平,尚且没有准确的定义,但人工智能研究人员认为强人工智能需要具备以下的能力。
1.思考能力,运用策略去解决问题,并且可以在不确定情况下做出判断;
2.展现出一定的知识量;
3.计划能力;
4.学习能力;
5.交流能力;
6.利用自身所有能力达成目的的能力。
三、约翰·塞尔的“中文屋”测试——你是否真的会中文呢?
人工智能的问题也涉及到心灵哲学的领域,哲学家约翰·塞尔构想了一个著名的思想实验“中文屋”,同样来证明即便骗过了人类,也不能成为“强AI”。
想象你是一个不会说中文的人,你被关在一个房间里,这个房间里到处都是汉字。另外你还有一本英文编码本,上面指示着每个输入对应着什么汉字。中文母语的人把用中文写的信息送到房间中,你使用编码本,就可以搞清楚如何回答你收到的汉字。这样,你就可以把合适的中文内容送出房间。但是,你完全不知道这些汉字是什么意思,却仍然能够根据编码进行回答。你很熟练地依照这个程序进行,以至于中文母语的人相信,你是懂得中文的。这也意味着你通过了说中文的“图灵测试”。
显然,你并不懂中文,你只是知道如何操控符号,却完全不理解它们的意思。你只是能够欺骗人们相信,你知道你并不真正懂得的东西。同样,根据塞尔的观点,机器能够欺骗人类,认为它是“人类”,也并不意味着它就是“强AI”。强人工智能应该要求机器具备真正的理解力,而计算机似乎永远不可能实现这一点。
四、“超人工智能”的发展——人工智能的进一步升级思考在“弱人工智能”和“强人工智能”之外,哲学家、牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)还定义了一种“超级智能”,那就是“在几乎所有领域都大大超过人类认知表现的任何智力”。超人工智能(Artificial Super Intelligence,ASI)正是超级智能的一种。
首先,超人工智能能实现与人类智能等同的功能,即可以像人类智能实现生物上的进化一样,对自身进行重编程和改进,这也就是“递归自我改进功能”。
其次,波斯特洛姆还提到:
“生物神经元的工作峰值速度约为200 Hz,比现代微处理器(约2 GHz)慢了整整7个数量级”,同时,“神经元在轴突上120 m/s的传输速度也远远低于计算机比肩光速的通信速度”。
这使得超人工智能的思考速度和自我改进速度将远远超过人类,人类作为生物上的生理限制将统统不适用于机器智能。
现在,我们只能在电影和小说之中看到“强人工智能”和“超人工智能”,但是这并不妨碍哲学家、科学家对这一问题进行持续的研究和探讨。这一问题的丰富程度远远超过我们的想象,如果你对此感兴趣,也可以阅读更多相关的内容,并且提出自己的思考和看法。