近年来,关于人工智能的话题和发展越来越受关注,与此被关注的还有一个问题:人工智能到底能不能产生“意识”?业界更多的人认为机器对人类智能并不知悉。因此,也有很多人通过实验去验证人工智能为何不能产生“意识”。
据悉,该实验为反驳图灵测试所认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。
如何区分通用人工智能与强人工智能?
这里有两个容易混淆的概念:通用人工智能与强人工智能。所谓通用人工智能(Artificial General Intelligence,AGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。
而强人工智能(Strong Artificial Intelligence)则是约翰·希尔勒在提出“中文房间实验”时设定的人工智能级别。这个等级的人工智能,不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。
虽然两个概念似乎都对应着人工智能解决问题的能力,但我们可以把前者想象为无所不能的计算机,后者则类似穿着钢铁侠战甲的人类。
“中文房间悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。
现实中的技术发展好像也确实是这样的。
在通用人工智能领域,人类已经提出了一些设想与架构模型。其中最著名的应该是澳大利亚国立大学学者马库斯赫特(Marcus Hutter)在2000年提出的AIXI。这个计算模型据说可以涵盖各种算法与技术,逼近通用人工智能的本质……当然,这个算法的复杂程度奇高,根本无法执行,所以仅仅是个设想。
而OpenAI和DeepMind这样的企业在近两年则都开始了具体层面的AGI研究,其中DeepMind被认为是继承AIXI的先锋军。
从DeepMind进行的通用人工智能性质的研发与实验中,我们可以看到其“通用性”主要集中在四个层面:智能体应对复杂环境、陌生环境处理、时间变量应对、多个信息源同时处理任务。
而这些技术都指向同一个方向,就是智能体与外界的交互——也许可以理解为AI与这个世界的翻译程序吧?
换言之,人类所做的仅仅是给“那个人”更好的翻译程序,而非教他中文(当然也没法教)。所以通用智能这种已经很玄的东西,依旧与强人工智能保持着清晰的界限。
强AI:能力和意识或许越走越远
让我们把“中文房间实验”极限化一点,把整个房间放在一个人的大脑里。
假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,它也依旧没有理解任何一个汉字。
确切地说,这个人(智能体)获得的是使用中文的能力,但他(它)对中文没有意识。