系统中的观察者(4)——人工智能的观察者

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
http://c2.com/cgi/wiki?$1>麟凤兰草2016年8月11日 (四) 00:16的版本 (以“{{#seo: |keywords=观察者理论,观察与系统,人工智能 |description=观察者理论,观察与系统,人工智能 }} * 作者:jake * 时间:2010-09 *...”为内容创建页面)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳到导航 跳到搜索


  前两章我们分别从形而上的哲学角度和物理学的两大分支论述了观察者这个特殊的科学背景角色。也许读者会觉得观察者这玩意儿不过是一种“灵光闪现”罢了,没有什么实际用途。那么,本章就试图说服你,观察者不仅仅是一种视角,它绝对可以走向实际应用。而且这种应用完全有可能给:“人工智能”学科注入全新的血液。同时笔者非常确信地认为,人工智能恰恰又为观察者理论这个全新的思想提供了最好的应用平台和实验田。
  下面,我们首先简单回顾一下人工智能的发展历史,着重指出这门学科遇到的一些瓶颈。接下来,我们将从一种人机交互的视角深入剖析智能程序的本质,并提出了一种新的思考范式,即将人与机器看作一个互动的整体。然而,将人与机器放到一起考虑并不是什么新鲜事儿,人机交互等学科也在讨论同样的问题。那么在第3节中我将说服你,与传统的人机交互理论不同,观察者理论试图构建一个非常简洁的模型:图灵机—观察者模型,并用量子概率——这门诞生于量子力学的数学分支来对人机互动系统进行描述。我们构建这样一个理论系统的目的是什么?第4节将回答,人-机交互系统要实现的目标其实有两个:从人的角度来说,人-机交互系统最终的目的就是要提高可玩性;而对于机器来说,人玩的力量——交互行为会为机器提供一种进化的可能,这种进化动力将会使得机器越来越智能——体现为计算系统越来越深的虚拟层次的构建。那么,我们的理论体系将试图定量化描述这两个目标。最后,我们将对理论前景进行一下大胆的展望,主要指出,这些年刚刚兴起的一个分支:人类计算(Human Computation)将为我们这套理论提供无限的应用平台。

人工智能之梦

  人工智能的梦想完全可以追溯到19世纪末期巴比奇发明史上第一台会运算的机器(积分机),因为人工智能与计算机的目标相似:都是为了让机器可以部分或者全部实现人类的智能。计算机科学真正的大发展是20世纪初。那个时候,有多位数学家分别从递归函数论、集合论、数理逻辑、lambda-演算、图灵机等不同的侧面研究人类逻辑思维的形式化(请读者参考《图灵机与计算理论》)。这种数学上的定义不仅澄清了算法的概念,也为人类创造会计算的机器奠定了理论基础。
  尽管人工智能(Artificial Intelligence)这个名词在1956年才真正出现,但我认为这门学科的理论基础早已在数理逻辑、递归函数论、图灵机理论中奠定了。20世纪初期的计算理论不仅澄清了所谓计算的含义,而且还指出了一条通向人类理性极限——自指问题的天梯。关于这个主题,候世达在1979年的名著《哥德尔、埃舍尔、巴赫》给出了非常丰富而深刻的讨论,我认为这本书达到了人工智能思想领域(注意不是人工智能技术)的顶峰。我们也将在下一章继续讨论这个主题。
  然而,人工智能在技术上的发展却远滞后于理论上的突飞猛进。直到20世纪80年代,人工智能技术才真正走向成熟(有相当大的原因是因为硬件的发展)。那时候,专家系统的成功使得“人工智能”一夜成名。以专家系统和自动化逻辑推理的第一代人工智能擅长于建立大规模的规则数据库,并让计算机完成机械化的推理步骤。但很快第一代人工智能就陷入了僵局。由于静态的数据库显然不能解决现实中动态、复杂的问题求解,所以人们必须考虑机器如何自己进行学习。这就导致第二代人工智能技术的兴起,包括人工神经网络、机器学习、进化算法、人工生命等,这类技术本质上都可以归结为机器自动学习、组织各种信息和知识的能力。
但是很快,第二代人工智能又陷入了僵局。我们知道,就连人类小孩的智力发育到成熟阶段都至少需要10年时间,因此很难想象,研究人员会花费数年的时间去培养一台号称可以自学习的机器,更何况,自学习机器的运行结果并不总能保证输出正确。
如果把第一代人工智能看成是对人类智力的一种自上而下的建模方法,那么第二代以学习为主导的人工智能就是一种自下而上的方法。但是,无论是自上而下还是自下而上,人们都走的不远。
  于是到了20世纪的末期,人工智能的发展陷入了僵局。一方面,人们开始放弃大而空的理论探讨,而越来越关心具体的技术。另一方面,基础理论则呈现出了群龙无首的局面。
  认知学派是若干基础理论中的姣姣者。该学派认为,之所以人工智能的梦想还远远没有实现,那是因为我们对自己的大脑和认知系统了解得还不够。于是,我们非常有必要先弄清楚自己大脑是如何工作的,在此实证的基础上,再去构建模型和算法。虽然这套思路的确比起其它思路来踏实了许多,而且可以从神经科学、心理科学等方面借鉴大量的实例,但是认知学派在基础理论方面的进展却极其缓慢。它会很容易陷入两个极端而不能自拔:一方面,由于人类的脑系统非常复杂,无论从分子生物学层次还是从神经细胞的层次,都有无数的细节。因此,构建能够模拟脑运作的计算模型往往需要假设非常多的参数,而最终实现的功能也是人类认知中非常小的一部分。另一方面,也有学者直接对人类的较高级的认知功能建模,然而这样的模型就更加缺乏实证的基础,也有更多的模型构建的任意性(包括机制和参数)。
  实际上,人工智能研究的一个非常重要的出发点就是:智能可以多重实现。也就是说,大自然可以用神经元细胞搭出一个会思考的脑,人类也可以利用01代码或者逻辑电路构造出另类的人工脑。这也就意味着,智能实际上是一种独立于具体硬件,甚至是软件计算方式的系统属性。因此,仅有认知科学和神经科学的事实依据还远远不够,我们还必须从这些特例中抽象出一般的系统属性。生物学家赫布(Hebb)解释的神经系统的Hebb学习律就是一个很好的范例。这些学习律不仅告诉我们神经系统如何学习,而且它是一种抽象的系统机制,我们完全可以用其它的硬件来实现同一套机制而完成学习。然而,近期的人工智能认知学派却没有给我们提供多少类似的结论。
  近年来兴起的“具身学派”(embodiment intelligence)认为,人类的智能与人类的身体密切相关(请参见:http://en.wikipedia.org/wiki/Embodied_cognition)。实际上,我们所能做、能思考的范围已经被我们这个特定的身体和环境深深制约了。例如,我们实际的人类决策并不完全取决于智力因素,而更多的则是情感、处境甚至包括身体状态等共同决定的。因此,传统的人工智能做法由于不可能把所有这些因素考虑进去,也就不可能实现真正的智能。
虽然具身派的观点有很多值得称赞之处,但是,笔者认为该学派却不能提供更多具有实际指导意义的思想。当我们将因素不仅要归结为身体,甚至包括我们嵌入其中的复杂外界环境的时候,模型的那种抽象、指导实践的作用也会荡然无存。很有理由相信,沿着具身派的思路很难提出诸如图灵机这样的抽象而简洁的模型,因为具身派并没有告诉我们什么因素才是这些复杂环境中最重要,最应该抓住的东西!
  人工智能理论的发展还存在着相当多的分支,我们在这里就不一一点评了。其实笔者早在2000年左右跟随恩师贺仲雄教授开始写作科研论文的时候就稀里糊涂的一脚踏入了人工智能这个领域中,然而5年的学习下来,我看到了人工智能现有理论中的不足之处,于是2005年左右,我开始从人工智能中“出逃”。其目的就是想从更多其他学科之中借鉴新的思路。当我在复杂系统、人工生命、统计物理、量子物理等领域中遨游一番之后,已经渐渐地浮现出一条新的发展人工智能的思路。于是于2010年8月的今天写下了这篇文章。
  大概在2006年左右的时候,我的头脑中已经渐渐地独立浮现出人工智能具身派的思路。但是,与他们不同的是,我找到了智能系统所在环境之中最重要的因素,不是别的,正是一个用户或者玩家——这个观察者!于是,多条不同的思路开始汇聚于一处:观察者!
  ……