更改

添加139字节 、 2021年9月16日 (四) 11:00
第21行: 第21行:  
智能爆炸是构建'''通用人工智能 artificial general intelligence(AGI)'''的可能结果。在技术奇点实现后不久,AGI将能够进行递归式的自我迭代,从而导致'''人工超级智能 artificial superintelligence(ASI)'''的迅速出现,但其局限性尚不清楚。
 
智能爆炸是构建'''通用人工智能 artificial general intelligence(AGI)'''的可能结果。在技术奇点实现后不久,AGI将能够进行递归式的自我迭代,从而导致'''人工超级智能 artificial superintelligence(ASI)'''的迅速出现,但其局限性尚不清楚。
   −
1965年,I. J. Good曾推测通用人工智能可能会带来智能爆炸。他对'''超人类机器 superhuman machines'''及其影响进行了推测,如果他们真的被发明出来的话:<ref name="stat"/>
+
1965年,I. J. Good曾推测通用人工智能可能会带来智能爆炸。他对'''超人类机器 superhuman machines'''及其影响进行了推测,如果他们真的被发明出来的话:<ref name=:14>Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965. Archived May 1, 2012, at the Wayback Machine</ref>
 
::让我们把超智能机器定义为一种机器,它可以进行远超无论多么聪明的一个人的所有智力活动。由于机器的设计是一种智力活动,那么一台超智能机器可以设计出更好的机器;那么毫无疑问会出现“智能爆炸”,人类的智能将远远落后。因此,第一台超智能机器是人类所需要的最后一项发明,当然,假设机器足够温顺并能够告诉我们如何控制它们的话。
 
::让我们把超智能机器定义为一种机器,它可以进行远超无论多么聪明的一个人的所有智力活动。由于机器的设计是一种智力活动,那么一台超智能机器可以设计出更好的机器;那么毫无疑问会出现“智能爆炸”,人类的智能将远远落后。因此,第一台超智能机器是人类所需要的最后一项发明,当然,假设机器足够温顺并能够告诉我们如何控制它们的话。
   −
古德的设想如下:随着计算机能力的增加,人们有可能制造出一台比人类更智能的机器;这种超人的智能拥有比现在人类更强大的问题解决和发明创造的能力。这台超级智能机器随后设计一台功能更强大的机器,或者重写自己的软件来变得更加智能;这台(甚至更强大的)机器接着继续设计功能更强大的机器,以此类推。这些递归式的自我完善的迭代加速,允许在物理定律或理论计算设定的任何上限之内发生巨大的质变。<ref name="stat"/>
+
古德的设想如下:随着计算机能力的增加,人们有可能制造出一台比人类更智能的机器;这种超人的智能拥有比现在人类更强大的问题解决和发明创造的能力。这台超级智能机器随后设计一台功能更强大的机器,或者重写自己的软件来变得更加智能;这台(甚至更强大的)机器接着继续设计功能更强大的机器,以此类推。这些递归式的自我完善的迭代加速,允许在物理定律或理论计算设定的任何上限之内发生巨大的质变。
    
==其他表现形式==
 
==其他表现形式==
113

个编辑