更改

删除1字节 、 2022年5月2日 (一) 14:30
第72行: 第72行:     
===公众担忧===
 
===公众担忧===
由于公众认知的相关忧虑,神经形态工程学可能会受到严重的伦理限制。<ref name=":27">{{Cite report|url=https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_100_report_0831fnl.pdf|title=Artificial Intelligence and Life in 2030|author=2015 Study Panel|date=September 2016|work=One Hundred Year Study on Artificial Intelligence (AI100)|publisher=Stanford University}}</ref>欧盟委员会进行的一项调查发现,60% 的欧盟公民希望禁止机器人参与照顾儿童、老人或残疾人的工作。此外,34% 的人支持禁止机器人用于教育,27% 的人支持禁止机器人用于医疗保健,20% 的人支持禁止机器人用于娱乐。欧盟委员会将以上领域划入“人类”范畴。报告指出,公众越来越关注能够模仿或复制人类行为的机器人。而神经形态工程,顾名思义,是为了模仿人脑的功能而设计的。<ref name=":1">{{Cite web|url=http://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_382_en.pdf|title=Special Eurobarometer 382: Public Attitudes Towards Robots|last=European Commission|date=September 2012|website=European Commission}}</ref>
+
由于公众认知的相关忧虑,神经形态工程学可能会受到严重的伦理限制。<ref name=":27">{{Cite journal|url=https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_100_report_0831fnl.pdf|title=Artificial Intelligence and Life in 2030|author=2015 Study Panel|date=September 2016|work=One Hundred Year Study on Artificial Intelligence (AI100)|publisher=Stanford University}}</ref>欧盟委员会进行的一项调查发现,60% 的欧盟公民希望禁止机器人参与照顾儿童、老人或残疾人的工作。此外,34% 的人支持禁止机器人用于教育,27% 的人支持禁止机器人用于医疗保健,20% 的人支持禁止机器人用于娱乐。欧盟委员会将以上领域划入“人类”范畴。报告指出,公众越来越关注能够模仿或复制人类行为的机器人。而神经形态工程,顾名思义,是为了模仿人脑的功能而设计的。<ref name=":1">{{Cite web|url=http://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_382_en.pdf|title=Special Eurobarometer 382: Public Attitudes Towards Robots|last=European Commission|date=September 2012|website=European Commission}}</ref>
      第80行: 第80行:  
===人格权问题===
 
===人格权问题===
 
随着神经形态系统的日益发展,一些学者主张赋予这些系统人格权。如果是大脑赋予了人类人格,那么在多大程度上模仿人类大脑的神经形态系统才能被赋予人格权利?“人类大脑计划”旨在推进以大脑为灵感的计算机技术发展,该计划的批评者认为,神经形态计算机技术的进步可能导致机器意识或人格的形成。<ref name=":28">{{Cite journal|last=Aicardi|first=Christine|date=September 2018|title=Accompanying technology development in the Human Brain Project: From foresight to ethics management|journal=Futures|volume=102|pages=114–124|doi=10.1016/j.futures.2018.01.005|doi-access=free}}</ref>这些批评者认为,如果这些系统被当作人来对待,那么人类使用神经形态系统执行任务(包括终止神经形态系统)的行为,在道德上就可能是不被允许的,因为这些行为将违反神经形态系统的自主性。<ref name=":29">{{Cite journal|last=Lim|first=Daniel|date=2014-06-01|title=Brain simulation and personhood: a concern with the Human Brain Project|journal=Ethics and Information Technology|language=en|volume=16|issue=2|pages=77–89|doi=10.1007/s10676-013-9330-5|issn=1572-8439}}</ref>
 
随着神经形态系统的日益发展,一些学者主张赋予这些系统人格权。如果是大脑赋予了人类人格,那么在多大程度上模仿人类大脑的神经形态系统才能被赋予人格权利?“人类大脑计划”旨在推进以大脑为灵感的计算机技术发展,该计划的批评者认为,神经形态计算机技术的进步可能导致机器意识或人格的形成。<ref name=":28">{{Cite journal|last=Aicardi|first=Christine|date=September 2018|title=Accompanying technology development in the Human Brain Project: From foresight to ethics management|journal=Futures|volume=102|pages=114–124|doi=10.1016/j.futures.2018.01.005|doi-access=free}}</ref>这些批评者认为,如果这些系统被当作人来对待,那么人类使用神经形态系统执行任务(包括终止神经形态系统)的行为,在道德上就可能是不被允许的,因为这些行为将违反神经形态系统的自主性。<ref name=":29">{{Cite journal|last=Lim|first=Daniel|date=2014-06-01|title=Brain simulation and personhood: a concern with the Human Brain Project|journal=Ethics and Information Technology|language=en|volume=16|issue=2|pages=77–89|doi=10.1007/s10676-013-9330-5|issn=1572-8439}}</ref>
  −
      
==军民两用技术(军事应用)==
 
==军民两用技术(军事应用)==
7,129

个编辑