智能机器人的三大原则是什么?
第一定律
机器人不得伤害人,或任人受到伤害而无所作为;
第二定律
机器人应服从人的一切命令,但命令与第一定律相抵触时例外;
第三定律
机器人必须保护自己的存在,但不得与第一、第二定律相抵触。
机器人三大定律是否有漏洞?
机器人三原则是1940年由科幻作家阿西莫夫所提出的为保护人类而对机器人们做出的规定。
机器人三原则理论提出的半个世纪以来,不断的被科幻作家和导演使用。但有趣的是,凡是出现三原则的**和小说里,机器人几乎都违反了本条例。其中主要的一点就是机器人对“人类”这个词的定义不明确,或者是更改人类的定义。比如某个极端主义者,像3K党有反对黑人倾向这样的组织,利用电脑病毒等手段,把机器人对人类的定义是:“只有白人是人类。”这样,机器人很有可能成为种族屠杀的工具。
漏洞:第一大定律规定“机器人不得伤害人类”,但实际上有隐含条件,那就是“如果有人类阻碍了人类社会的存在和发展,就可以违反这一定律”,说白了,机器人就可以伤害人类了。
因此,这个隐含定律又被叫做第零条定律,内容就是“机器人必须保证人类社会的存在和发展”。于是第一定律“机器人不得伤害人类,也不得坐视人类被伤害而置之不理”(除非违反第零条定律),才是完整的内容。但是,括号里面的内容,人类是不知道的。
如果有人类,他的存在威胁到人类社会的发展,甚至威胁到整个人类社会的存在,那么机器人就可以根据第零条定律,将之除掉。
阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。
保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's Way》中提出第四原则:第四原则:机器人在任何情况下都必须确认自己是机器人。
1989年美国科幻作家Harry Harrison在《Foundation's Friends》中又提出另一个第四原则:第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。
以上就是关于智能机器人的三大原则是什么全部的内容,包括:智能机器人的三大原则是什么、机器人三原则是谁提出的、机器人三大定律是否有漏洞等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
下一篇:最后一页
【免责声明】本文仅代表作者本人观点,与聚股通无关。聚股通站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。
【聚股通版权与声明】
1、凡本网注明“独家稿件”的所有稿件和图片,其版权均属聚股通所有,转载时请注明“稿件来源:“聚股通”,违者本网将保留依法追究责任的权利。
2、凡没有注明“独家稿件”及其它转载的作品,均来源于其它媒体,转载目的在于传递更多信息,与本网立场无关,本网对其观点和真实性不承担责任。
3、如因作品内容、版权和其它问题需要同本网联系,请在发布或转载时间之后的30日以内进行。