机器人三大定律靠谱吗?

你的先明白,怎么实现机器人呢三大定律。机器人三大定律的来源:20世纪40年代早期,Isaac Asimov在他的短篇小说《我的机器人》中制定了三条著名的机器人法则:(1)机器人不可以伤害人类。(2)机器人必须服从人类的命令。(3)机器人必须能够保护自己的存在。这三条定律,是人类第一次提出机器人概念的时候的一种设想。

觉得机器人就应该是为人类服务的产品。不少学院派的研究员,学生,甚至老师,对人工智能,机器人都会一直提要准守机器人三大定律。这其实就相当于是一个产品设计的基本准则,就好像盖100米高楼,钢筋要多粗,地基要多深是一个道理。这都三大机器人定律,谈不上是机器人设计中的目标或者未来发展的终极情况。就是围绕着:安全,创造价值,人工智能的可传递性,三这个目的。

所以机器人三大定律翻译成“人话”就是:(1)机器人不可以伤害人类——机器人要绝对的安全,人机协作的时候,机器人要能够感知到人类的存在,并且根据人类的动作,做出相应的判断,避免伤害到人。这一条定律,可以这么说吧!现在不是人类想不想遵守的问题,而是能不能实现的问题!不管是工业机器人,服务机器人,医疗机器人,用视觉图像,红外激光导航雷达,力觉传感器,安全光栅等等辅助零部件,或者辅助设备,不断地提高机器人的反应灵敏性,让机器人变得更安全。

现在的协作机器人,就是属于比较安全的工业机器人之一。家里的扫地机器人,就是使用的激光导航雷达,可以探知到障碍物,避免破坏家中的设备,甚至威胁到人。包括现在火热的无人驾驶技术,就是在不断的提高激光导航雷达的灵敏性,提高图像识别的速度,以便在汽车行驶中可以快速的看到“人类”。实现更安全。激光雷达在无人驾驶中的应用。

安全是机器人必须的特点,这都不需要所谓的机器人定律去规定,因为至于机器人安全,才能够被使用。才能创造价值,才能用于生产线。不然那就是一个危险的设备。2、机器人要具备可操控性——这就是让机器人为人类干活,创造价值这么说吧,尚且还没有机器人可以自己操控自己的“人工智能”。从最开始的工业机器人,示教编成,到后来服务机器人,采用语音,视觉的方式,人机对话。

服务机器人类似于,天猫精灵这种人机对话,可以为你服务的这种人工智能类产品。所以机器人的操控性,目前还在不断探索中,有很多的信息,语言,图像信息,机器人还没法感知。所以,操控性方面,还需要很长的一段时间才能够完善。人和协作机器人一起组装产品示教编程控制工业机器人3、机器人要要能够保护自己的存在——这是人工智能的核心。

按照人工智能的发展逻辑,机器人可以深度学习,自动的进行机器学习,实现智能的进化。但整个过程很漫长。因此,对于人工智能来说,要具有传承能力。也就是说,人工智能不可以完全无自我修复功能的消亡。因为这样,花费大价钱做的事情,就白做了。所以宏观上讲:机器人三大定律是当前机器人行业基本的中国规范,谈不上所谓的准守准守,放弃不放弃。

机器人如果违反三定律还能定义为机器人吗?

关于这个问题,中国科普博览邀请人工智能领域的大咖、SELF讲坛演讲嘉宾、中科院计算所陈云霁研究员来回答。2002年起,陈云霁从事国产处理器的研发工作, 先后负责或参与了多款龙芯处理器的设计。科学伦理必须对我们的科技产品的生产和使用,要进行一些限制,你不能随便去用它。我觉得这个机器和人之间的关系,是非常值得探索的。

比如首先,尤其像人工神经网络这样的技术,它的行为是有一定的这种不可预测性的。我们怎么让一个有具有不可预测性的这种人工智能算法,让它最后的行为又是能够符合某些确定的规范的呢?其实这背后是有很多科学问题的。阿西莫夫三原则或者三定律是:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。我觉得三定律可能是科幻小说家的一个想象而已,但是背后确实有它的哲学的思考,也可以查阅出很多实际的科学问题来。我觉得这些科学问题,未来是非常值得我们这些研究者去探索的,而且是非常有必要去探索的。因为毕竟我们去做人工智能的研究,也是为了让人类社会能够有,说白了就是能够大家生活得更幸福。

阿西莫夫所提出的机器人三定律,真的可以锁死机器人的意志吗?

01“我认为任何一种对人类心灵的冲击都比不过一个发明家亲眼见证人造大脑变为现实。”本句出自交流电发明人特斯拉之口,而笔者认为任何一种对人类心灵的冲击都比不过一个地球人亲眼见证人类飞出银河系的壮举。人类对机器人总是抱有复杂的情感,在世界没有机器人时,人类在宇宙面前是孤独的,没有朋友的,机器人的问世,人类惊羡他们超人的计算能力,又忧虑他们对人类的威胁,这一度反机器人者急剧增加,而人类文明的进步是离不开机器人的协助,所以闻名于世的机器人三定律问世了,作为造物者的人类与他的创造物签订了一份不平等条约,而这理性的三定律是成了人类奴役机器人的控制砝码,人类从不会将机器人想的比自己有多高尚,人类给予机器人自由意识,却剥夺他们的自由意志,而纯粹理性的三定律真的能约束机器人吗?“不伤害人类”又是何种定义,如果将“电车悖论”去考验机器人,三定律真的显得捉襟见肘。

所以笔者今日要解读的是阿西莫夫的《我,机器人》,他所开创的机器人三定律,对后世机器人科幻奠定了不可磨灭的基础,可以说是一部机器人心理进化史。人类在研发机器人的途中遇到了不少坎坷,由于胆怯,他们生产了第一代不会说话的机器人、环舞的机器人、怀疑论者机器人、焦虑的机器人、会说谎的机器人、制造宇宙飞船的超级机器人、假扮人类竞选市长的机器人等等,人类从畏惧到依赖机器人,从歧视到辨识不出,最终一次意外中,机器人操控的超原子飞船带检测员飞出了银河系,这或许是人类向太空迈出了意义非凡的一步,这也是人类凭借单打独斗难以逾越的一步。

02最初人类生产了不会说话,必须人骑行才可以移动,在这类机器人面前人类才能显得优越,而之后第二代机器人的权限更多了,可以在小行星开采矿藏,可是三定律将他们推向了精神崩溃的边缘,二定律与三定律的矛盾让机器人环绕基地与人类做迷藏,因为采矿的地方有火山爆发的危机,机器人在执行命令时,不能违背二定律去保护自我,如果不保护自我命令也就无法执行完成,所以机器人只好徘徊在矿区与基地之间的临界点绕圈,这个位置既是去执行命令的路上,又能自保,所以二、三定律以电势的作用演化出了两个定律自我对抗的形势。

人类第一次意识到了三定律对机器人的无力感,所以测试员以自杀的事件触发第一定律让机器人回到身边。规则是纯粹理性的,但是执行确是感性的行为,所以这些换做人类也是无法破解的。03之后人类研发了怀疑论者机器人,他不相信竟是人类制造了他,他相信自己的聪明才智是远优越人类的,人类是“主”创造的劣等生物,当自己问世后,人类就下岗了,并且人类正有打算将空间站的控制权都交给他,他认为人类也是“主”创造的,地球从来不存在,不过是主给人类打了“要回地球”的思想钢印,这些记忆不过是人类存在的基石,他怜悯人类的无知,以导致测试员差点怀疑自己的存在性。

笔者认为此型号机器人已经越入会独立思考的境界,已经具备了自由意识,不过介于“三定律”的盖印,他不会对人类犯上作乱,其实阿西莫夫是在探讨“保护”的定义,把人类囚禁起来也是机器人意义上的保护,对于人类的理解这不是伤害吗?机器人具备自由意识是不够的,三定律也无法约束他们,于是在一次意外的错误中,会撒谎的机器人问世了,他居然欺骗了作为机器人心理学家的苏珊。

其实仍是在探讨什么是“不伤害人类”,不伤害不光是物理层面的伤害,更是不能在情感方面的伤害,机器人为了不让工作人员遭受情感的打击,他欺骗了周围人,为了不伤害人类的自尊心,他故意不解答他会的题,让人类自己去解答,但是心理学家质问他时,你不告诉人类就是对人类的伤害,但是告诉了仍会伤人自尊,这样陷入悖论的机器人崩溃了,其实这样的问题如果发生于人身上,以人的情商都是难以解决的问题,别企图对机器人抱有期望。

04逃避现实的机器人。当人类辱骂机器人后,让他滚后,他躲在了其他机器人之中,人们无法辨识出他,他是一批由于特殊需求特殊处理后的机器人,废除了第一定律的后半句,机器人见人受伤害可以袖手旁观,但是他已经学会了伪装,难道不会伪装地和其他机器人一样,去伪装成一个正常的机器人,当人类无法辨别出时,才明白了挫败感,而最终仍在心理学家设置的游戏里中找到他了,这让人类对机器人的戒备心更强了。

这个阶段人类的机器人技术已经相当成熟了,可以说机器人都可以制造出自我了,人类将制造宇宙飞船的大任交给了机器人,机器人制造出了一个全封闭式的自动驾驶超原子飞船,在测试员没注意情况下,他擅自将人类送去了太空,并飞出银河系完成星际穿越。这里有一个道德问题,飞出太阳系需要第三宇宙速度,飞出银河系需要第四宇宙速度,人在穿越星系边缘时会出现假死现象,所以这里其实是“伤害人类了乃至死亡”,但是机器人逃避了这个问题,因为他有把握将人活着送回。

05最后一个阶段,人类制造机器人技术已经登峰造极,他们研发出了仿生人机器人,与人类几乎无区别,尽管有三定律的约束,但是他成功的假扮人类,欺骗了机器人心理学家的慧眼。成功竞选为市长,他欺骗了所有人,将机器人的政治生涯走向了巅峰,其实机器人参政比人类更纯粹理性,他不会贪污,也不会偏袒,所以当苏珊的得知后,默认了他的存在。

其实全书最荒诞的是作者给予了机器人人自由意识,却用三定律锁死了机器人的自由意志,相当给一个自由的人带了一个紧箍咒,却要他有独立思考的精神,而摆在机器人面前的问题远远比这些复杂,比如机器人遇到了电车悖论,必然会出现宕机的情况。阿西莫夫以推理的手法去分析这些多种可能的问题,简直是一个推理天才,我想未来机器人日益成熟,人类肯定会遇到书里的预言,机器人心理学这门学问肯定也会成为一个专业,前一段据说谷歌的机器人学会了创造自己的语言,这一大成就真的令人恐惧,所以停止了那个项目。

携带武器的无人机算不算机器人,如果算的话是否违反机器人三定律?

所谓的机器人三定律并不是真正存在的,仅仅是艾萨克·阿西莫夫在1942年发表的作品《转圈圈》中的一个设想。不过只是因为对于人类对智能机器的恐惧,机器人三定律才广为流传的。但这个东西并不是在工程学上实现的铁律,同时也没有被写入任何一个国家的法律中。用俗话说就是一句“屁话”。题主所想的无人机带武器的问题其实还是幼稚了。

韩国在38线附近部署了一种叫做宙斯盾的武器站。这其实就是智能机器人。当这个机器人的传感器发现目标人形的目标的时候会开始自动喊话,制止人形目标的移动,如果喊话三遍这个人形目标还继续移动的话,会直接启动上面的M2重机枪进行扫射。整个的行为完全是自主的。并不需要认为干涉。这就是处于某种目的设计出来的杀人机器。

不仅仅是韩国,目前很多国家都研制和装备带有武器的战场机器人。这里面一部分是通过人类利用远程遥控装置进行操作的,算不上是完全的人工智能机器人,还有一部分则是完全利用人工智能工作的自主武器机器人这玩意会自动的判断是否需要开火消灭人类。如果按照机器人三定律来说,上面的几个例子其实都是彻底的违背了机器人三定律。

但所谓的机器人三定律不是屁话吗?违背了也就违背了,无所谓了。和机器人三定律相左的则是各个国家军方的需求,军火商在军方的需求框架内提供产品,这本身就是一种“生意”。生意的最终目的是利益,在利益面前别说这种屁话了,就是很多法律都被践踏。所以说,可以预见的将来,很可能有全部是机器人组成的军队或者专门从事杀戮的大型机器人出现它们所维护的并不是所谓的机器人三定律,而是购买者的利益和需求。


文章TAG:定律  阿西莫夫  机器人  意义  
下一篇