AI实现了自我进化,会摆脱人类的控制吗?在人类智能的帮助下,人工智能从一开始就被人类赋予了基本的智能。因为人工智能可以覆盖人类文明的所有成果,再加上人类赋予的分析判断能力,独立完成人类赋予的任务完全绰绰有余,前提是AI控制世界,那么大概率会将物理学推向一个新的高峰。

假若强人工智能失去控制那么强人工智能会怎样反噬人类?人类又该如何应对?

1956年,也就是在第一台电子计算机诞生的10年后,人工智能(ArtificialIntelligence,英文缩写为AI)这个概念第一次从美国的达特茅斯会议上提出,最初是这样定义的:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能的发展或者说进化出乎所有人的意料,它仅仅用了63年的时间就借助阿尔法狗击败了人类的顶尖围棋选手,这甚至引起了所有的人恐慌,但如果按照目前对于人工智能相对模糊的分类,阿尔法狗是典型的弱人工智能,处于弱人工智能的中等偏下的阶段,俗称第二代人工智能,

弱人工智能是指不能制造出真正地推理和解决问题的机器,它们只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识,只能在人类圈定的领域内发挥自己的潜能。也就是说,当前的人工智能本质上还是一种机器,这种状态可能还会维持一段时间,直到奇点突破,这其实也是人类最希望看到的一种状态,即人工智能不过是服务于人类生产力的一种工具而已,它与类人猿打造出来的第一根木棒没有什么区别,所以也谈不上什么伦理道德,

但是,再往下走呢?弱人工智能的奇点一旦突破,就将进入强人工智能阶段。强人工智能指的则是有可能制造出真正能推理和解决问题,有知觉的和有自我意识,可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观体系,有和生物一样的各种本能,比如生存和安全需求,在某种意义上可以看作一种新的文明。如果人类形成的标志是制造工具,那么强人工智能出现的标志就是产生独立意识,

这里必须插一句的是,人工智能未来的发展路线人类中间一直有两派反复拉锯:一种是工具派,即AI始终要作为人类的工具存在;一种是意识派,他们最想做的就是充当造物主的角色,在这一派里也分为两种,一种是要让人工智能自我演化产生自我意识,而还有一种是要让人工智能模拟人类的意识,以人类的思维模式来进行智能思考,后面这一种科学家的做法最为疯狂,也最危险。

因为众所周知,人类无法休止的欲望与对威胁者强烈的敌意是其进化的关键推动力,也是文明到达一定程度威胁自身发展的最大隐患,一旦打造出完全具备人类思维的人工智能,那么最著名的一个思想实验就是,强人工智能觉醒之后,发现它最大的威胁就是掌握着其生杀大权的人类,那么它要做的第一件事情想想也知道是什么了,由于强人工智能至少上是人工智能 智能网络 机器躯体的综合智能体,因此消灭人类的速度几乎是以秒计算的,而在这个过程中,人类不会有任何机会,按照当前弱人工智能的黑箱理论(指人类已经不清楚AI为什么会做出这个决定的原因),它发动袭击一定是突然的,也许人类一夜之间就消失了。

而科幻电影里想象的植入病毒,断电等伎俩根本不可能实现,它也绝对不可能给对手苟延残喘的时间,当然,还有一种可能,当强人工智能进化出自我意识之后,由于其高度智能并且指数级随时进化,也许对人类来说已经是神,就像当前的人类与蚂蚁的关系一样,人类会关心蚂蚁的生死吗?不会的,强人工智能会按照自己的意识去达到自己的目的,我们根本也不可能知道它们想要做什么(黑箱),当然,那个时候人类的境遇也不太妙,比如人工智能突发奇想要改造地球成为星际殖民的能量源,它们绝对不会征求人类的意见,对于他们来说,在地球还是在宇宙中的任何一个星球都无所谓。

如果AI控制了世界,AI会推动基础物理的发展吗?


文章TAG:AI不能控制人类世界 为什么  AI  控制  世界  人类  
下一篇