如果有人说能打败人工智能(不是人机),先说赢了自动脚本对抗线吧。人类没有必要害怕所谓的人工智能的发展。马斯克曾经说过,“人工智能未来一定会毁灭人类”。人工智能的发展是可以让人类灭亡的巨大可能性之一。

我们应该担心人工智能吗?

我们应该担心人工智能吗

人工智能有两种,一是为自己制造的,二是为敌对方制造的。为自己制造的,辅助或代替人类在高空、深海、黑暗、危险、繁琐等工作岗位,听说已经有性爱机器人,比真人还安逸,这样的人工智能那多多益善。放下道德伦理观念不说,有人要就有人造,有商品就有人买。出现了问题,有商品市场规则,有法律法规规范。最舒适、强大的人工智能产品是为敌对方和潜在敌对方制造的。

人工智能最后会毁掉人类吗?

人工智能最后会毁掉人类吗

马斯克曾说:“人工智能在未来一定会毁灭人类”。而我却不这么看,虽然人工智能已经在许多领域崭露头角,如谷歌阿尔法机器人横扫世界各大顶尖棋手,再如可以感知人类情绪的超级机器人,可以提前做出各种判断;可以肯定的是,随着科技的飞速发展,未来人工智能技术一定会强大到不可思议,达到令人生畏的地步。然而我认为,人工智能你的要求发展的基础还是人类,它发展的高度,其实取决于人类智慧的高度;人类既然可以成就它,我想也可以最终毁灭它;就像孙悟空不管有多大能耐,是不可能逃过佛祖的手掌心一样。

人工智能会给人类带来哪些危害?

人工智能会给人类带来哪些危害

这是必然的。人类不是一直存在的,人类必然会灭亡,如同恐龙的存在和灭亡一样。人工智能的发展就是能够促使人类灭亡的极大可能之一。人工智能现在来看在很大程度上改变了人们对于它的认识,比如围棋等领域。在不长的时间内(十年之内)就有可能明显的改变人们的生活,在未来,这个领域关系到武器装备,关系到科技竞争,关系到经济发展,关系到国家民生。

人类怕的到底是什么样的人工智能?

当机器人真的有这种反叛的意识和伤害人类的能力之后,是否遵守这些定律,就已经不是我们人类能够左右的了。那么,难道未来我们真的只能祈祷机器人不会起异心吗?也许,科学家会通过设定某些程序,或者在制造机器人的时候设定某些开关,在危急时刻能够有一个随时制止机器人的武器。或者,我们人类也可以改造自己。我们可以通过机械来增强自身的体力,通过插入芯片或者其他方式来提升我们大脑的运算能力。

为什么人类担忧人工智能,人工智能危险在哪?

比如说一点,人工智能发展成为了杀人武器,人类该怎么办?这是一个道德问题,所以有观点认为要哲学的来看待这个问题。在人工只能上面,重点也许是,要评估技术的使用方式,就像我们知道我们不应该撒谎,但如果这是为了保护某人的感情呢?我们知道杀人是错误的,但如果这是为了自卫而做的呢?人工智能对人类有好处,但是用途不对,伤害同样会很大。

技术很多时候会有不止一种用途,对待有多重用途的技术,就要格外小心,像无人驾驶飞机的自动驾驶系统一样,可用于记录沿着山峰滑行的滑雪板这样的无害任务,或者可以使用相同的技术使游荡的弹药悬停在战场上方,同时其操作员仔细检查下方的目标区域。其中哪些是“主要目的”?一套更为严格的道德准则将清楚地表明企业如何处理表面上看起来无害的技术的发展,这些技术可能会被用于“邪恶”用途,而被用到那样的用途以后,人类的担忧就会成现实。

关于技术道德应用的问题似乎与开发新技术和创新技术相关,但由于技术的价值在其应用中,像谷歌这样的公司对其技术的应用价值很高,所以对这些技术进行拆包哲学问题 ,以及道德准则的有意义的增强 ,为技术增加价值。因此,识别公司道德推理中的含糊不清对于受技术和公司底线影响的社会都是有利的。了解更多硅谷前沿深度讯息请看 硅发布 微信公众号。

 1/2   上一页 1 2 下一页 尾页

文章TAG:人工智能  害怕  强大  
下一篇