斯蒂芬·比尔·盖茨特斯拉CEO马斯克等人都表达了对人工智能未来发展的担忧,甚至认为人工智能会像敌人一样控制人类。天网反映了当今世界人工智能技术的发展变化。拥抱人工智能和风险防范同等重要。他们虽然对人工智能的发展感到担忧,但并不完全抵制人工智能,甚至积极拥抱人工智能。比尔盖茨创建了微软萧冰,已经成为芒果台超维偶像中何炅的搭档,特斯拉也在积极研发无人驾驶。

什么人类担忧人工智能,人工智能危险在哪?

为什么人类担忧人工智能,人工智能危险在哪

比如说一点,人工智能发展成为了杀人武器,人类该怎么办?这是一个道德问题,所以有观点认为要哲学的来看待这个问题。在人工只能上面,重点也许是,要评估技术的使用方式,就像我们知道我们不应该撒谎,但如果这是为了保护某人的感情呢?我们知道杀人是错误的,但如果这是为了自卫而做的呢?人工智能对人类有好处,但是用途不对,伤害同样会很大。

技术很多时候会有不止一种用途,对待有多重用途的技术,就要格外小心,像无人驾驶飞机的自动驾驶系统一样,可用于记录沿着山峰滑行的滑雪板这样的无害任务,或者可以使用相同的技术使游荡的弹药悬停在战场上方,同时其操作员仔细检查下方的目标区域。其中哪些是主要目的?一套更为严格的道德准则将清楚地表明企业如何处理表面上看起来无害的技术的发展,这些技术可能会被用于邪恶用途,而被用到那样的用途以后,人类的担忧就会成现实。

关于技术道德应用的问题似乎与开发新技术和创新技术相关,但由于技术的价值在其应用中,像谷歌这样的公司对其技术的应用价值很高,所以对这些技术进行拆包哲学问题 ,以及道德准则的有意义的增强 ,为技术增加价值。因此,识别公司道德推理中的含糊不清对于受技术和公司底线影响的社会都是有利的。了解更多硅谷前沿深度讯息请看 硅发布 微信公众号。

人工智能有哪些潜在的风险?

一些专家主要关心的不是AI突然具有自我意识,而仅仅是它做出高质量决策的能力。在这里,质量指的是所采取行动的预期结果效用,其中效用函数大概是由人类设计者指定的。人工智能可以选择任何看起来最能实现AI的目标或效用函数的行动。效用函数是一种数学算法,导致一个客观定义的答案。研究人员知道如何编写效用函数,比如最大限度地减少电信模型中的平均网络延迟或最大化奖励点击次数; 然而,程序员或任何一个人类不知道如何编写一个效用函数来最大化人类福祉因为我们自己也做不到,目前也不清楚这样一个函数是否有意义且明确地存在。

此外,表达某些效用将倾向于忽略其他的效用鱼和熊掌的问题。这里还存在一些问题AI效用函数可能与人类的价值并不完全一致,而这些价值很难确定。AI系统由于无法像人类一样理解目标,故可能会被意外地分配错误的目标。艾萨克阿西莫夫的机器人法则是人工智能安全措施最早的例子之一。阿西莫夫的法则旨在防止机器人伤害人类。

在阿西莫夫的故事中,法律问题往往是由规则之间的矛盾和人类的道德直觉和期望产生的。对于AI来说,一套切实可行的规则和目标需要包含一个随着时间的推移学习人类价值观的机制,不能只给一个程序一个静态的效用函数,因为环境和我们对环境的期望回应会随着时间而改变。这是问题的难点,也是关键点。了解更多硅谷前沿深度讯息请看 硅发布 微信公众号。

人工智能崛起引发担忧,我们应该如何应对?

人工智能的崛起是一个不可阻挡的趋势,我们没有办法阻挡,只能顺应变化,自己做好变革的准备。首先,我们没办法阻挡这个潮流,这是因为人工智能确实会引起生产效率的大幅提升,即使你不想用,别人也会想用工人不想用,资本家会想用单个资本家不想用,别的资本家会想用。社会的进步是不以人的意志为转移 ,这是历史的规律。

然后,我们要考虑如何适应变化,先学习。虽然人工智能的历史比较长,但是真正的大发展是在这两年,相关的人才还是供不应求。如果你掌握了相关的知识,你就会走在前面,至少你会比别人被淘汰的慢一点。2积极应用相关工具。现在可用的人工智能工具越来越多。在业务和工作中使用这些工具,可以更快地提高工作效率。只要你跑得比别人快,就不会轻易被淘汰。


文章TAG:人工智能导致了哪些担忧  人工智能  担忧  人类  
下一篇