这是因为人工智能承诺(或在某些情况下威胁)实现的商业和社会变革的期望超出了以往技术革命期间的梦想。人工智能指向未来,机器不仅像工业革命那样完成所有的体力劳动,而且还有“思考”工作 - 规划,制定战略和做出决策。我们可能不会在2019年达到这些结果中的任何一个,但这是一个将继续受到激烈争论的话题。与此同时,我们可以期待以下五件事:人工智能日益成为国际政治问题2018年,在贸易和国防方面,世界主要大国越来越多地设法保护自己的国家利益。

在世界上两个AI超级大国,美国和中国之间的关系中,这一点最为明显。面对美国政府对用于制造人工智能的商品和服务的关税和出口限制,中国在研发方面加大了自力更生的力度。中国科技制造商华为宣布计划开发自己的人工智能处理芯片,减少对该国蓬勃发展的人工智能产业的需求,以依赖英特尔和Nvidia等美国制造商。与此同时,谷歌因其明显愿意与中国科技公司(许多与中国政府有联系)做生意而面临公众批评,同时由于担忧而退出(在员工施加压力之后)安排与美国政府机构合作它的技术可能是军事化的。

随着民族主义政治的复兴,这里有两个明显的危险。首先,专制政权可以越来越多地采用人工智能技术来限制自由,例如隐私权或言论自由。其次,这些紧张局势可能会损害世界各地学术和工业组织之间的合作精神。这种开放式协作框架有助于我们今天看到的人工智能技术的快速开发和部署,并且围绕一个国家的人工智能开发设置边界可能会减缓这一进展。

特别是,它有望减缓围绕人工智能和数据的共同标准的发展,这可以大大提高人工智能的实用性。走向“透明AI”人工智能在更广泛的社会中的采用 - 特别是涉及处理人类数据时 - 受到“黑匣子问题”的阻碍。大多数情况下,如果没有彻底了解它实际上在做什么,它的工作似乎是神秘而深不可测的。为了实现其全部潜在的AI需要得到信任 - 我们需要知道它对我们的数据做了什么,为什么以及在涉及影响我们生活的问题时如何做出决策。

这通常很难传达 - 特别是因为AI特别有用的是它能够绘制连接并做出可能不明显甚至可能与我们相反的推论的能力。但建立对人工智能系统的信任不仅仅是让公众放心。研究和业务也将受益于开放性,这暴露了数据或算法的偏见。有报道甚至发现公司有时会因为担心如果当前的技术被认为是不公平或不道德而可能在将来面临责任而拒绝部署人工智能。

在2019年,我们可能会越来越重视旨在提高人工智能透明度的措施。今年,IBM推出了一项技术,旨在将决策的可追溯性提高到其AI OpenScale技术。这个概念不仅可以实时洞察正在做出的决策,还有如何制作决策,在所使用的数据,决策权重和信息偏差潜力之间建立联系。今年在整个欧洲实施的“一般数据保护条例”为公民提供了一些保护,使其免受那些仅通过机器对其生活产生“合法或其他重大”影响的决定。

虽然它还不是一个极其热门的政治马铃薯,但它在公共话语中的重要性可能会在2019年增长,进一步鼓励企业努力提高透明度。人工智能和自动化深入到每个企业在2018年,公司开始更加坚定地掌握AI能做什么和不能做什么的现实。在过去的几年里,他们的数据按顺序排列,并确定人工智能可以带来快速回报或快速失败的领域,大企业作为一个整体准备好推进已经过验证的计划,从试点和软启动转向全球部署。

在金融服务中,每秒数千个事务的大量实时日志通常由机器学习算法解析。零售商精通抓取数据直到收据和忠诚度计划,并将其提供给AI引擎,以找出如何更好地销售我们的东西。制造商使用预测技术精确地了解机械可以承受的压力以及何时可能发生故障或失效。在2019年,我们将看到越来越多的信心,这种智能的,预测性的技术,通过其在初始部署中学到的知识得到支持,可以在所有业务运营中大量推广。

人工智能将扩展到人力资源或优化供应链等支持职能部门,在这些部门,物流,招聘和解雇等方面的决策将越来越多地通过自动化来实现。用于管理合规性和法律问题的AI解决方案也可能越来越多地被采用。由于这些工具通常适用于许多组织,因此它们将越来越多地作为服务提供,为小型企业提供AI樱桃。我们也可能会看到企业使用他们的数据来增加新的收入来源。

 3/4   首页 上一页 1 2 3 4 下一页 尾页

文章TAG:医疗  牙科  上市公司  汇总  智能  
下一篇