虽然目前业界对机器人流程自动化带来的失业问题各持己见,但不得不说这确实是科技的一大进步。八:深度学习芯片2018年以来涉足AI芯片领域的巨头是越来越多的,百度、华为、英伟达、美图等等,甚至是部分语音识别厂商也都在往人工智能芯片上发展。对于现阶段的AI芯片很多业内人士认为,“所谓的AI芯片并不是独立的一块芯片,而是针对一些AI功能进行加速优化。

”不过似乎大家都在在研发相关功能的优化,致使目前深度学习技术陷入瓶颈,不过IBM的深度学习芯片的突破许能够扭转这一局势。IBM正在研发的芯片能够获得上述表现的原因来自于两项创新,而这两项创新的目标都是实现相同的结果——保持所有处理器组件能够得到数据和工作。在深度学习方面,传统芯片架构面临的挑战之一是利用率一般非常低。

也就是说,即使芯片可能具有非常高的峰值性能,通常只有20%到30%的资源能够被用于解决问题。IBM始终将所有任务的目标定为90%。利用率低通常是因为存在于芯片周围的数据流瓶颈。为了突破这些信息障碍,团队开发了一个“定制”的数据流系统。该数据流系统是一种网络方案,可以加速数据从一个处理引擎到下一个处理引擎的传输过程。

它还针对要处理的是学习任务还是推理任务以及不同的精度进行了优化。第二项创新是使用专门设计的“便笺本”形式的片上存储器,而不是CPU或GPU上的传统高速缓冲存储器。构建高速缓存是为了遵守某些对一般计算有意义的规则,但会导致深度学习的延迟。例如,在某些情况下,缓存会将一大块数据推送到计算机的主存储器(强制推送),但如果神经网络的推理或学习过程需要用到该数据,则系统将不得不保持等待状态,直到可以从主存储器中检索到该数据。

便笺本遵循不同的规则。构建它的目标是为了保持数据流经芯片的处理引擎,并确保数据在恰当的时间处于正确的位置。为了获得90%的利用率,IBM必须使设计出的便笺本具有巨大的读/写带宽(每秒192千兆字节)。由此产生的芯片可以执行当前所有的三种主要深度学习AI:卷积神经网络(CNN)、多层感知器(MLP)和长-短期记忆(LSTM)。

Gopalakrishnan解释说,这些技术共同主导了语言、视觉和自然语言处理。在16位精度(尤其是针对训练)情况下,IBM的新芯片能够在每秒钟内执行1.5万亿次浮点运算;在2位精度下(推理的最佳设置)则跃升到每秒12万亿次运算。九:智能应用过去,只有电脑可以连接到互联网。但2018年,你可以买到智能灯泡,智能冰箱,智能汽车,智能手表,智能电水壶等等及许多其他“智能”商品。

 4/6   首页 上一页 2 3 4 5 6 下一页 尾页

文章TAG:科技  大黑  新兴  我国  经济  新兴科技经济有哪些  我国的4大黑科技  
下一篇