人工智能软件都涉及到哪些专业知识呢?

人工智能机器人应该与各种计算机软、硬件系统、人脸或语音识别、互联网、物联网和车联网(移动机器人)技术,各种传感器和数据采集系统、无线发射和接收系统、机械传动和伺服系统等密切相关。其人工智能应涵盖各学科各领域的人类思维判断及处置操作的方方面面。故人工智软件就可能会涉及各种自然科学和社会科学的各个分支和各种领域。

目标检测领域中对于夜间物体检测有什么好的方法吗?

卡内基梅隆大学的研究人员开发出一种新系统,该系统使用GPU快速准确地检测4K和8K视频中的物体。研究人员表示,虽然大量数据源以高分辨率记录,但目前最先进的物体检测模型,如YOLO,Faster RCNN,SSD等,只能处理具有相对较低分辨率的视频,约为608 x 608像素。目前大多数模型使用这些图像有三个原因:它们足以完成任务;处理低分辨率图像更具时间效率;许多用于训练模型的公开数据集由低分辨率图像组成。

当然,低分辨率的问题在于视频没有获得很多细节。随着4K甚至8K相机的数量不断增加,需要一种新的模型来分析它们。卡内基梅隆大学的研究人员开发出的这种新系统,将物体检测的任务分为两个阶段,两个阶段都涉及通过将原始图像与规则网格重叠来细分原始图像,然后将模型YOLO v2应用于快速对象检测。开发者创造了许多小型矩形作物,可以通过YOLO v2在几个服务器工作者上以并行方式处理。

第一阶段将图像缩小为较低分辨率并执行快速物体检测以获得粗糙的边界框。第二阶段使用这些边界框作为注意图来决定在高分辨率下检查图像的位置。因此当图像的某些区域不包含任何感兴趣的对象时,开发者可以节省处理它们的资源。研究人员在代码中实现了他们的模型,该代码将工作分布在GPU上,在设法保持高精度的同时,在4K视频和8K视频上分别达到3-6fps和2fps的性能,与将图像缩小到低分辨率的YOLO v2方法相比,该方法将平均精度得分从33.6 AP50提高到74.3 AP50。

特别设计的对抗性彩色斑块如何被用来“欺骗”特定算法?

人工智能监控的兴起极为令人担忧。政府集体追踪和识别公民的能力可能会终止公众的匿名性。但是,正如研究人员一次又一次地表明的那样,有很多方法可以“欺骗”这些系统。最新的例子来自比利时鲁汶大学的一组工程师。在上周在预印本服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够“欺骗”人工智能系统,该系统旨在识别图像中的人物。

这些学生打印出特别设计的彩色斑块并将其挂在脖子上,从AI的角度来看,这可能相当于“隐形斗篷”。正如研究人员写道:“我们相信,如果我们将这种技术与精致的服装模拟结合起来,我们就可以设计出一种T恤印花,可以让一个人对自动监控相机几乎不可见。”这可能看起来很奇怪,但它实际上是AI世界中一个众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的弱点来“诱骗它们看到”不存在的东西。

在过去,对抗性的例子被用来欺骗面部识别系统。然而许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,或者它们可以欺骗用于识别疾病的医疗AI视觉系统。这可以用于医疗欺诈或甚至故意造成伤害。对于最近的研究 - 我们通过谷歌研究员David Ha发现 - 一些警告确实适用。


文章TAG:yolov2  yolo  一篇  细节  
下一篇