麻省理工、IBM合推计算器视觉新模型ObjectNet

  近日,麻省理工学院和IBM 研究人员组成的团队,共同创建了一个ObjectNet图像识别数据集,这是一类高性能的视觉模型,同时难倒了目前世界上最好的计算器视觉模型。

麻省理工、IBM合推计算器视觉新模型ObjectNet

图片来源:pixabay

  目前,全球最大的「CV 习题库」ImageNet,由世界上顶尖的计算器视觉专家李飞飞参与建立,应用于人工智能领域中的图像分类最常用来训练和测试的数据集。最近,对该计算器视觉模型测试,结果发现:在 ImageNet 测试准确率高达 97% 的计算器视觉模型,在 ObjectNet 数据集上检测的准确率下降到了 50%-55%。为何测试结果会如此差距?主要原因在于,目前几乎所有的视觉模型,在类似于物体旋转、背景变换、视角切换等复杂情境下,识别过程都缺乏稳定性。换句话说,并不是因为数据量不够,而是模型对类似于旋转、背景变换、视角切换等等的认知缺乏稳定性。

  麻省理工学院计算器科学与人工智能实验室 (CSAIL) 和大脑、心智与机器中心 (CBMM) 的研究科学家 Andrei Barbu,是ObjectNet该项目的主持人之一。他在接受 DeepTech 专访时表示以下见解,摘要如下:

  AI人工智能借助神经元层组成的神经网络在大量的原始数据中寻找规律,例如:透过机器学习上千张椅子的照片之后,而学会了椅子的形状。于是,ImageNet 从Flickr等其他社交媒体网站上下载了接近 10 亿张图片,含有近 1500 万张照片的数据库,涵盖了22000种物品。

  计算器视觉模型已经学会了精确地识别照片中的物体,以至于有些模型在某些数据集上表现得比人类还要好。但是,当这些模型真正进入到生活中时,它们的准确率会显著下降,这带给自动驾驶汽车和其他使用计算器视觉的关键系统带来了安全隐忧。

  ObjectNet与ImageNet随意收集的照片不同。因为,ObjectNet从多个视点在不同的背景上进行映像,提供的照片是有特殊背景和角度的,因而产生数据集的大量变化。(子午物联ziwuiot.com)研究人员让自由职业者为数百个随机摆放的家具物品拍照,告诉他们从什么角度拍摄以及是摆在厨房、浴室还是客厅。因此,大多数检测器对 ObjectNet中包含的大多数图像都识别失败了

  麻省理工学院研究科学家认为,物体识别问题仍然是个难题,我们需要更好、更聪明的算法。机器仍然很难理解物体是三维空间存在,物体也可以旋转和移动到新的环境中,目前这些概念并没有构建到检测器的架构中。

  ObjectNet与Imagenet的区别为何?

  Andrei Barbu认为:

  1、收集图像的方式可以控制偏差。我们告诉人们如何旋转物体,在什么背景中放置物体,以及在哪个角度拍照。在大多数的数据集中,图像背景的信息会导致机器不自觉的「欺骗」,它们会凭借对于厨房背景的了解来预测某个东西可能是平底锅。

  2、这些照片不是从社交媒体上收集的,所以它们不是那种好看的照片,人们也不想分享。我们还确保收集来自印度、美国以及不同社会经济阶层的图像。我们还有损坏或破碎物体的图像。

  3、没有训练集。

  一般会有训练集及测试集,但ObjectNet没有训练集。

  从新的角度想象物体的三维形状,这也是计算器视觉的未来。ObjectNet的设计就是提供了一个更可靠的工具,用来检测你的模型是不是足够强。下一个版本的 ObjectNet开发,它对于检测器来说会更加困难,因带有部分遮挡的物体对象被其他对象部分覆盖,因而造成探测器对有遮挡的物体的识别还不够稳定。ObjectNet的目标是激励研究人员开发出下一波革命性的技术。

声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场和对其真实性负责。若有侵权或异议请联系我们删除。
发表评论

相关文章

切换注册

登录

忘记密码 ?

切换登录

注册