面向世界科技前沿、面向经济主战场、面向国家重大需求、面向人民生命健康,率先实现科学技术跨越发展,率先建成国家创新人才高地,率先建成国家高水平科技智库,率先建设国际一流科研机构。

——中国科学院办院方针

首页 > 传媒扫描

【中国科学报】新方案解决目标检测难题

2020-09-03 中国科学报 胡珉琦
【字体:

语音播报

  细粒度分类具有挑战性:(a)类内差异大,属于同一类别的鸟类通常会出现明显不同的外观,如光照变化(第一列)、视角变化(第二列)、杂乱的背景(第三列)和遮挡(第四列);(b)类间差异小,不同列的鸟属于不同的类别,但在同一行中外观相似。中科院软件所供图

  人工智能(AI)如何像人眼一样,识别真实世界中较为复杂的图像内容,甚至识别精度是高于人眼,从而替代人眼在办公室、野外等各种复杂环境中的工作,是AI不断探索的一项关键技术。近日,中国科学院软件研究所(以下简称软件所)智能软件研究中心在目标检测与识别领域提出了一系列新的问题解决方案,相关研究成果发表在人工智能领域国际会议国际计算机视觉与模式识别会议(CVPR 2020)、欧洲计算机视觉国际会议(ECCV 2020)、国际多媒体会议(ACM MM 2020)。

  目标检测与识别是人工智能领域一个重要的基础问题,但如何提高AI图像识别的准确率,还存在很多困难。比如,对肉眼所见非常相近的物体,计算机傻傻分不清怎么办?论文通讯作者、软件所副研究员张立波解释,这是由于AI难以对极其相似的目标所属类别进行细粒度的辨别。

  针对这一难题,软件所团队提出了一种二分类深度神经树的细粒度识别模型。这是一种由粗分逐渐到细分的方法,把神经网络分成不同的节点,在不同的节点上利用卷积网络进行特征学习,定位出具有判别力的区域特征。这一方法可以加强不同分支对图像细粒度特征的提取。

  张立波表示,在目标检测的实际应用场景中,还会面临一个常见的问题,那就是训练集与测试集样本分布不一致影响模型表现。比如在道路车辆检测应用中,用来训练目标检测模型的数据集与使用模型进行测试的数据集可能是在不同城市背景、不同天气环境、不同分辨率下采集的,这就会导致实验室的训练数据与测试数据之间出现域偏移。

  于是,研究团队提出了一种新的迁移学习方法,来提高域转换的效果。这种方法将特征图用不同大小的窗口来提取均值特征,获得特征金字塔,然后用软注意力机制在不同金字塔特征之间的动态选择,来指导最终的域转换。

  “除此之外,在一类视频采集过程中,如果目标物过小,背景又很杂乱,会给检测、计数带来极大的挑战,比如无人机场景就面临这一问题。”张立波说。

  张立波介绍,软件所团队设计了一种新的基于特征金字塔的注意力网络来处理目标检测和计数任务。他们利用了背景和目标之间的弱监督信息,融合不同尺度的特征图,获得更丰富的特征表示。同时,前景模块考虑了全局和局部外观的目标,以方便准确定位。

  相关论文信息:

  https://isrc.iscas.ac.cn/gitlab/research/acnet

  https://isrc.iscas.ac.cn/gitlab/research/sematree

  https://isrc.iscas.ac.cn/gitlab/research/domain-adaption

  https://isrc.iscas.ac.cn/gitlab/research/ganet

  (原载于《中国科学报》 2020-09-03 第3版 信息技术)
打印 责任编辑:张芳丹

扫一扫在手机打开当前页

© 1996 - 中国科学院 版权所有 京ICP备05002857号-1 京公网安备110402500047号 网站标识码bm48000002

地址:北京市西城区三里河路52号 邮编:100864

电话: 86 10 68597114(总机) 86 10 68597289(总值班室)

编辑部邮箱:casweb@cashq.ac.cn

  • © 1996 - 中国科学院 版权所有 京ICP备05002857号-1 京公网安备110402500047号 网站标识码bm48000002

    地址:北京市西城区三里河路52号 邮编:100864

    电话: 86 10 68597114(总机) 86 10 68597289(总值班室)

    编辑部邮箱:casweb@cashq.ac.cn

  • © 1996 - 中国科学院 版权所有
    京ICP备05002857号-1
    京公网安备110402500047号
    网站标识码bm48000002

    地址:北京市西城区三里河路52号 邮编:100864
    电话:86 10 68597114(总机)
       86 10 68597289(总值班室)
    编辑部邮箱:casweb@cashq.ac.cn