首页 资讯 IT 互联网 手机 智造 家电 电商 科普 游戏 关于我们 网站地图
首页/手机世界

1

Anchorfree逆向输出倒推得到不同尺寸的输入
2021-01-21

什么是Anchor:
       首先我们需要知道anchor的思想是什么,近似SPP(spatial pyramid pooling)思想的逆向。而SPP本身是做什么的呢,就是将不同尺寸的输入resize成为相同尺寸的输出。所以SPP的逆向就是,将相同尺寸的输出,倒推得到不同尺寸的输入。其次明确anchor的位置。anchor是在原图上的区域,而不是在特征图上(也就是特征图上一个点可以对应到原图上一个n*n的区域)。然后放一张RPN网络解析图:

       SPPnet机制:将CNN的输入从固定尺寸改进为任意尺寸,例如在CNN结构中,输入图像的尺寸往往固定的(如224x224像素),输出可看做固定维数的向量. SPPNet在普通的CNN结构中加入了ROI池化层(ROI Pooling)使得网络输入图像可以为任意size,而保证了输出维度是固定的向量.
       Anchor的意义:
       Faster r-cnn 之所以使用anchor,在我看来,无非两点:容易使模型快速收敛,容易找到目标大小和对应的feature map.anchor本身并不会参与到网络的运算中去,影响的只会是classification和bbox regression分支的target(训练阶段)和怎样decode box(测试阶段)
(1):若是不使用anchor,boundingbox 回归的范围就会比较大,这样会导致计算的loss的范围跳动变大,从而影像训练的难度.也会对于不同的大小目标的精度有倾斜性,增大网络的偏好,目标预测会有不确定性.
(2):有了 anchor,就可以把不同尺寸的目标分配到对应的 anchor 上,这样对应 anchor 的网络权值就仅仅负责一个比较小的目标尺寸范围(我一或几个值,就能代表原图上的一个区域),同时学习过程中,是显式的通过不同的分支、路径来传递不同尺寸目标的 loss,让网络更加符合“逻辑”的得到训练。
       Anchor的思考:
       目标在那个anchor是简单粗暴的,按照谁的IOU大就归谁的方法划分.而且 anchor 本身的尺寸、比例也是人工指定的,虽然与不同level的featuremap有一定的关系,但并没有和网络结构的设计有良好的耦合(虽然 anchor 可以通过数据集的聚类来获得,但是这也只是单方面的与数据集有了耦合),实际中往往一个目标适合两个或多个anchor,是不是可以用一种更加平滑的方法来加权,而非简单粗暴的0-1选择.

声明:该文系信息发布,IT手机世界仅提供信息存储空间服务。
点赞
来源:
新品快讯更多
厂商动态更多
会展中心更多
热搜排行更多

CopyRight@2015-2023 IT手机世界 All Right Reserved

工信备案号:京备A2-2009413

IT手机世界畅享移动互联时代智能智慧新生活