NMS
1.nms(nms只用于预测,不用于训练)
步骤:首先把所有的框按得分由大到小进行排列;然后计算得分最高的框和其余框的交并比,大于阈值的删掉;删完之后在剩余的框上进行重复处理,直到所有的框都处理完。
1)nms算法是在每一类的所有框中分别进行,这是为了防止过于邻近的不同类别目标被过滤掉。
2)为了防止同一类的两个目标重叠太大以至于nms直接过滤掉分数较低的框,出现softnms,就是在nms步骤中计算完交并比,如果交并比大于阈值不直接删掉(分数置0),而是将其分数降低(线性法和高斯法)。
3)还存在两个问题,一个是预测框都不准,另一个是分数大的框定位不一定最准确。softernms,提出KL Loss:用于具有定位置信度(localization confidence)的训练检测网络。
1.https://zhuanlan.zhihu.com/p/40976906
2.https://blog.csdn.net/Blateyang/article/details/79113030
3.http://blog.prince2015.club/2018/12/01/Soft-NMS/
4.https://blog.csdn.net/u014380165/article/details/79502197
5.https://blog.csdn.net/amusi1994/article/details/82838939
6.https://www.52cv.net/?p=1434
文章最后发布于: 2019-07-18 14:06:04
相关阅读
【目标检测】NMS(Non-maximum suppression,非极大值抑
NMS广泛应用于目标检测算法中。其目的是为了消除多余的候选框,找到最佳的物体检测位置。 现在假设有有一个候选的boxes的集合B和
先看张图: NMS算法思路来源于:https://chenzomi12.github.io/2016/12/14/YOLO-nms/ 算法流程: 把置信度最高的一个boundingbox(bbo
NMS 非极大值抑制 import tensorflow as tf import numpy as np rects=np.asarray([[1,2,3,4],[1,3,3,4], [1,3,4,4],[1,1,4,4],
NMS: non maximum suppression 翻译为“非极大值抑制”,为什么不翻译成最大值抑制呢?maximum可以翻译为“最大值”,也可以翻译成“极