map是图像检索模型的一个评价指标

以图片中第一个计算AP值为例

P的分别是[1, 2/3, 3/6, 4/9, 5/10]
R值分别是[1/5, 2/5, 3/5/, 4/5, 1]

AP计算结果

(1+2/3+3/6+4/9+5/10)/ 5

https://blog.csdn.net/weixin_40100431/article/details/88768479

假设输入一张图片,数据库中有3个图像与之匹配,按照相似度高低进行排序,得到的位置是第1位,第3位,第6位是这三幅图像,匹配正确。

在这里插入代码片

但是在这个程序设计中,待检索图像在当前数据库中,那么本身的相似度肯定是最高的,排在第0位,ranks=[0,1,3,6]
。nres=4。表示数据库中与待检索图像的属于同一类的个数。按照图像检索ap的计算 方式, 得到ap=(1+1+3/4+4/7)/4=0.830357143.但是这种计算方式ap值偏大,自己检索到自己不应该算到里面 ,于是正确的计算方式应该是ap=(1+2/3+3/6)/3=0.7222222。在测试的时候计算之后发现与代码中计算结果不一致。代码中的求取方式是[(1+1+3/4+4/7)/4+(1+2/3+3/6)/3]/2。不是求平均值。

import numpy as npdef compute_ap(ranks, nres):"""Computes average precision for given ranked indexes.Arguments---------ranks : zerro-based ranks of positive imagesnres  : number of positive imagesReturns-------ap    : average precision"""# number of images ranked by the systemnimgranks = len(ranks)# accumulate trapezoids in PR-plotap = 0recall_step = 1. / nresfor j in np.arange(nimgranks):rank = ranks[j]if rank == 0:precision_0 = 1.else:precision_0 = float(j) / rankprecision_1 = float(j + 1) / (rank + 1)ap += (precision_0 + precision_1) * recall_step / 2.return apranks=np.array([0,1,3,6])
ners=4
result=compute_ap(ranks,ners)
print(result)
0.8110119047619047
import numpy as npranks = np.array([1,3,6])def compute_ap(ranks):ap = 0for i,j in enumerate(ranks):print(i,j)print((i + 1) / j)ap += (i + 1) / jreturn ap / len(ranks)
ap = compute_ap(ranks)
print("AP:",ap)
0 1
1.0
1 3
0.6666666666666666
2 6
0.5
AP: 0.7222222222222222

pytorch图像检索评价指标MAP相关推荐

  1. 评价指标:目标检测的评价指标 - mAP

    本文建议阅读时间 8 min 基本概念 AP & mAP AP:PR 曲线下面积(下面会说明) mAP:mean Average Precision, 即各类别 AP 的平均值 TP.FP.F ...

  2. 问答系统QA的评价指标MAP、MRR、Accuracy@N

    问答系统性能的评价指标MAP.MRR.Accuracy@N MAP(mean average precision) 即平均准确率,系统对所有候选答案进行评分,并按分值大小进行排序,正确答案越靠前,MA ...

  3. 目标检测重要评价指标——mAP的含义及计算

    目标检测常见评价指标 1. 公开数据集 评价标准:pascal voc, coco,目前基本都在使用coco数据集. 2.评价指标 mAP: mean Average Precision, 即所有类别 ...

  4. 目标检测评价指标mAP

    目标检测评价指标 mAP是目标检测中常用的评价指标之一,在论文中可以经常看到.全称是mean average precision (mAP)即各个类别AP的平均值.常用的评测指标有: mAP: mea ...

  5. 图像检索评价指标:mAP@k、mAP的计算

    mAP ,mean Average Precision,平均检索精度.是图像检索领域最最常用的评价指标. 一.mAP@k.mAP 1.1 mAP@k 很多地方喜欢用这张图来解释,确实画的很好了,不过略 ...

  6. 信息检索IR评价中常见的评价指标-MAP\NDCG\ERR\P@10等

    信息检索评价是对信息检索系统性能(主要满足用户信息需求的能力)进行评估的活动.通过评估可以评价不同技术的优劣,不同因素对系统的影响,从而促进本领域研究水平的不断提高.信息检索系统的目标是较少消耗情况下 ...

  7. 推荐系统之位置敏感的评价指标--MAP和NDCG

    文章目录 1.前提说明 2.recall 3.MAP 4.NDCG(Normalized Discounted Cumulative Gain) 4.1 CG(Cumulative Gain) 4.2 ...

  8. 目标检测模型的评价指标 mAP

    在使用机器学习解决实际问题时,通常有很多模型可用.每个模型都有自己的怪癖(quirks),并且基于各种因素,性能会有所不同. 模型性能的评定都是在某个数据集上进行的,通常这个数据集被称为 " ...

  9. 目标检测——评价指标mAP

    mAP,不认识英文单词的可以看一哈: P:Precision,精度 AP:Average Precision,平均精度 mAP:mean Average Precision,平均精度均值 开个玩笑,下 ...

最新文章

  1. 传百度要与阿里、腾讯争夺在线办公市场?“百度Hi”开放520人同时在线音视频会议
  2. Button实现图文混排
  3. .NET 5 部署在docker上运行
  4. 第十一届蓝桥杯省赛C++组试题 第5题
  5. ENVI二次开发时的注意事项
  6. Flink CusWaterMark
  7. 统计学习方法读书笔记13-改进的迭代尺度法(优化算法)
  8. update-apt-xapian-index 意外关闭
  9. matplotlib画图使用微软雅黑字体
  10. 第四章、Zigbee模块的设置及组网
  11. 存在隐患 : 此角色的 日志目录 所在的文件系统的可用空间小于 10.0 吉字节。 /var/log/hive(可用:9.9 吉字节 (28.12%),容量:35.1 吉字节)
  12. python解密密文_ctf密码学------密文解码python脚本(凯撒解密)
  13. C语言应用(3)——Base64编码/解码
  14. 安卓自动化工具:解锁屏幕+打开支付宝蚂蚁森林+收取能量+种树浇水+自动退出
  15. pdf怎么删除其中一页与添加新页面
  16. 征兵系统集合版(登录系统+信息填写及查看功能)
  17. 盘点程序员逃离一线的Plan B
  18. 【大数据面试题】(一)Hadoop 相关面试题总结
  19. python 求两线段是否相交,如果相交求交点
  20. 历史的温度3:时代扑面而来,转瞬即成历史 读后感

热门文章

  1. POJ3163 King of Fighters 状压DP/费用流
  2. 【BZOJ1758】重建计划,点分治+单调队列
  3. 17.立体匹配——匹配问题,好区域匹配 测验,窗口大小的影响,遮蔽(Occlusion),顺序约束_2
  4. android fragment 教程,Android Fragment教程总结
  5. python requests返回值为200 但是text无内容_手把手教你使用Python生成图灵智能小伙伴,实现工作助手闲聊功能
  6. 【英语学习】【Level 07】U08 Old Stories L6 Looking back
  7. 【英语学习】【Daily English】U14 Transportation L04 I'm going to go screen
  8. 【英语学习】【WOTD】resuscitate 释义/词源/示例
  9. 【英语学习】【Daily English】U06 Shopping L01 We are out of pasta.
  10. Intel Skylake (Server) 架构/微架构/流水线 (5) - 非时效存储