图像相似度比较算法总结
图像相似度比较算法总结
- 目录
- 简介
- 全局比较算法
- hash
- 平均hash
- 插值hash
- 感知hash
- 比较hash指获取相似度
- 直方图
- 单通道直方图
- 多通道直方图
- 结构性相似度SSIM
- 局部信息相似度比较
- ORB
- 语义层面比较
- 测试
目录
简介
在视觉领域,相似度比较出现在了非常多的应用之中,但是其性能精度,大多时候都不尽人意。抗干扰能力差,区分能力弱等问题困扰着开发者们。很多时候开发者需要花大量时间测试不同的算法在应用中的效果,此篇文章将从全局,局部,语义三个层面介绍相似度比较算法,帮助大家共同理解,代码输入图片使用(225,225)的尺寸,其他尺寸部分算法参数可能需要修改
全局比较算法
全局比较算法表示算法计算整体图片的特征让后使用此特征进行匹配常见如hash类算法,hist直方图算法,ssim结构相似度算法
hash
hash算法,主要从对图像的灰度进行计算,具体可参考hash,包括了平均hash,差值hash,感知hash
平均hash
def aHash(img, shape=(10, 10)):# 缩放为10*10img = cv2.resize(img, shape)# 转换为灰度图gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# s为像素和初值为0,hash_str为hash值初值为''s = 0hash_str = ''# 遍历累加求像素和for i in range(shape[0]):for j in range(shape[1]):s = s + gray[i, j]# 求平均灰度avg = s / 100# 灰度大于平均值为1相反为0生成图片的hash值for i in range(shape[0]):for j in range(shape[1]):if gray[i, j] > avg:hash_str = hash_str + '1'else:hash_str = hash_str + '0'return hash_str
插值hash
def dHash(img, shape=(10, 10)):# 缩放10*11img = cv2.resize(img, (shape[0]+1, shape[1]))# 转换灰度图gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)hash_str = ''# 每行前一个像素大于后一个像素为1,相反为0,生成哈希for i in range(shape[0]):for j in range(shape[1]):if gray[i, j] > gray[i, j + 1]:hash_str = hash_str + '1'else:hash_str = hash_str + '0'return hash_str
感知hash
def pHash(img, shape=(10, 10)):# 缩放32*32img = cv2.resize(img, (32, 32)) # , interpolation=cv2.INTER_CUBIC# 转换为灰度图gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 将灰度图转为浮点型,再进行dct变换dct = cv2.dct(np.float32(gray))# opencv实现的掩码操作dct_roi = dct[0:10, 0:10]hash = []avreage = np.mean(dct_roi)for i in range(dct_roi.shape[0]):for j in range(dct_roi.shape[1]):if dct_roi[i, j] > avreage:hash.append(1)else:hash.append(0)return hash
比较hash指获取相似度
def cmpHash(hash1, hash2, shape=(10, 10)):n = 0# hash长度不同则返回-1代表传参出错if len(hash1) != len(hash2):return -1# 遍历判断for i in range(len(hash1)):# 相等则n计数+1,n最终为相似度if hash1[i] == hash2[i]:n = n + 1return n/(shape[0]*shape[1])
直方图
图像的颜色直方图表示了图像的颜色分布情况,两张不一样的图片的颜色分布大多数情况下会存在较大不同,但此方法忽略了轮廓的信息,直方图计算主要有单通道和多通道的区别
单通道直方图
def calculate(image1, image2):hist1 = cv2.calcHist([image1], [0], None, [256], [0.0, 255.0])hist2 = cv2.calcHist([image2], [0], None, [256], [0.0, 255.0])degree = 0for i in range(len(hist1)):if hist1[i] != hist2[i]:degree = degree + (1 - abs(hist1[i] - hist2[i]) / max(hist1[i], hist2[i]))else:degree = degree + 1degree = degree / len(hist1)return degree
多通道直方图
def classify_hist_with_rgb(image1, image2, size=(256, 256)):image1 = cv2.resize(image1, size)image2 = cv2.resize(image2, size)sub_image1 = cv2.split(image1)sub_image2 = cv2.split(image2)sub_data = 0for im1, im2 in zip(sub_image1, sub_image2):sub_data += calculate(im1, im2)sub_data = sub_data / 3return sub_data
结构性相似度SSIM
ssim结合了亮度,对比度,结构信息,算法相对复杂,可以使用skimage进行使用
def ssim(img1, img2):width = img1.shape[1]win_size = int(width/2-((width/2) % 2)+1)out = structural_similarity(img1, img2, win_size=win_size, multichannel=True)return out if out > 0 else 0
局部信息相似度比较
局部信息的相似度比较主要使用sift,orb等关键点的信息进行匹配,具有一定的尺度不变性和旋转不变性,能适应比较图片存在一定位移的情况ORB参考
ORB
orb相比sift等拥有更高的性能,且没有版权问题
def ORB_siml(img1, img2, params):# 初始化ORB检测器orb = cv2.ORB_create(nfeatures=200)kp1, des1 = orb.detectAndCompute(img1, None)kp2, des2 = orb.detectAndCompute(img2, None)# 使用汉明距离对特侦点距离进行计算bf = cv2.BFMatcher(cv2.NORM_HAMMING)# 使用knn算法进行匹配matches = bf.knnMatch(des1, trainDescriptors=des2, k=2)# 去除模糊的匹配good = [(m, n) for (m, n) in matches if m.distance < 0.95 * n.distance and m.distance < 70]# 绘制匹配的关键点# img3 = cv2.drawMatchesKnn(img1, kp1, img2, kp2, good, img2, flags=2)similary = len(good) / len(matches)return similary
语义层面比较
语义层面的比较,指的是基于深度学习预训练模型输出的特征进行比较,因为基于imagenet的预训练模型对图片有非常强的特诊提取能力,对于画面主体类别单一,变化较大但是类别相同的情况能较好的区分,下面给出基于moilenetv2模型的转换和使用过程
import torch
import torchvision
import onnx
import onnxruntime as ort
from torchvision import transforms
from PIL import Image
import numpy as npmobilev2 = torchvision.models.mobilenet_v2(pretrained=True)
new_classifier = torch.nn.Sequential(*list(mobilev2.children())[-1][:1])
mobilev2.classifier = new_classifier
mobilev2.eval()
torch.save(mobilev2 , "./mobilev2_1280.pt")
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
mobilev2_1280 = torch.load('mobilev2_1280.pt')
mobilev2_1280.to(device)
mobilev2_1280.eval()
img_dir = r'/home/whh/whh_train/Classification/000000.jpg'
img = Image.open(img_dir)
trans = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])
cudaimg = trans(img)
cudaimg.unsqueeze_(dim=0)
cudaimg=cudaimg.cuda()
tensorimg = trans(img)
tensorimg = tensorimg[None,:]
out_1280 = mobilev2_1280(cudaimg)
onnx
torch.onnx.export(mobilev2_1280 , # model being run tensorimg, # model input (or a tuple for multiple inputs) "mobilev2_1280.onnx", # where to save the model # export_params=True, # store the trained parameter weights inside the model file opset_version=10, # the ONNX version to export the model to input_names = ['input'], # the model's input namesoutput_names = ['output'], # the model's output namesdynamic_axes={'input' : {0 : 'batch_size'}, # variable lenght axes'output' : {0 : 'batch_size'}})
ort_sess = ort.InferenceSession('mobilev2_1280.onnx',providers=['CPUExecutionProvider'])
outputs = ort_sess.run(None, {'input': tensorimg.numpy()})
测试
mobilev2:0.97900390625
ahash:0.86
dhash:0.67
phash:0.92
gpbhist:0.859699010848999
grayhist:0.818916916847229
ssim:0.6861183398780377
orb:0.8561151079136691
mobilev2:0.9423828125
ahash:0.76
dhash:0.59
phash:0.87
rgbhist:0.7028341293334961
grayhist:0.6859147548675537
ssim:0.4142923740661437
orb:0.5755395683453237
mobilev2:0.56396484375
ahash:0.44
dhash:0.56
phash:0.85
gpbhist:0.32259905338287354
grayhist:0.3330121636390686
ssim:0.05655745965670097
orb:0.0
mobilev2:0.7568359375
ahash:0.55
dhash:0.59
phash:0.62
gpbhist:0.1238623782992363
grayhist:0.1564500629901886
ssim:0.03365421905316316
orb:0.24719101123595505
mobilev2:0.80126953125
ahash:0.47
dhash:0.53
phash:0.68
gpbhist:0.18820995092391968
grayhist:0.2547611594200134
ssim:0.0
orb:0.28651685393258425
mobilev2:0.49462890625
ahash:0.45
dhash:0.44
phash:0.84
gpbhist:0.11006951332092285
grayhist:0.13269555568695068
ssim:0.027815015868851507
orb:0.07303370786516854
- mobilev2:0.787109375
- ahash:0.52
- dhash:0.52
- phash:0.69
- gpbhist:0.5079444646835327
- grayhist:0.5788791179656982
- ssim:0.0
- orb:0.2937853107344633
图像相似度比较算法总结相关推荐
- 深入学习OpenCV中图像相似度的算法
最近一段时间学习并做的都是对图像进行处理,其实自己也是新手,各种尝试,所以我这个门外汉想总结一下自己学习的东西,图像处理的流程.但是动起笔来想总结,一下却不知道自己要写什么,那就把自己做过的相似图片搜 ...
- 介绍一种图像相似度排序算法
工作生活中,常常拍了很多照片存在计算机中,这些照片有些在同一个角度拍摄,内容很相似,甚至有些采取连拍方式,基本相同.清理这些照片.图像给很多朋友带来困扰.这里,给大家推荐一个图像查同软件.简单介绍一下 ...
- 图片相似度识别算法公式,图片相似度检测算法
计算图像相似度的算法有哪些 SIM=StructuralSIMilarity(结构相似性),这是一种用来评测图像质量的一种方法. 由于人类视觉很容易从图像中抽取出结构信息,因此计算两幅图像结构信息的相 ...
- CV之FD之HOG:图像检测之基于HOG算法、简介、代码实现(计算图像相似度)之详细攻略
CV之FD之HOG:图像检测之基于HOG算法.简介.代码实现(计算图像相似度)之详细攻略 图像检测之基于HOG算法.简介.代码实现(计算图像相似度)之详细攻略 相关文章:CV之FD之HOG:图像检测之 ...
- 图像相似度算法的C#实现及测评
近日逛博客的时候偶然发现了一个有关图片相似度的Python算法实现.想着很有意思便搬到C#上来了,给大家看看. 闲言碎语 才疏学浅,只把计算图像相似度的一个基本算法的基本实现方式给罗列了出来,以至于在 ...
- pythonopencv人脸相似度_图像相似度算法的个人见解(pythonopencv)-Go语言中文社区...
简述 前段时间写了篇博文 哈希算法实现图像相似度比较(Python&OpenCV) ,使用简单的哈希算法进行图像相似度判断.但是在实践中该算法达不到预期的效果: 图像缩放8*8大小,图片信息内 ...
- (二十三)图像相似度比较哈希算法
图像相似度比较哈希算法 相似图像搜索的哈希算法有三种: 1.均值哈希算法 2.差值哈希算法 3.感知哈希算法 什么是哈希(Hash) • 散列函数(或散列算法,又称哈希函数,英语: Hash Func ...
- 图像置乱之评价图像置乱度算法的选择
一.图像置乱度 所谓"图像置乱",就是将图像的信息次序打乱,将a像素移动到b像素的位置上,b像素移动到c像素的位置上--使其变换成杂乱无章难以辨认的图像. 目前对于置乱的研究主要集 ...
- OpenCV—python 图像相似度算法(dHash,方差)
文章目录 一.SIFT综述 二.哈希算法(perceptual hash algorithm) 2.1 相似图片检测步骤: 2.2 代码实现 三.使用方差检测图像相似度 3.1 实现步骤 3.2 代码 ...
最新文章
- 集合、泛型、增强for
- 科普| 3D视觉技术正在改变我们的生活
- mybatis3:Invalid bound statement (not found)
- 分享:When.js 2.0.0 发布,Promises/A 的实现
- ABP框架v2.0 和 ABP商业版
- Visual Studio/SQL Server系统开发常见问题归纳
- 如何调整标题字体大小_软网推荐:找回调整Windows 10字号功能
- python启动文件_Python启动文件配置
- Java 中的 AQS 到底是什么?高级面试必问!
- 时间序列学习(5):ARMA模型定阶(AIC、BIC准则、Ljung-Box检验)
- Itunes 制作苹果手机铃声
- 2008 R2修复光盘_翻录和刻录CD媒体文件,使用Windows 10操作系统如何刻录光盘
- 2020CCPC长春站第一场区域赛打铁记
- Java学习lesson 10
- 截屏 远程协助 android,ARDC Android 远程桌面助手 录屏 演示 MD
- 【系统分析师之路】第七章 系统分析架构篇记忆敲出
- java对象流保存表格_使用java对象
- mysql设置值班表_简单的员工轮换值班表
- RocketMQ 集群踩坑记
- 到底是什么让IT人如此苦逼???