Python+Opencv识别两张相似图⽚
在⽹上看到python做图像识别的相关⽂章后,真⼼感觉python的功能实在太强⼤,因此将这些⽂章总结⼀下,建⽴⼀下⾃⼰的知识体系。
当然了,图像识别这个话题作为计算机科学的⼀个分⽀,不可能就在本⽂简单⼏句就说清,所以本⽂只作基本算法的科普向。看到⼀篇博客是介绍这个,但他⽤的是PIL中的Image实现的,感觉⽐较⿇烦,于是利⽤Opencv库进⾏了更简洁化的实现。
相关背景
要识别两张相似图像,我们从感性上来谈是怎么样的⼀个过程?⾸先我们会区分这两张相⽚的类型,例如是风景照,还是⼈物照。风景照中,是沙漠还是海洋,⼈物照中,两个⼈是不是都是国字脸,还是⽠⼦脸(还是倒⽠⼦脸……哈哈……)。
那么从机器的⾓度来说也是这样的,先识别图像的特征,然后再相⽐。
很显然,在没有经过训练的计算机(即建⽴模型),那么计算机很难区分什么是海洋,什么是沙漠。但是计算机很容易识别到图像的像素值。
因此,在图像识别中,颜⾊特征是最为常⽤的。(其余常⽤的特征还有纹理特征、形状特征和空间关系特征等)
其中⼜分为
直⽅图
颜⾊集
颜⾊矩
聚合向量
相关图
直⽅图计算法
这⾥先⽤直⽅图进⾏简单讲述。
先借⽤⼀下恋花蝶的图⽚,
从⾁眼来看,这两张图⽚⼤概也有⼋成是相似的了。
在Python中利⽤opencv中的calcHist()⽅法获取其直⽅图数据,返回的结果是⼀个列表,使⽤matplotlib,画出了这两张图的直⽅图数据图
如下:
是的,我们可以明显的发现,两张图⽚的直⽅图还是⽐较重合的。所以利⽤直⽅图判断两张图⽚的是否相似的⽅法就是,计算其直⽅图的重合程度即可。
计算⽅法如下:
其中gi和si是分别指两条曲线的第i个点。
最后计算得出的结果就是就是其相似程度。
不过,这种⽅法有⼀个明显的弱点,就是他是按照颜⾊的全局分布来看的,⽆法描述颜⾊的局部分布和⾊彩所处的位置。
也就是假如⼀张图⽚以蓝⾊为主,内容是⼀⽚蓝天,⽽另外⼀张图⽚也是蓝⾊为主,但是内容却是妹⼦穿了蓝⾊裙⼦,那么这个算法也很可能认为这两张图⽚的相似的。
缓解这个弱点有⼀个⽅法就是利⽤Image的crop⽅法把图⽚等分,然后再分别计算其相似度,最后综合考虑。
图像指纹与汉明距离
在介绍下⾯其他判别相似度的⽅法前,先补充⼀些概念。第⼀个就是图像指纹
图像指纹和⼈的指纹⼀样,是⾝份的象征,⽽图像指纹简单点来讲,就是将图像按照⼀定的哈希算法,经过运算后得出的⼀组⼆进制数字。
说到这⾥,就可以顺带引出汉明距离的概念了。
假如⼀组⼆进制数据为101,另外⼀组为111,那么显然把第⼀组的第⼆位数据0改成1就可以变成第⼆组数据111,所以两组数据的汉明距离就为1
简单点说,汉明距离就是⼀组⼆进制数据变成另⼀组数据所需的步骤数,显然,这个数值可以衡量两张图⽚的差异,汉明距离越⼩,则代表相似度越⾼。汉明距离为0,即代表两张图⽚完全⼀样。
如何计算得到汉明距离,请看下⾯三种哈希算法
平均哈希法(aHash)
此算法是基于⽐较灰度图每个像素与平均值来实现的
⼀般步骤:
1.缩放图⽚,⼀般⼤⼩为8*8,64个像素值。
2.转化为灰度图
3.计算平均值:计算进⾏灰度处理后图⽚的所有像素点的平均值,直接⽤numpy中的mean()计算即可。
4.⽐较像素灰度值:遍历灰度图⽚每⼀个像素,如果⼤于平均值记录为1,否则为0.
5.得到信息指纹:组合64个bit位,顺序随意保持⼀致性。
最后⽐对两张图⽚的指纹,获得汉明距离即可。
感知哈希算法(pHash)
平均哈希算法过于严格,不够精确,更适合搜索缩略图,为了获得更精确的结果可以选择感知哈希算法,它采⽤的是
DCT(离散余弦变换)来降低频率的⽅法
⼀般步骤:
缩⼩图⽚:32 * 32是⼀个较好的⼤⼩,这样⽅便DCT计算
转化为灰度图
计算DCT:利⽤Opencv中提供的dct()⽅法,注意输⼊的图像必须是32位浮点型,所以先利⽤numpy中的float32进⾏转换
缩⼩DCT:DCT计算后的矩阵是32 * 32,保留左上⾓的8 * 8,这些代表的图⽚的最低频率
计算平均值:计算缩⼩DCT后的所有像素点的平均值。
进⼀步减⼩DCT:⼤于平均值记录为1,反之记录为0.
得到信息指纹:组合64个信息位,顺序随意保持⼀致性。
最后⽐对两张图⽚的指纹,获得汉明距离即可。
dHash算法
相⽐pHash,dHash的速度要快的多,相⽐aHash,dHash在效率⼏乎相同的情况下的效果要更好,它是基于渐变实现的。
步骤:
缩⼩图⽚:收缩到9*8的⼤⼩,以便它有72的像素点
转化为灰度图
计算差异值:dHash算法⼯作在相邻像素之间,这样每⾏9个像素之间产⽣了8个不同的差异,⼀共8⾏,则产⽣了64个差异值获得指纹:如果左边的像素⽐右边的更亮,则记录为1,否则为0.
最后⽐对两张图⽚的指纹,获得汉明距离即可。
整个的代码实现如下:
# -*- coding: utf-8 -*-
#feimengjuan
# 利⽤python实现多种⽅法来实现图像识别
import cv2
import numpy as np
from matplotlib import pyplot as plt
# 最简单的以灰度直⽅图作为相似⽐较的实现
def classify_gray_hist(image1,image2,size = (256,256)):
# 先计算直⽅图
# ⼏个参数必须⽤⽅括号括起来
# 这⾥直接⽤灰度图计算直⽅图,所以是使⽤第⼀个通道,
# 也可以进⾏通道分离后,得到多个通道的直⽅图
# bins 取为16
image1 = size(image1,size)
image2 = size(image2,size)
hist1 = cv2.calcHist([image1],[0],None,[256],[0.0,255.0])
hist2 = cv2.calcHist([image2],[0],None,[256],[0.0,255.0])
# 可以⽐较下直⽅图
plt.plot(range(256),hist1,'r')
plt.plot(range(256),hist2,'b')
plt.show()
# 计算直⽅图的重合度
degree = 0
for i in range(len(hist1)):
if hist1[i] != hist2[i]:
degree = degree + (1 - abs(hist1[i]-hist2[i])/max(hist1[i],hist2[i]))
else:
degree = degree + 1
degree = degree/len(hist1)
return degree
# 计算单通道的直⽅图的相似值
def calculate(image1,image2):
hist1 = cv2.calcHist([image1],[0],None,[256],[0.0,255.0])
hist2 = cv2.calcHist([image2],[0],None,[256],[0.0,255.0])
# 计算直⽅图的重合度
degree = 0
for i in range(len(hist1)):
if hist1[i] != hist2[i]:
degree = degree + (1 - abs(hist1[i]-hist2[i])/max(hist1[i],hist2[i]))
else:
degree = degree + 1
degree = degree/len(hist1)
return degree
# 通过得到每个通道的直⽅图来计算相似度
def classify_hist_with_split(image1,image2,size = (256,256)):
# 将图像resize后,分离为三个通道,再计算每个通道的相似值
image1 = size(image1,size)
image2 = size(image2,size)
sub_image1 = cv2.split(image1)
sub_image2 = cv2.split(image2)
sub_data = 0
for im1,im2 in zip(sub_image1,sub_image2):
sub_data += calculate(im1,im2)
sub_data = sub_data/3
return sub_data
# 平均哈希算法计算
def classify_aHash(image1,image2):
image1 = size(image1,(8,8))
image2 = size(image2,(8,8))
gray1 = cv2.cvtColor(image1,cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(image2,cv2.COLOR_BGR2GRAY)
hash1 = getHash(gray1)
hash2 = getHash(gray2)
return Hamming_distance(hash1,hash2)
def classify_pHash(image1,image2):
image1 = size(image1,(32,32))
image2 = size(image2,(32,32))
gray1 = cv2.cvtColor(image1,cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(image2,cv2.COLOR_BGR2GRAY)
# 将灰度图转为浮点型,再进⾏dct变换
dct1 = cv2.dct(np.float32(gray1))
dct2 = cv2.dct(np.float32(gray2))
# 取左上⾓的8*8,这些代表图⽚的最低频率
# 这个操作等价于c++中利⽤opencv实现的掩码操作
# 在python中进⾏掩码操作,可以直接这样取出图像矩阵的某⼀部分
dct1_roi = dct1[0:8,0:8]
dct2_roi = dct2[0:8,0:8]
hash1 = getHash(dct1_roi)
hash2 = getHash(dct2_roi)
return Hamming_distance(hash1,hash2)
# 输⼊灰度图,返回hash
def getHash(image):
直条图和直方图图片
avreage = np.mean(image)
hash = []
for i in range(image.shape[0]):
for j in range(image.shape[1]):
if image[i,j] > avreage:
hash.append(1)
else:
hash.append(0)
return hash
# 计算汉明距离
def Hamming_distance(hash1,hash2):
num = 0
for index in range(len(hash1)):
if hash1[index] != hash2[index]:
num += 1
return num
if __name__ == '__main__':
img1 = cv2.imread('10.jpg')
cv2.imshow('img1',img1)
img2 = cv2.imread('11.jpg')
cv2.imshow('img2',img2)
degree = classify_gray_hist(img1,img2)
#degree = classify_hist_with_split(img1,img2)
#degree = classify_aHash(img1,img2)
#degree = classify_pHash(img1,img2)
print degree
cv2.waitKey(0)
更多图⽚识别精彩内容请点击专题:
以上就是本⽂的全部内容,希望对⼤家学习python程序设计有所帮助。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论