91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python實現圖像檢索的三種(直方圖/OpenCV/哈希法)

發布時間:2020-10-07 00:53:07 來源:腳本之家 閱讀:327 作者:Mengwei_Ren 欄目:開發技術

簡介:

本文介紹了圖像檢索的三種實現方式,均用python完成,其中前兩種基于直方圖比較,哈希法基于像素分布。
檢索方式是:提前導入圖片庫作為檢索范圍,給出待檢索的圖片,將其與圖片庫中的圖片進行比較,得出所有相似度后進行排序,從而檢索結果為相似度由高到低的圖片。由于工程中還包含Qt界面類、觸發函數等其他部分,在該文檔中只給出關鍵函數的代碼。

開發系統:MacOS
實現方式:Qt + Python

方法一:自定義的直方圖比較算法

a) 基本思路

遍歷圖片像素點,提取R\G\B值并進行對應的計數,得到原始直方圖,但由于0-255的范圍太大,因此每一個像素值的統計量均偏小,因此分別將R\G\B的256個像素值映射到0-31共32個像素值上,將像素值范圍由256*3縮小到32*3。記錄像素值采用的數據結構為一維數組,第1到32個值為R的像素直方圖,第33到第64個值為G的像素統計,第65到96個值為B的像素統計。得到直方圖后,計算待檢索圖的直方圖和圖片庫中圖像的直方圖之間的相似性。

b) 具體實現

用到的函數:

  • split_Img()
  • calc_Hist(img)
  • calc_Similar(h2,h3)
  • calc_Similar_Split(h2,h3)

遍歷圖片的像素點以計算直方圖:calc_Hist(img)

嘗試了兩種方式,第一種是對圖像遍歷時逐個調用getpixel()來獲取R,G,B的值,但發現這種方式的速度太慢。第二種采用的是內存讀取,利用load()函數一次性讀取圖像的像素值,然后對像素值進行遍歷,該方法的速度比逐個提取更快。

#統計直方圖,用load()載入圖片的像素pix,再分別讀取每個像素點的R\G\B值進行統計(分別為0-255)
#將256個顏色值的統計情況投影到32個,返回R\G\B投影后的統計值數組,共32*3=96個元素
def calc_Hist(img):
  '''
  #120張圖片,4.43s
  w,h = img.size
  pix = img.load() #載入圖片,pix存的是像素
  calcR = [0 for i in range(0,32)]
  calcG = [0 for i in range(0,32)]
  calcB = [0 for i in range(0,32)]
  for i in range(0,w):
    for j in range(0,h):
      (r,g,b) = pix[i,j]
      #print (r,g,b)
      calcR[r/8] += 1
      calcG[g/8] += 1
      calcB[b/8] += 1
  calcG.extend(calcB)
  calcR.extend(calcG)

  return calcR
  '''
  #120張圖,3.49s

  w,h = img.size
  pix = img.load() #載入圖片,pix存的是像素
  calcR = [0 for i in range(0,256)]
  calcG = [0 for i in range(0,256)]
  calcB = [0 for i in range(0,256)]
  for i in range(0,w):
    for j in range(0,h):
      (r,g,b) = pix[i,j]
      #print (r,g,b)
      calcR[r] += 1
      calcG[g] += 1
      calcB[b] += 1
  calcG.extend(calcB)
  calcR.extend(calcG) #256*3

  #calc存放最終結果,32*3
  calc = [0 for i in range(0,96)]
  step = 0 #calc的下標,0~95
  start = 0 #每次統計的開始位置
  while step < 96:
    for i in range(start,start+8): #8個值為1組,統計值相加,eg:色彩值為0~7的統計值全部轉換為色彩值為0的統計值
      calc[step] += calcR[i]
    start = start+8
    step += 1
  #print calc 
  return calc 

直方圖比較 calc_Similar(h2,h3)

采用的公式是: 

python實現圖像檢索的三種(直方圖/OpenCV/哈希法)

其中N為顏色級數,Sim越靠近1則兩幅圖像的相似度越高。

c) 問題和改進

簡單實現直方圖比較后,檢索的結果并不好,和預期相比誤差較大。分析原因,直方圖比較主要依靠整幅圖像的色彩統計來進行比較,而對像素的位置并沒有很好的記錄,因此會造成誤判。

同時增加calc_Similar_Split(h2,h3)函數,加入分塊比較的部分,計算方法是:對每個小塊調用calc_Similar(h2,h3),累加計算結果,最后除以16取平均值。

測試發現效果顯著提升,基于顏色相似的同時保留了形狀信息。

函數如下:

#該函數用于統一圖片大小為256*256,并且分割為16個塊,返回值是16個局部圖像句柄的數組
def split_Img(img, size = (64,64)):
  img = img.resize((256,256)).convert('RGB')
  w,h = img.size
  sw,sh = size
  return [img.crop((i,j,i+sw,j+sh)).copy() for i in xrange(0,w,sw) for j in xrange(0,h,sh)]

#計算兩個直方圖之間的相似度,h2和h3為直方圖,zip表示同步遍歷
def calc_Similar(h2,h3):
  return sum(1 - (0 if g==s else float(abs(g-s))/max(g,s)) for g,s in zip(h2,h3)) / len(h2)

方法二:openCV庫的直方圖比較算法實現

openCV開源庫已經集成了直方圖提取、直方圖均衡化以及直方圖比較的功能,調用方便。為了進一步了解直方圖比較的各類實現方法,利用openCV重新進行了實驗。

a) 基本思路

對圖片庫中每個圖片提取直方圖并均衡化,然后調用cv庫函數進行直方圖比較,結果進行排序,并顯示。

b) 具體實現

首先調用cv2.imread()讀取圖像,然后調用cv2.calcHist()計算直方圖,cv2.normalize()均衡化后進入比較階段,調用cv2.compareHist(),比較待檢索圖和圖片庫圖像之間的直方圖差異,然后調用DisplayTotalPics()進行顯示。

關鍵代碼如下:

results = {} #記錄結果
reverse = True #correlation/intersection方法reverse為true,另外兩種為false

imgCV = cv2.imread(self.testImg.encode('utf-8'))
#self.testImg為待匹配圖片
testHist = cv2.calcHist([imgCV],[0,1,2],None,[8,8,8],[0,256,0,256,0,256])
#提取直方圖
testHist = cv2.normalize(testHist,testHist,0,255,cv2.NORM_MINMAX).flatten()
#均衡化

#計算self.testImg和其他圖片的直方圖差異,INTERSECTION方法效果比較好
for (k, hist) in self.index_cv.items(): 
#self.index_cv保存的是圖片庫中圖片的直方圖信息
  d = cv2.compareHist(testHist,hist, cv2.cv.CV_COMP_INTERSECT)
  results[k] = d
  #對結果排序,以v即上面的d作為關鍵字
  results = sorted([(v, k) for (k, v) in results.items()], reverse = reverse) 
  end = time.time()
  print 'OpenCV Time:'
  print end-start     
self.DisplayTotalPics(results)

c) 問題與解決

openCV中的compareHist函數中提供了4中比較方法:
1.相關系數標準(method=CV_COMP_CORREL) 值越大,相關度越高,最大值1,最小值0
2.卡方系數標準(method=CV_COMP_CHISQR) 值越小,相關度越高,無上限,最小值0
3.相交系數標準(method=CV_COMP_INTERSECT)值大,相關度越高,最大9.455319,最小0
4.巴氏系數的標準(method=CV_COMP_BHATTACHARYYA) 值小,相關度越高,最大值1,最小值0

測試后選擇的是method = cv2.cv.CV_COMP_INTERSECT

另外,該方法的速度很快,完全基于圖像的色彩分布,但在一些情況下精度并不高。

方法三:平均哈希值比較算法實現

用到的函數:getKey(),getCode(),cmpCode()

a) 基本思路

平均哈希值的比較算法是基于像素分布的,比較對象是灰度圖的圖像指紋。圖像指紋的計算通過比較每個圖的像素值和平均像素值來計算,然后計算圖像指紋之間的漢明距離,排序后得到相似圖像。

b) 具體實現

具體方法是:計算進行灰度處理后圖片的所有像素點的平均值,然后遍歷灰度圖片每一個像素,如果大于平均值記錄為1,否則為0,這一步通過定義函數getCode(img)完成。接著計算編碼之間的漢明距離,即一組二進制數據變為另一組數據所需的步驟數,漢明距離越小,說明圖像指紋的相似度越高。計算漢明距離可以通過簡單的遍歷和計數來完成,函數為compCode(code1,code2),其中code1和code2為getCode得到的圖像指紋。

關鍵函數代碼如下:

#獲取排序時的關鍵值(即漢明距離)    
def getKey(x): 
  return int(x[1])

#由灰度圖得到2值“指紋”,從而計算漢明距離
def getCode(img):
  w,h = img.size
  pixel = []
  for i in range(0,w):
    for j in range(0,h):
      pixel_value = img.getpixel((i,j))
      pixel.append(pixel_value) #加入pixel數組
  avg = sum(pixel)/len(pixel) #計算像素平均值

  cp = [] #二值數組
  for px in pixel:
    if px > avg:
      cp.append(1)
    else:
      cp.append(0)
  return cp

#計算兩個編碼之間的漢明距離
def compCode(code1,code2):
  num = 0
  for index in range(0,len(code1)):
    if code1[index] != code2[index]:
      num+=1
  #print num
  #print '\n'
  return num 

c) 問題與優化

我們發現在數據量大時,該方法的檢索速度較慢,因此我們將圖像指紋也作為圖像的屬性存在self.hashCode中,在importFolder時計算好,避免后續操作中的冗余重復計算。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

平谷区| 获嘉县| 文山县| 峨边| 台北市| 定安县| 印江| 永嘉县| 双辽市| 扶绥县| 扬中市| 礼泉县| 敖汉旗| 永兴县| 双柏县| 曲阳县| 恩施市| 祥云县| 清镇市| 同仁县| 边坝县| 葵青区| 观塘区| 高阳县| 沙河市| 安国市| 江达县| 陆丰市| 屏南县| 桦川县| 吉木萨尔县| 屯昌县| 尼木县| 辽阳市| 宜君县| 永城市| 平凉市| 湖州市| 高唐县| 浪卡子县| 五家渠市|