91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么利用OpenCV提取圖像中的矩形區域

發布時間:2021-06-11 14:36:00 來源:億速云 閱讀:649 作者:小新 欄目:開發技術

這篇文章主要介紹了怎么利用OpenCV提取圖像中的矩形區域,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

分析問題

照片中的PPT區域總是沿著x,y,z三個軸都有傾斜(如下圖),要想把照片翻轉到平行位置,需要進行透視變換,而透視變換需要同一像素點變換前后的坐標。由此可以想到,提取矩形區域四個角的坐標作為變換前的坐標,變換后的坐標可以設為照片的四個角落,經過投影變換,矩形區域將會翻轉并充滿圖像。

怎么利用OpenCV提取圖像中的矩形區域

因此我們要解決的問題變為:提取矩形的四個角落、進行透視變換。

提取矩形角落坐標

矩形的檢測主要是提取邊緣,PPT顯示部分的亮度通常高于周圍環境,我們可以將圖片閾值化,將PPT部分與周圍環境明顯的分別開來,這對后邊的邊緣檢測非常有幫助。

檢測矩形并提取坐標需要對圖像進行預處理、邊緣檢測、提取輪廓、檢測凸包、角點檢測。

預處理

由于手機拍攝的照片像素可能會很高,為了加快處理速度,我們首先縮小圖片,這里縮小了4倍。

pyrDown(srcPic,   shrinkedPic);    //減小尺寸 加快運算速度
pyrDown(shrinkedPic, shrinkedPic);

轉化為灰度圖

cvtColor(shrinkedPic, greyPic, COLOR_BGR2GRAY); //轉化為灰度圖

中值濾波

medianBlur(greyPic, greyPic, 7); //中值濾波

轉為二值圖片

threshold(greyPic, binPic, 80, 255, THRESH_BINARY); //閾值化為二值圖片

此時圖片已經變成了這個樣子:

怎么利用OpenCV提取圖像中的矩形區域

可見PPT部分已經與環境分離開來。

邊緣檢測與輪廓處理

進行Canny邊緣檢測

Canny(binPic, cannyPic, cannyThr, cannyThr*FACTOR); //Canny邊緣檢測

這里 cannyThr = 200, FACTOR = 2.5
可能由于邊緣特征過于明顯,系數在100-600范圍(具體數字可能有出入,反正范圍非常大)內產生的效果幾乎相同。

提取輪廓

vector<vector<Point>> contours;  //儲存輪廓
vector<Vec4i> hierarchy;
  
findContours(cannyPic, contours, hierarchy, RETR_CCOMP, CHAIN_APPROX_SIMPLE);  //獲取輪廓

findContour函數原型如下:

CV_EXPORTS_W void findContours( InputOutputArray image, OutputArrayOfArrays contours,
               OutputArray hierarchy, int mode,
              int method, Point offset = Point());

檢測到的輪廓都存在contours里,每個輪廓保存為一個vector<Point>
hierarchy為可選的輸出向量,包括圖像的拓撲信息,這里可以選擇不用。

我們可以反復調用drawContours函數將輪廓畫出

linePic = Mat::zeros(cannyPic.rows, cannyPic.cols, CV_8UC3);
for (int index = 0; index < contours.size(); index++){    
    drawContours(linePic, contours, index, Scalar(rand() & 255, rand() & 255, rand() & 255), 1, 8/*, hierarchy*/);
}

drawContours函數原型:

CV_EXPORTS_W void drawContours( InputOutputArray image, InputArrayOfArrays contours,
              int contourIdx, const Scalar& color,
              int thickness = 1, int lineType = LINE_8,
              InputArray hierarchy = noArray(),
              int maxLevel = INT_MAX, Point offset = Point() );

作用是將contours中的第contourIdx條輪廓用color顏色繪制到image中,thickness為線條的粗細, contourIdx為負數時畫出所有輪廓

這里要注意的是在繪制輪廓前要提前為輸出矩陣分配空間,否則會出現以下錯誤

OpenCV(3.4.1) Error: Assertion failed (size.width>0 && size.height>0) in cv::imshow, file C:\build\master_winpack-build-win64-vc15\opencv\modules\highgui\src\window.cpp, line 356

怎么利用OpenCV提取圖像中的矩形區域

提取面積最大的輪廓并用多邊形將輪廓包圍

從上面的輪廓圖中看出,PPT的矩形已經成為了圖片的主要部分,接下來的思路是提取面積最大的輪廓,得到矩形輪廓。

vector<vector<Point>> polyContours(contours.size());
int maxArea = 0;
for (int index = 0; index < contours.size(); index++){    
    if (contourArea(contours[index]) > contourArea(contours[maxArea]))
      maxArea = index;    
    approxPolyDP(contours[index], polyContours[index], 10, true);
  }

contourArea用來計算輪廓的面積
approxPolyDP的作用是用多邊形包圍輪廓,可以得到嚴格的矩形,有助于找到角點

畫出矩形,同樣注意要提前為Mat分配空間

Mat polyPic = Mat::zeros(shrinkedPic.size(), CV_8UC3);
drawContours(polyPic, polyContours, maxArea, Scalar(0,0,255/*rand() & 255, rand() & 255, rand() & 255*/), 2);

怎么利用OpenCV提取圖像中的矩形區域

如圖,接下來我們只需提取到四個角的坐標

尋找凸包

vector<int> hull;
convexHull(polyContours[maxArea], hull, false);  //檢測該輪廓的凸包

convexHull函數原型

CV_EXPORTS_W void convexHull( InputArray points, OutputArray hull,
              bool clockwise = false, bool returnPoints = true );

hull為輸出參數, clockwise決定凸包順逆時針方向, returnPoints為真時返回凸包的各個點,否則返回各點的指數
hull可以為vector<int>類型,此時返回的是凸包點在原圖中的下標索引

我們可以把點和多邊形添加到原圖中查看效果

for (int i = 0; i < hull.size(); ++i){
    circle(polyPic, polyContours[maxArea][i], 10, Scalar(rand() & 255, rand() & 255, rand() & 255), 3);
  }
addWeighted(polyPic, 0.5, shrinkedPic, 0.5, 0, shrinkedPic);

怎么利用OpenCV提取圖像中的矩形區域

現在我們已經比較準確地獲得了需要的點,下面就要利用這些點進行坐標映射。

投影變換

投影變換需要像素在兩個坐標系中的坐標一一對應,雖然我們已經有了四個坐標,但還沒有區分它們的位置。

新建兩個數組

Point2f srcPoints[4], dstPoints[4];
dstPoints[0] = Point2f(0, 0);
dstPoints[1] = Point2f(srcPic.cols, 0);
dstPoints[2] = Point2f(srcPic.cols, srcPic.rows);
dstPoints[3] = Point2f(0, srcPic.rows);

dstPoints儲存的是變換后各點的坐標,依次為左上,右上,右下, 左下

srcPoints儲存的是上面得到的四個角的坐標

下面對得到的四個點進行處理

for (int i = 0; i < 4; i++){
  polyContours[maxArea][i] = Point2f(polyContours[maxArea][i].x * 4, polyContours[maxArea][i].y * 4); //恢復坐標到原圖
}
    //對四個點進行排序 分出左上 右上 右下 左下
bool sorted = false;
int n = 4;
while (!sorted){
  for (int i = 1; i < n; i++){
  sorted = true;
    if (polyContours[maxArea][i-1].x > polyContours[maxArea][i].x){
      swap(polyContours[maxArea][i-1], polyContours[maxArea][i]);
      sorted = false;
    }
  }
  n--;
}
if (polyContours[maxArea][0].y < polyContours[maxArea][1].y){
  srcPoints[0] = polyContours[maxArea][0];
  srcPoints[3] = polyContours[maxArea][1];
}
else{
  srcPoints[0] = polyContours[maxArea][1];
  srcPoints[3] = polyContours[maxArea][0];
}

if (polyContours[maxArea][9].y < polyContours[maxArea][10].y){
  srcPoints[1] = polyContours[maxArea][2];
  srcPoints[2] = polyContours[maxArea][3];
}
else{
  srcPoints[1] = polyContours[maxArea][3];
  srcPoints[2] = polyContours[maxArea][2];
}

即先對四個點的x坐標進行冒泡排序分出左右,再根據兩對坐標的y值比較分出上下
(筆者試圖通過凸包的順逆時針順序以及凸包點與原點的距離來活得位置信息,卻均以失敗告終)

坐標變換需要矩陣運算,OpenCV中給我們提供了getPerspectiveTransform函數用來得到矩陣

Mat transMat = getPerspectiveTransform(srcPoints, dstPoints); //得到變換矩陣

接下來進行坐標變換,網上查到的步驟都是通過perspectiveTransform函數變換,但嘗試多次都出現了報錯,Google了好長時間才知道原來這個函數的傳入輸入輸出參數均為點集,我們這個場景用起來比較麻煩。

warpPerspective函數可以直接傳入輸入Mat類型數據,比較方便

warpPerspective(srcPic, outPic, transMat, srcPic.size()); //進行坐標變換

參數分別為輸入輸出圖像、變換矩陣、大小。

坐標變換后就得到了我們要的最終圖像。

怎么利用OpenCV提取圖像中的矩形區域

感謝你能夠認真閱讀完這篇文章,希望小編分享的“怎么利用OpenCV提取圖像中的矩形區域”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

西平县| 长泰县| 安远县| 尚义县| 从江县| 巴南区| 郸城县| 三江| 南宁市| 濮阳市| 油尖旺区| 延津县| 屏东市| 浠水县| 会理县| 读书| 漾濞| 濉溪县| 东明县| 淄博市| 嵩明县| 遵义市| 修文县| 二手房| 武清区| 馆陶县| 库车县| 静宁县| 堆龙德庆县| 林州市| 修武县| 开鲁县| 永靖县| 灵山县| 东乌珠穆沁旗| 安化县| 梅河口市| 江口县| 永和县| 定陶县| 米林县|