您好,登錄后才能下訂單哦!
這篇文章主要介紹opencv python簡(jiǎn)易文檔之圖像處理算法的示例分析,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
import cv2 #opencv讀取的格式是BGR img=cv2.imread('cat.jpg') # 將圖片轉(zhuǎn)為灰度圖像操作 img_gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) img_gray.shape
H - 色調(diào)(主波長(zhǎng))。
S - 飽和度(純度/顏色的陰影)。
V值(強(qiáng)度)
import cv2 hsv=cv2.cvtColor(img,cv2.COLOR_BGR2HSV) cv2.imshow("hsv", hsv) cv2.waitKey(0) cv2.destroyAllWindows()
ret, dst = cv2.threshold(src, thresh, maxval, type)
src: 輸入圖,只能輸入單通道圖像,通常來(lái)說(shuō)為灰度圖
dst: 輸出圖
thresh: 閾值
maxval: 當(dāng)像素值超過(guò)了閾值(或者小于閾值,根據(jù)type來(lái)決定),所賦予的值
type:二值化操作的類型,包含以下5種類型: cv2.THRESH_BINARY; cv2.THRESH_BINARY_INV; cv2.THRESH_TRUNC; cv2.THRESH_TOZERO;cv2.THRESH_TOZERO_INV
cv2.THRESH_BINARY 超過(guò)閾值部分取maxval(最大值),否則取0
cv2.THRESH_BINARY_INV THRESH_BINARY的反轉(zhuǎn)
cv2.THRESH_TRUNC 大于閾值部分設(shè)為閾值,否則不變
cv2.THRESH_TOZERO 大于閾值部分不改變,否則設(shè)為0
cv2.THRESH_TOZERO_INV THRESH_TOZERO的反轉(zhuǎn)
ret, thresh2 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY) ret, thresh3 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY_INV) ret, thresh4 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TRUNC) ret, thresh5 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO) ret, thresh6 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO_INV) titles = ['Original Image', 'BINARY', 'BINARY_INV', 'TRUNC', 'TOZERO', 'TOZERO_INV'] images = [img, thresh2, thresh3, thresh4, thresh5, thresh6] for i in range(6): plt.subplot(2, 3, i + 1), plt.imshow(images[i], 'gray') plt.title(titles[i]) plt.xticks([]), plt.yticks([]) plt.show()
使用均值濾波實(shí)現(xiàn)圖像平滑
# 均值濾波 # 簡(jiǎn)單的平均卷積操作 # 使用3*3的卷積和 blur = cv2.blur(img, (3, 3)) cv2.imshow('blur', blur) cv2.waitKey(0) cv2.destroyAllWindows()
使用方框?yàn)V波實(shí)現(xiàn)圖像平滑:
# 方框?yàn)V波 # 基本和均值一樣,可以選擇歸一化 box = cv2.boxFilter(img,-1,(3,3), normalize=True) cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows() # 方框?yàn)V波 # 基本和均值一樣,可以選擇歸一化,容易越界,越界后值為255 box = cv2.boxFilter(img,-1,(3,3), normalize=False) cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows()
使用高斯濾波實(shí)現(xiàn)圖像平滑:
# 高斯濾波 # 高斯模糊的卷積核里的數(shù)值是滿足高斯分布,相當(dāng)于更重視距離 aussian = cv2.GaussianBlur(img, (5, 5), 1) cv2.imshow('aussian', aussian) cv2.waitKey(0) cv2.destroyAllWindows()
使用中值濾波實(shí)現(xiàn)圖像平滑:
# 中值濾波 # 相當(dāng)于用中值代替 median = cv2.medianBlur(img, 5) # 中值濾波 cv2.imshow('median', median) cv2.waitKey(0) cv2.destroyAllWindows()
使用np將所有處理圖片拼接顯示:
# 展示所有的 res = np.hstack((blur,aussian,median)) #print (res) cv2.imshow('median vs average', res) cv2.waitKey(0) cv2.destroyAllWindows()
腐蝕操作可以用于去除圖像中的毛刺
# iterations為腐蝕操作的迭代次數(shù) kernel = np.ones((3,3),np.uint8) erosion = cv2.erode(img,kernel,iterations = 1) cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows()
膨脹操作通常與腐蝕操作配合使用
# 先對(duì)圖像進(jìn)行腐蝕操作去除干擾信息 # kernel 為卷積核大小 kernel = np.ones((3,3),np.uint8) dige_erosion = cv2.erode(img,kernel,iterations = 1) cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows() # 對(duì)圖像進(jìn)行膨脹操作將干擾信息以外的腐蝕部分復(fù)原 kernel = np.ones((3,3),np.uint8) dige_dilate = cv2.dilate(dige_erosion,kernel,iterations = 1) cv2.imshow('dilate', dige_dilate) cv2.waitKey(0) cv2.destroyAllWindows()
開(kāi)運(yùn)算:先腐蝕,再膨脹
閉運(yùn)算:先膨脹,再腐蝕
# 開(kāi):先腐蝕,再膨脹 img = cv2.imread('dige.png') kernel = np.ones((5,5),np.uint8) opening = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel) cv2.imshow('opening', opening) cv2.waitKey(0) cv2.destroyAllWindows() # 閉:先膨脹,再腐蝕 img = cv2.imread('dige.png') kernel = np.ones((5,5),np.uint8) closing = cv2.morphologyEx(img, cv2.MORPH_CLOSE, kernel) cv2.imshow('closing', closing) cv2.waitKey(0) cv2.destroyAllWindows()
提取圖片邊緣信息
# 梯度=膨脹-腐蝕 pie = cv2.imread('pie.png') kernel = np.ones((7,7),np.uint8) dilate = cv2.dilate(pie,kernel,iterations = 5) erosion = cv2.erode(pie,kernel,iterations = 5) res = np.hstack((dilate,erosion)) cv2.imshow('res', res) cv2.waitKey(0) cv2.destroyAllWindows() gradient = cv2.morphologyEx(pie, cv2.MORPH_GRADIENT, kernel) cv2.imshow('gradient', gradient) cv2.waitKey(0) cv2.destroyAllWindows()
禮帽 = 原始輸入-開(kāi)運(yùn)算結(jié)果
黑帽 = 閉運(yùn)算-原始輸入
#禮帽 img = cv2.imread('dige.png') tophat = cv2.morphologyEx(img, cv2.MORPH_TOPHAT, kernel) cv2.imshow('tophat', tophat) cv2.waitKey(0) cv2.destroyAllWindows() #黑帽 img = cv2.imread('dige.png') blackhat = cv2.morphologyEx(img,cv2.MORPH_BLACKHAT, kernel) cv2.imshow('blackhat ', blackhat ) cv2.waitKey(0) cv2.destroyAllWindows()
通過(guò)像素差異提取圖片邊緣
Sobel算子
Scharr算子
laplacian算子
對(duì)于梯度更敏感
檢測(cè)圖像像素梯度變換GX為水平梯度檢測(cè),GY為垂直梯度檢測(cè)。GX與GY相當(dāng)于前面提到的卷積和。
dst = cv2.Sobel(src, ddepth, dx, dy, ksize) # ddepth:圖像的深度 # dx和dy分別表示水平和豎直方向 # ksize是Sobel算子的大小 # 在opencv中像素小于0的點(diǎn)直接被認(rèn)為是0
# 計(jì)算GX sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) # 將負(fù)數(shù)部分轉(zhuǎn)為正數(shù) sobelx = cv2.convertScaleAbs(sobelx) cv_show(sobelx,'sobelx') # 計(jì)算GY sobelx = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) # 將負(fù)數(shù)部分轉(zhuǎn)為正數(shù) sobelx = cv2.convertScaleAbs(sobelx) cv_show(sobelx,'sobelx') # 計(jì)算GX與GY的加和 sobelxy = cv2.addWeighted(sobelx,0.5,sobely,0.5,0) cv_show(sobelxy,'sobelxy')
不同算子之間的差異
#不同算子的差異 img = cv2.imread('lena.jpg',cv2.IMREAD_GRAYSCALE) sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) sobely = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) sobelx = cv2.convertScaleAbs(sobelx) sobely = cv2.convertScaleAbs(sobely) sobelxy = cv2.addWeighted(sobelx,0.5,sobely,0.5,0) scharrx = cv2.Scharr(img,cv2.CV_64F,1,0) scharry = cv2.Scharr(img,cv2.CV_64F,0,1) scharrx = cv2.convertScaleAbs(scharrx) scharry = cv2.convertScaleAbs(scharry) scharrxy = cv2.addWeighted(scharrx,0.5,scharry,0.5,0) laplacian = cv2.Laplacian(img,cv2.CV_64F) laplacian = cv2.convertScaleAbs(laplacian) res = np.hstack((sobelxy,scharrxy,laplacian)) cv_show(res,'res')
使用高斯濾波器,以平滑圖像,濾除噪聲。
計(jì)算圖像中每個(gè)像素點(diǎn)的梯度強(qiáng)度和方向。
應(yīng)用非極大值(Non-Maximum Suppression)抑制,以消除邊緣檢測(cè)帶來(lái)的雜散響應(yīng)。
應(yīng)用雙閾值(Double-Threshold)檢測(cè)來(lái)確定真實(shí)的和潛在的邊緣。
通過(guò)抑制孤立的弱邊緣最終完成邊緣檢測(cè)。
1:高斯濾波器
卷積核為符合高斯分布的數(shù)據(jù),主要將圖像平滑。
2:梯度和方向
3:非極大值抑制
4:雙閾值檢測(cè)
img=cv2.imread("lena.jpg",cv2.IMREAD_GRAYSCALE) v1=cv2.Canny(img,80,150) v2=cv2.Canny(img,50,100) res = np.hstack((v1,v2)) cv_show(res,'res')
高斯金字塔
拉普拉斯金字塔
主要用于特征提取
高斯金字塔:向下采樣方法(縮?。?/p>
高斯金字塔:向上采樣方法(放大)
# 向上變換 up=cv2.pyrUp(img) # 向下變換 down=cv2.pyrDown(img)
拉普拉斯金字塔
down=cv2.pyrDown(img) down_up=cv2.pyrUp(down) l_1=img-down_up cv_show(l_1,'l_1')
cv2.findContours(img,mode,method)
mode:輪廓檢索模式
RETR_EXTERNAL :只檢索最外面的輪廓;
RETR_LIST:檢索所有的輪廓,并將其保存到一條鏈表當(dāng)中;
RETR_CCOMP:檢索所有的輪廓,并將他們組織為兩層:頂層是各部分的外部邊界,第二層是空洞的邊界;
RETR_TREE:檢索所有的輪廓,并重構(gòu)嵌套輪廓的整個(gè)層次;
method:輪廓逼近方法
CHAIN_APPROX_NONE:以Freeman鏈碼的方式輸出輪廓,所有其他方法輸出多邊形(頂點(diǎn)的序列)。
CHAIN_APPROX_SIMPLE:壓縮水平的、垂直的和斜的部分,也就是,函數(shù)只保留他們的終點(diǎn)部分。
img = cv2.imread('contours.png') gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) cv_show(thresh,'thresh') # 提取輪廓 binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) # 繪制輪廓 #傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 # 注意需要copy,要不原圖會(huì)變。。。 draw_img = img.copy() res = cv2.drawContours(draw_img, contours, -1, (0, 0, 255), 2) cv_show(res,'res')
輪廓特征
# 選取輪廓 0表示第一個(gè)輪廓 cnt = contours[0] #面積 cv2.contourArea(cnt) #周長(zhǎng),True表示閉合的 cv2.arcLength(cnt,True)
輪廓近似
epsilon = 0.15*cv2.arcLength(cnt,True) approx = cv2.approxPolyDP(cnt,epsilon,True) draw_img = img.copy() res = cv2.drawContours(draw_img, [approx], -1, (0, 0, 255), 2) cv_show(res,'res') # 外接矩形 img = cv2.imread('contours.png') gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) cnt = contours[0] x,y,w,h = cv2.boundingRect(cnt) img = cv2.rectangle(img,(x,y),(x+w,y+h),(0,255,0),2) cv_show(img,'img') # 外接圓 (x,y),radius = cv2.minEnclosingCircle(cnt) center = (int(x),int(y)) radius = int(radius) img = cv2.circle(img,center,radius,(0,255,0),2) cv_show(img,'img')
用于統(tǒng)計(jì)圖片像素值分布,x軸表示像素值(0-255),y軸表示該像素值對(duì)應(yīng)個(gè)數(shù)。
cv2.calcHist(images,channels,mask,histSize,ranges)
images: 原圖像圖像格式為 uint8 或 ?oat32。當(dāng)傳入函數(shù)時(shí)應(yīng) 用中括號(hào) [] 括來(lái)例如[img]
channels: 同樣用中括號(hào)括來(lái)它會(huì)告函數(shù)我們統(tǒng)幅圖 像的直方圖。如果入圖像是灰度圖它的值就是 [0]如果是彩色圖像 的傳入的參數(shù)可以是 [0][1][2] 它們分別對(duì)應(yīng)著 BGR。
mask: 掩模圖像。統(tǒng)整幅圖像的直方圖就把它為 None。但是如 果你想統(tǒng)圖像某一分的直方圖的你就制作一個(gè)掩模圖像并 使用它。
histSize:BIN 的數(shù)目。也應(yīng)用中括號(hào)括來(lái)
ranges: 像素值范圍常為 [0256]
# 統(tǒng)計(jì)灰度圖的直方圖 img = cv2.imread('cat.jpg',0) #0表示灰度圖 hist = cv2.calcHist([img],[0],None,[256],[0,256]) hist.shape # 統(tǒng)計(jì)三通道直方圖 img = cv2.imread('cat.jpg') color = ('b','g','r') for i,col in enumerate(color): histr = cv2.calcHist([img],[i],None,[256],[0,256]) plt.plot(histr,color = col) plt.xlim([0,256])
mask操作:
# 創(chuàng)建mask mask = np.zeros(img.shape[:2], np.uint8) print (mask.shape) mask[100:300, 100:400] = 255 cv_show(mask,'mask') # 將mask與圖像融合 masked_img = cv2.bitwise_and(img, img, mask=mask)#與操作 cv_show(masked_img,'masked_img') # 使用mask進(jìn)行直方圖統(tǒng)計(jì)與非mask進(jìn)行直方圖統(tǒng)計(jì) hist_full = cv2.calcHist([img], [0], None, [256], [0, 256]) hist_mask = cv2.calcHist([img], [0], mask, [256], [0, 256])
是圖像像素分布更加均勻。
# 直方圖均衡化 equ = cv2.equalizeHist(img) plt.hist(equ.ravel(),256) plt.show()
通過(guò)將圖片劃分為局部圖片,然后進(jìn)行直方圖均衡化處理。
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
時(shí)域-》頻域
傅里葉變換的作用
高頻:變化劇烈的灰度分量,例如邊界
低頻:變化緩慢的灰度分量,例如一片大海
濾波
低通濾波器:只保留低頻,會(huì)使得圖像模糊,相當(dāng)于對(duì)于邊界的處理。
高通濾波器:只保留高頻,會(huì)使得圖像細(xì)節(jié)增強(qiáng),相當(dāng)于對(duì)于非邊界的處理。
opencv中主要就是cv2.dft()和cv2.idft(),輸入圖像需要先轉(zhuǎn)換成np.float32 格式。
得到的結(jié)果中頻率為0的部分會(huì)在左上角,通常要轉(zhuǎn)換到中心位置,可以通過(guò)shift變換來(lái)實(shí)現(xiàn)。
cv2.dft()返回的結(jié)果是雙通道的(實(shí)部,虛部),通常還需要轉(zhuǎn)換成圖像格式才能展示(0,255)。
import numpy as np import cv2 from matplotlib import pyplot as plt img = cv2.imread('lena.jpg',0) img_float32 = np.float32(img) dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft) # 得到灰度圖能表示的形式 magnitude_spectrum = 20*np.log(cv2.magnitude(dft_shift[:,:,0],dft_shift[:,:,1])) plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(magnitude_spectrum, cmap = 'gray') plt.title('Magnitude Spectrum'), plt.xticks([]), plt.yticks([]) plt.show()
# 低頻濾波 import numpy as np import cv2 from matplotlib import pyplot as plt img = cv2.imread('lena.jpg',0) img_float32 = np.float32(img) dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft) rows, cols = img.shape crow, ccol = int(rows/2) , int(cols/2) # 中心位置 # 低通濾波 mask = np.zeros((rows, cols, 2), np.uint8) mask[crow-30:crow+30, ccol-30:ccol+30] = 1 # IDFT fshift = dft_shift*mask f_ishift = np.fft.ifftshift(fshift) img_back = cv2.idft(f_ishift) img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1]) plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(img_back, cmap = 'gray') plt.title('Result'), plt.xticks([]), plt.yticks([]) plt.show()
結(jié)果(低通對(duì)邊界值不友好)
# 高頻濾波 img = cv2.imread('lena.jpg',0) img_float32 = np.float32(img) dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft) rows, cols = img.shape crow, ccol = int(rows/2) , int(cols/2) # 中心位置 # 高通濾波 mask = np.ones((rows, cols, 2), np.uint8) mask[crow-30:crow+30, ccol-30:ccol+30] = 0 # IDFT fshift = dft_shift*mask f_ishift = np.fft.ifftshift(fshift) img_back = cv2.idft(f_ishift) img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1]) plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(img_back, cmap = 'gray') plt.title('Result'), plt.xticks([]), plt.yticks([]) plt.show()
結(jié)果(高通對(duì)非邊界值不友好)
模板匹配和卷積原理很像,模板在原圖像上從原點(diǎn)開(kāi)始滑動(dòng),計(jì)算模板與(圖像被模板覆蓋的地方)的差別程度,這個(gè)差別程度的計(jì)算方法在opencv里有6種,然后將每次計(jì)算的結(jié)果放入一個(gè)矩陣?yán)?,作為結(jié)果輸出。假如原圖形是AxB大小,而模板是axb大小,則輸出結(jié)果的矩陣是(A-a+1)x(B-b+1)
# 模板匹配 img = cv2.imread('lena.jpg', 0) template = cv2.imread('face.jpg', 0) h, w = template.shape[:2]
TM_SQDIFF:計(jì)算平方不同,計(jì)算出來(lái)的值越小,越相關(guān)
TM_CCORR:計(jì)算相關(guān)性,計(jì)算出來(lái)的值越大,越相關(guān)
TM_CCOEFF:計(jì)算相關(guān)系數(shù),計(jì)算出來(lái)的值越大,越相關(guān)
TM_SQDIFF_NORMED:計(jì)算歸一化平方不同,計(jì)算出來(lái)的值越接近0,越相關(guān)
TM_CCORR_NORMED:計(jì)算歸一化相關(guān)性,計(jì)算出來(lái)的值越接近1,越相關(guān)
TM_CCOEFF_NORMED:計(jì)算歸一化相關(guān)系數(shù),計(jì)算出來(lái)的值越接近1,越相關(guān)
methods = ['cv2.TM_CCOEFF', 'cv2.TM_CCOEFF_NORMED', 'cv2.TM_CCORR', 'cv2.TM_CCORR_NORMED', 'cv2.TM_SQDIFF', 'cv2.TM_SQDIFF_NORMED'] for meth in methods: img2 = img.copy() # 匹配方法的真值 method = eval(meth) print (method) res = cv2.matchTemplate(img, template, method) min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res) # 如果是平方差匹配TM_SQDIFF或歸一化平方差匹配TM_SQDIFF_NORMED,取最小值 if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]: top_left = min_loc else: top_left = max_loc bottom_right = (top_left[0] + w, top_left[1] + h) # 畫(huà)矩形 cv2.rectangle(img2, top_left, bottom_right, 255, 2) plt.subplot(121), plt.imshow(res, cmap='gray') plt.xticks([]), plt.yticks([]) # 隱藏坐標(biāo)軸 plt.subplot(122), plt.imshow(img2, cmap='gray') plt.xticks([]), plt.yticks([]) plt.suptitle(meth) plt.show()
以上是“opencv python簡(jiǎn)易文檔之圖像處理算法的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。