写点什么

Python OpenCV 之图像梯度,Sobel 算子、Scharr 算子和 laplacian 算子

发布于: 20 分钟前

Python OpenCV 365 天学习计划,与橡皮擦一起进入图像领域吧。


基础知识铺垫

图像梯度是计算图像变化速度的方法,对于图像边缘部分,灰度值如果变化幅度较大,则其对应梯度值也较大,反之,图像中比较平滑的部分,灰度值变化较小,相应的梯度值变化也小。


有以上内容就可以学习图像梯度相关计算了,该知识后面会用到获取图像边缘信息相关技术中。


OpenCV 提供三种不同的梯度滤波器,或者说高通滤波器:<kbd>Sobel</kbd>,<kbd>Scharr</kbd> 和 <kbd>Laplacian</kbd>。


在数学上,<kbd>Sobel</kbd>,<kbd>Scharr</kbd> 是求一阶或二阶导数,<kbd>Scharr</kbd> 是对 <kbd>Sobel</kbd>(使用小的卷积核求解求解梯度角度时)的优化,<kbd>Laplacian</kbd>是求二阶导数。


数学部分我们依旧不展开,在第一遍通识学习之后,从上帝视角去补充。

Sobel 算子和 Scharr 算子

Sobel 算子说明与使用

<kbd>Sobel</kbd>算子是高斯平滑与微分操作的结合体,所以它的抗噪声能力很好(具体橡皮擦没有学到精髓,先用起来)。


在使用过程中可以设定求导的方向(xorderyorder),还可以设定使用的卷积核的大小(ksize)。


函数原型如下:


dst = cv2.Sobel(src, ddepth, dx, dy[, dst[, ksize[, scale[, delta[, borderType]]]]])
复制代码


参数说明如下:


  • <kbd>src</kbd>:输入图像;

  • <kbd>ddepth</kbd>:图像颜色深度,针对不同的输入图像,输出图像有不同的深度,具体参加后文,-1 表示图像深度一致;

  • <kbd>dx</kbd>:x 方向求导阶数;

  • <kbd>dy</kbd>:y 方向求导阶数;

  • <kbd>ksize</kbd>:内核大小,一般取奇数,1,3,5,7 等值;

  • <kbd>scale</kbd>:缩放大小,默认值为 1;

  • <kbd>delta</kbd>:增量数值,默认值为 0;

  • <kbd>borderType</kbd>:边界类型,默认值为 <kbd>BORDER_DEFAULT</kbd>。


备注:如果 ksize=-1,会使用 3x3 的 <kbd>Scharr</kbd> 滤波器,该效果要比 3x3 的 <kbd>Sobel</kbd> 滤波器好(而且速度相同,所以在使用 3x3 滤波器时应该尽量使用 <kbd>Scharr</kbd> 滤波器)。


关于该函数的测试代码如下(注意选择自己的图片,并放置到同一文件夹):


import cv2import numpy as np
img = cv2.imread('./test.jpg')
dst = cv2.Sobel(img, cv2.CV_64F, 1, 0, ksize=3)dst = cv2.convertScaleAbs(dst)cv2.imshow("dst", dst)cv2.waitKey()cv2.destroyAllWindows()
复制代码


以上代码中有很多要说明和学习的,接下来我们逐步分析。


<kbd>Sobel</kbd> 滤波器中的第二个参数,设置为 <kbd>cv2.CV_64F</kbd>,在互联网找了一下通用解释


我们一般处理的都是 8 位图像,当计算的梯度小于零,会自动变成 0,造成边界信息丢失,关于为什么小于零,是由于从黑到白的边界导数是整数,而从白到黑的边界点导数是负数。当图像深度是 np.uint8 的时候,负值就会变成 0,基于这个原因,需要把输出图像的数据类型设置高一些,例如 <kbd>cv2.CV_16S</kbd>,<kbd>cv2.CV_64F</kbd>等值。


当然简单记忆的方式,就是设置为 -1 即可。


处理完毕之后,在通过 <kbd>cv2.convertScaleAbs</kbd>函数将其转回原来的 uint8 格式,如果不转换,获取的图像不正确。


对比一下,转换与没有转换两次运行的效果,右侧明显失去边界值。



注意上文代码中,还有一个细节需要说明一下


dst = cv2.Sobel(img, cv2.CV_64F, 1, 0, ksize=3)
复制代码


  • <kbd>dx</kbd>:x 方向求导阶数;

  • <kbd>dy</kbd>:y 方向求导阶数。


这其中 dx=1,dy=0 表示计算水平方向的,不计算垂直方向,说白了就是哪个方向等于 1,计算哪个方向。


还可以对函数中的 <kbd>ddepth</kbd>参数进行不同取值的比对,查看差异化内容。下述代码用到了图像融合函数 <kbd>cv.addWeighted</kbd>


import numpy as npimport cv2 as cvdef sobel_demo1(image):    grad_x = cv.Sobel(image, cv.CV_16S, 1, 0)    grad_y = cv.Sobel(image, cv.CV_16S, 0, 1)    gradx = cv.convertScaleAbs(grad_x)    grady = cv.convertScaleAbs(grad_y)    cv.imshow('sobel_demo1_gradient_x', gradx)    cv.imshow('sobel_demo1_gradient_y', grady)    # 合并x, y两个梯度    add_image = cv.addWeighted(gradx, 0.5, grady, 0.5, 0)    cv.imshow('sobel_demo1_addWeighted', add_image)
def sobel_demo2(image): grad_x = cv.Sobel(image, cv.CV_32F, 1, 0) grad_y = cv.Sobel(image, cv.CV_32F, 0, 1) gradx = cv.convertScaleAbs(grad_x) grady = cv.convertScaleAbs(grad_y) cv.imshow('sobel_demo2_gradient_x', gradx) cv.imshow('sobel_demo2_gradient_y', grady) # 合并x, y两个梯度 add_image = cv.addWeighted(gradx, 0.5, grady, 0.5, 0) cv.imshow('sobel_demo2_addWeighted', add_image)
src = cv.imread('./test.jpg', 1)sobel_demo1(src)sobel_demo2(src)cv.waitKey(0)cv.destroyAllWindows()
复制代码


你可以不使用图像融合函数,直接通过 <kbd>Sobel</kbd> 函数计算 x 方向和 y 方向的导数,代码如下:


def sobel_demo3(image):    grad = cv.Sobel(image, cv.CV_16S, 1, 1)    grad = cv.convertScaleAbs(grad)    cv.imshow('sobel_demo1_gradient', grad)
复制代码


得到的结果比图像融合效果要差很多。



这样对比查阅不是很容易看清楚,可以结合下述代码进行改造,将图片整合到一起展示。


def sobel_demo1(image):
grad_x = cv.Sobel(image, cv.CV_16S, 1, 0) grad_y = cv.Sobel(image, cv.CV_16S, 0, 1) gradx = cv.convertScaleAbs(grad_x) grady = cv.convertScaleAbs(grad_y)
# 合并x, y两个梯度 dst = cv.addWeighted(gradx, 0.5, grady, 0.5, 0) imgs1 = np.hstack([cv.cvtColor(image, cv.COLOR_BGR2RGB), gradx]) imgs2 = np.hstack([grady, dst]) img_all = np.vstack([imgs1, imgs2]) plt.figure(figsize=(20, 10)) plt.imshow(img_all, cmap=plt.cm.gray) plt.show()
复制代码


上述代码运行效果如下,非常容易比对效果。



<kbd>Sobel</kbd>算子算法的优点是计算简单,速度快。


但由于只采用了 2 个方向的模板,只能检测水平和垂直方向的边缘,因此这种算法对于纹理较为复杂的图像,其边缘检测效果就不是很理想,该算法认为:凡灰度新值大于或等于阈值的像素点时都是边缘点。这种判断不是很合理,会造成边缘点的误判,因为许多噪声点的灰度值也很大。

Scharr 算子说明与使用

在 <kbd>Sobel</kbd>算子算法函数中,如果设置 <kbd>ksize=-1</kbd> 就会使用 3x3 的 <kbd>Scharr</kbd>滤波器。


它的原理和<kbd>sobel</kbd>算子原理一样,只是卷积核不一样,所以精度会更高一点。


该函数的原型如下:


# Sobel 算子算法dst = cv2.Sobel(src, ddepth, dx, dy[, dst[, ksize[, scale[, delta[, borderType]]]]])# Scharr 算子算法dst = cv2.Scharr(src, ddepth, dx, dy[, dst[, scale[, delta[, borderType]]]])
复制代码


它的参数与 <kbd>Sobel</kbd> 基本一致。


测试代码如下,可以比较两种算法的差异:


import numpy as npimport cv2 as cvfrom matplotlib import pyplot as plt
def scharr_demo(image): grad_x = cv.Scharr(image, cv.CV_16S, 1, 0) grad_y = cv.Scharr(image, cv.CV_16S, 0, 1) gradx = cv.convertScaleAbs(grad_x) grady = cv.convertScaleAbs(grad_y)
# 合并x, y两个梯度 dst = cv.addWeighted(gradx, 0.5, grady, 0.5, 0) return dst
def sobel_demo1(image): dst1 = scharr_demo(image) grad_x = cv.Sobel(image, cv.CV_16S, 1, 0) grad_y = cv.Sobel(image, cv.CV_16S, 0, 1) gradx = cv.convertScaleAbs(grad_x) grady = cv.convertScaleAbs(grad_y) # 合并x, y两个梯度 dst = cv.addWeighted(gradx, 0.5, grady, 0.5, 0) imgs = np.hstack([dst, dst1]) plt.figure(figsize=(20, 10)) plt.imshow(imgs, cmap=plt.cm.gray) plt.show()

def sobel_demo3(image): grad = cv.Sobel(image, cv.CV_16S, 1, 1) grad = cv.convertScaleAbs(grad) cv.imshow('sobel_demo1_gradient', grad)
def sobel_demo2(image): grad_x = cv.Sobel(image, cv.CV_32F, 1, 0) grad_y = cv.Sobel(image, cv.CV_32F, 0, 1) gradx = cv.convertScaleAbs(grad_x) grady = cv.convertScaleAbs(grad_y) cv.imshow('sobel_demo2_gradient_x', gradx) cv.imshow('sobel_demo2_gradient_y', grady) # 合并x, y两个梯度 add_image = cv.addWeighted(gradx, 0.5, grady, 0.5, 0) cv.imshow('sobel_demo2_addWeighted', add_image)
src = cv.imread('./test.jpg', 1)sobel_demo1(src)# sobel_demo2(src)# sobel_demo3(src)cv.waitKey(0)cv.destroyAllWindows()
复制代码



<kbd>sobel</kbd>算子和<kbd>scharr</kbd>算子差异


  • <kbd>sobel</kbd>算子系数:[1 2 1] ; <kbd>scharr</kbd>算子[3 10 3] ;

  • <kbd>scharr</kbd>算子要比<kbd>sobel</kbd>算子拥有更高的精确度;

  • <kbd>scharr</kbd>算子可以把比较细小的边界也检测出来。

laplacian 算子

<kbd>Laplace</kbd>函数实现的方法:先用<kbd>Sobel</kbd> 算子计算二阶 x 和 y 导数,再求和。


应用层面,我们先看与一下该函数的原型:


dst = cv2.Laplacian(src, ddepth[, dst[, ksize[, scale[, delta[, borderType]]]]])
复制代码


无特殊参数,可以直接进入测试代码的学习。


import cv2 as cvimport numpy as npfrom matplotlib import pyplot as plt
image = cv.imread('./test1.png',cv.IMREAD_GRAYSCALE)
laplacian = cv.Laplacian(image, cv.CV_64F)laplacian = cv.convertScaleAbs(laplacian)
imgs = np.hstack([image, laplacian])
plt.figure(figsize=(20, 10))plt.imshow(imgs, cmap=plt.cm.gray)plt.show()
复制代码


为了测试方便,我将图片提前转换为了灰度图。



拉普拉斯卷积核,也可以自行进行定义。默认使用的是四邻域 [[0, 1, 0], [1, -4, 1], [0, 1, 0]],修改为八邻域 [[1, 1, 1], [1, -8, 1], [1, 1, 1]]


自定义卷积核代码如下,这里用到了我们之前学习的 2D 卷积操作:


import cv2 as cvimport numpy as npfrom matplotlib import pyplot as plt
image = cv.imread('./test1.png',cv.IMREAD_GRAYSCALE)
# 定义卷积和kernel = np.array([[1, 1, 1], [1, -8, 1], [1, 1, 1]])dst = cv.filter2D(image, cv.CV_32F, kernel=kernel)lapalian = cv.convertScaleAbs(dst)
imgs = np.hstack([image, lapalian])
plt.figure(figsize=(20, 10))plt.imshow(imgs, cmap=plt.cm.gray)plt.show()
复制代码



这里还学习到一句话,拉普拉斯对噪声敏感,会产生双边效果,但是不能检测出边的方向。并且它不直接用于边的检测,只起辅助的角色,检测一个像素是在边的亮的一边还是暗的一边利用零跨越,确定边的位置


梯度简单来说就是求导,就是这关键的求导,要去学习数学知识了,本部分在第一遍学习完毕,将会展开学习。梯度在图像上表现出来的就是提取图像的边缘(无论是横向的、纵向的、斜方向的等等),所需要的是一个核模板,模板的不同结果也不同。基于此,上文涉及的算子函数,都能够用函数<kbd>cv2.filter2D()</kbd>来表示,不同的方法给予不同的核模板,然后演化为不同的算子。

橡皮擦的小节

希望今天的 1 个小时(今天内容有点多,不一定可以看完),你有所收获,我们下篇博客见~




如果你想跟博主建立亲密关系,可以关注同名公众号 <font color="red">梦想橡皮擦</font>,近距离接触一个逗趣的互联网高级网虫。博主 ID:梦想橡皮擦,希望大家<font color="red">点赞</font>、<font color="red">评论</font>、<font color="red">收藏</font>。

发布于: 20 分钟前阅读数: 2
用户头像

爬虫 100 例作者,蓝桥签约作者,博客专家 2021.02.06 加入

6 年产品经理+教学经验,3 年互联网项目管理经验; 互联网资深爱好者; 沉迷各种技术无法自拔,导致年龄被困在 25 岁; CSDN 爬虫 100 例作者。 个人公众号“梦想橡皮擦”。

评论

发布
暂无评论
Python OpenCV 之图像梯度,Sobel 算子、Scharr 算子和 laplacian 算子