写点什么

python 进阶:带你学习实时目标跟踪

  • 2023-03-20
    广东
  • 本文字数:2877 字

    阅读完需:约 9 分钟

python进阶:带你学习实时目标跟踪

本文分享自华为云社区《python进阶——人工智能实时目标跟踪,这一篇就够用了!》,作者:lqj_本人 。

前言


本程序主要实现了 python 的 opencv 人工智能视觉模块的目标跟踪功能。

项目介绍


区域性锁定目标实时动态跟踪(适用 警方追捕,无人机锁定拍摄等)

首先先介绍几种 AI 视觉算法


特性:


1.BOOSTING:算法原理类似于 Harr cascdes(AdaBoost),是一种很老的算法。这个算法速度慢并且不准。

2.MIL:比 BOOSTING 准一点

3.KCF:速度比 BOOSTING 和 MIL 更快,与 BOOSTING 和 MIL 一样不能很好的处理遮挡问题。

4.CSRT:比 KCF 更准一些,但是速度比 KCF 慢

5.MedianFlow:对于快速移动的目标和外形比那花迅速的目标效果不好

6.TLD:会产生朵的 false-posittives

7.MOSSE:算法速度非常快,但是准确率比不上 KCF 和 CSRT,在一些追求算法的速度场合很适用

8.GOTURN:OpenCV 中自带的唯一一个基于深度学习的算法,运行短发需要提前下载好模型文件


分别对应的伴生的函数:


kcf:cv2.legacy.TrackerKCF_createcsrt:cv2.legacy.TrackerCSRT_createboosting:cv2.legacy.TrackerBoosting_createmil:cv2.legacy.TrackerMIL_createtld:cv2.legacy.TrackerTLD_createmedianflow:cv2.legacy.TrackerMedianFlow_createmosse:cv2.legacy.TrackerMOSSE_create
复制代码

详细代码讲解


导入 cv 模块


ret,frame = cap.read()
复制代码


import cv2
复制代码


使用 csrt 算法,引用伴生函数,并赋值给 tracker


tracker = cv2.legacy.TrackerCSRT_create()
复制代码


读取视频流


cap = cv2.VideoCapture('11.mp4')
复制代码


先读取到第一帧


ret,frame = cap.read()
复制代码


使用 selectROI(前景),画框将目标框起,并赋值给 bbox


bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)
复制代码


初始化 tracker,将上面的两个值传入


tracker.init(frame,bbox)
复制代码


读取每一帧


ret,frame = cap.read()
复制代码


根据每一帧来更新 tracker


ok,box = tracker.update(frame)
复制代码


若读取成功,就定位画框,并跟随


    if ok :        (x,y,w,h) = [int(v) for v in box]        cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2)
复制代码


显示视频流


cv2.imshow('A', frame)
复制代码


等待 50 毫秒或按空格键退出


if cv2.waitKey(50) == ord(' '):    break
复制代码


释放视频流和释放窗口


cap.release()cv2.destroyAllWindows()
复制代码

完整代码及注释:


import cv2tracker = cv2.legacy.TrackerCSRT_create()#使用csrt算法,引用伴生函数,并赋值给tracker
cap = cv2.VideoCapture('11.mp4')#读取视频流
ret,frame = cap.read()#先读取第一帧
bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)#使用selectROI(前景),画框将目标框起,并赋值给bbox
tracker.init(frame,bbox)#初始化tracker,将上面的两个值传入
while True: ret,frame = cap.read()#读取每一帧
ok,box = tracker.update(frame)#根据每一帧来跟新tracker
# 若读取成功,我们就定位画框,并跟随 if ok : (x,y,w,h) = [int(v) for v in box] cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2)
cv2.imshow('A', frame)#显示视频流
if cv2.waitKey(50) == ord(' '):#等待50毫秒或键盘按空格键退出 break
# 释放视频流,释放窗口cap.release()cv2.destroyAllWindows()
复制代码


结果演示



区域性全部实时动态目标跟踪(适用夜视跟踪,范围性观察等)


思路构建


1.先将实时摄像流或录制视频流,灰度转化并高斯模糊

2.用二值化算法将流中的物体轮廓扩充

3.分别先读到第一帧和第二帧,让其对比

4.寻找对比后,流的轮廓位置,并开启简易模式

5.过滤物体的矩阵轮廓将其定位绘出


详细代码讲解


导入 cv 模块


import cv2
复制代码


将视频流转换并让其高斯模糊


gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)blur = cv2.GaussianBlur(gray,(5,5),0)
复制代码


二值化扩充


_,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY)dilated = cv2.dilate(thresh,None,iterations=3)return dilated
复制代码


读取视频流或实时摄像流


cap = cv2.VideoCapture('11.mp4')
复制代码


读取第一帧


ret,frame1 = cap.read()
复制代码


读取第二帧


ret,frame2 = cap.read()
复制代码


判断 cap 是否为打开状态


while cap.isOpened():
复制代码


若为打开,则第一帧与第二帧比较


diff = cv2.absdiff(frame1,frame2)mask = filter_img(diff)
复制代码


寻找比较后的物体轮廓,并开启简易模式


contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)
复制代码


使用方框将视频流中的物体框出,得到矩阵的宽高


(x,y,w,h) = cv2.boundingRect(contour)
复制代码


若矩阵的面积小于 10(根据视频流中物体的大小来定义),直接无视


if cv2.contourArea(contour) < 10:
复制代码


将过滤的物体的矩阵轮廓绘出(一定要用 int 整形)


cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)
复制代码


将第一帧显示


cv2.imshow('A',frame1)
复制代码


将上面赋值的 mask 显示


cv2.imshow('B',mask)
复制代码


实现前后帧对比,并定位物体运动轨迹


1.将第二帧赋值给第一帧


frame1 = frame2
复制代码


2.再将 cap 读到的赋值给第二帧()


ret,frame2 = cap.read()
复制代码


等待 50 毫秒或者按空格结束


if cv2.waitKey(50) == ord(' '):    break
复制代码


释放视频流及释放窗口


cap.release()cv2.destroyAllWindows()
复制代码

完整代码及注释:


import cv2def filter_img(frame):    #将视频流转换灰度并让其高斯模糊    gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)    blur = cv2.GaussianBlur(gray,(5,5),0)    #二值化将其扩充    _,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY)    dilated = cv2.dilate(thresh,None,iterations=3)    return dilated# 读取视频流cap = cv2.VideoCapture('11.mp4')
ret,frame1 = cap.read()#读到第一帧ret,frame2 = cap.read()#读到第二帧
while cap.isOpened():#判断cap是否打开 diff = cv2.absdiff(frame1,frame2)#若打开,则第一帧和第二帧作比较
mask = filter_img(diff)
contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)#寻找视频流的轮廓,简单模式
#用方框将视频流中的物体用矩形框出 for contour in contours: (x,y,w,h) = cv2.boundingRect(contour)#得到矩阵的宽高 if cv2.contourArea(contour) < 10:#若矩阵的面积小于200,就无视(太小了) continue cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)#将过滤的物体的矩阵轮廓绘出
# cv2.drawContours(frame1,contours,-1,(0,255,0),2)#将视频流中的物体轮廓画出
cv2.imshow('A',frame1)#将第一帧显示 cv2.imshow('B',mask)#将mask也显示
frame1 = frame2#将第二帧赋值给第一帧 ret,frame2 = cap.read()#再将cap读到的赋值给第二帧
if cv2.waitKey(50) == ord(' '):#等待五十毫秒或者按空格结束 break#销毁cap流cap.release()#释放窗口cv2.destroyAllWindows()
复制代码

结果显示



点击关注,第一时间了解华为云新鲜技术~

发布于: 刚刚阅读数: 4
用户头像

提供全面深入的云计算技术干货 2020-07-14 加入

生于云,长于云,让开发者成为决定性力量

评论

发布
暂无评论
python进阶:带你学习实时目标跟踪_Python_华为云开发者联盟_InfoQ写作社区