社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

OpenCV机器视觉详解之光流估计,行人轨迹跟踪,附python完整代码

新机器视觉 • 1 年前 • 338 次点击  

光流估计


1.1 方法介绍

光流:空间运动物体在观测成像平面上的像素运动的瞬时速度。根据各个像素点的速度矢量特征,可以对图像进行动态分析,例如目标跟踪。

如果下面这辆车正向我们缓缓开来,右图是车辆的光流,它代表车辆在行驶过程中,每一帧图像的瞬时速度和方向。箭头的大小表示移动的瞬时速度,箭头的方向代表前进的目标方向。可以获取车辆每一帧的位置,对它进行跟踪。


相关定理:

(1)亮度恒定:同一点随着时间的变化,其亮度不发生变化。帧和帧之间的变化很快,亮度基本不变。

(2)小运动:随着时间的变化,不会引起位置的剧烈变化,只有小运动情况下才能用前后帧之间单位位置变化引起的灰度变化去近似灰度对位置的偏导数。

(3)空间一致:一个场景上临近的点投影到图像上也是临近点,且临近点速度一致。因为光流法基本方程约束只有一个,而要求x、y方向的速度,有两个未知变量,所以需要n多个方程去求解。


1.2 Lucas-Kanade 算法

用于描述前一帧和后一帧的变化,由于是一帧一帧的间隔,相当于后一帧减去前一帧。现在只剩x方向和y方向的速度u,v未知。

根据空间一致性定理,临近点速度一致,假如我再设一个方程组来求解u和v。设A点和B点临近,则有

现在就是两个未知数两个方程。

通常用一个窗口来求解方程,如果使用一个5*5的窗口,就有25对Ix,Iy ,2个未知数,使用最小二乘法。

在做光流估计时,输入数据应该是角点,一般图像上只有角点的数据是可逆的



步行轨迹跟踪


角点检测方法:cv.goodFeaturesToTrack()

参数:

image:输入图像,是八位的或者32位浮点型,单通道图像,所以有时候用灰度图

maxCorners:返回最大的角点数,是最有可能的角点数。如果这个参数不大于0,那么表示没有角点数的限制。按照角点强度降序排序,超过maxCorners的角点将被舍弃。

qualityLevel:品质因子。筛选角点,品质因子越大,特征值越大的越好,得到的角点越少。检测出的角点强度值小于品质因子的会被抛弃。


minDistance:返回的角点之间最小的欧式距离。在这个距离范围内判断哪个品质因子最好,只要这一个角点。

mask:检测区域。如果图像不是空的(它需要具有CV_8UC1类型和与图像相同的大小),它指定检测角的区域。


blockSize:是协方差矩阵滤波的窗口大小。

gradientSize:为sobel算子求微分的窗口的大小

useHarrisDetector:选择是否采用Harris角点检测,默认是false.

k:Harris检测的自由参数。


返回值:

corners:输出的角点坐标

Lucas-Kanade方法进行光流估计:cv2.calcOpticalFlowPyrLK()


参数:

prevlmage:前一帧图像

nextlmage:当前帧图像

prevPts:待跟踪的特征点向量

winSize:搜索窗口的大小

maxLevel:最大的金字塔层数


返回值:

nextPts:输出跟踪特征点向量

status:特征点是否找到,找到为1,没找到为0

import cv2
import numpy as np
#(1)获取数据
filepath = 'C:\\Users\\admin\\.spyder-py3\\test\\opencv\\img\\class'
video = cv2.VideoCapture(filepath + '\\test.avi')
# 获取第一帧图像
ret,frame_one = video.read()
gray_one = cv2.cvtColor(frame_one,cv2.COLOR_BGR2GRAY) #变成灰度图
# 角点检测,参数:输入图像,角点最大数量,品质因子,距离
p0 = cv2.goodFeaturesToTrack(gray_one, mask=None, maxCorners=100, qualityLevel=0.3, minDistance=7)

# 创建一个mask
mask = np.zeros_like(frame_one) # 全0的画板,size和第一帧图像一样大
# 轨迹线条颜色随机,[0,255)之间,输出size为(100,3),三列对应颜色BGR
color = np.random.randint(0,255,(100,3))

#(3)视频处理
while True:
   ret,frame = video.read() # 返回是否打开和每一帧的结果
   frame_gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
   # 光流估计,需要传入前一帧和当前图像以及前一帧检测到的角点
   # gray_one代表前一帧,frame_gray当前帧图像,p0前一帧的角点,winSize窗口大小,maxLevel金字塔层数
   p1,st,err = cv2.calcOpticalFlowPyrLK(gray_one, frame_gray, p0, None,winSize=(15,15),maxLevel=2)
   # p1返回角点,st有些角点找到了有些没找到,err错误状态,用不上
   
   # st==1  角点找到了
   best_new = p1[st==1] # 当前帧,所有找到的角点
   best_old = p0[st==1] # 前一帧的角点
   
   # 绘制轨迹
   for i,(new,old) in enumerate(zip(best_new,best_old)): # 返回角点的下标和值
       a,b = new.ravel()  # 拉成一维,a等于x列,b等于y列
       c,d = old.ravel()
       a,b,c,d = np.array([a,b,c,d]).astype('int32') #输入的数据类型是整型
       # 背景图mask,起点坐标(a,b),终点坐标(c,d),变成列表列格式tolist(),线宽为2
       mask = cv2.line(mask, (a,b), (c,d), (color[i].tolist()), 2)
       # 画板frame,圆心位置(a,b),圆半径5,'-1'代表实心圆
       frame = cv2.circle(frame,(a,b),5,color[i].tolist(),-1)
   # 图像叠加
   img = cv2.add(frame,mask)
   
   # 图像展示
   cv2.imshow('img',img)
   k = cv2.waitKey(150) & 0xff # 每张图停留150毫秒后消失
   if k == 27:  # ESC键退出
       break
   
   # 更新
   gray_one = frame_gray.copy() # 使下一次循环的前一帧变成当前帧图像
   p0 = best_new.reshape(-1,1,2) # -1的作用在于自动计算
# 释放资源
cv2.destroyAllWindows()
video.release()

使用该方法的一些缺陷:第一帧的角点被第二帧利用,也被后续的所有帧运用,如果在第一帧没有出现A同学,那么在后续的帧中A同学出现了,那么也不会跟踪,因为使用的是前几帧的角点。一旦经过障碍物,跟丢了。


留言 点赞 关注

我们一起分享AI学习与发展的干货


版权归原作者所有,如有侵权,请联系删除。



Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/168355
 
338 次点击