【轉(zhuǎn)載】https://www.cnblogs.com/arkenstone/p/8560846.html
進(jìn)行運(yùn)動(dòng)物體檢測(cè)就是將動(dòng)態(tài)的前景從靜態(tài)的背景中分離出來(lái)灵临。將當(dāng)前畫(huà)面與假設(shè)是靜態(tài)背景進(jìn)行比較發(fā)現(xiàn)有明顯的變化的區(qū)域滓侍,就可以認(rèn)為該區(qū)域出現(xiàn)移動(dòng)的物體痒筒。在實(shí)際情況中由于光照陰影等因素干擾比較大,通過(guò)像素直接進(jìn)行比較往往很容易造成誤檢巧涧。因此有不少算法被開(kāi)發(fā)出來(lái)在進(jìn)行前后景分離的時(shí)候?qū)\(yùn)動(dòng)和其他因素造成的變動(dòng)進(jìn)行區(qū)分。opencv中提供了多種背景減除的算法本冲,其中基于高斯混合模型(GMM)的cv2.BackgroundSubtractorMOG()和cv2.BackgroundSubtractorMOG2()已經(jīng)基于貝葉斯模型的cv2.bgsegm.createBackgroundSubtractorGMG()最為常用囊蓝。
1) GMM法
GMM進(jìn)行前后景分離最早是在2001年的文章An improved adaptive background mixture model for real-time tracking with shadow detection中提出的撤缴。其設(shè)計(jì)思路為:
在不知道圖像歷史的時(shí)候刹枉,假設(shè)每個(gè)像素點(diǎn)的值都是可以分解為一組adaptive Gaussian。adaptive是由于需要跟隨光照條件的變化而變化屈呕。
像素值的歷史由一組高斯分布進(jìn)行建模微宝,包括每個(gè)分布的權(quán)重。
每次新圖像輸入的時(shí)候都會(huì)用這一組高斯分布進(jìn)行評(píng)估虎眨,如果像素匹配上其中一個(gè)分布就會(huì)認(rèn)為這個(gè)像素屬于背景蟋软,而高斯分布的均值和方差等參數(shù)會(huì)用當(dāng)前像素的值進(jìn)行更新。
標(biāo)記為前景的像素通過(guò)connected component analysis進(jìn)行分組嗽桩。
opencv的cv2.BackgroundSubtractorMOG()的函數(shù)就是對(duì)次方法的實(shí)現(xiàn)岳守。
基于2004年提出的Improved adaptive Gausian mixture model for background subtractio和2006年提出的Efficient Adaptive Density Estimation per Image Pixel for the Task of Background Subtraction算法對(duì)上述GMM算法進(jìn)行改良的就是opencv的cv2.BackgroundSubtractorMOG2()的函數(shù)。主要的提升是對(duì)每個(gè)像素都選擇合適數(shù)量的高斯分布而非原來(lái)的全部相同的個(gè)數(shù)碌冶。此外湿痢,這個(gè)函數(shù)還允許是否檢測(cè)陰影。
使用方法(以MOG2為例)
import cv2
cam = cv2.VideoCapture(0)
fgbg = cv2.createBackgroundSubtractorMOG()while cam.isOpened():
? ? ret, frame = cam.read()
? ? if ret:
? ? ? ? fgmask = fgbg.apply(frame)
? ? ? ? # 通過(guò)腐蝕和膨脹過(guò)濾一些噪聲? ? ? ? erode = cv2.erode(fgmask, (21, 21), iterations=1)
? ? ? ? dilate = cv2.dilate(fgmask, (21, 21), iterations=1)
? ? ? ? (_, cnts, _) = cv2.findContours(dilate.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
? ? ? ? for c in cnts:
? ? ? ? ? ? c_area = cv2.contourArea(c)
? ? ? ? ? ? if c_area < 1600 or c_area > 16000:? # 過(guò)濾太小或太大的運(yùn)動(dòng)物體扑庞,這類誤檢概率比較高? ? ? ? ? ? ? ? continue? ? ? ? ? ? (x, y, w, h) = cv2.boundingRect(c)
? ? ? ? ? ? cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 0, 255), 2)
? ? ? ? cv2.imshow("origin", frame)
? ? ? ? if cv2.waitKey(1) == ord('q'):
? ? ? ? ? ? breakcv2.destroyAllWindows()
2)GMG法
根據(jù)2012年的文章Visual Tracking of Human Visitors under Variable-Lighting Conditions for a Responsive Audio Art Installation譬重, opencv開(kāi)發(fā)了相應(yīng)的函數(shù)cv2.bgsegm.createBackgroundSubtractorGMG()?(好像在3.2中被放到了contrib中,在之前可以直接用cv2.createBackgroundSubtractorGMG()進(jìn)行調(diào)用)罐氨。這個(gè)方法默認(rèn)使用前120張圖片進(jìn)行背景的建模臀规,并使用概率前景分割算法找到可能的前景(基于貝葉斯推測(cè))。為了更好適應(yīng)不同光照變化的影響栅隐,新的圖片的權(quán)重比舊圖片要高塔嬉。
使用方法
cam = cv2.VideoCapture(0)
kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (8, 8))
fgbg = cv2.bgsegm.createBackgroundSubtractorGMG(initializationFrames=10)while cam.isOpened():
? ? ret, frame = cam.read()
? ? if ret:
? ? ? ? fgmask = fgbg.apply(frame)
? ? ? ? fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel)? # 過(guò)濾噪聲? ? ? ? (_, cnts, _) = cv2.findContours(dilate.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
? ? ? ? for c in cnts:
? ? ? ? ? ? c_area = cv2.contourArea(c)
? ? ? ? ? ? if c_area < 1600 or c_area > 16000:? # 過(guò)濾太小或太大的運(yùn)動(dòng)物體,這類誤檢概率比較高? ? ? ? ? ? ? ? continue? ? ? ? ? ? (x, y, w, h) = cv2.boundingRect(c)
? ? ? ? ? ? cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 0, 255), 2)
? ? ? ? cv2.imshow("origin", frame)
? ? ? ? if cv2.waitKey(1) == ord('q'):
? ? ? ? ? ? breakcv2.destroyAllWindows()
參考:
https://docs.opencv.org/3.0-beta/doc/py_tutorials/py_video/py_bg_subtraction/py_bg_subtraction.html
http://android4arduino.com/computer-vision/motion-detection/
https://www.pyimagesearch.com/2015/05/25/basic-motion-detection-and-tracking-with-python-and-opencv/