1.使用opencv打開攝像頭
import cv2 as cv
def video_demo():
#0是代表攝像頭編號,只有一個的話默認(rèn)為0
capture=cv.VideoCapture(0)
if not cap.isOpened():
print("Cannot open camera")
exit()
while(True):
ref,frame=capture.read()
cv.imshow("1",frame)
#等待30ms顯示圖像跃惫,若過程中按“Esc”退出
c= cv.waitKey(30) & 0xff
if c==27:
capture.release()
break
video_demo()
cv.destroyAllWindows()
cv.VideoCapture(0)
:讀取視頻压昼,當(dāng)輸入為0時默認(rèn)打開的是電腦攝像頭,也可以如輸入視頻文件的路徑癌淮。
capture.read()
: 返回兩個值ref
和frame
竟稳,前者為True
或False
表示有沒有讀取到圖片属桦,后者參數(shù)表示截取到的每一張圖片。
cv.inshow('name', frame)
:顯示圖片他爸,沒有返回值聂宾,第一個參數(shù)為窗口的名稱,第二個參數(shù)為要顯示的圖片诊笤。
cv.waitKey(30) & 0xff
: cv.waitKey(delay)函數(shù)如果delay為0就沒有返回值系谐,如果delay大于0,如果有按鍵就返回按鍵值讨跟,如果沒有按鍵就在delay秒后返回-1纪他,0xff的ASCII碼為1111 1111,任何數(shù)與它&操作都等于它本身晾匠。Esc
按鍵的ASCII碼為27茶袒,所以當(dāng)c==27時,攝像頭釋放凉馆。更多關(guān)于函數(shù)的解釋可以參考博客薪寓。(我有點沒明白的是,如果沒有按鍵返回-1與0xff進(jìn)行&運(yùn)算會是什么結(jié)果澜共,我試了一下在30s前后按Esc都沒有區(qū)別向叉,30s后攝像頭也不會自動釋放,所以不太明白這個delay30s的用意是在哪里咳胃。)
cv.destroyAllWindows()
: 清除所有方框界面
2.基于opencv搭建yolov3模型進(jìn)行目標(biāo)檢測
opencv的cv2.dnn
模塊已經(jīng)搭建好了yolov3模型植康,我們只需調(diào)用其模型就可以旷太,這里參考了一篇博客的代碼展懈,我在這里只做了簡單的注釋销睁,yolov3的模型與參數(shù)也可以去原博客下載。在這里不做贅述存崖。
import numpy as np
import cv2
import os
import time
def video_demo():
# 加載已經(jīng)訓(xùn)練好的模型路徑冻记,可以是絕對路徑或者相對路徑
weightsPath = "YOLOv3/yolov3.weights"
configPath = "YOLOv3/yolov3.cfg"
labelsPath = "YOLOv3/coco.names"
# 初始化一些參數(shù)
LABELS = open(labelsPath).read().strip().split("\n") # 物體類別
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype="uint8") # 顏色
boxes = []
confidences = []
classIDs = []
net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)
# 讀入待檢測的圖像
# 0是代表攝像頭編號,只有一個的話默認(rèn)為0
capture = cv2.VideoCapture(0)
while (True):
ref, image = capture.read()
(H, W) = image.shape[:2] # 讀取圖像的長和寬
# 得到 YOLO需要的輸出層
ln = net.getLayerNames()
ln = [ln[i[0] - 1] for i in net.getUnconnectedOutLayers()]
# 從輸入圖像構(gòu)造一個blob来惧,然后通過加載的模型冗栗,給我們提供邊界框和相關(guān)概率
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416), swapRB=True, crop=False)
net.setInput(blob)
layerOutputs = net.forward(ln)
# 在每層輸出上循環(huán)
for output in layerOutputs:
# 對每個檢測進(jìn)行循環(huán)
for detection in output:
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]
# 過濾掉那些置信度較小的檢測結(jié)果
if confidence > 0.5:
# 框后接框的寬度和高度
box = detection[0:4] * np.array([W, H, W, H])
(centerX, centerY, width, height) = box.astype("int")
# 邊框的左上角
x = int(centerX - (width / 2))
y = int(centerY - (height / 2))
# 更新檢測出來的框
boxes.append([x, y, int(width), int(height)])
confidences.append(float(confidence))
classIDs.append(classID)
# 極大值抑制
idxs = cv2.dnn.NMSBoxes(boxes, confidences, 0.2, 0.3)
if len(idxs) > 0:
for i in idxs.flatten():
(x, y) = (boxes[i][0], boxes[i][1])
(w, h) = (boxes[i][2], boxes[i][3])
# 在原圖上繪制邊框和類別
color = [int(c) for c in COLORS[classIDs[i]]]
cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
text = "{}: {:.4f}".format(LABELS[classIDs[i]], confidences[i])
cv2.putText(image, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
cv2.imshow("Image", image)
#等待30ms顯示圖像,若過程中按“ESC”退出
c = cv2.waitKey(30) & 0xff
if c == 27:
capture.release()
break
video_demo()