您好,登錄后才能下訂單哦!
小編給大家分享一下怎么用Python獲取攝像頭并實時控制人臉,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!
Python是一種編程語言,內(nèi)置了許多有效的工具,Python幾乎無所不能,該語言通俗易懂、容易入門、功能強大,在許多領(lǐng)域中都有廣泛的應(yīng)用,例如最熱門的大數(shù)據(jù)分析,人工智能,Web開發(fā)等。
實現(xiàn)流程
從攝像頭獲取視頻流,并轉(zhuǎn)換為一幀一幀的圖像,然后將圖像信息傳遞給opencv這個工具庫處理,返回灰度圖像(就像你使用本地靜態(tài)圖片一樣)
程序啟動后,根據(jù)監(jiān)聽器信息,使用一個while循環(huán),不斷的加載視頻圖像,然后返回給opencv工具呈現(xiàn)圖像信息。
創(chuàng)建一個鍵盤事件監(jiān)聽,按下"d"鍵,則開始執(zhí)行面部匹配,并進行面具加載(這個過程是動態(tài)的,你可以隨時移動)。
面部匹配使用Dlib中的人臉檢測算法來查看是否有人臉存在。如果有,它將為每個人臉創(chuàng)建一個結(jié)束位置,眼鏡和煙卷會移動到那里結(jié)束。
然后我們需要縮放和旋轉(zhuǎn)我們的眼鏡以適合每個人的臉。我們將使用從Dlib的68點模型返回的點集來找到眼睛和嘴巴的中心,并為它們之間的空間旋轉(zhuǎn)。
在我們實時獲取眼鏡和煙卷的最終位置后,眼鏡和煙卷從屏幕頂部進入,開始匹配你的眼鏡和嘴巴。
假如沒有人臉,程序會直接返回你的視頻信息,不會有面具移動的效果。
默認一個周期是4秒鐘。然后你可以通過"d"鍵再次檢測。
程序退出使用"q"鍵。
這里我將這個功能抽象成一個面具加載服務(wù),請跟隨我的代碼一窺究竟吧。
1.導(dǎo)入對應(yīng)的工具包
from time import sleep import cv2 import numpy as np from PIL import Image from imutils import face_utils, resize try: from dlib import get_frontal_face_detector, shape_predictor except ImportError: raise
創(chuàng)建面具加載服務(wù)類DynamicStreamMaskService及其對應(yīng)的初始化屬性:
class DynamicStreamMaskService(object): """ 動態(tài)黏貼面具服務(wù) """ def __init__(self, saved=False): self.saved = saved # 是否保存圖片 self.listener = True # 啟動參數(shù) self.video_capture = cv2.VideoCapture(0) # 調(diào)用本地攝像頭 self.doing = False # 是否進行面部面具 self.speed = 0.1 # 面具移動速度 self.detector = get_frontal_face_detector() # 面部識別器 self.predictor = shape_predictor("shape_predictor_68_face_landmarks.dat") # 面部分析器 self.fps = 4 # 面具存在時間基礎(chǔ)時間 self.animation_time = 0 # 動畫周期初始值 self.duration = self.fps * 4 # 動畫周期最大值 self.fixed_time = 4 # 畫圖之后,停留時間 self.max_width = 500 # 圖像大小 self.deal, self.text, self.cigarette = None, None, None # 面具對象
按照上面介紹,我們先實現(xiàn)讀取視頻流轉(zhuǎn)換圖片的函數(shù):
def read_data(self): """ 從攝像頭獲取視頻流,并轉(zhuǎn)換為一幀一幀的圖像 :return: 返回一幀一幀的圖像信息 """ _, data = self.video_capture.read() return data
接下來我們實現(xiàn)人臉定位函數(shù),及眼鏡和煙卷的定位:
def get_glasses_info(self, face_shape, face_width): """ 獲取當(dāng)前面部的眼鏡信息 :param face_shape: :param face_width: :return: """ left_eye = face_shape[36:42] right_eye = face_shape[42:48] left_eye_center = left_eye.mean(axis=0).astype("int") right_eye_center = right_eye.mean(axis=0).astype("int") y = left_eye_center[1] - right_eye_center[1] x = left_eye_center[0] - right_eye_center[0] eye_angle = np.rad2deg(np.arctan2(y, x)) deal = self.deal.resize( (face_width, int(face_width * self.deal.size[1] / self.deal.size[0])), resample=Image.LANCZOS) deal = deal.rotate(eye_angle, expand=True) deal = deal.transpose(Image.FLIP_TOP_BOTTOM) left_eye_x = left_eye[0, 0] - face_width // 4 left_eye_y = left_eye[0, 1] - face_width // 6 return {"image": deal, "pos": (left_eye_x, left_eye_y)} def get_cigarette_info(self, face_shape, face_width): """ 獲取當(dāng)前面部的煙卷信息 :param face_shape: :param face_width: :return: """ mouth = face_shape[49:68] mouth_center = mouth.mean(axis=0).astype("int") cigarette = self.cigarette.resize( (face_width, int(face_width * self.cigarette.size[1] / self.cigarette.size[0])), resample=Image.LANCZOS) x = mouth[0, 0] - face_width + int(16 * face_width / self.cigarette.size[0]) y = mouth_center[1] return {"image": cigarette, "pos": (x, y)} def orientation(self, rects, img_gray): """ 人臉定位 :return: """ faces = [] for rect in rects: face = {} face_shades_width = rect.right() - rect.left() predictor_shape = self.predictor(img_gray, rect) face_shape = face_utils.shape_to_np(predictor_shape) face['cigarette'] = self.get_cigarette_info(face_shape, face_shades_width) face['glasses'] = self.get_glasses_info(face_shape, face_shades_width) faces.append(face) return faces
剛才我們提到了鍵盤監(jiān)聽事件,這里我們實現(xiàn)一下這個函數(shù):
def listener_keys(self): """ 設(shè)置鍵盤監(jiān)聽事件 :return: """ key = cv2.waitKey(1) & 0xFF if key == ord("q"): self.listener = False self.console("程序退出") sleep(1) self.exit() if key == ord("d"): self.doing = not self.doing
接下來我們來實現(xiàn)加載面具信息的函數(shù):
def init_mask(self): """ 加載面具 :return: """ self.console("加載面具...") self.deal, self.text, self.cigarette = ( Image.open(x) for x in ["images/deals.png", "images/text.png", "images/cigarette.png"] )
上面基本的功能都實現(xiàn)了,我們該實現(xiàn)畫圖函數(shù)了,這個函數(shù)原理和之前我寫的那篇用AI人臉識別技術(shù)實現(xiàn)抖音特效實現(xiàn)是一樣的,這里我就不贅述了,可以去github或Python中文社區(qū)微信公眾號查看。
def drawing(self, draw_img, faces): """ 畫圖 :param draw_img: :param faces: :return: """ for face in faces: if self.animation_time < self.duration - self.fixed_time: current_x = int(face["glasses"]["pos"][0]) current_y = int(face["glasses"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time)) draw_img.paste(face["glasses"]["image"], (current_x, current_y), face["glasses"]["image"]) cigarette_x = int(face["cigarette"]["pos"][0]) cigarette_y = int(face["cigarette"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time)) draw_img.paste(face["cigarette"]["image"], (cigarette_x, cigarette_y), face["cigarette"]["image"]) else: draw_img.paste(face["glasses"]["image"], face["glasses"]["pos"], face["glasses"]["image"]) draw_img.paste(face["cigarette"]["image"], face["cigarette"]["pos"], face["cigarette"]["image"]) draw_img.paste(self.text, (75, draw_img.height // 2 + 128), self.text)
既然是一個服務(wù)類,那該有啟動與退出函數(shù)吧,最后我們來寫一下吧。
簡單介紹一下這個start()函數(shù), 啟動后根據(jù)初始化監(jiān)聽信息,不斷監(jiān)聽視頻流,并將流信息通過opencv轉(zhuǎn)換成圖像展示出來。
并且調(diào)用按鍵監(jiān)聽函數(shù),不斷的監(jiān)聽你是否按下"d"鍵進行面具加載,如果監(jiān)聽成功,則進行圖像人臉檢測,并移動面具,
并持續(xù)一個周期的時間結(jié)束,面具此時會根據(jù)你的面部移動而移動。最終呈現(xiàn)文章頂部圖片的效果.
def start(self): """ 啟動程序 :return: """ self.console("程序啟動成功.") self.init_mask() while self.listener: frame = self.read_data() frame = resize(frame, width=self.max_width) img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) rects = self.detector(img_gray, 0) faces = self.orientation(rects, img_gray) draw_img = Image.fromarray(cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)) if self.doing: self.drawing(draw_img, faces) self.animation_time += self.speed self.save_data(draw_img) if self.animation_time > self.duration: self.doing = False self.animation_time = 0 else: frame = cv2.cvtColor(np.asarray(draw_img), cv2.COLOR_RGB2BGR) cv2.imshow("hello mask", frame) self.listener_keys() def exit(self): """ 程序退出 :return: """ self.video_capture.release() cv2.destroyAllWindows()
最后,讓我們試試:
if __name__ == '__main__': ms = DynamicStreamMaskService() ms.start()
看完了這篇文章,相信你對“怎么用Python獲取攝像頭并實時控制人臉”有了一定的了解,如果想了解更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。