溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么用Python獲取攝像頭并實時控制人臉

發(fā)布時間:2021-04-21 09:59:33 來源:億速云 閱讀:169 作者:小新 欄目:開發(fā)技術(shù)

小編給大家分享一下怎么用Python獲取攝像頭并實時控制人臉,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!

python可以做什么

Python是一種編程語言,內(nèi)置了許多有效的工具,Python幾乎無所不能,該語言通俗易懂、容易入門、功能強大,在許多領(lǐng)域中都有廣泛的應(yīng)用,例如最熱門的大數(shù)據(jù)分析,人工智能,Web開發(fā)等。

實現(xiàn)流程

從攝像頭獲取視頻流,并轉(zhuǎn)換為一幀一幀的圖像,然后將圖像信息傳遞給opencv這個工具庫處理,返回灰度圖像(就像你使用本地靜態(tài)圖片一樣)

程序啟動后,根據(jù)監(jiān)聽器信息,使用一個while循環(huán),不斷的加載視頻圖像,然后返回給opencv工具呈現(xiàn)圖像信息。

創(chuàng)建一個鍵盤事件監(jiān)聽,按下"d"鍵,則開始執(zhí)行面部匹配,并進行面具加載(這個過程是動態(tài)的,你可以隨時移動)。

面部匹配使用Dlib中的人臉檢測算法來查看是否有人臉存在。如果有,它將為每個人臉創(chuàng)建一個結(jié)束位置,眼鏡和煙卷會移動到那里結(jié)束。

然后我們需要縮放和旋轉(zhuǎn)我們的眼鏡以適合每個人的臉。我們將使用從Dlib的68點模型返回的點集來找到眼睛和嘴巴的中心,并為它們之間的空間旋轉(zhuǎn)。

在我們實時獲取眼鏡和煙卷的最終位置后,眼鏡和煙卷從屏幕頂部進入,開始匹配你的眼鏡和嘴巴。

假如沒有人臉,程序會直接返回你的視頻信息,不會有面具移動的效果。

默認一個周期是4秒鐘。然后你可以通過"d"鍵再次檢測。

程序退出使用"q"鍵。

這里我將這個功能抽象成一個面具加載服務(wù),請跟隨我的代碼一窺究竟吧。

1.導(dǎo)入對應(yīng)的工具包

from time import sleep

import cv2
import numpy as np
from PIL import Image
from imutils import face_utils, resize

try:
  from dlib import get_frontal_face_detector, shape_predictor
except ImportError:
  raise

創(chuàng)建面具加載服務(wù)類DynamicStreamMaskService及其對應(yīng)的初始化屬性: 

class DynamicStreamMaskService(object):
  """
  動態(tài)黏貼面具服務(wù)
  """

  def __init__(self, saved=False):
    self.saved = saved # 是否保存圖片
    self.listener = True # 啟動參數(shù)
    self.video_capture = cv2.VideoCapture(0) # 調(diào)用本地攝像頭
    self.doing = False # 是否進行面部面具
    self.speed = 0.1 # 面具移動速度
    self.detector = get_frontal_face_detector() # 面部識別器
    self.predictor = shape_predictor("shape_predictor_68_face_landmarks.dat") # 面部分析器
    self.fps = 4 # 面具存在時間基礎(chǔ)時間
    self.animation_time = 0 # 動畫周期初始值
    self.duration = self.fps * 4 # 動畫周期最大值
    self.fixed_time = 4 # 畫圖之后,停留時間
    self.max_width = 500 # 圖像大小
    self.deal, self.text, self.cigarette = None, None, None # 面具對象

按照上面介紹,我們先實現(xiàn)讀取視頻流轉(zhuǎn)換圖片的函數(shù): 

def read_data(self):
  """
  從攝像頭獲取視頻流,并轉(zhuǎn)換為一幀一幀的圖像
  :return: 返回一幀一幀的圖像信息
  """
  _, data = self.video_capture.read()
  return data

接下來我們實現(xiàn)人臉定位函數(shù),及眼鏡和煙卷的定位: 

def get_glasses_info(self, face_shape, face_width):
  """
  獲取當(dāng)前面部的眼鏡信息
  :param face_shape:
  :param face_width:
  :return:
  """
  left_eye = face_shape[36:42]
  right_eye = face_shape[42:48]

  left_eye_center = left_eye.mean(axis=0).astype("int")
  right_eye_center = right_eye.mean(axis=0).astype("int")

  y = left_eye_center[1] - right_eye_center[1]
  x = left_eye_center[0] - right_eye_center[0]
  eye_angle = np.rad2deg(np.arctan2(y, x))

  deal = self.deal.resize(
    (face_width, int(face_width * self.deal.size[1] / self.deal.size[0])),
    resample=Image.LANCZOS)

  deal = deal.rotate(eye_angle, expand=True)
  deal = deal.transpose(Image.FLIP_TOP_BOTTOM)

  left_eye_x = left_eye[0, 0] - face_width // 4
  left_eye_y = left_eye[0, 1] - face_width // 6

  return {"image": deal, "pos": (left_eye_x, left_eye_y)}

def get_cigarette_info(self, face_shape, face_width):
  """
  獲取當(dāng)前面部的煙卷信息
  :param face_shape:
  :param face_width:
  :return:
  """
  mouth = face_shape[49:68]
  mouth_center = mouth.mean(axis=0).astype("int")
  cigarette = self.cigarette.resize(
    (face_width, int(face_width * self.cigarette.size[1] / self.cigarette.size[0])),
    resample=Image.LANCZOS)
  x = mouth[0, 0] - face_width + int(16 * face_width / self.cigarette.size[0])
  y = mouth_center[1]
  return {"image": cigarette, "pos": (x, y)}

def orientation(self, rects, img_gray):
  """
  人臉定位
  :return:
  """
  faces = []
  for rect in rects:
    face = {}
    face_shades_width = rect.right() - rect.left()
    predictor_shape = self.predictor(img_gray, rect)
    face_shape = face_utils.shape_to_np(predictor_shape)
    face['cigarette'] = self.get_cigarette_info(face_shape, face_shades_width)
    face['glasses'] = self.get_glasses_info(face_shape, face_shades_width)

    faces.append(face)

  return faces

剛才我們提到了鍵盤監(jiān)聽事件,這里我們實現(xiàn)一下這個函數(shù): 

def listener_keys(self):
  """
  設(shè)置鍵盤監(jiān)聽事件
  :return:
  """
  key = cv2.waitKey(1) & 0xFF
  if key == ord("q"):
    self.listener = False
    self.console("程序退出")
    sleep(1)
    self.exit()

  if key == ord("d"):
    self.doing = not self.doing

接下來我們來實現(xiàn)加載面具信息的函數(shù): 

def init_mask(self):
  """
  加載面具
  :return:
  """
  self.console("加載面具...")
  self.deal, self.text, self.cigarette = (
    Image.open(x) for x in ["images/deals.png", "images/text.png", "images/cigarette.png"]
  )

上面基本的功能都實現(xiàn)了,我們該實現(xiàn)畫圖函數(shù)了,這個函數(shù)原理和之前我寫的那篇用AI人臉識別技術(shù)實現(xiàn)抖音特效實現(xiàn)是一樣的,這里我就不贅述了,可以去github或Python中文社區(qū)微信公眾號查看。

def drawing(self, draw_img, faces):
  """
  畫圖
  :param draw_img:
  :param faces:
  :return:
  """
  for face in faces:
    if self.animation_time < self.duration - self.fixed_time:
      current_x = int(face["glasses"]["pos"][0])
      current_y = int(face["glasses"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time))
      draw_img.paste(face["glasses"]["image"], (current_x, current_y), face["glasses"]["image"])

      cigarette_x = int(face["cigarette"]["pos"][0])
      cigarette_y = int(face["cigarette"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time))
      draw_img.paste(face["cigarette"]["image"], (cigarette_x, cigarette_y),
              face["cigarette"]["image"])
    else:
      draw_img.paste(face["glasses"]["image"], face["glasses"]["pos"], face["glasses"]["image"])
      draw_img.paste(face["cigarette"]["image"], face["cigarette"]["pos"], face["cigarette"]["image"])
      draw_img.paste(self.text, (75, draw_img.height // 2 + 128), self.text)

既然是一個服務(wù)類,那該有啟動與退出函數(shù)吧,最后我們來寫一下吧。

簡單介紹一下這個start()函數(shù), 啟動后根據(jù)初始化監(jiān)聽信息,不斷監(jiān)聽視頻流,并將流信息通過opencv轉(zhuǎn)換成圖像展示出來。
并且調(diào)用按鍵監(jiān)聽函數(shù),不斷的監(jiān)聽你是否按下"d"鍵進行面具加載,如果監(jiān)聽成功,則進行圖像人臉檢測,并移動面具,
并持續(xù)一個周期的時間結(jié)束,面具此時會根據(jù)你的面部移動而移動。最終呈現(xiàn)文章頂部圖片的效果.

def start(self):
  """
  啟動程序
  :return:
  """
  self.console("程序啟動成功.")
  self.init_mask()
  while self.listener:
    frame = self.read_data()
    frame = resize(frame, width=self.max_width)
    img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
    rects = self.detector(img_gray, 0)
    faces = self.orientation(rects, img_gray)
    draw_img = Image.fromarray(cv2.cvtColor(frame, cv2.COLOR_BGR2RGB))
    if self.doing:
      self.drawing(draw_img, faces)
      self.animation_time += self.speed
      self.save_data(draw_img)
      if self.animation_time > self.duration:
        self.doing = False
        self.animation_time = 0
      else:
        frame = cv2.cvtColor(np.asarray(draw_img), cv2.COLOR_RGB2BGR)
    cv2.imshow("hello mask", frame)
    self.listener_keys()

def exit(self):
  """
  程序退出
  :return:
  """
  self.video_capture.release()
  cv2.destroyAllWindows()

最后,讓我們試試:

if __name__ == '__main__':
  ms = DynamicStreamMaskService()
  ms.start()

看完了這篇文章,相信你對“怎么用Python獲取攝像頭并實時控制人臉”有了一定的了解,如果想了解更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI