溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別

發(fā)布時間:2021-12-15 18:10:07 來源:億速云 閱讀:151 作者:柒染 欄目:大數(shù)據(jù)

怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別,針對這個問題,這篇文章詳細介紹了相對應(yīng)的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

越來越多的應(yīng)用程序與年齡和性別的自動分類相關(guān),特別是自從社交平臺和社交媒體興起以來。盡管如此,現(xiàn)有的方法在真實圖像上的性能仍然明顯不足,特別是與最近報道的與人臉識別相關(guān)的任務(wù)在性能上的巨大飛躍相比。——使用卷積神經(jīng)網(wǎng)絡(luò)進行年齡和性別分類(https://talhassner.github.io/home/publication/2015_CVPR)

介紹

年齡和性別是人臉的兩個重要屬性,在社會交往中起著非?;A(chǔ)的作用,使得從單個人臉圖像中估計年齡和性別成為智能應(yīng)用中的一項重要任務(wù),如訪問控制、人機交互、執(zhí)法、營銷智能以及視覺監(jiān)控等。

真實世界用例

怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別

最近我遇到了Quividi,它是一個人工智能軟件應(yīng)用程序,用于根據(jù)在線人臉分析檢測經(jīng)過的用戶的年齡和性別,并根據(jù)目標(biāo)受眾自動開始播放廣告。

另一個例子可能是AgeBot,它是一個Android應(yīng)用程序,通過人臉識別從照片中確定你的年齡。它可以猜測你的年齡和性別,同時也可以在一張照片中找到多張臉,并估計每張臉的年齡。

受上述用例的啟發(fā),我們將在本文中構(gòu)建一個簡單的年齡和性別檢測模型。所以讓我們從我們的用例開始:

用例——我們將做一些人臉識別,人臉檢測的工作,而且,我們將使用CNN(卷積神經(jīng)網(wǎng)絡(luò))從youtube視頻中預(yù)測年齡和性別,只要視頻URL是可以用的,你就不需要下載視頻。有趣的部分是CNN在視頻網(wǎng)址上用于年齡和性別預(yù)測。

要求: pip install OpenCV-python numpy pip install pafy pip install youtube_dl(了解更多關(guān)于youtube-dl的信息:https://rg3.github.io/youtube-dl/)

pafy:pafy庫用于檢索YouTube內(nèi)容和元數(shù)據(jù)(如標(biāo)題、分級、觀看次數(shù)、持續(xù)時間、分級、作者、縮略圖、關(guān)鍵字等)。更多有關(guān)pafy,點擊網(wǎng)址:https://pypi.org/project/pafy/

讓我們檢查一個樣本:

import pafy
url = 'https://www.youtube.com/watch?v=c07IsbSNqfI&feature=youtu.be'
vPafy = pafy.new(url)
print vPafy.title
print vPafy.rating
print vPafy.viewcount
print vPafy.author
print vPafy.length
print vPafy.description
Testing file uploads with Postman (multipart/form-data)
4.87096786499
11478
Valentin Despa
1688
?????? ???? Check my online course on Postman. Get it for only $10 (limited supply):
https://www.udemy.com/postman-the-complete-guide/?couponCode=YOUTUBE10
I will show you how to debug an upload script and demonstrate it with a tool that can make requests encoded as "multipart/form-data" so that you can send also a file.
After this, we will go even further and write tests and begin automating the process.
Here is the Git repository containing the files used for this tutorial:
https://github.com/vdespa/postman-testing-file-uploads

要遵循的步驟:

  1. 從YouTube獲取視頻URL。

  2. 使用Haar級聯(lián)的人臉檢測

  3. CNN的性別識別

  4. CNN的年齡識別

1.從YouTube獲取視頻網(wǎng)址:

獲取Youtube視頻URL并嘗試使用pafy獲取視頻的屬性,如上所述。

2. 使用Haar級聯(lián)人臉檢測:

這是我們大多數(shù)人至少聽說過的一部分。OpenCV/JavaCV提供了直接的方法來導(dǎo)入Haar級聯(lián)并使用它們來檢測人臉。我不會深入解釋這一部分。你們可以參考我之前的文章來了解更多關(guān)于使用OpenCV進行人臉檢測的信息。

  • 文章地址:https://medium.com/analytics-vidhya/how-to-build-a-face-detection-model-in-python-8dc9cecadfe9

3. CNN的性別識別:

使用OpenCV的fisherfaces實現(xiàn)的性別識別非常流行,你們中的一些人可能也嘗試過或閱讀過它。但是,在這個例子中,我將使用不同的方法來識別性別。2015年,以色列兩名研究人員Gil Levi和Tal Hassner引入了這種方法。我在這個例子中使用了他們訓(xùn)練的CNN模型。我們將使用OpenCV的dnn包,它代表“深度神經(jīng)網(wǎng)絡(luò)”。

在dnn包中,OpenCV提供了一個名為Net的類,可以用來填充神經(jīng)網(wǎng)絡(luò)。此外,這些軟件包還支持從知名的深度學(xué)習(xí)框架(如caffe、tensorflow和torch)導(dǎo)入神經(jīng)網(wǎng)絡(luò)模型。我前面提到的研究人員已經(jīng)將他們的CNN模型發(fā)布為caffe模型。因此,我們將使用CaffeImporter將該模型導(dǎo)入到我們的應(yīng)用程序中。

4. CNN的年齡識別 這與性別識別部分很相似,只是對應(yīng)的prototxt文件和caffe模型文件是"deploy_agenet.prototxt"和”age_net.caffemodel”. 此外,CNN在該CNN中的輸出層(概率層)由8個年齡層的8個值組成(“0-2”、“4-6”、“8-13”、“15-20”、“25-32”、“38-43”、“48-53”和“60-”)

Caffe模型具有2個相關(guān)文件,

1. prototxt: 這里是CNN的定義。這個文件定義了神經(jīng)網(wǎng)絡(luò)的各個層,每個層的輸入、輸出和函數(shù)。

2. caffemodel: 包含訓(xùn)練神經(jīng)網(wǎng)絡(luò)(訓(xùn)練模型)的信息。

從這里(https://talhassner.github.io/home/publication/2015_CVPR) 下載.prtoxt和.caffemodel。

從這里(https://github.com/opencv/opencv/blob/master/data/haarcascades/haarcascade_frontalface_default.xml) 下載用于人臉檢測的haar級聯(lián)。

讓我們開始編碼我們的模型吧。

源代碼:

import cv2
import numpy as np
import pafy
#url of the video to predict Age and gender
url = 'https://www.youtube.com/watch?v=c07IsbSNqfI&feature=youtu.be'
vPafy = pafy.new(url)
play = vPafy.getbest(preftype="mp4") 
cap = cv2.VideoCapture(play.url)

cap.set(3, 480) #set width of the frame
cap.set(4, 640) #set height of the frame
MODEL_MEAN_VALUES = (78.4263377603, 87.7689143744, 114.895847746)
age_list = ['(0, 2)', '(4, 6)', '(8, 12)', '(15, 20)', '(25, 32)', '(38, 43)', '(48, 53)', '(60, 100)']
gender_list = ['Male', 'Female']
def load_caffe_models():
 
 age_net = cv2.dnn.readNetFromCaffe('deploy_age.prototxt', 'age_net.caffemodel')
gender_net = cv2.dnn.readNetFromCaffe('deploy_gender.prototxt', 'gender_net.caffemodel')
return(age_net, gender_net)
def video_detector(age_net, gender_net):
  font = cv2.FONT_HERSHEY_SIMPLEX
while True:
  ret, image = cap.read()
       
  face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_alt.xml')
 
  gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
  faces = face_cascade.detectMultiScale(gray, 1.1, 5)
if(len(faces)>0):
   print("Found {} faces".format(str(len(faces))))
for (x, y, w, h )in faces:
   cv2.rectangle(image, (x, y), (x+w, y+h), (255, 255, 0), 2)
#Get Face 
   face_img = image[y:y+h, h:h+w].copy()
   blob = cv2.dnn.blobFromImage(face_img, 1, (227, 227), MODEL_MEAN_VALUES, swapRB=False)
#Predict Gender
   gender_net.setInput(blob)
   gender_preds = gender_net.forward()
   gender = gender_list[gender_preds[0].argmax()]
   print("Gender : " + gender)
#Predict Age
   age_net.setInput(blob)
   age_preds = age_net.forward()
   age = age_list[age_preds[0].argmax()]
   print("Age Range: " + age)
overlay_text = "%s %s" % (gender, age)
   cv2.putText(image, overlay_text, (x, y), font, 1, (255, 255, 255), 2, cv2.LINE_AA)
cv2.imshow('frame', image)  
#0xFF is a hexadecimal constant which is 11111111 in binary.
if cv2.waitKey(1) & 0xFF == ord('q'): 
   break
if __name__ == "__main__":
age_net, gender_net = load_caffe_models()
video_detector(age_net, gender_net)

現(xiàn)在讓我們一起來理解代碼:

步驟1:導(dǎo)入所有必需的庫。

import cv2
import numpy as np
import pafy

步驟2:獲取Youtube視頻URL并創(chuàng)建一個對象“play”,該對象包含webm/mp4格式的視頻的最佳分辨率。

url = 'https://www.youtube.com/watch?v=c07IsbSNqfI&feature=youtu.be'
vPafy = pafy.new(url)
play = vPafy.getbest(preftype="mp4")

第三步:通常,我們必須用相機捕捉現(xiàn)場的視頻流。OpenCV提供了一個非常簡單的接口。我們可以從相機中捕捉視頻,將其轉(zhuǎn)換成灰度視頻并顯示出來。只是一個簡單的開始。

要捕獲視頻,需要創(chuàng)建視頻捕獲對象。它的參數(shù)可以是設(shè)備索引或視頻文件的名稱。設(shè)備索引只是指定哪個攝像機的數(shù)字。通常會連接一個攝像頭(如我的情況)。所以我只傳遞0(或-1)??梢酝ㄟ^傳遞1等來選擇第二個攝影機。之后,你可以逐幀捕獲。

cap = cv2.VideoCapture(0) #if you are using webcam

但在我的例子中,我正在讀取一個在線視頻URL,為此,我將把“play”對象傳遞給VideoCapture()。

cap = cv2.VideoCapture(play.url)

步驟4:使用set()設(shè)置視頻幀的高度和寬度。cap.set(propId, value),這里3是寬度的propertyId,4是高度的propertyId。

cap.set(3, 480) #set width of the frame
cap.set(4, 640) #set height of the frame

步驟5:創(chuàng)建3個單獨的列表,用于存儲Model_Mean_值、年齡和性別。

MODEL_MEAN_VALUES = (78.4263377603, 87.7689143744, 114.895847746)
age_list = ['(0, 2)', '(4, 6)', '(8, 12)', '(15, 20)', '(25, 32)', '(38, 43)', '(48, 53)', '(60, 100)']
gender_list = ['Male', 'Female']

第六步:我定義了一個函數(shù)來加載caffemodel和prototxt的年齡和性別檢測器,這些基本上都是預(yù)先訓(xùn)練好的CNN模型來進行檢測。

def load_caffe_models():

 age_net = cv2.dnn.readNetFromCaffe('deploy_age.prototxt', 'age_net.caffemodel')
gender_net = cv2.dnn.readNetFromCaffe('deploy_gender.prototxt', 'gender_net.caffemodel')
return(age_net, gender_net)

步驟7:現(xiàn)在我們將執(zhí)行人臉檢測、年齡檢測和性別檢測,并為此在你的主函數(shù)內(nèi)創(chuàng)建一個函數(shù)video_detector(age_net,gender_net),并將age_net和gender_net作為其參數(shù)。

if __name__ == "__main__":
age_net, gender_net = load_caffe_models()
video_detector(age_net, gender_net)

步驟8:讀取步驟3中從VideoCapture()創(chuàng)建的cap對象。 cap.read()返回布爾值(True / False)。如果正確讀取框架,則它將為True。

所以你可以通過檢查這個返回值來檢查視頻的結(jié)尾。

有時,cap可能尚未初始化捕獲。在這種情況下,此代碼顯示錯誤。

你可以通過cap.isOpened()方法檢查它是否已初始化. 如果是真的就繼續(xù)。否則,請使用cap.open()打開它.

ret, image = cap.read()

步驟9:將圖像轉(zhuǎn)換為灰度圖像,因為OpenCV人臉檢測器需要灰度圖像。

gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)

步驟10:加載用于人臉檢測的預(yù)構(gòu)建模型。

face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_alt.xml')

步驟11:現(xiàn)在,我們?nèi)绾问褂眉壜?lián)分類器從圖像中檢測人臉?

OpenCV的CascadedClassifier再次使其變得簡單,detectMultiScale()可以準(zhǔn)確地檢測你需要的內(nèi)容。

detectMultiScale(image, scaleFactor, minNeighbors)

下面是應(yīng)該傳遞給detectMultiScale()的參數(shù)。

這是一個檢測對象的通用函數(shù),在這種情況下,它將檢測人臉,因為我們在人臉級聯(lián)中調(diào)用了此函數(shù)。如果找到一個人臉,則返回一個所述人臉的位置列表,格式為“Rect(x,y,w,h)”,如果沒有,則返回“None”。

  • Image:第一個輸入是灰度圖像。

  • scaleFactor:這個函數(shù)補償當(dāng)一張臉看起來比另一張臉大時發(fā)生的大小錯誤感知,因為它更靠近相機。

  • minNeighbors:一種使用移動窗口檢測對象的檢測算法,它通過定義在當(dāng)前窗口附近找到多少個對象,然后才能聲明找到的人臉。

faces = face_cascade.detectMultiScale(gray, 1.1, 5)

第12步:循環(huán)瀏覽人臉列表并在視頻中的人臉上繪制矩形。在這里,我們基本上是尋找面孔,分解面孔,它們的大小,并繪制矩形。

for (x, y, w, h )in faces:
   cv2.rectangle(image, (x, y), (x+w, y+h), (255, 255, 0), 2)
# Get Face 
   face_img = image[y:y+h, h:h+w].copy()

步驟13:OpenCV提供了一個函數(shù),可以幫助對圖像進行預(yù)處理,以便進行深度學(xué)習(xí)分類:blobFromImage()。它執(zhí)行:

平均減法 縮放比例 和可選的通道交換

所以blobFromImage4維的blob是從圖像創(chuàng)建的。可選地調(diào)整圖像大小并從中心裁剪圖像,減去平均值,按比例因子縮放值,交換藍色和紅色通道

blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size, mean, swapRB=True)
  1. image:這是輸入圖像,我們要先對其進行預(yù)處理,然后再通過我們的深度神經(jīng)網(wǎng)絡(luò)進行分類。

  2. scale factor: 在我們執(zhí)行平均值減法之后,我們可以選擇按某個因子縮放圖像。這個值默認為1.0(即沒有縮放),但我們也可以提供另一個值。還要注意的是,比例因子應(yīng)該是1/σ,因為我們實際上是將輸入通道(在平均值減去之后)乘以比例因子。

  3. size: 這里我們提供卷積神經(jīng)網(wǎng)絡(luò)所期望的空間大小。對于大多數(shù)目前最先進的神經(jīng)網(wǎng)絡(luò)來說,這可能是224×224、227×227或299×299。

  4. mean:這些是我們的平均減法值。它們可以是RGB方法的3元組,也可以是單個值,在這種情況下,從圖像的每個通道中減去提供的值。如果要執(zhí)行平均值減法,請確保按(R,G,B)順序提供3元組,特別是在使用swapRB=True的默認行為時。

  5. swapRB:OpenCV假設(shè)圖像是BGR通道順序的;但是,平均值假設(shè)我們使用的是RGB順序。為了解決這個差異,我們可以通過將這個值設(shè)置為True來交換圖像中的R和B通道。默認情況下,OpenCV為我們執(zhí)行此通道交換。

blob = cv2.dnn.blobFromImage(face_img, 1, (227, 227), MODEL_MEAN_VALUES, swapRB=False)

第14步:預(yù)測性別。

#Predict Gender
gender_net.setInput(blob)
gender_preds = gender_net.forward()
gender = gender_list[gender_preds[0].argmax()]

第15步:預(yù)測年齡。

#Predict Age
age_net.setInput(blob)
age_preds = age_net.forward()
age = age_list[age_preds[0].argmax()]

第16步:現(xiàn)在我們必須使用openCV的put text()模塊將文本放到輸出框架上。

putText()的參數(shù)如下:

  • 要寫入的文本數(shù)據(jù)

  • 放置位置坐標(biāo)(即數(shù)據(jù)開始的左下角)。

  • 字體類型(請檢查cv2.putText()文檔以獲取支持的字體)

  • 字體比例(指定字體大小)

  • 常規(guī)的東西,如顏色,厚度,線型等。為了更好的外觀,線型=cv2.LINE_AA是推薦的。

overlay_text = "%s %s" % (gender, age)
cv2.putText(image, overlay_text, (x, y), font, 1, (255, 255, 255), 2, cv2.LINE_AA)

第17步:最后打印你的最終輸出。

cv2.imshow('frame', image)

最后我們有:

if cv2.waitKey(1) & 0xFF == ord('q'):
   break

我們的程序等待用戶按下一個鍵最多1毫秒。然后,它獲取讀取的鍵的值,并將其與0xFF進行比較,0xFF刪除底部8位以上的任何內(nèi)容,并將結(jié)果與字母q的ASCII碼進行比較,這意味著用戶已決定通過按鍵盤上的q鍵退出。

輸出:視頻URL-1:https://www.youtube.com/watch?v=iH1ZJVqJO3Y

怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別

視頻URL-2:https://www.youtube.com/watch?v=qLNhVC296YI

怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別

很有趣,不是嗎?但不太準(zhǔn)確。

關(guān)于怎么使用卷積神經(jīng)網(wǎng)絡(luò)和openCV預(yù)測年齡和性別問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注億速云行業(yè)資訊頻道了解更多相關(guān)知識。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI