溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

opencv3/C++如何使用Tracker實現(xiàn)目標跟蹤

發(fā)布時間:2021-09-23 14:50:04 來源:億速云 閱讀:284 作者:小新 欄目:編程語言

這篇文章主要介紹了opencv3/C++如何使用Tracker實現(xiàn)目標跟蹤,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

簡介

MIL: TrackerMIL 以在線方式訓練分類器將對象與背景分離;多實例學習避免魯棒跟蹤的漂移問題.

OLB: TrackerBoosting 基于AdaBoost算法的在線實時對象跟蹤.分類器在更新步驟中使用周圍背景作為反例以避免漂移問題.

MedianFlow: TrackerMedianFlow 跟蹤器適用于非常平滑和可預測的運動,物體在整個序列中可見.

TLD: TrackerTLD 將長期跟蹤任務分解為跟蹤,學習和檢測.跟蹤器在幀之間跟蹤對象.探測器本地化所觀察到的所有外觀,并在必要時糾正跟蹤器.學習估計檢測器的錯誤并進行更新以避免再出現(xiàn)這些錯誤.追蹤器能夠處理快速運動,部分遮擋,物體缺失等情況.

KCF: TrackerKCF 使用目標周圍區(qū)域的循環(huán)矩陣采集正負樣本,利用脊回歸訓練目標檢測器,并成功的利用循環(huán)矩陣在傅里葉空間可對角化的性質(zhì)將矩陣的運算轉化為向量的Hadamad積,即元素的點乘,大大降低了運算量,提高了運算速度,使算法滿足實時性要求.

部分相關API:

TrackerMIL

static Ptr<TrackerMIL> create(const TrackerMIL::Params &parameters); CV_WRAP static Ptr<TrackerMIL> create();

struct CV_EXPORTS Params { PARAMS();  //采樣器的參數(shù)  float samplerInitInRadius; //初始收集正面實例的半徑  int samplerInitMaxNegNum; //初始使用負樣本  float samplerSearchWinSize; //搜索窗口的大小  float samplerTrackInRadius; //在跟蹤期間收集正面實例的半徑  int samplerTrackMaxPosNum; //在追蹤期間使用正面樣本  int samplerTrackMaxNegNum; //在跟蹤期間使用的負樣本  int featureSetNumFeatures; //特征  void read(const FileNode&fn);  void write(FileStorage&fs)const; };

TrackerBoosting

static Ptr<TrackerBoosting> create(const TrackerBoosting::Params &parameters); CV_WRAP static Ptr<TrackerBoosting> create();

struct CV_EXPORTS Params{ PARAMS();  int numClassifiers; //在OnlineBoosting算法中使用的分類器的數(shù)量  float samplerOverlap; //搜索區(qū)域參數(shù)  float samplerSearchFactor; //搜索區(qū)域參數(shù)  int iterationInit; //初始迭代  int featureSetNumFeatures; //特征 //從文件讀取參數(shù)  void read(const FileNode&fn); //從文件寫入?yún)?shù)  void write(FileStorage&fs)const; };

示例

首先獲取視頻的第一幀,通過點擊左鍵框選選擇要跟蹤的目標,點擊右鍵確認并使用MIL開始跟蹤.(從實際情況看來,算法對過程中有遮擋的情況跟蹤能力較差.)

(環(huán)境:Ubuntu16.04+QT5.8+opencv3.3.1)

#include <opencv2/opencv.hpp>#include <opencv2/video.hpp>#include <opencv2/tracking.hpp>#include <opencv2/tracking/tracker.hpp>using namespace cv;void draw_rectangle(int event, int x, int y, int flags, void*);Mat firstFrame;Point previousPoint, currentPoint;Rect2d bbox;int main(int argc, char *argv[]){ VideoCapture capture; Mat frame; frame = capture.open("/home/w/mycode/QT/img/runners.avi"); if(!capture.isOpened()) {  printf("can not open ...\n");  return -1; } //獲取視頻的第一幀,并框選目標 capture.read(firstFrame); if(!firstFrame.empty()) {  namedWindow("output", WINDOW_AUTOSIZE);  imshow("output", firstFrame);  setMouseCallback("output", draw_rectangle, 0);  waitKey(); } //使用TrackerMIL跟蹤 Ptr<TrackerMIL> tracker= TrackerMIL::create(); //Ptr<TrackerTLD> tracker= TrackerTLD::create(); //Ptr<TrackerKCF> tracker = TrackerKCF::create(); //Ptr<TrackerMedianFlow> tracker = TrackerMedianFlow::create(); //Ptr<TrackerBoosting> tracker= TrackerBoosting::create(); capture.read(frame); tracker->init(frame,bbox); namedWindow("output", WINDOW_AUTOSIZE); while (capture.read(frame)) {  tracker->update(frame,bbox);  rectangle(frame,bbox, Scalar(255, 0, 0), 2, 1);  imshow("output", frame);  if(waitKey(20)=='q')  return 0; } capture.release(); destroyWindow("output"); return 0;}//框選目標void draw_rectangle(int event, int x, int y, int flags, void*){ if (event == EVENT_LBUTTONDOWN) {  previousPoint = Point(x, y); } else if (event == EVENT_MOUSEMOVE && (flags&EVENT_FLAG_LBUTTON)) {  Mat tmp;  firstFrame.copyTo(tmp);  currentPoint = Point(x, y);  rectangle(tmp, previousPoint, currentPoint, Scalar(0, 255, 0, 0), 1, 8, 0);  imshow("output", tmp); } else if (event == EVENT_LBUTTONUP) {  bbox.x = previousPoint.x;  bbox.y = previousPoint.y;  bbox.width = abs(previousPoint.x-currentPoint.x);  bbox.height = abs(previousPoint.y-currentPoint.y); } else if (event == EVENT_RBUTTONUP) {  destroyWindow("output"); }}

實驗對比發(fā)現(xiàn):KCF速度最快,MedianFlow的速度也較快,對于無遮擋情況跟蹤效果較好;TLD對部分遮擋處理的效果最好,處理時間相對較慢.

部分遮擋處理效果

MIL對部分遮擋的處理效果:

opencv::Tracker Algorithms

感謝你能夠認真閱讀完這篇文章,希望小編分享的“opencv3/C++如何使用Tracker實現(xiàn)目標跟蹤”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業(yè)資訊頻道,更多相關知識等著你來學習!

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。

AI