您好,登錄后才能下訂單哦!
這篇文章主要介紹“怎么利用Python+AI使靜態(tài)圖片動起來”的相關(guān)知識,小編通過實(shí)際案例向大家展示操作過程,操作方法簡單快捷,實(shí)用性強(qiáng),希望這篇“怎么利用Python+AI使靜態(tài)圖片動起來”文章能幫助大家解決問題。
類似于下面這種效果:
最左側(cè)的人物是原始的動作,上面是靜態(tài)圖片。通過AI技術(shù)便可以讓最左側(cè)人物的動作運(yùn)用到上面的靜態(tài)圖片上,從而讓張圖都可以做出相同的動作。
這種技術(shù)一般是基于的GAN(生成對抗網(wǎng)絡(luò))來實(shí)現(xiàn),今天我給大家分享一個開源項目,能夠復(fù)現(xiàn)上面的效果,可以做些有趣的項目,也可以懷念故人。
項目地址:https://github.com/AliaksandrSiarohin/first-order-model
首先,git clone將項目下載到本地,進(jìn)入項目安裝依賴。
git clone https://github.com/AliaksandrSiarohin/first-order-model.git cd first-order-model pip install -r requirements.txt
然后,在項目首頁P(yáng)re-trained checkpoint標(biāo)題下,找到模型下載鏈接,下載模型文件,模型有很多,我用的是vox-adv-cpk.pth.tar。
準(zhǔn)備好模型文件后,在項目根目錄下執(zhí)行下面命令即可。
python demo.py \ --config config/vox-adv-256.yaml \ --driving_video src_video.mp4 \ --source_image src_img.jpg \ --checkpoint weights/vox-adv-cpk.pth.tar
解釋下參數(shù):
--config:模型配置文件,在源文件中有
--driving_video:提供動作的視頻
--source_image:需要加動效的靜態(tài)圖片
--checkpoint:剛剛下載的模型文件
運(yùn)行完成后,會看到如下輸入。
該項目使用PyTorch搭建神經(jīng)網(wǎng)絡(luò),支持GPU和CPU運(yùn)行,所以如果你的電腦只有CPU,運(yùn)行會比較慢。
我是在CPU下運(yùn)行的,從上圖可以看到,driving_video只有 31 幀。如果你也是CPU運(yùn)行,最好控制driving_video視頻的時長,不然運(yùn)行時長會比較長。
有了該項目,可以自己做些比較有意思的嘗試。
上面教大家按照官網(wǎng)在命令行運(yùn)行該項目。
有些朋友可能想在Python項目中調(diào)用,所以我在demo.py中抽取了核心代碼,封裝了一個Pyhton API。
有需要的朋友可以下載這個文件,放到與first-order-model同一級的目錄下,按照下面代碼調(diào)用即可。
fom = FOM() # 查看驅(qū)動視頻,驅(qū)動視頻最好裁剪為480 x 640 大小的視頻 driving_video = '' # 被驅(qū)動的畫面 source_image = '' # 輸出視頻 result_video = '' # 驅(qū)動畫面 fom.img_to_video(driving_video, source_image, result_video)
關(guān)于“怎么利用Python+AI使靜態(tài)圖片動起來”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識,可以關(guān)注億速云行業(yè)資訊頻道,小編每天都會為大家更新不同的知識點(diǎn)。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。