您好,登錄后才能下訂單哦!
這篇文章主要講解了“OpenCV怎么用”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“OpenCV怎么用”吧!
有沒有想過讓蒙娜麗莎跟著你的表情動,來一番親切的交流?
Aliaksandr的一階運動模型(First Order Motion Model)可以實現,但是實現過程非常復雜且繁瑣。
一階運動模型功能強大,可以在未經預訓練的數據集上對圖像和視頻進行特效生成,但代價是安裝配置比較繁瑣。
能不能簡單一點,再簡單一點?
印度一位程序員阿南德·帕瓦拉(Anand Pawara)設計了基于OpenCV實現的實時動畫特效。
畢竟OpenCV是成名已久的跨平臺視覺庫,是事實上的計算機視覺領域的標準庫。
項目中涉及的人臉識別、動作識別和運動跟蹤,均在OpenCV庫中原生支持。
1、安裝依賴模塊
安裝依賴模塊:
pip install -r requirements.txt
安裝pytorch 1.0.0 :
pip install torch===1.0.0 torchvision===0.2.1 -f https://download.pytorch.org/whl/cu100/torch_stable.html
2、下載配置文件(如果不能下載,文件鏈接在文末)
gdown —id 1wCzJP1XJNB04vEORZvPjNz6drkXm5AUK
3、運行程序
運行文件 :
python image_animation.py -i path_to_input_file -c path_to_checkpoint
針對攝像頭的實時特效生成 :
python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar Run application from video file : python image_animation.py -i path_to_input_file -c path_to_checkpoint -v path_to_video_file
針對既有視頻的特效生成 :
python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar -v .\video_input\test1.mp4
如果你想上手試試,只需要調整相關配置文件即可。
模型分為兩種使用模式,一種是較為常規的導入視頻常規方法,另外一種就是實時生成視頻特效。
但是,請注意,一定要使用pytorch 1.0.0版本,因為更高的版本在后端依賴的一階模型上存在問題。
按照作者的后續計劃,會推出客戶端程序,并且會增加假聲(deepfake voice)功能。
阿南德所做的工作是簡化現有的一階運動模型(First Order Motion Model),使用OpenCV對視頻進行特效生成。
項目的后端支持由OpenCV庫完成,避免使用復雜的模型,降低使用門檻。
按照作者觀點,使用這個模型只需要對一類數據集進行訓練后,便可應用到對其全部事物上去,即具有較好的泛化能力。
不同于原一階模型的多個數據集測試效果,現在阿南德實時動態特效模型還只在人臉數據集上進行測試,后續后持續增加其他數據集。
這個模型的特點是易用,配置非常簡單,基本可以開箱即用,即使是訓練自己的數據集也會比較簡單。
因為立足于對現有資源進行優化配置,操作簡易,功能強大。
當然,簡單也會帶來問題,比如現在數據集較為單一,針對的主要是人臉數據集。
感謝各位的閱讀,以上就是“OpenCV怎么用”的內容了,經過本文的學習后,相信大家對OpenCV怎么用這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。