deepfacelab是一款非常有意思的人物AI換臉軟件,提供豐富的視頻素材,用戶可以將自己的頭像圖片上傳并替換視頻素材中其他人的臉,然后在軟件內(nèi)對臉型處理一下,你可以使用濾鏡、美白等功能讓自己的臉型看起來更加漂亮,換臉成功后,使你的臉型圖片與視頻人物圖像毫無違和感,人臉融合效果非常棒,幾乎可以以假亂真,一點(diǎn)都看不出很假的感覺。使用這款軟件,可以通過人工智能技術(shù)進(jìn)行視頻換臉,在制作視頻過程中,你可以將視頻中的人物臉換成你想要的人物臉,它的作用是將視頻里面的人臉換成別人的樣子,舉個(gè)例子,視頻里面的人是周星馳,你可以把他的臉換成吳孟達(dá)的臉,也可以換成你自己的臉,這樣是不是非常的有趣。你還在為沒有好的換臉軟件而苦惱嗎?小編推薦你來下載deepfacelab AI換臉軟件試試。
使用教程
解壓開你會(huì)發(fā)現(xiàn)軟件文件夾內(nèi)有兩個(gè)文件夾,和一堆bat批處理指令,下面請看我的介紹:
上圖這張圖是大概2018年6月的版本的列表,新版和舊版總體bat的功能不會(huì)差太多(2019/1/3作者更新了1個(gè)新算法,目前群內(nèi)大神測試沒太大用)。
另外你如果玩熟練了你可以自己弄一些拿到前面來,這樣會(huì)很方便:
我自己挑出來的這些像排序部分,有些是要自己修改bat內(nèi)容的。
記住,bat 批處理文件是可以修改的,文件夾里的只是送你的案例而已。
所有軟件對應(yīng)的兩邊素材:
A即DST 就是原版的視頻素材,就是身體和背景不換,要換掉臉的視頻
B即SRC 就是要使用到的臉的素材
把兩邊素材稱為A和B的軟件,一般都可以互換方向,但是總體操作都是B臉放A上,SRC臉放DST上
DST和SRC素材都可以是圖片或者視頻
換臉軟件的操作是通過SRC臉圖集,運(yùn)算出MDOEL,然后放到DST序列圖上,最后把DST序列圖連接為視頻
新手操作流程:
【手動(dòng)】把DST視頻放到“workspace”文件夾下,并且命名為“data_dst”(后綴名和格式一般不用管)。
下面步驟的文件目錄均在workspace下,如“workspacedata_src”,我將省略為“data_src”
【手動(dòng)】把SRC素材(明星照片,一般需要700~1500張)放到“data_src”下。
【bat】分解DST視頻為圖片(需要全幀提取,即Full fps),bat序號(hào)3.2 你會(huì)看到“data_dst”下有分解出來的圖片。
【bat】識(shí)別DST素材的臉部圖片,bat序號(hào)5 有DLIB和MT兩種分解方式,一般情況建議DLIB,具體差別什么自己摸索,后面不要帶Manual和Debug,這倆一個(gè)是手動(dòng)一個(gè)是調(diào)試。
【bat】識(shí)別SRC素材的臉部圖片,bat序號(hào)4 具體操作同步驟4。
【手動(dòng)】第4步和第5步識(shí)別并對齊的人臉?biāo)夭脑凇癲ata_dstaligned”和“data_srcaligned”內(nèi),你需要把這些人臉不正確識(shí)別的內(nèi)容刪除,否則影響MODEL訓(xùn)練結(jié)果,如果臉圖特別小,或者翻轉(zhuǎn)了,那么基本判定為識(shí)別錯(cuò)誤,但是要說明的是,DST臉超出畫面的半張臉需要留著不要?jiǎng)h除,SRC臉超出畫面基本沒用,直接刪除吧。
刪除SRC錯(cuò)誤臉圖前可以使用bat序號(hào)4.2系列的排序,直方圖排序和人臉朝向排序可以較為方便地找出錯(cuò)誤人臉,這屬于進(jìn)階內(nèi)容,具體不給教程,有需要自己Baidu翻譯一下。
【bat】現(xiàn)在你已經(jīng)有DST的序列幀(圖片)素材和SRC的臉部(圖片)素材了,你需要運(yùn)行MODEL訓(xùn)練,bat序號(hào)6 一樣也是有好多種MODEL,目前建議新手直接跑H128的MODEL(除非你的顯卡比較差,那就跑H64)其他MDOEL算法請看GitHub上的介紹。
跑MODEL是可以中斷的,在預(yù)覽界面按回車鍵,軟件會(huì)自動(dòng)保存當(dāng)前進(jìn)度,MDOEL文件在“model”文件夾下,不同的MODEL文件名不一樣,建議定期備份MODEL,并建議SRC專人專用MODEL
【bat】上面MODEL如果是第一次跑,可能需要10+小時(shí)才有合理的效果,結(jié)束訓(xùn)練后請運(yùn)行MODEL導(dǎo)出合成圖,bat序號(hào)7 這里就根據(jù)你的MODEL類型來運(yùn)行就好了
這里會(huì)出現(xiàn)一個(gè)問題就是軟件會(huì)在DOS界面給你好多好多選項(xiàng),請看下文“導(dǎo)出合成圖的選項(xiàng)”。
【bat】導(dǎo)出圖片后需要把圖片轉(zhuǎn)成視頻,那么就運(yùn)行 bat序號(hào)8 就行了,根據(jù)你要的最終格式來定。
導(dǎo)出合成圖的選項(xiàng)
所有選項(xiàng)直接按回車即使用標(biāo)注的默認(rèn)選項(xiàng)(default)
第一個(gè)問答是問你要哪個(gè)合成模式,可以理解為:
1、普通
2、普通+直方圖匹配
3、無縫(默認(rèn))
4、無縫+直方圖匹配
可能每個(gè)視頻需要的效果都不一樣,一般情況我個(gè)人建議用:1普通
請注意保留源素材
不論哪款軟件,流程結(jié)束后建議復(fù)制并分類保留:
SRC素材(臉圖或原圖)
MODEL(丟了就浪費(fèi)10小時(shí)了)
功能特色
1、可單獨(dú)使用,具有零依賴性,可與所有Windows版本的預(yù)備二進(jìn)制文件(CUDA,OpenCL,ffmpeg等)一起使用。
2、新型號(hào)(H64,H128,DF,LIAEF128,SAE,惡棍)從原始的facewap模型擴(kuò)展而來。
3、新架構(gòu),易于模型試驗(yàn)。
4、適用于2GB舊卡,如GT730。在18小時(shí)內(nèi)使用2GB gtx850m筆記本電腦進(jìn)行深度訓(xùn)練的示例
5、面部數(shù)據(jù)嵌入在png文件中(不再需要對齊文件)。
6、通過選擇最佳GPU自動(dòng)管理GPU。
7、新預(yù)覽窗口。
8、提取器和轉(zhuǎn)換器并行。
9、為所有階段添加了調(diào)試選項(xiàng)。
10、多種面部提取模式,包括S3FD,MTCNN,dlib或手動(dòng)提取。
11、以16的增量訓(xùn)練任何分辨率。由于優(yōu)化設(shè)置,使用NVIDIA卡輕松訓(xùn)練256。
12、安裝方便,環(huán)境依賴幾乎為零,下載打包 app 解壓即可運(yùn)行(最大優(yōu)勢)。
13、添加了很多新的模型。
14、新架構(gòu),易于模型實(shí)驗(yàn)。
15、人臉圖片使用 JPG 保存,節(jié)省空間提高效率。
16、CPU 模式,第 8 代 Intel 核心能夠在 2 天內(nèi)完成 H64 模型的訓(xùn)練。
17、全新的預(yù)覽窗口,便于觀察。
18、并行提取。
19、并行轉(zhuǎn)換。
20、所有階段都可以使用 DEBUG 選項(xiàng)。
21、支持 MTCNN,DLIBCNN,S3FD 等多種提取器。
22、支持手動(dòng)提取,更精確的臉部區(qū)域,更好的結(jié)果。
使用技巧
1、 首先把源視頻拆分成圖片。
2、開頭兩個(gè)回車,等待,出現(xiàn)Done即表示處理成功。FPS :表示幀率,可以按回車默認(rèn),也可以輸入一個(gè)數(shù)字。 Format代表圖片格式,可以選JPG或者PNG,默認(rèn)PNG。
3、處理完成后,data_src文件夾下面會(huì)出現(xiàn)很多圖片,這些圖片就來自data_src.mp4視頻。
4、一個(gè)回車,等待一段時(shí)間,看到Done表示結(jié)束。
處理完成后,data_dst文件夾下面會(huì)出現(xiàn)很多圖片,這些圖片就來自data_dst.mp4視頻。)
5、兩個(gè)回車,顯示進(jìn)度條,最后會(huì)顯示發(fā)現(xiàn)的圖片和提取到的人臉數(shù)量。 GPU index 是針對多卡用戶,單卡用戶直接回車。 Debug Image 一般不需要,默認(rèn)回車即可。
操作成功后,data_src/aligned 文件夾下面會(huì)出現(xiàn)唐尼的頭像。
6、從目標(biāo)圖片中提取人臉
和上一步類似,只是少了一個(gè)參數(shù)Debug Image,其實(shí)是默認(rèn)就啟用了這個(gè)參數(shù)。
操作成功后,data_dst/aligned文件夾下會(huì)出現(xiàn)希亞·拉博夫的人頭。在data_dst下面會(huì)出現(xiàn)一個(gè)aligned_debug文件夾。
deepfacelab配置要求
系統(tǒng):Win7, Win10
顯卡:GTX 1060以上效果較好,需要安裝windows 版本的 VS2015,CUDA9.0和CuDNN7.0.5
優(yōu)點(diǎn):基于Faceswap定制的bat處理批版本,硬件要求低,2G顯存就可以跑,支持手動(dòng)截取人臉、集成所需要的素材和庫文件,功能強(qiáng)大
缺點(diǎn):復(fù)雜、處理批較多,臉部數(shù)據(jù)不能和其他deepfakes通用,需要重新截取
總結(jié):適合有一定編程基礎(chǔ)、追求效率高的用戶
常見問題
1、人臉?biāo)夭男枰嗌伲?br />盡量不要少,因?yàn)樗怯邢薜那倚枰惶鎿Q的素材,根據(jù)各軟件的臉圖篩選規(guī)則和網(wǎng)上大神的建議,總體來說,SRC臉圖最好是大概700~3999的數(shù)量,像該軟件的作者,他就認(rèn)為1500張夠了。對于SRC,各種角度、各種表情、各種光照下的內(nèi)容越多越好,很接近的素材沒有用,會(huì)增加訓(xùn)練負(fù)擔(dān)。
2、手動(dòng)對齊識(shí)別人臉模式如何使用?
回車鍵:應(yīng)用當(dāng)前選擇區(qū)域并跳轉(zhuǎn)到下一個(gè)未識(shí)別到人臉的幀
空格鍵:跳轉(zhuǎn)到下一個(gè)未識(shí)別到人臉的幀
鼠標(biāo)滾輪:識(shí)別區(qū)域框,上滾放大下滾縮小
逗號(hào)和句號(hào)(要把
輸入法切換到英文):上一幀下一幀
3、MODEL是個(gè)什么東西?
MODEL是根據(jù)各種線條或其他奇怪的數(shù)據(jù)經(jīng)過人工智能呈現(xiàn)的隨機(jī)產(chǎn)生的假數(shù)據(jù),就像PS填充里的“智能識(shí)別”,你可以從 https://affinelayer.com/pixsrv/ 這個(gè)網(wǎng)站里體驗(yàn)一下什么叫MODEL造假
4、MODEL使用哪種算法好?
各有千秋,一般軟件使用H128就好了,其他算法可以看官方在GitHub上寫的介紹:https://github.com/iperov/DeepFaceLab
5、Batch Size是什么?要設(shè)置多大?
Batch Size的意思大概就是一批訓(xùn)練多少個(gè)圖片素材,一般設(shè)置為2的倍數(shù)。數(shù)字越大越需要更多顯存,但是由于處理內(nèi)容更多,迭代頻率會(huì)降低。一般情況在軟件中,不需要手動(dòng)設(shè)置,它會(huì)默認(rèn)設(shè)置顯卡適配的最大值。根據(jù)網(wǎng)上的內(nèi)容和本人實(shí)際測試,在我們這種64和128尺寸換臉的操作中,越大越好,因?yàn)樽詈侠淼闹的壳斑h(yuǎn)超所有民用顯卡可承受的范圍。
6、MODEL訓(xùn)練過,還可以再次換素材使用嗎?
換DST素材:
可以!而且非常建議重復(fù)使用。
新建的MODEL大概10小時(shí)以上會(huì)有較好的結(jié)果,之后換其他DST素材,僅需0.5~3小時(shí)就會(huì)有很好的結(jié)果了,前提是SRC素材不能換人。
換SRC素材,那么就需要考慮一下了:
第一種方案:MODEL重復(fù)用,不管換DST還是換SRC,就是所有人臉的內(nèi)容都會(huì)被放進(jìn)MODEL進(jìn)行訓(xùn)練,結(jié)果是訓(xùn)練很快,但是越雜亂的訓(xùn)練后越覺得導(dǎo)出不太像SRC的臉。
第二種方案:新建MODEL重新來(也就是專人專MODEL)這種操作請先把MODEL剪切出去并文件夾分類,這種操作可以合成比較像SRC的情況,但是每次要重新10小時(shí)會(huì)很累。
第三種方案:結(jié)合前兩種,先把MODEL練出輪廓后,再復(fù)制出來,每個(gè)MODEL每個(gè)SRC臉專用就好了。
7、出現(xiàn)ValueError: No training data provided怎么辦?
沒有臉部數(shù)據(jù),可能是你用其它軟件截的臉,這是不行的,DFL僅支持自己截的臉。你可以將其它軟件截的臉讓DFL再截一遍就可以用了
8、出現(xiàn)ImportError: DLL load failed.
首先檢查Microsoft Visual C++ distributed 2015 X64裝了沒有,如果裝了就找度娘下載api-ms-win-downlevel-shlwapi-l1-1-0.dll(32位)和ieshims.dll復(fù)制到DFL的“_internalpython-3.6.8Libsite-packagescv2”中,
9、為什么我換的臉是模糊的
運(yùn)存過少,訓(xùn)練時(shí)間不夠,src人臉過少,loss值太高(0.5以上都有點(diǎn)糊)以及"pixel_loss = True"(就是模糊的開關(guān))都會(huì)導(dǎo)致這種情況,雖然512MB可以運(yùn)行,但是結(jié)果肯定是不盡人意的,推薦運(yùn)存2GB以上,訓(xùn)練時(shí)間一般10h以上,loss值推薦0.2左右。
10、為什么訓(xùn)練時(shí)loss值顯示的是nan,而且馬上就報(bào)錯(cuò)
這個(gè)我也不太清楚,可能是運(yùn)存太低,解決辦法就是“Use lightweight autoencoder? (Y / n,:? Help skip: n):”選擇y(輕量編碼器,速度快35%,輸出結(jié)果目前看來差不多)。
11、為什么loss值降到一定就不降了
一般來說降到0.2左右訓(xùn)練就很成功了(一般需要10+h,Iter100000+,而我的電腦需要訓(xùn)練一個(gè)星期才能達(dá)到目標(biāo)效果),但是也有特殊情況,降到1左右不再降的可能是臉差的太厲害了,比如講一個(gè)男人的臉貼一個(gè)女人身上,當(dāng)然也有可能是時(shí)間不夠。
12、src需要多少個(gè)照片訓(xùn)練比較好
700~3000個(gè)左右,推薦1500個(gè)最好,太少的話即使loss降到0.1也是糊的,太多的話加重運(yùn)算負(fù)擔(dān)。
更新日志
deepfacelab v2018.12.2更新:
1、修復(fù)部分系統(tǒng)錯(cuò)誤“Failed to get convolution algorithm”
2、修復(fù)部分系統(tǒng)錯(cuò)誤“dll load failed”
3、修改模型下面的summary文件的格式,顯示更多內(nèi)容。
4、修改臉部遮罩,擴(kuò)展眉毛部分區(qū)域,這個(gè)修改不影響Fan-x
5、轉(zhuǎn)換遮罩:為底部區(qū)域添加遮罩漸變。
0條評(píng)論