窝牛号

使用AI CoNR 算法,仅仅利用4张动漫图片——便可以创建舞蹈视频

上期视频我们分享了一个AI算法,本期我们就分享一下实现代码

AI算法太牛了,利用4张图片,便可以生成惟妙惟肖的音乐舞蹈

此AI算法称之为CoNR,该技术通过基于多个动画指定姿势来创建舞蹈视频。

——1——

什么是CoNR?

下面是CoNR的示意图。将目标姿势 ( Itar ) 转换为由紧凑地标数字表示的 UDP 表示 ( Ptar)

另一方面,几个动画(Sref)输入到 U-Net 格式网络,由Encoder 编码,并由 Decoder 与 UPD 表示(Ptar)一起解码。此时,通过共享多个解码器 D1 到 D3的权重来创建目标姿势动画。

CoNR

源代码 https://github.com/megvii-research/CONR

CoNR

——2——

代码实现

@markdown 克隆github上的项目repo,并安装相应的依赖。 !git clone https://github.com/megvii-research/CoNR.git %cd CoNR !pip install -r requirements.txt 39;double_ponytail&@param [&39;, &39;, &39;] 39;short_hair&39;double_ponytail&34;Please upload your UDP sequences or poses images to /content/CoNR/poses/ .&39;double_ponytail&@param [&39;, &39;, &39;] From: https://drive.google.com/uc?id=1XMrJf9Lk_dWgXyTJhbEK2LZIXL9G3MWc To: /content/CoNR/double_ponytail_images.zip

Step2:代码需要选择一个超密集姿势,这里官方提供两个示例序列:`双马尾:double_ponytail`和`短发:short_hair`。当然,我们自己也可以制作自己的动漫图片,并上传自己的超密集姿势序列或者姿势图像到路径`/content/CoNR/poses/`下.

Step3:选择人物设定表,人物设定表指的是某一个人物多角度/姿势下的手绘图片。官方提供两种示例人物设定表:`双马尾:double_ponytail`和`短发:short_hair`。当然我们也可以选择`自定义:self_defined`并上传自己绘制的人物设定表到路径`/content/CoNR/character_sheet/`下。人物设定表中的人应当是同一个人,且应当和超密集姿势序列尽可能相似,否则生成结果将不可控。例如,对于短发的超密集姿势序列,推荐您使用短发的人物设定表作为输入。

import cv2 import numpy as np import os path =&39; files= os.listdir(path) imgs = [] for file in files: if not os.path.isdir(file): img = cv2.imread(path+&34;+file, cv2.IMREAD_UNCHANGED); imgs.append(img) print(&34;, len(imgs)) imgs = np.concatenate(imgs, 1) cv2.imwrite(&39;, imgs) from IPython.display import Image Image(filename=&39;) !mkdir results !python3 -m torch.distributed.launch --nproc_per_node=1 train.py --mode=test --world_size=1 --dataloaders=2 --test_input_poses_images=./poses/ --test_input_person_images=./character_sheet/ --test_output_dir=./results/ --test_checkpoint_dir=./weights/

Step4:图片,模型设置完成后,我们就可以进行模型的推理计算了,此模型根据输入的图片生成一系列动漫舞蹈图片,当然这些图片都是连贯的,我们只需要把这些图片使用ffmpeg来制作成视频即可,此模型运行需要很长时间,当然根据个人的电脑配置,本例程运行在Google colab上面,根据你的运行条件,每个人的运行时间不一样,当然你随时可以中断模型运行,使用模型中断前已经生成的图片,便可以制作舞蹈视频了,只是视频长度较短

!ffmpeg -r 30 -y -i ./results/%d.png -r 30 -c:v libx264 output.mp4 -r 30 from IPython.display import HTML from base64 import b64encode def show_video(video_path, video_width = 600): video_file = open(video_path, &34;).read() video_url = f&34; return HTML(f&34;&34;{video_url}&34;&34;) show_video(&39;)

Step5:最后,我们使用ffmpeg把模型生成的系列图片来制作成动漫视频,最后,我们预览一下生成的视频即可,当然,生成的视频,可以下载到本地,方便后期进行处理

当然也有在线版本,把人物舞蹈的视频,实时转换成动漫视频,这个可以自行尝试

Transormer模型重点介绍了encoder与decoder,有6个编码器与6个解码器组成,其Transormer模型主要应用在NLP领域,但是随着Transormer模型的大火,其模型成功应用在了CV计算机视觉领域,其Transormer模型,Vision Transormer模型,SWIN Transormer模型都会在如下专栏进行详细动画分享

本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除

窝牛号 wwww.93ysy.com   沪ICP备2021036305号-1