视频&图片 超分与动漫化+补帧

该内容介绍了利用PaddleGAN等工具将视频转为动漫风格的方法。先安装依赖并建立相关目录,配置动漫化和超分辨率模型,再切割视频帧,经排序、逐帧风格转换后合成视频,还可添加音轨和插帧。此方法能处理大视频,但操作复杂,视频合成帧率设置较棘手。

1.安装依赖
由于视频不便展示,均放到项目根目录下,以便于查看
需要自行建立piece目录和piece_pr目录,分别放置切割的原视频帧,以及原视频帧动漫化后的图片

!python3 -m pip install --upgrade ppgan!git clone https://gitee.com/paddlepaddle/PaddleGAN.git%cd PaddleGAN/!pip install -v -e .!pip install paddlehub==1.8.0 -U -i https://pypi.tuna.tsinghua.edu.cn/simplefrom ppgan.apps import RealSRPredictorimport cv2import paddlehub as hubfrom PIL import Image import numpy as np%env CUDA_VISIBLE_DEVICES=0%matplotlib inline登录后复制
2.单图片操作
2.1动漫化配置
现在就有可以将现实的照片转化为动漫风格的模型可以一键应用——>{随手拍,生成日系风}。PaddleHub已将定制打造的街景动漫化模型animegan_v1_hayao_60、animegan_v2_shinkai_33、animegan_v2_paprika_74等多个优质模型开源, 并且支持一键街景照片动漫化,适用于美食、风景、人物等场景。
PaddleHub建议采用1.8,因为最新给的运行实例就是1.8,且原项目评论中有因为版本更新后无法运行的
利用AnimeGAN v2来对景物图像进行动漫风格化。
论文是 AnimeGAN: A Novel Lightweight GAN for Photo Animation, 论文链接: https://link.springer.com/chapter/10.1007/978-981-15-5577-0_18.
输出宫崎骏风格动漫照片 model = hub.Module('animegan_v1_hayao_60', use_gpu=True)
输出新海诚风格动漫照片 model = hub.Module('animegan_v2_shinkai_33', use_gpu=True)
输出今敏风格动漫照片 model = hub.Module('animegan_v2_paprika_74', use_gpu=True)
In [10]sr = RealSRPredictor()model = hub.Module(name='animegan_v2_shinkai_33', use_gpu=True)登录后复制
[04/26 22:52:31] ppgan INFO: Found /home/aistudio/.cache/ppgan/DF2K_JPEG.pdparams登录后复制
[2024-04-26 22:52:31,770] [ INFO] - Installing animegan_v2_shinkai_33 module[2024-04-26 22:52:31,773] [ INFO] - Module animegan_v2_shinkai_33 already installed in /home/aistudio/.paddlehub/modules/animegan_v2_shinkai_33登录后复制
2.2超分辨率配置
构建RealSR实例。RealSR: Real-World Super-Resolution via Kernel Estimation and Noise Injection发表于CVPR 2020 Workshops的基于真实世界图像训练的超分辨率模型。此接口对输入图片或视频做4倍的超分辨率。建议视频使用mp4格式。
注意:RealSR的输入图片尺寸需小于1000x1000pix。
其实sr.run是可以直接处理视频的,但是由于对帧数处理的太多,以至于运行速度太慢,无法处理大型的视频
四倍超分效果


当然最新还提供了直接对视频进行超分的方式,本人尝试后发现需要很大的显存,如即使是500*500,1min这种很低的分辨率的视频使用16GB显存都会不足
EDVR模型提出了一个新颖的视频具有增强可变形卷积的还原框架:第一,为了处理大动作而设计的一个金字塔,级联和可变形(PCD)对齐模块,使用可变形卷积以从粗到精的方式在特征级别完成对齐;第二,提出时空注意力机制(TSA)融合模块,在时间和空间上都融合了注意机制,用以增强复原的功能。
ppgan.apps.EDVRPredictor(output='output', weight_path=None) 参数 output_path (str,可选的): 输出的文件夹路径,默认值:output. weight_path (None,可选的): 载入的权重路径,如果没有设置,则从云端下载默认的权重到本地。默认值:None。
In [2]image_sr=sr.run_image("/home/aistudio/butterfly.png")image_sr.save('/home/aistudio/butterfly_SR.png')登录后复制3.视频处理
3.1动漫化转化函数,支持Batch
In [3]def style_transfer(ori_image_path,target_image_path,w,h): images_ori_batch=[] for p in ori_image_path: ima=cv2.imread(p) images_ori_batch.append(ima) np_array=model.style_transfer(images=images_ori_batch) for i in range(len(np_array)): t_image = cv2.cvtColor(np_array[i], cv2.COLOR_BGR2RGB) pil_image=Image.fromarray(t_image) pil_image.save(target_image_path[i])登录后复制
3.2切割视频帧
In [12]timeF = 1 #视频帧计数间隔次数videoFile = '/home/aistudio/test_short.mp4'outputFile = '/home/aistudio/piece/'vc = cv2.VideoCapture(videoFile)c = 1fps = vc.get(cv2.CAP_PROP_FPS)print(f'fps={fps}')if vc.isOpened(): rval, frame = vc.read()else: print('openerror!') rval = Falsewhile rval: rval, frame = vc.read() if c==1: print(frame.shape) # shape[0]是宽度 # shape[1]是高度 w=frame.shape[0] h=frame.shape[1] if c % timeF == 0: print(f'\r{c}',end="") # 垂直翻转 # frame = cv2.flip(frame, 0) cv2.imwrite(outputFile + str(int(c // timeF)).zfill(7) + '.jpg', frame) c += 1 cv2.waitKey(1)vc.release()print()print(h,w)登录后复制fps=25.135135135135137(960, 720, 3)341720 960登录后复制
3.3排序整理图片并测试图片是否完整
这里如果不排序结果会是混乱的,因为默认不是从1,2,3,4,5的顺序排列的
In [11]import osori_image_path=[]images_files = os.listdir("/home/aistudio/piece")for file in images_files: if file.endswith('.jpg'): t=cv2.imread("/home/aistudio/piece/"+file) if t is not None: ori_image_path.append(file)ori_image_path.sort()n=len(ori_image_path)print(n)print(ori_image_path)登录后复制3.4逐帧风格转换
In [13]import timefrom time import strftimefrom time import gmtimebatch_size=1batch_ori=[]batch_tar=[]time_start = time.time()for i,name in enumerate(ori_image_path): ori_p="/home/aistudio/piece/"+name tar_p="/home/aistudio/piece_pr/"+name batch_ori.append(ori_p) batch_tar.append(tar_p) if i%batch_size==0 or i+1==n: # print(batch_ori) # print(batch_tar) style_transfer(batch_ori,batch_tar,w,h) batch_ori=[] batch_tar=[] epoch_used_time=(time.time()-time_start) # 加了个比较简陋的计时方式,显示训练剩余时间,以便估计摸鱼时间 used_t=strftime("%H:%M:%S", gmtime(epoch_used_time)) total_t=strftime("%H:%M:%S", gmtime((epoch_used_time/(i+1))*n)) print(f'\r{i+1}/{n} {used_t}/{total_t}',end="")登录后复制340/340 00:00:45/00:00:45登录后复制
3.5把图片合成视频,注意保持前后fps一致
存在偶尔下载后无法播放的情况,需要手工调一下fps的大小,这个感觉有点玄学的意思在
In [15]# encoding: UTF-8import glob as gbimport cv2img_path=[]for i in range(len(ori_image_path)): img_path.append("/home/aistudio/piece_pr/"+ori_image_path[i])# print(img_path)# 如果下载后无法播放,调一下那个帧率,这个感觉有点玄学的意思在,我没明白啥原理videoWriter = cv2.VideoWriter('/home/aistudio/test_result.mp4', cv2.VideoWriter_fourcc(*'mp4v'), round(fps,3), (h,w))for path in img_path: img = cv2.imread(path) # 这东西第一维是高度 img = cv2.resize(img,(h,w)) videoWriter.write(img)登录后复制3.6合成视频音轨
根据图片合成的视频是没有声音的,需要从原视频移动来
In [16]!pip install moviepy登录后复制In [17]
import osimport moviepy.video.io.ImageSequenceClipfrom moviepy.editor import VideoFileClipdef add_mp3(video_src1, video_src2, video_dst): ' 将video_src1的音频嵌入video_src2视频中' video_src1 = VideoFileClip(video_src1) video_src2 = VideoFileClip(video_src2) audio = video_src1.audio videoclip2 = video_src2.set_audio(audio) videoclip2.write_videofile(video_dst, codec='libx264')video_src1 = '/home/aistudio/test_short.mp4'video_src2 = '/home/aistudio/test_result.mp4'video_dst = '/home/aistudio/test_result_yinpin.mp4'add_mp3(video_src1, video_src2, video_dst)登录后复制
Moviepy - Building video /home/aistudio/test_result_yinpin.mp4.MoviePy - Writing audio in test_result_yinpinTEMP_MPY_wvf_snd.mp3登录后复制
登录后复制登录后复制登录后复制
MoviePy - Done.Moviepy - Writing video /home/aistudio/test_result_yinpin.mp4登录后复制
登录后复制登录后复制登录后复制
Moviepy - Done !Moviepy - video ready /home/aistudio/test_result_yinpin.mp4登录后复制
3.7视频插帧
这个耗时较长,可以选用,大约10s视频需要10min用时
注意结果在output中
DAIN 模型通过探索深度的信息来显式检测遮挡。并且开发了一个深度感知的流投影层来合成中间流。在视频补帧方面有较好的效果。
ppgan.apps.DAINPredictor( output_path='output', weight_path=None, time_step=None, use_gpu=True, remove_duplicates=False)登录后复制
参数 output_path (str,可选的): 输出的文件夹路径,默认值:output.
weight_path (None,可选的): 载入的权重路径,如果没有设置,则从云端下载默认的权重到本地。默认值:None。
time_step (int): 补帧的时间系数,如果设置为0.5,则原先为每秒30帧的视频,补帧后变为每秒60帧。
remove_duplicates (bool,可选的): 是否删除重复帧,默认值:False.
In [18]在本程序中需要需要修改默认配置,可以修改tools/video-enhance.py文件
from ppgan.apps import DAINPredictorimport paddle# 使用插帧(DAIN)# input参数表示输入的视频路径# output表示处理后的视频的存放文件夹# proccess_order 表示使用的模型和顺序(目前支持)%cd /home/aistudio/PaddleGAN/applications/!python tools/video-enhance.py --input /home/aistudio/test_result_yinpin.mp4 \ --process_order DAIN \ --output /home/aistudio/output登录后复制
/home/aistudio/PaddleGAN/applications/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/init.py:58: DeprecationWarning: invalid escape sequence \s """/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/init.py:122: DeprecationWarning: invalid escape sequence \m """/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/init.py:147: DeprecationWarning: invalid escape sequence \m """/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/init.py:178: DeprecationWarning: invalid escape sequence \m """/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/init.py:215: DeprecationWarning: invalid escape sequence \m """/home/aistudio/PaddleGAN/PaddleGAN/ppgan/modules/dense_motion.py:156: DeprecationWarning: invalid escape sequence \h """Model DAIN process start..[04/26 22:58:44] ppgan INFO: Downloading DAIN_weight.tar from https://paddlegan.bj.bcebos.com/applications/DAIN_weight.tar to /home/aistudio/.cache/ppgan/DAIN_weight.tar100%|██████████████████████████████████| 78680/78680 [00:01<00:00, 47540.63it/s][04/26 22:58:46] ppgan INFO: Decompressing /home/aistudio/.cache/ppgan/DAIN_weight.tar...Tue Apr 26 22:58:46-WARNING: The old way to load inference model is deprecated. model path: /home/aistudio/.cache/ppgan/DAIN_weight/model, params path: /home/aistudio/.cache/ppgan/DAIN_weight/paramsW0426 22:58:46.768800 1381 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 10.1, Runtime API Version: 10.1W0426 22:58:46.773906 1381 device_context.cc:465] device: 0, cuDNN Version: 7.6.Old fps (frame rate): 25.14New fps (frame rate): 50100%|█████████████████████████████████████████| 341/341 [12:47<00:00, 2.25s/it]Model DAIN output frames path: /home/aistudio/output/DAIN/frames-combined/test_result_yinpin/%08d.pngModel DAIN output video path: /home/aistudio/output/DAIN/videos-output/test_result_yinpin.mp4Model DAIN process done!登录后复制
4.总结与优缺点
优势
我之前是想做一个视频的超分的,打算直接调用最新的库,但是显存爆掉了,那个视频也不太大,大约500*500然后2分钟吧,可以直接处理视频是很吃显存的,我这样拆分成图片处理后,甚至可以用16G显存处理2K以至4K视频拆分成图片后可以进行更多丰富的操作,如动漫化缺点
操作比较复杂,不如直接调用视频处理接口来的快对于图片合成为视频那块帧率一直感觉比较玄学,现在还没想太明白In [ ]登录后复制登录后复制登录后复制
免责声明
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
谷歌AI转型实绩:传统业务焕新,为互联网企业带来增长新路径
谷歌母公司Alphabet近日公布了最新季度财报,总营收达1023 46亿美元,同比增长16%,超出华尔街预期超20亿美元。分业务线来看,各板块表现均优于市场预期,摊薄每股收益达2 87美元,盘后股
马斯克“硬刚”维基百科:人类知识运营的深层矛盾解析
埃隆·马斯克近期对维基百科发起多轮公开批评,并推出由人工智能驱动的在线百科项目GrokiPedia,引发两大知识平台的隔空交锋。面对科技巨头的挑战,维基百科在最新募捐公告中以独特方式作出回应,强调其
黄仁勋、周鸿祎共论AI:是伙伴非工具,推动经济与个体升级
在近期科技界关于人工智能(AI)发展的讨论中,两位科技行业领军人物对AI本质的认知出现了高度契合的观点。英伟达创始人黄仁勋与360集团创始人周鸿祎不约而同地提出,AI不应被简单定义为技术工具,而应被
谷歌CEO:全力押注生成式AI,Gemini下载量突破65亿次
在最新公布的季度财报中,科技巨头Alphabet交出了一份亮眼成绩单,公司第三季度营收成功突破千亿美元大关。在随后召开的财报电话会议上,首席执行官桑达尔·皮查伊着重阐述了公司对生成式人工智能的战略布
环球音乐与Udio和解:版权纠纷落幕,2026年推AI音乐平台
环球音乐集团(UMG)与人工智能音乐创作平台Udio近日宣布达成一项具有开创性的战略合作协议,这一举措在音乐行业引发广泛关注。此前,双方曾因版权问题陷入法律纠纷,此次合作不仅化解了矛盾,更开启了音乐
相关攻略
热门教程
更多- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程








