而这次研究团队推出VToonify,不仅继承了DualStyleGAN的优点,并且通过修改DualStyleGAN的风格控制模块将这些特性进一步扩展到视频。
研究团队VToonify的研究团队全部来自南洋理工大学。
论文一作杨帅,是南洋理工大学的研究员,主要研究方向是图像生成和图像编辑,本科和博士均就读于北京大学。
通讯作者吕健勤,是南洋理工大学计算机科学与工程学院的副教授,也是香港中文大学客座副教授,其研究方向主要为计算机视觉和深度学习。
以下是VToonify在线试玩链接,感兴趣的小伙伴们自己动手试试吧~
在线可玩:
[1]https://huggingface.co/spaces/PKUWilliamYang/VToonify?continueFlag=4b9ae61e5c13076ecd7ba4f70434f863
[2]https://colab.research.google.com/github/williamyang1991/VToonify/blob/master/notebooks/inference_playground.ipynb
论文原文:
https://arxiv.org/abs/2209.11224
参考链接:
[1]https://www.reddit.com/r/MachineLearning/comments/xyxe8w/r_vtoonify_controllable_highresolution_portrait/
[2]https://huggingface.co/PKUWilliamYang/VToonify?continueFlag=4b9ae61e5c13076ecd7ba4f70434f863
[3]https://twitter.com/ShuaiYang1991/status/1576937439528042499
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态