项目地址

https://github.com/TachibanaYoshino/AnimeGAN

项目paper介绍

本文提出了一种将现实世界中的照片转换为动漫风格图像的新颖方法,这在计算机视觉和艺术风格转移方面是一项有意义且具有挑战性的任务。我们提出的方法结合了神经风格转移和生成对抗网络(GAN)来完成此任务。对于此任务,某些现有方法未能获得令人满意的动画效果。现有的方法通常存在一些问题,其中主要的问题主要包括:1)生成的图像没有明显的动画风格纹理; 2)生成的图像丢失了原始图像的内容;3)网络参数需要大的存储容量。

在本文中,我们提出了一种新颖的轻量级生成对抗网络,称为AnimeGAN,以实现快速的动画样式转换。此外,我们进一步提出了三种新颖的损失函数,以使生成的图像具有更好的动画视觉效果。这些损失函数是灰度样式损失,灰度对抗损失和色彩重建损失。可以使用不成对的训练数据轻松地对提出的AnimeGAN进行端到端训练。AnimeGAN的参数要求较低的存储容量。实验结果表明,我们的方法可以将现实世界中的照片快速转换为高质量的动漫图像,并且性能优于最新方法。AnimeGAN的参数要求较低的存储容量。实验结果表明,我们的方法可以将现实世界中的照片快速转换为高质量的动漫图像,并且性能优于最新方法。AnimeGAN的参数要求较低的存储容量。实验结果表明,我们的方法可以将现实世界中的照片快速转换为高质量的动漫图像,并且性能优于最新方法。

DEMO效果

生活照运行效果

效果还是不错的,有机会可以深入了解下模型结构。

 

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐