各路StyleGAN大汇总,包括全景图生成、图像到图像翻译等
可是,干一种活就得换个体系重新培训一次,太麻烦。
终于,有人细细研究了一下,发现:
其实只通过预训练和潜空间上的一点小操作,就可以让 StyleGAN 直接上手各种活儿,包括全景图生成,从单张图像生成,特征插值,图像到图像翻译等等。
更厉害的是,它在这些活儿上的表现还完全不输每一位单项 SOTA 选手。
网友纷纷感叹:这总结真的是太酷了!
All You Need:预训练 + 一点空间操作
方法都非常简单,我们一个一个来。高通此前已经与通用汽车达成合作,为车机系统供应芯片。
前提:fi∈RB×C×H×W 表示 StyleGAN 第 i 层的中间特征。
1,空间操作实现直观和逼真的图像
由于 StyleGAN 是全卷积的,我们可以调整 fi 的空间维度,从而在输出图像中引起相应的空间变化。
用简单的空间操作,可以生成更直观和真实的图像。
比如下图通过复制灌木和树丛来扩展背景,与导致纹理模糊等瑕疵的原始 resize 相比,在特征空间中可以保持更真实的纹理。
2,特征插值
对 StyleGAN 中间层进行拼贴可以实现图像信息混合,但要拼接的两张图差异太大时效果往往不好。
但采用特征插值就没问题。
具体操作方法:在每个 StyleGAN 层,分别使用不同的潜噪声生成 fAi 和 fBi然后用下面这个公式将它俩进行平滑地混合,然后再传递到下一个卷积层进行同样的操作
其中 α∈ B×C×H×W 是一个 mask,如果用于水平混合,则 mask 将从左到右变大。
和对应模型的定性和定量比较:
该特征插值法能够无缝地混合两幅图像,而 Suzuki 等人的结果存在明显的伪影。
用户研究中,与 Suzuki 等人相比,87.6% 的人也更喜欢该方法。
用户研究包含 40 人,每人需比较不同方法下的 25 对图像。
3,从单个图像生成
除了在不同图像之间进行特征插值,我们还可以在单个图像中应用它。
具体操作方法:在一些特征层中,选择相关的 patches,并将其与其他区域混合,在空间上进行复制。使用移位运算符 Shift:
这和 SinGAN 的功能相同,不过 SinGAN 涉及采样,而该方法只需要手动选择用于特征插值的 patches.
和 SinGAN 的定性和定量比较:
该方法生成的图像更加多样化和真实,SinGAN 则未能以有意义的方式改变教堂结构,并产生不够真实的云彩和风景。
用户研究中,83.3% 的人更喜欢该方法生成的新图像。IT之家9月6日消息据路透社消息,高通今日宣布将为雷诺的全新电动汽车提供芯片,用于数字仪表盘组件。
4,改进 GAN 反演
GAN 反演的目的是在 W + 空间中定位一个样式码,通过该样式码合成与给定目标图像相似的图像。
Wulff 等人的模型认为,在简单的非线性变换下,W + 空间可以用高斯分布建模可是,在属性转移设置中,需要反转源图像和参考图像,效果并不令人满意
最近的研究表明,与 W + 相比,利用 σ 进行面部操作的性能更好。
然后在这个空间而不是在 GAN 反转期间,施加相同的高斯先验。
效果比较:
5,图像到图像翻译
可以在所有空间维度上使用常数 α 来执行连续翻译,
通过选择要执行特征插值的区域来执行局部图像翻译,
这样获得的效果也更佳。
6,全景生成
重复这个过程可以生成任意长度的全景图像。
而且该方法不仅限于一次混合两个图像,也不限于只在水平方向生成。
一些示例:
7,属性转移
然后就可以应用特征插值将所选特征进行源图到目标图的转移了。
与现有方法比较:
Collins 等人的方法没有准确地转移细节属性,Suzuki 等人在姿势不匹配时产生的图像不够真实。
用户根据真实感和准确性进行选择的结果也进一步验证了该方法的优越性。
ps. 此外还可以在任意区域执行转移,比如无缝融合两边眼睛明显不同的两半脸:
以上就是无需特定架构或训练范式,在 StyleGAN 模型潜空间中执行一些操作和微调,就能与其他图像处理任务达到同等或更佳性能的具体方法。。
你觉得如何还有什么需要补充的吗欢迎在评论区留言
论文地址:
项目地址:
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。