关于AI与平面商业插画的一些见闻和想法

碎碎念

刚开始还觉得以后也许大概找的到单子,还能接活。

现在连日系二次元(此前非常容易被AI扭曲的插画风格)相对比较低端的部分也被征服了,而且midjourney模仿席勒画耶酥生吃异形的那几张的确非常惊人啊。

不过感觉包袱也变小了,多了很多很多工具!!

本文尝试先列一些看到的相对比较新奇的相关网站,然后写一下笔者对生成模型的粗浅的了解和认识,阅读综述的想法(还没看完),以及从插画爱好者的角度写一下如何用现有工具提高画平面单幅商业插画的效率,最后展望一下未来机器学习对其他艺术形式的可能的影响。

相关网站

用本地显卡+Stable Diffusion AI快速生成流畅动画的小工具

stable diffusion文字生成图片的 prompt(提示引导词)汇总网站

转自微博:

𝟏. 𝐃𝐢𝐬𝐜𝐨 𝐃𝐢𝐟𝐟𝐮𝐬𝐢𝐨𝐧
—— 最早出圈的 AI 绘图工具

▶ Disco Diffusion 零基础入门学习菜单:网页链接
▶ 艺术家&艺术画风描述词推荐:网页链接
▶ 个人测试初体验:网页链接
▶ 主题测试1:国风测试 网页链接
▶ 主题测试2:异形画风 网页链接
▶ 主题测试3:莫比斯风格 网页链接
▶ 主题测试4:静物油画 网页链接
▶ 或者直接在微博搜“disco”

𝟐. 𝐌𝐢𝐝𝐣𝐨𝐮𝐫𝐧𝐞𝐲
—— 产品化的 Disco Diffusion

▶ 现已公测:discord.gg/midjourney
▶ 入门教程推荐:@海辛Hyacinth 的这篇 网页链接
▶ 和DiscoDiffusion对比:网页链接
▶ 个人测试初体验:网页链接
▶ 主题测试1:十九世纪麦当劳 网页链接
▶ 主题测试2:十八世纪的打工人 网页链接
▶ 主题测试3:克苏鲁 网页链接
▶ 帮网友测试的关键词: 网页链接

𝟑. 𝐃𝐀𝐋𝐋·𝐄
—— 乙方设计师的终极形态,傻逼甲方终结者。

▶ 内测申请链接:labs.openai.com/waitlist
▶ 入门教程:img网页链接
▶ DALL·E介绍:img网页链接
▶ 低配尝鲜版 DALLE mini:img网页链接
▶ 个人测试初体验:img网页链接
▶ 主题测试1:油画meme img网页链接
▶ 主题测试2:如何让大象转身 img网页链接
▶ 主题测试3:帮梵高理发 img网页链接
▶ 主题测试4:十七世纪 WiFi 使用状况 img网页链接
▶ 帮网友测试的关键词: img网页链接
▶ 国外用户使用测评合集:img网页链接
▶ Ben Barry 创作的画集《机器人之书》: img网页链接
▶ 官方出的单词表《达利之书》,强烈推荐:img网页链接

𝟒. 𝐓𝐢𝐚𝐦𝐚𝐭
—— 国产天团出品,支持中文的强化版 Disco Diffusion

▶ 官方微博:@Tiamat人工智能艺术
▶ 内测申请:img网页链接

𝟓. 𝐈𝐦𝐚𝐠𝐞𝐧
—— 谷歌下场,直接叫板 DALLE,号称“前所未有的写实感和深度的语言理解”

▶ 介绍:img网页链接
▶ 论文地址:gweb-research-imagen.appspot.com
▶ 试玩地址:问就是等内测

𝟔. 𝐏𝐚𝐫𝐭𝐢
—— 谷歌自家内卷产品,继 Imagen 之后又出了一个更强,像素更高,细节更丰富的王者。

▶ 介绍:img网页链接
▶ 论文地址:parti.research.google
▶ 试玩地址:问就是等内测

𝟕. 𝐌𝐚𝐤𝐞-𝐀-𝐒𝐜𝐞𝐧𝐞
—— Facebook (Meta)也下场了,当代神笔马良。

▶ 介绍:img网页链接
▶ 发布推文:img网页链接
▶ 试玩地址:问就是等内测

𝟖. 𝐍𝐔𝐖𝐀
—— 微软也下场了,一个名字说明其能力和野心:女娲

▶ 介绍:img网页链接
▶ 论文地址:img网页链接
▶ 官网地址:img网页链接
▶ 试玩地址:问就是等内测

𝟗. 𝐒𝐭𝐚𝐛𝐥𝐞 𝐃𝐢𝐟𝐟𝐮𝐬𝐢𝐨𝐧
—— 目前市面上的最强,没有之一,而且已经开源

▶ 开源介绍:网页链接
▶ 主题测试1:静物测试 网页链接
▶ 主题测试2:川濑巴水的意大利之旅 网页链接
▶ 主题测试3:印象派的北京团建 网页链接
▶ 主题测试4:赛博穆夏 网页链接
▶ 主题测试5:西方老北京 网页链接
▶ 主题测试6:David Inshaw 的托斯卡纳之旅 网页链接

以下是一些和AI结合的工作流探索

▶ 用 Disco Diffusion 来批量绘制纹理:img网页链接
▶ 用色块控制 Disco Diffusion 的配色和构图:img网页链接
▶ 我的 AI+Blender 工作流:img网页链接
▶ 我的 AI+Blender 工作流2:img网页链接
▶ Nekro 大神的终极工作流:我抄我自己 img网页链接

关于AI绘画的版权讨论:img网页链接

模型相关

生成模型

最近做的不需要用到diffusion model,先蹲蹲。关于ode和sde优化的部分没看懂也没推。

【转载】

Diffusion Models: A Comprehensive Survey of Methods and Applications

本综述(Diffusion Models: A Comprehensive Survey of Methods and Applications)来自加州大学&Google Research的Ming-Hsuan Yang、斯坦福大学的Yang SongScore SDE一作)、北京大学崔斌实验室以及CMU、UCLA、蒙特利尔Mila研究院等众研究团队,首次对现有的扩散生成模型(diffusion model)进行了全面的总结分析,从diffusion model算法细化分类、和其他五大生成模型的关联以及在七大领域中的应用等方面展开,最后提出了diffusion model的现有limitation和未来的发展方向。文章链接:https://arxiv.org/abs/2209.00796本综述diffusion models论文分类汇总github链接:https://github.com/YangLing0818/Diffusion-Models-Papers-Survey-Taxonomy

一. 介绍

扩散模型(diffusion models)是深度生成模型中新的SOTA。扩散模型在图片生成任务中超越了原SOTA:GAN,并且在诸多应用领域都有出色的表现,如计算机视觉,NLP、波形信号处理、多模态建模、分子图建模、时间序列建模、对抗性净化等。此外,扩散模型与其他研究领域有着密切的联系,如稳健学习、表示学习、强化学习。然而,原始的扩散模型也有缺点,它的采样速度慢,通常需要数千个评估步骤才能抽取一个样本;它的最大似然估计无法和基于似然的模型相比;它泛化到各种数据类型的能力较差。如今很多研究已经从实际应用的角度解决上述限制做出了许多努力,或从理论角度对模型能力进行了分析。然而,现在缺乏对扩散模型从算法到应用的最新进展的系统回顾。为了反映这一快速发展领域的进展,我们对扩散模型进行了首个全面综述。我们设想我们的工作将阐明扩散模型的设计考虑和先进方法,展示其在不同领域的应用,并指出未来的研究方向。此综述的概要如下图所示:


尽管diffusion model在各类任务中都有着优秀的表现,它仍还有自己的缺点,并有诸多研究对diffusion model进行了改善。为了系统地阐明diffusion model的研究进展,我们总结了原始扩散模型的三个主要缺点,采样速度慢,最大化似然差、数据泛化能力弱,并提出将的diffusion models改进研究分为对应的三类:采样速度提升、最大似然增强和数据泛化增强。我们首先说明改善的动机,再根据方法的特性将每个改进方向的研究进一步细化分类,从而清楚的展现方法之间的联系与区别。在此我们仅选取部分重要方法为例, 我们的工作中对每类方法都做了详细的介绍,内容如图所示:在分析完三类扩散模型后,我们将介绍其他的五种生成模型GAN,VAE,Autoregressive model, Normalizing flow, Energy-based model。考虑到扩散模型的优良性质,研究者们已经根据其特性将diffusion model与其他生成模型结合,所以为了进一步展现diffusion model 的特点和改进工作,我们详细地介绍了diffusion model和其他生成模型的结合的工作并阐明了在原始生成模型上的改进之处。Diffusion model在诸多领域都有着优异的表现,并且考虑到不同领域的应用中diffusion model产生了不同的变形,我们系统地介绍了diffusion model的应用研究,其中包含如下领域:计算机视觉,NLP、波形信号处理、多模态建模、分子图建模、时间序列建模、对抗性净化。对于每个任务,我们定义了该任务并介绍利用扩散模型处理任务的工作,我们将本项工作的主要贡献总结如下:l 新的分类方法:我们对扩散模型和其应用提出了一种新的、系统的分类法。具体的我们将模型分为三类:采样速度提升、最大似然提升、数据泛化提升。进一步地,我们将扩散模型的应用分为七类:计算机视觉,NLP、波形信号处理、多模态建模、分子图建模、时间序列建模、对抗性净化。l 全面的回顾:我们首次全面地概述了现代扩散模型及其应用。我们展示了每种扩散模型的主要改进,和原始模型进行了必要的比较,并总结了相应的论文。对于扩散模型的每种类型的应用,我们展示了扩散模型要解决的主要问题,并说明它们如何解决这些问题l 未来研究方向:我们对未来研究提出了开放型问题,并对扩散模型在算法和应用方面的未来发展提供了一些建议。

二. 扩散模型基础

生成式建模的一个核心问题是模型的灵活性和可计算性之间的权衡。扩散模型的基本思想是正向扩散过程来系统地扰动数据中的分布,然后通过学习反向扩散过程恢复数据的分布,这样就了产生一个高度灵活且易于计算的生成模型。A. Denoising Diffusion Probabilistic Models(DDPM)一个DDPM由两个参数化马尔可夫链组成,并使用变分推断以在有限时间后生成与原始数据分布一致的样本。前向链的作用是扰动数据,它根据预先设计的噪声进度向数据逐渐加入高斯噪声,直到数据的分布趋于先验分布,即标准高斯分布。反向链从给定的先验开始并使用参数化的高斯转换核,学习逐步恢复原数据分布。用 x0 ~ q(x0) 表示原始数据及其分布,则前向链的分布是可由下式表达:

这说明前向链是马尔可夫过程, xt 是加入t步噪音后的样本, βt 是事先给定的控制噪声进度的参数。当 ∏t1−βt 趋于1时, xT 可以近似认为服从标准高斯分布。当 βt 很小时,逆向过程的转移核可以近似认为也是高斯的:

【有限,近似高斯,不是直接算然后拆】

【trick:把1:t的求和近似成一个随机分布】

16年:zero-shot txt2image:

gan适合采样不适合似然,表示概率分布是用的采样

而vae喝diffusion用的隐变量

stable diffusion:5kw美金。zero-shot笛卡尔积的组合

2019:songyang:Unet补充层与层之间的细节,ddpm的结果

SGDM:

f保证可逆,可微

拟合logqt相当于拟合噪声??

相当于高维的vae,vae缺点在于elbo用的近似和真实值的gap难知道。vae可以理解为一步的diffusion(ddpm之前的),gap比diffusion大。

hierachical vae。

vae encoder可以加正则。diffusion model里面Unet有窄的,但是里面语义的信息比较少,很local。

vae的隐空间适合做强化学习。

压缩的任务要求快速做似然。

generative model做异常检测。高维空间中有很多没探索过的。

offline RL: vae估

ddim

我们可以将变分下界作为损失函数进行学习:

B. Score-Based Generative Models(SGM)上述DDPM可以视作SGM的离散形式。SGM构造一个随机微分方程(SDE)来平滑的扰乱数据分布,将原始数据分布转化到已知的先验分布:和一个相应的逆向SDE,来将先验分布变换回原始数据分布:因此,要逆转扩散过程并生成数据,我们需要的唯一信息就是在每个时间点的分数函数。利用score-matching的技巧我们可以通过如下损失函数来学习分数函数:对两种方法的进一步介绍和两者关系的介绍请参见我们的文章。原始扩散模型的三个主要缺点,采样速度慢,最大化似然差、数据泛化能力弱。

最近许多研究都在解决这些缺点,因此我们将改进的扩散模型分为三类:采样速度提升、最大似然增强和数据泛化增强。在接下来的三、四、五节我们将对这三类模型进行详细的介绍。

三. 采样加速方法

在应用时,为了让新样本的质量达到最佳,扩散模型往往需要进行成千上万步计算来获取一个新样本。这限制了diffusion model的实际应用价值,因为在实际应用时,我们往往需要产生大量的新样本,来为下一步处理提供材料。研究者们在提高diffusion model采样速度上进行了大量的研究。我们对这些研究进行了详细的阐述。我们将其细化分类为三种方法:Discretization Optimization,Non-Markovian Process,Partial Sampling

A. Discretization Optimization方法优化求解diffusion SDE的方法。因为现实中求解复杂SDE只能使用离散解来逼近真正的解,所以该类方法试图优化SDE的离散化方法,在保证样本质量的同时减少离散步数。SGM 提出了一个通用的方法来求解逆向过程,即对前向和后向过程采取相同的离散方法。如果给定了前向SDE的离散方式:

那么我们就可以以相同的方式离散化逆向SDE:这种方法比朴素DDPM效果略好一点。进一步,SGM向SDE求解器中加入了一个矫正器,从而让每一步生成的样本都有正确的分布。在求解的每一步,求解器给出一个样本后,矫正器都使用马尔可夫链蒙特卡罗方法来矫正刚生成的样本的分布。实验表明向求解器中加入矫正器比直接增加求解器的步数效率更高。

B. Non-Markovian Process方法突破了原有Markovian Process的限制,其逆过程的每一步可以依赖更多以往的样本来进行预测新样本,所以在步长较大时也能做出较好的预测,从而加速采样过程。其中主要的工作DDIM,不再假设前向过程是马尔可夫过程,而是服从如下分布:

DDIM的采样过程可以视为离散化的神经常微分方程,其采样过程更高效,并且支持样本的内插。进一步的研究发现DDIM可以视作流形上扩散模型PNDM的特例。

C. Partial Sampling方法通过在generation process中忽略一部分的时间节点,而只使用剩下的时间节点来生成样本,直接减少了采样时间。例如,Progressive Distillation从训练好的扩散模型中蒸馏出效率更高的扩散模型。对于训练好的一个扩散模型,Progressive Distillation会从新训练一个扩散模型,使新的扩散模型的一步对应于训练好的扩散模型的两步,这样新模型就可以省去老模型一半的采样过程。具体算法如下:

不断循环这个蒸馏过程就能让采样步骤指数级下降。

learning-free sampling:

SDE:

ODE

矩匹配?

sde加速比ode加速更有优势?

一个ode的解是一个函数,随机微分方程的解是一个随机过程,可逆。记住结论就行了。

证明两个时候噪声确定,那么中间的噪声都不影响效果?simplifying by log-SNR

四. 最大似然估计加强

扩散模型在最大似然估计的表现差于基于似然函数的生成模型,但最大化似然估计在诸多应用场景都有重要意义,比如图片压缩, 半监督学习, 对抗性净化。由于对数似然难以直接计算,研究主要集中在优化和分析变分下界(VLB)。我们对提高扩散模型最大似然估计的模型进行了详细的阐述。我们将其细化分类为三类方法:Objectives Designing,Noise Schedule Optimization,Learnable Reverse Variance

A. Objectives Designing

方法利用扩散 SDE推倒出生成数据的对数似然与分数函数匹配的损失函数的关系。这样通过适当设计损失函数,就可以最大化 VLB 和对数似然。 Song et al. 证明了可以设计损失函数的权重函数,使得plug-in reverse SDE 生成样本的似然函数值小于等于损失函数值,即损失函数是似然函数的上界。分数函数拟合的损失函数如下:

我们只需将权重函数 λ(t) 设为扩散系数g(t)即可让损失函数成为似然函数的VLB,即:B. Noise Schedule Optimization

通过设计或学习前向过程的噪声进度来增大VLB。VDM证明了当离散步数接近无穷时,损失函数完全由信噪比函数SNR(t)的端点决定:

那么在离散步数接近无穷时,可以通过学习信噪比函数SNR(t)的端点最优化VLB,而通过学习信噪比函数中间部分的函数值来实现模型其他方面的改进。

C. Learnable Reverse Variance方法学习反向过程的方差,从而较少拟合误差,可以有效地最大化VLB。Analytic-DPM证明,在DDPM和DDIM中存在反向过程中的最优期望和方差:

使用上述公式和训练好的分数函数,在给定前向过程的条件下,最优的VLB可以近似达到。

五. 数据泛化增强

扩散模型假设数据存在于欧几里得空间,即具有平面几何形状的流形,并添加高斯噪声将不可避免地将数据转换为连续状态空间,所以扩散模型最初只能处理图片等连续性数据,直接应用离散数据或其他数据类型的效果较差。这限制了扩散模型的应用场景。数个研究工作将扩散模型推广到适用于其他数据类型的模型,我们对这些方法进行了详细地阐释。我们将其细化分类为两类方法:Feature Space Unification,Data-Dependent Transition Kernels。A. Feature Space Unification方法将数据转化到统一形式的latent space,然后再latent space上进行扩散。LSGM提出将数据通过VAE框架先转换到连续的latent space 上后再在其上进行扩散。这个方法的难点在于如何同时训练VAE和扩散模型。LSGM表明由于潜在先验是intractable的,分数匹配损失不再适用。LSGM直接使用VAE中传统的损失函数ELBO作为损失函数,并导出了ELBO和分数匹配的关系:

该式在忽略常数的意义下成立。通过参数化扩散过程中样本的分数函数,LSGM可以高效的学习和优化ELBO。B. Data-Dependent Transition Kernels方法根据数据类型的特点设计diffusion process 中的transition kernels,使扩散模型可以直接应用于特定的数据类型。D3PM为离散型数据设计了transition kernel,可以设为lazy random-walk,absorbing state等。GEODIFF为3D分子图数据设计了平移-旋转不变的图神经网络,并且证明了具有不变性的初分布和transition kernel可以导出具有不变性的边缘分布。假设T是一个平移-旋转变换,如:那么生成的样本分布也有平移-旋转不变性:

六. 和其他生成模型的联系

在下面的每个小节中,我们首先介绍其他五类重要的生成模型,并分析它们的优势和局限性。然后我们介绍了扩散模型是如何与它们联系起来的,并说明通过结合扩散模型来改进这些生成模型。VAE,GAN,Autoregressive model, Normalizing flow, Energy-based model和扩散模型的联系如下图所示:


A. DDPM可以视作层次马尔可夫VAE(hierarchical Markovian VAE)。但DDPM和一般的VAE也有区别。DDPM作为VAE,它的encoder和decoder都服从高斯分布、有马尔科夫行;其隐变量的维数和数据维数相同;decoder的所有层都共用一个神经网络。B. DDPM可以帮助GAN解决训练不稳定的问题。因为数据是在高维空间中的低维流形中,所以GAN生成数据的分布和真实数据的分布重合度低,导致训练不稳定。扩散模型提供了一个系统地增加噪音的过程,通过扩散模型向生成的数据和真实数据添加噪音,然后将加入噪音的数据送入判别器,这样可以高效地解决GAN无法训练、训练不稳定的问题。C. Normalizing flow通过双射函数将数据转换到先验分布,这样的作法限制了Normalizing flow的表达能力,导致应用效果较差。类比扩散模型向encoder中加入噪声,可以增加Normalizing flow的表达能力,而从另一个视角看,这样的做法是将扩散模型推广到前向过程也可学习的模型。D. Autoregressive model在需要保证数据有一定的结构,这导致设计和参数化自回归模型非常困难。扩散模型的训练启发了自回归模型的训练,通过特定的训练方式避免了设计的困难。E. Energy-based model直接对原始数据的分布建模,但直接建模导致学习和采样都比较困难。通过使用扩散恢复似然,模型可以先对样本加入微小的噪声,再从有略微噪声的样本分布来推断原始样本的分布,使的学习和采样过程更简单和稳定。七. 扩散模型的应用在下面的每个小节中,我们分别介绍了扩散模型在计算机视觉、自然语言处理、波形信号处理、多模态学习、分子图生成、时间序列以及对抗学习等七大应用方向中的应用,并对每类应用中的方法进行了细分并解析。例如在计算机视觉中可以用diffusion model进行图像补全修复(RePaint):在多模态任务中可以用diffusion model进行文本到图像的生成(GLIDE):还可以在分子图生成中用diffusion model进行药物分子和蛋白质分子的生成(GeoDiff):应用分类汇总见表:八. 未来研究方向A. 应用假设再检验。我们需要检查我们在应用中普遍接受的假设。例如,实践中普遍认为扩散模型的前向过程会将数据转换为标准高斯分布,但事实并非如此,更多的前向扩散步骤会使最终的样本分布与标准高斯分布更接近,与采样过程一致;但更多的前向扩散步骤也会使估计分数函数更加困难。理论的条件很难获得,因此在实践中操作中会导致理论和实践的不匹配。我们应该意识到这种情况并设计适当的扩散模型。B. 从离散时间到连续时间。由于扩散模型的灵活性,许多经验方法可以通过进一步分析得到加强。通过将离散时间的模型转化到对应的连续时间模型,然后再设计更多、更好的离散方法,这样的研究思路有前景。C. 新的生成过程。扩散模型通过两种主要方法生成样本:一是离散化反向扩散 SDE,然后通过离散的反向 SDE 生成样本;另一个是使用逆过程中马尔可夫性质对样本逐步去噪。然而,对于一些任务,在实践中很难应用这些方法来生成样本。因此,需要进一步研究新的生成过程和视角。D. 泛化到更复杂的场景和更多的研究领域。虽然目前diffusion model已经应用到多个场景中,但是大多数局限于单输入单输出的场景,将来可以考虑将其应用到更复杂的场景,比如text-to-audiovisual speech synthesis。也可以考虑和更多的研究领域相结合。

预训练大模型

不了解,明年填坑

怎么用现有工具提高画单幅插画的效率

十二月份来填坑。

未来机器学习对其他艺术形式的可能影响

十二月份来填坑。


关于AI与平面商业插画的一些见闻和想法
https://yangqing-20.github.io/2022/10/28/art3-ai-and-illustrations/
Author
yangqing
Posted on
October 28, 2022
Licensed under