单卡就能运行AI画画模型,小白也能看懂的教程来了,还有免费算力
允中 发自 凹非寺量子位 | 公众号 QbitAI
昇思MindSpore首个可训练的diffusion模型DDPM马上要和大家见面了,操作简单,可训练+推理,单卡即可运行。
最近爆火的AI绘图,相信大家并不陌生了。
从AI绘图软件生成的作品打败一众人类艺术家,斩获数字艺术类冠军,到如今DALL.E、Imagen、novelai等国内外平台遍地开花。
也许你也曾点开过相关网站,尝试让AI描绘你脑海中的风景,又或者上传了一张自己帅气/美美的照片,然后对着最后生成的糙汉哭笑不得。
那么,在你感受AI绘图魅力的同时,有没有想过(不你肯定想过),它背后的奥妙究竟是什么?
△美国科罗拉多州技术博览会中获得数字艺术类冠军的作品——《太空歌剧院》
一切,都要从一个名为DDPM的模型说起…
DDPM是什么?
DDPM模型,全称Denoising Diffusion Probabilistic Model,可以说是现阶段diffusion模型的开山鼻祖。
不同于前辈GAN、VAE和flow等模型,diffusion模型的整体思路是通过一种偏向于优化的方式,逐步从一个纯噪音的图片中生成图像。
△现在已有生成图像模型的对比
有的小伙伴可能会问了,什么是纯噪音图片?
很简单,老式电视机没信号时,伴随着刺啦刺啦噪音出现的雪花图片,就属于纯噪音图片。
而DDPM在生成阶段所做的事情,就是把这些个雪花一点点移除,直到清晰的图像露出它的庐山真面目,我们把这个阶段称之为去噪。
△纯噪音图片:老电视的雪花屏
通过描述,大家可以感受到,去噪其实是个相当复杂的过程。
没有一定的去噪规律,可能你忙活了好半天,到最后还是对着奇形怪状的图片欲哭无泪。
当然,不同类型的图片也会有不同的去噪规律,至于怎么让机器学会这种规律,有人灵机一动,想到了一种绝妙的方法:
既然去噪规律不好学,那我为什么不先通过加噪的方式,先把一张图片变成纯噪音图像,再把整个过程反着来一遍呢?
这便奠定了diffusion模型整个训练-推理的流程:先在前向过程(forward process)通过逐步加噪,将图片转换为一个近似可用高斯分布的纯噪音图像;
紧接着在反向过程(reverse process)中逐步去噪,生成图像;
最后以增大原始图像和生成图像的相似度作为目标,优化模型,直至达到理想效果。
△DDPM的训练-推理流程
到这里,不知道大家的接受度怎样?如果感觉没问题,轻轻松松的话,准备好,我要开始上大招(深入理论)啦。
1.1.1 前向过程(forward process)
前向过程又称为扩散过程(diffusion process),整体是一个参数化的马尔可夫链(Markov chain)。从初始数据分布x0~q(x)出发,每步在数据分布中添加高斯噪音,持续T次。其中从第t-1步xt-1到第t步xt的过程可以用高斯分布表示为:
通过合适的设置,随着t不断增大,原始数据x0会逐渐失去他的特征。我们可以理解为,在进行了无限次的加噪步骤后,最终的数据xT会变成没有任何特征,完全是随机噪音的图片,也就是我们最开始说的雪花屏。
在这个过程中,每一步的变化是可以通过设置超参βt来控制,在我们知晓最开始的图片是什么的前提下,前向加噪的整个过程可以说是已知且可控的,我们完全能知道每一步的生成数据是什么样子。
但问题在于,每次的计算都需要从起始点出发,结合每一步的过程,慢慢推导至你想要的某步数据xt,过于麻烦。好在因为高斯分布的一些特性,我们可以一步到位,直接从x0得到xt。
注意,这里的和为组合系数,本质上是超参的βt表达式。
1.1.2 反向过程(reverse process)
和前向过程同理,反向过程也是一个马尔可夫链(Markov chain),只不过这里用到的参数不同,至于具体参数是什么,这个就是我们需要机器来学习的部分啦。
在了解机器如何学习前,我们首先思考,基于某一个原始数据x0,从第t步xt,精准反推回第t-1步xt-1的过程应该是怎样的?
答案是,这个仍可以用高斯分布表示:
注意这里必须要考虑x0,意思是反向过程最后生成图像还是要与原始数据有关。输入猫的图片,模型生成的图像应该是猫,输入狗的图片,生成的图像也应该和狗相关。若是去除掉x0,则会导致无论输入哪种类型的图片训练,最后diffusion生成的图像都一样,猫狗不分。
经过一系列的推导,我们发现,反向过程中的参数和,竟然还是可以用x0,xt,以及参数βt,表示出来的,是不是很神奇~
当然,机器事先并不知道这个真实的反推过程,它能做到的,只是用一个大概近似的估计分布去模拟,表示为p0(xt-1|xt)。
1.1.3 优化目标
在最开始我们提到,需要通过增大原始数据和反向过程最终生成数据的相似度来优化模型。在机器学习中,我们计算该相似度参考的是交叉熵(cross entropy)。
关于交叉熵,学术上给出的定义是用于度量两个概率分布间的差异性信息。换句话讲,交叉熵越小,模型生成的图片就越和原始图片接近。但是,在大多数情况下,交叉熵是很难或者无法通过计算得出的,所以我们一般会通过优化一个更简单的表达式,达到同样的效果。
Diffusion模型借鉴了VAE模型的优化思路,将variational lower bound(VLB,又称ELBO)替代cross entropy来作为最大优化目标。通过无数步的分解,我们最终得到:
看到这么复杂的公式,好多小伙伴肯定头都大了。但不慌,这里需要关注的,只是中间的Lt-1罢了,它表示的是xt和xt-1之间估计分布p0(xt-1|xt)和真实分布q(xt-1|xt,x0)的差距。差距越小,模型最后生成图片的效果就越好。
1.1.4 上代码
在了解完DDPM背后的原理,接下来就让我们看看DDPM模型究竟是如何实现…
才怪啦。相信看到这里的你,肯定也不想遭受成百上千行代码的洗礼。
好在MindSpore已经为大家提供了开发完备的DDPM模型,训练推理两手抓,操作简单,单卡即可运行,想要体验效果的小伙伴,只需要先
pipinstall denoising-diffusion-mindspore
然后,参考如下代码配置参数:
对重要的参数进行一些解析:
- GaussianDiffusion
- image_size: 图片大小
- timesteps: 加噪步数
- sampling_timesteps: 采样步数,为提升推理性能,需小于加噪步数
- Trainer
- folder_or_dataset: 对应图片中的path, 可以是已下载数据集的路径(str),也可以是已做好数据处理的VisionBaseDataset, GeneratorDataset 或 MindDataset
- train_batch_size:batch大小
- train_lr: 学习率
- train_num_steps: 训练步数
进阶版DDPM模型MindDiffusion
DDPM只是Diffusion这个故事的开篇。目前,已有无数的研究人员被其背后瑰丽的世界所吸引,纷纷投身其中。
在不断优化模型的同时,他们也逐渐开发了Diffusion在各个领域的应用。
其中,包括了计算机视觉领域的图像优化、inpainting、3D视觉、自然语言处理中的text-to-speech、AI for Science领域的分子构象生成、材料设计等。
更有来自斯坦福大学计算机科学系的博士生Eric Zelikman大开脑洞,尝试将DALLE-2与最近另一个大火的对话模型ChatGPT相结合,制作出了温馨的绘本故事。
△DALLE-2 + ChatGPT合力完成的,关于一个名叫罗比的小机器人的故事
不过最广为大众所知的,应该还是它在文生图(text-to-image)方面的应用。输入几个关键词或者一段简短的描述,模型便可以为你生成相对应的图画。
比如,输入城市夜景 赛博朋克 格雷格·路特科夫斯基,最后生成的便是一张色彩鲜明,颇具未来科幻风格的作品。
再比如,输入莫奈 撑阳伞的女人 月亮 梦幻,生成的便是一张极具有朦胧感的女人画像,色彩搭配的风格有木有让你想起莫奈的《睡莲》?
想要写实风格的风景照作为屏保?没问题!
△乡村 田野 屏保
想要二次元浓度多一点的?也可以!
△来自深渊 风景 绘画 写实风格
以上这些图片,均是由MindDiffusion平台的下的悟空画画制作而成的哦,悟空画画是基于扩散模型的中文文生图大模型,由华为诺亚团队携手中软分布式并行实验室,昇腾计算产品部联合开发。
模型基于Wukong dataset训练,并使用昇思框架(MindSpore)+昇腾(Ascend)软硬件解决方案实现。
此外,MindDiffusion中的模型也会同样具备可训练、可推理的特性,预计明年就能出现。
欢迎大家头脑风暴,生成各种别具风格的作品哦~
(据说有人已经开始尝试张飞绣花、刘华强砍瓜、古希腊神大战哥斯拉了。ummmm,怎么办,突然就很期待成品了呢(ಡωಡ))
One More Thing
最后的最后,在Diffusion爆火的如今,有人也曾发出过疑问,它为什么可以做到如此的大红大紫,甚至风头开始超过GAN网络?
Diffusion的优势突出,劣势也很明显;它的诸多领域仍是空白,它的前方还是一片未知。
为什么却有那么多的人在孜孜不倦地对它进行研究呢?
兴许,马毅教授的一番话,可以给我们提供一种解答。
但diffusion process的有效性、以及很快取代GAN也充分说明了一个简单道理:
几行简单正确的数学推导,可以比近十年的大规模调试超参调试网络结构有效得多。
或许,这就是Diffusion模型的魅力吧。
此外,DDPM模型运算可使用启智社区的NPU算力,启智社区联合MindSpore,发放一年份100万卡时的免费算力,可以去试试了~
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
二、AI绘画的作用
1.提高效率
在使用触站AI之前,我们需要手动创造每个元素。而现在,我们可以通过 AI 技术来自动完成这个过程,从而提高绘画效率。不仅如此,触站AI还支持多种分辨率,我们可以根据需要将结果输出为不同大小和倍数的图片,用于不同用途。
2.增强创造力
如果你有一个想法,但是不知道要如何开始创作,那么触站AI可以帮助你。它提供了多个关键词,我们可以根据自己的需求选择其中一个或几个关键词,然后点击生成按钮,触站AI就会自动生成相应的图像,让我们可以从中找到灵感。不仅如此,触站AI还支持图像风格迁移,我们可以将我们喜欢的艺术风格应用到自己的作品中,从而增强创造力。
3.提高人工智能技术应用水平
触站AI是一个人工智能系统,它的技术含量非常高。通过使用触站AI,我们可以学习和熟悉人工智能技术,拓展自己的知识面,提高人工智能技术应用水平。
AI绘画,让创意与艺术相遇
如果说以前,艺术品的创作需要天赋和技巧,那么现在AI绘画的出现,让人们有了一种崭新的体验——用人工智能来辅助艺术的创作。触站AI就是这样一款能够让艺术和科技
1、什么是AI绘画SD直装?
AI绘画SD直装是一种基于人工智能的绘画技术,它能够通过对图像进行分析和处理,将图像转化为SD卡上的绘画模板。这种模板可以直接加载到绘画设备上,让用户像按照数字指引拼图一样,将图像重新绘制出来。
2、AI绘画SD直装的优势
- **便捷高效**:与传统绘画方式相比,AI绘画SD直装可以大大减少绘画过程中的时间和精力消耗。通过直接使用模板,绘画者只需要按照指引进行绘制,不再需要从零开始构思和勾勒。
- **艺术创新**:AI绘画SD直装借助人工智能的图像处理技术,具备自动调整画笔、颜色和透明度等功能,使得绘画过程更加精准和多样化。这种技术可以帮助艺术家在创作过程中发现新的灵感和风格。
- **成果共享**:AI绘画SD直装提供了一个便捷的方式,让艺术家将自己的作品分享给更多的人。通过将绘画模板分享到在线平台或社交媒体上,艺术家可以与观众直接互动,获得更多的反馈和认可。