1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

【AI绘画】你会选择哪个模型?

1987web2023-08-02人工智能AI134

设计一个自己喜欢的人物,并将其创作出来,赋予其丰富而独特的情感,这大概就是我们二次元人共同的梦想了吧。但是,通常这需要很多技术和能力,需要更多更多的时间。

但是,它出现了,我们的AI绘画。

书接上文,我们这次来体会下不同模型的不同效果,希望大家能选出自己喜欢的模型。

参与模型

我简单的找了一些模型做比较,毕竟模型太多了,简单介绍下,可能不准哈。

模型介绍
2dn_1动漫模型
3Guofeng3_v32Light中国、国风模型,感觉上偏3D国漫
anything-v4.5-pruned说是里面东西很多很杂
CamelliaMix_2.5D2.5D模型
camelliamix_v20动漫模型
chilloutmix_NiPrunedFp32Fix真人模型,这个主要针对亚洲人训练的,热度比较高
Dalcefo_v4_Painting动漫模型
dalcefoPainting_3rd动漫模型,色彩比较淡
dalcefoRealistic_v2真人模型
dreamshaper_4BakedVae动漫模型,有点3D的感觉
grapefruitHentaiModel_grapefruitv41动漫模型,这个热度高
meinamix_meinaV8动漫复合模型
openjourney-v4动漫模型,有些3D的意思
povSkinTexture_povSkinTextureDreamlike真人模型,很少用
realisticVisionV13_v13真人模型,很少用
realisticVisionV20_v20真人模型,很少用

其中,我最常用的是几个是 chilloutmix_NiPrunedFp32Fix、CamelliaMix_2.5D、grapefruitHentaiModel_grapefruitv41、dalcefoPainting_3rd。

效果展示

按照同一组参数进行AI绘画的生成,部分图并不是很好,主要是为了看风格对比哈,不多说,直接上图。

参数

masterpiece, best quality, high quality, game cg,a beautiful female cyborg, (solo), (ulzzang-6500-v1.1:0.84),upper body, armor, blue eyes,happy, light smile,wind,fighting bravely, in a dynamic fighting pose,detailed face, too many details, (best shadow:0.78), (cinematic light:0.72),

  1. 第一行描述了质量相关的信息,比如高质量、杰作等等;

  2. 第二行描述了主体,是一个女性赛博朋克,使用了ulzzang-6500的这个外部资源来优化了形象;

  3. 第三行描述了主体细节,上半身、战甲、蓝眼睛(土耳其的蓝眼睛是有寓意的);

  4. 第四行描述了情绪;

  5. 第五行描述了环境中的因子,风;

  6. 第六行描述了姿态,战斗姿势;

  7. 第七行,一些杂项。

如此,基本准备就绪了,那我们逐个模型跑一下看看。

2dn_1

3Guofeng3_v32Light

anything-v4.5-pruned

CamelliaMix_2.5D

camelliamix_v20

chilloutmix_NiPrunedFp32Fix

Dalcefo_v4_Painting

dalcefoPainting_3rd

dalcefoRealistic_v2

dreamshaper_4BakedVae

grapefruitHentaiModel_grapefruitv41

meinamix_meinaV8

openjourney-v4

povSkinTexture_povSkinTextureDreamlike

realisticVisionV13_v13

realisticVisionV20_v20

总结

锁定住随机种子之后,基本姿态大致相同了。通过上面的图可以看出,一些模型的细节处理的并不是很好,比如手指、眼镜等等。

合适的用法还是,按照模型的风格,去生成对应的风格的图,比如想生成一个亚洲的网红真人照片,那么在不引入其他资源的情况下,chilloutmix_NiPrunedFp32Fix 是个不错的选择。

模型对资源的依赖比较强,毕竟你希望模型都认识初音未来,那么你必须引入初音未来的Lora或者Embedding,让模型能够知道初音未来这个关键词对应的信息是什么样子的。

关于Lora

社区有很多爱好者,出于公益训练了一些自己喜欢角色的Lora,我不反对大家去尝试,但是不希望滥用。好的Lora可以协助我们更好的出图。

比如我们希望模型能认识LOL的金克丝,那么引入Jinx的Lora,让她穿上校服,那么可以做出Jinx的图

如果换成刀妹的Lora,那么就会变成这个样子

总结

科技改变了很多,如果想要世界变得更好,那么有很多事情需要我们知道并去做:

  1. 尊重版权:使用他人作品时需要注明出处,并经过授权;不要复制他人作品并宣传为自己的作品。

  2. 遵循道德规范:不要传播不道德的图像作品,即使这些作品由AI生成。

  3. 确保透明度:应该清楚地告知观众这些图像是否由人工智能生成,并遵守诸如欺诈、虚假宣传等违反消费者权益的规定。

  4. 考虑隐私:对于那些包含个人信息的图像,我们需要保护个人信息并遵循相关法律法规。

  5. 尊重我们偶像的形象,不要滥用。

转载:https://juejin.cn/post/7216153056282509349

新手在用 stable diffusion 做练习的时候,经常会遇到这样一个问题:按说,用了同样的关键词,用了同样的大模型、同样的 lora、种子数,以及其他所有参数都一致的情况下,为什么我生成的图片比原图看起来就是差那么一点,显得比较灰呢?如上图,两个完全相同的参数生成的图片,左边的就明显发灰,不那么好看,显得不那么高级。

其实这个问题很好解决,因为你没有加载 VAE 模型,正面我们来看下如何正确使用 AVE 模型。

VAE模型在出图时起到类似于滤镜的作用,它会影响最终图片画面的色彩和还可以对图片进行细化处理。

设置模型的VAE

进入 stable diffusion 的工作界面,选择设置-->stable diffusion-->模型的VAE中选择一个VAE文件即可。

选择好VAE文件后,记得一定要保存设置,然后重启 WebUI

不过 stable diffusion 刚部署好后,默认是没有VAE文件的,需要自己去下载。我现在用的是VAE文件是vae-ft-mse-840000-ema-pruned.safetensors,这个文件比较常用,效果也比较好,我会把下载方法用截图贴在下方。VAE文件下载好后,要放在正确的路么下方:该模型一般放置在*\stable-diffusion-webui\models\VAE

下载方法见下图,点击红框内的download,然后将文件放在正确路径即可以使用了。

要注意的是,有的大模型本身自带VAE效果,并不是所有的大模型都需要配合VAE一起使用,另外VAE最好和指定的模型一起搭配使用,否则可能会出现反效果,还会降低出图的质量。

下面看一组没加VAE与加了VAE的对比图片:

本次使用的大模型为ddosmix,关键词见下方:

bestquality,ultra-detailed,
                                

AI绘画,让你一步迈入高手行列,让图片有高级感

前言本文所有图片均为AI绘画软件stablediffusion生成,今天带大家如何解决生成图片发灰的问题,让你一步迈入高手行列,让图片有高级感。