转跳到内容

对于现在AI作画的看法...我真觉得LORA就是AI进步的障碍..


推荐贴

8 小时前,mengjing说道:

我用的那个...标题应该还是写着...."就是加速"这样的字眼的..你找找有没有

哇哇哇,大好人~

您需不需要节操,俺可以贸易市场给您送一些,

俺好多天以前就想要这个……

https://sstm.moe/topic/339440-求问,有木有哪个网盘,速度像mega一样快,而且没有mega的限额……/

,由愚昧者修改
链接到点评
4 小时前,愚昧者说道:

呐呐,俺没用过恋活但是俺想像,

如果俺想画四个人物,abcd,

a躺在一个床上,背景一个墙,墙上挂着三个框,分别画着b和c和d,

那如果俺用恋活,在墙上挂三个空白的框,

再把这个截图塞给图生图,那他会自动在三个框里造三个画咩……

你的框是空白的话估计不会生成人物的...要另外用蒙版涂黑..这样他才会在对应的位置生成..

而恋活的话..你用工作室的话是可以不断添加人物进去的..

然后到了AI那边..你就注明4GIRL..这样的TAG..应该就会了解你的意思..

mengjing不吃不喝三天三夜只为“汉化”某悬赏游戏,搞定后发现居然是要翻译成俄语.-3节操

链接到点评
13 分钟前,mengjing说道:

你的框是空白的话估计不会生成人物的...要另外用蒙版涂黑..这样他才会在对应的位置生成..

而恋活的话..你用工作室的话是可以不断添加人物进去的..

然后到了AI那边..你就注明4GIRL..这样的TAG..应该就会了解你的意思..

就俺现在的观察,画图机好像不能分辨左右,如果俺说左手拿啥,右手拿啥,他肯定不会画……

“上下”也是不分辨的,如果写condom belt,那就没办法绑在头上……

如果俺确实需要condom_in_hair、condom_on_head,哪能找到这个名字的lora?

所以俺觉得画图机还是非常需要进步……现有的lora甚至画不全danbooru的tag……

,由愚昧者修改
链接到点评
1 小时前,愚昧者说道:

就俺现在的观察,画图机好像不能分辨左右,如果俺说左手拿啥,右手拿啥,他肯定不会画……

“上下”也是不分辨的,如果写condom belt,那就没办法绑在头上……

如果俺确实需要condom_in_hair、condom_on_head,哪能找到这个名字的lora?

所以俺觉得画图机还是非常需要进步……现有的lora甚至画不全danbooru的tag……

LORA都是调用你下载的那些模型帮你拟合的..你想要一步精准到胃的还得用别的插件..先固定好姿势...好了再用蒙版涂你想精修的地方才行...

还有你的正向标签记得加上NSFW这个才会画出18X的部分..

另外个人建议是多用回车分行来让AI分辨标签...重点专注的标签就用(XXXX:1.5)括号这样加高权重..

现在一般向的优化在LORA的加持下确实是把人物啊头发啊服饰这些做得很精美了...但是关键的18X部分反正我是没见有啥进步...比如至今都能弄出两个菊花..

还有就是你用的基础模型也是个问题..有些作者...是真的把18X内容都全删掉的..

链接到点评
40 分钟前,mengjing说道:

LORA都是调用你下载的那些模型帮你拟合的..你想要一步精准到胃的还得用别的插件..先固定好姿势...好了再用蒙版涂你想精修的地方才行...

还有你的正向标签记得加上NSFW这个才会画出18X的部分..

另外个人建议是多用回车分行来让AI分辨标签...重点专注的标签就用(XXXX:1.5)括号这样加高权重..

现在一般向的优化在LORA的加持下确实是把人物啊头发啊服饰这些做得很精美了...但是关键的18X部分反正我是没见有啥进步...比如至今都能弄出两个菊花..

还有就是你用的基础模型也是个问题..有些作者...是真的把18X内容都全删掉的..

显然condom_in_hair仅仅就是一个头饰,根本就没漏点……

比起在这里怀疑人家,直接找lora作者问他就是啦……”社会工程学“哒~

https://civitai.com/models/109868

下边评论区

链接到点评
18 分钟前,愚昧者说道:

显然condom_in_hair仅仅就是一个头饰,根本就没漏点……

比起在这里怀疑人家,直接找lora作者问他就是啦……”社会工程学“哒~

https://civitai.com/models/109868

下边评论区

没账号连预览都做不到啦...你那个评论我也看了一下...看样子只能多生成几次...抽盲盒让AI读懂了..

你把那个TAG的权重直接拉到2试试看..

东西暂时下载了...我明天也试试

链接到点评
11 小时前,愚昧者说道:

显然condom_in_hair仅仅就是一个头饰,根本就没漏点……

比起在这里怀疑人家,直接找lora作者问他就是啦……”社会工程学“哒~

https://civitai.com/models/109868

下边评论区

那个我试出来了...可以说他的模型是让套子的质感变好..

我用CONDOMINHAIR把权重拉到2..我手上的基础模型都是乱飘挂身上而已...你应该也是这个效果吧..

我可是刷了一早上的文生图...可以说出现在头上的几率是50:1..

最后没办法..拖去图生图..然后选局部重绘..限定在头发..全部涂掉...之后才会生成到头发上..不过数量以及几率还是意外的低.

另外还有一个可能就是手上的基础模型就没多少这样的数据..

要么就需要用到相关专门的LORA插件了...我这6G显存的卡就很多插件用不到...所以很少装插件..

 

链接到点评

我也玩了几个月AI,可以看看我搞的图https://www.pixiv.net/en/users/52495604

目前我个人感觉想用AI直接出一个能用的图非常困难,目前的ai的上色能力还不错,但是如果你有特定的需求,需要它在特定的地方生成你想要的东西是有点难度的。例如我想修改手臂的位置,那我就需要把原来手臂涂掉,重画一只手臂让它知道大致位置才行,只靠AI抽奖的话抽一整天都很难出效果。所以想要满足一些比较少见的需求的话,你需要自己上手画一画,让AI知道你指定的地方是有东西的,让它无中生有随机性太大且不可控。

至于lora,目前我个人感觉啊,有利有弊吧。对于我来说利大于弊,出角色算比较稳定,但是对整体画面的污染是跑不掉的,尤其是背景,用久了会发现某些lora就是会生成类似的背景,怎么调都不好使,这时就得换个思路,先做构图,再把人换掉。用了lora后就会锁定某些特征,这些特征对我来说是好处,因为我就是要这些特征,发型发色眼睛眼型衣服身材等等,那些比较难搞的例如表情,手脚,姿势我会自己修,然后让AI过一遍,再自己修一遍,来来回回重绘直到我满意为止。

 

链接到点评
5 小时前,mengjing说道:

那个我试出来了...可以说他的模型是让套子的质感变好..

我用CONDOMINHAIR把权重拉到2..我手上的基础模型都是乱飘挂身上而已...你应该也是这个效果吧..

我可是刷了一早上的文生图...可以说出现在头上的几率是50:1..

最后没办法..拖去图生图..然后选局部重绘..限定在头发..全部涂掉...之后才会生成到头发上..不过数量以及几率还是意外的低.

另外还有一个可能就是手上的基础模型就没多少这样的数据..

要么就需要用到相关专门的LORA插件了...我这6G显存的卡就很多插件用不到...所以很少装插件..

 

人家danbooru的图,可是明确的就用condom代替头花、发夹的位置……

如果电脑真的能很好的理解人类语言,那么,左手右手必须是理解的,如果俺直接说“condom代替头花”,他肯定也能理解嘛……

 

请看,二次猿这里有丰富的表情,如下表,总能画出来90%以上,

https://danbooru.donmai.us/wiki_pages/tag_group%3Aface_tags

如果用三次元的模型,比如国风、chill,挨个画上列的表情,能画出来几个?10个就不错啦……

 

俺在比利比利,看到有一些画画中专的老湿,正在制作视频教程;这些人并不是二次猿,而是画真人的,

俺看了他们的教程,俺就莫名觉得,俺自己是个“婆罗门”,这些教程的制作者是吠舍;俺这样想的依据是一个先后顺序,

先知道danbooru、konachan、yandere,后来才知道novelai的,可称婆罗门;

先知道了novelai、civitai,后来才知道danbooru,甚至现在仍然不知道danbooru的,这些人就不是二次猿的人,可称吠舍……

这些人如果不知道danbooru的存在,要怎样写tag?就直接百度翻译,汉语变英语,大胆的上啊……

 

——所以,像百度文心那样,必须写汉语,如果写个英语condom,他甚至就不认识——这才是正确的未来的方向哇……

,由愚昧者修改
链接到点评
1 小时前,nitefaint说道:

我也玩了几个月AI,可以看看我搞的图https://www.pixiv.net/en/users/52495604

目前我个人感觉想用AI直接出一个能用的图非常困难,目前的ai的上色能力还不错,但是如果你有特定的需求,需要它在特定的地方生成你想要的东西是有点难度的。例如我想修改手臂的位置,那我就需要把原来手臂涂掉,重画一只手臂让它知道大致位置才行,只靠AI抽奖的话抽一整天都很难出效果。所以想要满足一些比较少见的需求的话,你需要自己上手画一画,让AI知道你指定的地方是有东西的,让它无中生有随机性太大且不可控。

至于lora,目前我个人感觉啊,有利有弊吧。对于我来说利大于弊,出角色算比较稳定,但是对整体画面的污染是跑不掉的,尤其是背景,用久了会发现某些lora就是会生成类似的背景,怎么调都不好使,这时就得换个思路,先做构图,再把人换掉。用了lora后就会锁定某些特征,这些特征对我来说是好处,因为我就是要这些特征,发型发色眼睛眼型衣服身材等等,那些比较难搞的例如表情,手脚,姿势我会自己修,然后让AI过一遍,再自己修一遍,来来回回重绘直到我满意为止。

 

自从AI画图可以加入魔法之后..就让人养成了可以再绚丽的效果这样的误导吧..不是他不行..是总会认为他可以更棒...也就让人似有似无地无视他画蛇添足的部分..结果就产出各种各样的插件去引导AI..这可以说并不是真的在让AI进步...AI的起步本来就是替人解决办法..现在反而变成人在替AI解决办法..这才是问题..

就比如你玩的黄油...有更新了就应该是修BUG改进做调整新追加...哪有更新是由你自己去添加各种各样的东西的..我知道啥东西在完善之前都总有个过程...只不过现在回看一下..好像也有2年了吧..

链接到点评
46 分钟前,愚昧者说道:

人家danbooru的图,可是明确的就用condom代替头花、发夹的位置……

如果电脑真的能很好的理解人类语言,那么,左手右手必须是理解的,如果俺直接说“condom代替头花”,他肯定也能理解嘛……

 

请看,二次猿这里有丰富的表情,如下表,总能画出来90%以上,

https://danbooru.donmai.us/wiki_pages/tag_group%3Aface_tags

如果用三次元的模型,比如国风、chill,挨个画上列的表情,能画出来几个?10个就不错啦……

 

俺在比利比利,看到有一些画画中专的老湿,正在制作视频教程;这些人并不是二次猿,而是画真人的,

俺看了他们的教程,俺就莫名觉得,俺自己是个“婆罗门”,这些教程的制作者是吠舍;俺这样想的依据是一个先后顺序,

先知道danbooru、konachan、yandere,后来才知道novelai的,可称婆罗门;

先知道了novelai、civitai,后来才知道danbooru,甚至现在仍然不知道danbooru的,这些人就不是二次猿的人,可称吠舍……

这些人如果不知道danbooru的存在,要怎样写tag?就直接百度翻译,汉语变英语,大胆的上啊……

 

——所以,像百度文心那样,必须写汉语,如果写个英语condom,他甚至就不认识——这才是正确的未来的方向哇……

问题就是现在的AI作画还是很笨啦..特别是SD这样的脱机系统...他就是需要作者方去调教训练才行的..

而你这个兔子在头发上的...就连盒子都只有68张素材..而且还是含差分的..你真想自己做的图都呈现那样的效果..那就只能靠你自己去调教LORA..或者炼成基础模型..

原来SD的原素材基础好像有30G还是80G来着..现在基本都只有7G..2G这样的...你想里面的素材除了被精炼的图之外..还能有多少对应素材的东西在里面..?

所以哪怕你能找到想要的TAG...很多时候AI都不一定能精准画出来...不然为啥叫开盲盒...又怎么搞出LORA这些插件呢...

另外现在虽然收录的TAG是很多了...但这是一回事..这AI能不能画出来是另一回事啦...我下午试着开新的图..结果手上的模型...连:p这个吐舌头的TAG都不知道了..一百张图一百张都没一次是吐舌头的..

链接到点评
32 分钟前,mengjing说道:

自从AI画图可以加入魔法之后..就让人养成了可以再绚丽的效果这样的误导吧..不是他不行..是总会认为他可以更棒...也就让人似有似无地无视他画蛇添足的部分..结果就产出各种各样的插件去引导AI..这可以说并不是真的在让AI进步...AI的起步本来就是替人解决办法..现在反而变成人在替AI解决办法..这才是问题..

就比如你玩的黄油...有更新了就应该是修BUG改进做调整新追加...哪有更新是由你自己去添加各种各样的东西的..我知道啥东西在完善之前都总有个过程...只不过现在回看一下..好像也有2年了吧..

AI这项技术其实100年前就起步了,不过AI绘图是去年才开始崛起的,真要说2年其实也不止2年,但是迎来技术爆炸的时间大概只有1年不到。现在各种各样的插件就是有无数作者在尝试完善AI,就是在让AI进步,好用的插件最终会被整合到新的AI里,从一开始的controlnet,latent couple,sdupscale,到现在的controlnet 1.1,multidiffusion,ddetailer,ultimate sdupscale,哪个不是进步了?AI的起步就是替人解决问题,这句话没错,那AI替你解决了什么呢?如果你不会画画,那AI替你画了。如果你像我一样本来就系统性的学过绘画,那AI替我解决了短时间内制作草图的难题。

那目前AI的问题是什么?我们可以发现盲盒,抽奖这类词语在AI圈里广泛传播,代表大家都明白AI的问题就是容易失控。目前的插件不管是embendding,lora,multidiffusion,segment anything,再到controlnet里的canny,depth,seg,openpose等等等,他们最主要的用途是什么?就是控制AI,按着它的头逼它画出你想要的图。当你对这些插件足够熟悉,你就会发现,最后能不能出好图还是得看是谁在用。那现阶段的AI是什么?是一个工具,仅此而已。那这个工具好不好用?还是看人。

你也明白饭要一口一口吃的道理,那你也得给AI发展的时间吧,现在的电子设备哪个不是经过10年以上的迭代慢慢变成现在的样子的,2年,真的久吗?

链接到点评
4 分钟前,nitefaint说道:

AI这项技术其实100年前就起步了,不过AI绘图是去年才开始崛起的,真要说2年其实也不止2年,但是迎来技术爆炸的时间大概只有1年不到。现在各种各样的插件就是有无数作者在尝试完善AI,就是在让AI进步,好用的插件最终会被整合到新的AI里,从一开始的controlnet,latent couple,sdupscale,到现在的controlnet 1.1,multidiffusion,ddetailer,ultimate sdupscale,哪个不是进步了?AI的起步就是替人解决问题,这句话没错,那AI替你解决了什么呢?如果你不会画画,那AI替你画了。如果你像我一样本来就系统性的学过绘画,那AI替我解决了短时间内制作草图的难题。

那目前AI的问题是什么?我们可以发现盲盒,抽奖这类词语在AI圈里广泛传播,代表大家都明白AI的问题就是容易失控。目前的插件不管是embendding,lora,multidiffusion,segment anything,再到controlnet里的canny,depth,seg,openpose等等等,他们最主要的用途是什么?就是控制AI,按着它的头逼它画出你想要的图。当你对这些插件足够熟悉,你就会发现,最后能不能出好图还是得看是谁在用。那现阶段的AI是什么?是一个工具,仅此而已。那这个工具好不好用?还是看人。

你也明白饭要一口一口吃的道理,那你也得给AI发展的时间吧,现在的电子设备哪个不是经过10年以上的迭代慢慢变成现在的样子的,2年,真的久吗?

唉..提到OPENPOSE就来气..我的6G卡反正是跑不动了..

另外经你这么阐述..看来是我有一段时间没摆弄...总感觉AI作画该有很大的进步了...原来是我太心急了啊..

不过现在SDXL出来之后...硬件要求也到了8G起步..看来我也只能止步在现阶段了..

链接到点评
4 分钟前,mengjing说道:

唉..提到OPENPOSE就来气..我的6G卡反正是跑不动了..

另外经你这么阐述..看来是我有一段时间没摆弄...总感觉AI作画该有很大的进步了...原来是我太心急了啊..

不过现在SDXL出来之后...硬件要求也到了8G起步..看来我也只能止步在现阶段了..

其实AI本体没啥进步,底模还是sd1.5的那个模型,主要就是控制的手段变多了,从非常难控制变成还勉强能控制的情况,我的图里面有一部分都是事先想好构图再动手制作的,目前来说已经能满足我一部分的创作需求了,但是可控性依然说不上稳定。

SDXL我也看了,感觉就是MidJourney的上一版。目前基于SDXL的衍生的大模型,lora和controlnet等控制类插件还没出来,控制不了的AI那就是没法用的工具,工具不听话我也不指望他能画出我期望的图,所以在插件和大模型齐全之前是不会碰的。

链接到点评

俺来提一件事,

motrix这东西,他下载文件,会拆成64个小块,这样下完了是没法解压缩的……

必须手工按“加号”添加新的下载,把64改成1,这样就可以解压啦……

他总是记不住,每次都要手工把64改成1,

如果按“发送motrix”他就默认是64而不是1……必须忘记这个“发送”,只能“复制链接”……

链接到点评
3 小时前,愚昧者说道:

俺来提一件事,

motrix这东西,他下载文件,会拆成64个小块,这样下完了是没法解压缩的……

必须手工按“加号”添加新的下载,把64改成1,这样就可以解压啦……

他总是记不住,每次都要手工把64改成1,

如果按“发送motrix”他就默认是64而不是1……必须忘记这个“发送”,只能“复制链接”……

:2056385457_SSA(5):有这种事..?我之前装了就用来下过一次文件就没再用了...毕竟我能用BT下东西就用BT..毒盘能躲的都躲了..

链接到点评
游客
此主题已关闭。
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款