5秒生成一张分图层AI素材,“抠图”已成过去式?设计师的免费PNG“素材库”!ControlNet作者新作,Layer Diffusion生成免抠AI绘图素材!

作者: Nenly同学分类: 设计·创意 发布时间: 2024-04-09 11:00:00 浏览:150893 次

5秒生成一张分图层AI素材,“抠图”已成过去式?设计师的免费PNG“素材库”!ControlNet作者新作,Layer Diffusion生成免抠AI绘图素材!

Zackhxn:
最近研究的方向就是分图层生成 希望以后能做到让up介绍我的工作[奋斗]

【回复】最近接了四单才两千块不到[笑哭],AI生产力感觉真正能到达工作养家糊口的地步还是比较难,搞搞副业还可以……
【回复】回复 @EndlessRain2020 : 失业的都是底层,顶级的技术人员不会失业
【回复】回复 @江宁小小赵 :又不用自己画,还能赚钱你就知足吧
black☆miku:
感觉确实很有用 比如一些植物 云等不规则的物体能直接出png的话可以省去很多时间 就是不知道质量稳不稳定 待我回家下载试试

【回复】回复 @black☆miku :一句话总结:需抽,但可以接受,不行上ControlNet(=・ω・=)
【回复】回复 @Nenly同学 :up支持中文描述吗
飞天从心流:
现在这个插件还有个问题:图生图基本用不了。 不是说完全用不了,而是重绘幅度不够的话透明度微乎其微,而多大重绘幅度才能完全发挥插件的效果呢? 答案是至少0.75以上[doge],0.75以上的重绘幅度,基本上跟文生图抽卡差不多了

【回复】其实不是重绘幅度的问题,作者好像有明确提到目前的版本还没有针对图生图做支持,我建议是等等大佬更新[doge]
【回复】回复 @Nenly同学 : 我找到图生图使用这个插件的方法了!是一个另辟蹊径的方法![打call] 简单说一下具体流程:1文生图抽卡,2图生图得到成品图,3在ps里大致擦掉成品图的背景。4把擦掉背景的图塞进controlnet里并使用线稿预处理器,5文生图中同时开启layer diffusion+controlnet线稿,配合提示词,就可以直接产出预期的成品图了![脱单doge]
【回复】回复 @澁谷猫子猫_Net :[哦呼]回头我试试
聆木听风:
这么巧,我刚基于这个开发了个网站,https://pngmakerai.com/ 不想搭环境的可以直接来我这网站尝试,生成 PNG 图片,不用到处找素材了

【回复】登录后看有5点,点了一下就说余额不足,也没有出图,再刷新就剩3点= =,,望改进。
大神あきら_大神明:
好像现在无法使用一起使用lora 用了lora就无法出完全透明图了

【回复】回复 @Nenly同学 :如果是用comfyui的话 就可以使用两个及以上 forge是先到layer再到lora 而comfyui是先到lora再到layer 所以生产透明背景不受lora的影响
【回复】回复 @大神あきら_大神明 : 原来如此,ComfyUI里的节点我还没尝试过,待我测测!
【回复】我个人做了一些测试,感觉炼单个人物/对象的LoRA受到影响可能比较小。可能LD也是以一种类似于LoRA的方式注入的,所以肯定会和这些LoRA的权重产生相互影响。
飞天从心流:
upup!我找到图生图使用这个插件的方法了!是一个另辟蹊径的方法![打call] 简单说一下具体流程:1文生图抽卡,2图生图得到成品图,3在ps里大致擦掉成品图的背景。4把擦掉背景的图塞进controlnet里并使用线稿预处理器,5文生图中同时开启layer diffusion+controlnet线稿,配合提示词,就可以直接产出预期的成品图了![脱单doge]

芊芊老猫的日常:
!对于我这种没学过抠图的,太有用了

Dubai终于有硬币改名了:
bilibiliAI视频总结: AI绘画领域的最新突破——Layer Diffusion技术,它可以在生成阶段就直接将透明通道的信息加入运算,从而实现清晰的轮廓、边缘分明的毛发细节、半透明的材质和光效等功能。该技术可以广泛应用于平面设计、游戏制作等领域,可以根据前景内容补全背景、背景内容生成前景,一次性生成多层的AI绘图作品。视频还介绍了Layer Diffusion的安装和使用方法。

粉思啊:
前面的课程还没学完就出新的了,学不完真的学不完

【回复】回复 @路过打哈哈 :但AI并不一样,这不像以前的传统软件升级,每一次都有可能把以前的基础使用思路及规则都被颠覆掉,更何况SD都是开源组件,没有商业公司进行维护升级,很多功能变得更加不稳定
【回复】目前AI相关的技术就是这样的,更新迭代太快了,真的让人有种无力感,每一次升级或更新,刚学好积累的知识经验几乎又要大幅调整甚至被颠覆,哎。
【回复】回复 @TNT非主流 :以前学的就当是打基础了嘛,新技术也不可能是凭空造出来的,有积累比从零开始好多了
钰小鹤ovo:
forge怎么和webui共享模型包,有没有大佬解惑

【回复】根目录下打开webui_user.bat,里面可以配置,和ComfyUI的同步操作差不多,晚点儿我可以动态写一写~
【回复】回复 @Nenly同学 :那comfyui能用这个扩展包吗
【回复】回复 @Nenly同学 :求大神也写写Mac系统怎么同步
ADMDLC:
抠出来的图与原图比有细微差别吗,这插件是直接在原图上抠出来,还是重新生成了一张一样的没背景的图。

【回复】有挺大区别的,虽然视频里为了方便大家理解用的叙述方式是“抠”,但LayerDiffusion是以一种类似LoRA的方式注入主模型里发挥作用,在生成的时候就识别出了透明通道并进行生成,所以出来的精度、质量和直接抠图都不是一个Level的,还可以生成各种半透明的材质、光效。视频里都有展示,可以码起来有空看一下~
【回复】回复 @蛋卷2015 : 为了这个透明图层,专门弄了个forge,感觉没必要,之前装好的SD,现在又要装forge,还有个什么SC,简直乱的一比
【回复】回复 @Nenly同学 :所以他其实可以做成一个插件但还是硬做一个webui[怪我咯]
MATH-XC:
RUN之后显示这个Torch is not able to use GPU; add skip torch cuda-test to commandline args variable to disable this check,怎么添加啊,不太会,请教各位大佬!感谢

炫影之极光の侠客君:
不能把扣过图的png自动存在文件夹里也太反人类了吧!既然都有这么先进的技术了就不能完美一点吗[笑哭]

我是阿结:
老师,我下载了你的整合包,把对应的模型放到了根目录,可是生图的时候提示:Type Error:“None Type”object is not iterable

【回复】回复 @我是阿结 : 解决了吗,我也是这个问题
橘子果酱汁水:
拓展加入之后就不生效了.点启用也不生成效果图.确认更新之后启用.控制台也没有报错信息.

AI 素材 StableDiffusion LayerDiffuse 英伟达 华硕显卡 抠图 PNG AI绘画 设计UPUP!

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

更多相关阅读