转载侵权删
这是一个关于In-Context-Lora微调模型
9张图训练,不同类型得出结论:
1.汉字训练无效
2.服装/产品类(不是过于复杂的)精确描述后放置白底图上,训练后能精确复刻
3.如果忽略了部分描述,训练后生成图片也会把相应的白底元素忽略
4.1之前一张训练银杏的图,正常flux训练结果不理想,这里用In-Context-Lora的方式微调效果很棒,能还原和创意改变场景元素
4.2汉服的训练手持油纸伞效果非常好(本质也是抠图,至于抠图和原图上下文这个有没有什么我就搞不懂了)
5.意外发现Flux底膜的古琴训练的很好,加上一些古琴的修饰即可
6.老问题,滑雪板的固定器还原还是有bug,但是滑雪板的还原度比Flux直接训练的要好一点
7.训练的Config文件: https://github.com/ali-vilab/In-Context-LoRA/tree/main/config
8.我用4090 24g卡训练爆显存了,注意打开.yml文件的注释:low_vram: true