stable diffusion 1.5大模型炼制详细教程,几块钱即可炼制大模型( 二 )


基本不用改动,运行
这两个不用改直接运行
# 常用参数 我就不一一讲了,有兴趣看看我sdxl_lora训练,参数讲的挺清楚了,没有的我讲一下## 最大训练步数max_train_steps = 3000#二次元步数3000-5000;真人5000-10000;画风那就使劲把## 学习率调整learning_rate = 5e-6#默认数值,根据训练loss调整,## 学习率调整策略## ["linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "cosine_with_restarts_mod", "cosine_mod"]lr_scheduler = "cosine_with_restarts"lr_warmup_steps = 100train_batch_size = 1 # batch_sizenum_class_images = 20 # 自动生成的 class_images 数量with_prior_preservation = True#训练人物开启;训练画风关闭train_text_encoder = False # 训练文本编码器use_aspect_ratio_bucket = False # 使用 ARB# 从文件名读取 promptread_prompt_from_filename = False# 从 txt 读取promptread_prompt_from_txt = Falseappend_prompt = "instance"# 保存间隔save_interval = 500#没多少步保存,基本得1000以上要不你数据盘保存几个就满了# 使用deepdanbooruuse_deepdanbooru = False# 高级参数resolution = 512gradient_accumulation_steps = 1seed = 1337log_interval = 10clip_skip = 1sample_batch_size = 4prior_loss_weight = 1.0#越低则越难过拟合,但是也越难学到东西 。# 一种学习率调度策略,通常用于训练深度学习模型时的优化器 。这个策略的主要思想是随着训练的进行,#逐渐减小学习率的大小,以帮助模型更好地收敛 。scale_lr = Falsescale_lr_sqrt = False# 同上gradient_checkpointing = Truepad_tokens = Falsedebug_arb = Falsedebug_prompt = Falseuse_ema = False#only works with _mod schedulerrestart_cycle = 1last_epoch = -1
基本调这几个就行
基础学习率:3e-6;自动打标准确率:0.35以上
batch size:
确定后就是调你的学习率了,运行
可以接着上次结果训练,第一次,不用运行,直接到启动训练运行完事
然后转换为ckpt文件,修改你下保存的模型名,就可以转换了,运行
接下来就是测试了,可以大概看一下你的模型是否还行决定是否下载,但是和本地不太一样,可能效果差一点 。修改测试的模型名,和上面一样
运行
总结
其实模型的炼制只是一部分,现在所有的大模型都是在原始模型基础上一步步进行微调,因为想重新自己炼制一个大模型,对于我们来说基本不可能,但是微调却让我们都能参与进来,可以看到,现在sd1.5的生态圈在不同作者的努力下,已经百花齐放;
模型创作者更像一个调酒师,就像之前看到的麦橘大佬所说,基于不同的大模型不同比例融合,如何融出一个更好的大模型,这点好像大家都知道,但是都不怎么说这个事,毕竟公开融合他人模型多多少少会有点问题,所以我也浅谈为止,以后有机会再细说把!!!