Disclaimers 免责声明
⚠ The model released is intended solely for academic exchange and personal learning purposes, and must not be used for any commercial activities. As the author of this model, I will not be held responsible for any copyright or other legal issues that may arise from the use or misuse of the model by any individual or entity. By downloading or using this model, you agree to the above terms. Any legal issues that result from the use of this model are the sole responsibility of the user.
⚠ 本模型仅供学术交流和个人学习使用,不得用于任何商业目的。我作为该模型的作者,不对任何个人或集体使用该模型可能引起的版权或其他法律问题负责。下载或使用该模型即表明您同意上述条款。若使用该模型时引发任何法律问题,一切后果由使用者自行承担。
Intro. 简介
⚠ This model prohibits any commercial use !!! This model is for learning and communication purposes only !!! ⚠
⚠ 该模型禁止任何商用 !!! 该模型仅供学习交流 !!! ⚠
⚠ If you believe that your rights have been infringed upon, please contact me directly to delete it !!! ⚠
⚠ 如果您认为权益受到了侵害请直接联系我删除 !!! ⚠
📅 2024/1/19
🙄 There is no good or bad distinction between V1.0 and V1.0-RLHF50, it all depends on your personal preferences !
🙄 V1.0和V1.0-RLHF50之间没有好坏之分,这完全取决于您的个人喜好!
🎈 It is recommended to use the A5 Stabilizer for v1.0 (not the RLHF50 ver.) to see slightly different styles under the same random seed, and in some cases, improve the image to better match your preferences.
🎈 v1.0 建议搭配 A5稳定器 来使用 (RLHF50 ver. 不要使用),这样可以在相同随机数种的情况下查看略微不同的风格,并且可以在某些情况下改善画面让其更符合您的偏好。
😕 Recommended Inference Settings 推荐的推理设置:
CFG: 5.5~7
Sampler: Euler a
Steps: 28~35
High-res.: RealESRGAN_x4plus_anime_6B, 15 steps, 0.55~0.6 denoising strength
😕 This model is merged from 2 self-trained A5 checkpoint (trained by 12 and 13 images, respectively). Yes, that's all of the training set, which shows the potential of full-parameter fine-tuning. The diversity of this model is trade-off for clear lines and bright colors.
🙄 This model has serious overfitting issues in some cases. That's why you have a small chance of directly seeing the content of the training set。
😕 该模型由2个自训练的A5检查点(分别由12个和13个图像训练)合并而成。是的,这就是训练集的全部内容,它显示了全参数微调的潜力。该模型的多样性被交换为更鲜明的线条与明亮的色彩。
🙄 该模型在部分情况下有严重的过拟合问题。正因如此,您会有小概率直接看到训练集的内容。
😰 The author strongly dislikes many homogenized styles nowadays, so the author trained and shared this model.
😰 作者非常讨厌现在许多同质化的风格,因此作者训练并分享了这个模型。
Description
Update Note
📅 2024/1/19 v1.0-RLHF50 is released. This is a checkpoint which is trained by RLHF based on v1.0 model for 50 epochs (200 steps, 3200 comparisons). The training method is same to A5 Stabilizer.
📅 2024/1/19 v1.0-RLHF50发布。这是一个基于v1.0版本训练的模型,使用RLHF训练,方法与A5 Stabilizer相同。
🧐 Initially, the author hope that RLHF would reduce the volatile performance of v1.0. However according to observation, interestingly, this version produces much rougher lines.
🧐 最初,作者希望RLHF能提升v1.0版本的稳定性,使得两个训练的画风能够好的融合。然而,根据观察,有趣的是这个版本产生了更粗糙的线条。
FAQ
Comments (15)
作者你好,我注意到你说训练模型仅使用少量图像,最近我在尝试训练大模型,但我的显卡只有 8g,训练模型时系统也一并使用了共享显存。虽然能训练但速度非常慢。我想请教下在这低显存的情况下能否提高下训练的效率,或者如何使用少量图像训练模型,非常感谢。
感谢您的回复。全量微调模型建议10g起步,使用共享显存会极大拖累训练速度。减少显存开销的最好办法就是打开gradient checkpoint以及使用xformer(其实我还蛮期待有没有人能够把deepspeed框架的offload功能融合到现有的训练脚本里面看看效果)。如果需要使用更大的batchsize(假设你的训练资料足够),可以使用梯度累加来以计算代价换取更大的batchsize。至于少量图像训练,我的模型没有用特殊的技巧,就是把图像丢进去然后全量微调(用了EMA)。A5本身很优秀,有足够的泛化能力与图像生成质量,所以微调A5非常容易。我做过测试,即使仅使用一张图像微调,模型的确会“记住”这张图像(当输入的prompt在一定范围内时)。但是即便如此,模型还是会具有相当的泛化能力,能将这一张图像中学到的某些特点应用到其他场景中。
如果想尝试更有效的运用非常非常少量的训练资料,可以尝试手动切分做数据增强(尸块法XD
融合成这个模型的两个模型都是在autodl上训练的,每个用时也就23分钟左右(2000步更新),平均一个模型花费一块钱而已。这肯定比用自己的卡炼几个小时电费便宜了。
非常感谢!因为我平时训练lora经常效果不如意,花费大量时间重复尝试训练,所以下意识以为在线训练会非常耗钱XD。还有你提到EMA,什么是EMA呢,是在线训练里自动的功能吗?我尝试去搜索相关的教程,得到的是一些PyTorch相关的东西,而我对PyTorch几乎完全不了解。
@Baixiu EMA是一种训练模型时更新参数的方式。比如模型参数是Θ_0,在正常更新一步后是Θ_1。使用EMA更新的话,更新一步后模型的参数会变为Θ_EMA=EMA_RATIO*Θ_EMA+(1-EMA_RATIO)*Θ_1(一定程度可以类比为变相缩小学习率(Θ_EMA在第0时刻只是Θ_0的备份),EMA_RATIO通常取0.99,在微调参数量巨大的模型的时候使用EMA会增强训练的稳定性(我也遇到过不用EMA去微调模型就会崩坏的情况))
我用的dreambooth脚本里面提供了EMA这个选项(虽然训练画风压根没用dreambooth,就只是单纯全量微调而已)。
@AD_KOISHI 感谢您细心的解答!可以说下您使用的dreambooth脚本吗,额还有全量微调指的是finetune吗,我确实经常训练dreambooth特别容易出现崩坏的情况。
@Baixiu fine-tune,指的是对预训练模型(SD1.5或者其他杂七杂八的模型)微调。对这些模型进行微调(fine-tune)有两种手段,一种是使用LoRA(只是训练一些额外的组件来调整模型输出,模型本身的参数被冻结),一种是全量微调(直接训练模型本身的参数)。dreambooth是一种训练方法(训练时使用正则化集即叫做使用dreambooth方法),你既可以使用LoRA微调的时候加入正则化集(LoRA+dreambooth),也可以在全量微调的时候加入正则化集(全量微调+dreambooth)。这个模型的训练没有dreambooth,因为通常来说训练画风并不需要正则化集。(这里对dreambooth的定义并不准确,只是为了方便理解才这么讲,dreambooth实际上是一种特殊的正则化集的生成与使用方法)
@Baixiu 我用的dreambooth脚本(虽然并没有实质上用到dreambooth) https://github.com/Akegarasu/dreambooth-autodl
@AD_KOISHI 哦我懂了,我还以为微调大模型叫dreambooth……非常感谢,我使用的也是秋叶大佬的脚本,但我在里面没看到相关的EMA选项,请问这个如何启用。
@Baixiu 下面这个脚本,里面有use_ema这一选项
https://github.com/Akegarasu/dreambooth-autodl/blob/main/dreambooth-aki.ipynb
# 高级参数
resolution = 512
gradient_accumulation_steps = 1
seed = 1337
log_interval = 10
clip_skip = 1
sample_batch_size = 4
prior_loss_weight = 1.0
scale_lr = False
scale_lr_sqrt = False
gradient_checkpointing = True
pad_tokens = False
debug_arb = False
debug_prompt = False
use_ema = False
@AD_KOISHI 好的!非常感谢,抱歉耽误您那么多时间
作者你好,关于“线条与色彩强化A5”的 checkpoint是否开放在(create),指的是线上繪圖(civitai网站)?
已经开启了
@AAOBA 抱歉,我目前只看到显示(下载)buttons, 没有看到(create) button在 checkpont 模型(指的是线条与色彩强化A5)
Details
Available On (1 platform)
Same model published on other platforms. May have additional downloads or version variants.





