>>485
昨日始めたばかりのLora学習初心者だけど、某所に書かれてたのを参考に

・画像20枚(たまたま)、フォルダ名1_で1回
・BLIPでtxt出して手作業でカンマ入れたり、調整したり
・Epoch40~80(学習画像による、上手くいかない都度LoRA network weightsで追加学習していく)
・Text Encoder learning rate 1.0
・cosine_with_restarts、DAdaptation
・Network Rank 128、Network Alpha 64
(1回で8分~20分くらいかな、中途LoraもSave every N epochsでいくつか残しておく)

が一番うまくいってる、使い方が本当に合ってるのかわからんけど
3060(12GB)だから試行錯誤に時間かかるので自分で突き詰めるのしんどい、学習画像でコロコロ変わるっぽいし
lossは眺めてるけど収束具合がまだよくわからん、グラフでも出てくれたらなぁ
DAdaptationは今や一周回って人気ないみたいだけど、自動だから過学習しにくい?
batchはDAdaptationだから上げるのは無理かな?弊害あるっぽいので元々1で回してたけど

出てきたLoraの顔が似なかったりしたら、無理矢理<Lora:xxxx:1.5:lbr=yyyy>
(yyyyは顔意外おおよそフィルタしたlbw)とか1以上にして無理矢理調整してる、自分用で配布する気もないので
自分でLora作れず他人様のをこねくり回してた期間が長いのでLora Block Weightの謎の経験蓄積があったりw
Advanced Configurationにもweightあるみたいだけど画像によって変わるのに追随する自信がないのえあえて使わない