まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?
とりあえずファインチューニング(textual inversion)メモ
追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する
・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision
・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
利用時は例えば"In the style of * , <other text>"となる。
これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。
・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
https://sd-textual-inversion-models.tumblr.com/
・学習方法
https://github.com/hlky/sd-enable-textual-inversion
Stable Diffusionをいらすとやでファインチューニングする
まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
Midjourney】AI画像生成技術交換3【StableDiffusion
■ このスレッドは過去ログ倉庫に格納されています
2022/08/29(月) 18:43:33.07ID:OshC99AO
■ このスレッドは過去ログ倉庫に格納されています