まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?

とりあえずファインチューニング(textual inversion)メモ

追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する

・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision

・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
 利用時は例えば"In the style of * , <other text>"となる。
 これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
 https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。

・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
 https://sd-textual-inversion-models.tumblr.com/

・学習方法
 https://github.com/hlky/sd-enable-textual-inversion
 Stable Diffusionをいらすとやでファインチューニングする

まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?