【StableDiffusion】画像生成AI質問スレ21
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>167
ちゃんと画像見てもらえばわかるけどBASEやINも効きが違うから少なくともOUT逆転だけってことはないと思う
LBWの作者さんに聞くのが早いのかもしれないけどとりあえずComfyUIもちっと使えるようにするよ ある画像生成AIサービスがあらゆるところで
PRをつけず広告活動をしている
通称ステマ法違反なので警察に通報をお願いします
その画像生成サービス良くないです
綺麗じゃない
どこの画像の画像生成サービスかはネットで調べてください プロンプトAで10枚
続けてプロンプトBで10枚
続けてプロンプトCで10枚
とプロンプトを変えて複数枚ずつ
自動実行させていくのは可能でしょうか?
どのようにしたらよいでしょうか?
prompt from file or textboxで
1枚ずつプロンプトかえられるようですが、
同じプロンプトで10枚ずつというのはどうしたらよいでしょうか?
単純に繰り返すとABCABCと生成させてしまうと選別するときに大変でしたので、同プロンプトずつにしたいです >>179
バッチ回数を10にして、prompt from file or textboxに各プロンプトを入れるのではダメ? >>182つづき
バッチ回数=Batch countのほうね
これならA10枚、B10枚、C10枚と生成されたよ 179です
レスありがとうございます!!
助かります!! LoRAで学習させるときのPromptとNegative Promptは入れたほうがいい?
標準ではbest quality,Amazing,〜みたいなのが入っているけど >>185
https://github.com/liasece/sd-webui-train-tools
これのことか・・さすがにわからない
ローカルでのLora学習はkohya_ssあたりが一番使われるので 目の色も髪の色もほぼ同じキャラ、しかも同一作風という「いかにもそれっぽく出やすい」代表格で作例(説明無し)を出すセンス…… >>190
これ凄いな
真面目にAI絵やってくならこれくらい使いこなさないといけないのかな
>>191
せめて髪色違いのキャラにしてほしかったよね
デフォだと色を別けるの運ゲーだし いやなんでもよかったんだけどw
civitaiみたらなんとなく目に入ったんで同じ人がつくったのがいいだろうと
作り方描かないのはそのまま転載されるからだよ >>193
お前だけだぞ
つまらん事でしつこく意地張ってみっともない事してるのは Comfy UI で、githubから頂戴した他の方のWorkfloweのjpg画像をComfyにD&Dすると、
「When loading the graph, the following node types wer not found . と表示されます。
そのノードに対応した拡張機能をInstallしてないからだと思うのですが、
足りてない拡張機能を自動で一括でInstallしてくれる拡張機能はありませんか?
1つ1つ検索してInstallしてとなるとちと手間でして comfy managerで見つかるnodeならinstall missing custom nodesで足りないものが分かるしそのまま入れられる NovelAIなんですが、キャラを公式の絵柄で再現したいのですが、official artとofficial styleってどう違うんでしょうか? StableDiffusionでキャラをスマホの中に写した画像ってどうやれば出やすいのでしょうか。
同人誌でよくある「お前の裸とったからな、言うこときけよ」みたいなシチュエーションに使われそうな
「キャラ本体」と「キャラを写しているスマホ」が生成画像の中に画像です。
「キャラを写しているスマホ」単体でも、撮られる側が持っている画像が出たりして難しいです。 AIで知り合い脱がせたほうが
もえるんでねーの?
https://undress.app/ref/ >>200
あれはそういうLoRAを使っているんじゃないかな
civitaiで探してみては >>196
他の部分を全く読んでいませんでした・・・助かりました
楽にインストールできました ありがとうございます! プロンプトの間は,だけで区切っていたのですが、「, 」と,の後ろはスペースで空けないといけないんでしょうか? 単に人間にとって区切りが分かりやすくなるってだけで空ける必要はないよ 空けた方がいいというのは古いバージョンでの話だったんですか?
あとキャラ名の苗字と名前の間は半角スペースで開けると2人と認識されるんでしょうか? すまんが俺は古い話は知らんので他の人にまかせる
無駄なスペース削除する拡張機能があるくらいだから気にしなくて良いのは間違いない
スペース開けて名前連ねた場合別々の人物として処理されることもあるし、それぞれの要素が入り混じった人物になることもあるし、片方の要素だけのこともある >>200
スマホの画面以外成功した画像を作ったら、i2iのinpaint でスマホ画面塗りつぶして ヒロインちゃんの裸 とか書きたいプロンプト入れて出力
漫画なんかだと必然的に小さな画像になるし別コマの画像を切り貼りしてると思う 名前は、苗字名前の間は_で区切る方がいいんですか? 出力した結果見ればわかんだろ
わかんねぇならさなんかねぇんだよ >>206
かなり古いバージョンでは「1girl,smile」と「1girl, smile」で結果が変わっていたけど今は同じ結果になる、だったはず
名前の空白が必要かどうかや「_」区切りが必要かはモデルによる
どちらも自分で試してみては SDのベースがdanbooru使ってると認めてるって話だから完全オリジナルじゃない限りアンダーバーに反応する可能性はある
タグが統一されてなくてどっちでも効く可能性もある
学習データのタグ見れないなら実践してみるしかない 名前って言ってるから何かのキャラなんでしょ?
キャラの場合は固有名詞として学習されてるから
アンダーバーが合った方が良いと聞いた記憶があるけど
多少違ってても柔軟に対応してくれるんじゃないかな
最近のキャラやマイナーキャラはそもそも学習されていないならどっちみち出ない
使ってるモデル次第やね tagauto completeの設定いじらずデフォで使ってるけど
sports uniform → sportswear
みたいなdanbooru訂正?はどっちも効いてる気がする 反応のあるタグを取り出せたら良いんだけど。
ランダムシード固定の総当たりで辞書から英単語入れて、ステップ数と解像度低くして、色が違えば当たりとか、反応を調べるのできないのかな。
stream diffusion の秒100枚とはいかないだろうけど。 >>215
英単語ってどれだけ単語あるとおもってるんだ… >>216
何個あるんだ?
常用単語だけの辞書にどれだけ専門用語を加えるかで変わるだろうけどキャラ名は必要か。
1日86400秒だから反応する1秒1個自動判定するなら
864万調べるなら100日かかる。
でもトークンの反応を調べるだけの生成ならステップ数と解像度を減らせば1秒かからないはずで
秒100チェックできるなら1日回せばOKになる。
全ては単語数とチェック速度に依存する。
ただ、外れトークンにも影響されて出力が変わるなら機械的なチェックは不可能になるけど >>218
それで864万単語の一覧があって役に立つのか? 単語の一覧に反応する とあったら 嬉しいのか? 個人の頭の中にしか無い「期待」通りの反応するかしないのかをどう判断するんだ?
生成する人は辞書を引きながら一単語ずつから生成パラメーター作ってないのに辞書より(固有名詞もあって)大きい一覧から調べて使うのか?
インターネットで役に立ちそうな表現に役立ちそうなタグを引っ張ってきて自分の目の前のAIで生成するか 画像と呪文を公開しているサイトをみて呪文作るんじゃないのか? サンイチ
キュアピースのXL用LoRA無いやんけ
仕方ないんでネットで拾った低画質11枚で作ったわ
教師画像小さいのに無意味に1024で学習させたもんやから45分もかかったで
まあ、適当に衣装出ればええし顔も別LoRAで変えてあるんやがな
https://i.imgur.com/EalAcOK.jpg RedRayz氏のGUIでLoRA学習をやってて、
keep_tokens_separatorを使うときは、
詳細設定のページのトークンのセパレータで、セパレータ|||を指定して、
トークン保持数の値は、0で良いでしょうか。 セーブデータみたいなイメージで、PNG Infoからt2tやらi2iに送ってプロンプト書き換えてるんだけど、
転送する度にseedと設定(override setting)も送られてウザったいんだけど、この辺の転送するもの選ぶ設定ってどっかにありますか? >>226
それはないと思うなあ
txt2imgからimg2imgなどへ送るときにシード値やサイズも送信するかは設定の「User interface」にあったけど、この設定はPNG Infoからの送信では関係なかった kohya_ssで学習させようとしたんですが
RuntimeError: NaN detected in latents: C:\SD\kohya_ss\02-input\1_sd\sd (1).jpg (教師用の画像)
というエラーが出て止まります
原因はなんでしょうか >>227
そうですよねー。
言われてる、シード値送るかみたい設定あってこれか!と思ったらPNGInfoは関係ないようで。
Override Settingのせいで新しいモデル試してたつもりなのに古いままで、しばらく気付かなかったって人結構いるんじゃないですかね? >>225
ありがとうございます。そっちで聞いてみます。 >>229
--no_half_vae をどこに記述すればよろしいのでしょうか? AdvancedのAdditional parametersかな? >>229
>>233
ありがとございます 学習が開始できました すみませんガチ初心者です
Stabledifusionをローカルで導入した素の状態で使っているのですが、何日も生成していると、過去に生成した画像に似たものが多くなってきた気がするのですが、これは正常なんですか?
(R18系のイラストを最初に生成しようとしたときは何度やっても出なかったのが、今では何もそういう呪文を入れてなくてもR18系の画像が生成される…みたいな)
LoRAみたいなのは導入していません。リセットする方法があれば教えてほしいです。 >>235
原理的にはこれまでのプロンプトに引きずられることはないんだけど、A1111はバグなのかそう感じられる画像が出ることがあるとよく言われるよね
モデルをいったん切り替えるだけでリセットされるというのは初耳
A1111を再起動しなければいけないと思ってた マスピ顔の話か? masterpieceとか指定したらそんな顔しか出なくなる クオリティを高める弊害だ >>235
基本的にずっと生成してたらそれが染みつく、みたいなのはない
R18がなかなか出なかった時代の画像が残ってるのであれば
png infoに突っ込んで今現在とプロンプトの違いを精査してみるといいかも
ある単語に気付いた試行錯誤を覚えてないとかだと思うよ キャッシュデータがあるからね
削除したはずのLoraの効果が残ってたり
同じようなな顔が連続するようなことはある
基本ランダムだから、永久には続かない Lora学習でaaaa_v1-000010みたいに作りながら確認してる時に<lora:aaaa_v1:1>だけで効いちゃう
(この時png infoは000010になってる)
そのまま作り続けて000015、000020、最終的にaaaa_v1が完成しても
Loraタブでrefreshしないとaaaa_v1指定で000010が選ばれ続ける
この状態で00010削除すると、掴んだままなのかありませんエラーになる(aaaa_v1あるのに)
この謎仕様のせいでかなり頭抱えた時期があった、1.7現在も修正されてない
ほんと混乱するのでなんかあるたびにrefreshしてる LoRAは何かが変わるまでキャッシュしているけど、ファイル名ではなくてエイリアス名かもね そもそも同じモデルで生成してれば似たような物が出るのは当たり前
構図とかポーズもそのモデルで出やすい物が出る
そこを代えてくプロンプトはあるけど、特定絵柄に特化してるタイプのモデルは効きにくい
汎用性があるモデルでも、指定すれば何でも出るというほどではない https://mevius.5ch.net/test/read.cgi/cg/1703250505/518
> 最初optimizerの設定をadamW8bitにしていたのですがError no kernel image is available for execution on the deviceとなったのでadamWに変更したところのエラーです
1070tiなんでadamW8bitは動かないんだろうね
> CUDA out of memoryとあったので色々参考にSBwebui-user-batに--xformers --medvramを加えてみたりwebui.batのほうにset PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
> を入れてみたりしたのですがあまり改善しませんでした
> そもそも何か根本的に間違っているのでしょうか?
これは勘違い、それはwebui側であってkohya_ssとは関係ない って、247の元レスよく見たら笑った・・貼ってもらうまでもない、なるほどね
みんなよくやるらしい SDXLでリアル系でLoRAの効きのいいモデルって何があるでしょうか?
fudukiMix_v20 をいま試しているのですが LoRA JP2 を追加しても全然変わらないのです
できればAnimagineベースでRefinerとして使いたいのです
SD1.5ではアニメモデルをベースにxxmix9realistic_v40でRefinerかけてADetailerという感じがお気に入りでした
理想 → https://i.imgur.com/6a1OH8B.jpg >>247>>250
やっぱりwebuiとkohyaは別々なんですね…
kohyaを含めてCUDA out of memoryエラー?を調べてもSBの解決方法しか出なかったのでwebui側の問題かなと考えてしまいました
書き方からすると初歩的なミスなのでしょうがプログラミングなどの知識はないので何が間違っているのか何度見返してもわかりません
できれば噛み砕いて教えてくただけると助かります >>252
Kohya_ss起動した時の一番上Running on local URL: http://127.0.0.1:7860より上の
メッセージが見えるSSが見たいな
Kohya_ssのセットアップミスだと思うけど
後、CUDA out of memoryは単純にVRAMが足りないから処理続行出来ないってエラーだから
8GBしかVRAMが無い1070じゃそれなりにやりくりしないと厳しいよ
一応共有メモリを使うことで多少ならカバー出来るけど
メモリ搭載量が16GBしかないので共有メモリが8GB(メインメモリの半分)しか確保出来ないので
処理によっては8GB+8GBでは足りない感じなんじゃないかな(よっぽど無茶しなきゃ普通は12GB前後でおさまる筈) >>251
fuduki 2.0はlora無しでも使えるようにしたモデル。loraを適用すると過学習になる可能性があるとのこと。対してfuduki1.5はloraの使用を前提としているので、目的によってはこちらがオススメ。 >>252
細かい事はわからんのだけどメモリ32GBと3060ti(8MB)でKohya_ss回してて、OutOfMemory対策で設定してるところ。もし参考になれば。
・LoRAtype:Standard(他は無理?)
・Trainbatchsize:1か2(Max resolutionと相談)
・Mixed precision、Save precision:fp16固定
・Max resolution:512ならTrainbatchsize2でも可能かも、752なら1固定
・Network Rank、Network Alpha:上げすぎは無理(128、1で問題ないと思ってる) >>254
ありがとうございます v1.5 で試してみますと確かに LoRA が乗ってきているのが分かりました
(同じ seed でこんなに違うのは初めてですが)
https://i.imgur.com/ExML79u.jpg
さらに 1.5 の方は素でも 2.0 より好み寄りでしたのでこれでいろいろ試していきたいと思います 初めて2週間ぐらいの初心者です グラボはgtx1660です
kohya_ssを使用して33枚の画像を繰り返し20回×15回=9900ステップで自作のloraを作成しました
教育用の画像は1024×1024の正方形で背景を白く加工しもので全画像でキャラクターが同じ服装をしています
stable-diffusionで自作のloraを使って画像を生成しましたが、微塵も反映されません
見た限りでは学習時と画像生成時にエラーもないようです
学習結果が反映されない理由として何が考えられるでしょうか? kohyassの最初のタブでDreambooth選択していませんか >>259
>>260
学習時にloraを選択しタグもいれています
プロンプトも試しましたが自作loraありとなしで同じ結果でした >>258
添付してるテキストの書き方が間違っている可能性 >>262
自作loraのメタデータを見たときに設定したタグが全てあるので
たぶん間違ってないと思います 実はキャプションtxt一切なしでも一応学習はするし、トリガーワードなしでもLora入れてると反応する
>>258
エスパーじゃないので細かい設定見ないとなんとも・・jsonファイルをアップローダー等に上げて貼って
> 見た限りでは学習時と画像生成時にエラーもないようです
LossがずっとNaNとかになってない 1660系はfp16にバグがあって使えない
ttps://qiita.com/peka2/items/6e5bbcf3a3d175b703b1
この辺参考に設定変えて >>266
ありがとうございます
設定を変えて学習してみます 遅くなってすみません。
>>256 >>260
うわああああああああああ、その通りです
出来ました…
指摘されるまでタブがあったことすら気づきませんでした
本当にありがとうございます
>>253 >>255
丁寧にありがとうございます。スペック的にやはり最低限という感じなんですね…
今回は私のミスでしたが今後の参考にさせていただきます
ありがとうございました kohya_ssの最大の欠点があのタブだと思う
あれは今でも油断してると変更忘れる 自分も一回間違えた後、kohya_gui.pyにパッチあててDreamboithとLoRAのタグの順番入れ替えるようにした ドリームブースとLoRAのタブの中身が
レイアウトもパラメータがほとんど一緒というのが罠度高い
しかもデータの読み込みもLoRAのコンフィグを
ドリームブースのタブで読み込みしてもエラーにならなかったりトラップが複数あるw いやほんとにタブの中身ほぼ同じなんですね…
私も順番入れ替えるようにします、お騒がせしました 入れ替えって簡単にできるん?
kohya_gui.pyをエディタで開いて、それっぽいところを入れ替えてみたがエラー出て動かん ■ このスレッドは過去ログ倉庫に格納されています