【StableDiffusion】画像生成AI質問スレ21
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured ComfyUIとwebUIでlbwで階層ごとの効き具合が違ってるんだけど何が原因か分かる人居たら教えてほしい
一応cliploaderとksamplerはA1111指定してる loraの顔がとにかく似ないで髪型や服だけは似るのなんでですかね??
顔、髪型を維持したいのでそれに関係するキャプションは抜いて学習してるのに。 リアル系なら顔だけ学習させたloraから作っていかないと無理じゃね?
アニメ絵系のキャラloraだと髪型と服装だけ似せてあとはモデルに依存させる感じが主流だと思うけど 東洋人をasian、brown_eyesで学習しても、青い瞳の外人顔になったりするよね あれ不思議 >149
リアル系です。顔だけ学習かぁ。やってみます。 欧米系モデルでアジア系を学習させるとたまに「欧米か?」って突っ込みたいのが出やすい気がする >>151
リアル系はかなり熟練度上げないと解像度違うコラ画像になったり、顔が浮いたり、体とスケールが合わないヘンテコ学習になるから注意だな
アニメ系なら多少バランスが悪くても気にしない人が多いけど 版権キャラloraに表情系lora足しても
殆ど表情制御できない感じなんですけど、
キャラloraによって変わってきますか?
それとも基本的にキャラloraに表情loraって難しいのでしょうか? 表情重視ならキャラLoRAの強度を弱めるかLoraBlockWeightで調整するかだね キャラの顔再現する時点で、表情がキャラLoraに確実に引っ張られるよね >>147
lbwはInspire-Packのlora loader(block weight)でいいの?
comfyUIもうやってないけど自分はlbwに関しては普通にうまく行ってたような記憶 Lora は同じ版権キャラでも個々でかなりデキが違う
そういうのちゃんとコメント評価してくれるといいのに、★4でも 背景が森になる(アニメでそういうシーン多かったんで背景切り抜かずに学習させたんだろう)みたいな粗悪品多くて苛つく
アニメキャラだと着せ替えできずどういつ服装というのは利点だけど、背景まで固定させるなよ >>154
できないloraはできない。できるloraはできる
いろんな人間が好き勝手に作っているものだから統一された品質にはならん
だけど知る限りでは普通に制御できることの方が圧倒手に多いと感じるけどな
プロンプトの書き方とか間違えてないかな 自分でやれることなのに他人の成果に便乗した上で文句言うやつってどんなハゲ方してんの? リアル系の顔loraほんとに似なくて困ってる・・・これっていう設定あればいいのにね >>160
もちろん他人の成果物のクソな点を反面教師にしながら自作してるよ 汚言はいちいち相手にせず、ワッチョイスレであることを最大限利用しましょう >>157
動く動かないの話じゃなくて使用ツールで階層への効き方が全然違うのがなぜなのかを知っていたら教えてほしいんだ
ひとつ具体例あげてみると使用lroaはmicrowaistV05
A1111だとOUT4が一番効きが強い
https://imgur.com/NG2eSGc.jpg
ComfyUIだとOUT11が一番効きが強い
https://imgur.com/jhBViDN.jpg 154
ありがとうございます
やり方もみなおしてみます >>165
2023/6頃にスクショ保存してて、この画像がなんなのか全くソースがわからなくないんだけど
https://i.imgur.com/Sh6zgjk.png
OUT逆転説?
webuiとcomfyUIのどっかでOUTが逆になってたらちょうどそんな感じになりそうじゃない?
なんとなくlbw出てたつもりだったんだけど、全体にwebuiに比べて出来が悪くて
自分がまだ未熟なのかなんかおかしいのか切り分けがはっきりしなかった controlnet の hand refinerってどうですかね
アニメは弱いみたいですけど >>167
この説ありそう
issueとしてあがってないなら
inspire pack の作者に伝えてみても良いんじゃないでしょうか ちょっと教えてほしいんだけど、モデル作るときにキャラの体型を変えるにはどうするのがベストなの?
モデルにサイズ系のloraを焼き込んじゃってるんだけどいいんかな
ちょうどいいサイズのやつとマージすることも考えたんだけど塗りとかに影響が出ちゃって良くなかったんで困ってる ChatGPTに聞けばなんでも教えてくれる世の中になるよ >>167
ちゃんと画像見てもらえばわかるけどBASEやINも効きが違うから少なくともOUT逆転だけってことはないと思う
LBWの作者さんに聞くのが早いのかもしれないけどとりあえずComfyUIもちっと使えるようにするよ ある画像生成AIサービスがあらゆるところで
PRをつけず広告活動をしている
通称ステマ法違反なので警察に通報をお願いします
その画像生成サービス良くないです
綺麗じゃない
どこの画像の画像生成サービスかはネットで調べてください プロンプトAで10枚
続けてプロンプトBで10枚
続けてプロンプトCで10枚
とプロンプトを変えて複数枚ずつ
自動実行させていくのは可能でしょうか?
どのようにしたらよいでしょうか?
prompt from file or textboxで
1枚ずつプロンプトかえられるようですが、
同じプロンプトで10枚ずつというのはどうしたらよいでしょうか?
単純に繰り返すとABCABCと生成させてしまうと選別するときに大変でしたので、同プロンプトずつにしたいです >>179
バッチ回数を10にして、prompt from file or textboxに各プロンプトを入れるのではダメ? >>182つづき
バッチ回数=Batch countのほうね
これならA10枚、B10枚、C10枚と生成されたよ 179です
レスありがとうございます!!
助かります!! LoRAで学習させるときのPromptとNegative Promptは入れたほうがいい?
標準ではbest quality,Amazing,〜みたいなのが入っているけど >>185
https://github.com/liasece/sd-webui-train-tools
これのことか・・さすがにわからない
ローカルでのLora学習はkohya_ssあたりが一番使われるので 目の色も髪の色もほぼ同じキャラ、しかも同一作風という「いかにもそれっぽく出やすい」代表格で作例(説明無し)を出すセンス…… >>190
これ凄いな
真面目にAI絵やってくならこれくらい使いこなさないといけないのかな
>>191
せめて髪色違いのキャラにしてほしかったよね
デフォだと色を別けるの運ゲーだし いやなんでもよかったんだけどw
civitaiみたらなんとなく目に入ったんで同じ人がつくったのがいいだろうと
作り方描かないのはそのまま転載されるからだよ >>193
お前だけだぞ
つまらん事でしつこく意地張ってみっともない事してるのは Comfy UI で、githubから頂戴した他の方のWorkfloweのjpg画像をComfyにD&Dすると、
「When loading the graph, the following node types wer not found . と表示されます。
そのノードに対応した拡張機能をInstallしてないからだと思うのですが、
足りてない拡張機能を自動で一括でInstallしてくれる拡張機能はありませんか?
1つ1つ検索してInstallしてとなるとちと手間でして comfy managerで見つかるnodeならinstall missing custom nodesで足りないものが分かるしそのまま入れられる NovelAIなんですが、キャラを公式の絵柄で再現したいのですが、official artとofficial styleってどう違うんでしょうか? StableDiffusionでキャラをスマホの中に写した画像ってどうやれば出やすいのでしょうか。
同人誌でよくある「お前の裸とったからな、言うこときけよ」みたいなシチュエーションに使われそうな
「キャラ本体」と「キャラを写しているスマホ」が生成画像の中に画像です。
「キャラを写しているスマホ」単体でも、撮られる側が持っている画像が出たりして難しいです。 AIで知り合い脱がせたほうが
もえるんでねーの?
https://undress.app/ref/ >>200
あれはそういうLoRAを使っているんじゃないかな
civitaiで探してみては >>196
他の部分を全く読んでいませんでした・・・助かりました
楽にインストールできました ありがとうございます! プロンプトの間は,だけで区切っていたのですが、「, 」と,の後ろはスペースで空けないといけないんでしょうか? 単に人間にとって区切りが分かりやすくなるってだけで空ける必要はないよ 空けた方がいいというのは古いバージョンでの話だったんですか?
あとキャラ名の苗字と名前の間は半角スペースで開けると2人と認識されるんでしょうか? すまんが俺は古い話は知らんので他の人にまかせる
無駄なスペース削除する拡張機能があるくらいだから気にしなくて良いのは間違いない
スペース開けて名前連ねた場合別々の人物として処理されることもあるし、それぞれの要素が入り混じった人物になることもあるし、片方の要素だけのこともある >>200
スマホの画面以外成功した画像を作ったら、i2iのinpaint でスマホ画面塗りつぶして ヒロインちゃんの裸 とか書きたいプロンプト入れて出力
漫画なんかだと必然的に小さな画像になるし別コマの画像を切り貼りしてると思う 名前は、苗字名前の間は_で区切る方がいいんですか? 出力した結果見ればわかんだろ
わかんねぇならさなんかねぇんだよ >>206
かなり古いバージョンでは「1girl,smile」と「1girl, smile」で結果が変わっていたけど今は同じ結果になる、だったはず
名前の空白が必要かどうかや「_」区切りが必要かはモデルによる
どちらも自分で試してみては SDのベースがdanbooru使ってると認めてるって話だから完全オリジナルじゃない限りアンダーバーに反応する可能性はある
タグが統一されてなくてどっちでも効く可能性もある
学習データのタグ見れないなら実践してみるしかない 名前って言ってるから何かのキャラなんでしょ?
キャラの場合は固有名詞として学習されてるから
アンダーバーが合った方が良いと聞いた記憶があるけど
多少違ってても柔軟に対応してくれるんじゃないかな
最近のキャラやマイナーキャラはそもそも学習されていないならどっちみち出ない
使ってるモデル次第やね tagauto completeの設定いじらずデフォで使ってるけど
sports uniform → sportswear
みたいなdanbooru訂正?はどっちも効いてる気がする 反応のあるタグを取り出せたら良いんだけど。
ランダムシード固定の総当たりで辞書から英単語入れて、ステップ数と解像度低くして、色が違えば当たりとか、反応を調べるのできないのかな。
stream diffusion の秒100枚とはいかないだろうけど。 >>215
英単語ってどれだけ単語あるとおもってるんだ… >>216
何個あるんだ?
常用単語だけの辞書にどれだけ専門用語を加えるかで変わるだろうけどキャラ名は必要か。
1日86400秒だから反応する1秒1個自動判定するなら
864万調べるなら100日かかる。
でもトークンの反応を調べるだけの生成ならステップ数と解像度を減らせば1秒かからないはずで
秒100チェックできるなら1日回せばOKになる。
全ては単語数とチェック速度に依存する。
ただ、外れトークンにも影響されて出力が変わるなら機械的なチェックは不可能になるけど >>218
それで864万単語の一覧があって役に立つのか? 単語の一覧に反応する とあったら 嬉しいのか? 個人の頭の中にしか無い「期待」通りの反応するかしないのかをどう判断するんだ?
生成する人は辞書を引きながら一単語ずつから生成パラメーター作ってないのに辞書より(固有名詞もあって)大きい一覧から調べて使うのか?
インターネットで役に立ちそうな表現に役立ちそうなタグを引っ張ってきて自分の目の前のAIで生成するか 画像と呪文を公開しているサイトをみて呪文作るんじゃないのか? サンイチ
キュアピースのXL用LoRA無いやんけ
仕方ないんでネットで拾った低画質11枚で作ったわ
教師画像小さいのに無意味に1024で学習させたもんやから45分もかかったで
まあ、適当に衣装出ればええし顔も別LoRAで変えてあるんやがな
https://i.imgur.com/EalAcOK.jpg RedRayz氏のGUIでLoRA学習をやってて、
keep_tokens_separatorを使うときは、
詳細設定のページのトークンのセパレータで、セパレータ|||を指定して、
トークン保持数の値は、0で良いでしょうか。 セーブデータみたいなイメージで、PNG Infoからt2tやらi2iに送ってプロンプト書き換えてるんだけど、
転送する度にseedと設定(override setting)も送られてウザったいんだけど、この辺の転送するもの選ぶ設定ってどっかにありますか? >>226
それはないと思うなあ
txt2imgからimg2imgなどへ送るときにシード値やサイズも送信するかは設定の「User interface」にあったけど、この設定はPNG Infoからの送信では関係なかった kohya_ssで学習させようとしたんですが
RuntimeError: NaN detected in latents: C:\SD\kohya_ss\02-input\1_sd\sd (1).jpg (教師用の画像)
というエラーが出て止まります
原因はなんでしょうか >>227
そうですよねー。
言われてる、シード値送るかみたい設定あってこれか!と思ったらPNGInfoは関係ないようで。
Override Settingのせいで新しいモデル試してたつもりなのに古いままで、しばらく気付かなかったって人結構いるんじゃないですかね? >>225
ありがとうございます。そっちで聞いてみます。 >>229
--no_half_vae をどこに記述すればよろしいのでしょうか? AdvancedのAdditional parametersかな? >>229
>>233
ありがとございます 学習が開始できました すみませんガチ初心者です
Stabledifusionをローカルで導入した素の状態で使っているのですが、何日も生成していると、過去に生成した画像に似たものが多くなってきた気がするのですが、これは正常なんですか?
(R18系のイラストを最初に生成しようとしたときは何度やっても出なかったのが、今では何もそういう呪文を入れてなくてもR18系の画像が生成される…みたいな)
LoRAみたいなのは導入していません。リセットする方法があれば教えてほしいです。 >>235
原理的にはこれまでのプロンプトに引きずられることはないんだけど、A1111はバグなのかそう感じられる画像が出ることがあるとよく言われるよね
モデルをいったん切り替えるだけでリセットされるというのは初耳
A1111を再起動しなければいけないと思ってた マスピ顔の話か? masterpieceとか指定したらそんな顔しか出なくなる クオリティを高める弊害だ >>235
基本的にずっと生成してたらそれが染みつく、みたいなのはない
R18がなかなか出なかった時代の画像が残ってるのであれば
png infoに突っ込んで今現在とプロンプトの違いを精査してみるといいかも
ある単語に気付いた試行錯誤を覚えてないとかだと思うよ キャッシュデータがあるからね
削除したはずのLoraの効果が残ってたり
同じようなな顔が連続するようなことはある
基本ランダムだから、永久には続かない Lora学習でaaaa_v1-000010みたいに作りながら確認してる時に<lora:aaaa_v1:1>だけで効いちゃう
(この時png infoは000010になってる)
そのまま作り続けて000015、000020、最終的にaaaa_v1が完成しても
Loraタブでrefreshしないとaaaa_v1指定で000010が選ばれ続ける
この状態で00010削除すると、掴んだままなのかありませんエラーになる(aaaa_v1あるのに)
この謎仕様のせいでかなり頭抱えた時期があった、1.7現在も修正されてない
ほんと混乱するのでなんかあるたびにrefreshしてる LoRAは何かが変わるまでキャッシュしているけど、ファイル名ではなくてエイリアス名かもね そもそも同じモデルで生成してれば似たような物が出るのは当たり前
構図とかポーズもそのモデルで出やすい物が出る
そこを代えてくプロンプトはあるけど、特定絵柄に特化してるタイプのモデルは効きにくい
汎用性があるモデルでも、指定すれば何でも出るというほどではない ■ このスレッドは過去ログ倉庫に格納されています