【StableDiffusion】画像生成AI質問スレ20
レス数が950を超えています。1000を超えると書き込みができなくなります。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/ イラストで口が開いてるけど中が肌色になるのは何なんだろう……
学習画像にそんなのがあるんだろうか
open mouthとか明示すれば大抵大丈夫なんだけどね >>875
ぜひそうしたいんだけど、その話をすると毎回単発IDで騒ぐ人がいるからね…
人が多いスレでもないのに突然単発が何度も同じことを言ってくるからああまたこいつかとわかっちゃうレベル ワッチョイスレあんだからここに来ずに勝手に消えろや >>877
お前も毎回ワッチョイ欲しい自演してるよなw しないよ。自演が必要なほど無理筋な主張とは思っていないからね
自分が自演していると他人も自演してるって思い込むんだね
idを変えると元に戻せないと聞いたことがあるけど本当? >>876,878-881
これがたった一人の自演だから恐れ入る 初心者でAI使って画像生成始めようと思っています
ローカルでやるのとNovelAI使うのはどっちのほうが作りたい画像を作れますか >>885
作りたい画像によるかな
ローカルはLoRAやControlNetを使った細かいコントロールができる
NovelAI v3はプロンプトの解釈が上手で、指定した構図や人体のポーズが出やすい エラー吐いたSDのコマンドプロンプトの最後の文章が
「torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 768.00 MiB
(GPU 0; 12.00 GiB total capacity; 4.10 GiB already allocated; 5.97 GiB free; 4.97 GiB reserved in total by PyTorch)
If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.
See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF」
となってて、翻訳掛けると
「予約されたメモリ >> 割り当てられたメモリの場合、断片化を避けるために max_split_size_mb を設定してみてください。 メモリ管理と PYTORCH_CUDA_ALLOC_CONF のドキュメントを参照してください。」
ってあるから書いてある通りの事をしたいんですが
ここにある『max_split_size_mbを設定』ってどうやってやるんでしょうか
PYTORCH_CUDA_ALLOC_CONFとエクスプローラーで検索しても出てこなくて 修正連打してて気づいたらノイズのブツブツと焼けたような変色出てたんだがこれ除去するの無理? >>888ですが
webui.batに「max_split_size_mb:128」を書き足すことでGPUのメモリの断片化を防ぐ効果があるという記事を発見して試したので
エラーが収まるかどうかは分かりませんが一応自己解決しました >>849
WEB UI の更新が正常終了しないうえに
ComfyUI が起動しなくなりました
最悪… >>886
>>887
答えていただきありがとうございます。
特定のキャラを出すにはローカルのNovelAIとNovelAIv3のどっちがいいですか >>892
私が stable を入れる前に調べた時は
Novel は、学習済み以外のキャラ再現が難しいので
初心者向けでは無いと書かれてて
stable にしました、今はわからないので
ちょっと調べて見てください
参考まで >>893
あ、stable との比較じゃなかったですね
失礼しました >>892
知られたキャラの出しやすさならNovelAI v3じゃないかな
ローカルが全然ダメということはなく、そのキャラのLoRAがあるならローカルでも出せます。その場合使うモデルはNovelAIでなくてもよく、アニメ系に強いモデルで試せばよいでしょう >>890
断片化が原因なら再起動しちゃうのがベストな気はするけどね >>885
いちおう比較
NovelAI
・導入が簡単、企業製の優秀モデルが使える、PCスペック要らない
・有料、一定レベル以上の非倫理的なエログロは出せない、カスタマイズは一定範囲内
SD
・無料、ユーザー製の色々なモデルが使える、どんなエログロも出せる、カスタマイズはユーザーモデルで無制限
・導入がやや難しい、ハイスペックPCが必要、現時点で使えるユーザーモデルはNAI最新モデルと比べると見劣りする web uiが急に起動しなくなったというか永遠にロードが続くようになったんだが誰か解決方法知ってたら教えてほしい
以下症状
・起動自体はするがcheckpointやvaeの読み込みがずっと続いてまともに動かない
・メモリを消費してるわけでもないのにブラウザの動作が重くなってフリーズする
・controlnetをextentionから排除すると問題なく起動する
・controlnetを戻すor再導入すると上記症状が再発生
・venvの削除と再構築を行ってもだめ
・pythonやwebuiを再インストールしてもcontrolnetを導入した段階で上記症状が再発生
・症状発生前に拡張機能は導入しておらずwebuiのアップデートもしていない
環境は Core(TM) i7-13700KF メモリ32GB RTX4090 永遠にロードが続くって虎舞竜かよ。延々とだろw
まあそれはさておきRTX4090ならあり得る話だよ
12VHPWRを確認するとか >>901
コネクタを差し直してみたけどだめだった
>>902
こんなエラーメッセージが
Error executing callback app_started_callback for G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py
Traceback (most recent call last):
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\modules\script_callbacks.py", line 139, in app_started_callback
c.callback(demo, app)
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py", line 60, in controlnet_api
controlnet_input_images: List[str] = Body([], title='Controlnet Input Images'),
NameError: name 'List' is not defined >>903
とりあえずこのエラーメッセージをググって見ればええんやけどね >>904
ググってみたけど似たような問題が見つからなかった
>>905
3.10.6 >>906
ググるんじゃなくてチャット GPT に聞いてみたらどうなる? >>899
この手順で言うところのコントロール ネットを戻すというのと
再導入するっていうのは違う手順でやっているということ? 最近初めました、すみませんが質問です。
2次が好きで色々と好きなポーズや、loraの使い方までは解って来たのですが
「悔しい、でも感じちゃう!ビクンビクン」こんな画像の時に体にでる
1:体の一部がちょっとトゲトゲする効果
2:体の外にギザギザの波線みたいなのが出る効果
みたいなのを出せるloraをご存じ無いでしょうか?
ご存じの方居ましたら宜しくお願いします trembling effectだかtrembling emotionで出るはず
LoRAがあったかどうかはわからぬ >>907
今日の夜にでもやってみるわ
>>908
新しいやつを入れ直したつもりではあるが、もう一度やってみよう
>>909
説明が足りなくてすまん
戻す→extentionから移動させた元のcontrolnetを再度extentionに戻す
再導入→controlnetをインストールし直す
と読んでもらえたら 久々に起動して更新したら1.7.0になってた
何が変わったん? automatic1111でhires.fixを使うと、60%くらいまで生成が進んだところでそれまでの絵から突然変化して
変な絵ばっかり(腕が複数生えたり、胴体が異常に長くなったり)生成されるようになってしまいました。
upscaleするときに何かおかしなことになってるんだというのはわかるんですが、何したら回復するでしょうか。 >>915
えっちながぞうをhiresすると、けいこくのためそうなるよ >>915
1111をどう設定しているか知りたいので、操作画面のキャプチャを見せてください
操作画面を全部キャプチャできなくてもかまいませんので、generationタブのhires.fixのあたりを見たいです
win+shift+Sから範囲を指定してのキャプチャができます
ちなみにプログレスバーの半分くらいまでは拡大する前の画像を生成する様子が出ていますので、間違いなくhires.fixでなにかやらかしているでしょう
>>916
単発IDの人でしょ? そういう書き込みはやめてね
同じIDで書き込める? たぶん無理だと思う すいません、自己解決しました。
Denoising strengthを下げたら安定しました。
お詫びのえっちな画像です
https://imgur.com/a/utZI8mA >>918
よかった笑
たくさんえっちなの作ろうね >>915
SDXLだとアプスケ8000x6000とかでも、全く問題無いよ >>918
エロ絵はimgurに上げるとすぐ消されるからul.h3z.jpあたりが望ましい >>893,895,898
答えていただきありがとうございました
試しにStableDiffusionでやってみます 899です、言われたようにチャットGPTに入れてみたけど解決できなかった
チャットGPTの回答---------------------------------
このエラーメッセージは、NameError: name 'List' is not definedが発生していることを示しています。これは、Listという名前の型が定義されていないために発生するエラーです。このエラーは通常、Listが含まれるtypingモジュールが正しくインポートされていないか、型ヒントが適切に指定されていない場合に発生します。
以下は、解決するための手順です:
Listを正しくインポートする:
Listは通常、typingモジュールからインポートされます。スクリプトの冒頭で、Listを以下のようにインポートしていることを確認してください。
python
Copy code
from typing import List
これにより、Listが未定義のまま使用されるエラーが解消されるはずです。
適切な型ヒントに変更する:
もしtypingモジュールが使用できない場合、代わりにリスト型としてlistを使用することができます。
python
Copy code
controlnet_input_images = Body([], title='Controlnet Input Images') # List型ではなくlist型を使用
ただし、この方法は型ヒントが弱くなる可能性があります。可能であれば、typingモジュールを使用して型ヒントを正確に指定することが望ましいです。
これらの手順を試して、問題が解決できるか確認してください。
---------------------------------ここまで
本体:1.7.0 controlnet:1.1.423 が最新verであってるよね? あってるね
同ファイルの別の場所もListの型ヒント使っているから、エラーログを見ながらが必要に応じて修正する感じかな 899です解決しました
chrome拡張機能「はちまバスター」が原因だったっぽい、12月16日に入ったアップデートで何かしら競合するようになったんだろう
お騒がせしました どっちも最新で起こるなら騒ぎになってるだろうから、おま環だろうとは思ってたけどブラウザ拡張か
しかしCNだけピンポイントとかわかるわけがない、よく見つけたなぁ
Manifest V3移行ってなってるね
問題起きても別ブラウザで試そうとはなかなかならないんだよな Stability Matrix便利だけど、SMのアプデミスでエラー吐いたりしちゃうとお手上げになっちゃうので、一長一短だなあ アニメキャラのLORA学習に手を出してみたけどなんかピカソみたいな絵になったりぐちゃぐちゃになるのは素材の画像が少ないからなん?15枚くらいでやったけど >>928
ベースモデルをアニメよりのにすれば、10枚くらいでも結構再現度高いぞ
https://imgur.com/a/7URgR0E
だれか分かるレベルにはなってると思うけど、どうかな? >>928
画像なんか数枚でも判別可能な物は作れる
学習が弱すぎるか強すぎるか、ベースモデル間違ってるかあたり
あと素材が微妙すぎると変になることもある >>928
アニメ系ってもう先駆者大量にいて簡単に作れるよ
生成されるのみると艦これとハルヒっぽいのがちょいちょい出てきてこの辺のが学習元なのかな…とか思う
stable duffusion モデル アニメ。で検索してダウンロード >>929
アニメ系のモデルで学習させてるんだけどな…呪文を工夫しても小学生の書いたような絵になる
kohya GUIがなぜかインストールできないからsd-webui-train-tools使ってるせいかな 単に設定を間違っているだけ
どんなツールを使おうが最低限判別の出来るものは作れる
まあ入れるプロンプトを間違うと目的の物が出ないことはあるが プレバトは7割くらい写真トレスやろ
爆発の瞬間とか水に落ちた水面のうなりとか重なる訳がないのに
形状が見事に合致してる、それともすっごい動体視力の持ち主なんか 重要なのは素材たと思う
ゲームのキャラスクショ撮って学習させたら
輪郭がドットぽい画しか吐かなくなったし
素材に背景入れた絵が多いと背景引っ張り出すし
顔だけなら白抜きで高解像度が重要だと思った
初心者だけど…更にコツあったらフォローお願いします prompt matrix と x/y/zプロットを同時に使うことはできませんか?
例えば犬というloraと猫のloraを
犬だけ、猫だけ、犬猫同時、両方無しの4パターンと
更にそれぞれの重みを変えて複数の画像を一気に出したいのです
よろしくお願いします モデルの切り替えができない…切り替えの窓は読み込んで切り替わってるように見えるけど生成するとcalicomixから動かない… model-toolkitって拡張機能で持ってるモデルを確認したらそれぞれジャンクデータがうんGBもあるって分かったんだけど
これ全部軽量化しちゃって大丈夫なの?
不具合出た人とかいる? >>943
model-toolkitが何か月前からあると思ってんのさ なんかstable diffusion1.6.1に更新したら、謎に複雑な画像?うまく言えないが書き込みが多すぎてグロくなった画像とかを出力しやすくなった気がするけど、何か変わったんだろうか >>941
ありがとうございます
プロンプト打ちまくれば何とかなりました
ただ、横長のマトリクスになるので
何とか複合技で処理したいですね >>946
そういうのはぜひ画像を見せてほしいところだけど
(catboxのようなメタデータが残るところに上げてね)
バージョンが変わると結果が変わることはあるからその影響かも? 【質問】t2iとi2iの関係について
AUTOMATIC1111を使っている初心者です。
イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。
@ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。
Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。
しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか?
例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね?
皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか?
t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか?
実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。 【質問】t2iとi2iの関係について
AUTOMATIC1111を使っている初心者です。
イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。
@ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。
Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。
しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか?
例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね?
皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか?
t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか?
実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。 クオリティアップがどういう作業を指すのか判らないけど、i2iのinpaintで領域指定してプロンプトをそれ用に書くとかの作業は出来る
Tiled Diffusion+ControlNetのTileで高解像度の書き込みアップも出来る
i2iでの作業に入ったらt2iに戻る必要はないと思うけどな >>953
ご回答ありがとうございます。
失礼しました。クオリティアップ=画像を段階的に修正していく の意です。
一度i2iでの作業に移行したらt2iに戻るのは無理は正しくて、皆さんi2iでの作業に移行したらi2iで完結させる(それで困らない)ということですね。
大体の構図が決まった時点で早々にi2iに移行していくものでしょうか? Anything else V4というのはAnything V4と同じものですか? >>951
質問者との意図は違うけども
Stable Reactorで顔をはめ込むという方法もある
個人人的にはインペイントって
あんまり成功しない気がするんだよね >>949
ついでにプロンプト全体的に強調倍率高すぎる
この場合は全倍率1に下げたほうがマシな絵が出るからあとから必要な分だけ盛る
ネガティブはそのままでも多分問題ない
あとNSFW使ってるならPINK板池 >>949
1111のバージョンとcheckpoint(anything-v4.0-pruned)、LoRA(SelfBreastGrab)、TI(easynegative)を揃えようとしたけど再現はできんかった
画像を見る感じではバージョンアップしたから崩れたのではなくそう感じるのはたまたまたで、原因はほかにあるんじゃないかなー >>955
それぞれダウンロードしてmodel hashを比べればわかります
checkpointを選べばmodel hashが計算されてモデル名のあとに[69528490df]みたいに出ますし、入れているモデル名が少なくて1.7.0~なら設定の「Actions」に「Calculate hash for all checkpoint(すべてのcheckpointのハッシュを算出)」ボタンを使う方法もあります >>954
いったんi2iへ移行したあと画像を拡大したいときは、i2iでアップスケールすればいいんでは
Tiled diffusionとControlNetのTileで拡大するとか >>958
ありがとう、変えたら直りました
nsfwはすまない、該当するものを適当にピックアップしたらついてしまっていた、気を付けます >>949
ほぼそうなったよ
Latent(bicubic)が駄目っぽい(4x-AnimeSharpにしたら改善された)
なぜ1.6からかは不明
あと上の人も書いてるけど全体に強調の値が全部大きすぎるかな
ネガに同じのが2つずつあったりもうちょっと綺麗にしないと切り分けが大変だ
https://i.imgur.com/tE3PUBi.png
>>962
って治った?数値全部小さくしてもダメだったけどな・・はて >>956,961
ありがとうございます。
Stable Reactorいいですね。顔がいい画像はとっておいて、後ではめ込むってことですね。 >>963
元プロンプトと設定のままでもそのLoRA抜けばまともな絵が出てくるし、そこから別のLoRA適用してもまともなままだからLoRA相性と強度による歪みが重なったせいだと思う もちろんLora抜きもやったけど気持ち悪いの変わらなかったよ・・ 作った画像全体にプロンプト反映させるのはどうやるの?
例えば全身汗まみれにするとか >>947
こんな感じでどうでしょう
マトリックスを作りたい2つのLoRAをflat2とlitとした場合です
プロンプトに「<lora:flat2:0.0><lora:lit:0.0>」と書く
X/Y/Z plotでXとYをともに「Prompt S/R」にする
Xの値には「lit:0.0,lit:0.5,lit:1.0」、Yの値には「flat2:0.0,flat2:0.5,flat2:1.0」を入力
↓結果(この画像ではプロンプトに1girl, smileを追加してます)
https://files.catbox.moe/02uewg.jpg
画像をダウンロードしてPNG Infoに入れるとプロンプトや生成情報がわかります >>969
【イラストAI】ノイズやテクスチャを使って描き込み量をめちゃくちゃに増やそう!4/4【テクスチャ法/カムカム法】|御月望未(みつきのぞみ)
https://note.com/mitsukinozomi/n/n1c5913239ed8 970か、スレ立てます
もうワッチョイありでいいよね
反対してるのは1人くらいだし、その1人の荒らしを防げるんだから たぶんこのあとワッチョイについてワーワー言ってくる人がいると思うけど、単発IDならいつもの暴言で荒らす人なのでよろしく
だいたい30分おきにIDを変えて書き込んできます レス数が950を超えています。1000を超えると書き込みができなくなります。