【StableDiffusion】画像生成AI質問スレ20
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/ 境界知能と会話するのは時間の無駄さ
牛に説法、境界知能にマジレス >>639
少しは調べろよ
LCMlora弄るんだそ >>606
24GBだとSDXLで1424×800を12枚同時に生成してVRAMに収まる感じ
買い換える手間考えたら3090か4090買った方がコスパ良いよ >>645
こうやって人それぞれ見た感想は違う訳だし
美麗と言われても普通と思うけどねその画像 >>647
私にはググっても分かりませんので、LCMを使っても無しと遜色ないやり方を
ご教授いただけますか? 両方弄ってマージすんだよ
discordでもいいから行ってみろよ LCMで作ったと言われても疑わないけどね
俺の見た感想だけど
人それぞれって事でいいんじゃない ですから、ご自慢の絵をLCMと無しとで同時にアップしてもらえませんか? ID:mKILCEpO
もしかして汚言くんの別ID?
ずーっとズレた変なこと言ってんね まぁLCMは劣ってるとでも思わないとグラボ借金して買った意味なくなるもんな ID:l57jy3Hw
俺はLCMで同程度の美麗さは再現できないの(確定事項)( ー`дー´)キリッ
その美麗画像
https://majinai.art/i/ggac9yr *** Error completing request
(プロンプト中略)
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 58982400 bytes.
コマンドプロンプトにこういう表示が出て
ブラウザが固まった末に「デバイスに問題が発生したため、再起動します」ってPCごと落ちてビビっています
not enough memoryってあるんでメモリ不足なのかとも思ったけど
メモリ16GB、GPUメモリ12GBで512×512生成しても固まるので容量的な問題じゃない気がしてます
このエラーの原因特定する方法はあるんでしょうか >>657
ぶっちゃけメイン16GBはローカルSDやるにはちょい少ないような
切り分けにタスクマネージャーで何%くらい使ってるかずっと確認しながら生成してみて ID:l57jy3Hw
抽出したらこいつが一番の荒らしじゃん >>657
1111の話だよね? そもそも何をしたらこれが出るようになったんだろう
VRAMが12GBあって512×512ピクセル出すだけならメインメモリ16GBは十分だと思うけどね
メインメモリ16GBでたった59MB(GBじゃなくて)のメモリが足りなくて落ちるのは変だな
画像を生成すると必ず落ちるなら、自分だったら1111を別のフォルダにインストールし直しちゃう >>660
今試しに512×768でやってる分には使用率60%も超えないくらいですが
>>662
今何度か試しても落ちないので必ず落ちるわけではないです
別のフォルダにインストールし直してみたいんですが
「stable-diffusion-webui」フォルダをただ消してgitからインストールし直せばいいって話じゃないですよね? >>663
> 今試しに512×768でやってる分には使用率60%も超えないくらいですが
まぁ、たまにというかできれば常時確認してみて
ちゃんと逐一メモリ解放されるって前提だろうけど、大量に生成してるうちにジワジワ増えていくので
逆に言うと、その60%のままならメモリ不足なんて起こらないので、見てる限り落ちない理屈
うちは64GBで90%超え食らってPC落ちたことある
常に起こるわけでもないしexplorerあたりも怪しいと踏んでるけど、いまだ特定できてない
再インストールは別に元消さなくていい、というか念のため置いとくべき
全く別のフォルダで同じことすれば、そっちに別として入ってくれる >>663
既存の「stable-diffusion-webui」フォルダはリネームすれば残しておいても大丈夫
あとはgit cloneからインストールし直して、元のフォルダから必要なものをコピーしてくればいいです
webui-user.batはコピーしてくればいいけど、いい機会なのでオプションを見直したいところ
modelsフォルダやoutputsフォルダはサイズが大きいだろうから、コピーじゃなくて移動しちゃった方がストレージの容量的にいいかも
styleはインストールフォルダのルートにある「style.csv」をコピーしてくる
各種の設定はやはりルートにある「ui-config.json」と「config.json」に書かれているけど、そのまま持ってくると問題が起きそうだから、WinMergeで元のと新しいのの差分を比較しながら必要なところだけ新しい方へ転記するのがおすすめ
拡張機能もインストールし直すのがいいかも。ただしControlNetのモデルは再ダウンロードが大変だろうから元のフォルダから移動でいいでしょう
あとはembeddingsフォルダとlogフォルダの中身が必要そうならコピー/移動してくればよい
こんなところかな? 完全にシステムに組み込むくらいいいんなら
普通のステップとスケールで同じ時間でクオリティがアップするわけじゃん
低VRAMオプションのついで程度のもんやろ >>611はわざわざ一人のためにテンプレに追加する必要を感じません。警報を出すことが「荒らしに反応するのもまた荒らし」に該当しかねないしね
そしてさっきのようなことがあると、やっぱりワッチョイは最低限つけた方がいいと思う
ワッチョイがあって困ることは何かあるだろうか?
ID:l57jy3Hw は気に入らないことがあるとケンカ腰でつっかかっていくじゃない
質問に答えてくれるのはありがたいけど、そこは直してもらいたい >>667
ワッチョイは過去何度も提案したけど、スレ住人が望んでないのよ
立てたところでどうせ荒らしがワッチョイなしを後から立ててみんなそっちに集まる
もう過去あちこちの板で見た展開
まぁ、試しに立ててみてくださいな
自分はそっちに行くようにするけど、普通の質問者もなんとなく固定バレを嫌がるのですぐ誰もいなくなる もうすでにワッチョイスレあるんだろ
だったらそっちがいいと思う人はさっさと移動したらどうだ
ここはワッチョイが必要か議論するためのスレではない またLCMアンチが暴れてたのか
どんだけ悔しかったんだよ >>664
確かにそうした方がよさそうなので元は残して入れ直します!
>>665
細かいとこまでありがとうございます
入れ直しの作業でなにか詰まったらまたここで質問させて頂きます! >>667
ワッチョイあるしさっさと移動したら?
言い出しっぺがやんないと
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
https://mevius.5ch.net/test/read.cgi/cg/1693352870/ 画像出せ出せLCMアンチしつこいわ
何がそんなに悔しいんだよ? さも荒らし対策しますみたいな自治厨のこいつらが一番荒らしてね?
ID:l57jy3Hw
ID:QpBf3JEZ CG板 2023年12月09日
ID:l57jy3Hw
書き込み順位
1 位/128 ID中 >>674
自治厨が荒らしなのは2ch時代からですよ
自治厨=荒らし >>607
ドライバは脳死で最新にしてたわ…
調べてオフロード設定切ってみたけど生成時間は全く変わらなかったので潔くVRAMに余裕出るよう換装しようかと。
しかしタスマネで見たら生成中のVRAM使用量は目一杯使ってる訳でもないので、ひょっとしてリソースは足りてる?
>>648
4090は普通にエンスーの域なんだよなぁ…。
換装のために実地調査してきたんだけど(中古売却には至れなかった)
値幅が大き過ぎて事前に調べてたのに訳わかんなくなってきたよ…
盲目的に4070かそのTiで12GBVRAMで手の届く価格帯のを選べば
とりあえず現状は打破できるかな? すぐ陳腐化しそうだけど…。 >>667
>>668
お前らワッチョイに移動な
もうここ来るなよ >>677
GPU12GBでおま環になるなら16GB以上の方が安心できないか?
8090以外に1月の70tisuperも16GBの噂
て80はもう製造停止してるらしいけど supermergerでモデルをマージした後画像生成しようとするとエラーが出るんですがどこを直せばいいんでしょうか?
OSError: [WinError 123] ファイル名、ディレクトリ名、またはボリューム ラベルの構文が間違っています。 >>657
CPUへのメモリ確保(つまり GPU VRAM ではなくて普通の RAM)の確保に失敗してるというエラーなので描画にGPUが使われていないのでは?
nvcc -V を実行するとキチンと GPU の情報が表示されるかとかインストール時や起動時のオプションがCPUになっていないか確認
よくわからなければインストールを解説してくれている blog サイトとかを見ながら別のところにインストールしたほうがいいかも AppData>Local>Temp>gradioフォルダに、生成した画像が沢山入ってたんだけど
これ自動で生成されないようにするにはどうすれば良いですか? 2girls→だいたい2人
3girls→だいたい4人
なぜなのか お題
https://majinai.art/i/ggac9yr.png
参考にしたもの
https://majinai.art/i/n3KaquC.png
出来たもの
https://majinai.art/i/NCidvZh.png
ディティールはLoRAで補う方向
なんでLoRAを1個追加したけどLCM LoRAに変えた短縮時間に比べればはるかに影響は小さい
あと特にこだわりないならSwinIR_4xを4x-AnimeSharpとかに変えた方が時短になる つまらない質問ですいません。
エロが出にくいと聞き、web uiのバージョンを1.4のままにしてるんだけど、最新の拡張機能を使えないのがストレスになってきた…
1.6を試し、実際エロが出しにくかった経験もあって今も敬遠してるんだけど皆さん、実際どうですか? >>686
エロが出にくいかどうかはモデルによるのでは
1.6だからどうというのは感じたことはありません 返信ありがとうございます。
そうなんですね、安心しました。今は1.4で使っているyayoi mixを1.6で試してみます。 >>689
すみません
>>687さんへの返信です >>691
そうですね、失礼しました。
重複の質問はこのスレに失礼なので、もうしばらく待ってから再度エロ画像スレにも聞いてみたいと思います webuiのバージョンでエロの出やすさって変わる余地があるのかな
エロに限らず
checkpointとLoraの影響が大きそうだけど エロの出やすさはピンと来ないけど適当にアプデかけると同じプロンプトでも再現出来なくなってることはある >>682
生成されないようにはできないと思う
1111の最近のバージョンでは起動時(PCの再起動時だったかも)に削除してくれるようになった気がする
はっきりしなくてすいません >>693
そういうものなんですね、参考になりました。
前に、1.6はエロが出にくいという書き込みをエロ画像スレで見た記憶があり、質問スレのこちらでお尋ねした次第です。ただ、そもそものエロ画像で確認するべきだったかも知れませんね。 >>686
とりあえず両方のバージョン入れてみて比較見てはどうか? MagicAnimate
で簡単にポーズを作る方法は
ないだろうかこれがあれば… >>698
返信ありがとうございます。
皆さんに返信いただき、放りっぱなしの1.6を再度試す気持ちになりました。調整が終わったら、早速挑戦してみます。 HDDの容量が厳しくなってきたので、SDの画像生成出力をpngからWebp(可逆圧縮)に切り替えようと思っています。
pngとWebp(可逆圧縮)を比較した場合、Webp(可逆圧縮)を利用するデメリットってWebpの対応アプリケーションの少なさ以外ありますか? Tiled VAEのみ有効にしてれば高解像度時生成のvram12Gも16Gも生成速度に大差ないって思ってんだけど
どう思う?
具体的にはRTX4070tiとRTX4080との違いなんやけど >>701
すぐに思いつくデメリットはないかなー
ところでちょうど今日、なんJNVA部でこういうのが
メタデータを残したままPNGをJPGに変換できるツール
https://github.com/Takenoko3333/png2jpg-for-a1111-and-NAI
HDD容量が怪しいならこういうのもいいかもよ >>703
ちもろぐに比較があったような…これだ
https://chimolog.co/bto-gpu-stable-diffusion-specs/
「1024×1532:神里綾華(LoRA + アップスケーリング)」が参考になるかも >>703
Tiled に限らず 12GB と 16GB が両方とも難なく走る条件なら GPU速度 (と転送レート) の差になるのでメモリ量による差は無い
12GB 以上 16GB 未満の処理にするなら 16GB 有利
要は使いこなしが必要ということだな >>705
ありがトン
もちろぐなんでもやってんね
>>706
ふむふむ
vaeは置いといて
vRAM内で収まれば単純にcudaコアが多いが強いってことっすね
ちなみにvRAM溢れたらメインメモリddr4よりddr5のが多少は生成速度有利なんかな
ddr4をオーバークロックしてddr5と同一周波数にしたとしても
日本語不自由ですまそ LECOの環境構築に挑戦してるのですが、gui任せでインストールしてもYou Tube参考に手動でインストールしてもどうやっても何かしらエラーが出てしまいます
検索しても同じように困ってる人が出てこないのでbingのAIに聞いたりして色々書き換えたりと試しましたが解決できず、自分の環境が悪いと思ってOSのクリーンインストールも試しましたがやっぱりエラーが出て完全にお手上げです
どうか助けてください
kohya_lora_gui1.8.4.9を使用してインストールして、sampleのconfig.yamlをそのまま使った時に出たエラーのスクショです
OSはwin11、GPUはRTX3060、Python3.10.6です
https://i.imgur.com/vBtDNx3.png >>707
PCIe4.0の帯域幅が32GB/sなのでそれ超えるメモリ速度はあまり意味無いよ
4090 1008GB/s →
PCIe4.0 32GB/s →
DDR4-3200 DUAL 51.2GB/s 自作loraがどうやっても上手く作れず、数日苦しんでいるのでどなたか思い当たる原因分かればご教授ください泣
【やってる事】
kohya_ssでlora作成→ローカル環境で、AUTOMATIC1111で生成
【事象】
黒画像ができる。
・自作loraを使わない場合は正常に出力される
・学習STEPが250くらいまでなら、何故か成功し学習の足りない画像が出力される。以降は全て黒画像になる
・コマンドプロンプトにエラー無し
・グラボは4070Ti,VRAM 12GB
・Lora、AUTOMATIC1111は最新ver。両方ともcheckpoint変えても事象変わらず
・読み込み素材は512x512ピクセル25枚。出力も同サイズ
・黒画像の対策としてでてくる--no-half-vae等のオプションは試し済 >>712
両方最新って事はkohya_ssがv22.3.0でwebuiが1.7.0RCでok?
学習は二次?三次?学習設定の詳細は?
学習時のコンソールでloss=nanとかになってない? >>713
kohya_ssはv22.3.0です。
大変申し訳ありません。。最新を使っていたつもりでしたが、webuiがv1.6.1でした。上げて試します。
二次で、デフォから弄ってる学習設定以下です。仰る通り途中からずっとavr_loss=nanになります!これは何を意味するものでしょうか?
"caption_extension": ".txt",
"clip_skip": 2,
"epoch": 20,
"network_alpha": 64,
"network_dim": 128,
"pretrained_model_name_or_path": "\"D:\\other\\20230709_stablediffusion\\loraGUI\\kohya_ss\\lora_model\\anyloraCheckpoint_bakedvaeBlessedFp16.safetensors\"",
"save_precision": "bf16",
}
epoch 3/20
steps: 15%|████████▍ | 375/2500 [01:01<05:49, 6.08it/s, avr_loss=0.219]
epoch 4/20
steps: 20%|███████████▌ | 500/2500 [01:22<05:30, 6.05it/s, avr_loss=nan]
epoch 5/20
steps: 25%|██████████████▌ | 625/2500 [01:42<05:08, 6.08it/s, avr_loss=nan] >>714
知りたかったのはOptimizerとかlrとかにどの程度の数値を設定してるかってとこかな
状況的には過学習または過少学習でどうにもならない感じになってる
nan出てる時点で学習的には終わってるので低epochで出てる時点で学習設定が適切じゃないと思うよ >>715
なるほど・・・!大変助かります。
上記以外は全てデフォルトです。
何らかのバグではなく、単に元々低epoch数で終わらせない学習設定のチューニングが必要ということでしょうか?
Optimizer:AdamW8bit
LR Scheduler:cosine
Learning rate: 0.0001
LR warmup 10 >>716
別にそんなおかしな設定でもなさそうだけど
この設定しとけばokみたいなのは無いから都度調整するしかないんだけど
学習セットは雑多な感じで結構枚数入ってる感じかな?
loss=0.2台とかだとあんまり学習進んでない感じだから
lr上げてみるとかそういう調整は要るかな
よくわからない感じなら一度自動調整系のOptimizerでやってみるとか
試行錯誤するしかないよ >>711
ありがとうございます
いつかエラー解消できる事を願いつつLECOはcolaboを使用して作りたいと思います >>708
xformerのversionによって特定versionのtorchを必要とする事があるみたい。
少し前に試した時のやり方だけど、以下の手順でインストールしてみたらだめかな?
git clone https://github.com/p1atdev/LECO
cd LECO
py -m venv venv
.\venv\Scripts\activate.bat
python.exe -m pip install --upgrade pip
pip install torch==2.0.1 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
pip install xformers
pip install -r requirements.txt 初心者過ぎる質問で申し訳ないんだけど、0からの画像生成ではなく読み込ませた画像に手を加えてくれる形のソフト探してます
ラフ画像を読み込ませてそこから出力された画像を参考に見ながらまた自分で描くって使い方をしたいんだけど
スレタイ一つにしてもバージョンによって使い方が違うと言われているし自分のような使い方でにAI生成を説明してるサイトも見付からずで
どこから調べていけば良いのか指標すら分からない状態です
自分の絵の参考に見る程度なので解像度や性能の高さなどは求めていませんので
もしお詳しい方がいらしたらおすすめのAI生成ソフトか調べるべき方向性について助言をいただければと思います >>720
使うソフトのデファクトスタンダードはAUTOMATIC1111版Stable Diffusion WebUI
そこにControlNetという拡張機能を入れて、LineartやScribbleという手法で画像を生成する
でいいと思う
パソコンにはGPU(グラボ)が必要で、NVIDIAのRTX3060がストレスなく画像生成できる最低限とされている
という感じでどうかな? stable diffusionとそのへんの使い方覚えればよいと思う リアルタイムに絵を描きたいんだろ A1111ではなくComfy一択 >>701
Webpは変換が遅い、中古HDD買ってきて退避させたほうが早い
手元に全部確認用に置いておきたいならjpegに変換してメタデータを移植するとか 自分で描いた線画(アニメ系)に色塗りをさせているが、クオリティが低いのが悩みです
同じプロンプトのt2iポン出しと比べて圧倒的に色塗りが下手です
コツはありますか?
Controlnetのlineartを使っています
プロセッサーは、白地に黒一色で線を書いてstandard
黒地に白で線を描いてnone
どちらも試したけど大差なし
使用環境
・AUTOMATIC1111版Stable Diffusion WebUI(今年6月に最新を入れた)
・モデルAnythingV5
・グラボRTX 3060 Laptop(メモリ6G
なのでアップスケールは1024×1024+αくらいしかできません) DDR4-3200は片側1600MHzで2チャンネル合わせて3200MHz
その帯域幅が25.6GB/sじゃねーの? >>726
AIのモデルと線画の絵柄が違うとlineart使っても上手く塗ってくれません
lineartは線画を100%維持するわけでもありません
この問題を解決するには自分の絵柄LoRAが必要になります >>729
アドバイスありがとうございます
そうなんですね、PCスペック的に学習は難しいかなと思ってたんですが試行錯誤してみます
プロンプトやパラメータの数値を工夫してどうなるものでもないと分かっただけでも大変助かりました! 回答ありがとうございます。
自分の経験上、外付けHDDは何回か壊れたことがあるので極力使用を控えたいです。
また、データはバックアップしてないと落ち着かないのでファイル容量自体を抑えられると嬉しいです。
>>704
メタデータ残せるのは便利ですね。
ありがたく使わせていただきます。
>>725
変換が遅いのは致命的ですね…
>>727
ツール使わせていただきましたが、自分の環境だと変換後メタデータが残りませんでした…
(Keep PromptチェックボックスONOFFを切り替えは施行済み、拡張子変換自体は成功、自動上書きは便利なので取り入れたかった…) >>731
.net4.8なのでwindows10以降ならすんなり動くと思ってましたがメタデータ取得のdllがうまく動いてないのかな?
そのうち少し調べてみます。 webuiをv1.6.1にアップデートしたところimg2imgで画像範囲を指定する鉛筆?アイコンが消えてしまいました。
画像上の右上にあるバツマークに左に位置していたものです。
アップデート自体あまりしていなかったのでv1.6.1で消えたのかは定かではないのですが、設定で再度表示させるまたは別の場所にその機能があるのでしょうか。 >>726
LineartでMy prompt is more importantをチェックしてDenoising strengthは1.0にした
これが
https://i.pinimg.com/originals/fe/5d/f3/fe5df33795c185eb7ef5f2fb74f7b16b.jpg
こんな感じになる
https://majinai.art/i/cBqvOdZ.png
ペイントソフトでレイヤー使って裏にスプレーで髪色を黒で襟を青で適当に塗ったのを元にしたらこうなる
https://majinai.art/i/avMvi7P.png
背景は人物なしのプロンプトで背景を出して合成して作るみたい
ただ白地だと白のシャツが無理だから緑でやってるのをどっかで見た >>735
綺麗な塗りで理想です、試してみます
ラインアートって線の情報だけ参照してるのかと思ってたんですが、色情報も取ってるんですね
パーツ分けをこちらで指定できるのは使いやすそうです
画像で詳しく解説してくださりありがとうございました >>737
詳しくないから確かなことは言えないけど
シャーペンノイズとかぼかしノイズみたいに境界線を検出するようなアルゴリズムな気がする
それは何で分けてんのって言われたら色しかないから色情報の差分で線を検出してると思う
ControlNetがそもそも画像をぶっこんでそれを参照して絵を描けって拡張だから元絵の全体を影響させることができるはず
それ考えるとスプレーじゃなくて色固定のベタ塗の方がいいのかも >>738
試してみました、バケツ塗りで色置いただけでもクオリティ上がりました
スクリブラーみたいにある程度色を置いた方が綺麗に出るんですね >>708
うちも何かうまく作動しなかったけど、xformerを使わないように設定したらとりあえず動いたよ
torchとxformerのバージョンの整合性の問題っぽいんだけど、うまく合わせる方法がわからんかった >>731
Webpのデメリット見つけた
imgurにアップロードできない!
catboxはプレビューがつかない(たぶん専ブラでサムネイルが出ない)
でもすごく小さくなるのは魅力的だなー
ちなみに>>704はWebpへの変換と、タイムスタンプの維持を機能追加してくれるとのこと 初歩的な質問ですみません。
AUTOMATIC1111で、img2imgのインペイント・アウトペイントについてですが、
読み込む元画像はあくまでAIで出力された、同じモデルで出力されたプロンプト等のメタデータを持つものではないと上手く行かないのでしょうか?
どの説明記事もそれが暗黙の前提となってるように見受けられます・・・。
その辺で拾ってきた画像をAIで修正したい、という需要は、現時点ではなかなかハードル高いでしょうか。
AI出力でない画像の修正ノウハウが載ってる所などご存じでしたら、それもご教授いただきたいです。 >>717
lr調整のトライ&エラーで先ほど上手く出力できました。
ご回答いただきありがとうございましたm(_ _)m inpaintのときにプロンプトが1回効いて以降inpaintが全く効かなくなって描画されくなる現象あるよね >>731
visual studio入れてない環境だと確かにメタデータ取得出来ませんでした、申し訳ない。
週末にでもメタデータの取得方法変えてみます。 ■ このスレッドは過去ログ倉庫に格納されています