【StableDiffusion】画像生成AI質問スレ20
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/ エロの出やすさはピンと来ないけど適当にアプデかけると同じプロンプトでも再現出来なくなってることはある >>682
生成されないようにはできないと思う
1111の最近のバージョンでは起動時(PCの再起動時だったかも)に削除してくれるようになった気がする
はっきりしなくてすいません >>693
そういうものなんですね、参考になりました。
前に、1.6はエロが出にくいという書き込みをエロ画像スレで見た記憶があり、質問スレのこちらでお尋ねした次第です。ただ、そもそものエロ画像で確認するべきだったかも知れませんね。 >>686
とりあえず両方のバージョン入れてみて比較見てはどうか? MagicAnimate
で簡単にポーズを作る方法は
ないだろうかこれがあれば… >>698
返信ありがとうございます。
皆さんに返信いただき、放りっぱなしの1.6を再度試す気持ちになりました。調整が終わったら、早速挑戦してみます。 HDDの容量が厳しくなってきたので、SDの画像生成出力をpngからWebp(可逆圧縮)に切り替えようと思っています。
pngとWebp(可逆圧縮)を比較した場合、Webp(可逆圧縮)を利用するデメリットってWebpの対応アプリケーションの少なさ以外ありますか? Tiled VAEのみ有効にしてれば高解像度時生成のvram12Gも16Gも生成速度に大差ないって思ってんだけど
どう思う?
具体的にはRTX4070tiとRTX4080との違いなんやけど >>701
すぐに思いつくデメリットはないかなー
ところでちょうど今日、なんJNVA部でこういうのが
メタデータを残したままPNGをJPGに変換できるツール
https://github.com/Takenoko3333/png2jpg-for-a1111-and-NAI
HDD容量が怪しいならこういうのもいいかもよ >>703
ちもろぐに比較があったような…これだ
https://chimolog.co/bto-gpu-stable-diffusion-specs/
「1024×1532:神里綾華(LoRA + アップスケーリング)」が参考になるかも >>703
Tiled に限らず 12GB と 16GB が両方とも難なく走る条件なら GPU速度 (と転送レート) の差になるのでメモリ量による差は無い
12GB 以上 16GB 未満の処理にするなら 16GB 有利
要は使いこなしが必要ということだな >>705
ありがトン
もちろぐなんでもやってんね
>>706
ふむふむ
vaeは置いといて
vRAM内で収まれば単純にcudaコアが多いが強いってことっすね
ちなみにvRAM溢れたらメインメモリddr4よりddr5のが多少は生成速度有利なんかな
ddr4をオーバークロックしてddr5と同一周波数にしたとしても
日本語不自由ですまそ LECOの環境構築に挑戦してるのですが、gui任せでインストールしてもYou Tube参考に手動でインストールしてもどうやっても何かしらエラーが出てしまいます
検索しても同じように困ってる人が出てこないのでbingのAIに聞いたりして色々書き換えたりと試しましたが解決できず、自分の環境が悪いと思ってOSのクリーンインストールも試しましたがやっぱりエラーが出て完全にお手上げです
どうか助けてください
kohya_lora_gui1.8.4.9を使用してインストールして、sampleのconfig.yamlをそのまま使った時に出たエラーのスクショです
OSはwin11、GPUはRTX3060、Python3.10.6です
https://i.imgur.com/vBtDNx3.png >>707
PCIe4.0の帯域幅が32GB/sなのでそれ超えるメモリ速度はあまり意味無いよ
4090 1008GB/s →
PCIe4.0 32GB/s →
DDR4-3200 DUAL 51.2GB/s 自作loraがどうやっても上手く作れず、数日苦しんでいるのでどなたか思い当たる原因分かればご教授ください泣
【やってる事】
kohya_ssでlora作成→ローカル環境で、AUTOMATIC1111で生成
【事象】
黒画像ができる。
・自作loraを使わない場合は正常に出力される
・学習STEPが250くらいまでなら、何故か成功し学習の足りない画像が出力される。以降は全て黒画像になる
・コマンドプロンプトにエラー無し
・グラボは4070Ti,VRAM 12GB
・Lora、AUTOMATIC1111は最新ver。両方ともcheckpoint変えても事象変わらず
・読み込み素材は512x512ピクセル25枚。出力も同サイズ
・黒画像の対策としてでてくる--no-half-vae等のオプションは試し済 >>712
両方最新って事はkohya_ssがv22.3.0でwebuiが1.7.0RCでok?
学習は二次?三次?学習設定の詳細は?
学習時のコンソールでloss=nanとかになってない? >>713
kohya_ssはv22.3.0です。
大変申し訳ありません。。最新を使っていたつもりでしたが、webuiがv1.6.1でした。上げて試します。
二次で、デフォから弄ってる学習設定以下です。仰る通り途中からずっとavr_loss=nanになります!これは何を意味するものでしょうか?
"caption_extension": ".txt",
"clip_skip": 2,
"epoch": 20,
"network_alpha": 64,
"network_dim": 128,
"pretrained_model_name_or_path": "\"D:\\other\\20230709_stablediffusion\\loraGUI\\kohya_ss\\lora_model\\anyloraCheckpoint_bakedvaeBlessedFp16.safetensors\"",
"save_precision": "bf16",
}
epoch 3/20
steps: 15%|████████▍ | 375/2500 [01:01<05:49, 6.08it/s, avr_loss=0.219]
epoch 4/20
steps: 20%|███████████▌ | 500/2500 [01:22<05:30, 6.05it/s, avr_loss=nan]
epoch 5/20
steps: 25%|██████████████▌ | 625/2500 [01:42<05:08, 6.08it/s, avr_loss=nan] >>714
知りたかったのはOptimizerとかlrとかにどの程度の数値を設定してるかってとこかな
状況的には過学習または過少学習でどうにもならない感じになってる
nan出てる時点で学習的には終わってるので低epochで出てる時点で学習設定が適切じゃないと思うよ >>715
なるほど・・・!大変助かります。
上記以外は全てデフォルトです。
何らかのバグではなく、単に元々低epoch数で終わらせない学習設定のチューニングが必要ということでしょうか?
Optimizer:AdamW8bit
LR Scheduler:cosine
Learning rate: 0.0001
LR warmup 10 >>716
別にそんなおかしな設定でもなさそうだけど
この設定しとけばokみたいなのは無いから都度調整するしかないんだけど
学習セットは雑多な感じで結構枚数入ってる感じかな?
loss=0.2台とかだとあんまり学習進んでない感じだから
lr上げてみるとかそういう調整は要るかな
よくわからない感じなら一度自動調整系のOptimizerでやってみるとか
試行錯誤するしかないよ >>711
ありがとうございます
いつかエラー解消できる事を願いつつLECOはcolaboを使用して作りたいと思います >>708
xformerのversionによって特定versionのtorchを必要とする事があるみたい。
少し前に試した時のやり方だけど、以下の手順でインストールしてみたらだめかな?
git clone https://github.com/p1atdev/LECO
cd LECO
py -m venv venv
.\venv\Scripts\activate.bat
python.exe -m pip install --upgrade pip
pip install torch==2.0.1 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
pip install xformers
pip install -r requirements.txt 初心者過ぎる質問で申し訳ないんだけど、0からの画像生成ではなく読み込ませた画像に手を加えてくれる形のソフト探してます
ラフ画像を読み込ませてそこから出力された画像を参考に見ながらまた自分で描くって使い方をしたいんだけど
スレタイ一つにしてもバージョンによって使い方が違うと言われているし自分のような使い方でにAI生成を説明してるサイトも見付からずで
どこから調べていけば良いのか指標すら分からない状態です
自分の絵の参考に見る程度なので解像度や性能の高さなどは求めていませんので
もしお詳しい方がいらしたらおすすめのAI生成ソフトか調べるべき方向性について助言をいただければと思います >>720
使うソフトのデファクトスタンダードはAUTOMATIC1111版Stable Diffusion WebUI
そこにControlNetという拡張機能を入れて、LineartやScribbleという手法で画像を生成する
でいいと思う
パソコンにはGPU(グラボ)が必要で、NVIDIAのRTX3060がストレスなく画像生成できる最低限とされている
という感じでどうかな? stable diffusionとそのへんの使い方覚えればよいと思う リアルタイムに絵を描きたいんだろ A1111ではなくComfy一択 >>701
Webpは変換が遅い、中古HDD買ってきて退避させたほうが早い
手元に全部確認用に置いておきたいならjpegに変換してメタデータを移植するとか 自分で描いた線画(アニメ系)に色塗りをさせているが、クオリティが低いのが悩みです
同じプロンプトのt2iポン出しと比べて圧倒的に色塗りが下手です
コツはありますか?
Controlnetのlineartを使っています
プロセッサーは、白地に黒一色で線を書いてstandard
黒地に白で線を描いてnone
どちらも試したけど大差なし
使用環境
・AUTOMATIC1111版Stable Diffusion WebUI(今年6月に最新を入れた)
・モデルAnythingV5
・グラボRTX 3060 Laptop(メモリ6G
なのでアップスケールは1024×1024+αくらいしかできません) DDR4-3200は片側1600MHzで2チャンネル合わせて3200MHz
その帯域幅が25.6GB/sじゃねーの? >>726
AIのモデルと線画の絵柄が違うとlineart使っても上手く塗ってくれません
lineartは線画を100%維持するわけでもありません
この問題を解決するには自分の絵柄LoRAが必要になります >>729
アドバイスありがとうございます
そうなんですね、PCスペック的に学習は難しいかなと思ってたんですが試行錯誤してみます
プロンプトやパラメータの数値を工夫してどうなるものでもないと分かっただけでも大変助かりました! 回答ありがとうございます。
自分の経験上、外付けHDDは何回か壊れたことがあるので極力使用を控えたいです。
また、データはバックアップしてないと落ち着かないのでファイル容量自体を抑えられると嬉しいです。
>>704
メタデータ残せるのは便利ですね。
ありがたく使わせていただきます。
>>725
変換が遅いのは致命的ですね…
>>727
ツール使わせていただきましたが、自分の環境だと変換後メタデータが残りませんでした…
(Keep PromptチェックボックスONOFFを切り替えは施行済み、拡張子変換自体は成功、自動上書きは便利なので取り入れたかった…) >>731
.net4.8なのでwindows10以降ならすんなり動くと思ってましたがメタデータ取得のdllがうまく動いてないのかな?
そのうち少し調べてみます。 webuiをv1.6.1にアップデートしたところimg2imgで画像範囲を指定する鉛筆?アイコンが消えてしまいました。
画像上の右上にあるバツマークに左に位置していたものです。
アップデート自体あまりしていなかったのでv1.6.1で消えたのかは定かではないのですが、設定で再度表示させるまたは別の場所にその機能があるのでしょうか。 >>726
LineartでMy prompt is more importantをチェックしてDenoising strengthは1.0にした
これが
https://i.pinimg.com/originals/fe/5d/f3/fe5df33795c185eb7ef5f2fb74f7b16b.jpg
こんな感じになる
https://majinai.art/i/cBqvOdZ.png
ペイントソフトでレイヤー使って裏にスプレーで髪色を黒で襟を青で適当に塗ったのを元にしたらこうなる
https://majinai.art/i/avMvi7P.png
背景は人物なしのプロンプトで背景を出して合成して作るみたい
ただ白地だと白のシャツが無理だから緑でやってるのをどっかで見た >>735
綺麗な塗りで理想です、試してみます
ラインアートって線の情報だけ参照してるのかと思ってたんですが、色情報も取ってるんですね
パーツ分けをこちらで指定できるのは使いやすそうです
画像で詳しく解説してくださりありがとうございました >>737
詳しくないから確かなことは言えないけど
シャーペンノイズとかぼかしノイズみたいに境界線を検出するようなアルゴリズムな気がする
それは何で分けてんのって言われたら色しかないから色情報の差分で線を検出してると思う
ControlNetがそもそも画像をぶっこんでそれを参照して絵を描けって拡張だから元絵の全体を影響させることができるはず
それ考えるとスプレーじゃなくて色固定のベタ塗の方がいいのかも >>738
試してみました、バケツ塗りで色置いただけでもクオリティ上がりました
スクリブラーみたいにある程度色を置いた方が綺麗に出るんですね >>708
うちも何かうまく作動しなかったけど、xformerを使わないように設定したらとりあえず動いたよ
torchとxformerのバージョンの整合性の問題っぽいんだけど、うまく合わせる方法がわからんかった >>731
Webpのデメリット見つけた
imgurにアップロードできない!
catboxはプレビューがつかない(たぶん専ブラでサムネイルが出ない)
でもすごく小さくなるのは魅力的だなー
ちなみに>>704はWebpへの変換と、タイムスタンプの維持を機能追加してくれるとのこと 初歩的な質問ですみません。
AUTOMATIC1111で、img2imgのインペイント・アウトペイントについてですが、
読み込む元画像はあくまでAIで出力された、同じモデルで出力されたプロンプト等のメタデータを持つものではないと上手く行かないのでしょうか?
どの説明記事もそれが暗黙の前提となってるように見受けられます・・・。
その辺で拾ってきた画像をAIで修正したい、という需要は、現時点ではなかなかハードル高いでしょうか。
AI出力でない画像の修正ノウハウが載ってる所などご存じでしたら、それもご教授いただきたいです。 >>717
lr調整のトライ&エラーで先ほど上手く出力できました。
ご回答いただきありがとうございましたm(_ _)m inpaintのときにプロンプトが1回効いて以降inpaintが全く効かなくなって描画されくなる現象あるよね >>731
visual studio入れてない環境だと確かにメタデータ取得出来ませんでした、申し訳ない。
週末にでもメタデータの取得方法変えてみます。 >>750
あ、日本語部分がutf8なので文字化けしそう。週末にちゃんとDLLに依存しないPNGヘッダ解析バージョン作ります。。 >>719
>>740
ありがとうございます
教えてくださった方法でのインストールやxfomersを使用しない設定も試みてみましたが、やはりエラーが出てしまいました
ただ、もう少し試行錯誤してみたいと思います
ありがとうございます webp の動画を MP4に変換できる方法はないか? >>752
新規インストールを試してみました。LECOフォルダは作り直して以下を。
今version指定なしで入るxformers0.0.23にはtorch2.1.1+cu121が必要みたいです。
git clone https://github.com/p1atdev/LECO
cd LECO
py -m venv venv
.\venv\Scripts\activate.bat
python.exe -m pip install --upgrade pip
pip install torch==2.1.1 torchvision --extra-index-url https://download.pytorch.org/whl/cu121
pip install xformers==0.0.23
pip install -r requirements.txt そろそろsd1.5系からSDXLに移行するか〜ってモデル変えて今まで使ってたプロンプトで生成してたんだけど、破綻率高いしプロンプトもあんまり反映しません。
解像度1024x1024でやっても変わらないんですけど何か設定いじらないといけないとかありますか?
VRAM12GBあるのでスペック的には足りてると思うんですが・・・ >>758
1111の話だよね
VAEをXLのにしてる?
そのほかにも設定もれがあるかもしれないから、webuiの画面キャプチャを見せてくれると話が早いかも
あとSDXLはFooocusがお手軽でいいよ 自分でもよくわかってないまま使ってるから事例がないかだけ聞きたいのだけれど(詳しいこと聞いても自分で理解できる気がしない)。
画像生成中に停電して、復帰後から生成結果がおかしくなったのだけど停電が原因で生成結果変わることある?
おかしい状況:同一のモデルや数値設定で緩めのアニメ調から濃いめのnovelAIでの生成結果みたいになった
試したこと:SD自体の再DL、使ってるモデルの再DLして全く新しい状態にしたりもしたけど変わらず >>759
ありがとうございます!
あーVAE弄り忘れてます…
都度変えるのは忘れそうになるのでfooocusデビューすることにします!
>>760
停電は無いけど、生成中にwindowsが再起動してしまうことがあってモデルデータが破損することはあったよ
修復しようとしたけど、内部のデータもどっかしら破損してるみたいで復旧できなかったのでSD入れ直したよ 変わってしまったという前後のpnginfo付きの画像を上げれば誰か検証してくれるでしょ
同じ設定(勘違い)なんてよくあるし モデル名とプロンプト、その他設定を書いてみたら?
どんな画像がでたら正解か教えてあげるよ >>752
うちもxformers付きで動くようになったわ fooocus、軽くていいんだが、1111とパラメータを同じに設定しても顔が再現しないんだよな。styleが影響しているのかもな foocusのスタイルの中身はpromptのテンプレだから、JSON触って空スタイル作らんと再現性ないよ 今ってxformers必要だっけ?
な他の速いのを使っていたような… 何日間か全裸画像ばかり生成し続けていたら裸とはエロとは何なんだろうか……とよく分からなくなってきた 3060以上のGPUならxformers使っても速度は変わらなくて
生成画像は安定するって聞いた事があるかな
俺はそれを鵜呑みにしてxfromersは使ってない
(ちな3060Ti) >>731
JpgDiet1.0.4.0.zip
Promptの情報を残しながら、pngからjpg変換をマルチタスクでゴリゴリ【上書きで】行うツールを更新しました。お試し下さい。
PNGファイルの自前解析に対応してDLLを削除、また日本語のPromptにも対応。
https://mega.nz/file/TBN3gRaT#2rh0iABAARQP6t7zhIdeHWlz1vqZ-xQ46sTqr-3R1UI opt-sdp-attentionで良いんじゃないの? xformersは速度的な優位はもうないらしいが、メモリ使用量の削減には役に立つそうだ
同一画像が作れない件も改善はされている(まったく同じものが出るとは言っていない) >>757
うわあああああ!!動きました!!
ここ3日間、何度再インストールしてもエラーが出て実行できず、比喩じゃなくて本当に涙目になってもう諦めようとしてた所でした!
わざわざ新規インストールまで試していただいて、心から感謝してます!
もう本当に本当にありがとうございます!! 好きなキャラのLoRAを作りたい時に
1.全体を似せたい
2.顔だけ似せて服装は変えたい
3.服装だけ似せて他のキャラに着せたい
といった相反する要求は1つのローラで実現できるのでしょうか?
LoRA作成のくやしい解説ページなどありましたら教えて下さい >>770
問題なく動作しました。ありがとうございます!
自分の場合、メモ代わりにプロンプト欄に日本語を混ぜているので残せるのはありがたいです。 >>776
「くやしい解説」という言葉の意味が必ずしも明らかではありませんが「キャラクター学習のタグ付け一例」で検索されれば出てくると思われます 「くわしい解説」だろうけど、くやしい解説が欲しい可能性も微粒子レベルで存在してますからね >>768
その内エロではなく芸術的に感じるぞ
美しい物として見るようになる
トップクラスのスタイルだからね >>778,779,780
詳しくの誤字でした
ありがとうございます
タグ付けで調べてみます くやしい、でも感じちゃう、ビクンビクンする解説かもしれない kritaのAIプラグイン
scrribleモードがめちゃくちゃ楽しいんだけど
XL用のscribbleが見当たらなくてturboでの生成ができない
みんな1.5でやってるの? Stability MatrixでComfy UIを使用している方はいらっしゃいますか?
ノード上で右クリックをしても、CopyとPasteが機能しないのですが、いかがでしょうか? いろんなUIが簡単にインストールできて各UI間でcheckpointやLoRAが共用できるらしい
AI画像生成の新時代! 「Stability Matrix」で最新の画像生成を体感せよ!
https://forest.watch.impress.co.jp/docs/serial/aistream/1554038.html 先日「生成結果がおかしくなったとカキコしに来た760です。結果から言うと原因が分かって治りました
基本的に人に見せられるもの作ってないのでプロンプト見比べてもらうこともできなかったので自分で見比べてたのですが、モデルを切り替えが機能していなく「モデルが不在の状態で生成していた」という原因だということが分かりました。普段から複数のモデルを使い分けているつもりだったけどずっと1つのモデルだけ使ってたのか俺・・・ >>787
うちの環境ではコピペできますね
くやしぃ、でもできちゃう♪ >>789
拡張機能つかえないとキツイ。
ADetailerとか必須だし。 v2vの動画生成に手を出してみたいんだけどちらつき無しで繋げられるおすすめ方法教えてもらえないかな
元動画はキャラものMMDダンスでtt2iで生成したキャラ絵をリファレンスに使って作りたい
Youtube見れば色々出てはいるけど結局どれが良いの?ってなるとよく分からなくて困ってる
試行錯誤すればいいんだろうけどなるたけ先人の知恵を拝借したい ■ このスレッドは過去ログ倉庫に格納されています