【StableDiffusion】画像生成AI質問スレ21
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured RedRayz氏のGUIでLoRA学習をやってて、
keep_tokens_separatorを使うときは、
詳細設定のページのトークンのセパレータで、セパレータ|||を指定して、
トークン保持数の値は、0で良いでしょうか。 セーブデータみたいなイメージで、PNG Infoからt2tやらi2iに送ってプロンプト書き換えてるんだけど、
転送する度にseedと設定(override setting)も送られてウザったいんだけど、この辺の転送するもの選ぶ設定ってどっかにありますか? >>226
それはないと思うなあ
txt2imgからimg2imgなどへ送るときにシード値やサイズも送信するかは設定の「User interface」にあったけど、この設定はPNG Infoからの送信では関係なかった kohya_ssで学習させようとしたんですが
RuntimeError: NaN detected in latents: C:\SD\kohya_ss\02-input\1_sd\sd (1).jpg (教師用の画像)
というエラーが出て止まります
原因はなんでしょうか >>227
そうですよねー。
言われてる、シード値送るかみたい設定あってこれか!と思ったらPNGInfoは関係ないようで。
Override Settingのせいで新しいモデル試してたつもりなのに古いままで、しばらく気付かなかったって人結構いるんじゃないですかね? >>225
ありがとうございます。そっちで聞いてみます。 >>229
--no_half_vae をどこに記述すればよろしいのでしょうか? AdvancedのAdditional parametersかな? >>229
>>233
ありがとございます 学習が開始できました すみませんガチ初心者です
Stabledifusionをローカルで導入した素の状態で使っているのですが、何日も生成していると、過去に生成した画像に似たものが多くなってきた気がするのですが、これは正常なんですか?
(R18系のイラストを最初に生成しようとしたときは何度やっても出なかったのが、今では何もそういう呪文を入れてなくてもR18系の画像が生成される…みたいな)
LoRAみたいなのは導入していません。リセットする方法があれば教えてほしいです。 >>235
原理的にはこれまでのプロンプトに引きずられることはないんだけど、A1111はバグなのかそう感じられる画像が出ることがあるとよく言われるよね
モデルをいったん切り替えるだけでリセットされるというのは初耳
A1111を再起動しなければいけないと思ってた マスピ顔の話か? masterpieceとか指定したらそんな顔しか出なくなる クオリティを高める弊害だ >>235
基本的にずっと生成してたらそれが染みつく、みたいなのはない
R18がなかなか出なかった時代の画像が残ってるのであれば
png infoに突っ込んで今現在とプロンプトの違いを精査してみるといいかも
ある単語に気付いた試行錯誤を覚えてないとかだと思うよ キャッシュデータがあるからね
削除したはずのLoraの効果が残ってたり
同じようなな顔が連続するようなことはある
基本ランダムだから、永久には続かない Lora学習でaaaa_v1-000010みたいに作りながら確認してる時に<lora:aaaa_v1:1>だけで効いちゃう
(この時png infoは000010になってる)
そのまま作り続けて000015、000020、最終的にaaaa_v1が完成しても
Loraタブでrefreshしないとaaaa_v1指定で000010が選ばれ続ける
この状態で00010削除すると、掴んだままなのかありませんエラーになる(aaaa_v1あるのに)
この謎仕様のせいでかなり頭抱えた時期があった、1.7現在も修正されてない
ほんと混乱するのでなんかあるたびにrefreshしてる LoRAは何かが変わるまでキャッシュしているけど、ファイル名ではなくてエイリアス名かもね そもそも同じモデルで生成してれば似たような物が出るのは当たり前
構図とかポーズもそのモデルで出やすい物が出る
そこを代えてくプロンプトはあるけど、特定絵柄に特化してるタイプのモデルは効きにくい
汎用性があるモデルでも、指定すれば何でも出るというほどではない https://mevius.5ch.net/test/read.cgi/cg/1703250505/518
> 最初optimizerの設定をadamW8bitにしていたのですがError no kernel image is available for execution on the deviceとなったのでadamWに変更したところのエラーです
1070tiなんでadamW8bitは動かないんだろうね
> CUDA out of memoryとあったので色々参考にSBwebui-user-batに--xformers --medvramを加えてみたりwebui.batのほうにset PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
> を入れてみたりしたのですがあまり改善しませんでした
> そもそも何か根本的に間違っているのでしょうか?
これは勘違い、それはwebui側であってkohya_ssとは関係ない って、247の元レスよく見たら笑った・・貼ってもらうまでもない、なるほどね
みんなよくやるらしい SDXLでリアル系でLoRAの効きのいいモデルって何があるでしょうか?
fudukiMix_v20 をいま試しているのですが LoRA JP2 を追加しても全然変わらないのです
できればAnimagineベースでRefinerとして使いたいのです
SD1.5ではアニメモデルをベースにxxmix9realistic_v40でRefinerかけてADetailerという感じがお気に入りでした
理想 → https://i.imgur.com/6a1OH8B.jpg >>247>>250
やっぱりwebuiとkohyaは別々なんですね…
kohyaを含めてCUDA out of memoryエラー?を調べてもSBの解決方法しか出なかったのでwebui側の問題かなと考えてしまいました
書き方からすると初歩的なミスなのでしょうがプログラミングなどの知識はないので何が間違っているのか何度見返してもわかりません
できれば噛み砕いて教えてくただけると助かります >>252
Kohya_ss起動した時の一番上Running on local URL: http://127.0.0.1:7860より上の
メッセージが見えるSSが見たいな
Kohya_ssのセットアップミスだと思うけど
後、CUDA out of memoryは単純にVRAMが足りないから処理続行出来ないってエラーだから
8GBしかVRAMが無い1070じゃそれなりにやりくりしないと厳しいよ
一応共有メモリを使うことで多少ならカバー出来るけど
メモリ搭載量が16GBしかないので共有メモリが8GB(メインメモリの半分)しか確保出来ないので
処理によっては8GB+8GBでは足りない感じなんじゃないかな(よっぽど無茶しなきゃ普通は12GB前後でおさまる筈) >>251
fuduki 2.0はlora無しでも使えるようにしたモデル。loraを適用すると過学習になる可能性があるとのこと。対してfuduki1.5はloraの使用を前提としているので、目的によってはこちらがオススメ。 >>252
細かい事はわからんのだけどメモリ32GBと3060ti(8MB)でKohya_ss回してて、OutOfMemory対策で設定してるところ。もし参考になれば。
・LoRAtype:Standard(他は無理?)
・Trainbatchsize:1か2(Max resolutionと相談)
・Mixed precision、Save precision:fp16固定
・Max resolution:512ならTrainbatchsize2でも可能かも、752なら1固定
・Network Rank、Network Alpha:上げすぎは無理(128、1で問題ないと思ってる) >>254
ありがとうございます v1.5 で試してみますと確かに LoRA が乗ってきているのが分かりました
(同じ seed でこんなに違うのは初めてですが)
https://i.imgur.com/ExML79u.jpg
さらに 1.5 の方は素でも 2.0 より好み寄りでしたのでこれでいろいろ試していきたいと思います 初めて2週間ぐらいの初心者です グラボはgtx1660です
kohya_ssを使用して33枚の画像を繰り返し20回×15回=9900ステップで自作のloraを作成しました
教育用の画像は1024×1024の正方形で背景を白く加工しもので全画像でキャラクターが同じ服装をしています
stable-diffusionで自作のloraを使って画像を生成しましたが、微塵も反映されません
見た限りでは学習時と画像生成時にエラーもないようです
学習結果が反映されない理由として何が考えられるでしょうか? kohyassの最初のタブでDreambooth選択していませんか >>259
>>260
学習時にloraを選択しタグもいれています
プロンプトも試しましたが自作loraありとなしで同じ結果でした >>258
添付してるテキストの書き方が間違っている可能性 >>262
自作loraのメタデータを見たときに設定したタグが全てあるので
たぶん間違ってないと思います 実はキャプションtxt一切なしでも一応学習はするし、トリガーワードなしでもLora入れてると反応する
>>258
エスパーじゃないので細かい設定見ないとなんとも・・jsonファイルをアップローダー等に上げて貼って
> 見た限りでは学習時と画像生成時にエラーもないようです
LossがずっとNaNとかになってない 1660系はfp16にバグがあって使えない
ttps://qiita.com/peka2/items/6e5bbcf3a3d175b703b1
この辺参考に設定変えて >>266
ありがとうございます
設定を変えて学習してみます 遅くなってすみません。
>>256 >>260
うわああああああああああ、その通りです
出来ました…
指摘されるまでタブがあったことすら気づきませんでした
本当にありがとうございます
>>253 >>255
丁寧にありがとうございます。スペック的にやはり最低限という感じなんですね…
今回は私のミスでしたが今後の参考にさせていただきます
ありがとうございました kohya_ssの最大の欠点があのタブだと思う
あれは今でも油断してると変更忘れる 自分も一回間違えた後、kohya_gui.pyにパッチあててDreamboithとLoRAのタグの順番入れ替えるようにした ドリームブースとLoRAのタブの中身が
レイアウトもパラメータがほとんど一緒というのが罠度高い
しかもデータの読み込みもLoRAのコンフィグを
ドリームブースのタブで読み込みしてもエラーにならなかったりトラップが複数あるw いやほんとにタブの中身ほぼ同じなんですね…
私も順番入れ替えるようにします、お騒がせしました 入れ替えって簡単にできるん?
kohya_gui.pyをエディタで開いて、それっぽいところを入れ替えてみたがエラー出て動かん kohya_gui.pyの以下の2行をDreamboothの上に移動しました。
with gr.Tab("LoRA"):
lora_tab(headless=headless) ちょいと質問
今PCIE3.0×16のPCで1650使ってるんだか、流石に時間がかかってしかたがないのでグラボ買い換えるつもりなんだ
ただ、PCIE3.0のマザボに本来PCIE4.0用の3060とか4070とか挿したときの生成スピードの低下がどの程度かわからなくてさ
グラボ内で計算するので大差ないのか
本体とのやりとり発生するので大幅に低下するか知ってる人いたら教えて欲しい
PCの買い換えまでとなると流石に貯蓄の切り崩しがでかいので避けたいんだかどうやろ >>278
ゲーム関係だと誤差みたいなもんとされてる >>278
俺PCI3.0に4060さしてるよ
計測してないけど、乗り換えたほうがいい 久しぶりにSD触ってるんだけども、LCM loraをa1111で使うには
1)lcmのloraを落としてくる(1.5用,XL用)
2)animatediff入れてサンプラーをLCM選択
3)プロンプトに<lora:対応LCMlora:1>追加 モデルや他loraは任意
4)CFG scaleを2くらい、step8くらいで生成
という感じで合ってますかね
他なんか足りない設定とかあるかな >278
うちはPCIe3に3090刺したけど1600系より次元が違うくらい早いわ。SDではグラボの速度が一番影響でかいで
俺の場合、現在金もそんなに無いしCPUがSandhiBridge-EPなんてクッソ骨董品だし、スロットはPCIe3だし、マザーやCPUの新調するべきか悩んだけど
一応メモリだけは百ギガ以上積んでるしCPUコアも16コアあるから、半分賭けで NVMe SSD + 3090でSD環境整えた。結果、費用対効果で正解だったわ
起動も生成も学習も以前の数倍早くなったし一度に大画像を複数生成できるようになった
CPU速くしたかわりに、余裕の無いSSDにwebui入れて安いグラボにしてたらメチャクチャ効率悪かっただろうな ありがと、どうやら3.0であることはそこまで気にしなくてもよさそうやね
早速グラボの方、週末にでも見てくるわ 古いPCだと電源がヤバいかもしれないから
3060Ti12GBか4060Ti16GBにしといたほうがいいよ
安いのはVRAMが少なかったりするからよく見るんだよ
お母さんとの約束だよ 4060Tiとかだとx8接続だから更に若干パフォーマンス低下はあるかもね
ゲームとかだと誤差と言えなくもない位だけどAI利用だとどうなんだろうね グラボ買い替えは予算が許すならVRAM16以上欲しいね
電源とセットで考えるのも大事 >>276
やっぱそこだよね。うまくいかないんだが
と思ってたら今なぜか成功した
何が間違っていたのかよくわからんな .pyはTABと半角全角スペースでめちゃくちゃになりがち
揃ってないとエラーになる
編集するときはメモ帳でなくコードエディタがいい Pythonはインデントの数がC言語のカッコに相当するからな
他の言語はインデントなんて単なる可読性のためだけど
Pythonだと実行内容に影響する
タブとスペースの混在もトラブルの元になりがち
なぜかというと大半のPythonプロジェクトはタブ一個をスペース4個と解釈するが、メモ帳だとタブ一個でスペース8個分インデントするから さすがにメモ帳はどうよ、VS Codeでいいじゃん いや俺はメモ帳使ってないけど別にプログラマだけがSDいじってるわけじゃ無いだろ・・ 最近は少し規模が大きいのはvscodeに移行しだしたが
テキストエディターとしてはちょっとマイナーなK2editorってのをずっと使ってる サクラエディタを30年近く使ってる
コード書いたのは10年ぶりくらいだけどちゃんとやるなら統合環境とか使うんでない
PythonはSD始めてから触ってみた感じVSCodeかColabでいいと思うけど マジレスするけど専用のソフトを使わない限りWindowsではBOMがつくだろ
python使えないじゃないか >>300
いまはメモ帳もデフォルトbom無しUTF-8だよ 289だけどサクラエディタを使ってますよ
半角スペースの有無で動かなくなるのはなんとなく知ってたけど、予想以上に厳密さが求められるんだな 質問失礼します
Kohya_LoRA_GUIで>>228と同じエラーが出るので--no_half_vaeを設定に加えたいのですが該当する項目が設定に見当たりません
Kohya_LoRA_GUIでは--no_half_vaeの設定はできないのでしょうか? グラボをSD用に購入しようと思うんですが
少し調べたら最近のドライバだとVRAM溢れてもメモリである程度代用できるらしいので
SDXLも8GB+RAMでもいけるんでしょうか?強烈に遅くなるなら16GBのを買おうかと迷ってます >>305
VRAMとメモリは速度が全然違います
8GBでもSDXL生成は可能ですが新規に買うなら12~16GB以上をおすすめします >>305
予算の許す限りでVRAM一番大きくてなるべく新しいものから選ぶといいぞ
XLメインなら16↑かな
12は予算の関係とか今使ってるから妥協するって感じ >>305
速度がいきなり2~5%とかに落ちるぞ、マジで。VRAMでやれば1分かからないくらいの生成が、VRAMからあふれると予想時間が15-30分とかになる
VRAM24ギガあって2~3ギガあふれただけなのにそれくらい速度が落ちるからな
GPUはメインメモリに直接アクセスできるわけじゃ無いから
CPUに頼んでデータを転送してもらわないとならないわけでそのオーバーヘッドがとてつもないんじゃね 帯域幅がボトルネックだったかな?
例えばRTX4090が1,008GB/sでメインメモリDDR5-7000(PC5-56000)なら56GB/s
その差18倍 メインメモリの帯域より低いPCIe経由でアクセスするわけだからそこが上限だな >>308
すみません
>>232-233はKohya_LoRA_GUIでは出来ないみたいです
AdvancedのAdditional parametersが見当たらないので >>311
PCIe3.0 16GB/s
PCIe4.0 32GB/s
PCIe5.0 64GB/s ---対応クラボが無い レスありがとうございます
想像以上に遅くなるようなので4060Tiぐらいを検討してみます >>316
上げられている画像のものとバージョンが違うのかパフォーマンスというタブではなかったのですが
SDXLというタブにVAEを32ビットで使用(--no_half_vae)がありました
ちゃんと探したつもりで見落としていたんですね…ハズカシイ
でもこれで学習が進められそうです
回答ありがとうございました! StableDiffusionを使ってみたくて、4060TI 16GBを買おうと思っているのですが、
CPUがceleron G6900でも使えそうでしょうか。
ベンチを見るとG6900はシングルでcore10世代、マルチで7世代程度の性能のようです。
CPUはあまり影響しないと見たのですが、celeronでも行けそうなのでしょうか。 >>321
そこまで低いと厳しそうだが
とりあえず使ってみればいいのではないか
不足するなら交換すれば >>321
メインメモリさえ32ギガ積んでいればとりあえず使えるとは思うが
普通に起動してるだけの状態でPythonが7ギガくらい食ってるしSD使ってるブラウザのタブもメモリ食うし今はWindowsもメモリ食いになってるから。
メインメモリ16ギガだとツラいと思う。絶対無理ってほどじゃないが
強いて言えばCPUが2コアだと画像生成中に他の事するのは無理。動画見たりとか ■ このスレッドは過去ログ倉庫に格納されています