【StableDiffusion】画像生成AI質問スレ15
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。 次スレは>>950 が立ててください。 質問する人はなるべく情報開示してください ・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル ・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く ・状況やエラーメッセージを示すキャプチャ画像 ・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく) テンプレは>>2 以降に ※前スレ 【StableDiffusion】画像生成AI質問スレ14 https://mevius.5ch.net/test/read.cgi/cg/1688234958/ >>200 ということは、Torchをインストールしなおす必要があるということですか? kohya_ss GUIを再インストールすればよいですかね? 今のkohya_ss GUIって、どうアンインストールするんでしょうか。 >>201 とりあえずはkohya_ssフォルダにsetup.batがある筈なのでそれを起動して1番がインストールなので再インストールをしてみたらいいんじゃないかな 最悪別フォルダに入れなおす場合は今のフォルダを親ごと削除すれば基本問題はない ピクシブって日本韓国がメインなのけ?AIキャラもほとんど似通ってきたよね はいここのちょい下 国別アクセスランキング https://www.similarweb.com/ja/website/pixiv.net/#traffic もうちょっとだけ信頼できるalexa rankがあった頃はalexaじゃ中国がもっと多くて日本5割ぐらいだった気がするけど ごめんあんまり記憶に自信はない >>196 Pythonのバージョンは? 3.10でないとダメとあるな ttps://github.com/bmaltais/kohya_ss テンプレに Q2:ローカル環境でパソコンの性能はどのくらいがいい? A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMe SSDのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい とあるけど今の構成が i5 7500 H270チップセットマザボ(PCIe3.0) DDR4 2400 16GB これに3060 12GBを追加して動作しますかね? もちろんマザボやメインメモリが旧規格だから多少遅いのは我慢する これで動くならお試しで一月くらい遊んでみて本腰入れそうならPC総入れ替えしようかと思うのだけど… >>206 試すだけなら今すぐにでもその環境でCPUOnlyで動かしてみればいい。1枚15分とかかかるけど一応何かしらは吐ける そのマザボのグラボ用端子が何なのか分からんけど、 PCI Express 4.0 x16なら3060(12GB)は大丈夫です >>206 3060 12GBは割と最低ラインだから本腰入れるなら不満が出るかもよ PC総入れ替えが重要なのか生成AIが重要なのかによるけど、後者ならPC総入れ替えせずに4070ti以上にする手もあるぞ 電源が何Wかは知らんから入れ替える必要はあるかもだが、それ以外はなんとかなるじゃろ、メモリーは必要になったときに足せばいいし >>206 電源の容量が足りるか、物理的にグラボを挿すスペースが足りているか もあるので何とも言えない 3060なら550W以上が推奨と言われている >>207 1枚15分はさすがにキツイ… >>208 スロットはPCIe3.0×16なので帯域は半分ですね >>209 本腰入れるなら3060は店か友人に売ります 4070無印orTi辺りにするか4000Sを待つか… AI絵で通算250万円くらい売上あるけど、未だにRTX2080super使ってるから、できないことはないよ リアルタイムでガンガン生成したいとなると不満あるだろうけど >>210 電源は今650 グラボはスペース的には大丈夫 10年以上前のポンコツRadeonを外せばいいだけですね >>211 最初の質問に答えるなら「全然問題ない」 B450(PCIe3.0x16)で3060/12GBを使っているけど512×512のstep20が5秒で出るから速度はPCIe4.0とほとんど変わらないと思う 最初は3060で十分だよ ここの人たちは隙あらば4090じゃないとダメみたいなことを言い始めるから気をつけて どれにするにしても電源容量に注意してね あとこちらもよろしくね 【StableDiffusion】AIパソコンスレ【質問・雑談】 https://medaka.5ch.net/test/read.cgi/pc/1689758524/ >>206 3060はハマる人には不満が出る速度らしい google colaboとかクラウド環境で触ってみて ハマるかどうか試してみるといいかなと思う もしハマりそうならPC総入れ替えする金額全部グラボに注ぎ込んで 予算内で買える一番高いグラボと、グラボに合った電源買った方がいいかも 動きそうなのでとりあえず3060 12GB買って様子見ることにします ありがとうございました 3060 12GBで腕を磨いてから考えるというのはアリだと思う >>212 マジでそんな稼いたん?だって皆自分でやれるものなんじゃないのけ?ピクシブに一生使いきれないオカズが山になってるよね >>212 二次創作だと後で賠償請求来そうだから時効までは使えないな ただ自己消費でも同人誌換算すると余裕で数百万円以上の価値は産み出してるから4090の代金は償還できてると思ってる 今までなら同人が出るまで数ヶ月、マイナーキャラなら数年待ってやっと薄い本が手に入ってた それが、アニメ見た当日フルカラーのエロエロな同人イラストが手に入る 自分の中ではこの技術は過去最大の革命だと思ってる >>202 setup.batから再インストールしてみました。 すると、 15:43:58-580286 INFO Version: v21.8.3 15:43:58-587292 INFO nVidia toolkit detected 15:44:00-113615 INFO Torch 2.0.1+cu118 15:44:00-139103 INFO Torch backend: nVidia CUDA 11.8 cuDNN 8700 15:44:00-141106 INFO Torch detected GPU: NVIDIA GeForce RTX 2070 SUPER VRAM 8192 Arch (7, 5) Cores 40 15:44:00-143107 INFO Verifying modules instalation status from requirements_windows_torch2.txt... 15:44:00-146109 INFO Verifying modules instalation status from requirements.txt... 15:44:02-874775 INFO headless: False 15:44:02-877766 INFO Load CSS... Running on local URL: http://127.0.0.1:7860 と表示され、最初のエラー表示はなくなりました。 ただ、途中で次のようなエラーが表示されます。 ValueError: bf16 mixed precision requires PyTorch >= 1.10 and a supported device. CalledProcessError: Command '['E:\\Stable Diffusion\\stable-diffusion-webui\\models\\Lora\\LoRA_train\\kohya_ss\\venv\\Scripts\\python.exe', ここで止まってしまって結局学習が進まないのですが、どこが怪しいでしょうか。 >>205 ありがとうございます。Python 3.10.6です。 腕を磨くというよりひと月ふた月で飽きるかどうかの確認ではないのかと 俺はNAI時代から延々続けてきて飽きる気配はないが、万人がそうだとは思えないし 手間暇考えたら他のAI生成でも刺さるなら小銭出すわって人のほうが圧倒的だろうね 外食産業なんて最たるもんだ >>221 エラーを読む限りしか分からんけど、RTX 2070 SUPERがbf16に対応していないとかいうことはない? bf16は混合精度というやや新しい方法なので、もし対応してないのならbf16をオフにしたりできないのかな?このツール使ってないからわからんが >>221 disable gradient checkpoint in advanced settings , make sure to choose fp16 in mixed precision and save precision とあった ttps://github.com/bmaltais/kohya_ss/issues/93 スペック表見てたけど2080super でもbf16演算はサポートしてないみたいだからそのLoRAは2070では動かないんでわ >>224-226 ありがとうございます。 4. (Optional) Manually configure accelerateで、 0または1.fp16を選択してもこのエラーが出るんですが、 設定が反映されてないんですかね? よく理解してなかったからデフォルトそのままにしてたけどbf16対応してるなら学習時に使ったほうが良いの? >>228 bf16は雑に言えばfp16とfp32の間みたいな仕様、使えるなら使っていいんじゃね? >>227 2070Sならfp16を選択だね bf16はRTX 30以降使うならtって感じ まあ、設定ミスってるだけだと思う bf16のほうが計算コスト変わらず精度が良い感じ? 凝ったイラストを創る訳じゃないから1080で満足してるわ >>232 変わらずかどうかは忘れたけど、FP32に近い精度でFP16に近いくらいの速さだった気がする 32bit浮動小数点で回すより16bit浮動小数点で2倍回したほうが良さそう となったけど16bit浮動小数点の仮数と指数の割り振りが機械学習にはアンバランスなので丁度良いところねらいの仮数と指数でbf16らしい それならbf8が出てきても良さそうだが流石にやりすぎかw 精度が重要な「学習」と速度が求められる「推論」 AIプロセッサーの昨今 https://ascii.jp/elem/000/004/014/4014066/ >ただFP16では仮数部が大きすぎ、逆に指数部が小さすぎるという要求が出てくるようになった bf16はfp32の上位16bitと同じなので相互変換が高速 fp16より有効桁数は落ちるがfp32と同じくらいの大きい数が表せるのでオーバーフローしにくい >>235 ハードウェアの最適化ありきの話で8bit演算に最適化されることはニーズ的にないだろうからbf8(8bit演算)は出ないと思う まあそれ以前にさすがに8bit演算じゃどうバランスとっても精度が足りんだろうし webui 1.2.1から1.4.1にアプデしたら、大きめの画像生成時にめちゃくちゃノイズがかかるようになった 512*768で普通に生成できたから安心してたら、Hires. fixやSD upscaleで1024px以上の画像でノイズ発生 モデル、サンプリング方法、アップスケーラーを変えても変化なし。 同じような問題が出た人いますか? python: 3.10.11、torch: 2.0.1、tensorflow: 2.13.0 https://imgur.com/a/hXsHgDE fp16よりbf16のほうがepochが少なくて済むとかなのかな 1girlとかで生成した時に1人の女の子とは別にその子のケツやらが右上に出たりするやつ無くしたいんだけど良いネガティブないですか 説明下手でごめん >>240 ありがとう。俺とは症状がちょっと違うけどいろんなバグがあるんだね 結局バックアップから復元しました。アプデしなさすぎも良くないかと思って試したけど、安定してるなら無アプデの方が良さそうかも >>243 nVIDIAの最新と一つ前のドライバでハードの損傷に至る致命的なバグが問題になってますので注意して下さい 1660Ti 9700K でも出来る画像ってゴミみたいな画質? >>247 時間がかかるだけで画質へのGPUの影響はほぼないよ ガチャ出来ないから画質良いのを選べないという意味を除けば medvramなら512x704くらいまでなら20ステップ40秒くらいで出せる ハイレゾやコントロールネットはlowvramじゃないと動かないからメチャ時間かかる 時間掛かるだけで出せる絵は同じだと思うよ 厳密には30xx以降と絵が変わっちゃうことが多いらしいけど、質は関係ないね ただ、大きな絵に時間がかかるとなんかつまんねって心が折れてしまうかもしれない 512x???はしばらくやってるとさすがに小さいなぁってなるので・・全身入ると顔つぶれちゃうし (顔だけ精細に描き直してくれるDDetailerってのもあるけど) 初心者です Seed値とreferenceonlyの影響うまく調整できないので教えてください 実写系(BraV6)同じ女の子で違う服装作りたく色んなyoutube解説参考にしたけどうまく出せない 具体的に言うと街中で服を着てる画像から海で水着姿にしたいのに水着が再現されずタンクトップみたいになって全然脱いでくれない 勿論服装のプロンプトは消しててマイクロビキニとか入れても変わらず ネガティブにはeasynegativeくらいしか入ってないしあまりに脱いでくれないのでnsfw消してもダメ 昨夜数時間戦ったが私絶対に脱ぎたくないと言う強い意志を感じる どうしても脱がない時はnaked,nudeからのbreasts,nipples,pussy責め あとはcameltoeとか Breastと谷間は入れました 丸裸にしたいわけじゃなくて水着にしたいだけなんだよなぁ… ビキニがキャミソールとかタンクトップになってしまう感じ Referenceonlyの数値どこいじれば、元絵の影響受けにくくなるとかありますか? 実写絵で数値のいじり方まで解説してくれてる動画がないから手探りだと中々難しい 質問する側が上から目線なのはなんなんだ? nudeやnakedと合わせるんだよ それとネガティブに服をぶち込め 自分の求めてる答えじゃなかったからってグズつくなよな >>251 一番早いのはタンクトップになってしまう画像をそのまま上げる そこらのアップローダーはchunk情報消えちゃうので、ここらに https://majinai.art/ https://catbox.moe/ ここの人が水着にしてくれて、しかもプロンプトも教えてくれるよ >>242 でる時あるある 自分も参考になったありがとう ってよく読んだらreference-onlyか・・使ったことないな 女の子とキモいオッサンを並べるにはプロンプトだけじゃ無理かな コントロールネット入れなきゃダメ? 上から目線なつもりは全くないので、どこら辺が上から目線な文章になってしまったのか自分でも理解できておりませんがご不快なお気持ちにさせて大変申し訳ございませんでした。 なんでそんなカリカリしてるの? ↑の >>254 様宛です。 カルシウムとってくださいね >>255 さん ありがとうございます refereneonly ってあまりメジャーじゃないんですね 使わずにやる方法考えてみます >>252 さん 御礼が抜けてて失礼しました。うまく活用するようにプロンプト見直してみます >>258 その組み合わせでしっかり学習されたLoRAが必要じゃないかな どうも難しい感触 コントロールネットのほうが楽っぽい >>258 Regional PrompterとかLatent coupleを使えばいいんでないの controle modeをmy prompt is more important にしてみる。あるいはbalancedでstyle fidelityを少し変えてみる。controle weightを下げてみる、くらいは試してみてもいいんじゃないかと思う。 referenceはあまり使ったことがないのではずしているかもしれないけど。 コントロールネット使ってやってみます 無表情の女の子と満面の笑みのオッサンを並べるの凄く難しいよ まだSDを初めて2週間足らずの者ですが checkpoint によってはfp16版とフルサイズ版(?)みたいの2種類が公開されていたりしますがコレって生成結果がやはり違うのでしょうか?? ストレージ容量的には余裕はあるのですがファイルサイズが小さくて済むならそれに越した事は無いので… 一応の自分の環境は Core i 5 13400F RTX 3060Ti RAM 32GB こんな感じです >>265 fp16とfp32のことだと思うけど、計算精度が一応は違う ただ自分が使い比べてみて違わないと思わなければ違わない、その程度の話かな >>263 やっぱりその辺いじったら改善しますかね。 今から少しSD弄れそうなので頂いたアドバイス組み合わせながら数値やバランスいじって試してみます 改めてReferenceonlyはあんまり使ってる人多くないんですね Adetailerですら顔面崩壊させてしまうほど数値調整下手くそなのでもう少し勉強してがんばってみます アドバイスくださった方ありがとうございました >>230-231 報告おそくなりました。 その後、なんとAdvanced Configurationの中にある、 Gradient checkpointingにチェック、 Memory efficient attentionにチェックを入れたところ、 無事に学習できました! ただ、苦労してやっと学習させたのに、 なんか元画像とあまり似てない…。 なんかコツでもあるんですかね? civitaiの検索だるすぎる… なんで1手順目であんな小さい画面に表示させるんだ… 前ver.に戻せないんだろうか… >>258 使ってみたことないからわからんけど男も含まれたモデルがあるっぽいからそういうのならワンチャンあるかも 拡張に領域決めてプロンプト適用させのが2つあるけどそれでも3人の中央だけ女にするのが無理だった 扱いきれてないからかもしれんけどLoraなしは無理だと思う >>266 やはり実際に試してみて決めた方が良さそうですね 参考にします >>269 civitaiに上がってるようなレベルの物を簡単に作るのは無理かな どこぞのwikiとかblogとか参考にあれこれ試すしかないよ 自分も外に公開する予定は全くないから自分の許容範囲ならいっか位で遊んでる 半日掛かるぐらい時間かけたり(10000step以上とか)30分位でできるやつとか 5~10枚位でさっと作ったり50枚以上用意したり 2D系しか作ってないけど顔似せたいならアップになってる絵は入れた方が似るし 設定も色々あるけどインストール以上に沼で時間もかかるよ 2070Sだと学習に時間もかかるからある程度の妥協は必要(自分も2070S使ってるけど) >>269 > Advanced Configurationの中にある、 > Gradient checkpointingにチェック、 > Memory efficient attentionにチェック 共有サンクス これは分かりにくそう LoRA(だけに限らないがAI学習全般的に)学習元画像の絵 枚数 学習させたい概念 学習の際のパラメータ等 要素が有りすぎて誰も正解はコレと言い切れないと思う トライアンドエラーで自分が納得出来るものが出来るまでやるしかない 先ほどControlNetを試してみて、その後ControlNetを使用せずに画像生成しようとしたらHires. fixでやたらと時間がかかるようになってしまいました。 ControlNetをアンインストールしたりPCを再起動しても変化なし。コンソールを見てみたら、Total ptTile 1~15 という処理があって、この部分で進捗がいったり来たりして 遅くなったみたいです。以前はこれが無かったと思うのですが…アンインストールって、フォルダを手動で削除するだけですよね?他に何か必要な処理在りましたでしょうか…かなり困ってます。 >>277 すみません行ったり来たりするのはTotal ptTile 1~15のあとに来る部分でした。なんか昔より一つ多く処理が入ってるような感覚がするんですよね… せっかくコンソール画面みてたならそれスクショしてくれたら早いのに >>268 まさにやりたかったのこういうことです! これくらいの完成度だと思ったより結構複雑なんですね その後Seed値入れずにreferenceonlyだけだと割と思った通りのプロンプトが反映されることに行きつきましたが、体が結構崩れるからまだまだ勉強が必要なようです。 頑張ります。ありがとうございました >>279 何にも弄ってないんですよ〜。 >>280 https://i.imgur.com/gVOObvv.png おっしゃる通りですね。 この、Total prTile1〜15のところで一旦処理が巻き戻るのが「ん?こんな動きしたっけ…?」 と疑問になり、この処理が終わったあとの後ろ二つのTotal progressが激烈に遅いんですよね。ControlNet入れる前はあんなに遅くなかった… はずなんですが…アンインストールがフォルダを手動で削除するだけで済むなら、気のせい、なのかなぁ…それかたまたまこのタイミングでグラボが劣化したとか…? >>283 探していただきありがとうございます。 ただ、ちょっと違いますね…前より体感で1分くらい?処理が遅くなっただけで動かなくなったりはしないんですよね… 古いバージョンでもないですし。謎だ…マジで気のせいなのかなぁ。でもゲージが一瞬戻るような動作はしなかったと思うんだよなぁ。 >>245 536.40でバチクソAI生成してたわ…怖すぎる バージョン下げておくわ ある漫画のキャラのLORAを作りたいのですが、いいとこまではいったけど、まだ違うな見たいな感じになっちゃいます 漫画からLORA作るときのコツとかってありませんか? 失敗作ロラをいくつか重ねがけしたら良くなったことはあるが基本は沼。あと少しがすごく遠い。 質問が漠然とし過ぎてて申し訳ないんだけど細かいアクセサリーまで表現できてるキャラloraって何か特殊な作り方だったりします?たまたま? 自分はwebに解説でされてるような基本的な学習でやってるんですけどそこまで再現しようとすると絶対過学習で画質ガビガビになるし、弱めると別人になるしでなかなか上手くいかない >>286 顔も衣装も合わせたいなら元の絵を持って来てリファレンスオンリーの元にするとか。 服装はともかく顔だけ似せてあとは自由にならやったこと無いけれど >>262 さんの言っているリージョナルprompterというやつが画面を分割して各リージョン(区画?)毎に別のprompt指定出来るらしいから、 顔が来そうな区画だけそのlora指定してみるとか >>289 アクセサリーまで合わせるのは無理目だと思うけれど、 promptを出来るだけ合わせたり、リファレンスに元絵使うとましになる印象 >>290 これ、よさそうですね、ありがとうございます! >>290 ありがとうございます あとキャラの再現度自体も悩んでてちゃんと特徴を再現できてるものはガビガビになったり奇形になるし、それより少しでも弱くするともう別人になるんですがちょうどいい塩梅のloraを作成するのに必要な設定とかありますか? 学習率1e-5でやったりエポック1ずつ保存したり自分なりに試したけどダメでした >>293 dim alphaを16とか8まで落とす LRではなくてtextとu-netで頑張る 個人的経験ではこんな感じ お世話になります。 https://tadaup.jp/25163046309863/ 自分の下手な下書きからscribbleを通して、スキンヘッドにモヒカンを生やすタイプの髪型を漫画調で出したいのですが、 いろいろいじってもモヒカン以外の部分にも髪の毛が生じてしまいます。 これをモヒカンだけにし、他の頭部分に髪の毛は無しで肌の色と同じにしたいのですが、コツはありますか? また、出力画像一覧の一番右上、たまにこういった全体的に髪の毛が爆発するタイプが出てしまうのですが、防ぐ方法はありますか? 上手く認識されないとモヒカン部分だけが逆に空洞になり、その周辺を黒柳徹子のような髪の毛のボリュームになる場合もありまして。 宜しくお願いいたします。 *伝わり易いようにscribbleには既存キャラを流用しているだけで、他意はありません。 >>295 画像のパスワードは 1234 です。 間違えてパスワードを設けてしまいました・・・失礼しました。 リファレンスオンリーで元の画像からコピーしようとしてもStableのほうのモデルのほうの絵柄に引っ張られて別人になってしまうんですね Stableのほうから出したキャラは複製し放題みたいですけど、 元の画像の絵柄を崩さずコピーってできないですか? 自分でLoraを作ってみようととりあえずTrain-toolsでやってみてるんだが、いざ学習が始まる?というタイミングで import network module: networks.lora Train Tools: train.train error No module named 'networks.lora'; 'networks' is not a package Traceback (most recent call last): File "C:\stable-diffusion-webui\extensions\sd-webui-train-tools\liasece_sd_webui_train_tools\train_ui.py", line 127, in on_train_begin_click train.train(cfg) File "C:\stable-diffusion-webui\extensions\sd-webui-train-tools\liasece_sd_webui_train_tools\train.py", line 37, in train train_network.train(args) File "C:\stable-diffusion-webui\extensions\sd-webui-train-tools\liasece_sd_webui_train_tools\sd_scripts\train_network.py", line 153, in train network_module = importlib.import_module(args.network_module) File "C:\Users\Natsuki\AppData\Local\Programs\Python\Python310\lib\importlib\__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 1050, in _gcd_import File "<frozen importlib._bootstrap>", line 1027, in _find_and_load File "<frozen importlib._bootstrap>", line 1001, in _find_and_load_unlocked ModuleNotFoundError: No module named 'networks.lora'; 'networks' is not a package というエラーで止まる。 「networks.lora」ってモジュールがないよ、までは分かるんだけどそのモジュールをどう入れればいいのか・・・ どなたかご教授くださいませんか・・・ 元々sd-scriptsに含まれてる sd-scripts¥networks¥lora.py が無いと言っている セットアップ時のミスか相対パスのズレかな? ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる