【StableDiffusion】画像生成AI質問スレ02【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に >>54
そういったフォルダーは後々作る予定だったんですけどまだ作ってないです。今画像を入れてるフォルダーは間違いなくsozaiです >>55
念の為の確認だけど1111はローカルで構成&Windows環境だよね?
WSLやらcolabやらの環境ではないよね? やり方はわかるがうまく好みのにならないのが学習させるやつだよなあ
新しいのが出てきたらやってみて結局諦めて誰かが作ってくれたので遊ぶに戻る >>56
Dockerを使ったローカルでWindows11です loraで1番しっくりくる学習サイクルの法則ってあります?
自分的には学習する画像は80枚ぐらいで20周回の5エポックで10000ステップ行かないぐらいが1番いい気がするんですけど
200枚覚えさせたら画像のpromptを覚えちゃうもんだから新たなprompt自体を聞いてくれない気がする 速度置いておけばデスクトップにNVMeって必要ないよね
空間はだだ余ってるわけだし >>59
そりゃ通らんわけだ
今1111はDockerという仮想環境で動いてるから、1111の拡張機能のWD1.4tagger使う場合は
Dockerが認識出来るフォルダにファイルを置かないとダメ
(DockerからC:\Users\~ は直接見れない)
一番手っ取り早いのはDocker使わず普通のWindows環境で1111を構築し直す事な気がする
docker内にファイル置いてtagger動かしてもいいが、ファイル操作がかなり手間になると思う >>61
NVme 4スロットとかのマザーボードを買って
それに増設する以外選択肢はない
スピードが全然違う AI で作った画像が売ってるけど
ダウンロードして分析すると同じようなやつが作れる
呪いでもダウンロードできるし >>64
pixivのfanboxやってるAIの人もいるからな
数百円投げたら喜んで自分の性癖画像を高クオリティになるまで生成してくれると考えるなら支援するのはすごいコスパがいい 1111を起動直後に「生成」ボタン近くのななめ矢印「↙」をクリックすると前回終了時のパラメータが復帰しますが、この情報はどこに保存されているんでしょうか? cashってフォルダなかった?
そこじゃね?考えたこともなかったから知らんけど >>67
なんでファンボックスとかに課金する人がいるのか不思議だったけどそう考えると確かにお得だね
自動でプロンプト書いて自分好みの絵を作って手足の選別もしてくれないかなー
ってのをやってくれてるわけだし
ある意味、究極の自動化サービスかw >>62
なるほど 訳も分からずDocker使ってました構築し直して来ますありがとう 導入記事ぐぐると出てくるんだよな、Docker使ったやつ
何もしらない状態で最初にそれを見たらそれが標準だと思ってしまうだろう 5時間ほど遊んでたんだが
img2imgで再生成するときに
色があせたような感じになるのは何でだろう? 塗り塗りした場所だけ書き換えてってやると
塗り塗りした場所だけうっすら黒いとかな >>69
cache.jsonとか「configs」フォルダの中とか見てみましたが、どうも生成パラメータは残っていないみたいでした
もうちょっと探してみます >>75
直前のはコレ
stable-diffusion-webui/params.txt これから3060買ってLoRAで版権ものやりたいんですが
頭と衣装はどっちが再現難しいですか?
また別々に学習させるもんなんでしょうか? ローカルのRTX3070でやってるんですけど画像サイズ大きくするとVRAM不足で生成失敗するんですよ
空きスロットにRTX3060の12GBを追加したらVRAM20GBまで拡張して認識できるんですか??? >>80
無理
っていうか3070で生成失敗て解像度いくつでやってんだろ
ひとまず起動オプション付けてくるといい 数GBある画像生成用の.ckptファイルや.safetensorsファイルのことをモデルと言いますが
実際この巨大なファイルの中には何が詰まっているのでしょうか
latentになった画像でも入っているのでしょうか >>82
ざっくり言うとノイズデータ
モデルデータの中に画像が入ってるわけではない
むしろ巨大どころか、数億の画像を学習してるにもかかわらず異常なほど小さい
詳しくは stablediffusion 仕組み で調べれば解説がいっぱいあるので調べてみては 拡張機能をurlからインストールしてインストール済みのとこにも表示はされてるんだけど出てくるはずのタグが出てこないんだけど なんか設定弄るとかあります? >>85
UIリロードしたか?WebUI再起動したか?拡張機能のREADME.mdは読んだか?
まずこのへん localization_jpならなんか出ないことあるから
config.json開いて
"ui_extra_networks_tab_reorder": "",
+ "localization": "ja_JP",
"show_progressbar": true,
しろ LORAって構図のみだけを学習させれる方法ある?画風が一才影響しないようにしたいんだけども 質問なんだが、AUTOMATIC1111で生成すると
https://imgur.com/a/v66jb60
こういう感じで画像のモザイク?ノイズ?が乗ってしまうんだけど、解決方法ないのかな?
nsfw以外でもこうなる
AMD製のCPUだから?グラボは3060なんだが…
NMKDだとこういうことは起きないんだよな sampling method変えてついでにstepsもあげてどうぞ おまえらいくらなんでも人に見せる画像くらい気をつかえよw >91
Sampler変えたら解決したわ
そのあともとのLMSに戻しても、何故か生成できた…
サンキュ〜(LOVE) ノベルAIを使っているのですが、絵全体の絵柄が安定しなくて困ってます
これと決めた絵をもとに絵柄に関係のないプロンプトをいじると、古いアニメの絵柄やボヤケた絵柄ばかりになってしまいます
Seed値を入れても同様で、キャラクターのパーツなどはある程度似ていても全体の絵柄が変わってしまって全くの別物になってしまい、ここ一週間くらいずっと格闘中です
どなたかマジで助けて(´;ω;`) 仕様
文字一文字でも変われば絵は変わる
出来る限りタグを詳細に書いて絵の方向性を固定するしかない
偶然生まれた絵をどうにかすることは難しい
色んなプロンプト見て勉強するしかないかな >>90
ヒェッ!?
これはストライクゾーンが広い俺でもアウトでした( 一一) 気に入った絵があったのでシード値を固定してプロンプトを変えて生成すると変えたプロンプトでの生成した枚数の全体図は出るんだけど単体の画像が出てこない 単体の画像が出るのは元々のプロンプトで生成した画像しか出ないんだけど どうしたらいいですか 2日前に始めた者なんですが、生成の手順って
よさげなプロンプトを探したら512×512の低画質で何枚も生成する→気に入った構図やモデルの画像ができたらHiresを使って高画質をする
ってのが基本であってますかね?
Hiresを使わないでimg2imgを使う方法もあるみたいですが、どうやって使い分ければいいのかわかっていません
モデルはchilloutMix使ってます 絵柄の固定と同一人物の生成は未解決問題だな
ほかに未解決問題って何がある? >>102
hiresも拡大してからのi2iもやってることは完全に一緒
ただ拡大するときに選べるオプションはなぜかhiresのほうが多い >>102
グラボそこそこいいならもうちょい大きめで出していいんじゃない
オレは普段640x960でやってるけど、ギリギリ破綻するかしないかのラインかも >>100
正直なにを聞きたいのかよくわからんが…
1111での話だと思うけど、出力した画像はoutput-txt2img-images-日付フォルダに入ってると思う
複数の画像をひとまとめにしたグリッド画像はoutput-txt2img-grids-日付フォルダ
これでなんとかなるかなあ >>103
LoRA使えば同一人物も出せるし、最近は構図も複数書き分けも出来るようになったし、1~2年内にはなんでも出来るようになるんじゃないかね >>104
やってることは一緒なんですね
hiresでどうやっても奇形が生まれちゃうときとかにimg2imgを使うことにします
>>105
rtxの3060 12gb使ってます
一番最初に生成する画像の解像度はできるだけ高いほうがいいんですか? Basil Mixというモデルを使っているのですが、微妙に目の形や目線が崩れていて残念な感じの生成が多いです
このモデルに限った話でなくても良いのですが、目の形や焦点を安定させる呪文ありましたら教えて下さい
https://i.imgur.com/V7p61Hc.jpg >>71
Dockerまでやると学習コスト高いしファイルやりとりめんどくさいが
WSL上へのインストールならあり
Windowsに直接よインストールより大概早い 投稿サイトにアニメ版と実写版みたいなのを並べてアップしてる人がいるけど
img2imgであれできるんだろうか?
リアル系のプロンプト試したけどどうやってもエロ週刊誌の表紙のようになってしまう >>109
ある程度大きめにしておいたほうが構図がギチギチならないという利点がある
SDは仕様上、学習したものを拡大や縮小して生成するのが苦手でね
ので、生成する解像度を大きめに設定すると必然的に人物以外の余白が増えて結果的に広い構図になりやすい、という理屈
超ワイド構図とかも面白いよ
もちろん大きくするほど破綻する確率も上がるけどそこはガチャ回数でカバー
Xformersありで、最大960x640程度
サンプラーはDPM++ SDE Karrasでステップは15程度
それでストレスなくガチャれるんじゃないかな >>110
リアル顔は補正のチェック入れればいいよ、デフォルトで補正方法が2種類選べる
Hires.fixの並びのRestore facesな
アニメ顔はほぼ効かないけど >>110
プロンプトをもうちょいひねったほうがいいかな
high detailedとかrealisticを強めにいれたり
majinaiあたりで好みの絵柄丸パクリ研究とか
視線誘導はlookを使ってある程度は出来るけど細かい調整は無理だね
Authentic1111ならリアル系の顔修正機能で目とかは綺麗にはなる 同プロンプト同シード値でやれば似たような構図にはなるけどそれとは違うのかな 言葉で色々書いてるけど
作例がないと分からん
何を聞きたいのかってのが ローカルやりたいし4090買おうか迷ってるが…流石にたかくてなかなか踏み出せん
かといって3090買うのもあほらしいし…
3060 12GB民はやってて困ってるエピソードある? 1600以上で出力したい場合のスペックってどんなもん必要?
やってる人いたら教えて 1111でなんでもこういう感じで光るようになってしまったんだが、どうしたいいんだろうか
https://imgur.com/a/HEVlDma
モデルやSamplerを変えても駄目で、プロンプトを大きく変えると治ったんだが、これまで使ってたプロンプトで、特に光るようなものは入ってないんだよな… >>116-117
ありがとうございます!
大変勉強になりました 全く脱がないloraが出来上がってしまいました。
少し弱めに設定したら脱いではくれるんですけど、顔が変わってしまいます。
naked入れても駄目でした…。
これって教え方が悪いんですかね? Loraの学習で質問です。
Loraの解説を見ていると基本的にはどれも特定の絵柄を学習させる感じですが
特定のシチュエーション 現状のプロンプトでは認識できないような特殊なシチュエーションを学習させることは可能でしょうか?
例えば正座を学習させて、既存の学習モデルのキャラに正座をさせるということは可能でしょうか?
またその場合は絵柄を学習させるとは別のコマンドがいるのでしょうか? 特定のシチュエーションの学習→できる
既存の学習モデルのキャラに正座→できる
絵柄を学習させるとは別のコマンド→別
キャラクタ、画風、ポーズは作り方が違う、LoRAを複数使うとマイクのハウリングみたいに悪影響が全体に強く出る場合がある
大まかなポーズだけならControlNet使う方が楽だけど、勢座みたいにボーンが重なる姿勢は制御が難しい所はある
いい点としては学習データによって他のキャラや画風に影響与えにくい事かな 価格.comだとカスタマイズ込みでどうしても20万超えてしまうんですが
以下の条件だとどれくらいが目安なんでしょうか?
CPU種類:Core i7(i5だと性能低い言われた、主にFPSやらVRやら)
ビデオメモリ:12GB
メモリ容量:32GB
ビデオチップ詳細:GeForce RTX 3060
OS:Windows 11 Home
後他に気を付ける点ってあったでしょうか? メモリは暴落中だから自分で追加した方が安いかも
12世代なら20万ギリギリで行けるんじゃないかな?
RTX3060 12ギガ版はそろそろ在庫はけて値上がりしたりするかも
あと安さを求めてもシングルファンは高負荷でうるさすぎるんで避けた方がいいかな
ツクモで19万のゲーミングPCって感じたぶんシングルファンだからアレw 本スレに書いたかもしれないけど
ドスパラのBTOはケース開けると保証切れるらしい
自作板の連中曰く >>132
嘘つけ!ケースに開封防止シールでも付いてるのか?嘘つけ!死ね!m9(´・ω・`)ドーン! >>133
ケースを開けただけで保証外はさすがにないが、他者に対して死ねとか冗談でも言うな
小学生じゃねーんだから 彡 ⌒ ミ ん?死刑制度反対か?なら日本から出てけよ?
( ´・ω・`)
/⌒ヽ_.ィ、~;y=ー(゚д゚)・・∵. ドーン!>>134
( r. ) ^ / )
ヽノノー‐l //
|__/_/
└一'一 1111とNMKDってそもそも別物って考えたほうがいいのかな?
同じモデル、Sampler、Steps、Scale、Vaeでも絵柄的に別物が生まれがちなんだが…
個人的にはNMKDのほうが絵柄的に好きなんだが、どうにもnsfw絵を生成すると人体欠損したり、prompt準拠じゃないことがおおいんだが、この辺の差分って誰かわかる?
1111でNMKDの絵柄を再現できたら言う事はないんだが たまにDOS窓でキー押さないと処理がいつまでも先に進まないのはなぜでしょう >>139
dos窓の仕様で範囲選択するとバッチが止まるようになってる
タイトルに選択と出る
なるべ触らない様に最小化したほうが良い
昔仕事でよく止めてた >>137
ツールの差で絵柄が変わることは基本的には無い
どちらも同じstablediffusionを操作する為の単なるGUIなので、全ては設定の問題ということになる
なので別物かと言われると、ある意味同じもの
ただAutomatic1111のほうが圧倒的に機能が多いのでシェアにも圧倒的な差が出ている >>142
基本的にはそうだよな〜、なら同じ絵柄でなかったり、NMKDでnsfw絵を出力するとかならず人体崩壊するのは何が原因なのかなあ…
SD自体のバージョン差とか、NMKDだけnsfwの規制があるとか…? hypernetworksは使うのが基本ですか?
LoRaとの違いがいまいちわからんです >>143
オレはNMKD動かない(python環境があるとエラー出ることがある)から試せないけど、
NMKDで生成した絵とinfoさえわかれば再現の方法はわかるかもね
NMKDからの移行で躓く人やたら多いから理由は解明したいんだよなぁ
個人的には再現は捨ててでも移行しろと言いたいがw
慣れれば絶対にA1111のほうが高品質な絵が出せるはずなので(機能的に >>144
Hyper Network、Textual inversion、Dream Booth、LoRA
色々あるけど、ざっくりとした違いは追加学習の難度と、学習内容の再現度
ぶっちゃけあとから出てきた技術のほうが便利で有用性が高い(暴論
今は作るのも使うのも一番簡単なLoRA一択でいいんじゃないかな
容量デカイっていう欠点があるけど >>145
それ俺も思って、1111のPNG情報比べたらこんな感じなんだよな
NMKD
parameters
なし
Dream
NSFW,((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
[(bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,]
-s 30 -S 503559409 -W 1152 -H 768 -C 20.0 --hires_fix -A plms NMKD続き
sd-metadata
{"model": "stable diffusion", "model_id": null, "model_hash": 0, "app_id": "invoke-ai/InvokeAI", "app_version": "v2.02", "image": {"init_mask": null, "prompt": [{"prompt": "NSFW,((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
[(bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,]", "weight": 1.0}],
"facetool_strength": 0.0, "seed": 503559409, "height": 768, "upscale": null, "facetool": "gfpgan", "threshold": 0.0, "width": 1152, "perlin": 0.0, "cfg_scale": 20.0, "steps": 30, "postprocessing": null, "sampler": "plms", "variations": [], "type": "txt2img"}} 1111
parameters
NSFW, ((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
Negative prompt: (bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,
Steps: 30, Sampler: PLMS, CFG scale: 20, Seed: 3444963075, Size: 512x368, Model hash: f8aff727ba, Model: BloodNightOrangeMix, Denoising strength: 0.7, Hires upscale: 2, Hires upscaler: Latent (bicubic antialiased)
parameterがなしで、Dreamになっているのが気になるけど、まあPNGに書き込むだけの情報差なので、厳密な処理を書いているわけじゃないしな〜とは
ちな生成している絵はまあ言及せずで かなり記述方法が違うな
AUTOMATICはタグの強調にかっこの重ね掛けはしないし、+ とかも使わない
これちゃんとしたコンバーターがないと正確に移行できないね
あと、そもそもNMKDにはCLIPの設定がないから、CLIPが1なのか2なのかわからん
おそらくそれも移行した時に絵柄が変わる原因なんじゃないかな >>123
何かの要素を強調しすぎると破綻することはあるかも >>149
俺のとプロンプトの書き方が全然違うw
他の人の見ると参考になるなぁ
NSFW, (masterpiece:1.1),(best quality:1.1), ultra-detaled, (perfect_hands:1.1), illustration, (realistic:0.5), Mika_Pikazo, Missionary_positions, (blush:1.05), embarrassed, all_fours, (sex:1.3), (rape:1.5), 1gilr, man on ass side, man_grabbing_woman's waist, nude, shiny_Black_Short_Hair, pink_eyes, beautiful_eyes, (detailed_iris:1.1), nude, medium_breasts, cute_face, hair, shiny_skin, night, dark room, bed, wet_skin, white_liquid
Negative prompt: (bad anatomy:1.3), bad_hands, hair_ornaments, 2girls, side (twin tail:1.2) NMKDを使う人はビギナーが多く、コアな人達はAutomatic1111を使う、もしくはすぐに移行しちゃうので、結果的にNMKDに詳しい人がいないという現実
これから始める人は最初からAutomatic1111から入ってくれると説明もラクなのだが
今はワンクリ導入もあるし ■ このスレッドは過去ログ倉庫に格納されています