【StableDiffusion】画像生成AI質問スレ17
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ16
https://mevius.5ch.net/test/read.cgi/cg/1692012289/ >>276
基本正方形しか出してないけど640
根拠は無いけど使ってるlolaでサイズ上げたほうが良いよみたいな内容で書かれてた解像度でそれにしてからlola関係なしに顔とかのディティールが見れるレベルまで改善されたから LoRA、学習元データを高画質化(これが結構難しい)して学習させるとかなりきれいななることもあるな >>278
始めたばかりなのでデノイズはよくわからないですがデフォルトのままです
ステップは28くらいにしています どうしても理想のおっぱいが出せません
何故中途半端にでかくなるのか サイズ大きくすればするほど顔が似たりよったりするのは気のせい?
512768の1.5hirsが1番いい気がするんだが… >>276
こういうのは実際の画像を上げてくれるのが一番いいんだけどね
catbox.moeに上げれば生成情報もわかるし >>283
flat chest small breasts breasts,medium breasts large breasts,big breasts huge breasts
ちょうどよい膨らみは学習されていないという可能性 同じsmallでも結構バラつくから試行回数でカバーする
なおベストサイズな時には他が気に入らない模様(経験談) >>286
danbooruタグの定義がアホだからしょうがない
「頭より大きく頭の2倍より小さい」とかどういう神経してるんだ
しかも実写系に適用すると頭身数の低いアジア人ほど巨乳になるという意味不明なことに 自分で描いてcanny
おっぱいの大きさはほぼブレない >>286
ほぼ試したんだけどやっぱりええ具合にはなりませんねぇ
>>289
キャニーでも上手くいかん
下乳﹀と・だけにしてもぼいーんですよこれ なんの参考にもならんが過去一ええかなって時はキャニーでブラジャーのライン書いてそこから脱がしてみた時やなぁ谷間上手いこと書かんとそれでも垂れてくるからほんと困りますよこれ webui上でLoraの削除やファイル名の変更ができるようになる拡張機能とかありますか? ローカルでAUTOMATIC1111のv1.6を導入したんだけど、LoRAやモデルのEditMetaData用の金槌とスパナマークが出ない…
v1.6は新規で作成、LoRAは前使ってたv1.32内フォルダ指定、モデルはv1.6内フォルダに移しての使用だけど両方ダメ
何か設定とか有るんですかね? 服を着るとちょうどいい塩梅だが脱がすとデカくなる
要するにそういうサイズの学習データが無いんやろうと考えることにした 俺が思うミディアムサイズじゃない、彼女(生成された女の子)にとってのミディアムサイズだ
って思うようにして諦めてる みんな割と諦めてるんやなぁほんま何とかして欲しいもんやで >>244
だいたい14畳用で900 W しか食わないんだったら
そんな省電力のエアコン ないし
RTX 4090 900 W も食わねえよ >>291
多分数値でタグ打ちされてないと思うんだ
主観オンリーw
年齢は18years oldとか効いてそうなんだけどね >>297
出来具合に応じて調整するしかないかな
元々巨乳なキャラにlarge breastsするのと絶壁にlarge breastsで豊胸するのでは違うのだろうと思いこんでいるw stable diffusionのフォルダを外付けにバックアップしようと考えているんだけど、もしかしてそのまま他のPCでも使えるのかな
nvidiaのGPUなら大丈夫なのか、型番違うとそのままは無理とかあるのだろうか 自分で描いた猫のイラストの絵と、猫モデルのLoraをまぜてイラストをつくりたいのですが、Image 2imageで、プロンプトをいれる部分は、Loraで読み込ませたプロンプを入れるのでしょうか?それとも自分の絵のプロンプトでしょうか?
どっちもためしてみたのですが、うまくできなくて困っています。 >>286
small , medium , large , huge あたりの胸のサイズ指定と cleavage を
強度1.5とかで全部ネガティブプロンプトに放り込むと割といいカンジのちっぱいが生成されると思われ RTX A6000搭載PCがセールで出でる…
迷う AIはデカパイOKっていうと調子に乗って盛りまくるお茶目さん
へそ見えないレベルとか平気で盛ってくる 自分が作った作品を投稿して評価してもらったり、他人の物を見ることができる有名なフォーラムとかってありますか?
もちろん5chもよいんですが、洋モノがすきなので海外だと嬉しいです。エロありで。 >>310
工房のやつじゃないか
10万引きで85万~
安いのか高いのかのはあんまりちゃんと見てないから評価できんけど >>300
炉でもlarge指定で一発巨乳化だけど
幼くしすぎると巨乳のサンプルが枯渇して控えめに当たりやすくなる
解釈はできても表現の限界値が来る…気がする 実在人物 実写系LoRA作っていますが、CFGが2.0ぐらいなら普通なんですが4ぐらいにするとテカテカで陰影が濃い濃いになってしまいます、これは過学習でしょうか? >>298
4090単体ならそうだけどな
マザーボード 50W
13900 125W
4090 450W
水冷キット&ファン 5W (7ヶ所で35W)
メモリー 5W (4枚で20W)
SSD 15W(OSとSD用で30W)
HDD 25W(保存用)
ゲーミングモニター 40W
マウス 2.5W
キーボード 2.5W
スピーカー15W+15W
オーディオアンプ 200W
ゲーミングLED 10W(マザボやメモリーやファンが光る)
前から使ってた80plus電源(最大850W)で使ってる 画像の背景を学んでほしくないんですが、フォトショとかで白で塗りつぶしたらいけますか?Lora強度は1.0でいきたいんですが、出力画像は、希望の背景プロンプト入れてても、
真っ白背景で描かれてしまうんでしょうか? train batch sizeって上げない方がいいんですか?
画像枚数50×繰り返し数20×エポック数10で学習ステップ1万になるはずが、train batch sizeを5にしていたからか学習ステップ数2000と表示されました 処理の同時実行で早く回せるから
VRAMに余裕があるなら上げてもいいんじゃない? それで学習が止まらずまわるなら、低VRAMの人からしたら うらやましい限り >>315
だからそれはちゃんと計測してないだろ
実測で書けって言ってんだよ >>320
実測と言われてもワットチェッカーをかしてくれないと無理だ
電気代は3060のときに比べて一月8300円ほど上がった
電気代を気にする奴は4090買わないだろう 俺のA2000はたったの70WなのでPCの消費電力足しても100Wちょっとだ >>321
ワットチェッカーなんか 2000円で買えるんだから買ってこいよ
ワットチェッカー 買った方が 結局は 電気代 安くなるよ
電気代 高い 行ってるやつは使いすぎやねん すまないその選択肢はない
ワットチェッカーを買う金でゲームを買いたいんでな 一人暮らしなのに8月の電気代12kだったわ
まぁ高騰してるしなぁと思ったけど去年の14kより安くなってたわ
なんで下がっとんねん 4090使うのに電気代気にするか?
俺は全く気にしない >>327
そもそも4090は待機電力が高いからPC付けたら使わないと損じゃね?w
地パワーがあるからアフターバナーでピークを下げてもそこそこ速いんだ
PC付けっぱなしで寝落ちとかした日はもったいねえ事した
こまめにスリープさせれば電気代はそこまで上がらないかもしれん >>319
電気代は不安定だから、円じゃなくてWhで計算しないと
ただ、スペックシートにある消費電力は最大値
実際の消費電力は500Wも使ってないと思うぞ
あと、LED10W、アンプ200Wとかあるけど、これを常時やったらご近所さんからクレーム来るでw 質問なんだけど、Adetailer側のプロンプトにもDynamicPromptは使えるよね?
一応{smile|crying}で検証して使えてるっぽいけど、PNG情報参照すると{smile|crying}のままタグが残ってるのが気になる
最近Adetailer入れたけど世界変わるね
nsfwモデル低解像度LORA盛り盛りガビガビで生成後、
AdetailerではLORA抜いて好みのモデルの高解像度で生成するようにしたら構図も絵柄も解像度も満足できるようになった
やってる事はただのi2iなんだろうけどめちゃ手間が省ける
ガビったり絵柄に影響して諦めてたLORAを集め直さなきゃ… プロンプトに(smile:-1.0)みたいな使い方ってできる? >>331
ADtailerにはダイナミックプロンプト使えないよ
ADtailerのissueに同じ質問があって作者が無理と答えてる 2次専だからAdetailerは期待したほど効かないからすぐ使わなくなったな
3次だとそんなに効くのか LoRAもインポートLoRAみたいなのですぐに取り込めれば良いのにな 今更ながらLECOに手付けようとしてるんだけど、モデルの1系2系ってどこで見分けるのでしょうか プロンプトを変えても絵柄が変わらなくて
何が原因なんだ?と
ちょっと休憩入れた後
seed値が前のとそのままってのがある キャラクター覚えさせるのにキャプションの「手を伸ばしている」
みたいやポーズ系は消したほうがいい? >>333
えっ あれ効いてないのか
コマンドライン見てるとちゃんと設定したDPの中でこれ選んで調整してますよって表示出るし
生成物もその通り反映されてるけど
実はそんなことなかった? >>283
たいていは大人の胸のある女性で学習されてるからだよ
極端な事を言うと、女性を示すプロンプトがあるだけで乳房ありの方に寄る
girlとかも英語的には高校生以上も含まれるので、胸有り要素になりえる >>339
すまぬ、ADtailerのgithubを隅々まで読んだらADtailer側に書いたdynamic promptはちゃんと効くようだ
メインプロンプトに書いたdynamic promptの特定の要素だけ拾うのが無理って話っぽい SDってさ最初にプロンプト指定して生成すると
ちょっと絵柄がイマイチじゃない?
でもずっと似たようなプロンプトして回してると
良い絵柄が生成されるのは
SD内部でAIが学習してるって認識で良いの?
その辺フワッとしててわからんが >>344
それはない筈
Seedが同じなら同じ絵が出てくる >>344
よくない、生成過程で学習なんてされない >>298
うちの14畳だけどまんま900Wだったぞ
コンセントも普通の形状 >>347
パソコンもエアコンも常に900Wというわけではないぞ
あくまで最大でどれだけ消費するかという話
電力会社によっては30分毎に利用した電力量をグラフで見られるからログインしてみると良い
普通は思ったよりは消費してないはず
900Wのエアコンなら部屋の温度が設定温度になるまでは900Wでもその後は落ち着く
PCもあまり使ってない時やPL使うとそこまで消費しない筈 Windowsならタスクマネージャーで電力使ってる時がわかりますね StableDiffusionを走らせたら4090は力こそパワー
使えば使うほど電気代がかかるが500Wの電子レンジを使ってると思えばいいだけだ >>346
>>345
そうなの?
プロンプトちょくちょく変更して生成してるから
プロンプト側で絵柄が良くなってるだけか >>352
そうだよ。そもそも一般的にtorchモデルには推論モード(.eval())と学習モード(.train())があって推論モードの方が早いから生成時は推論モードで動いている。
なので、ちょっとコード挟み込んでついでに学習しちゃえとかできない。 >>352
Stable Diffusionには出力結果のよしあしを判定する機能はないよ 1.6.0でrefinerを使うと何度やっても
http://i.imgur.com/sgzTTtE.png
何度やってもこういう画像になってしまいます
sd_xl_refiner_1.0.safetensors
sd_xl_base_1.0.safetensors
これをmodelに入れてcheckpointにbaseの方を設定して0.8でやってるのですが
何か分かる事があればお願いします >>359
XL用以外のVAEとかLoraとか使ってるんじゃ? SDXLはVAEもsd_xl_base_1.0を指定しないと、こうなる。 >>359
SDXLは出力できる解像度が厳密に決まっているので、そこを外さないようにする
1024×1024が基本 >>360,361,362
VAEは使わずLoraも使ってません
ただcatとかだけプロンプトに入れてやってます
モデルをanything v3とかでやってるんですが
それもXL用でないと駄目なんでしょうか? >>363
手本のサイトで1024x1024と書いてあったのでやってみたら
こういう画像ではなく全体的に金ピカのような画像になりました
そこで小さい画像でやると上の画像みたいになりました この文脈でどうしてAnythingが出てくるんだ… >>364
どういうこと?
SDXLで使うならCheckpointはsd_xl_base_1.0.safetensors
refinerはsd_xl_refiner_1.0.safetensorsを指定
解像度が低すぎても暴れるから1024x1024で
SD1.5でrefiner使うならCheckpointもrefinerも1.5用使うだけ >>366
一番上のmodelを選ぶ所で入れてます
もしかしてrefinerのcheckpointだけでなく
一番上のもsdxl対応モデルじゃないと駄目なんでしょうか? >>363
面積的にはそんなもんだけど、普通に縦横比変えてるけど問題感じたことないな >>367
一番上のStable Diffusion checkpointにsd_xl_base_1.0.safetensorsを入れて
refinerのcheckpointにsd_xl_refiner_1.0.safetensorsを入れるんですか
大バカな勘違いをしていました
すみません >>371
SDXLでの生成の場合は基本そう
モデルは色々XL用が出てきてるからそういうやつなら入れ替えは可能だけど
1.5用とXL用は混ぜては使えないと思うよ >>372
そうなんですね
いつも使ってるmodelでやってました
すみません 実験的にあったような
SDXLモデルとSD1.5系は全く互換無いよ
latent混ぜてもエラー吐くし、VAEに1.5系を突っ込んでもアウト
VAEには明示的にSDXLを突っ込む必要があるけどwebuiでは暗黙的に処理してくれるのかな?
refinerのやってることは、単にステップの8割までをベースでやって、そのlatent使って残りの2割を仕上げているだけなので無くも別に致命的な破綻はしない てか公式以外の今出てきてるXL用のモデルってrefiner使うタイプの奴ほぼほぼないし公式モデルですらrefinerは別に必須じゃないので当座refinerのことは忘れていい気がする SDXLを使う場合はCheckPoint、refiner、VAEをSDXL用に統一する
これはSD1.4/1.5系使う場合やSD2.0/2.1系を使う場合でも同じで、混ぜる事は出来ない(互換性がないため)
もしこの組み合わせが違う場合、エラー吐くか生成画像が崩れる
同様にLoRAもSD1.5系・SD2.1系・SDXL系で互換性はないため、モデルと統一しないといけない(SDXLでSD1.5系のLoRAは使えない)
ちなみにSDXLの基本は
Checkpoint:sd_xl_base_1.0.safetensors
refiner:sd_xl_refiner_1.0.safetensors
VAE:sdxl_vae.safetensors
の組み合わせ
モデルを変更してもいいがSDXL用である事の確認が必要で、外部から確認する方法は無い
(大抵ファイル名にsdxlって入ってると思うけど) SDXLはマジでなんも互換ないのでSDXL専用にwebuiを別インストールした方が扱いやすいと思うよ
てかこれ2.1の時もそうだったと思うけど ComfyUI使おうぜ
モデルの切り替えも楽だし、どこのフローでエラー吐くか一目瞭然なんでどう動いてるかわかっていいぞ SDXLでアジア系のモデルで良いのがないんだが
BRAシリーズを継承してる
SDXLモデル来ないかな? ■ このスレッドは過去ログ倉庫に格納されています