【StableDiffusion】画像生成AI質問スレ21
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 高解像度ってよりLoRAによっては被写体の顔が近いほどおかしくなるイメージ
Hires.fixも然り おねショタってやっぱりマージさせてるのかな?みんな
Loraとかモデルあればそれで生成したいけど ADetailerそのまま使えば失敗はほぼ無いと思うけどなぁ
肌や髪の色が少し変わって境目が目立つことがあるくらいか
初期設定から自分で変えてるのかね?
設定の「Save images before ADetailer」にチェック入れればADetailer未使用画像も保存してくれる
生成時間を気にしないなら入れっぱなしでもいいんじゃないかな
「X/Y/Z plot」でも使えるようになってるから
全モデルを使って何枚か生成してみるのもいいかもね 顔LoRAだとAdetailerのプロンプトにも入れないとソースモデルの顔に近付いてしまう感じ
でも入れると濃い顔になるんだよなあ。ウェイトを下げてみるか Adetailerの出来とか気にしたことないな・・face_yolov8n.ptで勝手に上手く出るので
プロンプトも空欄のまま、detectionレベルを変えるくらい
> 特に全身 full body のときに、全体は詳細な線で迫力あるのに顔がへのへのもへじみたいになる
そもそもfullbodyのちっちゃい顔ってそんなもんじゃないのかな
一番いいのはmetadata付きのサンプルをmajinaiあたりに上げて皆に見てもらう
本気モードを他人に見せたくないなら適当なへのへのもへじ状態でいい
そんなもんだよorもっと綺麗にできる、が確定できる 2次元でAdetailerの手の方って有効に使える? ちょっと使ってこれはないわって思ってADの手は使わなくなった
XLになって綺麗な手が少しは出やすくなったし指多いだけなのは消せば済むからとても楽 他者が作成した絵のプロンプトによく見かけるんですが、
「:d, 」というプロンプトは一体何なんですか? Forge・RTX3060 12GB・ponyでの画像生成の速度を上げたいです。
生成中にタスクマネージャを見ると、GPUもPC本体もメモリにはまだ空きがあるのですが
GPU・Cudaの値が100%なので、これ以上は無理という事なのでしょうか? エロ漫画の参考に使いたいのですが、
キモいオタクやおっさんを上手に描ける
アニメ系モデルってなにかありませんか?(汗
普段はHIMAWARIMixつかってます >>962
はい
a1111 webuiより一般に言われてるくらい早いのならそれが全て
SDはVRAMとCUDAを集中的に使うので他の部分は結構アイドルなんだとか
使う部分はもういっぱいいっぱいってことかと
>>963
こっちがいいかな
【StableDiffusion】AIエロ画像情報交換38
https://mercury.bbspink.com/test/read.cgi/erocg/1710319910/
今はなんか変な話題で盛り上がってて流れ的に聞き辛そうだけど、普段はそっちの話が中心 すみません質問です
もし濃い青色でお願いする時はdark-blue hairとかハイフンを入れるべきですか >>962
メインメモリやVRAMを限界まで使って高速化するみたいなことはできません
LCMとかLIghtningのように、少ないステップ数でちゃんとした画像にする手法があるのでそっちを試してしみては >>965
基本的にハイフンの有無で結果が大きく変わることはなさそう
両方で試してみるのが一番手っ取り早いと思います forgeで初回動かなかったり拡張が動かなかったりでChromeの方で更新すると動くようになったりするけど
これはforgeのせいっていうよりなんかChromeのほうがうまく動いてない気がしてくるな…
forgeはforgeでLora使った後にLora無しで動かそうとしたらまた長時間ロードしたり(一旦中断してから再度生成すると速度戻る)
全体的に今不安定なのかしら? >>968
forgeはこのところ更新がないから、今どうとかはなさそうな気がする LoRAと聞くと>>588だけどこれはlycorisは関係ないかな? >>964,>>966
ありがとうございます。
LCMとLIghtning、調べてみます。 Forgeならsamplerが組み込まれてるから楽よ
ここから「sdxl_lightning_8step_lora.safetensors」を保存
https://huggingface.co/ByteDance/SDXL-Lightning/tree/main
プロンプトの最後にそのLoRAを入れて
Sampling methodを「Euler A SGMUniform」か「Euler SGMUniform」
Sampling stepsを「8」
CFG Scaleを「1.5〜2.0」にするだけ
CFG Scaleは0.1違うだけでもかなり変わるから
X/Y/Z plotで色々と試してみたほうがいいかもね 便乗ですまんけど、8step Lightningやってみたんだが、
8step程度では全然きれいな絵にならない
EbaraやAnimagineで8step Lightningやってる人いますか?
満足いく絵が得られてる? pony系はそもそも20ぐらいがいい塩梅のことが多くて8でもくそはええって感じじゃないし >>975
人によってキレイの基準が違うけど例えばこんな感じ
PNG Infoも残ってるはず
https://tadaup.jp/597c222dd.png
「steps8」「CFG2」で4060Tiだと1枚4秒
軽めのHiresかけても13秒
もちろん、ちゃんと生成したのよりは甘くなるけどサッと作るならいいんじゃないかな 質問なんですが
単純にプロンプトを書けばいいだけなのに
(((1 girl, solo, solo focus))),
といった風に、括弧や二重、三重括弧でくくってある
プロンプトをよく見かけます。
これはなぜ括弧でくくっているのでしょうか。 >>978
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis
括弧一つで強度1.1倍
(dog:1.3)とかでいいのをなぜ(((dog)))とかやるのかは不明
上のリンクの目玉焼きの絵の通り括弧オンリーの時代があった名残?2022/9頃かな
ちょっとあとで数値指定ができるupdateが入った記憶
webuiではctrl+↑で入れる方が早いのになんでだろね
他の意味あるんだろうか >>977
おお、これなら十分だわ
ぜひ同じプロンプトとモデルで試したいんだけど、PNG Infoには情報が残っていませんでした
ttps://i.imgur.com/TBNg6dT.png
すまんけど、もう一回アップしてくれるとありがたいです >>979
なるほど、理解しました。
ありがとうございます。 >>979
((()))と1.3は同じじゃないぞ
1.1×1.1×1.1だからな
まあやってる人がそんな違い求めてるかは知らんけど いやいやw
(dog:1.33)って書こうかと思ったけど、そんなの普通やらんからだいたいで書いたんだよ ワイルドカードはカッコつけて強度指定しても動かないから増やす
これ以外では使ってない >>981
あら、ホントだ
アップ直後に自分で試した時は残ってたんだけど今のは無いね
というわけで改めてアップ
https://majinai.art/i/mtgnLTx.png
https://majinai.art/ja/i/mtgnLTx
プロンプトやモデルによってはすぐに崩れちゃうからCFGの調整をしつつやろう! >>986
ありがとう、確かに実感できた
解説動画だとCFGスケールは1って言ってたけど、もっと上げてもいいんだね
あとモデルによる崩れも体験できて、すごく参考になったよ! >>979
((((gigantic breasts))))とあえてすることで性癖に対する勢いを表現してるというレスをどこかで見かけて笑ったわ stable diffusionてVRM喰うからa1111やとVRAM12G以上要ると聞いてた
使うモデルとやり方次第でVRAM8Gでも余裕でイケるんだけどa1111の進化のお陰?
forgeはVRAM更に喰わないみたいだけどa1111先に試したんでforgeは試してない (((((NAIのノリで使ってるからじゃね?))))) >>991
12GBは「使うモデルややり方次第」を工夫しなくても画像を生成できるVRAM容量
ForgeやFooocusはそれが8GBまで下がった感じ 最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが
2070の8gbを使用かつモデルが大きいからそのようなものでしょうか >>995
それはさすがに時間がかかりすぎだと思う
しかしどうしてだろうね?
こういうのもLycorisの拡張機能をオフにすれば改善するのかな
気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか 文章的にa1111は問題なかった?ように読めるけど
forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか
メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない? このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 94日 16時間 46分 57秒 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login レス数が1000を超えています。これ以上書き込みはできません。