【StableDiffusion】画像生成AI質問スレ19
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ18
https://mevius.5ch.net/test/read.cgi/cg/1694882607/ >>141
bingくらいにローカルにも大きな進化が来ないとな~ これからはローカル環境はだんだん遅れていくかもしれんけど
最新に近いオンライン環境はほぼエロ系は規制だろうからその辺棲み分けになるかも >>144
そこに「どういうことですか!?意味が分かりません!」ってレスがついてるから、翻訳を通さなくても読める外人でも意味分からん話なんだなぁと nvidiaの新ドライバ出たからいい機会なので質問なんだけど
VRAMオフロード(溢れたらメインメモリに逃がす奴)ってなんかパフォーマンス改善されたりとかしましたかね
まあそもそも帯域10倍違うからあんまり期待はできないんだけども
あとVRAMオフロードって何かの設定で無効化できたりするかな
最近のトラブル関連もあったし531のままずっと使ってるんだけども いきなりすいません!
iPhone15でdraw things使用しているのですが、インペインティングを使い水着を小さくしたりしたいのですが
コントロールに、インペインティングを入れてあれこれしてもアプリが落ちてしまいます。やり方が間違っていると思いますがどうしたらいいのか分かりません。
ここだけが頼りです、、どなたかiPhone draw thingsを使用してる方はいらっしゃらないでしょうか? >>149
え? そのまま
lora の適用に model keyword という機能拡張の使用をやめて kohya-ss /sd-webui-additional-networks でやるようにしたら出なくなった と言ってるんだけど… >>150
VRAMオフロードは537.58+RTX4060でかなり役立っているように見える
例えば768*512をHires. fixで2倍にすると進捗95%くらいでVRAM使用量が急激に増え
8GB使い切るがメインメモリが代替され、そこから処理は数秒で終わる
メインメモリのDDR4-3200 (PC4-25600)の帯域は25.6 GB/s、デュアルチャネルで51.2 GB/s
4060のVRAM帯域は272GB/sなので5.31倍程度の差 VRAMオフロードはパフォーマンス改善というより、VRAMから溢れてもエラーで止まらなくするための方法やな
RAM ↔ VRAMはCPUがPCIe経由でアクセスしてるから、メモリの帯域差以上に性能低下すると思った方がいい
hires.fixみたいな後処理で溢れる程度なら問題ないけど、高解像度や動画なんかで最初から溢れてる場合はマジで遅くなるよ >>154
そうだね
私の4090の場合、PCIe3.0で使うと1008GB/s→16GB/s で1/64になる
batch size 増やすと溢れる分が分割され遅くなってるのが分かるよ >>153-155
ああVRAMオフロードの基本的な仕組みはわかってるけど、
どっかのgithubのissueで以前より挙動がマシになったみたいなコメントがあったんでその辺どうなんかなーと思った次第です
最初の頃はオフの場合より溢れる判定のマージン大き目で使い勝手悪いから
531にロールバックして使っておけみたいなアレがあってそうしてたんだけど
最近のドライバはどうなんかなと
あるいは設定でon/off切り替えられるようになったりしてないかなと inpaintdで微乳にしたいのに偽乳みたいになってしまう
プロンプトにflat breastsとか入れてもそこそこ小さいだけのくっきり偽乳になる
なだらかに膨らんだ感じにできないものか >>156
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/11063
ぱっと見た感じ修正されてないみたいだから、VRAMオフロード使わないなら前のverに戻したほうがいいかもね
VRAMオフロード自体はドライバの機能でユーザーやソフトからは制御できないみたい 実写系だと
RealESRGANx4+ と 4xUltraSharpって
どっちがいいの? >>158
ありがとう、ざっと読んできた
もうしばらく531で様子見しときます >>160
例えば絨毯の目みたいな細かい模様をくっきりさせたいなら4xUltraSharp
消えてもいいならRealESRGANx4+ ドライバ545.84は安定バージョンなのか今のところ不具合ない
GPUファームもあがってた >>147
もうちょっと詳しく語ってほしい
どうしてローカル環境は時代遅れになるの? >>147
もうちょっと詳しく語ってほしい
どうしてローカル環境は時代遅れになるの? 人物に目を閉じさせることができません。
色々プロンプトを試したのですが、「片目を閉じる」のがほとんどで、両目を閉じるのが2割位しかありません。
eyes closed
both eyes closed
closed eyes
のようなワードで強度を2くらいまで上げて、プロンプトの一番上に持って行ってもだめです。
かつ、Negativeに
wink,
open eyes
のようなワードを強度を強くして記述しても、やはりダメです。
使っているModelは2D系の以下です。
hassakuHentaiModel_v13
AbyssOrangeMix2_nsfw
どうやれば、目をきっちり閉じさせられるでしょうか? >>167
今やってみたけどどれも先頭に(closed eyes:1.5)とかで普通に閉じるような・・
hassakuはAOM[よりやや閉じにくい感じがするけど、回してるとまぁ出る
どっちも強度なしだとウインクになるね、普通のモデルだとone eyes closedでやっと出るのに
Loraの影響か、なんか対抗しちゃうようなプロンプトを入れちゃってるってことはない?
最悪negpip導入してclosed eyes,(eyes:-1.5)を先頭に入れるとhassakuでも9割方両目閉じた
open eyesじゃ駄目でeyesってのに気づいて笑った(目がなくなったりはしない) ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう >>137-143
解決しました!!sd入れ直してもダメでとても困ってたのでほんと助かります
githubのsdノートブックのページにこういう不具合質問の場所あることも初めて知りました プロンプトかadに目の色とか入れてると閉じないこと多いね ハッサクはノータッチだからわからんけどアビスの方でclose eyes:1.2で100%閉じてるな まずは基本モデル作って試してみたら
masterpiese,1girl,sleeping >>167
閉じるんだけども
まずは一旦全部プロンプトを消して
ゼロからやってみてはどうか プロンプトの中にコメントを残す方法ってあるかな?
// 品質系
みたいに、スラッシュ2つでその行が無視されるようなのとか >>177
<lora:とりあえず動かしてみたテスト版:0> >>177
#コメント
(💩:1.2) #数値で💩量変更
一時的に消したい行の先頭に「#」を付けるだけ
行の途中に加えると#以降の文字がプロンプトには反映されず記述だけ出来る DW-OpenPoseで、指をハートマークにしたのですが、生成すると、ハートマーク内部が
その先の服の柄にならず、別の模様や物体になってしまいます。
パラメータを上手く設定すれば、指の外の服の柄と連続するようになりますか? 気づいたらInpaint Anythingのたぶが表情されなくなってた(´・ω・`)
直しかたわかる方教えてください ゲーム用のポートレート(具体的には5つの試練)を作りたいんですが
背景だけを最初から生成しないようにするのは今のところAI画像生成では不可能なんですかね?
ABG Remover等の、背景を後から消すものならありますが、これだとやっぱり人物の周辺がモヤッと残ってしまうので。
やったことある人ならわかると思いますが、
手作業で地道に消してもゲーム内に反映させると境界が気になります。
ドットのプロなら綺麗に消せるかもですが… no background,blue background,white background,black background,
ネガに background
完全な単色にはならないしgreenは葉っぱになるからkラーバリエーションがどれくらいあるかは不明 >>185
そのあたりも試してはみたんですが
>完全な単色にはならないし
上記の通りで、その後GIMPやらで背景透過しようとしても
元のABG Remover等でやるのと毛色は少し変わりますが、残るという点では大差ないんですよね…
仮に完全な単色にできたとしても
ファジー選択ではどうしても微細な縁取りが残ってしまいますし。
フォトショならキレイなんですかね。 >>186
よくわからんけど単純なプロンプトに変えるとか
LoRA使えばいい話ではないかと
ttps://civitai.com/models/113542
ttps://civitai.com/models/119388 Reactorで前髪もスワップさせる方法ってあるかな >>187
ありがとうございます。
使ってみましたが、一部緑の光沢のようなものが特に髪の毛周辺に表示されたり
設定していても背景が真っ白になるときと、真っ白どころか普通の背景出たりと安定しませんでした。
色々教えてもらった内容からすると、透過背景で生成するといったシステム自体がなさそうな印象なので
ひとまずは現状の生成後に背景透過でしのごうと思います。 >>189
Lora素材作りしかやったことがないので基準が甘いかもしれないけど、人物と背景の教会のモヤモヤはlamaできれいにとれることが多い
髪の毛(特に毛先)の合間に残るのは無理だけど、それ以外は顔に残った効果戦とか光の演出みたいなのも元を知らなければ気づかないくらいになってると思う
あと背景除外はtransparent-backgroundでやってるけど、これだけでほぼ完ぺきと思える位取れることもあるので未利用なら試してみる価値があると思おう プロンプトわからんからアレだけど2Dでにじんだり色移りする可能性のあるスタイル定義してるとそうなる可能性高いし、3Dなら点描か超高精細のどっちかの描写以外認めないようにしないと周りに影響するからなあ RTX 4090の24gb が24万円ではなくて
26万円まで値段 上がってきているから
早く買えばよかったのに ゲーム側のアンチエイリアスでごまかし効かないレベルなのかな i2iでlineartとかかけた時に出る白黒ネガ画像みたいなのを別途保存しようと思って選んで↓ボタン押すと
ダイアログもなしにブラウザのデフォのダウンロードフォルダに保存されてしまう
最終画像はちゃんとoutputのimg2imgフォルダに生成されてるので、そこでいいのに・・
settingsの設定になさそうなんだけど、これってどこで変えられるんだろう? 一日中やってる訳じゃないんで高いのはいらん
週1くらいだし 生成した絵をi2iに送ってスケッチ修正した後に絵がガビガビ状態になるのってLora外す以外で解決策有りますか? batファイル起ち上げたら途中までは普通なんですが、しばらくするといろいろエラーが出て最後に
AttributeError: partially initialized module 'modules.sysinfo' has no attribute 'format_exception' (most likely due to a
circular import)
続行するには何かキーを押してください . . .
となり起ち上がりません、誰か助けてもらえないでしょうか?普通に使えててextensionの整理してreloadUIしたら急になりました。 >>198
整頓したときに追加したかアプデされた拡張機能が悪さしてるんじゃないかな
検索ではどれか1つ特定の拡張機能だけが原因ではないみたいだけど >>198
上の数行も貼らないと・・そこだけだと何が出してるかわかんないよ >>188知ってる人いないかな
薄い顔の人は前髪が違うと似ないんだよね 知らんけど、顔swapであって髪swapではない感じだね
色んな人の凡例で髪まで変えられてるのは一つもないからそういうことかと
みんなまじめな感じで例出してるからわからなかったけど、ようは昔のアイコラ用途か >>136
>>143
また更新かかってた
上記掲示板参照のこと オタ恋の広告みたいに、可愛い女の子とデブメガネのオタが肩を組んだりしてるのって出来ます?
っていうかオタ恋のパロディをやりたいんだけど なんでも出来る訳じゃないよ
クンニが中々成功しないのだ ComfyUIの生成スピードを
さらに速くする方法ないかな?
パフォーマンス見るとVRAM消費量が半分以下なんだが
余ってるなら消費量多くするとかできないのこれ? ADetailerで手のモデルを指定して0.8以上で認識もできてるんだけど全くきれいにならないんですが
何かコツとかあるんでしょうか…周りまで巻き込んでぐちゃぐちゃになります
Adetailerのプロンプト
five fingers,open hand
ネガティブ
badhandv4,deformed hand オタ恋やってるやつはみたからできないことはないと思うんだけどな
オタ恋自体は後からいじってるらしいが pnginfoからmov2movに設定を送る方法はありますか? pnginfoからmov2movに設定を送る方法はありますか? >>207
既出かもだけどSD1.5ならTome Patch ModelかHyperTileのNodeはどうかな。
もしSDXLの高速化方法が何かあるなら私も知りたい。 >>212
そのノード知らなかった
UIからカスタムノードで検索したけど
検索に引っかからない
Hypertileのテキストファイルは見つけたけど
どうやって入れるの? >>208
手が肉塊みたいになってたらadetailerを使おうともダメなもんはダメと悟るしかない
FreeUを有効にすると手が破綻しなくなる場合が多いのでそっちに頼ったほうが現実的かな 皆さん、lora作る時に、タグでsmileとかの表情ってどうしてます?
除外して覚えさせてますか? それともそのままにしますか?
教えてもらえるとありがたいです 追記
やっぱり、タグを除去してしないと、その表情を学習しない事になっちゃうんですか? >>213
1.ComfyUI_windows_portable\update\update_comfyui.bat を実行してComfyUIを最新にする。
2.ComfyUIを起動してワークスペースをダブルクリック
3.Searchの入力欄に Tome か Hyper を入力して下の検索結果のノードをクリック >>215-216
たとえば抜作先生を学習させてsmileを入れたままにしておくと、
closed mouthで口を閉じた抜作先生が出せるようになる(と思う)
smileを全部抜いて学習させると、抜け作先生ってのはそういう顔が張り付いたキャラだと学習して
angryだろうがcryingだろうがずっと口が笑った顔のままになる(はず)
プロンプトである程度はそれっぽくしてるくかもだけど >>218
ありがとうございます。
なるほど、やはりそういうことですか。では、表情だけでなく、目を瞑っているものや、口を開いているとか
その辺りも消さないと固有の表情を覚えてくれないのですね
もしかすると、full bodyとかのタグも単なる全身が見える構図という意味だけではなく、
そのキャラ固有の体型を覚えている場合もあるのかな?
また、逆に集めた参考画像が笑っているものばかりだと、そのキャラの通常状態が笑っているものと
学習するから、その場合はsmileを学習させない方がよいとか使えるかもしれませんね 4060ti 16Gあんまり評判良くないみたいですけど数万上乗せして4070か4070ti買った方が良いのでしょうか? >>220
それぐらいの知識しかないなら安い方買った方が良さげ stable-diffusion-webuiのイントールでwebui.batを実行して途中まで進んでたんですがhuggingfaceからのダウンロードが途中で
止まって約1時間進まない状態になってしまいました。このまま待った方のがいいのか、cmd閉じてフォルダ削除して最初からやり直したほうがいいのでしょうか? Stable difussionのWebUI1.5.2でStyle Editor入れたら
エラーがボロボロでるんだが >>223
もう見てないかもしれないけど、最初からやり直すのがいい
あとたまにcmd窓をクリックかなんかしたせいで止まってることがある、この場合はenterで動きだしたり
条件がよくわからない、pauseキーやctrl+sじゃなくてもなるような loraでキャラを出す時に、SD本体やモデルで学習データに無い情報をどこまで補完してくれるんだろ?
前・斜め前の顔しか学習させてなくて、横顔を補完したり
学習させてない表情とかもある程度は補完してくれるんでしょうか?
後、Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか?
普通のショートヘアなのに、勝手にツインテールやポニーテールにして困っています
ご教授いただければ幸いです >>226
何回かやり直したんですがやっぱり途中でダウンロード止まってしまうのでブラウザからhuggingfaceのサイトから直ダウンロードしてフォルダに入れたら無事起動できました
ありがとうございます >>226
横顔までしか学習させてないLoraで、(from behind:1.6)とかやっても
だいたい横顔〜やや後ろが強い横顔くらいにされるけど、完全な真後ろがたま〜にでる、確率10%くらいか
一応そのモデル(checkpoint)に含まれてる何かで補完されてるんだと思う
さすがに横顔学習なしとかはやったことないので、自分で実験してみてw
> Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか?
無理かと
> 勝手にツインテールやポニーテールにして困っています
あんまこういうの食らったことないなぁ・・タグ付けのキャプションに問題ない?
あるいはAIを誤解させるような別のプロンプトが混ざっちゃってる可能性、1girl,<lora:xxxxx:1>だけでもテールになる?
あと、適当につけたつもりのトリガーワードが実は有名ななんかだったりで影響することがたまにある
最悪negpipで殺せばいいけど、根本的解決ではないかと >>228
学習データなしだと確率10%ですか…一応は補完してくれるんですね
ショートヘアがツインテやポニーになる現象ですが、
生成された画像が目のハイライトが無かったり、今一にてなかったりしたので、
controlnetのreferenceやip-adapterに公式絵や公式に近い絵を掘り込んでやっていた時に
起きた現象ですね
ちゃんと目のハイライトが出たり、顔つきがかなり似てくるんですが、ネガティブにツインテやポニーを
放り込んでもかなりの確率でツインテやポニーになり始めたんですよ
横顔や後ろ姿を学習させてツインテやポニーじゃない事を学習させないとダメなようですね…
結局、良い横顔が見当たらなかったので、自分で描く破目になりましたw >>220
普通の使い方なら70, 70tiの方が早く生成できるのでそっちのがおすすめ i2iバッチで1920*1080の画像2000枚くらい処理する場合、4060ti 16GBと4070 12GBではどっちが早いのかな 単品の処理なら性能差は1.4倍くらいだから4070のほうが30%短くなりそうな気がする
2枚づつとか3枚づつとかやるとVRAMの量が影響してひっくり返るかも 512×1024 10枚
RTX4090 24GB 26.3秒 258000円
RTX4060ti16GB 68.5秒 速度差2.6倍 72800円 価格差3.54倍
RTX3060 12GB 105.6秒 速度差4倍 37980円 価格差6.79倍 自作キモオタ君ならフルタワーケースに電源850wとか積んでるんだろうけど
メーカーPCでグラボ交換するなら4060tiあたりまでしか無理 そういえばロープロ対応の4060ってあったな
3060ではできないことができるんだからこれはもう少し評価されてもいい AIスレ民なのに高いPC持ちやたら妬んでる奴いるのは何なんだ 1000wプラチナすら買えないのは流石になぁ
AIで遊んでる場合ちゃうやろ 前スレラストも何も関係ない4090持ちを殴り始めてたなw 呪文が噛み合ってランダム生成繰り返すとどんどんキャラがエロく淫乱になっていくのはなんでなん? 4070でめっちゃ快適になった
2080で粘ってたけど変えてよかった ■ このスレッドは過去ログ倉庫に格納されています