【StableDiffusion】画像生成AI質問スレ19
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。 次スレは>>950 が立ててください。 質問する人はなるべく情報開示してください ・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル ・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く ・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ ・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく) テンプレは>>2 以降に ※前スレ 【StableDiffusion】画像生成AI質問スレ18 https://mevius.5ch.net/test/read.cgi/cg/1694882607/ >>144 そこに「どういうことですか!?意味が分かりません!」ってレスがついてるから、翻訳を通さなくても読める外人でも意味分からん話なんだなぁと nvidiaの新ドライバ出たからいい機会なので質問なんだけど VRAMオフロード(溢れたらメインメモリに逃がす奴)ってなんかパフォーマンス改善されたりとかしましたかね まあそもそも帯域10倍違うからあんまり期待はできないんだけども あとVRAMオフロードって何かの設定で無効化できたりするかな 最近のトラブル関連もあったし531のままずっと使ってるんだけども いきなりすいません! iPhone15でdraw things使用しているのですが、インペインティングを使い水着を小さくしたりしたいのですが コントロールに、インペインティングを入れてあれこれしてもアプリが落ちてしまいます。やり方が間違っていると思いますがどうしたらいいのか分かりません。 ここだけが頼りです、、どなたかiPhone draw thingsを使用してる方はいらっしゃらないでしょうか? >>149 え? そのまま lora の適用に model keyword という機能拡張の使用をやめて kohya-ss /sd-webui-additional-networks でやるようにしたら出なくなった と言ってるんだけど… >>150 VRAMオフロードは537.58+RTX4060でかなり役立っているように見える 例えば768*512をHires. fixで2倍にすると進捗95%くらいでVRAM使用量が急激に増え 8GB使い切るがメインメモリが代替され、そこから処理は数秒で終わる メインメモリのDDR4-3200 (PC4-25600)の帯域は25.6 GB/s、デュアルチャネルで51.2 GB/s 4060のVRAM帯域は272GB/sなので5.31倍程度の差 VRAMオフロードはパフォーマンス改善というより、VRAMから溢れてもエラーで止まらなくするための方法やな RAM ↔ VRAMはCPUがPCIe経由でアクセスしてるから、メモリの帯域差以上に性能低下すると思った方がいい hires.fixみたいな後処理で溢れる程度なら問題ないけど、高解像度や動画なんかで最初から溢れてる場合はマジで遅くなるよ >>154 そうだね 私の4090の場合、PCIe3.0で使うと1008GB/s→16GB/s で1/64になる batch size 増やすと溢れる分が分割され遅くなってるのが分かるよ >>153-155 ああVRAMオフロードの基本的な仕組みはわかってるけど、 どっかのgithubのissueで以前より挙動がマシになったみたいなコメントがあったんでその辺どうなんかなーと思った次第です 最初の頃はオフの場合より溢れる判定のマージン大き目で使い勝手悪いから 531にロールバックして使っておけみたいなアレがあってそうしてたんだけど 最近のドライバはどうなんかなと あるいは設定でon/off切り替えられるようになったりしてないかなと inpaintdで微乳にしたいのに偽乳みたいになってしまう プロンプトにflat breastsとか入れてもそこそこ小さいだけのくっきり偽乳になる なだらかに膨らんだ感じにできないものか >>156 https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/11063 ぱっと見た感じ修正されてないみたいだから、VRAMオフロード使わないなら前のverに戻したほうがいいかもね VRAMオフロード自体はドライバの機能でユーザーやソフトからは制御できないみたい 実写系だと RealESRGANx4+ と 4xUltraSharpって どっちがいいの? >>158 ありがとう、ざっと読んできた もうしばらく531で様子見しときます >>160 例えば絨毯の目みたいな細かい模様をくっきりさせたいなら4xUltraSharp 消えてもいいならRealESRGANx4+ ドライバ545.84は安定バージョンなのか今のところ不具合ない GPUファームもあがってた >>147 もうちょっと詳しく語ってほしい どうしてローカル環境は時代遅れになるの? >>147 もうちょっと詳しく語ってほしい どうしてローカル環境は時代遅れになるの? 人物に目を閉じさせることができません。 色々プロンプトを試したのですが、「片目を閉じる」のがほとんどで、両目を閉じるのが2割位しかありません。 eyes closed both eyes closed closed eyes のようなワードで強度を2くらいまで上げて、プロンプトの一番上に持って行ってもだめです。 かつ、Negativeに wink, open eyes のようなワードを強度を強くして記述しても、やはりダメです。 使っているModelは2D系の以下です。 hassakuHentaiModel_v13 AbyssOrangeMix2_nsfw どうやれば、目をきっちり閉じさせられるでしょうか? >>167 今やってみたけどどれも先頭に(closed eyes:1.5)とかで普通に閉じるような・・ hassakuはAOM[よりやや閉じにくい感じがするけど、回してるとまぁ出る どっちも強度なしだとウインクになるね、普通のモデルだとone eyes closedでやっと出るのに Loraの影響か、なんか対抗しちゃうようなプロンプトを入れちゃってるってことはない? 最悪negpip導入してclosed eyes,(eyes:-1.5)を先頭に入れるとhassakuでも9割方両目閉じた open eyesじゃ駄目でeyesってのに気づいて笑った(目がなくなったりはしない) ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう >>137-143 解決しました!!sd入れ直してもダメでとても困ってたのでほんと助かります githubのsdノートブックのページにこういう不具合質問の場所あることも初めて知りました プロンプトかadに目の色とか入れてると閉じないこと多いね ハッサクはノータッチだからわからんけどアビスの方でclose eyes:1.2で100%閉じてるな まずは基本モデル作って試してみたら masterpiese,1girl,sleeping >>167 閉じるんだけども まずは一旦全部プロンプトを消して ゼロからやってみてはどうか プロンプトの中にコメントを残す方法ってあるかな? // 品質系 みたいに、スラッシュ2つでその行が無視されるようなのとか >>177 <lora:とりあえず動かしてみたテスト版:0> >>177 #コメント (💩:1.2) #数値で💩量変更 一時的に消したい行の先頭に「#」を付けるだけ 行の途中に加えると#以降の文字がプロンプトには反映されず記述だけ出来る DW-OpenPoseで、指をハートマークにしたのですが、生成すると、ハートマーク内部が その先の服の柄にならず、別の模様や物体になってしまいます。 パラメータを上手く設定すれば、指の外の服の柄と連続するようになりますか? 気づいたらInpaint Anythingのたぶが表情されなくなってた(´・ω・`) 直しかたわかる方教えてください ゲーム用のポートレート(具体的には5つの試練)を作りたいんですが 背景だけを最初から生成しないようにするのは今のところAI画像生成では不可能なんですかね? ABG Remover等の、背景を後から消すものならありますが、これだとやっぱり人物の周辺がモヤッと残ってしまうので。 やったことある人ならわかると思いますが、 手作業で地道に消してもゲーム内に反映させると境界が気になります。 ドットのプロなら綺麗に消せるかもですが… no background,blue background,white background,black background, ネガに background 完全な単色にはならないしgreenは葉っぱになるからkラーバリエーションがどれくらいあるかは不明 >>185 そのあたりも試してはみたんですが >完全な単色にはならないし 上記の通りで、その後GIMPやらで背景透過しようとしても 元のABG Remover等でやるのと毛色は少し変わりますが、残るという点では大差ないんですよね… 仮に完全な単色にできたとしても ファジー選択ではどうしても微細な縁取りが残ってしまいますし。 フォトショならキレイなんですかね。 >>186 よくわからんけど単純なプロンプトに変えるとか LoRA使えばいい話ではないかと ttps://civitai.com/models/113542 ttps://civitai.com/models/119388 Reactorで前髪もスワップさせる方法ってあるかな >>187 ありがとうございます。 使ってみましたが、一部緑の光沢のようなものが特に髪の毛周辺に表示されたり 設定していても背景が真っ白になるときと、真っ白どころか普通の背景出たりと安定しませんでした。 色々教えてもらった内容からすると、透過背景で生成するといったシステム自体がなさそうな印象なので ひとまずは現状の生成後に背景透過でしのごうと思います。 >>189 Lora素材作りしかやったことがないので基準が甘いかもしれないけど、人物と背景の教会のモヤモヤはlamaできれいにとれることが多い 髪の毛(特に毛先)の合間に残るのは無理だけど、それ以外は顔に残った効果戦とか光の演出みたいなのも元を知らなければ気づかないくらいになってると思う あと背景除外はtransparent-backgroundでやってるけど、これだけでほぼ完ぺきと思える位取れることもあるので未利用なら試してみる価値があると思おう プロンプトわからんからアレだけど2Dでにじんだり色移りする可能性のあるスタイル定義してるとそうなる可能性高いし、3Dなら点描か超高精細のどっちかの描写以外認めないようにしないと周りに影響するからなあ RTX 4090の24gb が24万円ではなくて 26万円まで値段 上がってきているから 早く買えばよかったのに ゲーム側のアンチエイリアスでごまかし効かないレベルなのかな i2iでlineartとかかけた時に出る白黒ネガ画像みたいなのを別途保存しようと思って選んで↓ボタン押すと ダイアログもなしにブラウザのデフォのダウンロードフォルダに保存されてしまう 最終画像はちゃんとoutputのimg2imgフォルダに生成されてるので、そこでいいのに・・ settingsの設定になさそうなんだけど、これってどこで変えられるんだろう? 一日中やってる訳じゃないんで高いのはいらん 週1くらいだし 生成した絵をi2iに送ってスケッチ修正した後に絵がガビガビ状態になるのってLora外す以外で解決策有りますか? batファイル起ち上げたら途中までは普通なんですが、しばらくするといろいろエラーが出て最後に AttributeError: partially initialized module 'modules.sysinfo' has no attribute 'format_exception' (most likely due to a circular import) 続行するには何かキーを押してください . . . となり起ち上がりません、誰か助けてもらえないでしょうか?普通に使えててextensionの整理してreloadUIしたら急になりました。 >>198 整頓したときに追加したかアプデされた拡張機能が悪さしてるんじゃないかな 検索ではどれか1つ特定の拡張機能だけが原因ではないみたいだけど >>198 上の数行も貼らないと・・そこだけだと何が出してるかわかんないよ >>188 知ってる人いないかな 薄い顔の人は前髪が違うと似ないんだよね 知らんけど、顔swapであって髪swapではない感じだね 色んな人の凡例で髪まで変えられてるのは一つもないからそういうことかと みんなまじめな感じで例出してるからわからなかったけど、ようは昔のアイコラ用途か >>136 >>143 また更新かかってた 上記掲示板参照のこと オタ恋の広告みたいに、可愛い女の子とデブメガネのオタが肩を組んだりしてるのって出来ます? っていうかオタ恋のパロディをやりたいんだけど なんでも出来る訳じゃないよ クンニが中々成功しないのだ ComfyUIの生成スピードを さらに速くする方法ないかな? パフォーマンス見るとVRAM消費量が半分以下なんだが 余ってるなら消費量多くするとかできないのこれ? ADetailerで手のモデルを指定して0.8以上で認識もできてるんだけど全くきれいにならないんですが 何かコツとかあるんでしょうか…周りまで巻き込んでぐちゃぐちゃになります Adetailerのプロンプト five fingers,open hand ネガティブ badhandv4,deformed hand オタ恋やってるやつはみたからできないことはないと思うんだけどな オタ恋自体は後からいじってるらしいが pnginfoからmov2movに設定を送る方法はありますか? pnginfoからmov2movに設定を送る方法はありますか? >>207 既出かもだけどSD1.5ならTome Patch ModelかHyperTileのNodeはどうかな。 もしSDXLの高速化方法が何かあるなら私も知りたい。 >>212 そのノード知らなかった UIからカスタムノードで検索したけど 検索に引っかからない Hypertileのテキストファイルは見つけたけど どうやって入れるの? >>208 手が肉塊みたいになってたらadetailerを使おうともダメなもんはダメと悟るしかない FreeUを有効にすると手が破綻しなくなる場合が多いのでそっちに頼ったほうが現実的かな 皆さん、lora作る時に、タグでsmileとかの表情ってどうしてます? 除外して覚えさせてますか? それともそのままにしますか? 教えてもらえるとありがたいです 追記 やっぱり、タグを除去してしないと、その表情を学習しない事になっちゃうんですか? >>213 1.ComfyUI_windows_portable\update\update_comfyui.bat を実行してComfyUIを最新にする。 2.ComfyUIを起動してワークスペースをダブルクリック 3.Searchの入力欄に Tome か Hyper を入力して下の検索結果のノードをクリック >>215-216 たとえば抜作先生を学習させてsmileを入れたままにしておくと、 closed mouthで口を閉じた抜作先生が出せるようになる(と思う) smileを全部抜いて学習させると、抜け作先生ってのはそういう顔が張り付いたキャラだと学習して angryだろうがcryingだろうがずっと口が笑った顔のままになる(はず) プロンプトである程度はそれっぽくしてるくかもだけど >>218 ありがとうございます。 なるほど、やはりそういうことですか。では、表情だけでなく、目を瞑っているものや、口を開いているとか その辺りも消さないと固有の表情を覚えてくれないのですね もしかすると、full bodyとかのタグも単なる全身が見える構図という意味だけではなく、 そのキャラ固有の体型を覚えている場合もあるのかな? また、逆に集めた参考画像が笑っているものばかりだと、そのキャラの通常状態が笑っているものと 学習するから、その場合はsmileを学習させない方がよいとか使えるかもしれませんね 4060ti 16Gあんまり評判良くないみたいですけど数万上乗せして4070か4070ti買った方が良いのでしょうか? >>220 それぐらいの知識しかないなら安い方買った方が良さげ stable-diffusion-webuiのイントールでwebui.batを実行して途中まで進んでたんですがhuggingfaceからのダウンロードが途中で 止まって約1時間進まない状態になってしまいました。このまま待った方のがいいのか、cmd閉じてフォルダ削除して最初からやり直したほうがいいのでしょうか? Stable difussionのWebUI1.5.2でStyle Editor入れたら エラーがボロボロでるんだが >>223 もう見てないかもしれないけど、最初からやり直すのがいい あとたまにcmd窓をクリックかなんかしたせいで止まってることがある、この場合はenterで動きだしたり 条件がよくわからない、pauseキーやctrl+sじゃなくてもなるような loraでキャラを出す時に、SD本体やモデルで学習データに無い情報をどこまで補完してくれるんだろ? 前・斜め前の顔しか学習させてなくて、横顔を補完したり 学習させてない表情とかもある程度は補完してくれるんでしょうか? 後、Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか? 普通のショートヘアなのに、勝手にツインテールやポニーテールにして困っています ご教授いただければ幸いです >>226 何回かやり直したんですがやっぱり途中でダウンロード止まってしまうのでブラウザからhuggingfaceのサイトから直ダウンロードしてフォルダに入れたら無事起動できました ありがとうございます >>226 横顔までしか学習させてないLoraで、(from behind:1.6)とかやっても だいたい横顔〜やや後ろが強い横顔くらいにされるけど、完全な真後ろがたま〜にでる、確率10%くらいか 一応そのモデル(checkpoint)に含まれてる何かで補完されてるんだと思う さすがに横顔学習なしとかはやったことないので、自分で実験してみてw > Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか? 無理かと > 勝手にツインテールやポニーテールにして困っています あんまこういうの食らったことないなぁ・・タグ付けのキャプションに問題ない? あるいはAIを誤解させるような別のプロンプトが混ざっちゃってる可能性、1girl,<lora:xxxxx:1>だけでもテールになる? あと、適当につけたつもりのトリガーワードが実は有名ななんかだったりで影響することがたまにある 最悪negpipで殺せばいいけど、根本的解決ではないかと >>228 学習データなしだと確率10%ですか…一応は補完してくれるんですね ショートヘアがツインテやポニーになる現象ですが、 生成された画像が目のハイライトが無かったり、今一にてなかったりしたので、 controlnetのreferenceやip-adapterに公式絵や公式に近い絵を掘り込んでやっていた時に 起きた現象ですね ちゃんと目のハイライトが出たり、顔つきがかなり似てくるんですが、ネガティブにツインテやポニーを 放り込んでもかなりの確率でツインテやポニーになり始めたんですよ 横顔や後ろ姿を学習させてツインテやポニーじゃない事を学習させないとダメなようですね… 結局、良い横顔が見当たらなかったので、自分で描く破目になりましたw >>220 普通の使い方なら70, 70tiの方が早く生成できるのでそっちのがおすすめ i2iバッチで1920*1080の画像2000枚くらい処理する場合、4060ti 16GBと4070 12GBではどっちが早いのかな 単品の処理なら性能差は1.4倍くらいだから4070のほうが30%短くなりそうな気がする 2枚づつとか3枚づつとかやるとVRAMの量が影響してひっくり返るかも 512×1024 10枚 RTX4090 24GB 26.3秒 258000円 RTX4060ti16GB 68.5秒 速度差2.6倍 72800円 価格差3.54倍 RTX3060 12GB 105.6秒 速度差4倍 37980円 価格差6.79倍 自作キモオタ君ならフルタワーケースに電源850wとか積んでるんだろうけど メーカーPCでグラボ交換するなら4060tiあたりまでしか無理 そういえばロープロ対応の4060ってあったな 3060ではできないことができるんだからこれはもう少し評価されてもいい AIスレ民なのに高いPC持ちやたら妬んでる奴いるのは何なんだ 1000wプラチナすら買えないのは流石になぁ AIで遊んでる場合ちゃうやろ 前スレラストも何も関係ない4090持ちを殴り始めてたなw 呪文が噛み合ってランダム生成繰り返すとどんどんキャラがエロく淫乱になっていくのはなんでなん? 4070でめっちゃ快適になった 2080で粘ってたけど変えてよかった ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる