【StableDiffusion】画像生成AI質問スレ22
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ21
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured ■LoRAを使うと生成速度が落ちる
Lycorisの拡張機能を無効にすると直ることがあります たておつ
前のスレでforgeのLoraの初回が遅いってやつ
それが発生したら一回生成すればちゃんと動くけど毎度待ってらんないから
一旦生成はキャンセルして再生成するとちゃんと動くようになるよ
なんだろうねバグかね
初回生成すらできないのはブラウザ更新かければ動くようになるよ 前スレの995です
返信ありがとうございます
>0995名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
>最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが
>2070の8gbを使用かつモデルが大きいからそのようなものでしょうか
Lycorisの拡張機能は元々入ってないようです
Diskinfoでチェックしてみましたが、正常で問題ありませんでした
>0996名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz)
>>>995
>それはさすがに時間がかかりすぎだと思う
>しかしどうしてだろうね?
>こういうのもLycorisの拡張機能をオフにすれば改善するのかな
>気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか
CドライブがSSDなのですが、C直下に入れるのが嫌だったので内部HDDのDドライブに現在入れています
その環境下でSD1.5のモデルを読込む際は2GBのものは30秒程度、3GBのものは60秒程度で、SDXL(6GB)の場合は600秒程度要します
SDXLのような大きなサイズの場合にのみ影響が発生することはあるのでしょうか
>0997名無しさん@お腹いっぱい。 (ベーイモ MMc6-CYwW) a1111ではsdxlを試していません
forgeにしてからSD1.5の読込はa1111と比較して快適になったのですが、上記にあるようにSDXLの場合に明らかに長くおかしいと思い聞いてみました
そういった知識がなく理解が怪しいので返答としてあっているのか分かりませんが、
RAM16GBを使用していてSDXLモデルを読込んでいる最中は使用量が95-99%を占め、利用可能が200MB〜1GB程度でコミット済みが35/40GB程度です
>0998名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro)
>文章的にa1111は問題なかった?ように読めるけど
>forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか
>メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない?
インストールし直すことにしまして以下のコマンドを使用しました
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git
元々最新verを使用していて、今回も最新verをインストールしました
ですが改善はされませんでした。おすすめのverとかってありますか? メインメモリ16は少なすぎるし
HDD上で動かすのも良くない
メモリはせめて32、できれば64↑
SDはSSD上で動かす
Xはモデルデータか大きくなったから1.5の時に感じにくかったスペック問題が顕著になってる モデルはSSDに入れるのがいいと思う、読み込みの早さがぜんぜん違うから
モデルが入っているフォルダを指定する方法もあるから、forge本体はHDD、モデルはSSDという運用も可能
「webui-user.bat」で「set COMMANDLINE_ARGS=--ckpt-dir c:\\sd\model\sdxl」みたいに指定する
メインメモリが16GBで足りないってことはないんじゃないかなあ
forgeとブラウザのほかに大きいアプリケーションを起動してなければ大丈夫じゃない?
forgeでおすすめのバージョンは特にありません。考え方は人によるけど、forgeはいつも最新を使うのがいいと思う 前スレでcleavage cutout教えてくれた方
ありがとうございます
シコる前に一言お礼を言わせてください 4です、ありがとうございます
SDXLのモデルをSSDのCドライブに入れたところ、10分の読込が2,3分に短縮されました
HDDを使っていたばかりにお手数おかけしました
容量を気にせず使えるように外付けのSSDを購入しようと思います
返信していただいた方々ありがとうございました 数日前から、VAEを変更しても生成結果に表示されるVAEのハッシュ値が変わらない現象が発生してます
元々vae-ft-mse-840000-ema-prunedを使用しており、ハッシュ値も正しいもの(735e4c3a44)が表示されていたのですが、sdxl_vaeを1度使用してから、VAEの、ハッシュ値がsdxl_vaeのもの(63aeecb90f)に固定されてしまっています
UI・端末再起動、VAEの削除、再ダウンロード等試しましたがハッシュ値の固定は解消されません
この現象が起きてから生成画像のクオリティが安定せず、経験ある方や何かご存知の方いたら教えて頂きたいです
必要か分からないけど以下簡単なスペック
i7-8700
rtx2060su
ram16gb >>13
sdxl_vae削除したときはどーなんの?
vaeが適用されない?
(まあsdxlはvae焼かれてるモデルも結構あるが)
あと結局sd1.5とsdxlどっち使いたいんだろ >>15
sdxl_vaeを削除して、vae-ft-mse-840000-ema-prunedを選択してもsdxl_vaeのハッシュ値が表示されてますね
sdxlは好奇心で使ってみただけで、マシンスペック的にも1.5を使用してくつもりです あ、文章の意味勘違いしてた
vaeが反映されない、ですね >>16
sdxl_vaeを削除して、上のSD VAEの更新(reflesh)ボタン押してみて、
sdxl_vae.safetensorは▽のリストにまだある?ない?
その駄目な感じの生成した時にCUI窓の方にはエラーかなんか出てない? あと、VAE変えるときのCUIのメッセージにも異常がないかも VAEに関するこの手のバグを前にもスレで見た気がするな
ここだったかどうか覚えてないけど >>18
リストからは消えてます
エラーは特に出てないんですよね…
生成時にも切り替え時にも わからんね・・
vaeの場所指定はmklink?COMMANDLINE_ARGS?
具体的にどこに入れてる?a1111内?forgeのmodelのVAE内?
外付けとかに入れてない?(昔不具合報告みたことある)
forgeのwebuiフォルダにあるconfig.jsonの325行あたりの「"sd_vae": 」が起動時の設定なんだけど
他のvaeがなんらかの原因で突如何故か認識できずに自動的に見える奴に戻してる感じだろうか
これ変えてもたぶん挙動は同じだろうなぁ
ぶっちゃけ、別フォルダにforgeそのものを入れなおすのが一番早いような・・ >>22
場所指定はデフォルトのままで内蔵m.2 SSDのforge内models/vaeを見てます
帰ったらconfig.json確認してみます
ここまで来るとたしかに再構築した方が早そうですね、ご助力頂きありがとうございます forgeは最近なんか不安定。
XLモデルを変更して生成しようとするとwinの方で例外エラーが出て落ちる
モデル切り替え時にメインメモリ(16GB)が足らなくなるっぽいんだが、以前は普通に変更できてたんだよな コントロールネットの某人間めんどくさいので、クリペの3Dの画像で何か手軽に出来る方法ありませんか? A1111でバッチサイズ8/回数3で生成しているが、使用メインメモリは12.7GBでずっと安定している。
VRAMが16GBあるからメインメモリまではみ出してこないのかもしれんが。 家で4070
出先で3070laptopでやってるんだけど同じモデルと設定でやってるのに質に違いが出るのはなんでだろう
4070は早いけど顔が崩れやすい
ノートは遅いけど比較的忠実
前者は元の画像サイズを上げると多少マシになるけどそれでもノートで生成するより打率が低い
4070の方だけ1.8.0にアプデしたのが影響してるのかな… ありとあらゆる環境が生成に影響するから仕方ないね
たまたま噛み合って自分の気に入ったものが出るならそれを大事にするしかない
seedやプロンプトには固定させる要素がそれほどないんだ なるほど
俺の場合は4070の方をLoRA作成に使った方が良さそうだね
なんかLoRAの出来にも違いが出そうだけど(-_-;)
ありがとう 同じSEEDでもCFGスケール値やサンプリングステップ値を変えるだけで別の絵が出てくるね。 質問です。
最初に画像を作成しようとしたり
モデルを変更したりしたら
TypeError: 'NoneType' object is not iterable
というメッセージが出て
一切画像を生成できなくなったのですが
これはどうやったら治るのでしょうか。
普通に複数回画像を生成できても
途中でこのエラーが表示されて
全く生成できなくなります。 Forgeで起きやすい問題らしいけどどんな環境かわからんし
ただ生成してるだけなのか拡張機能を何か1つでも使ってるのかもわからん
もうちょっと情報書いてほしい 使用しているバージョンは
version: f0.0.16v1.8.0rc-latest-268-gb59deaa3
python: 3.10.6
torch: 2.1.2+cu121
xformers: 0.0.23.post1
gradio: 3.41.2
です。
こちらで生成しようとするとエラーが頻発するようになりました
別のバージョンのversion: latest-51-g5bea443d ?
の方を今使っていますが、こちらは今のところエラーは見られません。
? 正直全然原因がわからないです。
昨日から変わった事はといえば中国の
容華:国風大模型
古風大模型XL
緒儿:泛光唯美大模型
亜洲人像
といったベースモデルを新しく入れて
試しに画像を生成していたのですが
異常なくらいに出力が遅く
その後に色々とエラーが出るようになったという事です。
モデルを以前から使っているアニメ系モデルに変えても
Stable Diffusionを終了して再度起動しても
同様にTypeError: 'NoneType' object is not iterable
のエラーが何度も出ます。 >>37
下のURLの追加プログラムはインストールしていません。
上のURLの会話には「SwinIR_4x 」という単語がたびたび出ますが
自分は高解像度補助アップスケールの際に
「4x ultraSharp」というものをたびたび使いますが
以前から使用していたので、これがバグの原因とは思えません。
それから昨日は同一seedで様々なvaeとSamplerを
ひとつひとつ使って生成結果を試していて
その後に元の設定に戻したのですかず
もしかするとそのあたりも何か関係しているのかもしれません。 .statisfaction じゃなく.ckpt
だったりして、、、、悪意の、、
つか追加したモデルファイルをどうしてるか、消したり移動したりはしてないのよね? たぶん、pythonのバージョンの認識エラー
venvをリネームして様子見てみれば、何か分かるかも知れない >>40
venvをいったん削除して再起動すると
新しくvenyが作られるので
削除して再起動しましたが、変わらずに同様のエラーが出て
画像を生成できません。
>>39
追加した中華性モデルファイルは使い物にならないので
リネームして、廃棄物を集めたフォルダに移動しました。 なおPythonのバージョンは 3.10.6です。
起動画面には緑文字や赤文字で
[notice] A new release of pip available: 22.2.1 -> 24.0
[notice] To update, run: D:\StableDiffusion\Forge\venv\Scripts\python.exe -m pip install --upgrade pip
と出てきます。
table DiffusionのAUTOMATIC 1111は
Pythonのバージョンの3.1系でないと動かないとあるので
アップデートはしていません。 ちなみにhires.fixなしでも同じエラー出る? 昨日、画像生成速度がかなり上がるという
a1111-sd-webui-tomeという拡張機能をインストールしたのですが
この機能をインストール済一覧からチェックを外して再起動したら
エラーの数がかなり減ったように思います。 > 昨日から変わった事はといえば中国の
> 昨日、画像生成速度がかなり上がるというa1111-sd-webui-tomeという拡張機能をインストールしたのですが
ええ・・ このなんとも言えないもんにょり感よ……
この感じだと、他にも拡張機能一気にアップデートしたとか色々原因ありそうよな だって最初の質問から漂う空気が
「なにもしてないのに壊れた」って感じだったもん 環境の変化でなにかが起こったかどうか完全に新しい構築をもう一つ作って
動作確認してから来てほしい、 生成した画像をワンクリックでimg2imgとかに送るタブがあると思うんですが
a1111の方は大きいタブでSend to img2imgみたいに書いてあって見て分かりやすい
forgeの方はタブが小さくカーソルを合わせれば説明が出てくるのですが見て分かりづらい
という違いが起きているのですが、これは拡張機能やセッティングでどうにかなるものですか a1111が1.6(2023/8/31)あたりでアイコンになってるのでめっちゃ古いの使ってたのでは・・
forgeは基本、倣ってるだけなんで
変える設定はぱぱっと検索した限りでは見つからなかった
そもそもボタンでかすぎるだろって要望で変えたんだろうし
gradio触れる人なら簡単にできそう >>51
ありがとうございます
改良の結果アイコンが小さくなってたんですね
確かにa1111の方は不便がないかぎりアップデートしてなかったのでver1.5くらいで止まってました a11111.7.0でcivitai helper使ってるんだけどUIが変わってからダウンロードできなくなった
url入れてget model…クリックすると「subfolder string is None」て出るんだけど解決方法教えてくれ
前のサムネが出るタイプのときは問題なかったんだがサムネのでないタイプになってからはダメ >>53
civitai helperが新UIに対応するまではじっと我慢しかないのでは
githubのissueに当座の解決方法が提案されているかも 近い将来AVは生のAV女優を使わなくても過去のAVから生成AIで
いくらでもAVを作れるようになりますか?
そうなればAV界の様々な問題も解決していいですね
AV女優も不要になりますから やってることがディープフェイクと区別つかんから
技術はともかく倫理と法的にあと何十年かは合法にならんかも 自動運転と同じで法整備が追い付かないパターンになりそうね
追い付いたら追いついたで動画が証拠として使えなくなるような世界になっていそうだけど >>57
数年の間に、チラシや広告の安いのはAIに取って代わられるだろうな。
次に出てくるのがCMだ。30sec程度の動画ならパワフルなPCで自由自在になるだろう。
その次が30分モノのTV漫画かな。
長尺のAVは一番最後だろうね。 マッチングアプリの広告でAI画像にしか見えないのが使われてて、そのことで話題になってるのとかあるよね
ああいうところから入れ替わっていくんだろうな >>57
いまのAI生成周り見る限りでは、作ること自体は可能になるだろうけど、
2人以上の絡みとかは普通の人には難しくて作れないので買う形になって
プログラマ兼モーションデザイナーみたいな職業ができると思う 過去のAVから作るって、
顔だけ変えてとかのフェイク動画なら今でもできるだろね
AIが小説を書くのと同じレベルで
勝手にシナリオ作って動画まで作れるようになるとそりゃ凄いな
人間が指示しないと出来ないようなら、
女優男優に演じてもらった方が早い AVってヤッてることみんな同じじゃん?
ストーリー学習させたらAIが退屈して鼻くそほじりだしそう stable-diffusionのスレだから、LoRAを作るkohya_ssもOKでしょうか?
実は低スペックpcで実行してエラーが出て困っており、お助けいただけないかと。
12年前のノートパソコンHP-ProBook-4730sで、GPUはRADEONのため、フルCPUで実施しています。
512☓512の画像作成に30分はかかりますかねぇ((泣)
そんな環境で、無謀にもRoLA作成しようとしてエラーが出てしまいました。
学習は実行され、LoRAはとりあえず3個できたところでエラー吐いて終了。
自由に使えるパソコンはこれしかなく、ターゲットがエロ絵なので公開のサーバーを使うわけにもいかず、エラー解消して動かしたいのですが、技術的な助言をいただけないでしょうか?
実行中の端末から取り出したエラーはこんな感じです。
subprocess.CalledProcessError: Command '['/home/hoge/ダウンロード/kohya_ss
/venv/bin/python', '/home/hoge/ダウンロード/kohya_ss/sd-scripts/train_network.py', '--bucket_no_upscale', '--bucket_reso_steps=64',
'--cache_latents', '--caption_extension=.txt', '--clip_skip=2', '--enable_bucket', '--min_bucket_reso=256', '--max_bucket_reso=2048',
'--learning_rate=0.0001', '--lr_scheduler=cosine', '--lr_scheduler_num_cycles=10', '--lr_warmup_steps=325', '--max_data_loader_n_workers=0', '--max_grad_norm=1'
, '--resolution=512,512', '--max_train_steps=3250', '--mixed_precision=no', '--network_alpha=1', '--network_dim=8'
, '--network_module=networks.lora', '--optimizer_type=AdamW'
, '--output_dir=/home/hoge/ダウンロード/kohya_ss/outputs', '--output_name=mimudagirl_v1', '--pretrained_model_name_or_path=/home/hoge
/ダウンロード/kohya_ss/models/anyloraCheckpoint_bakedvaeBlessedFp16.safetensors'
, '--save_every_n_epochs=2', '--save_model_as=safetensors', '--save_precision=fp16', '--seed=1000', '--text_encoder_lr=0.0001'
, '--train_batch_size=1', '--train_data_dir=/home/hoge/ダウンロード
/kohya_ss/input/mimudagirl', '--unet_lr=0.0001']' died with <Signals.SIGKILL: 9>.
長過ぎると怒られたので適当に改行しましたが、エラーメッセージは1行で出力されました。 素直にマシン買い換えろ。
第八世代辺りの中古デスクトップなら1万円切ってる。 ダウンロードフォルダが原因じゃね? 2バイトコード名だし もしかして
AI生成って何回もリセマラしたり
一枚納得の出来る画像作るまで何日もかけたり
大量のLoraを用意するのが普通?
蒸留のような泥臭い方法はよくあること? >>71
Loraは盛りすぎると引っ張りあって変な画像になることもあるから使用するのは3個くらいまでじゃね?
用意という点でいえばDLした数が多いほど幅が広がるから好きなLoraを手に入れればいい
蒸留が何を意味してるかもわからんし泥臭い方法がなんなのかもわからんが
悪い部分をそぎ落とすのはプロンプトの仕事だからリセマラとは関係ない
版権絵をぶち込んで顔だけ固定するとかやれるけど泥臭いというより入手手段が合法で公表しないなら内心の自由みたいなもん
日数は遅いマシンなら1枚の絵を仕上げるのに数日かかったりはする
open pose とかControlNetとか使ってこだわるならもう少し時間がかかるかもしれん まず、AI生成のコツを掴むまでに、512x512の画像1枚にすら30分とかかけてたら不毛すぎるぞ
>>67 の状況とか
・生成時間の無駄
・生成してる間の電気代の無駄
・生成で負荷が掛かり続けてPC寿命を無駄に削る
>>71
生成時間、生成者の環境とか慣れ具合とか生成目的とか拘りぐあいで千差万別
それこそSDXL基本サイズ(1024x1024)1枚生成5秒以下の環境使ってる人と、>>67 みたいな環境使ってる人とじゃ何もかも基準が違う 最近始めてMeinaMixってやつそのまま使ってるだけなんだけど、顔エロくすると髪がよく顔に被さるんだけど何かいい対策ある? >>71
プロンプト1発で目的絵を出すのはある程度慣れた人か細かいこと気にしない人向けかな
低解像度で先に大枠作ったりLoraやCNでリセマラ繰り返しながら
自分流のやり方の確立とベースになる絵の資産が増えていく >>71
そもそも正確に細かい指定をすることができない
こっちが明確に指定したとしても、99%出る物や10%しか出ないような物が混在している
なによりあらゆる事象を学習しているわけでもないので、出力不可な要素もある
出る出ないを把握すれば、出る範囲で狙ったものを高確率で一発出しすることは可能 ebara pony(またはpony)でガチホモ絵を作ってます
受けの年齢を竿役と同じくらい(25歳以上)で出したいのですがyears oldなどのプロンプトを使ってもショタや少年で出力されることが多く狙った絵が上手く出せません
どうかお力を貸していただけないでしょうか >>67
新しいの買え
あまりに低性能すぎる。
その問題を解決しても、へたすると完成させるのに数日かかるんじゃないのか >>67
むしろそのスペックでLoRA3つも吐けたなら、自分もチャレンジしようかと思ったw
ちなみに11年前のOptiplex 9020 + GTX 1050 Ti 今なら約2万円
ComfyUIのCPUモード試してみたけど 512*512で7分、LCM LoRA使って1分、GPU+LCM なら12秒
動画とLoRA学習はColabやオンラインサービスでと割り切ってるけど。 >>76
無料の生成AIサイトがあっちこっちにあるからそこから試してみれば?
ローカルで環境構築するのは慣れないと時間かかるしなんとなく作り方のイメージ掴んだりpromptやLoraの使い方を理解するにはそっちの方が手っ取り早い >>77-78
便乗なんだが、完パケ生成までのプロセスってみんなはどうやっている?
ある程度プロンプトを固めたらガチャで100枚くらい引いて、その中で気に入ったシチュエーションを何枚か選んで、さらにパラメータいじって再生成?
それとも、きっちりとプロンプトとパラメータ追い込んでから、シード指定して量産? 10秒で出力できるんだから、
適当にガチャって捨てたほうが早い comfyUIにComfyUI ManagerをインストールしてComfyUI ManagerからWAS Node Suiteをインストールして、styleリストを適用させるのがうまくいきません。
https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
上の動画の11:25の部分
styleリストをcomfyUIに移植できない
Noneでしか出てきません
入っているとまずい構文のANDやBREAKは取り除きました
styleリストの移植は必須でしょうか
comfyuiではプロンプトの保存はどうやりますか >>85
それ聞いてどうすんの
別にどっちでもよくないか
答えるとしたらその日の気分でいろいろやる
たいていは新しく知った知識で試行錯誤してるだけで時間無くなるが Stability matrixからforge使ってると
たまにpythonが保護されてるメモリにアクセスしたとやらで落ちるんだけど
修正する方法ないですかね 男loraと女loraと2キャラでセクロス画像の生成ってどうやるの?
できればプロンプトのみで出来ないのかな? プロンプトのみは無理よー
2つのLoRAの効きを生成する画像に合わせて場所限定でさせるような技術は
拡張機能なしではどうにもなんない
人体が絡み合うと「この場所にある手とか足とかどっちのやねん! わからんわ全部一緒や!」ってAIちゃんが判断してしまう ebaraのbakedってこれなんのvae焼かれてるかわかる? >>93
たぶん標準のsdxl_vaeだろう、全く同じになるので ありがとうございます。
そういえばOSの事書いてませんでした。Ubuntu22.04デスクトップで実施してます。
2.5インチ型のSSD250GBで。7割くらい埋まってますか。
StableDiffusionは容量も喰いますね。
>>0068
う゛……万切ってるなら考えましょうかねぇ……でもグラボが高かったような……
>>0069
>>0070
あ〜そういえば、ダウンロードしたからってそのままそこでやってました。
一度試してみます。
>>0073
アニメでグサグサ刺さるやつですね(嗤)
まぁ、元々、ノーパソのリプレースで余ってクローゼットに転がって、何年も電源いれてなかったヤツなので、寿命はとっくなんですが、電気代は確かにもったいないかな……
時間は……寝る前にプロンプト仕込んで、朝起きたら何枚かできてるって感じですので、あまり気にしてませんでした。
>>0080
数日なんてそんな……このLoRA仕込んだときは、完成予想に250時間ってでました。
実際、六日ほど動いたところで、エラー吐いたんですが(嗤
う〜ん、岸田のせいでカネがないから、万単位のPCなんて手が……
>>0083
秒単位で1枚ですか。う〜ん……カネがあれば…… was node suiteの再インストールがうまくいかない問題が起こっています
https://github.com/WASasquatch/was-node-suite-comfyui/issues/322
手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります
パスは確認して合ってると思います >>94
chacolの色味違いすぎるからなにか特別なvaeかな?とか思ってたけどそうか…普通のSDXLか… >>97
chacolはXL_VAE_Cのc0使ってるなあ dynamic promptsみたいに
画像サイズをランダムとか交互に変えて、batch count入れて回す方法ってあるかな?
縦長と横長でやりたい >>95
俺もCPUで生成やってた時期はあるけど、圧倒的な速度差があるから本当に続けるなら買ったほうがいいよ
それに慣れるまではLORA作成が一発で成功することはまずないから、そのPCが順調に動いたとしても完成するのはいつになるかわからんぞ SDforgeで生成完了後にブラウザで表示される生成結果の表示を無効にしたいです。(生成された画像はすべて保存設定にしているため)
理由として長時間の生成をおこなった場合、中断に時間がかかっている状況で おそらく生成結果の表示に手間取っている影響だと思います。 >>87
数か月前のComfyUIと半年程前のWAS-NODE-SUITEでは動きました(最新版は不明)
>styleリストの移植は必須でしょうか
別途プロンプト用のノード(CLIP Text Encode等)を用意すれば問題ないかと
>comfyuiではプロンプトの保存はどうやりますか
画面右側のSaveボタンをクリックして、workflowの保存をしてください
>手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります
パスの記述内容が間違っていると、以下のエラーメッセージがコンソールに出力されるみたいなので修正してください。問題がなければComfyUIを再起動してブラウザを更新すればstyles.csvの要素が選択できます
```
WAS Node Suite Error: Unable to load conf file at `D:\***\ComfyUI\custom_nodes\was-node-suite-comfyui\was_suite_config.json`. Using internal config template.
``` >>101
settingsの「Quicksettings list」に
「do_not_show_images」追加してチェックでON/OFFする、(VAEやclipやEtaやら同様)
他にも「live_previews_enable」ってのもある 「do_not_show_images」は設定の「Gallery」にある「Do not show any images in gallery」やね
だけど中断に時間がかかる理由は別にある気がするなあ 答える前にあるんじゃないかって一応見たんだけど、自分のforge
(version: f0.0.17v1.8.0rc-latest-273-gb9705c58 )にはなかったので・・
https://i.imgur.com/eOdkqxw.png
左上は入れたやつね >>105
quicksettings listに入れた設定項目は「Settings」タブから消えるんよ つまり俺は嘘つきじゃねーか!
見落としてたのか、すまん >>102
ありがとうございます!
すべて直りました
style.csvの編集で1行目がemptyだとだめでした
1行目をname
2行目をempty
3行目からセーブされた名前
に編集したらいけました
それと¥マークが1つ足りていない箇所がありそこもうまく読め込めない要因でしたすみません
ところでforgeのプロンプトはどこに保存されているか分かりますか?
1111とは別のように思います
forgeのフォルダ内を見ていますがプロンプトが保存されているファイルstyle.csvらしきものが分かりません いい年齢がたたかだか数千円でと思いつつみんな他にもゲームやってたりするのか >>103
>>104
ありがとうございます。
まだ数時間以上生成からの停止は試してないですが、停止は早くなった感じしてます。 comfyUIでstyle.csvの移植に成功してPrompt Multiple Styles Selectorに表示されるようになったけど、Show Textでプロンプトが見れないです
実際にSelectorに繋いで出力するとエラーが出ます
Error occurred when executing Prompt Multiple Styles Selector:
unsupported operand type(s) for +: 'NoneType' and 'str'
このエラーコード分かりますでしょうか >>112
> comfyUIでstyle.csvの移植に成功して
これどうやったか教えていただけますか? >>114
はい、なんの知識もありませんがわたしでよければ
>>87にあるここの説明ですが、
https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
正確には13:35の部分を一時停止して見てください
この方は、一行目にemptyの項目を作成 と動画で紹介していますが、よく見ると2行目にemptyと書いています
パソコンでフルスクリーンにして見ると分かると思います
なので、
一行目は
A B C ←Exelの表の横のABC....のやつ
name prompt negative_prompt←一行目
empty←二行目(BとCは空欄)
セーブしたスタイルリストの名前←3行目(BにポジCにネガ)
となります
これで1111で使ってたプロンプトスタイルをcomfyUIで読み込めると思います
けれど自分はこのあと>>112のようなエラーが出ました
このエラーは、なんか判別できない記号が含まれてるよーみたいなエラー内容だったので
極力プロンプトをシンプルにしました
試しに
ポジにwoman
ネガにnsfw
しか書かないでセーブしてcomfyUIで読み込ませました
そしたらShow Textでも内容が見れましたし、出力も終えました
comfyUIで使えない構文が見直しても分からなかったので、シンプルにしました
ここから少しずつプロンプトを足していって編集していこうと思います
ワークフローをセーブすればいいんですが、1111から移植して使いたい場合、エラーが出たら極力シンプルにして徐々に足していくといいと思います
メモ帳より表計算のソフトで編集するといいです
私は編集はXLSX Editorというのを使いました >>115
1行目は
name prompt negative_prompt
です stability matrixでインストールしないとモデルやロラのサムネイル出てきませんかね?
view infoではサムネ見れてシビタイにも飛べますが
もうインストール紹介サイトありすぎてなんでstability matrixでインストールしなかったんだよと己と参考にしたサイトを呪ってる
しかも導入昨日から全然進んでないし
問題が解決しただけよかったが目標としてる動画生成まで辿り着けるだろうか いちいち問題に直面して辛すぎる
今はforgeで出力した画像をcomfyuiにドロップして生成するとなぜか汚いという問題に直面している
えんべでぃんぐフォルダを当ててないから汚いのかもしれないがforgeのときえんべでぃんぐ使ってなかったと思うのに
cpuではなくてgpuで出力してる
ああー心配
これもまたあした調べてみる
歳のせいか集中力が落ちてきてる comfyUIとか窓から投げ捨てたよ
ぶっちゃけあれ使ってる人がなにやら凄い画像を作ってるってわけでもないし・・
forgeがある今、「こんなの使ってる俺スゲー」みたいな欲が半分くらいある時間泥棒パズルゲームって印象 シビタイのvideoってタブにある縦長の動画を作りたいんだよ
その設定に四苦八苦してね全然進んでないんだけどさ
forgeは生成早いですね
comfyui配線ごちゃごちゃしてるけどこれから無線化するところさ
5chのスレも2つあってこれから困ったらどっちで聞いていいのかわからんち まだ初めて間もないのですが
どうも二人以上の絡みになると途端におかしくなる事が多いです
もしかしてみなさん、何回もやり直してるんですか?
そろそろ心が折れそうです・・・ 2人以上の絡みはRegional Prompterとか使わんとまともに描けんよ XLのponyとかはちょっとマシに出るかな、すでに使ってるならそういうもんです
1.5でやると専用のLora使ってもなかなか難しい >>123
画像貼ってどんな画像出したいかを書くとアドバイスもらいやすいぞ
二人以上の絡みって言っても体位や男女の数配置チェックポイントやLora含めて組み合わせ方が全然違う >>119
試行錯誤が辛いなら金で解決しろ
有料解説サイトがいくつもあるだろ >>128
もしよかったら質問したとき教えてくれませんか?
お金はなくてクレカで買ったグラボの支払いに恐れているくらいなので
わたしの質問をみかけたらどうかよろしくたのんます 質問者はグラボ何使ってるかぐらいは言った方が良い
VRAMの量によって回答内容が変わってくる質問は多い >>119に書いた通りなのですが、comfyUIで出力すると汚くなってしまう
forgeで生成した画像をcomfyUIにドロップしてみると質感がまったく違う
どこかの設定をいじらないと元の画質には近付けないですか? comfyUIとforgeまたはA1111は計算方法が少し違うので同じ絵は出ないです
計算式を近づける方法はあったと思うけど、完全に一致させるのは無理と言われてた 使ったことないからどうなのかはしらんが
a1111風に解釈するノードがあったはずやな >>135それはどういうことでしょうか
なにか思いついたことがあればなんでもお願いします
グラボはrtx3060 12gです
majinAIにアップしても情報がnullになってしまう
それでも比較画像をのせたら分かりやすいか hiresも1111が優秀すぎてね
comfyUIの誰かさんのhiresカスタムノードでやるとこれがなぜか汚い汚い・・
設定値あれこれいじってもどうやってもスタート地点(1111並み)に立てない
で、adetailerあたりでもの凄いノードの塊に直面
他人の既存workflowをコピペするだけとはいえ、意味わからないとって全部意味調べてるうちに
画像生成全くせずに一日中俺何やってんだろ、で嫌になって投げた
マイナスからスタートみたいな、で、その先にプラス部分は本当にあるの?って疑念がフツフツと
>>135
prompt中のtokenの強度分布が違うので1111に合わせるやつね
あれはあくまでその部分だけの話 >>137
素直に1111使用をオススメ
comfyUIは自分で利点を見いだせて、かつあのカスタム要素を楽しみ続けれる性格じゃないといずれどこかで投げ出すよ >>137
えぇ…そうなんですね
comfyuiでの動画生成が目的ですが綺麗な画像をforgeで生成して、それをcomfyuiにドロップして動画を作るってことはできますか?
comfyuiで画像生成は向かないのかな
>>134
質感がかなり違うんですよね
リアル系の画像を生成してますが人間に近い質感ではなく汚い感じ
forgeだと簡単にホイホイ綺麗な画像が出てくるけどcomfyuiでリアル系は厳しいのだろうか
comfyuiで生成した画像はmajinAIに載せられませんでした
サポートしてないと出た >>138
ありがとうございます
動画生成のanimatediffの手順までcomfyuiで覚えて、画像はforgeで作ります
苦労するとのお話なのでanimateDiffはどうやるのか手順を学んでみます sd1.5時代にいい感じだったシードを使ってsdxlで描くと、全然別ポーズになる。
シードって何なんだろうね。 PixAIは使ってる人居ない感じですか?
環境用意出来ないので頼りっきりで不安になりました comfyUIはサンプラーが1111にあるのが無かったり逆もあるし、カスタムノード入れないと1111系とはトークンの解釈も違うしbreak構文も使えないと違いは結構あるからね
カスタムノード入れれば使えるけど >>141
シードはStable Diffusionに最初に与えるノイズ画像を生成するもととなる数値
出力解像度が変われば異なるノイズ画像が生成されるはず
SD1.5とSDXLではもし最初のノイズ画像が同じでもモデルや内部の処理が違うから同じ結果にはならないよ
1.5で生成した画像と同じポーズの画像をSDXLでも生成したいなら、1.5の画像をもとにimg2imgやControlNetを使うのがよさそう >>140
情報小出しで全然わかんなかったけど、3060で動画生成が最終目標なら全然話が変わってくるよ
comfyUIに利点しかないのでcomfyUI頑張れとしか >>146
comfyuiで頑張ります
こういった動画を作りたいです
https://civitai.com/models/372584?modelVersionId=426894
作成手順が分からなくて
comfyuiを使うっぽいからYouTubeの動画見てる
作り方分かりますか? >>147
アニメ出始めの頃にちょっとループ系アニメをcomfyUIで作ろうとしたことあるけど、
最初のフレームと最後のフレームの画像を予め決めて、残りのフレームの前半で最初の画像から遠ざけ、後半のフレームで最後の画像に近づけていくようなワークフロー作ったらそれっぽいの出来るんじゃないかな?
長い動画は複数足していくことになりそうだけど、最近は最長でどれぐらいの長さまで一気に生成できるのかとかは自分もよく知らない
ただ、上記で書いたような事すら1111だと出来る気がしないので、アニメ作成はcomfyUIが一番ラクだし、グラボ3060だとなおのことcomfyUI一択か >>147
プロンプトスケジュールっつーnodeに15フレームごとに別々プロンプト書いていくのよ
いちおうa1111にもdeforumって拡張がある ' Batch pompt schedule' だった ID:yvMBHgIt0氏については>>138と同意見
ここでいちいち聞いてるようじゃお先真っ暗だと思う、comfyUI適性がない
敷居が高くて人口が少ない上に、さらに人口が少ない動画生成ときてるので
https://comfyworkflows.com/
こういうところから他人のワークフロー落としつつ、自分でコツコツい調べていく感じの人じゃないと
なお自分は無理な側だった >>148
ありがとうございます
comfyuiは動画生成に強くてA1111は画像生成に強いということでしょうか
今は関係ないかもだけどアップスケールについて動画見てます
>>115の次の動画
一気にanimatediffの動画見ても分からなさそうだったので
>>150
ありがとうございます
昨日から問題に直面してばかりだから一筋縄ではいかないでしょうがやってみます
最終的に教わった通りに生成できたら嬉しい
すこーしずつ >>151
厳しいのは昨日の時点で感じた
わんさかエラーが出てくる
いつのまにか1111も起動しなくなってたし
一気にすっとばさずにステップ毎に学んでいくよ
大変そうだけどなぁ >>152
comfyUIが動画に強いというか、それ以外が動画適正悪すぎるという感じ
特に長時間(2秒以上)のループ動画とかはまぁ1111で現状ほぼ無理じゃないかな
短時間ループぐらいなら1111でも拡張とかでいけそうにはおもえるけどね 動画やりたいって確固たる目的があるのはいいね
自分みたいになんかかっちょいいじゃん?みたいなヨコシマな心だと折れるのも早い とりあえず動画で公開されてるワークフロー探してきて、まずはそれ動かすところからじゃないかなあ 質問です
SDやらforgeやらの環境構築するには
ストレージは何Gbほど必要でしょうか? モデルやらLORAやらcontrol netやらを使うことを考えると100GBぐらいはないとあっという間にモデル関係だけで埋まる
あとはどれぐらい画像生成するか >>157
本体+checkpoint+lora用にM.2 SSDが1TBは最低欲しい
画像保存用は別にHDDでも外付けSSDでもなんでもいいので多めに 2TをSD専用にしてるけど、残り700GB
そんな世界です ミッドジャーニーで出した女の顔を固定してSDで大量生産してくれと言われたけどムズいわ
Lora作ったほうが早い? 皆さん回答ありがとう
なるべく大きい容量用意しようと思います、感謝 >>162
MJってちょっと前にそういう機能実装されたんじゃなかったっけ?
cref(キャラクターリファレンス)とかいうの
って、検索したらSDには敵わないみたいなこと書いてるサイトあるね
> まだ、顔固定はStable Diffusionに軍配が上がりそうですね >>157
モデルファイルはHDDではなくNVMeのSSDに入れること
数GBの読み込みはHDDだと1~2分かかるけどNVMeなら長くても十数秒だからね 目の中心(黒目の部分)の色だけ変えたい場合ってどうやったらいいのかな?
red eyesとか入れても白目の部分だけ赤くなって中心の瞳が黒いまま色が変わらない。 中心からこの順番
pupil 瞳孔 < iris 虹彩 < sclera 白目 < eye 目
eyeに色指定するとirisが変わるモデルが多いね red eyesだけはただの色指定だけじゃなくて
写真での赤目現象とか寝不足とか充血とか
広範囲の意味があるから描画の動作が少し変わるよ 髪長めでパラッと左右に広がってるようなモデル使ってロングヘア指定すると
髪がマントやコートに化けてしまうんだけどこれ防ぐにはどうしたらいいですかね? ネガティブにマントやコートを入れればいいんちゃうの? >>170
それやったんだけどあんま効果なかったんだ
ポジティブ側にもcompletely nakedが入ってる状態なんだよね 末端が溶けちゃって融合するアレか
強いて言えば髪の先端もちゃんとpromptに組み込むことかな
先っちょがちょっと跳ねているみたいに
SDはpromptにあるものはきっちり描こうとするから、これで溶けるのを減らせる
同じように服を半脱げにしたい時は肩にタトゥーとか入れるとそれを描写するために脱ぐ negpipは試した?
あれはかなり強烈に削除してくる なるほど確かに
色々試してみようかな
もしかするとLong hair閾値よりもモデルの髪のが長い(脚ぐらいまである)からそれを補うために化けてるのかも知れん
どもども negpipってなんて読む人がおおいの?
ねぎぴっぴ? >>175
頭の中ではねぎぴっぷになりがち、人と話すならねがぴっぷかなあ a1111がいつの間にか1.9.3だが1.9.0から何か変わった? 地震系のショートフィード
YOUTUBEのAIは、写真のような高精細な画像のほうが
優先的にショートフィードに乗るみたいだが
無料で出来るところないですかね?
「bing デザイナー」や「google gemini」は
いかにも生成AIで作りましたっていう画像しか生成できない
無料の壁??? 災害系のフェイク画像とか動画作る奴らはホントにクソ comfyuiでワークフローを部分的にセーブするにはどうしたらいいですか? よくモデルやstep、LoRAの重みの比較で生成画像を並べて上や左側にステータス情報を書いた画像を見掛けるのですが
どのようにすれば作れるのでしょうか
SD forge版を使用しています 内蔵の機能や設定で再現可能ですか? >>188
画面一番下にあるscript欄から設定でできる
X/Y/Z plot でググレカス 3060tiのvram8GBで版権キャラのえっちな絵を作りたい場合はnovelAIとsd forgeどっちの方がいいんや
DRAMは32GBあるけどあんま関係ないよな? >>189 >190
ありがとうございます!助かりました >>191
novelAIはWebサービスなのでパソコンの性能は関係なく、スマホでも画像を作れる
SD ForgeはVRAM8GBで問題なく画像生成できるでしょう
メインメモリも32GBなら十分です
版権キャラのえっちな絵を作りやすいのはどっちだろう?
ひとまずタダでできるForgeでやってみては
学習モデルはPony Diffusion V6 XLがいいでしょう >>193
細かくありがとうとりまforgeいれた
学習モデルっていうのは自分でキャラを学習させる感じ? forgeってXL専用?
1.5でi2iで拡大すると時間は異常にかかるわ絵はボロボロだわで使い物にならない >>194
なるほど、そこからか。
学習モデルは学習済みのモデルファイルのことで、ダウンロードしてきて所定のフォルダに置けばいいんよ
あとはこれ読んで。長いけど基礎知識が1記事に詰まってる
AIイラストが理解る!StableDiffusion超入門【2024年最新版】A1111、Forge対応|賢木イオ @studiomasakaki
https://note.com/studiomasakaki/n/n7ad935416c5d >>195
ForgeはSD1.5も使えるよー
いったん出した画像をもっと大きなサイズで出し直したいときはhires.fixを使うといいよ
それでうまくいかなかったら、拡大前の画像と拡大した画像をcatboxに上げてここに載せてくれれば問題の切り分けをしやすいと思う ホントに頑なになんのグラボ使ってるのかとか解像度どれぐらいだとか書かない人ばっかりだな…… >>196
checkpointのことか初心者だから知らなかった >>198
義務教育で2進法は習わない時代だよ
あらゆる基礎の0,1ですらわかんねえのに
グラボおいしいの?くらいだろ >>199
いいのいいの、誰でも最初は知らないからね 俺のSD導入初日は
「なんやねん、チェックポイントって・・・
学習モデルとかデータとかそれっぽい英語名でええやん・・・」
「ローラって誰や・・・」
ずっとこんな感じだった気がする >>198
3060TiのVRAM8GBってちゃんと書いてあるやん
何が不満なんだ? >>203
>>196 とかそれ以外のコレまでのスレ内のことだぞ?
別にちゃんと詳細書いてる人のことではない 環境を説明しないのはA100だけど、初心者なのにA100だなんて言い出せないからかもしれん
書いてなければA100前提で答えればいい >>202
それな
日本語訳と英名のイメージ違いすぎる
なんやcheckpointって そういう考えなくていいところで悩むのはもったいないと思うんだぜ
なるほどそういう風に表現してるものなのか、で済ませた方が心が楽 >>208
もちろんそーなんだけど勉強とかでも聞いたことある単語出た覚えやすいよねって >>195のForgeはXL専用ですか?という単純な質問に詳しい情報いるか?
従来のモデルも使えるしXLモデルも使える
ただControlNet系の拡張は使えないものがある >>202
俺は物知りだからローラがヴィーガンなのは知ってるぞ😤 >>202
SD出始めならまだしも、今なんて解説サイトがわんさかあるのにそれは流石に無理がある 導入し始めた時はチェックポイントなんか一個しかなかったし、1111もなかったから迷う余地が無かったな
トークン制限で苦しんでたのが嘘のようだ 自分もcheckpointは混乱したくち
みんなモデルモデル言うからcivitaiでmodelって単語探したら無いし、
後にcheckpointって言うんかーいって感じだった AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな? AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな? > AIピカソ
なんだっけ・・
板の過去スレ検索したら2022年9月頃にポツポツレスが出てくるけど
あんまり使ってる人見たことない >>217
普通に添付できたよ
アプリを再インストールしてみては キャプションを見直すためにWDtaggerを導入しようと思うのですが、以前、「開発者が変わったから、それ以降のヴァージョンは信用していいのかどうかわからない」みたいな話があったのを思い出しました。実際の所、大丈夫だったのでしょうか? githubにあるんだから
ソースコードが公開されてるのでは? いま拡張機能タブの「拡張機能リスト(Available)」で読み込まれるのは
「WD 1.4 Tagger」 https://github.com/picobyte/stable-diffusion-webui-wd14-tagger.git
で、このURLは当初とは変わってる気がする(記憶が曖昧)
問題がないと保証はできないけど、問題があるという話も聞かないな タグ自体の意味もタグの使い方もどんどん変わってるしな
ダンボールタグ信者がいたころが懐かしい >>224
ソースというか、この板かお絵描き板のどちらかで以前そういう書き込みを見ただけです。それ以降何も言及がないなら、多分大丈夫ってことですよね…不安はあるけど、使ってみることにします >>226
おまえさんが使ってみて何か問題があったら報告してくれればそれでいい >>226
公式からリンクされていてgithubにあるのなら、たくさんの目が見ているだろうからまず大丈夫だと思うよ
楽観的すぎるかもしれないけど オープンソースであることと病的でないことが一切結びつかないから何が「オープンソースなのに」なか分からん…… ソースが読めない者にとっては、フリーソフトもウィルスも同じだね 匿名のここに太鼓判おしてもらったら
okっていうのも謎だし、
言ってることが全部おかしい そこ疑ってたらローカルで画像生成なんかできんぞなもし
拡張機能なんか管理者権限でPython走らせてんだから お騒がせしてすみません
昔フリーソフトでマルウェアが検出されたことがあったせいか
ちょっとトラウマで…
a1111とかは割り切って普通に使ってます 気になるなら
物理的にマシン2つが管理も楽でいいぞ https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd
のワークフローで生成しているうちにぼやけたりグロテスクっぽくなってしまう
バッチサイズはすべて統一してるのだが
288×512はやめたほうがいい?
けどこれは関係ない気がする
参照動画で使われてたサイズだし
サンプラーはIcmから変えてないカラスに変えると砂嵐になるため
なにがいけないんだろう
プロンプトは入れてもあまり意味がないとあった
けどipadapterはプロンプトで補強しないと正確性はあまりない
最初にモデル読み込んで、画像読み込み、Icmというサンプラーでやると参照画像からかけはなれてしまうデノイズ1より下げるとすぐノイズが入ってしまうし分からん まずは破綻しないのと顔を再現したい
そこだけでもいいから覚えたい 諦めたくない…諦めたくないよお
…
些細な情報でも構いません
読み込んだ画像に似た生成のやり方をご存知のかたお願いいたします
ドアップになるか、破綻するか、グロくなるか、似ていない顔
のどれかになってしまいます img2imgでやってるならCFG ScaleとDenoising strengthの調整してる?
大きすぎると破綻するよ どんな画像をもとにどんな動画を作りたいのか書いて、今どういう動画ができているのかimgurかcatboxにでも上げてよ
「読み込んだ画像に似た生成のやり方」では答えようがないよ
「諦めたくない」とかわざわざ書かなくてもいいからさ、聞きたいことを1つの書き込みに簡潔にまとめて書いてくれ ・顔を再現させ似せる事が重要
・GWに突然5chに連投して「諦めたくないよお…」
これだけ見るとヤバい案件としか思えないんだが…
いやまあ愛犬のカワイイ変身動画かもしれんけどさ ID:nOmMWpWW0
ここで泣き言言ってる人が自分で調べまくる必要のあるcomfyUIは無理、諦めなさい
上の
ID:yvMBHgIt0
だよね >>ドアップになるか
とか書いてる時点で読み込んでる画像の解像度がおかしいか、出力画像解像度がおかしいのではとは思う
まぁこのスレってエスパー検定率高いよね
たまに一流エスパーが即解答して真顔になるときあるけど 『AI生成で楽して副業』などの動画みて
調べる気ないのにやり始める人が多いけど
無責任動画だしてる人が最後まで教えたらいいのにな
それ系動画のコメ欄に書いてるのも見るけど、
質問コメは華麗にスルーしてんよな
面倒みろよw
コメ欄で無視され、こういうとこにくる (ふぅ…散々な言われようだが落ち着け落ち着くんだ
GWに諦めたくないよう、GWは関係ないだろっ
だめだ落ち着くんだ)
おはようございます
起きました
罵る系のレスも少々ありましたが、たくさんのアドバイスありがとうございます
言われたとおり、状況を冷静に伝えられるかトライしてみます
ヤバイ奴なので何時間かかかるかもしれませんがまた書き込みいたします (いや、だからそういうのをわざわざ書く必要はなくて、質問だけを簡潔に書いてほしいってことなんですけどね) 真似したい動画はこちらで
https://civitai.com/images/9650365
最初は、こちらのワークフローで生成していました
https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd
↑4/27に更新されています(自分は更新前のワークフローで生成を試みていました)
真似したい動画に似せるどころか顔も変わってしまうので投稿者の言っている設定にできないものか思案していました
真似したい動画をDLして、それをcomfyUIのvideo infoというノードに動画をドロップしたら、投稿者がコメントで言っていたワークフローが出てきました
もちろんそのワークフローで生成しても崩れてしまいます
ワークフロー
https://comfyworkflows.com/workflows/7581cbd1-1cd5-4f3a-a9aa-80f5ceeb686a
読み込ませた画像
https://i.imgur.com/SrcFrfF.png
https://i.imgur.com/vOcgUwI.png
https://i.imgur.com/llYz9A9.png
https://i.imgur.com/xEEZLwd.png
生成動画
https://i.imgur.com/r2jLBiz.mp4
RTX3060 12gb
自分の画像には長い髪の毛が写ってないので最初から狙ってはいませんが、ぼやけたり顔が元よりかけ離れるのがわかりません
ワークフローでは間違ってloraを強めにかけてしまいました
アップスケール前のKsamplerでIcm以外を選択すると砂嵐になる
実写系の画像なので、dpmpp_2m karrasを選択しないとどうしようもないのでは
288-512というサイズのせいでこうなっているのか
始めから真似したい画像を成功させようとは思っていませんが、まずはロードした画像に動画の画質や造形を近付けたいです >>249
学習データにはこの画角は無いんじゃないかな
つまり上半身か全体を描写させないと上のような症状が出る
わいなら全体を生成してアップを切り出すワークフローで作れる >>250
ありがとうございます
顔の周りを髪がぐるぐる回ってるのはどうやるのでしょうか
もう少し詳しくお願いします
①まず身体全体を画像生成する
↓
動画にする
↓
アップを切り出すワークフローで作る
↓
そして、アップにした顔の周りに髪の毛を付ける?
②身体全体の生成の段階で髪の毛も纏わりつくように画像生成する
↓
動画にする
↓
アップで切り出す
①と②どちらのやり方が近いですか
投稿者はqrcodeの50あたりから開始して350で終わるとコメントしてますがパターンはこちらで合ってますか?
https://i.imgur.com/FZojh3v.mp4
このパターンの50あたりから開始、終わりは350と翻訳で出ます
破綻しているせいかもしれませんが顔の向きを常に正面に向けるのも難しかったです REACTORで置き換えた顔の表情を変更するのって何か方法があるのかな?
プロンプトで何を指定しても笑顔が出てくる。
すまし顔とか困った顔が欲しいんだが。 惜しいところまできました
https://i.imgur.com/9uxOncC.mp4
更新されたワークフローをDLしてそれに画像をロードしました
CreateFadeMaskAdvancedのサイズのとこまで288-512にしちゃってました
それを512-512のままでやったらぼやけるのはなくなりました
モデルによってかなり変わるので変えながら試してみます アップスケール前ですが近いのができたので、オリジナルの画像生成に移行します
ちょびちょびいじりながら少しずつ覚えていきます
たくさんのアドバイスありがとうございました
また行き詰ったら立ち寄ると思いますが、どうかよろしくお願いします
https://i.imgur.com/UVfZ2Gq.mp4 だめだああああ
ここからが遠い
みなさんにいくつか簡単な質問をしてもよろしいでしょうか
comfyui適性のないわたしですが何時間も格闘しても解決できない問題はあるものです
>>249に纏めてありますが
今回の問題は、顔の周りにどうやって髪の毛をまとわりつかせるか?です
あす内ハネ外ハネ巻き髪等のプロンプトを試してみますが、恐らくですが投稿者はダークレッドのスカーフで口元を覆っているのではないでしょうか
covering mouth with a darkred scarf
このようなプロンプトで口元は隠せます
しかし次の画像で髪の毛(口元含む)に変化をつけないと動画に動きが出ません
どなたか名案をお持ちでないでしょうか
windy hairで風で髪をなびかせられますが、風で髪が煽られると顔が露わになります
どなたかお願いします
問題はこれだけにとどまらないのですが
諦めたくない
諦めたくないようううぅ 目が醒めたらアドバイスがきてることを願います
みなさんのGWの有意義な1日も祈ります物価下落も祈ります
顔の周りに髪を纏わりつかせたい
真横に流れるように流線的な動きのある髪です
もしかしたらこれは、>>251にあるqrcodeのパターンによって生成された髪かもしれません
画像をロードする前は波打つような髪ではなかったが動画生成時に髪に動きがついた…のかもしれない
しかし多少は真横に髪が流れていないとあそこまでうねうねした動きは出せないと思います
どうかお知恵をお授けなすって
わたしは諦めたくないです 相手したやつが面倒みるんだから
放っておいていいよ 理想を叶えたいなら聞くべき場所はここじゃないんだけどな
先人の知恵がいつでも無料で簡単に手に入ると思ってはいけない
相手の時間を自分のために使わせていることを常に考えた方がいい それは考えてますけど…有料はきついよぉ
他のスレの方ががいいのかな
どうしたらいいのでしょう
うーん >>259
みんなが答えを知っていて、意地悪して教えないわけじゃないんだよ
質問の内容がわからない、わかっても答えられる人がいないから回答がないことだって普通にある
そうなるといくら頼まれたって無理なものは無理なの
それは理解してくれ >>262
それはうんそうだよね
だから自分一人喚いても仕方ない
モデルひとつ変えただけで挙動が大きく変わるし、ほんとうにモデルのせいなのか?サンプラーなのかcfgなのかSchedulerなのか手探りでやっていくしかない
みんなごめんね
もし分かったらでいいので教えてくれると助かります
ここはいつも見てますので邪魔してごめんなさい クレクレうざすぎるからNGつっこんだ
そもそもComfirmは使う気にもならんし うーん
口元を髪の毛で隠すのはモデル的に無理みたいだ
そんなloraもない
だからみんなloraを作るのか? フォトショップで髪を伸ばすのか?
フォトショップなんか使ったことないぞ
なんでもいいからcomfyui以外で髪で口元を隠せばいけるかもしれん 一応今はgimpを利用して髪の毛の合成を考えています
さすがに自分で合成したとなれば動きのある動画になると思うのでね
次はgimpの使い方を学びます
遠回りのようでこれが近道と信じて ここは質問スレであって日記帳ではないので、単なる報告や独り言は書き込まないでもらえるかな Midjourneyですか?簡単にこの女性出せるんですか? そうじゃない
その聞き方するならDiscordのどっかのコミュニティでコテハンでやるほうが向いてるという話 そんなコミュニティがあったのか
Discordで聞くなんて思いもつかなかった
ちょっと調べてみる >>273
これを作りたいんだったら
アニメーションリフト
ディープフェイク 2つ使った方が楽やろ ここのニキらは優しいからそのお方を相手しとるんやろけど、そのお方は然るべきディスコにでも行ってもろてそっちで思う存分活躍してもろたほうがええと思うで
そのお方が居るというだけで、何人の有能ニキたちがスレをそっ閉じしたことやら ちな272氏とはワッチョイ被りで別人やで
連投すまんの なんとか今日も諦めずに少しでも前進したい
あまりクレクレ言うと怒られるから forgeでxlを使っているんですが、チェックポイントを切り変える時にロード時間が以前よりも長くなりました
コマンドプロンプトを確認するとロード時にcalculate empty promptの部分が400-500sかかっています
この部分は何の影響を受けているかご存知の方はいますか?
lycorisの奴はもとから入っておらず、forgeはSSDに導入しています
forgeは使い始めた時から最新版(2月のもの)で、拡張機能も使い始めたときに導入したっきりで途中で追加していません >>279
別フォルダにforgeをインストールしてみて、同じようにモデルの切り換えに時間がかかるならストレージに不具合が出ているかも
もしモデルの切り換え時間が短くなったら今まで使っていたforgeになにか問題がある
みたいな切り分けをしてみては VRAMが大きくない場合は、メインメモリと仮想記憶を使いまくっているらしいので、そのへんをチェックしてみたら というか
> calculate empty promptの部分が400-500s
これだけならかなりおかしいよね
> Model loaded in 19.0s (load weights from disk: 10.2s, forge load real models: 7.9s, calculate empty prompt: 0.8s).
ここの他の部分はどうなってるの?全部貼ってくださいな >>279 です
みなさん返信ありがとうございます
以下で解決しました
>>282 のDisable memmapping...にチェックを入れて実行したところロード時間がさらに増大(20分くらい)したので
チェックを外してもとの状態に戻して実行したらモデルのロード時間が直りました(60-100s)
>280
forgeがあるドライブには問題ありませんでした(断片化なし)
>281
新しくインストールしようとしたのですが別の問題が発生してインストールが現在できませんでした
次問題が発生したときは新しくインストールして様子を見たいと思います
>283
問題があったときはモデルロード時にはメモリが98%に張り付いてPC自体が10分ほどフリーズといった感じでした
解決した今は重くなることはありますがフリーズはないです
>284
ログをコピーできていなかったのですが大体
forge load real models:100s, calculate empty prompt:400-500sでした
他の部分は特に時間がかかっているということはありませんでした Openpose Editorをインストールしたのですが、Openpose Editorのタブが表示されません。
調べた手順にのっとって、以下のURLをインストールして、applyや再起動もしました。
https://github.com/fkunn1326/openpose-editor
しかし、出てくるはずのタブが表示されません。
ちなみに、他の拡張機能で、同じようにタブが追加される拡張機能(Depth map library and poser)を入れたのですが、そちらもタブが追加されませんでした。
何か間違ってるんでしょうか?
Stable Diffusionのバージョンは以下です
version: v1.8.0
python: 3.10.10 >>286
Openpose Editorのページに記載があるように23年末で更新が終了しています
それ以降のバージョンのWeb-Uiでは正常動作は難しいかも
一応フォークで更新されてる物もあるようなのでそちらを試してみてはどうだろう(動作するかはわからんが) >>287
なんと、そういうことだったんですか。
ちょっとページを見てみたのですが見つかりませんでした。
では、自分の環境に古いバージョンのwebuiがあるのでそちらを使って画像だけ生成しようと思います。
助かりました、ありがとうございます。 mov2movとかも最新じゃもうタブ無くて使えないからなぁ サイトを見ながら勉強している段階なのですがModel hash: というのはどこに入力するんでしょうか? >>290
なんのどれを勉強してるのかわからないけど、それは直接入力する必要はありません
選択したモデル(checkpoint)のハッシュ=指紋みたいなもの
ローカル側でモデル名を勝手に変えたりできるので、一意にこれってわかるように随所に表示されてる 勉強なんてしてないでとにかく導入するなりオンラインのサービス使うなりしようぜ
座学は体験に比べるとカスみたいな経験しか積めない >>289
花札アイコンを押してLoraを選ぶ、という説明がたくさん出回っているが、もう花札アイコンはない Stable Diffusion3の情報をROMりたいのですが
どのスレで話題になってるかご存じの方いらっしゃいますか?
ほとんど話題になってないのでしょうか? >>294
SD3の情報はまだほとんど出てきていませんね
SD3に限らずSD関連の情報が早いスレは、なんJNVA部です
なんJNVA部★391
https://fate.5ch.net/test/read.cgi/liveuranus/1714702930/
ただ、とても書き込みが多いので特定の話題だけを追うのは大変かもしれません SD3は早いのまだTwitterだと思う
スレではあんまり easynegativeXL入れたら1時間かかるようになってしまった
なんかおかしいですよね うん
今なぜそれを使おうとするのかというおかしさを感じる XLはプロンプトの応答性いいから
ネガティブも最低限でいいよ
最近アップされていてプロンプト見られるものを参考にするといい すみません
古いコマンドプロンプトを複数開いたままなのが原因だったようです
>>304
まじない見てみますありがとう XLのembeddingsって最初あれこれ入れてみたけど、
1.5の頃のと違って特に効いてる感じもしなかったので悪影響心配して外したな
negativeXL、negativeXL_D、unaestheticXL_なんたら、あたりが残ってる
そういえばXLなのになぜか1.5のネガそのまま入れてる人たまにいるけど、あれって効いてるのかなぁ・・
画像がぶっ壊れたりしないのは逆に驚いた とりあえずponyとは相性悪く感じるから
ネガティブは自分でいれてるな >>306
ネガって品質系は1.5時代から余り効いている感じがしないな
low qualityって入れたら画質があがったとか思えない 画質が上がるわけじゃないからな
微妙判定された絵を弾くだけ ネガのプロンプトが有効かどうか、怪しいのはポジ側に入れて1つづつ試してる ネガに入れた単語に反応してポジ出力してんだろお前みたいなことがたまにある ネガにnsfw, nipples, nude,,,とか入れると「本当は見たいくせに〜ホレッ」て感じで出る事がよくある >>312
あるある
extra armsやwrong anatomyはダメだぞ、って口酸っぱくネガに書いたら
とたんに手が何本も生えて内臓を腹の上にぶち撒けたようなバケモノを出力する プロンプトに入れたワードがあまりピッタリこなかったので削除したのですが、その後の生成にも影響が残ってるようなのですが、影響を完全に消すにはどうすればいいのでしょうか? 再現性の無いバグっぽい挙動で影響が残るケースはありますが、基本的にずっと残ることは無いです
おそらくそのプロンプトとは関係なく出ているだけかと
どうしても心配ならPCごと再起動してください 昔から噂があって、オカルトだのメモリ管理ミスだの言われてるけど
1枚じゃなくずっと続くみたいなのはなんか勘違いしてる可能性大
単純に類似プロンプトの一部を消し忘れはよくある
coffee, ..... , ..... , cafe, ......
でcoffeeだけ消して「いつまでもcoffeeが出る!」とか
あとwebuiのInfotextの設定でstyleが一部勝手に適用されてたり
> Apply: remove style text from prompt, always replace styles dropdown value with found styles (even if none are found).
あるバージョンから入ったこれで頭抱えたことある 足したプロンプトがイマイチだったから削除して生成し直したときに、いま削除したプロンプトが効いていたことはあった
あーこれかみたいな感じ
どうやって解消したかは覚えていない
次にこの症状が出たらシード値を-1以外にするというのを試してみたい そんな状態の画像をメタつきでアップしてほしい
気になる 1.5しかまだない時代にちょくちょくスレに報告あったよ
前のが残ってる時があるって レスありがとうございます
詳細はわからないがそういう傾向があるみたいですね
AIという知性体なんで割り切って慣れるようにしてみます 逆にプロンプトいじってみたが前の方がよかったみたいなときに、UNDOで戻せる機能が欲しい。
いちいち保存して読み込むのも面倒だし。 LoraのマージがしたくてSuperMarger使おうと思ったんだけど何度やってもタブが出てこない
競合があるのかと思ってbuilt in以外の拡張外したりはしたけどダメ
ちなみにcolabのSD1.5
解決策や代替案があれば教えてくだせぇ 相対数からゼロに近い おっさん、風景、線の少ないデフォルメマンガ絵など絶望的
女のエロ関係ばかりだAI絵
なんでだ? 生成できない理由はなんだ?
クレヨンしんちゃん+ガンダム+幼稚園の風景 パクリ要素の見えないガンダム1000体
なぜできない?