X



【StableDiffusion】画像生成AI質問スレ22
0001名無しさん@お腹いっぱい。 (オイコラミネオ MM7f-JeaO)
垢版 |
2024/03/23(土) 14:16:20.22ID:N0ymcDqFM
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください

Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。

質問する人はなるべく情報開示してください

・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く

テンプレは https://rentry.co/aiimggenqa

※前スレ
【StableDiffusion】画像生成AI質問スレ21
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0003名無しさん@お腹いっぱい。 (ワッチョイ adfa-rfcW)
垢版 |
2024/03/26(火) 14:21:13.45ID:X7niUkeB0
たておつ
前のスレでforgeのLoraの初回が遅いってやつ
それが発生したら一回生成すればちゃんと動くけど毎度待ってらんないから
一旦生成はキャンセルして再生成するとちゃんと動くようになるよ
なんだろうねバグかね
初回生成すらできないのはブラウザ更新かければ動くようになるよ
0004名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
垢版 |
2024/03/26(火) 16:51:47.45ID:uBsKwyQ/0
前スレの995です
返信ありがとうございます
>0995名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
>最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが
>2070の8gbを使用かつモデルが大きいからそのようなものでしょうか

Lycorisの拡張機能は元々入ってないようです
Diskinfoでチェックしてみましたが、正常で問題ありませんでした
>0996名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz)
>>>995
>それはさすがに時間がかかりすぎだと思う
>しかしどうしてだろうね?
>こういうのもLycorisの拡張機能をオフにすれば改善するのかな
>気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか

CドライブがSSDなのですが、C直下に入れるのが嫌だったので内部HDDのDドライブに現在入れています
その環境下でSD1.5のモデルを読込む際は2GBのものは30秒程度、3GBのものは60秒程度で、SDXL(6GB)の場合は600秒程度要します
SDXLのような大きなサイズの場合にのみ影響が発生することはあるのでしょうか
>0997名無しさん@お腹いっぱい。 (ベーイモ MMc6-CYwW)
0005名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
垢版 |
2024/03/26(火) 16:52:26.61ID:uBsKwyQ/0
a1111ではsdxlを試していません
forgeにしてからSD1.5の読込はa1111と比較して快適になったのですが、上記にあるようにSDXLの場合に明らかに長くおかしいと思い聞いてみました
そういった知識がなく理解が怪しいので返答としてあっているのか分かりませんが、
RAM16GBを使用していてSDXLモデルを読込んでいる最中は使用量が95-99%を占め、利用可能が200MB〜1GB程度でコミット済みが35/40GB程度です
>0998名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro)
>文章的にa1111は問題なかった?ように読めるけど
>forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか
>メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない?

インストールし直すことにしまして以下のコマンドを使用しました
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git
元々最新verを使用していて、今回も最新verをインストールしました
ですが改善はされませんでした。おすすめのverとかってありますか?
0006名無しさん@お腹いっぱい。 (オッペケ Sr79-2m9H)
垢版 |
2024/03/26(火) 17:08:25.94ID:XBI5mrXPr
メインメモリ16は少なすぎるし
HDD上で動かすのも良くない
メモリはせめて32、できれば64↑
SDはSSD上で動かす

Xはモデルデータか大きくなったから1.5の時に感じにくかったスペック問題が顕著になってる
0008名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz)
垢版 |
2024/03/26(火) 17:45:34.39ID:+VX7H6no0
モデルはSSDに入れるのがいいと思う、読み込みの早さがぜんぜん違うから
モデルが入っているフォルダを指定する方法もあるから、forge本体はHDD、モデルはSSDという運用も可能
「webui-user.bat」で「set COMMANDLINE_ARGS=--ckpt-dir c:\\sd\model\sdxl」みたいに指定する

メインメモリが16GBで足りないってことはないんじゃないかなあ
forgeとブラウザのほかに大きいアプリケーションを起動してなければ大丈夫じゃない?

forgeでおすすめのバージョンは特にありません。考え方は人によるけど、forgeはいつも最新を使うのがいいと思う
0009名無しさん@お腹いっぱい。 (ワッチョイ 6e41-lp1z)
垢版 |
2024/03/26(火) 17:47:15.43ID:wEjgLBtH0
前スレでcleavage cutout教えてくれた方
ありがとうございます
シコる前に一言お礼を言わせてください
0011名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro)
垢版 |
2024/03/26(火) 18:17:16.57ID:BUl+x2840
前スレ
https://mevius.5ch.net/test/read.cgi/cg/1703243927/918
> dynamic promptsのchunkが生成ファイルに残らない
これ「ReloadUIしてなかった」で解決と思ってたけど違ってて再発


https://github.com/Bing-su/adetailer/issues/447
https://github.com/adieyal/sd-dynamic-prompts/issues/703
Adetailerと併用すると消えてしまうとのこと、たまたまadetailer使わずに治ったと思い込んでた模様

https://github.com/adieyal/sd-dynamic-prompts/pull/705
で、とりあえずは治りました
報告まで・・・
0012名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
垢版 |
2024/03/26(火) 19:08:49.85ID:uBsKwyQ/0
4です、ありがとうございます
SDXLのモデルをSSDのCドライブに入れたところ、10分の読込が2,3分に短縮されました
HDDを使っていたばかりにお手数おかけしました
容量を気にせず使えるように外付けのSSDを購入しようと思います
返信していただいた方々ありがとうございました
0013名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4)
垢版 |
2024/03/26(火) 20:16:39.73ID:TfP3Ko6R0
数日前から、VAEを変更しても生成結果に表示されるVAEのハッシュ値が変わらない現象が発生してます
元々vae-ft-mse-840000-ema-prunedを使用しており、ハッシュ値も正しいもの(735e4c3a44)が表示されていたのですが、sdxl_vaeを1度使用してから、VAEの、ハッシュ値がsdxl_vaeのもの(63aeecb90f)に固定されてしまっています
UI・端末再起動、VAEの削除、再ダウンロード等試しましたがハッシュ値の固定は解消されません

この現象が起きてから生成画像のクオリティが安定せず、経験ある方や何かご存知の方いたら教えて頂きたいです

必要か分からないけど以下簡単なスペック
i7-8700
rtx2060su
ram16gb
0022名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro)
垢版 |
2024/03/27(水) 09:24:50.19ID:b9uaFY8B0
わからんね・・
vaeの場所指定はmklink?COMMANDLINE_ARGS?
具体的にどこに入れてる?a1111内?forgeのmodelのVAE内?
外付けとかに入れてない?(昔不具合報告みたことある)

forgeのwebuiフォルダにあるconfig.jsonの325行あたりの「"sd_vae": 」が起動時の設定なんだけど
他のvaeがなんらかの原因で突如何故か認識できずに自動的に見える奴に戻してる感じだろうか
これ変えてもたぶん挙動は同じだろうなぁ

ぶっちゃけ、別フォルダにforgeそのものを入れなおすのが一番早いような・・
0023名無しさん@お腹いっぱい。 (スププ Sdb2-hXB4)
垢版 |
2024/03/27(水) 10:13:29.34ID:o/IHU/f0d
>>22
場所指定はデフォルトのままで内蔵m.2 SSDのforge内models/vaeを見てます

帰ったらconfig.json確認してみます

ここまで来るとたしかに再構築した方が早そうですね、ご助力頂きありがとうございます
0025名無しさん@お腹いっぱい。 (ワッチョイ 016f-VtrB)
垢版 |
2024/03/27(水) 17:44:59.80ID:ZtOGuIeh0
forgeは最近なんか不安定。
XLモデルを変更して生成しようとするとwinの方で例外エラーが出て落ちる
モデル切り替え時にメインメモリ(16GB)が足らなくなるっぽいんだが、以前は普通に変更できてたんだよな
0028名無しさん@お腹いっぱい。 (ワッチョイ 7524-6Gz/)
垢版 |
2024/03/27(水) 20:47:55.08ID:Ppy5KKOo0
A1111でバッチサイズ8/回数3で生成しているが、使用メインメモリは12.7GBでずっと安定している。
VRAMが16GBあるからメインメモリまではみ出してこないのかもしれんが。
0029名無しさん@お腹いっぱい。 (ワッチョイ 6ef2-23IO)
垢版 |
2024/03/27(水) 21:52:40.03ID:LUcLOXS/0
家で4070
出先で3070laptopでやってるんだけど同じモデルと設定でやってるのに質に違いが出るのはなんでだろう
4070は早いけど顔が崩れやすい
ノートは遅いけど比較的忠実
前者は元の画像サイズを上げると多少マシになるけどそれでもノートで生成するより打率が低い
4070の方だけ1.8.0にアプデしたのが影響してるのかな…
0030名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+)
垢版 |
2024/03/27(水) 21:57:31.17ID:Kdot0TRC0
ありとあらゆる環境が生成に影響するから仕方ないね
たまたま噛み合って自分の気に入ったものが出るならそれを大事にするしかない
seedやプロンプトには固定させる要素がそれほどないんだ
0032名無しさん@お腹いっぱい。 (ワッチョイ 7524-6Gz/)
垢版 |
2024/03/27(水) 22:13:54.57ID:Ppy5KKOo0
同じSEEDでもCFGスケール値やサンプリングステップ値を変えるだけで別の絵が出てくるね。
0033名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 06:21:23.46ID:AVgxsnoJ0
質問です。
最初に画像を作成しようとしたり
モデルを変更したりしたら
TypeError: 'NoneType' object is not iterable
というメッセージが出て
一切画像を生成できなくなったのですが
これはどうやったら治るのでしょうか。

普通に複数回画像を生成できても
途中でこのエラーが表示されて
全く生成できなくなります。
0035名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 06:37:11.43ID:AVgxsnoJ0
使用しているバージョンは
version: f0.0.16v1.8.0rc-latest-268-gb59deaa3
python: 3.10.6
torch: 2.1.2+cu121
xformers: 0.0.23.post1
gradio: 3.41.2

です。
こちらで生成しようとするとエラーが頻発するようになりました

別のバージョンのversion: latest-51-g5bea443d ?
の方を今使っていますが、こちらは今のところエラーは見られません。
?
0036名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 06:43:19.09ID:AVgxsnoJ0
正直全然原因がわからないです。
昨日から変わった事はといえば中国の
容華:国風大模型
古風大模型XL
緒儿:泛光唯美大模型
亜洲人像
といったベースモデルを新しく入れて
試しに画像を生成していたのですが
異常なくらいに出力が遅く
その後に色々とエラーが出るようになったという事です。

モデルを以前から使っているアニメ系モデルに変えても
Stable Diffusionを終了して再度起動しても
同様にTypeError: 'NoneType' object is not iterable
のエラーが何度も出ます。
0038名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 07:30:08.74ID:AVgxsnoJ0
>>37
下のURLの追加プログラムはインストールしていません。
上のURLの会話には「SwinIR_4x 」という単語がたびたび出ますが
自分は高解像度補助アップスケールの際に
「4x ultraSharp」というものをたびたび使いますが
以前から使用していたので、これがバグの原因とは思えません。

それから昨日は同一seedで様々なvaeとSamplerを
ひとつひとつ使って生成結果を試していて
その後に元の設定に戻したのですかず
もしかするとそのあたりも何か関係しているのかもしれません。
0041名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 15:44:55.01ID:AVgxsnoJ0
>>40
venvをいったん削除して再起動すると
新しくvenyが作られるので
削除して再起動しましたが、変わらずに同様のエラーが出て
画像を生成できません。

>>39
追加した中華性モデルファイルは使い物にならないので
リネームして、廃棄物を集めたフォルダに移動しました。
0042名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 15:51:51.01ID:AVgxsnoJ0
なおPythonのバージョンは 3.10.6です。
起動画面には緑文字や赤文字で
[notice] A new release of pip available: 22.2.1 -> 24.0
[notice] To update, run: D:\StableDiffusion\Forge\venv\Scripts\python.exe -m pip install --upgrade pip
と出てきます。
table DiffusionのAUTOMATIC 1111は
Pythonのバージョンの3.1系でないと動かないとあるので
アップデートはしていません。
0044名無しさん@お腹いっぱい。 (ワッチョイ 55fd-iLiz)
垢版 |
2024/03/28(木) 16:20:00.62ID:oh2Y5HqH0
forgeはcu12.1でxformers: 0.0.23が対応してないっぽいけどそれじゃないの?
https://github.com/Stability-AI/stablediffusion/issues/170
https://github.com/facebookresearch/xformers/issues/960

>>42
それ自体はpipのバージョンらしいから問題ないっぽい
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10277653520
https://pip.pypa.io/en/stable/news/
0045名無しさん@お腹いっぱい。 (ワッチョイ f5bd-Re1+)
垢版 |
2024/03/28(木) 17:14:41.40ID:AVgxsnoJ0
昨日、画像生成速度がかなり上がるという
a1111-sd-webui-tomeという拡張機能をインストールしたのですが
この機能をインストール済一覧からチェックを外して再起動したら
エラーの数がかなり減ったように思います。
0049名無しさん@お腹いっぱい。 (ワッチョイ 7534-HgBz)
垢版 |
2024/03/29(金) 03:20:03.68ID:SNPW60uA0
環境の変化でなにかが起こったかどうか完全に新しい構築をもう一つ作って
動作確認してから来てほしい、
0050名無しさん@お腹いっぱい。 (JP 0H1a-rfcW)
垢版 |
2024/03/30(土) 11:17:54.48ID:KWy2Tc8UH
生成した画像をワンクリックでimg2imgとかに送るタブがあると思うんですが
a1111の方は大きいタブでSend to img2imgみたいに書いてあって見て分かりやすい
forgeの方はタブが小さくカーソルを合わせれば説明が出てくるのですが見て分かりづらい
という違いが起きているのですが、これは拡張機能やセッティングでどうにかなるものですか
0051名無しさん@お腹いっぱい。 (ワッチョイ b108-Juro)
垢版 |
2024/03/30(土) 12:15:07.92ID:2sr8ax9v0
a1111が1.6(2023/8/31)あたりでアイコンになってるのでめっちゃ古いの使ってたのでは・・
forgeは基本、倣ってるだけなんで

変える設定はぱぱっと検索した限りでは見つからなかった
そもそもボタンでかすぎるだろって要望で変えたんだろうし
gradio触れる人なら簡単にできそう
0052名無しさん@お腹いっぱい。 (JP 0H1a-rfcW)
垢版 |
2024/03/30(土) 12:48:00.90ID:KWy2Tc8UH
>>51
ありがとうございます
改良の結果アイコンが小さくなってたんですね
確かにa1111の方は不便がないかぎりアップデートしてなかったのでver1.5くらいで止まってました
0053名無しさん@お腹いっぱい。 (ワッチョイ b2b1-qS4M)
垢版 |
2024/03/30(土) 15:41:16.33ID:GiQ1byac0
a11111.7.0でcivitai helper使ってるんだけどUIが変わってからダウンロードできなくなった
url入れてget model…クリックすると「subfolder string is None」て出るんだけど解決方法教えてくれ
前のサムネが出るタイプのときは問題なかったんだがサムネのでないタイプになってからはダメ
0054名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz)
垢版 |
2024/03/30(土) 17:22:11.58ID:/M7/6GSa0
>>53
civitai helperが新UIに対応するまではじっと我慢しかないのでは
githubのissueに当座の解決方法が提案されているかも
0057名無しさん@お腹いっぱい。 (ワッチョイ 9efd-rfcW)
垢版 |
2024/03/30(土) 18:36:23.77ID:pQlmR15m0
近い将来AVは生のAV女優を使わなくても過去のAVから生成AIで
いくらでもAVを作れるようになりますか?
そうなればAV界の様々な問題も解決していいですね
AV女優も不要になりますから
0062名無しさん@お腹いっぱい。 (ワッチョイ fb84-lBRV)
垢版 |
2024/04/08(月) 22:29:08.52ID:BAKh+Ur/0
>>57
数年の間に、チラシや広告の安いのはAIに取って代わられるだろうな。
次に出てくるのがCMだ。30sec程度の動画ならパワフルなPCで自由自在になるだろう。
その次が30分モノのTV漫画かな。
長尺のAVは一番最後だろうね。
0063名無しさん@お腹いっぱい。 (オイコラミネオ MMe7-8e3/)
垢版 |
2024/04/09(火) 14:09:23.01ID:+FO8pOXFM
マッチングアプリの広告でAI画像にしか見えないのが使われてて、そのことで話題になってるのとかあるよね
ああいうところから入れ替わっていくんだろうな
0064名無しさん@お腹いっぱい。 (ワッチョイ 375f-7di6)
垢版 |
2024/04/14(日) 05:32:07.32ID:fwMkCCJK0
>>57
いまのAI生成周り見る限りでは、作ること自体は可能になるだろうけど、
2人以上の絡みとかは普通の人には難しくて作れないので買う形になって
プログラマ兼モーションデザイナーみたいな職業ができると思う
0065名無しさん@お腹いっぱい。 (ワントンキン MMdb-zYrV)
垢版 |
2024/04/17(水) 10:08:48.11ID:E4qVb1dNM
過去のAVから作るって、
顔だけ変えてとかのフェイク動画なら今でもできるだろね

AIが小説を書くのと同じレベルで
勝手にシナリオ作って動画まで作れるようになるとそりゃ凄いな

人間が指示しないと出来ないようなら、
女優男優に演じてもらった方が早い
0067名無しさん@お腹いっぱい。 (ワッチョイ b714-nyb8)
垢版 |
2024/04/18(木) 22:33:35.96ID:6RPNcF9x0
stable-diffusionのスレだから、LoRAを作るkohya_ssもOKでしょうか?

実は低スペックpcで実行してエラーが出て困っており、お助けいただけないかと。
12年前のノートパソコンHP-ProBook-4730sで、GPUはRADEONのため、フルCPUで実施しています。
512☓512の画像作成に30分はかかりますかねぇ((泣)

そんな環境で、無謀にもRoLA作成しようとしてエラーが出てしまいました。

学習は実行され、LoRAはとりあえず3個できたところでエラー吐いて終了。

自由に使えるパソコンはこれしかなく、ターゲットがエロ絵なので公開のサーバーを使うわけにもいかず、エラー解消して動かしたいのですが、技術的な助言をいただけないでしょうか?

実行中の端末から取り出したエラーはこんな感じです。
subprocess.CalledProcessError: Command '['/home/hoge/ダウンロード/kohya_ss
/venv/bin/python', '/home/hoge/ダウンロード/kohya_ss/sd-scripts/train_network.py', '--bucket_no_upscale', '--bucket_reso_steps=64',
'--cache_latents', '--caption_extension=.txt', '--clip_skip=2', '--enable_bucket', '--min_bucket_reso=256', '--max_bucket_reso=2048',
'--learning_rate=0.0001', '--lr_scheduler=cosine', '--lr_scheduler_num_cycles=10', '--lr_warmup_steps=325', '--max_data_loader_n_workers=0', '--max_grad_norm=1'
, '--resolution=512,512', '--max_train_steps=3250', '--mixed_precision=no', '--network_alpha=1', '--network_dim=8'
, '--network_module=networks.lora', '--optimizer_type=AdamW'
, '--output_dir=/home/hoge/ダウンロード/kohya_ss/outputs', '--output_name=mimudagirl_v1', '--pretrained_model_name_or_path=/home/hoge
/ダウンロード/kohya_ss/models/anyloraCheckpoint_bakedvaeBlessedFp16.safetensors'
, '--save_every_n_epochs=2', '--save_model_as=safetensors', '--save_precision=fp16', '--seed=1000', '--text_encoder_lr=0.0001'
, '--train_batch_size=1', '--train_data_dir=/home/hoge/ダウンロード
/kohya_ss/input/mimudagirl', '--unet_lr=0.0001']' died with <Signals.SIGKILL: 9>.

長過ぎると怒られたので適当に改行しましたが、エラーメッセージは1行で出力されました。
0068名無しさん@お腹いっぱい。 (ワッチョイ b73e-9wFU)
垢版 |
2024/04/18(木) 22:50:47.48ID:Hg6+L1Rl0
素直にマシン買い換えろ。
第八世代辺りの中古デスクトップなら1万円切ってる。
0069名無しさん@お腹いっぱい。 (ワッチョイ 9f80-NqLX)
垢版 |
2024/04/18(木) 23:00:18.74ID:gCGcaBHR0
ダウンロードフォルダが原因じゃね? 2バイトコード名だし
0072名無しさん@お腹いっぱい。 (ワッチョイ b7fd-AFAK)
垢版 |
2024/04/19(金) 12:05:01.48ID:hf9IB9RY0
>>71
Loraは盛りすぎると引っ張りあって変な画像になることもあるから使用するのは3個くらいまでじゃね?
用意という点でいえばDLした数が多いほど幅が広がるから好きなLoraを手に入れればいい
蒸留が何を意味してるかもわからんし泥臭い方法がなんなのかもわからんが
悪い部分をそぎ落とすのはプロンプトの仕事だからリセマラとは関係ない
版権絵をぶち込んで顔だけ固定するとかやれるけど泥臭いというより入手手段が合法で公表しないなら内心の自由みたいなもん
日数は遅いマシンなら1枚の絵を仕上げるのに数日かかったりはする
open pose とかControlNetとか使ってこだわるならもう少し時間がかかるかもしれん
0073名無しさん@お腹いっぱい。 (オッペケ Sr8b-ROwx)
垢版 |
2024/04/19(金) 12:26:45.01ID:i5z2wnibr
まず、AI生成のコツを掴むまでに、512x512の画像1枚にすら30分とかかけてたら不毛すぎるぞ

>>67 の状況とか
・生成時間の無駄
・生成してる間の電気代の無駄
・生成で負荷が掛かり続けてPC寿命を無駄に削る


>>71
生成時間、生成者の環境とか慣れ具合とか生成目的とか拘りぐあいで千差万別
それこそSDXL基本サイズ(1024x1024)1枚生成5秒以下の環境使ってる人と、>>67 みたいな環境使ってる人とじゃ何もかも基準が違う
0077名無しさん@お腹いっぱい。 (ワッチョイ 17d1-gr1B)
垢版 |
2024/04/19(金) 15:42:47.28ID:5NWf3eiI0
>>71
プロンプト1発で目的絵を出すのはある程度慣れた人か細かいこと気にしない人向けかな
低解像度で先に大枠作ったりLoraやCNでリセマラ繰り返しながら
自分流のやり方の確立とベースになる絵の資産が増えていく
0078名無しさん@お腹いっぱい。 (ワッチョイ 172b-VfW0)
垢版 |
2024/04/19(金) 16:42:35.70ID:23ysX13t0
>>71
そもそも正確に細かい指定をすることができない
こっちが明確に指定したとしても、99%出る物や10%しか出ないような物が混在している
なによりあらゆる事象を学習しているわけでもないので、出力不可な要素もある

出る出ないを把握すれば、出る範囲で狙ったものを高確率で一発出しすることは可能
0079 警備員[Lv.24(前9)][苗] (ワッチョイ ffeb-SaJ8)
垢版 |
2024/04/19(金) 16:44:34.20ID:Y8N+P8BA0
ebara pony(またはpony)でガチホモ絵を作ってます
受けの年齢を竿役と同じくらい(25歳以上)で出したいのですがyears oldなどのプロンプトを使ってもショタや少年で出力されることが多く狙った絵が上手く出せません

どうかお力を貸していただけないでしょうか
0080名無しさん@お腹いっぱい。 (ワッチョイ 172b-VfW0)
垢版 |
2024/04/19(金) 16:53:34.13ID:23ysX13t0
>>67
新しいの買え
あまりに低性能すぎる。
その問題を解決しても、へたすると完成させるのに数日かかるんじゃないのか
0083名無しさん@お腹いっぱい。 (ワッチョイ 9f1e-29lp)
垢版 |
2024/04/19(金) 18:55:40.66ID:mu6VZmgv0
>>67
むしろそのスペックでLoRA3つも吐けたなら、自分もチャレンジしようかと思ったw
ちなみに11年前のOptiplex 9020 + GTX 1050 Ti 今なら約2万円
ComfyUIのCPUモード試してみたけど 512*512で7分、LCM LoRA使って1分、GPU+LCM なら12秒
動画とLoRA学習はColabやオンラインサービスでと割り切ってるけど。
0084名無しさん@お腹いっぱい。 (ワントンキン MM7f-1A5Z)
垢版 |
2024/04/19(金) 20:05:03.39ID:hzdMeb1SM
>>76
無料の生成AIサイトがあっちこっちにあるからそこから試してみれば?

ローカルで環境構築するのは慣れないと時間かかるしなんとなく作り方のイメージ掴んだりpromptやLoraの使い方を理解するにはそっちの方が手っ取り早い
0085名無しさん@お腹いっぱい。 (ワッチョイ b733-9wFU)
垢版 |
2024/04/19(金) 20:48:40.93ID:vMjDndO70
>>77-78
便乗なんだが、完パケ生成までのプロセスってみんなはどうやっている?
ある程度プロンプトを固めたらガチャで100枚くらい引いて、その中で気に入ったシチュエーションを何枚か選んで、さらにパラメータいじって再生成?
それとも、きっちりとプロンプトとパラメータ追い込んでから、シード指定して量産?
0087名無しさん@お腹いっぱい。 (ワッチョイ 1f20-LS6g)
垢版 |
2024/04/19(金) 20:59:37.13ID:bsEgaukK0
comfyUIにComfyUI ManagerをインストールしてComfyUI ManagerからWAS Node Suiteをインストールして、styleリストを適用させるのがうまくいきません。

https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
上の動画の11:25の部分

styleリストをcomfyUIに移植できない
Noneでしか出てきません
入っているとまずい構文のANDやBREAKは取り除きました

styleリストの移植は必須でしょうか
comfyuiではプロンプトの保存はどうやりますか
0088名無しさん@お腹いっぱい。 (ワッチョイ 172b-VfW0)
垢版 |
2024/04/19(金) 21:18:51.49ID:23ysX13t0
>>85
それ聞いてどうすんの
別にどっちでもよくないか

答えるとしたらその日の気分でいろいろやる
たいていは新しく知った知識で試行錯誤してるだけで時間無くなるが
0092名無しさん@お腹いっぱい。 (ワッチョイ ff10-Vp6H)
垢版 |
2024/04/19(金) 22:35:39.71ID:DKpT6qBN0
プロンプトのみは無理よー
2つのLoRAの効きを生成する画像に合わせて場所限定でさせるような技術は
拡張機能なしではどうにもなんない
人体が絡み合うと「この場所にある手とか足とかどっちのやねん! わからんわ全部一緒や!」ってAIちゃんが判断してしまう
00950067 (ワッチョイ b7e0-29lp)
垢版 |
2024/04/19(金) 23:18:27.46ID:fAk4MQCM0
ありがとうございます。
そういえばOSの事書いてませんでした。Ubuntu22.04デスクトップで実施してます。

2.5インチ型のSSD250GBで。7割くらい埋まってますか。
StableDiffusionは容量も喰いますね。

>>0068
う゛……万切ってるなら考えましょうかねぇ……でもグラボが高かったような……

>>0069
>>0070
あ〜そういえば、ダウンロードしたからってそのままそこでやってました。
一度試してみます。

>>0073
アニメでグサグサ刺さるやつですね(嗤)
まぁ、元々、ノーパソのリプレースで余ってクローゼットに転がって、何年も電源いれてなかったヤツなので、寿命はとっくなんですが、電気代は確かにもったいないかな……
時間は……寝る前にプロンプト仕込んで、朝起きたら何枚かできてるって感じですので、あまり気にしてませんでした。


>>0080
数日なんてそんな……このLoRA仕込んだときは、完成予想に250時間ってでました。
実際、六日ほど動いたところで、エラー吐いたんですが(嗤
う〜ん、岸田のせいでカネがないから、万単位のPCなんて手が……

>>0083
秒単位で1枚ですか。う〜ん……カネがあれば……
0100名無しさん@お腹いっぱい。 (ワッチョイ 172b-VfW0)
垢版 |
2024/04/20(土) 02:01:42.16ID:LN6DbvZO0
>>95
俺もCPUで生成やってた時期はあるけど、圧倒的な速度差があるから本当に続けるなら買ったほうがいいよ
それに慣れるまではLORA作成が一発で成功することはまずないから、そのPCが順調に動いたとしても完成するのはいつになるかわからんぞ
0101名無しさん@お腹いっぱい。 (ワッチョイ b7e3-WUN8)
垢版 |
2024/04/20(土) 06:46:27.46ID:xKlsDTeN0
SDforgeで生成完了後にブラウザで表示される生成結果の表示を無効にしたいです。(生成された画像はすべて保存設定にしているため)
理由として長時間の生成をおこなった場合、中断に時間がかかっている状況で おそらく生成結果の表示に手間取っている影響だと思います。
0102名無しさん@お腹いっぱい。 (ワッチョイ b7b4-/8Es)
垢版 |
2024/04/20(土) 09:30:44.65ID:fFIeohMz0
>>87
数か月前のComfyUIと半年程前のWAS-NODE-SUITEでは動きました(最新版は不明)

>styleリストの移植は必須でしょうか
別途プロンプト用のノード(CLIP Text Encode等)を用意すれば問題ないかと

>comfyuiではプロンプトの保存はどうやりますか
画面右側のSaveボタンをクリックして、workflowの保存をしてください

>手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります
パスの記述内容が間違っていると、以下のエラーメッセージがコンソールに出力されるみたいなので修正してください。問題がなければComfyUIを再起動してブラウザを更新すればstyles.csvの要素が選択できます
```
WAS Node Suite Error: Unable to load conf file at `D:\***\ComfyUI\custom_nodes\was-node-suite-comfyui\was_suite_config.json`. Using internal config template.
```
0104名無しさん@お腹いっぱい。 (ワッチョイ fff2-/8Es)
垢版 |
2024/04/20(土) 11:09:18.95ID:3TLQfVWt0
「do_not_show_images」は設定の「Gallery」にある「Do not show any images in gallery」やね
だけど中断に時間がかかる理由は別にある気がするなあ
0106名無しさん@お腹いっぱい。 (ワッチョイ fff2-/8Es)
垢版 |
2024/04/20(土) 11:43:50.34ID:3TLQfVWt0
>>105
quicksettings listに入れた設定項目は「Settings」タブから消えるんよ
0108名無しさん@お腹いっぱい。 (ワッチョイ 1f20-LS6g)
垢版 |
2024/04/20(土) 14:16:29.03ID:58Z1MQDz0
>>102
ありがとうございます!
すべて直りました
style.csvの編集で1行目がemptyだとだめでした
1行目をname
2行目をempty
3行目からセーブされた名前
に編集したらいけました
それと¥マークが1つ足りていない箇所がありそこもうまく読め込めない要因でしたすみません

ところでforgeのプロンプトはどこに保存されているか分かりますか?
1111とは別のように思います
forgeのフォルダ内を見ていますがプロンプトが保存されているファイルstyle.csvらしきものが分かりません
0112名無しさん@お腹いっぱい。 (ワッチョイ 1f05-29lp)
垢版 |
2024/04/20(土) 19:18:41.66ID:58Z1MQDz0
comfyUIでstyle.csvの移植に成功してPrompt Multiple Styles Selectorに表示されるようになったけど、Show Textでプロンプトが見れないです
実際にSelectorに繋いで出力するとエラーが出ます

Error occurred when executing Prompt Multiple Styles Selector:

unsupported operand type(s) for +: 'NoneType' and 'str'

このエラーコード分かりますでしょうか
0114名無しさん@お腹いっぱい。 (ワッチョイ fff2-/8Es)
垢版 |
2024/04/20(土) 19:55:12.79ID:3TLQfVWt0
>>112
> comfyUIでstyle.csvの移植に成功して

これどうやったか教えていただけますか?
0115名無しさん@お腹いっぱい。 (ワッチョイ 1f05-29lp)
垢版 |
2024/04/20(土) 20:23:08.57ID:58Z1MQDz0
>>114
はい、なんの知識もありませんがわたしでよければ
>>87にあるここの説明ですが、
https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
正確には13:35の部分を一時停止して見てください
この方は、一行目にemptyの項目を作成 と動画で紹介していますが、よく見ると2行目にemptyと書いています
パソコンでフルスクリーンにして見ると分かると思います
なので、
一行目は
A B C ←Exelの表の横のABC....のやつ
name prompt negative_prompt←一行目
empty←二行目(BとCは空欄)
セーブしたスタイルリストの名前←3行目(BにポジCにネガ)

となります
これで1111で使ってたプロンプトスタイルをcomfyUIで読み込めると思います

けれど自分はこのあと>>112のようなエラーが出ました
このエラーは、なんか判別できない記号が含まれてるよーみたいなエラー内容だったので
極力プロンプトをシンプルにしました
試しに
ポジにwoman
ネガにnsfw
しか書かないでセーブしてcomfyUIで読み込ませました
そしたらShow Textでも内容が見れましたし、出力も終えました
comfyUIで使えない構文が見直しても分からなかったので、シンプルにしました
ここから少しずつプロンプトを足していって編集していこうと思います
ワークフローをセーブすればいいんですが、1111から移植して使いたい場合、エラーが出たら極力シンプルにして徐々に足していくといいと思います
メモ帳より表計算のソフトで編集するといいです
私は編集はXLSX Editorというのを使いました
0117名無しさん@お腹いっぱい。 (ワッチョイ fff2-/8Es)
垢版 |
2024/04/20(土) 20:43:59.88ID:3TLQfVWt0
>>115
ありがとうございました!
0118名無しさん@お腹いっぱい。 (ワッチョイ 1f20-LS6g)
垢版 |
2024/04/20(土) 22:50:53.23ID:58Z1MQDz0
stability matrixでインストールしないとモデルやロラのサムネイル出てきませんかね?
view infoではサムネ見れてシビタイにも飛べますが

もうインストール紹介サイトありすぎてなんでstability matrixでインストールしなかったんだよと己と参考にしたサイトを呪ってる

しかも導入昨日から全然進んでないし
問題が解決しただけよかったが目標としてる動画生成まで辿り着けるだろうか
0119名無しさん@お腹いっぱい。 (ワッチョイ 1f20-LS6g)
垢版 |
2024/04/20(土) 22:56:30.85ID:58Z1MQDz0
いちいち問題に直面して辛すぎる

今はforgeで出力した画像をcomfyuiにドロップして生成するとなぜか汚いという問題に直面している

えんべでぃんぐフォルダを当ててないから汚いのかもしれないがforgeのときえんべでぃんぐ使ってなかったと思うのに
cpuではなくてgpuで出力してる
ああー心配
これもまたあした調べてみる
歳のせいか集中力が落ちてきてる
0120名無しさん@お腹いっぱい。 (ワッチョイ ff42-hJEz)
垢版 |
2024/04/20(土) 23:10:56.14ID:hYFTRSS20
comfyUIとか窓から投げ捨てたよ
ぶっちゃけあれ使ってる人がなにやら凄い画像を作ってるってわけでもないし・・
forgeがある今、「こんなの使ってる俺スゲー」みたいな欲が半分くらいある時間泥棒パズルゲームって印象
0122名無しさん@お腹いっぱい。 (ワッチョイ 1f20-LS6g)
垢版 |
2024/04/20(土) 23:22:18.50ID:58Z1MQDz0
シビタイのvideoってタブにある縦長の動画を作りたいんだよ
その設定に四苦八苦してね全然進んでないんだけどさ
forgeは生成早いですね
comfyui配線ごちゃごちゃしてるけどこれから無線化するところさ
5chのスレも2つあってこれから困ったらどっちで聞いていいのかわからんち
0123名無しさん@お腹いっぱい。 (ワッチョイ 7f9d-ZO1Y)
垢版 |
2024/04/20(土) 23:28:07.47ID:9fB4G4E50
まだ初めて間もないのですが
どうも二人以上の絡みになると途端におかしくなる事が多いです
もしかしてみなさん、何回もやり直してるんですか?
そろそろ心が折れそうです・・・
0124名無しさん@お腹いっぱい。 (ワッチョイ 9f11-NqLX)
垢版 |
2024/04/20(土) 23:35:43.46ID:sOL49JN10
2人以上の絡みはRegional Prompterとか使わんとまともに描けんよ
0126名無しさん@お腹いっぱい。 (ワッチョイ 9feb-1A5Z)
垢版 |
2024/04/20(土) 23:38:46.61ID:FamJEfVP0
>>123
画像貼ってどんな画像出したいかを書くとアドバイスもらいやすいぞ
二人以上の絡みって言っても体位や男女の数配置チェックポイントやLora含めて組み合わせ方が全然違う
0127名無しさん@お腹いっぱい。 (ワッチョイ 9f11-NqLX)
垢版 |
2024/04/20(土) 23:40:55.10ID:sOL49JN10
えちぃのはなんJ行くと猛者がたくさんいるぞ
0128名無しさん@お腹いっぱい。 (ワッチョイ a81e-K5o/)
垢版 |
2024/04/21(日) 11:09:50.82ID:PlALCCp20
>>119
試行錯誤が辛いなら金で解決しろ
有料解説サイトがいくつもあるだろ
0131sage (ワッチョイ e062-TxeL)
垢版 |
2024/04/21(日) 14:57:57.62ID:yvMBHgIt0
了解です
0132名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/21(日) 15:57:36.06ID:LMG+dEZI0
>>1に書いてあるんだけどなかなかね
0133名無しさん@お腹いっぱい。 (ワッチョイ e062-TxeL)
垢版 |
2024/04/21(日) 16:23:58.29ID:yvMBHgIt0
>>119に書いた通りなのですが、comfyUIで出力すると汚くなってしまう
forgeで生成した画像をcomfyUIにドロップしてみると質感がまったく違う
どこかの設定をいじらないと元の画質には近付けないですか?
0134名無しさん@お腹いっぱい。 (ワッチョイ a925-0QaG)
垢版 |
2024/04/21(日) 16:37:50.46ID:I2EA7lXw0
comfyUIとforgeまたはA1111は計算方法が少し違うので同じ絵は出ないです
計算式を近づける方法はあったと思うけど、完全に一致させるのは無理と言われてた
0136名無しさん@お腹いっぱい。 (ワッチョイ e062-TxeL)
垢版 |
2024/04/21(日) 16:51:48.38ID:yvMBHgIt0
>>135それはどういうことでしょうか
なにか思いついたことがあればなんでもお願いします
グラボはrtx3060 12gです
majinAIにアップしても情報がnullになってしまう
それでも比較画像をのせたら分かりやすいか
0137名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8)
垢版 |
2024/04/21(日) 16:52:07.77ID:3fRE40Hz0
hiresも1111が優秀すぎてね
comfyUIの誰かさんのhiresカスタムノードでやるとこれがなぜか汚い汚い・・
設定値あれこれいじってもどうやってもスタート地点(1111並み)に立てない

で、adetailerあたりでもの凄いノードの塊に直面
他人の既存workflowをコピペするだけとはいえ、意味わからないとって全部意味調べてるうちに
画像生成全くせずに一日中俺何やってんだろ、で嫌になって投げた
マイナスからスタートみたいな、で、その先にプラス部分は本当にあるの?って疑念がフツフツと

>>135
prompt中のtokenの強度分布が違うので1111に合わせるやつね
あれはあくまでその部分だけの話
0139名無しさん@お腹いっぱい。 (ワッチョイ e0d3-oJNE)
垢版 |
2024/04/21(日) 17:13:06.33ID:yvMBHgIt0
>>137
えぇ…そうなんですね
comfyuiでの動画生成が目的ですが綺麗な画像をforgeで生成して、それをcomfyuiにドロップして動画を作るってことはできますか?
comfyuiで画像生成は向かないのかな

>>134
質感がかなり違うんですよね
リアル系の画像を生成してますが人間に近い質感ではなく汚い感じ

forgeだと簡単にホイホイ綺麗な画像が出てくるけどcomfyuiでリアル系は厳しいのだろうか

comfyuiで生成した画像はmajinAIに載せられませんでした
サポートしてないと出た
0141名無しさん@お腹いっぱい。 (ワッチョイ a8c9-K5o/)
垢版 |
2024/04/21(日) 18:17:15.64ID:PlALCCp20
sd1.5時代にいい感じだったシードを使ってsdxlで描くと、全然別ポーズになる。
シードって何なんだろうね。
0143名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D)
垢版 |
2024/04/21(日) 18:30:04.96ID:AsOSqfh80
comfyUIはサンプラーが1111にあるのが無かったり逆もあるし、カスタムノード入れないと1111系とはトークンの解釈も違うしbreak構文も使えないと違いは結構あるからね
カスタムノード入れれば使えるけど
0145名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/21(日) 18:44:53.74ID:LMG+dEZI0
>>141
シードはStable Diffusionに最初に与えるノイズ画像を生成するもととなる数値
出力解像度が変われば異なるノイズ画像が生成されるはず
SD1.5とSDXLではもし最初のノイズ画像が同じでもモデルや内部の処理が違うから同じ結果にはならないよ

1.5で生成した画像と同じポーズの画像をSDXLでも生成したいなら、1.5の画像をもとにimg2imgやControlNetを使うのがよさそう
0148名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ)
垢版 |
2024/04/21(日) 19:41:23.39ID:yo6I7OI50
>>147
アニメ出始めの頃にちょっとループ系アニメをcomfyUIで作ろうとしたことあるけど、
最初のフレームと最後のフレームの画像を予め決めて、残りのフレームの前半で最初の画像から遠ざけ、後半のフレームで最後の画像に近づけていくようなワークフロー作ったらそれっぽいの出来るんじゃないかな?
長い動画は複数足していくことになりそうだけど、最近は最長でどれぐらいの長さまで一気に生成できるのかとかは自分もよく知らない

ただ、上記で書いたような事すら1111だと出来る気がしないので、アニメ作成はcomfyUIが一番ラクだし、グラボ3060だとなおのことcomfyUI一択か
0151名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8)
垢版 |
2024/04/21(日) 20:03:13.17ID:3fRE40Hz0
ID:yvMBHgIt0氏については>>138と同意見
ここでいちいち聞いてるようじゃお先真っ暗だと思う、comfyUI適性がない
敷居が高くて人口が少ない上に、さらに人口が少ない動画生成ときてるので

https://comfyworkflows.com/
こういうところから他人のワークフロー落としつつ、自分でコツコツい調べていく感じの人じゃないと
なお自分は無理な側だった
0152名無しさん@お腹いっぱい。 (ワッチョイ e0d3-oJNE)
垢版 |
2024/04/21(日) 20:07:02.13ID:yvMBHgIt0
>>148
ありがとうございます
comfyuiは動画生成に強くてA1111は画像生成に強いということでしょうか
今は関係ないかもだけどアップスケールについて動画見てます
>>115の次の動画
一気にanimatediffの動画見ても分からなさそうだったので

>>150
ありがとうございます
昨日から問題に直面してばかりだから一筋縄ではいかないでしょうがやってみます
最終的に教わった通りに生成できたら嬉しい
すこーしずつ
0154名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ)
垢版 |
2024/04/21(日) 20:15:08.76ID:yo6I7OI50
>>152
comfyUIが動画に強いというか、それ以外が動画適正悪すぎるという感じ
特に長時間(2秒以上)のループ動画とかはまぁ1111で現状ほぼ無理じゃないかな
短時間ループぐらいなら1111でも拡張とかでいけそうにはおもえるけどね
0156名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D)
垢版 |
2024/04/21(日) 22:09:08.78ID:AsOSqfh80
とりあえず動画で公開されてるワークフロー探してきて、まずはそれ動かすところからじゃないかなあ
0158名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D)
垢版 |
2024/04/21(日) 22:13:12.30ID:AsOSqfh80
モデルやらLORAやらcontrol netやらを使うことを考えると100GBぐらいはないとあっという間にモデル関係だけで埋まる
あとはどれぐらい画像生成するか
0163157 (ワッチョイ 038b-K5o/)
垢版 |
2024/04/21(日) 23:22:25.64ID:rmgSPXw60
皆さん回答ありがとう
なるべく大きい容量用意しようと思います、感謝
0164名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8)
垢版 |
2024/04/21(日) 23:35:47.57ID:3fRE40Hz0
>>162
MJってちょっと前にそういう機能実装されたんじゃなかったっけ?
cref(キャラクターリファレンス)とかいうの

って、検索したらSDには敵わないみたいなこと書いてるサイトあるね
> まだ、顔固定はStable Diffusionに軍配が上がりそうですね
0165名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/22(月) 08:34:56.94ID:Mj3mBU4Y0
>>157
モデルファイルはHDDではなくNVMeのSSDに入れること
数GBの読み込みはHDDだと1~2分かかるけどNVMeなら長くても十数秒だからね
0169名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX)
垢版 |
2024/04/22(月) 20:25:52.64ID:tuJQSL0t0
髪長めでパラッと左右に広がってるようなモデル使ってロングヘア指定すると
髪がマントやコートに化けてしまうんだけどこれ防ぐにはどうしたらいいですかね?
0171名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX)
垢版 |
2024/04/22(月) 21:38:22.98ID:tuJQSL0t0
>>170
それやったんだけどあんま効果なかったんだ
ポジティブ側にもcompletely nakedが入ってる状態なんだよね
0172名無しさん@お腹いっぱい。 (ワッチョイ ce1b-/G3D)
垢版 |
2024/04/22(月) 22:09:06.87ID:iasIUhSM0
末端が溶けちゃって融合するアレか
強いて言えば髪の先端もちゃんとpromptに組み込むことかな
先っちょがちょっと跳ねているみたいに
SDはpromptにあるものはきっちり描こうとするから、これで溶けるのを減らせる
同じように服を半脱げにしたい時は肩にタトゥーとか入れるとそれを描写するために脱ぐ
0174名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX)
垢版 |
2024/04/22(月) 22:26:05.82ID:tuJQSL0t0
なるほど確かに
色々試してみようかな
もしかするとLong hair閾値よりもモデルの髪のが長い(脚ぐらいまである)からそれを補うために化けてるのかも知れん
どもども
0176名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/23(火) 17:02:55.61ID:Q5r3/KcU0
>>175
頭の中ではねぎぴっぷになりがち、人と話すならねがぴっぷかなあ
0177名無しさん@お腹いっぱい。 (ワッチョイ a8ea-K5o/)
垢版 |
2024/04/23(火) 22:59:10.30ID:1VgVZe5I0
普通に読めばネグピップだろ
0181名無しさん@お腹いっぱい。 (JP 0H53-K5o/)
垢版 |
2024/04/24(水) 09:41:01.46ID:OUw/uoViH
地震系のショートフィード
YOUTUBEのAIは、写真のような高精細な画像のほうが
優先的にショートフィードに乗るみたいだが
無料で出来るところないですかね?
「bing デザイナー」や「google gemini」は
いかにも生成AIで作りましたっていう画像しか生成できない
無料の壁???
0186名無しさん@お腹いっぱい。 (ワッチョイ ce9f-/G3D)
垢版 |
2024/04/24(水) 22:58:32.75ID:tuMWhOrI0
JSONデータで保存して不要な部分を削除する
0187名無しさん@お腹いっぱい。 (ワッチョイ e0a4-TxeL)
垢版 |
2024/04/24(水) 23:21:53.50ID:3NM2XnuT0
>>186
テンプレートていうのがあった
0188名無しさん@お腹いっぱい。 (ワッチョイ f077-brZT)
垢版 |
2024/04/25(木) 11:29:55.72ID:580QVCXm0
よくモデルやstep、LoRAの重みの比較で生成画像を並べて上や左側にステータス情報を書いた画像を見掛けるのですが
どのようにすれば作れるのでしょうか
SD forge版を使用しています 内蔵の機能や設定で再現可能ですか?
0191名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3)
垢版 |
2024/04/25(木) 12:07:42.80ID:xyH8qE1Z0
3060tiのvram8GBで版権キャラのえっちな絵を作りたい場合はnovelAIとsd forgeどっちの方がいいんや
DRAMは32GBあるけどあんま関係ないよな?
0193名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/25(木) 12:32:17.45ID:fyPVbjy80
>>191
novelAIはWebサービスなのでパソコンの性能は関係なく、スマホでも画像を作れる

SD ForgeはVRAM8GBで問題なく画像生成できるでしょう
メインメモリも32GBなら十分です

版権キャラのえっちな絵を作りやすいのはどっちだろう?
ひとまずタダでできるForgeでやってみては
学習モデルはPony Diffusion V6 XLがいいでしょう
0194名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3)
垢版 |
2024/04/25(木) 12:45:28.81ID:xyH8qE1Z0
>>193
細かくありがとうとりまforgeいれた
学習モデルっていうのは自分でキャラを学習させる感じ?
0196名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/25(木) 13:13:52.81ID:fyPVbjy80
>>194
なるほど、そこからか。
学習モデルは学習済みのモデルファイルのことで、ダウンロードしてきて所定のフォルダに置けばいいんよ

あとはこれ読んで。長いけど基礎知識が1記事に詰まってる

AIイラストが理解る!StableDiffusion超入門【2024年最新版】A1111、Forge対応|賢木イオ @studiomasakaki
https://note.com/studiomasakaki/n/n7ad935416c5d
0197名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/25(木) 13:16:55.25ID:fyPVbjy80
>>195
ForgeはSD1.5も使えるよー
いったん出した画像をもっと大きなサイズで出し直したいときはhires.fixを使うといいよ
それでうまくいかなかったら、拡大前の画像と拡大した画像をcatboxに上げてここに載せてくれれば問題の切り分けをしやすいと思う
0199名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3)
垢版 |
2024/04/25(木) 13:36:20.47ID:xyH8qE1Z0
>>196
checkpointのことか初心者だから知らなかった
0201名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/25(木) 14:42:22.96ID:fyPVbjy80
>>199
いいのいいの、誰でも最初は知らないからね
0202名無しさん@お腹いっぱい。 (ワッチョイ a615-C/Ad)
垢版 |
2024/04/25(木) 17:26:43.93ID:DfAyQFOo0
俺のSD導入初日は
「なんやねん、チェックポイントって・・・
学習モデルとかデータとかそれっぽい英語名でええやん・・・」
「ローラって誰や・・・」

ずっとこんな感じだった気がする
0203名無しさん@お腹いっぱい。 (ワッチョイ a8ec-K5o/)
垢版 |
2024/04/25(木) 20:29:15.22ID:mD2ePJOZ0
>>198
3060TiのVRAM8GBってちゃんと書いてあるやん
何が不満なんだ?
0206名無しさん@お腹いっぱい。 (ワッチョイ b287-cK01)
垢版 |
2024/04/25(木) 22:58:26.30ID:81pZq5e/0
環境を説明しないのはA100だけど、初心者なのにA100だなんて言い出せないからかもしれん
書いてなければA100前提で答えればいい
0207名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3)
垢版 |
2024/04/26(金) 01:28:52.21ID:Vn4NMll80
>>202
それな
日本語訳と英名のイメージ違いすぎる
なんやcheckpointって
0209名無しさん@お腹いっぱい。 (ワッチョイ f6d9-XgJ3)
垢版 |
2024/04/26(金) 02:42:05.49ID:Vn4NMll80
>>208
もちろんそーなんだけど勉強とかでも聞いたことある単語出た覚えやすいよねって
0213名無しさん@お腹いっぱい。 (ワッチョイ cef8-/G3D)
垢版 |
2024/04/26(金) 17:40:53.71ID:Z207ZsTq0
導入し始めた時はチェックポイントなんか一個しかなかったし、1111もなかったから迷う余地が無かったな
トークン制限で苦しんでたのが嘘のようだ
0217名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE)
垢版 |
2024/04/26(金) 19:22:02.30ID:Rf6UIQrwa
AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな?
0218名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE)
垢版 |
2024/04/26(金) 19:22:08.87ID:Rf6UIQrwa
AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな?
0220名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/27(土) 14:24:20.46ID:7mADKKa60
>>217
普通に添付できたよ
アプリを再インストールしてみては
0221名無しさん@お腹いっぱい。 (ワッチョイ a2c9-tUod)
垢版 |
2024/04/27(土) 14:31:08.82ID:6q5JNqhc0
キャプションを見直すためにWDtaggerを導入しようと思うのですが、以前、「開発者が変わったから、それ以降のヴァージョンは信用していいのかどうかわからない」みたいな話があったのを思い出しました。実際の所、大丈夫だったのでしょうか?
0223名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01)
垢版 |
2024/04/27(土) 16:37:51.76ID:7mADKKa60
いま拡張機能タブの「拡張機能リスト(Available)」で読み込まれるのは
「WD 1.4 Tagger」 https://github.com/picobyte/stable-diffusion-webui-wd14-tagger.git
で、このURLは当初とは変わってる気がする(記憶が曖昧)
問題がないと保証はできないけど、問題があるという話も聞かないな
0226名無しさん@お腹いっぱい。 (ワッチョイ a2c9-tUod)
垢版 |
2024/04/27(土) 22:55:17.58ID:6q5JNqhc0
>>224

ソースというか、この板かお絵描き板のどちらかで以前そういう書き込みを見ただけです。それ以降何も言及がないなら、多分大丈夫ってことですよね…不安はあるけど、使ってみることにします
0227名無しさん@お腹いっぱい。 (ワッチョイ 87bb-+hba)
垢版 |
2024/04/28(日) 13:06:23.08ID:V1tjf2uH0
>>226
おまえさんが使ってみて何か問題があったら報告してくれればそれでいい
0228名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/04/28(日) 14:39:49.01ID:kCfRUYRZ0
>>226
公式からリンクされていてgithubにあるのなら、たくさんの目が見ているだろうからまず大丈夫だと思うよ
楽観的すぎるかもしれないけど
0231名無しさん@お腹いっぱい。 (ワッチョイ 87bb-+hba)
垢版 |
2024/04/28(日) 17:37:16.85ID:V1tjf2uH0
ソースが読めない者にとっては、フリーソフトもウィルスも同じだね
0233名無しさん@お腹いっぱい。 (ワッチョイ dfd9-qkZl)
垢版 |
2024/04/28(日) 18:25:23.59ID:hm0YJOas0
そこ疑ってたらローカルで画像生成なんかできんぞなもし
拡張機能なんか管理者権限でPython走らせてんだから
0234名無しさん@お腹いっぱい。 (ワッチョイ bfc9-M0E9)
垢版 |
2024/04/28(日) 18:42:42.64ID:r4t5reA70
お騒がせしてすみません
昔フリーソフトでマルウェアが検出されたことがあったせいか
ちょっとトラウマで…

a1111とかは割り切って普通に使ってます
0236名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/29(月) 07:55:13.80ID:nOmMWpWW0
https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd

のワークフローで生成しているうちにぼやけたりグロテスクっぽくなってしまう
バッチサイズはすべて統一してるのだが
288×512はやめたほうがいい?
けどこれは関係ない気がする
参照動画で使われてたサイズだし
サンプラーはIcmから変えてないカラスに変えると砂嵐になるため
なにがいけないんだろう
プロンプトは入れてもあまり意味がないとあった
けどipadapterはプロンプトで補強しないと正確性はあまりない
最初にモデル読み込んで、画像読み込み、Icmというサンプラーでやると参照画像からかけはなれてしまうデノイズ1より下げるとすぐノイズが入ってしまうし分からん
0239名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/29(月) 08:27:55.86ID:nOmMWpWW0
諦めたくない…諦めたくないよお

些細な情報でも構いません
読み込んだ画像に似た生成のやり方をご存知のかたお願いいたします
ドアップになるか、破綻するか、グロくなるか、似ていない顔
のどれかになってしまいます
0241名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/04/29(月) 11:32:42.78ID:672kJP7K0
どんな画像をもとにどんな動画を作りたいのか書いて、今どういう動画ができているのかimgurかcatboxにでも上げてよ
「読み込んだ画像に似た生成のやり方」では答えようがないよ
「諦めたくない」とかわざわざ書かなくてもいいからさ、聞きたいことを1つの書き込みに簡潔にまとめて書いてくれ
0242名無しさん@お腹いっぱい。 (ワッチョイ 5fba-SMbF)
垢版 |
2024/04/29(月) 12:36:56.74ID:wMEgYBiM0
・顔を再現させ似せる事が重要
・GWに突然5chに連投して「諦めたくないよお…」

これだけ見るとヤバい案件としか思えないんだが…

いやまあ愛犬のカワイイ変身動画かもしれんけどさ
0243名無しさん@お腹いっぱい。 (ワッチョイ 8744-+hba)
垢版 |
2024/04/29(月) 13:37:33.39ID:vVsU03Xg0
プロンプトに強調指定をすると破綻しやすいね
0245名無しさん@お腹いっぱい。 (ワッチョイ bf27-q1zy)
垢版 |
2024/04/29(月) 15:20:19.30ID:E7YYt6QN0
>>ドアップになるか
とか書いてる時点で読み込んでる画像の解像度がおかしいか、出力画像解像度がおかしいのではとは思う

まぁこのスレってエスパー検定率高いよね
たまに一流エスパーが即解答して真顔になるときあるけど
0246名無しさん@お腹いっぱい。 (ワッチョイ 2701-vzIx)
垢版 |
2024/04/29(月) 15:27:15.56ID:ugxdbEyf0
『AI生成で楽して副業』などの動画みて
調べる気ないのにやり始める人が多いけど
無責任動画だしてる人が最後まで教えたらいいのにな
それ系動画のコメ欄に書いてるのも見るけど、
質問コメは華麗にスルーしてんよな
面倒みろよw

コメ欄で無視され、こういうとこにくる
0247名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/29(月) 15:47:09.95ID:nOmMWpWW0
(ふぅ…散々な言われようだが落ち着け落ち着くんだ
GWに諦めたくないよう、GWは関係ないだろっ
だめだ落ち着くんだ)

おはようございます
起きました
罵る系のレスも少々ありましたが、たくさんのアドバイスありがとうございます
言われたとおり、状況を冷静に伝えられるかトライしてみます
ヤバイ奴なので何時間かかかるかもしれませんがまた書き込みいたします
0248名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/04/29(月) 17:02:10.59ID:672kJP7K0
(いや、だからそういうのをわざわざ書く必要はなくて、質問だけを簡潔に書いてほしいってことなんですけどね)
0249名無しさん@お腹いっぱい。 (ワッチョイ 5f8a-y8PE)
垢版 |
2024/04/29(月) 17:32:44.07ID:nOmMWpWW0
真似したい動画はこちらで
https://civitai.com/images/9650365
最初は、こちらのワークフローで生成していました
https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd
↑4/27に更新されています(自分は更新前のワークフローで生成を試みていました)
真似したい動画に似せるどころか顔も変わってしまうので投稿者の言っている設定にできないものか思案していました
真似したい動画をDLして、それをcomfyUIのvideo infoというノードに動画をドロップしたら、投稿者がコメントで言っていたワークフローが出てきました
もちろんそのワークフローで生成しても崩れてしまいます

ワークフロー
https://comfyworkflows.com/workflows/7581cbd1-1cd5-4f3a-a9aa-80f5ceeb686a
読み込ませた画像
https://i.imgur.com/SrcFrfF.png
https://i.imgur.com/vOcgUwI.png
https://i.imgur.com/llYz9A9.png
https://i.imgur.com/xEEZLwd.png
生成動画
https://i.imgur.com/r2jLBiz.mp4

RTX3060 12gb

自分の画像には長い髪の毛が写ってないので最初から狙ってはいませんが、ぼやけたり顔が元よりかけ離れるのがわかりません
ワークフローでは間違ってloraを強めにかけてしまいました
アップスケール前のKsamplerでIcm以外を選択すると砂嵐になる
実写系の画像なので、dpmpp_2m karrasを選択しないとどうしようもないのでは
288-512というサイズのせいでこうなっているのか

始めから真似したい画像を成功させようとは思っていませんが、まずはロードした画像に動画の画質や造形を近付けたいです
0251名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/29(月) 20:41:02.18ID:nOmMWpWW0
>>250
ありがとうございます
顔の周りを髪がぐるぐる回ってるのはどうやるのでしょうか
もう少し詳しくお願いします

①まず身体全体を画像生成する

動画にする

アップを切り出すワークフローで作る

そして、アップにした顔の周りに髪の毛を付ける?

②身体全体の生成の段階で髪の毛も纏わりつくように画像生成する

動画にする

アップで切り出す

①と②どちらのやり方が近いですか

投稿者はqrcodeの50あたりから開始して350で終わるとコメントしてますがパターンはこちらで合ってますか?
https://i.imgur.com/FZojh3v.mp4
このパターンの50あたりから開始、終わりは350と翻訳で出ます

破綻しているせいかもしれませんが顔の向きを常に正面に向けるのも難しかったです
0252名無しさん@お腹いっぱい。 (ワッチョイ 8744-+hba)
垢版 |
2024/04/29(月) 23:42:10.84ID:vVsU03Xg0
REACTORで置き換えた顔の表情を変更するのって何か方法があるのかな?
プロンプトで何を指定しても笑顔が出てくる。
すまし顔とか困った顔が欲しいんだが。
0253名無しさん@お腹いっぱい。 (ワッチョイ 5f7f-y8PE)
垢版 |
2024/04/30(火) 00:28:13.09ID:50IfL1TT0
惜しいところまできました
https://i.imgur.com/9uxOncC.mp4
更新されたワークフローをDLしてそれに画像をロードしました
CreateFadeMaskAdvancedのサイズのとこまで288-512にしちゃってました
それを512-512のままでやったらぼやけるのはなくなりました
モデルによってかなり変わるので変えながら試してみます
0254名無しさん@お腹いっぱい。 (ワッチョイ 5f7f-y8PE)
垢版 |
2024/04/30(火) 03:42:38.38ID:50IfL1TT0
アップスケール前ですが近いのができたので、オリジナルの画像生成に移行します
ちょびちょびいじりながら少しずつ覚えていきます
たくさんのアドバイスありがとうございました
また行き詰ったら立ち寄ると思いますが、どうかよろしくお願いします
https://i.imgur.com/UVfZ2Gq.mp4
0255名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/30(火) 12:55:25.15ID:50IfL1TT0
だめだああああ
ここからが遠い
みなさんにいくつか簡単な質問をしてもよろしいでしょうか
comfyui適性のないわたしですが何時間も格闘しても解決できない問題はあるものです
>>249に纏めてありますが
今回の問題は、顔の周りにどうやって髪の毛をまとわりつかせるか?です
あす内ハネ外ハネ巻き髪等のプロンプトを試してみますが、恐らくですが投稿者はダークレッドのスカーフで口元を覆っているのではないでしょうか
covering mouth with a darkred scarf
このようなプロンプトで口元は隠せます
しかし次の画像で髪の毛(口元含む)に変化をつけないと動画に動きが出ません
どなたか名案をお持ちでないでしょうか
windy hairで風で髪をなびかせられますが、風で髪が煽られると顔が露わになります

どなたかお願いします
問題はこれだけにとどまらないのですが

諦めたくない
諦めたくないようううぅ
0256名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/30(火) 13:08:08.14ID:50IfL1TT0
目が醒めたらアドバイスがきてることを願います
みなさんのGWの有意義な1日も祈ります物価下落も祈ります

顔の周りに髪を纏わりつかせたい
真横に流れるように流線的な動きのある髪です
もしかしたらこれは、>>251にあるqrcodeのパターンによって生成された髪かもしれません
画像をロードする前は波打つような髪ではなかったが動画生成時に髪に動きがついた…のかもしれない
しかし多少は真横に髪が流れていないとあそこまでうねうねした動きは出せないと思います

どうかお知恵をお授けなすって
わたしは諦めたくないです
0257名無しさん@お腹いっぱい。 (ワッチョイ 2767-BRR6)
垢版 |
2024/04/30(火) 17:00:29.48ID:f4CfLID80
まず簡潔に質問だけするという知恵をつけてください
0260名無しさん@お腹いっぱい。 (ワッチョイ 7f10-FvXU)
垢版 |
2024/04/30(火) 21:44:21.15ID:3cZlDGMt0
理想を叶えたいなら聞くべき場所はここじゃないんだけどな
先人の知恵がいつでも無料で簡単に手に入ると思ってはいけない
相手の時間を自分のために使わせていることを常に考えた方がいい
0262名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/04/30(火) 21:50:20.05ID:AYdy9KCd0
>>259
みんなが答えを知っていて、意地悪して教えないわけじゃないんだよ
質問の内容がわからない、わかっても答えられる人がいないから回答がないことだって普通にある
そうなるといくら頼まれたって無理なものは無理なの
それは理解してくれ
0263名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/04/30(火) 21:54:56.94ID:50IfL1TT0
>>262
それはうんそうだよね
だから自分一人喚いても仕方ない
モデルひとつ変えただけで挙動が大きく変わるし、ほんとうにモデルのせいなのか?サンプラーなのかcfgなのかSchedulerなのか手探りでやっていくしかない

みんなごめんね
もし分かったらでいいので教えてくれると助かります
ここはいつも見てますので邪魔してごめんなさい
0264名無しさん@お腹いっぱい。 (ワッチョイ df29-/G2d)
垢版 |
2024/05/01(水) 01:53:02.06ID:M1PIKx2j0
クレクレうざすぎるからNGつっこんだ
そもそもComfirmは使う気にもならんし
0268名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44)
垢版 |
2024/05/01(水) 06:38:26.34ID:WrzFuge+0
一応今はgimpを利用して髪の毛の合成を考えています
さすがに自分で合成したとなれば動きのある動画になると思うのでね
次はgimpの使い方を学びます
遠回りのようでこれが近道と信じて
0269名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/05/01(水) 06:51:51.59ID:C4lLtt0L0
ここは質問スレであって日記帳ではないので、単なる報告や独り言は書き込まないでもらえるかな
0275名無しさん@お腹いっぱい。 (スププ Sdff-Ff1V)
垢版 |
2024/05/01(水) 14:00:42.58ID:c5SmJOthd
ここのニキらは優しいからそのお方を相手しとるんやろけど、そのお方は然るべきディスコにでも行ってもろてそっちで思う存分活躍してもろたほうがええと思うで
そのお方が居るというだけで、何人の有能ニキたちがスレをそっ閉じしたことやら
0279名無しさん@お腹いっぱい。 (JP 0H9f-y8PE)
垢版 |
2024/05/01(水) 17:37:56.72ID:V1uedVa3H
forgeでxlを使っているんですが、チェックポイントを切り変える時にロード時間が以前よりも長くなりました
コマンドプロンプトを確認するとロード時にcalculate empty promptの部分が400-500sかかっています
この部分は何の影響を受けているかご存知の方はいますか?
lycorisの奴はもとから入っておらず、forgeはSSDに導入しています
forgeは使い始めた時から最新版(2月のもの)で、拡張機能も使い始めたときに導入したっきりで途中で追加していません
0281名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/05/01(水) 21:27:25.30ID:C4lLtt0L0
>>279
別フォルダにforgeをインストールしてみて、同じようにモデルの切り換えに時間がかかるならストレージに不具合が出ているかも
もしモデルの切り換え時間が短くなったら今まで使っていたforgeになにか問題がある

みたいな切り分けをしてみては
0283名無しさん@お腹いっぱい。 (ワッチョイ 2747-BRR6)
垢版 |
2024/05/01(水) 23:08:50.50ID:lkajTWzi0
VRAMが大きくない場合は、メインメモリと仮想記憶を使いまくっているらしいので、そのへんをチェックしてみたら
0284名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki)
垢版 |
2024/05/02(木) 00:22:46.45ID:OBZW6+pC0
というか
> calculate empty promptの部分が400-500s
これだけならかなりおかしいよね

> Model loaded in 19.0s (load weights from disk: 10.2s, forge load real models: 7.9s, calculate empty prompt: 0.8s).
ここの他の部分はどうなってるの?全部貼ってくださいな
0285名無しさん@お腹いっぱい。 (JP 0H9f-y8PE)
垢版 |
2024/05/02(木) 08:53:41.05ID:eXo+mJMRH
>>279 です
みなさん返信ありがとうございます

以下で解決しました
>>282 のDisable memmapping...にチェックを入れて実行したところロード時間がさらに増大(20分くらい)したので
チェックを外してもとの状態に戻して実行したらモデルのロード時間が直りました(60-100s)

>280
forgeがあるドライブには問題ありませんでした(断片化なし)
>281
新しくインストールしようとしたのですが別の問題が発生してインストールが現在できませんでした
次問題が発生したときは新しくインストールして様子を見たいと思います
>283
問題があったときはモデルロード時にはメモリが98%に張り付いてPC自体が10分ほどフリーズといった感じでした
解決した今は重くなることはありますがフリーズはないです
>284
ログをコピーできていなかったのですが大体
forge load real models:100s, calculate empty prompt:400-500sでした
他の部分は特に時間がかかっているということはありませんでした
0286名無しさん@お腹いっぱい。 (ワッチョイ dfad-b946)
垢版 |
2024/05/02(木) 11:13:31.45ID:SWHb25U50
Openpose Editorをインストールしたのですが、Openpose Editorのタブが表示されません。
調べた手順にのっとって、以下のURLをインストールして、applyや再起動もしました。
https://github.com/fkunn1326/openpose-editor
しかし、出てくるはずのタブが表示されません。
ちなみに、他の拡張機能で、同じようにタブが追加される拡張機能(Depth map library and poser)を入れたのですが、そちらもタブが追加されませんでした。
何か間違ってるんでしょうか?

Stable Diffusionのバージョンは以下です
version: v1.8.0
python: 3.10.10
0287名無しさん@お腹いっぱい。 (ワッチョイ e798-BRR6)
垢版 |
2024/05/02(木) 11:57:08.13ID:a2qxToNH0
>>286
Openpose Editorのページに記載があるように23年末で更新が終了しています
それ以降のバージョンのWeb-Uiでは正常動作は難しいかも
一応フォークで更新されてる物もあるようなのでそちらを試してみてはどうだろう(動作するかはわからんが)
0288名無しさん@お腹いっぱい。 (ワッチョイ dfad-b946)
垢版 |
2024/05/02(木) 12:20:57.66ID:SWHb25U50
>>287
なんと、そういうことだったんですか。
ちょっとページを見てみたのですが見つかりませんでした。
では、自分の環境に古いバージョンのwebuiがあるのでそちらを使って画像だけ生成しようと思います。
助かりました、ありがとうございます。
0291名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki)
垢版 |
2024/05/02(木) 23:42:22.35ID:OBZW6+pC0
>>290
なんのどれを勉強してるのかわからないけど、それは直接入力する必要はありません
選択したモデル(checkpoint)のハッシュ=指紋みたいなもの
ローカル側でモデル名を勝手に変えたりできるので、一意にこれってわかるように随所に表示されてる
0293名無しさん@お腹いっぱい。 (ワッチョイ 8756-+hba)
垢版 |
2024/05/03(金) 00:57:53.74ID:RvMdh7fL0
>>289
花札アイコンを押してLoraを選ぶ、という説明がたくさん出回っているが、もう花札アイコンはない
0295名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946)
垢版 |
2024/05/03(金) 14:16:48.58ID:+go996RC0
>>294
SD3の情報はまだほとんど出てきていませんね
SD3に限らずSD関連の情報が早いスレは、なんJNVA部です

なんJNVA部★391
https://fate.5ch.net/test/read.cgi/liveuranus/1714702930/

ただ、とても書き込みが多いので特定の話題だけを追うのは大変かもしれません
0306名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki)
垢版 |
2024/05/03(金) 20:55:15.43ID:+d0Mwaqe0
XLのembeddingsって最初あれこれ入れてみたけど、
1.5の頃のと違って特に効いてる感じもしなかったので悪影響心配して外したな
negativeXL、negativeXL_D、unaestheticXL_なんたら、あたりが残ってる

そういえばXLなのになぜか1.5のネガそのまま入れてる人たまにいるけど、あれって効いてるのかなぁ・・
画像がぶっ壊れたりしないのは逆に驚いた
0309名無しさん@お腹いっぱい。 (ワッチョイ 2716-BRR6)
垢版 |
2024/05/04(土) 16:33:41.03ID:gACYOFjC0
画質が上がるわけじゃないからな
微妙判定された絵を弾くだけ
0310名無しさん@お腹いっぱい。 (ワッチョイ bfad-b946)
垢版 |
2024/05/04(土) 17:51:43.27ID:WrJaedhv0
ネガのプロンプトが有効かどうか、怪しいのはポジ側に入れて1つづつ試してる
0316名無しさん@お腹いっぱい。 (ワッチョイ fb72-RDYW)
垢版 |
2024/05/05(日) 15:13:18.47ID:G3R6wYU30
プロンプトに入れたワードがあまりピッタリこなかったので削除したのですが、その後の生成にも影響が残ってるようなのですが、影響を完全に消すにはどうすればいいのでしょうか?
0318名無しさん@お腹いっぱい。 (ワッチョイ a3ca-nes2)
垢版 |
2024/05/05(日) 15:34:01.59ID:REJk+4v20
再現性の無いバグっぽい挙動で影響が残るケースはありますが、基本的にずっと残ることは無いです
おそらくそのプロンプトとは関係なく出ているだけかと
どうしても心配ならPCごと再起動してください
0319名無しさん@お腹いっぱい。 (ワッチョイ 0b1f-RDYW)
垢版 |
2024/05/05(日) 17:25:46.65ID:dk3XiEDY0
昔から噂があって、オカルトだのメモリ管理ミスだの言われてるけど
1枚じゃなくずっと続くみたいなのはなんか勘違いしてる可能性大

単純に類似プロンプトの一部を消し忘れはよくある
coffee, ..... , ..... , cafe, ......
でcoffeeだけ消して「いつまでもcoffeeが出る!」とか

あとwebuiのInfotextの設定でstyleが一部勝手に適用されてたり
> Apply: remove style text from prompt, always replace styles dropdown value with found styles (even if none are found).
あるバージョンから入ったこれで頭抱えたことある
0320名無しさん@お腹いっぱい。 (ワッチョイ bef2-0+0w)
垢版 |
2024/05/05(日) 17:52:16.71ID:RoIBhYiM0
足したプロンプトがイマイチだったから削除して生成し直したときに、いま削除したプロンプトが効いていたことはあった
あーこれかみたいな感じ
どうやって解消したかは覚えていない
次にこの症状が出たらシード値を-1以外にするというのを試してみたい
0323316 (ワッチョイ 439d-RDYW)
垢版 |
2024/05/06(月) 09:32:13.17ID:/YeQFmfb0
レスありがとうございます
詳細はわからないがそういう傾向があるみたいですね
AIという知性体なんで割り切って慣れるようにしてみます
0324名無しさん@お腹いっぱい。 (ワッチョイ 0f96-XbOt)
垢版 |
2024/05/06(月) 11:40:39.12ID:0+MLHnWO0
逆にプロンプトいじってみたが前の方がよかったみたいなときに、UNDOで戻せる機能が欲しい。
いちいち保存して読み込むのも面倒だし。
0327名無しさん@お腹いっぱい。 (ワッチョイ 26f8-T7LG)
垢版 |
2024/05/07(火) 20:09:32.66ID:m6TaSjhc0
LoraのマージがしたくてSuperMarger使おうと思ったんだけど何度やってもタブが出てこない
競合があるのかと思ってbuilt in以外の拡張外したりはしたけどダメ
ちなみにcolabのSD1.5
解決策や代替案があれば教えてくだせぇ
0328名無しさん@お腹いっぱい。 (ワッチョイ 666d-IOhT)
垢版 |
2024/05/08(水) 02:16:32.63ID:9MzWgtjg0
>>327
LoraではなくLoRAな
0329名無しさん@お腹いっぱい。 (ワッチョイ fab4-7wYT)
垢版 |
2024/05/08(水) 03:40:45.39ID:ZTyYUQLT0
おじさんや風景のAI絵はどこだ?
0330名無しさん@お腹いっぱい。 (ワッチョイ fab4-7wYT)
垢版 |
2024/05/08(水) 03:41:48.95ID:ZTyYUQLT0
相対数からゼロに近い おっさん、風景、線の少ないデフォルメマンガ絵など絶望的
女のエロ関係ばかりだAI絵
なんでだ?
0331名無しさん@お腹いっぱい。 (ワッチョイ fab4-7wYT)
垢版 |
2024/05/08(水) 03:42:07.02ID:ZTyYUQLT0
どういう理屈で少ない?
0332名無しさん@お腹いっぱい。 (ワッチョイ fab4-7wYT)
垢版 |
2024/05/08(水) 04:55:52.20ID:ZTyYUQLT0
生成できない理由はなんだ?

 クレヨンしんちゃん+ガンダム+幼稚園の風景
0333名無しさん@お腹いっぱい。 (ワッチョイ fab4-7wYT)
垢版 |
2024/05/08(水) 04:56:22.82ID:ZTyYUQLT0
パクリ要素の見えないガンダム1000体

なぜできない?
レスを投稿する


ニューススポーツなんでも実況