X



【StableDiffusion】AI画像生成技術8【Midjourney】

レス数が950を超えています。1000を超えると書き込みができなくなります。
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
871名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:09:56.53ID:4sACRINh
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
2022/10/17(月) 16:13:30.61ID:nQGEYwDS
そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ
874名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
2022/10/17(月) 16:16:33.01ID:n2Bxn8NT
>>870
models\Stable-diffusion に入れればいいんですか?
876名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:17:06.46ID:4sACRINh
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
2022/10/17(月) 16:37:00.08ID:l1DjdfDd
>>844
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
2022/10/17(月) 17:02:14.80ID:+Pf/s7hV
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん

waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
2022/10/17(月) 17:08:04.28ID:d+usOTfa
1.3はちょっとガッカリでしたね
2022/10/17(月) 17:17:36.70ID:mndmJmmd
アウロリ製造目的でもないならdreamboothはcolabでよくね
2022/10/17(月) 17:19:54.66ID:wYyHAuYq
冷静な指摘THX
2022/10/17(月) 17:30:32.51ID:jzVVkhF8
>>857
Hypernetwork解説してるのこれかなー。ちゃんと見てないけど
https://www.youtube.com/watch?v=1mEggRgRgfg
885名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:35:35.74ID:PG7EuW3q
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
2022/10/17(月) 17:39:26.96ID:jzVVkhF8
>>870
すまん、vaeについていけてない。どう使えばいいの?
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
2022/10/17(月) 17:41:51.73ID:2kKXaQLK
>>886
6
2022/10/17(月) 17:44:37.35ID:d+usOTfa
>>887
今やってみたけど今まで通り出るよ
890名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:52:13.04ID:4sACRINh
>>887
Fullにしてないオチ
2022/10/17(月) 18:04:38.20ID:L7rdcMqT
とりさんまはどれをどこに入れればええんやん?
2022/10/17(月) 18:05:25.98ID:L7rdcMqT
自決した
2022/10/17(月) 18:16:54.70ID:ZVbLymcT
colab環境でdreambooth回すならwaifu1.3を使うしかないのか
2022/10/17(月) 18:18:40.75ID:n2Bxn8NT
>>888
autoencoder_kl-f8-trinart_characters.ckpt

trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな

NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
2022/10/17(月) 18:28:46.14ID:mtmeY11F
とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな
2022/10/17(月) 18:30:53.13ID:2kKXaQLK
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
2022/10/17(月) 18:35:07.99ID:CKWAYoH4
NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ
898名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:44:46.35ID:yqllOzjB
hlkyって死んだの?
2022/10/17(月) 18:49:49.96ID:AN5V5xfD
>>878
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな
2022/10/17(月) 19:19:29.32ID:mndmJmmd
HNは何か急激に再現度上がるタイミングがあるな
2022/10/17(月) 19:26:37.90ID:jzVVkhF8
>>894
ありがとう!

colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
2022/10/17(月) 19:46:35.16ID:jzVVkhF8
>>901
ごめん、このwgetのコマンドは間違い。

vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。

こんな感じになったら、VAEがロードされてるはず。

Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
2022/10/17(月) 20:13:46.33ID:ldxtMWb/
私もHypernetworkが上手くいかないので教えてください。

キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?

・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい

1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
 >100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
 ・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
    (「a woman, 1girl, solo, white background」でもだめ) 
2022/10/17(月) 20:31:29.55ID:fu4E24m1
>>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく

自分ならとりあえずこんな感じで試すかも
2022/10/17(月) 20:34:55.89ID:adqtuMlL
なかなか 難しいね
2022/10/17(月) 22:02:41.17ID:NFtScPgO
とりんさまも結構やる子だぞ
https://i.imgur.com/QSbVPOy.jpg
https://i.imgur.com/sS7R7xx.jpg
2022/10/17(月) 22:35:22.64ID:891my6Vf
イケメン生成するためにずっとtrinart2使ってるけど、美少女もわりといけると思うんだ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ
2022/10/17(月) 22:39:57.04ID:UGl0wV53
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
2022/10/17(月) 22:51:45.40ID:adqtuMlL
xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった
2022/10/17(月) 23:05:28.46ID:891my6Vf
>>908
わかりやすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな
2022/10/17(月) 23:47:42.47ID:+Pf/s7hV
色々試してるけど、結局waifu1.2に戻ってくる
https://i.imgur.com/cCJf2DY.png
2022/10/17(月) 23:55:39.15ID:UGl0wV53
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
2022/10/17(月) 23:57:11.48ID:+Pf/s7hV
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
2022/10/18(火) 00:02:36.49ID:j0I0cSk3
>>912
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな
2022/10/18(火) 00:06:18.31ID:oKNCSux3
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
2022/10/18(火) 00:18:08.04ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
2022/10/18(火) 00:18:46.14ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
2022/10/18(火) 00:31:00.38ID:93v8L+yq
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
919名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:43:10.46ID:l1T5Qa1Z
diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで

config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
2022/10/18(火) 00:50:34.35ID:93v8L+yq
>>919
ありがとう。試してみます
921名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 04:14:38.49ID:soj7FsTJ
wd1.4の新しいvae来たけど試した?
2022/10/18(火) 07:11:36.57ID:P2mP3FzW
進化の流れについていけねええええええええ
2022/10/18(火) 08:41:00.94ID:q9QBdgsx
https://docs.qq.com/doc/DWHl3am5Zb05QbGVs
なんでこれ貼ってないの
2022/10/18(火) 08:45:17.71ID:cyHLbL5S
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
2022/10/18(火) 08:46:54.53ID:TtXnf/fW
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
2022/10/18(火) 08:47:13.18ID:Lo3y4TAi
>>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
2022/10/18(火) 09:41:15.76ID:RDN7cvBB
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
2022/10/18(火) 10:36:16.00ID:bKPdKQSD
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
929名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:56.24ID:wbrPm6Fj
>>926
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる
2022/10/18(火) 10:51:55.46ID:3BBOW5w1
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
2022/10/18(火) 10:54:05.13ID:x3uyPhfX
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り

Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.

英語と日本語できる人よろしくたのむ
2022/10/18(火) 10:58:00.25ID:RDN7cvBB
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
2022/10/18(火) 10:58:13.00ID:YQaGLl7w
博多弁なら任せろ
2022/10/18(火) 11:35:57.20ID:93v8L+yq
>>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか

(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png

novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
935名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:28:22.93ID:l1T5Qa1Z
引数に以下必要かも
--original_config_file=model/config.yaml
2022/10/18(火) 13:43:40.98ID:l1T5Qa1Z
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
2022/10/18(火) 13:50:27.09ID:JoiaNmiz
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
2022/10/18(火) 14:00:14.32ID:xjE4NofN
無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念
2022/10/18(火) 14:06:39.39ID:93v8L+yq
>>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます

出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
2022/10/18(火) 15:14:54.45ID:N32QSKnx
>>939
https://colab.research.google.com/drive/1Fu_v_VfTVDan61uiS5zI8OEqeRjQgVC2#scrollTo=wnTMyW41cC1E
参考にしてください
2022/10/18(火) 15:40:53.95ID:5DgBXIZt
>>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね

全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う

全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
2022/10/18(火) 15:49:26.92ID:N32QSKnx
>>939
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted
2022/10/18(火) 15:58:16.38ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
2022/10/18(火) 16:07:25.39ID:N32QSKnx
./でした
失礼
2022/10/18(火) 16:25:37.33ID:93v8L+yq
>>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました

--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]

- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)

return text_model
2022/10/18(火) 16:42:09.31ID:x9mpdnVy
結局SD1.5はいつ出るんだ?
2022/10/18(火) 16:59:13.94ID:8m7b93Ex
たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない
948名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 17:21:57.69ID:GXy84LFC
>>941
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます
2022/10/18(火) 19:12:48.64ID:cvFdiqt/
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
2022/10/18(火) 19:22:32.68ID:PD7GU1ya
これ写真食わせたらどうなんの?
2022/10/18(火) 19:42:38.40ID:b76mos+T
deepfakeが作れるよ
2022/10/18(火) 19:44:39.55ID:83KLqlGX
>>949
i2iとかinpaintで頑張れ
2022/10/18(火) 20:19:37.76ID:SdnJUVNK
>>949
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり
954名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 20:34:57.45ID:5fUCLEJM
>>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
2022/10/18(火) 20:39:28.53ID:U+Re+1lV
>>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
2022/10/18(火) 20:40:23.24ID:zu/vdcfa
前スレの>>797
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど
2022/10/18(火) 20:43:40.02ID:oKNCSux3
Legのtypoミス
2022/10/18(火) 20:46:34.26ID:Nv8AfTz2
>>956
タイポ
959名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:01:25.84ID:k4JvEfw0
>>955
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。
2022/10/18(火) 21:05:58.64ID:VcGxzPHt
>>956
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで
2022/10/18(火) 21:06:36.01ID:zu/vdcfa
これで正常になった?
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png
2022/10/18(火) 21:07:10.61ID:ey3587xA
sfwでエロが出ないって当たり前だろ
わざとやってる?
2022/10/18(火) 21:21:49.83ID:U+Re+1lV
>>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
2022/10/18(火) 21:26:52.39ID:AaFa6Jve
>>961
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね
965名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:27:06.68ID:NEYHrj9C
Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
2022/10/18(火) 21:33:21.34ID:TgSrji0x
でりだアート…のべりすといつのまに?
967名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:36:53.35ID:D1LFLupJ
>>960
>>963
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。
2022/10/18(火) 21:42:09.52ID:zu/vdcfa
>>960 >>964
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>960
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの??
2022/10/18(火) 21:46:16.50ID:/we3lp9G
>>965
しゅごい
970名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:57:27.95ID:7jXZOYp0
>>967
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます!
レス数が950を超えています。1000を超えると書き込みができなくなります。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況