入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が950を超えています。1000を超えると書き込みができなくなります。
2022/10/10(月) 16:40:34.56ID:EN25VE7L
871名無しさん@お腹いっぱい。
2022/10/17(月) 16:09:56.53ID:4sACRINh HypernetworksはGithubにあったこれで大体うまくいってる
5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
2022/10/17(月) 16:13:30.61ID:nQGEYwDS
そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ
874名無しさん@お腹いっぱい。
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
2022/10/17(月) 16:16:33.01ID:n2Bxn8NT
>>870
models\Stable-diffusion に入れればいいんですか?
models\Stable-diffusion に入れればいいんですか?
876名無しさん@お腹いっぱい。
2022/10/17(月) 16:17:06.46ID:4sACRINh ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
2022/10/17(月) 16:37:00.08ID:l1DjdfDd
>>844
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな
例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな
例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
2022/10/17(月) 17:02:14.80ID:+Pf/s7hV
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん
waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
trinの更新来てるじゃあん
waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
2060でも買ってこようか真剣に考えてる
2022/10/17(月) 17:08:04.28ID:d+usOTfa
1.3はちょっとガッカリでしたね
2022/10/17(月) 17:17:36.70ID:mndmJmmd
アウロリ製造目的でもないならdreamboothはcolabでよくね
2022/10/17(月) 17:19:54.66ID:wYyHAuYq
冷静な指摘THX
2022/10/17(月) 17:30:32.51ID:jzVVkhF8
885名無しさん@お腹いっぱい。
2022/10/17(月) 17:35:35.74ID:PG7EuW3q ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
2022/10/17(月) 17:39:26.96ID:jzVVkhF8
>>870
すまん、vaeについていけてない。どう使えばいいの?
すまん、vaeについていけてない。どう使えばいいの?
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
2022/10/17(月) 17:41:51.73ID:2kKXaQLK
>>886
6
6
2022/10/17(月) 17:44:37.35ID:d+usOTfa
>>887
今やってみたけど今まで通り出るよ
今やってみたけど今まで通り出るよ
890名無しさん@お腹いっぱい。
2022/10/17(月) 17:52:13.04ID:4sACRINh >>887
Fullにしてないオチ
Fullにしてないオチ
2022/10/17(月) 18:04:38.20ID:L7rdcMqT
とりさんまはどれをどこに入れればええんやん?
2022/10/17(月) 18:05:25.98ID:L7rdcMqT
自決した
2022/10/17(月) 18:16:54.70ID:ZVbLymcT
colab環境でdreambooth回すならwaifu1.3を使うしかないのか
2022/10/17(月) 18:18:40.75ID:n2Bxn8NT
>>888
autoencoder_kl-f8-trinart_characters.ckpt
を
trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな
NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
autoencoder_kl-f8-trinart_characters.ckpt
を
trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな
NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
2022/10/17(月) 18:28:46.14ID:mtmeY11F
とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな
2022/10/17(月) 18:30:53.13ID:2kKXaQLK
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
まあ、ある程度劣るのはしゃーない
2022/10/17(月) 18:35:07.99ID:CKWAYoH4
NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ
898名無しさん@お腹いっぱい。
2022/10/17(月) 18:44:46.35ID:yqllOzjB hlkyって死んだの?
2022/10/17(月) 18:49:49.96ID:AN5V5xfD
2022/10/17(月) 19:19:29.32ID:mndmJmmd
HNは何か急激に再現度上がるタイミングがあるな
2022/10/17(月) 19:26:37.90ID:jzVVkhF8
>>894
ありがとう!
colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
ありがとう!
colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
2022/10/17(月) 19:46:35.16ID:jzVVkhF8
>>901
ごめん、このwgetのコマンドは間違い。
vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。
こんな感じになったら、VAEがロードされてるはず。
Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
ごめん、このwgetのコマンドは間違い。
vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。
こんな感じになったら、VAEがロードされてるはず。
Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
2022/10/17(月) 20:13:46.33ID:ldxtMWb/
私もHypernetworkが上手くいかないので教えてください。
キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?
・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい
1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
>100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
(「a woman, 1girl, solo, white background」でもだめ)
キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?
・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい
1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
>100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
(「a woman, 1girl, solo, white background」でもだめ)
2022/10/17(月) 20:31:29.55ID:fu4E24m1
>>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく
自分ならとりあえずこんな感じで試すかも
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく
自分ならとりあえずこんな感じで試すかも
2022/10/17(月) 20:34:55.89ID:adqtuMlL
なかなか 難しいね
2022/10/17(月) 22:02:41.17ID:NFtScPgO
2022/10/17(月) 22:35:22.64ID:891my6Vf
イケメン生成するためにずっとtrinart2使ってるけど、美少女もわりといけると思うんだ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ
2022/10/17(月) 22:39:57.04ID:UGl0wV53
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
2022/10/17(月) 22:51:45.40ID:adqtuMlL
xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった
最近は意地でも VRAM6GB位しか使わなくなった
2022/10/17(月) 23:05:28.46ID:891my6Vf
2022/10/17(月) 23:47:42.47ID:+Pf/s7hV
色々試してるけど、結局waifu1.2に戻ってくる
https://i.imgur.com/cCJf2DY.png
https://i.imgur.com/cCJf2DY.png
2022/10/17(月) 23:55:39.15ID:UGl0wV53
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
2022/10/17(月) 23:57:11.48ID:+Pf/s7hV
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
2022/10/18(火) 00:02:36.49ID:j0I0cSk3
2022/10/18(火) 00:06:18.31ID:oKNCSux3
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
2022/10/18(火) 00:18:08.04ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
2022/10/18(火) 00:18:46.14ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
2022/10/18(火) 00:31:00.38ID:93v8L+yq
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
919名無しさん@お腹いっぱい。
2022/10/18(火) 00:43:10.46ID:l1T5Qa1Z diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで
config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
2022/10/18(火) 00:50:34.35ID:93v8L+yq
>>919
ありがとう。試してみます
ありがとう。試してみます
921名無しさん@お腹いっぱい。
2022/10/18(火) 04:14:38.49ID:soj7FsTJ wd1.4の新しいvae来たけど試した?
2022/10/18(火) 07:11:36.57ID:P2mP3FzW
進化の流れについていけねええええええええ
2022/10/18(火) 08:41:00.94ID:q9QBdgsx
https://docs.qq.com/doc/DWHl3am5Zb05QbGVs
なんでこれ貼ってないの
なんでこれ貼ってないの
2022/10/18(火) 08:45:17.71ID:cyHLbL5S
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
2022/10/18(火) 08:46:54.53ID:TtXnf/fW
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
2022/10/18(火) 08:47:13.18ID:Lo3y4TAi
>>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
2022/10/18(火) 09:41:15.76ID:RDN7cvBB
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
2022/10/18(火) 10:36:16.00ID:bKPdKQSD
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
実質絵柄が無限になって個性が出る
929名無しさん@お腹いっぱい。
2022/10/18(火) 10:36:56.24ID:wbrPm6Fj2022/10/18(火) 10:51:55.46ID:3BBOW5w1
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
誰かやって♡ ワイはデータセット集めるのめんどい
2022/10/18(火) 10:54:05.13ID:x3uyPhfX
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り
Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.
英語と日本語できる人よろしくたのむ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り
Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.
英語と日本語できる人よろしくたのむ
2022/10/18(火) 10:58:00.25ID:RDN7cvBB
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
2022/10/18(火) 10:58:13.00ID:YQaGLl7w
博多弁なら任せろ
2022/10/18(火) 11:35:57.20ID:93v8L+yq
>>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか
(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png
novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか
(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png
novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
935名無しさん@お腹いっぱい。
2022/10/18(火) 13:28:22.93ID:l1T5Qa1Z 引数に以下必要かも
--original_config_file=model/config.yaml
--original_config_file=model/config.yaml
2022/10/18(火) 13:43:40.98ID:l1T5Qa1Z
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
model_outputにdiffuser形式のフォルダが作られるはず
2022/10/18(火) 13:50:27.09ID:JoiaNmiz
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
2022/10/18(火) 14:00:14.32ID:xjE4NofN
無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念
xformersは途中buildするとこエラーでて断念
2022/10/18(火) 14:06:39.39ID:93v8L+yq
>>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます
出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます
出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
2022/10/18(火) 15:14:54.45ID:N32QSKnx
2022/10/18(火) 15:40:53.95ID:5DgBXIZt
>>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね
全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う
全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
8割ぐらいかな
でも全身絵を生成すると顔崩れるね
全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う
全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
2022/10/18(火) 15:49:26.92ID:N32QSKnx
>>939
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted
2022/10/18(火) 15:58:16.38ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
もう今の時代に自分なりのこだわりとか意味ねぇな
2022/10/18(火) 16:07:25.39ID:N32QSKnx
./でした
失礼
失礼
2022/10/18(火) 16:25:37.33ID:93v8L+yq
>>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました
--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]
- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)
return text_model
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました
--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]
- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)
return text_model
2022/10/18(火) 16:42:09.31ID:x9mpdnVy
結局SD1.5はいつ出るんだ?
2022/10/18(火) 16:59:13.94ID:8m7b93Ex
たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない
948名無しさん@お腹いっぱい。
2022/10/18(火) 17:21:57.69ID:GXy84LFC2022/10/18(火) 19:12:48.64ID:cvFdiqt/
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
あのモデルでエロもやれたら最高なのになぁ
2022/10/18(火) 19:22:32.68ID:PD7GU1ya
これ写真食わせたらどうなんの?
2022/10/18(火) 19:42:38.40ID:b76mos+T
deepfakeが作れるよ
2022/10/18(火) 19:44:39.55ID:83KLqlGX
>>949
i2iとかinpaintで頑張れ
i2iとかinpaintで頑張れ
2022/10/18(火) 20:19:37.76ID:SdnJUVNK
>>949
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり
954名無しさん@お腹いっぱい。
2022/10/18(火) 20:34:57.45ID:5fUCLEJM >>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
2022/10/18(火) 20:39:28.53ID:U+Re+1lV
>>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
2022/10/18(火) 20:40:23.24ID:zu/vdcfa
前スレの>>797
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど
2022/10/18(火) 20:43:40.02ID:oKNCSux3
Legのtypoミス
2022/10/18(火) 20:46:34.26ID:Nv8AfTz2
>>956
タイポ
タイポ
959名無しさん@お腹いっぱい。
2022/10/18(火) 21:01:25.84ID:k4JvEfw02022/10/18(火) 21:05:58.64ID:VcGxzPHt
2022/10/18(火) 21:06:36.01ID:zu/vdcfa
これで正常になった?
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png
2022/10/18(火) 21:07:10.61ID:ey3587xA
sfwでエロが出ないって当たり前だろ
わざとやってる?
わざとやってる?
2022/10/18(火) 21:21:49.83ID:U+Re+1lV
>>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
2022/10/18(火) 21:26:52.39ID:AaFa6Jve
>>961
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね
965名無しさん@お腹いっぱい。
2022/10/18(火) 21:27:06.68ID:NEYHrj9C Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
2022/10/18(火) 21:33:21.34ID:TgSrji0x
でりだアート…のべりすといつのまに?
967名無しさん@お腹いっぱい。
2022/10/18(火) 21:36:53.35ID:D1LFLupJ2022/10/18(火) 21:42:09.52ID:zu/vdcfa
2022/10/18(火) 21:46:16.50ID:/we3lp9G
>>965
しゅごい
しゅごい
970名無しさん@お腹いっぱい。
2022/10/18(火) 21:57:27.95ID:7jXZOYp0レス数が950を超えています。1000を超えると書き込みができなくなります。
ニュース
- 【大阪】西成・小学生7人負傷事件、殺人未遂容疑で逮捕の東京都東村山市の28歳無職の男「全てが嫌になった」無差別殺人狙ったか [樽悶★]
- 【野球】巨人・田中将大 3回8安打3四球3失点で降板… 通算199勝目ならず 中13日登板も、初回にいきなり5連打され捕まる [冬月記者★]
- 入荷した備蓄米「1日で売り切れてしまった」スーパーから嘆きの声 専門家は「コメ価格は今年秋以降も上がる可能性がある」と指摘 [首都圏の虎★]
- 【内廷費】天皇ご一家のための費用360万円を窃取 宮内庁侍従職を懲戒免職… ★2 [BFU★]
- 埼玉 八潮 道路陥没 県知事“転落の車に人と思われる姿確認” [首都圏の虎★]
- 【備蓄米放出】どうしてコメはなかなか流通しないのか? 関係者「精米やコメの袋詰めが追いつかない状況だ」★4 [シャチ★]
- 🏡ーい✌😁
- 【悲報】大物アニメ監督「コードギアスみたいな仕掛けて成功した作品は3年以内に消える」 [839150984]
- 海外歴史学者「日本人の731部隊はナチスより残忍だった。捕虜を生きたまま冷凍し、麻酔無しで子供を解剖した。」→18万いいね👍 [705549419]
- 【謎】ミスドで一番美味いドーナツは?男「オールドファッション」女「ポンデリング」
- 証券口座乗っ取り顧客に全額補償へ [709039863]
- マー糞炎上wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww