【StableDiffusion】AI画像生成技術10【NovelAI】

レス数が950を超えています。1000を超えると書き込みができなくなります。
2022/11/03(木) 00:10:16.15ID:0dW1bfVB0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合17【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1667381701/
AIイラスト 愚痴、アンチ、賛美スレ part12
https://mevius.5ch.net/test/read.cgi/illustrator/1666872303/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術9【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1666139334/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2022/11/20(日) 18:10:08.67ID:eHVyLUfw0
>>852
モデル改良ってDBのこと?
2022/11/20(日) 19:58:21.39ID:a58OnAKnr
>>850
最初手持ちpcに1060(3GB)乗せてたけど、AI無理すぎて手持ちPC的な電力限界ラインの3050(8GB)に載せ替えたわ

生成一回45秒~1分近いけど、NovelAIの補助的な利用にはそれなりに使えて満足してる
2022/11/20(日) 20:23:49.63ID:zwJgysyv0
自分でも何と何を混ぜたのか忘れるレベルで
様々なモデルを試行錯誤しながら混ぜまくった
856名無しさん@お腹いっぱい。 (ワッチョイ c27c-LEwT)
垢版 |
2022/11/20(日) 20:30:02.33ID:VjajSqXg0
Anything入れてからimg2imgでガンガン彩度が下がっていくようになったんだけど同じ現象の人いる?
Anythingと混ぜたモデルでも同じで最初は気のせいかと思ってたけど、Inpaint使うと明らかに修正した箇所だけ色褪せてる
2022/11/20(日) 20:38:02.83ID:y+5pTy0Y0
>>856
VAEの指定は正しくなってるか?
2022/11/20(日) 20:46:03.54ID:zfbdbjq8a
混ぜたモデルにvae使わせて描かせると色復活するけど
これってどんどんckptをマージしてany要素が薄まってもオリジナルの状態のvae使ってて大丈夫?
859名無しさん@お腹いっぱい。 (ワッチョイ c27c-LEwT)
垢版 |
2022/11/20(日) 20:50:46.87ID:VjajSqXg0
>>857
指定した覚えがないのでそれかも
Anything-V3.0.vae.ptってやつかな
詳しく書いてそうなとこ見つけたから読みながらやってみるよ、ありがとう
2022/11/20(日) 21:41:23.70ID:u1UEWiOo0
>>846ですけど24GB必要というのは学習の為です
マイナーキャラ好き&特殊性癖持ちなのでNovelAIでは描けず追加学習が必要なのです
あとVTuber志願者なので高級AIは活動に役立ちそうに思えたのです
2022/11/20(日) 21:45:46.65ID:zgH0ilcW0
情報小出ししかも足りない
2022/11/20(日) 22:14:50.50ID:DXQiM0hr0
Vtuber関連で必要な機材としてどうかはまた別で考える必要があるしなぁ
そこまで行くとこのスレの範疇の内容でもないし、必須かはともかく金があるなら買えば確実なのでは
「お絵描きする」と「学習する」は別だし活動にどう役立てるかも自分で考えることだし、
Wiki見て自分の思う用途と方針固めてからじゃないと必要スペックは答えようがないんじゃないかな
2022/11/20(日) 22:34:58.74ID:q3a3+wLs0
説明力がないにも程がある
違う意味でスペックが心配に
2022/11/20(日) 22:42:03.07ID:KPtQ7g9L0
おやじ!この店で一番高いやつだ!って言えば大丈夫だろ
2022/11/20(日) 22:57:32.65ID:FA5qT2or0
vaeて同じ名前の勝手に読み込んでくれるんとちゃうの?
自分で指定する所あったっけ?
2022/11/20(日) 23:11:45.72ID:VjajSqXg0
ckptと同じ場所に同じ名前で置けば認識してくれるけどそもそもおいてなかった
2022/11/20(日) 23:20:54.10ID:FA5qT2or0
AnyV3-prunedはバギングから落としたvae使っても薄くなったから何もついてないAnyV3使ってるな
868名無しさん@お腹いっぱい。 (ワッチョイ 772d-ihPV)
垢版 |
2022/11/21(月) 00:05:40.64ID:PTd1lBff0
>>860
今なら4090買っといた方がイイヨ
2022/11/21(月) 02:16:55.19ID:4gQ3YHLPa
vaeなくても問題ないのか
地味に重いからanyの消そうかな
2022/11/21(月) 03:15:05.64ID:5D/cI28Xa
問題なくはないでしょ
vaeひとつ消したところでけっきょくckptのウェイト読むとかで大差ないんじゃないの
2022/11/21(月) 07:43:13.27ID:pK9Qnydx0
手先指先の修正をいるかいらないかってところ
問題ないといえばない
人それぞれ
2022/11/21(月) 07:54:44.58ID:ZZf3bhAV0
NAIとAnything-v3のvaeは一緒だけど、Anything-v3の素のモデルだと
描画は色が薄いというかあせた感じになりやすいのでvae使って鮮やかに最後のひと手間をかけてもらうのが基本だけど、無くても差を感じないなら無しでいいと思うわ。
その人の目にはそう見えるんだろうし、差分とってなにが違うかなんてする必要もないしね。もともとどっちが正しいとかそういうものでもないしな。好きな方を選べ!
2022/11/21(月) 09:47:37.09ID:wwbCuGvg0
anything、vae使った時と使ってない時の間くらいの鮮やかさにしたい
2022/11/21(月) 10:30:54.72ID:FYX4bUWr0
手動で一括コントラスト補正すればまあいらんかな
2022/11/21(月) 10:31:09.46ID:6CwU0uOqM
anyやgapeやマージ版やら色々使ったけどNAIの柔軟性はやっぱ凄いわ
2022/11/21(月) 11:58:04.12ID:6nLxRaxr0
https://deepimagination.cc/Magic3D/
2022/11/21(月) 12:29:05.23ID:5D/cI28Xa
vaeって色くらいしか変わらなくない?
2022/11/21(月) 12:29:42.58ID:CXIYfBJj0
>>873
anythingにvaeを0.5でマージしてみては?
2022/11/21(月) 12:31:14.23ID:wBfqS8u/0
text to 3dもここまで来たのか
やっぱnvidiaなんすね
2022/11/21(月) 12:49:24.22ID:H3Qj3JSK0
AMDの新しいやつに載ってるAIなんちゃらって謎部分が使われるようになると熱いんだけどね
2022/11/21(月) 16:04:24.12ID:nl0WJAsX0
> Artstation-Diffusionとかいう、Artstationの5万枚の画像でファインチューニングされたSDモデル
https://twitter%2ecom/umiyuki_ai/status/1594179335082033153

AIをよく研究している人が作者を名指しにしているツイートなのでウイルスとかの心配は少なそう
2022/11/21(月) 16:07:09.24ID:pK9Qnydx0
>>877
指先とかよく見てみると崩れてるのが治ってたりする
2022/11/21(月) 17:31:37.77ID:X3aMYO0g0
>>880
謎なうちは広まらないわな
2022/11/21(月) 17:39:20.67ID:As3SJvtv0
謎の半導体メーカーNVIDIAを信じろ
2022/11/21(月) 17:49:07.95ID:xhy67mfo0
>>882
なるほど
2022/11/21(月) 18:03:43.78ID:GLsefYU/0
>>880
Vulkanかも知れん
2022/11/21(月) 20:45:14.80ID:Y+NO5HbC0
any3.0のvae使ったらサーモンピンク1色の画像がちょいちょい出てくるようになったんだが?
おま環ってやつかしら
2022/11/21(月) 20:49:01.77ID:sbfkBs980
>>887
>>791以降でその話題しばらく出てたからどうぞ
多分色関係なく塗り潰しオーバーフローは原因同じで応急処置は--no-half-vae
2022/11/21(月) 20:52:02.63ID:Y+NO5HbC0
>>888
これってこの古都だったのか
サンガツ
2022/11/22(火) 10:30:00.59ID:axelrHhL0
>>881
https://huggingface.co/hakurei/artstation-diffusion
これか

waifuの人が作ってるようだけど、1.4のckptの前にDiffuserのを出してみた的なものなのかな?
2022/11/22(火) 10:31:48.68ID:cIh+eiKQM
5万枚って今じゃ少ない気もするがどうなんだろ
2022/11/22(火) 11:49:31.21ID:hAD8W24q0
枚数少ないから、別分野のものを個人的に作りましたって感じじゃないか
2022/11/22(火) 12:48:17.08ID:gV1YHDDp0
アスペクト比を変えてうまく生成できるかのテストみたい?
2022/11/22(火) 15:00:12.11ID:uOd2xEx+0
1111で単語並べてると「Warning: too many input tokens; some (2) have been truncated:」という警告が出てくるんだけど
75トークン以上はやっぱりダメなのか?
2022/11/22(火) 15:20:11.10ID:dwXv6x6p0
>>894
1111のバージョンが極度に古いかモデルの問題か
とにかく環境書いたほういいかと
2022/11/22(火) 17:11:30.26ID:uOd2xEx+0
>>895
すまない、環境は1111の最新(さっきもgit pullした)でグラボは3090、モデルはAnyV3、HNなし

現象はこれ(Time takenの上にWarningが出る) 
https://imgur.com/a/SmPT2fi.png

関係ありそうな設定はこれ(デフォのまま)
https://imgur.com/a/tyWDHF3

何か判りますかね?
2022/11/22(火) 18:11:36.70ID:4yPwCdxc0
>>896
ソース見てきたけど
旧仕様の強調構文を利用する設定にしている場合に
処理自体が75トークン上限の古い解析が入るらしい
その辺り弄った覚えはないだろか?
2022/11/22(火) 18:17:38.85ID:4yPwCdxc0
>>896
追記

Settings の Stable Diffusion の項にあるこの真ん中のが
「ONになってると」そうなるようだ
古いプロンプト再現でもしない限り必要ないんだが間違えて弄ってないか?

https://i.imgur.com/lbsTbsU.png
899名無しさん@お腹いっぱい。 (ワッチョイ 57ad-kfYZ)
垢版 |
2022/11/22(火) 19:19:36.18ID:eN+LirKh0
- This IS expected if you are initializing CLIPTextModel from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPreTraining model).
- This IS NOT expected if you are initializing CLIPTextModel from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).
コイツは何モン...?

学習済みモデルに追加学習させたいのだけど...
2022/11/22(火) 19:37:19.20ID:98mPIsyoa
pullした時点でこんなものが出るのか?
2022/11/22(火) 19:54:13.88ID:uOd2xEx+0
>>897-898
そこONになってました
OFFにしたら警告消えました
いつ触ったか記憶に無いけど触ってたようです
ありがとうございます!!
902名無しさん@お腹いっぱい。 (アウアウウー Sa3b-XEgA)
垢版 |
2022/11/22(火) 21:51:17.37ID:edv8cYFFa
inpaintやるときガンダムSEEDのコーディネイターの母親になった気分になるわ
目の色が違うわ!!
2022/11/23(水) 06:46:07.80ID:yJzkah3F0
EimisAnimeDiffusionってvaeファイル無いけど無しのまま使えって事なのでしょうか
2022/11/23(水) 07:06:43.07ID:T+kHLMBF0
無しのまま使えって事だよ。必要かどうかもわらん状態でなぜ必要だと思い込んでいるのか
vaeがないと死にそうなくらい不安ならAnything-v3(NAIのコピー)やSDやらいくらでもあるから拾ってきて使えばいい
ちなみにMidjorney-v4もないけどな
2022/11/23(水) 08:45:50.53ID:E56ZcNsa0
artstation-diffusionを使ってみたいんだがこれファイルどれかわかる?
.ckptがないんだが
hakurei/artstation-diffusion at main - https://huggingface.co/hakurei/artstation-diffusion/tree/main
2022/11/23(水) 08:53:46.06ID:E56ZcNsa0
>>905
なんかDiffuser形式モデルからckptファイルへの変換が必要らしい。わからん
https://gist.github.com/jachiam/8a5c0b607e38fcc585168b90c686eb05
2022/11/23(水) 09:08:00.68ID:vDYIf0Rr0
その辺の手順まとめておかないとすぐ忘れる
2022/11/23(水) 09:28:41.62ID:Mhp6NV6Ga
それをやってくれるAIを作ればいい
2022/11/23(水) 09:53:33.16ID:XSrKX4+o0
>>896
>>901
一応もう一つソース覗いたから知ってる事言っておくけどローカルの強調構文って
(xxx :2.0) みたいに ワード->スペース->:数値 でないと解釈しないよ
:とxxxの間のスペースがない (xxx:2.0) も 数値の前にスペース挟んだ (xxx : 2.0) も効かない
2022/11/23(水) 10:29:00.50ID:KibpYxgx0
>>909
じゃあこれはどういうこと?
(huge breasts:1.8)
https://i.imgur.com/rRhBlzc.png

(huge breasts :1.8)
https://i.imgur.com/czgyUTK.png
2022/11/23(水) 10:35:35.44ID:Rp92T0xy0
うちでもスペース無しは普通に効いてるな
2022/11/23(水) 10:38:36.81ID:7aXFrjmd0
>>910
それは乳がでかい
2022/11/23(水) 10:52:48.09ID:57SZj/Qf0
でかすぎて草
2022/11/23(水) 11:01:30.95ID:inkp2j/T0
多少の違い出るようだけど意味のある違いは出なそう
2022/11/23(水) 11:03:26.25ID:3FHBi3Vt0
>>909
スペース入れないと効かないんですか
気をつけますわ
2022/11/23(水) 11:22:48.99ID:L4ooA/eQ0
ソース見ないでいうけど、トークナイザがワードを分離しまいか?
うちでもスペースなしで効果がでている。
2022/11/23(水) 11:22:59.15ID:AxWFfxxB0
anyだけど、

https://i.imgur.com/kPVRms4.jpg

(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)
グレッグさん連呼 括弧いらんかも

https://i.imgur.com/T44RcsI.jpg

Greg Rutkowski :2.0

スペース無くても同じやね
2022/11/23(水) 11:23:51.61ID:AxWFfxxB0
ああわるい、上下の絵は逆ね
2022/11/23(水) 11:24:53.09ID:WxFxWeXE0
modules/prompt_parser.pyに書いてある強調構文の正規表現はこうなってるので、スペースはいらん。

re_attention = re.compile(r"""
\\\(|
\\\)|
\\\[|
\\]|
\\\\|
\\|
\(|
\[|
:([+-]?[.\d]+)\)|
\)|
]|
[^\\()\[\]:]+|
:
""", re.X)
2022/11/23(水) 11:29:44.30ID:MXwB9dRc0
t2iデバッグ実行してみたけどコロン前のスペースなくても強調は解釈したし
CLIPがトークン化する際に末尾のスペースを削除してるから(hoge:1.2)も(hoge :1.2)も同じトークン列になる
ただ (hoge: 1.2) みたくコロンの後にスペースはダメ
2022/11/23(水) 12:07:55.61ID:XSrKX4+o0
自分が弄ってたとこが処理すっとばしてたっぽいわまじごめん
2022/11/23(水) 12:09:59.91ID:XSrKX4+o0
それか(hoge: 1.2)の記述したときに見たの誤解したか
すまぬ…すまぬ……
2022/11/23(水) 13:03:51.19ID:ctVB6hYm0
>>909
横からだけどそうだったんですね
なんか利きが悪いとおもった
2022/11/23(水) 13:13:54.33ID:WhheMXaQ0
>>910
これ見ると効果同じでは?
2022/11/23(水) 13:15:30.53ID:XPraprzF0
extensionと同じように、モデルも1ボタンでDLしてckpt変換してインスコしてくれたらいいのにね
2022/11/23(水) 13:24:38.65ID:XSrKX4+o0
コロンと数値の間にスペースがある場合のみ効かない?のを勘違いしたようで
お騒がせして申し訳ない
というか検証とコード引用がすぐ出てくる辺りさすが技術スレっすね
自分が出しゃばる必要なんて全然無かったんや
2022/11/23(水) 13:32:52.67ID:OzgBblG70
まぁ自信出た直後に恥ずかしい思いするのはあるある
結論だけじゃなくて最初から該当ソース引用して貼ってれば確認しやすいし恥ずかしさも減る
5chのUI的に初手ソース貼ると長文になるからリンク貼る方がやりやすいか
2022/11/23(水) 13:44:22.32ID:AxWFfxxB0
いやどこかで :2.0のような強調文はエディションによって効かないとか見たことある
初期のSDでは効いてたし、どこかのバージョンでは今でも効くかもしれないし、わからない
2022/11/23(水) 13:46:21.33ID:7aXFrjmd0
とりあえずスペース空けなければ効くで間違いないがわかったら自分ごときには充分
2022/11/23(水) 14:04:05.43ID:i+OZ+FUha
スレチかもしれないけどNMKDでしかもローメモリ環境だと記述も色々違って混乱したぜ…
()で強調{}で弱体、倍率指定や[]、ネガティブプロンプトは使用不可、VAEやモデルミックスは使えないって感じだったよ
2022/11/23(水) 14:19:30.61ID:rxl/5/pC0
NMKDはバージョンアップでそれ大体出来るようになってるがいつの話だよ
2022/11/23(水) 14:57:10.17ID:0Mz+wy0I0
強調寂澄の文字は指定出来るようになって欲しい今日この頃
2022/11/23(水) 15:26:27.69ID:QyyzBdf/0
WebUIは範囲選択してカーソルキーの上下で調節するから、スペースがないのが普通に思ってた
2022/11/23(水) 15:57:39.98ID:ANSAWO8Md
NMKD のdreamboothで特定キャラじゃなく
画風を学ばせたい場合、色々なキャラを
1枚ずつ学習させればいいのかな?
935名無しさん@お腹いっぱい。 (ワッチョイ 5701-kfYZ)
垢版 |
2022/11/23(水) 18:59:36.69ID:PNlGLTbf0
>>904
ありがとうございます
hugingにはvaeフォルダとかあったりしたから、私が知らないだけだと思っておりました。(どちらにしろ知らなかったのですが)
2022/11/23(水) 19:08:49.13ID:2N068jN10
>>934
その全部が混ざったのが出てきそうな気するけどやってみて結果教えてほしい
937名無しさん@お腹いっぱい。 (ワッチョイ 9702-EFWK)
垢版 |
2022/11/24(木) 10:35:59.10ID:fun5DVAs0
SD2.0
エロ系はカットされてるらしい

Stable Diffusion 2.0 Release
https://stability.ai/blog/stable-diffusion-v2-release
2022/11/24(木) 10:55:23.34ID:NIldVpeK0
本家はベースとしてのクオリティあげてくれればいいわ
ユーザーたちが勝手にエロばっかり足すから
2022/11/24(木) 11:05:41.02ID:j1v5zf/30
だよな。本家もそれ想定はしてんだろうし
2022/11/24(木) 11:05:54.65ID:delS3m8pM
エロと戦争は技術進歩の母なんだけどな
2022/11/24(木) 11:08:52.08ID:DS7MfSbQd
リアル・エロ、
リアル・非エロ、
二次元・エロ、
二次元・非エロ
それぞれで高品質な特化モデルを作ってあとはユーザー側で好きな比率でマージしてくれってのが一番理想的な道なのかもしれんなあ
まだモデルのマージはやったことないけど
2022/11/24(木) 11:58:35.63ID:tVg+X3LDa
あれ
逆にエロを含んだデータセットで学習したって書いてた気がするけど読み間違えたか
2022/11/24(木) 12:00:47.16ID:tVg+X3LDa
俺が読み違えてたはい
2022/11/24(木) 12:09:04.84ID:S9r8DMlEr
正直なところエロ要素の無いAI自動生成って、結局は『出力した絵の活用方法(目的)が明確にある人』以外は長くても数ヶ月も弄ったら飽きてそうだと思う
綺麗な絵が出力できたとして「きれいだね、良かったね。で、その絵どうするの?」という状況になる

つまり何が言いたいかというと
「もっとエロ方向に進化早よ」
2022/11/24(木) 12:11:58.77ID:OawX97DQM
SD2.0はどんな感じ?
早く家に帰って試したい
2022/11/24(木) 12:15:18.02ID:2Ovwy7w6d
メモリが24GB必要とかだったら笑う
2022/11/24(木) 12:19:25.10ID:eV+oHJtea
>>945
まだ一般リリースはされてないみたいだが
2022/11/24(木) 12:23:19.30ID:z+B27vI00
depth-to-image がどんなもんか気になる
2022/11/24(木) 12:40:10.99ID:j1v5zf/30
一応、モデルの公開はされとるみたいやな
1111に対応リクエストされとるし

https://huggingface.co/stabilityai/stable-diffusion-2/tree/main
2022/11/24(木) 12:42:36.22ID:j1v5zf/30
これが分かりやすいか
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5011
951名無しさん@お腹いっぱい。 (ワッチョイ afad-kfYZ)
垢版 |
2022/11/24(木) 13:26:14.04ID:KwcaBPhb0
>>937
2.0をベースにエロ系を追加学習してくれる人がかならず現れるw
みつけたらおしえろください!
2022/11/24(木) 13:48:06.98ID:w6M0K2nj0
>>937
デモページがつながらない。
誰か試した画像ある?
レス数が950を超えています。1000を超えると書き込みができなくなります。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況