X



【StableDiffusion】AI画像生成技術11【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。 (ワッチョイ af36-B+nr)
垢版 |
2022/11/24(木) 17:36:37.21ID:FYS69E540
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合20【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669092302/
AIイラスト 愚痴、アンチ、賛美スレ part14
https://mevius.5ch.net/test/read.cgi/illustrator/1669117382/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1667401816/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0009名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/24(木) 21:32:31.42ID:ayb4OeRCa
前スレの初期並みにひどい生成画像見たら笑い止まらん
なんでああなる
0010名無しさん@お腹いっぱい。 (ワッチョイ c67c-uF5C)
垢版 |
2022/11/24(木) 21:38:35.83ID:skC+Y0Ly0
ver0.2に退化しとるやないか
0013名無しさん@お腹いっぱい。 (アウアウウー Sa3b-stRS)
垢版 |
2022/11/24(木) 23:05:47.26ID:1Ym3pmrZa
sd2はインペイントを考えすぎてるのかな
ぴったり人が重なるレベルで同じポーズばかり出る
あと複数人は相変わらずダメ
「2人の写真、ひとりは赤髪ロングヘア、もう一人は青髪ショートヘア」みたいなのはできない
0014名無しさん@お腹いっぱい。 (ワッチョイ e2a5-stRS)
垢版 |
2022/11/24(木) 23:14:07.62ID:wEoLBVFe0
何が得意で何が苦手かはまだ追求されるだろうし、数日か数週間もすればSD2をベースにしたやつも色々出るだろ
この3ヶ月の密度が高すぎたせいもあろうけど生き急ぎすぎてもしょうがないぜ
0015名無しさん@お腹いっぱい。 (アウアウウー Sa3b-stRS)
垢版 |
2022/11/24(木) 23:59:35.53ID:1Ym3pmrZa
SD1.5までで使えた「kawaii, loli face」は使いものにならない
512x512以上の解像度に設定すると劇遅だから512x512以外は使い物にならない
txt2img.pyのデフォルト値を変えといた方が使いやすい(--step 20、--n_iter 1、--n_samples 1、--n_rows 5、--seed -1など好きなように)
wm_encoder系はいらないからコメントアウトした方がいい(やらなくていい)
1111用のxformersはエラー出て使えない
シード固定ガチャの将来性は高そう
歩留まり悪い

masterpiece, best quality, photo of a girl, japanese girl in kyoto, dark hair, detailed hair, beautiful hair, beautiful face, detailed eyes, full body shot, highly detailed, sharp forcus, cinematic lighting, photoreal, photoshoot, photograph, realistic photo, dynamic pose
https://i.imgur.com/JoULB59.jpg
0018名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 00:24:41.91ID:yuFMQQyca
やっぱ各所から色々詰め寄られてるんだろうか
今まで自由すぎたのかな
0020名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 00:31:04.41ID:yuFMQQyca
あ、それはありそうw
0023名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 00:44:22.10ID:ilqct2n/M
でもこんだけ配慮?されてるモデルだし良いもの出したら企業が使ってくれそう
0027名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 00:59:54.70ID:y0pHcg2vM
まあこれから色々発見されるでしょうw
0029名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:25:20.08ID:y0pHcg2vM
あらまあ
何もかも中途半端な感じかねえ
0030名無しさん@お腹いっぱい。 (ワッチョイ a3e0-WU7/)
垢版 |
2022/11/25(金) 01:29:14.58ID:IXPAWFhi0
結局権利や倫理的に怪しいソースを使ってさらに過剰学習という名のパク…
までしないとまともな絵は出ないのが現実だったってことか??
それらを全部排除すると要求スペック爆上がりなのにこのザマと
0031名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:30:17.79ID:y0pHcg2vM
別に俺アンチじゃないんだけどまじで出てくるものが微妙すぎて泣きそう
0033名無しさん@お腹いっぱい。 (アウアウキー Sac7-BJvF)
垢版 |
2022/11/25(金) 01:56:34.89ID:Iph0KQo3a
WebUIってネガティブもトークン数えられてるのか?
プロンプト入力欄の右側に数字が出てあって
ポジティブの方になんらかプロンプト書いてる時はどんどん数字が増加していくけどネガティブ書いてる時には動かないのが俺の環境なんだけど
hentai diffusionのドキュメント見てたら例のクソ長ネガティブしか入力してないのに右側の数字が120とか出てあって
どっちが正しいのやらよく分からん

基本的に77(75)トークン越えてプロンプト書いたら制御しにくくなって結果絵が崩壊し始めるからできればネガティブはカウントされて欲しくないんだが
0034名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:57:45.19ID:gDYQOMhaM
>>32
コンプラ超えてこれだと次はもうブレイクスルーを待つしかない気がしてきた
0035名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:59:26.25ID:gDYQOMhaM
いやこの考えを捨てよう…俺の中のネガティブプロンプトだ
0038名無しさん@お腹いっぱい。 (ワッチョイ 068e-ihPV)
垢版 |
2022/11/25(金) 05:47:35.21ID:knKsz8Lv0
>>33
まぁ設定次第だけど、旧プロンプト解釈使用のチェック入れてれば75制限はワーニング出して特殊な処理になる
75超えて崩壊なんて言ったら中華元素法典のクソ長ネガティブ入れたら全部崩壊してるはずだろう
0049名無しさん@お腹いっぱい。 (アウアウエー Sa3a-WU7/)
垢版 |
2022/11/25(金) 07:58:44.61ID:wg+DlTAla
これからは追加のデータセットを有料販売していくのが一般的な形になりそう
無料デフォルトでは低品質のものしか出せず、アーティストの許諾付きの奴やR18は各支援サイトで数千円払えって感じで
0053名無しさん@お腹いっぱい。 (ワッチョイ a7ba-98rk)
垢版 |
2022/11/25(金) 09:15:12.93ID:BfX9X+hs0
CLIP部とUNet部とVAE部で各部だけ単独でGPUに載るようコードにmodl.to(device)追記して切り替えまくったら8GB VRAMでも動いたよSDV2
そのうちAUTOMATIC氏が対応するだろうけど悩んでいる人居るかもだから一応
0054名無しさん@お腹いっぱい。 (ブーイモ MM3e-TUdg)
垢版 |
2022/11/25(金) 09:25:46.52ID:bMb48ghQM
ckpt に直接dreamboothかけて学習させたいが、そんなことって出来る?
0059名無しさん@お腹いっぱい。 (アウアウウー Sa3b-MJCF)
垢版 |
2022/11/25(金) 10:01:46.20ID:5FhaZ6LUa
AI画像ってのはあらゆる画像を生み出せることに意味があるんだ
指が5本の人間のイラストでいいなら人間が描けばいい
4本や350本の指がある生物を描いたりする人間には出来ない発想こそAIの真髄なんだよ?
0061名無しさん@お腹いっぱい。 (ワッチョイ 5f01-BJvF)
垢版 |
2022/11/25(金) 10:25:06.20ID:x9mKQI2k0
俺は超優秀なアシスタントを手に入れた気分だわ
資料集めにインスピレーションになんかきっかけになりうるアイデア出しなど時間がかかってやる気出ないことをひたすら押し付けている
それも非常に素早く気に入ったもののバリエーションも満足するまで出してくれる
ブレスト的に必要な物量がある程度の品質を保って高速で用意してくれてそれを人が利用するのが自分なりの真髄だと思うわ
0069名無しさん@お腹いっぱい。 (ワッチョイ 4b5f-6qht)
垢版 |
2022/11/25(金) 11:35:09.91ID:FhreTr9C0
MJはほとんど叩かれてないのを見ると
結局クローズドでコソコソやってた方が楽だし得なんだろうなと思う
バカ正直にオープンでやる方が損するし停滞するという
少なくとも今はまだ人類はAI研究の意味と意義を理解できる段階にはないからな
0070名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 11:43:29.14ID:PDVpzmKBa
へんに他企業がリリースする画像生成AIで倫理観の整理がされてしまう前にエグいのをオープンソースで出してしまってほしいが
コンプラで相当な時間割いてたからもう無理なんだろか
ポリコレ棒とかで叩かれまくってんだろか
0073名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 11:56:51.49ID:PDVpzmKBa
まず>>1やスレタイを見たほうがいいと思う
0077名無しさん@お腹いっぱい。 (アウアウウー Sa3b-MJCF)
垢版 |
2022/11/25(金) 12:04:46.85ID:5FhaZ6LUa
オープンソースのプログラムは「フォーク」といって別のプロジェクトに分岐することができる
SD2.0があまり良くないならネットで呼びかけて人を集めてsd1.5を改造し直してnew SD2.0を作ることもできる
別に一人で作る必要はないしトップがプログラミングを出来ないやつでもいい
人を集めてプロジェクトをまとめればいいんだ
0083名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 12:33:08.04ID:MEOSg7ZYa
責任はとらん!お前たちが好きに作れ!ということか
結局そこは変わらんのかw
0084名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 12:33:55.67ID:MEOSg7ZYa
今日はnewSD2.0開発の創始者がお出ましだ
0090名無しさん@お腹いっぱい。 (ワッチョイ 068e-ihPV)
垢版 |
2022/11/25(金) 13:14:35.47ID:W5Qr3cl80
>>87
今のところ768x768は12GBで動くけど、それより下はメモリ配置やらなにやらやればできるかもって感じで書かれてるな(DBやNH等の拡張分は除く)
単純計算でもメモリは描画時のVRAM占有は2.25倍必要になるわな
とはいえ、SD1.4登場からのヶ月分のメモリ節約はそれなりに反映されてるから、SD1.4/1.5世代ほど余地は少ないとも言われている
0096名無しさん@お腹いっぱい。 (ワッチョイ a302-Y3ty)
垢版 |
2022/11/25(金) 15:04:54.29ID:3S9UFjkn0
試してみたけど、たしかに高解像度でも崩れにくいし景色とかはとても綺麗だ
人物も中々良い
エロ目的だと云々はこれベースのエロモデルまてばいいんじゃねーのとしか
ただ、diffusers で使おうとしてもところどころバギーで直すのめんどくせぇ
0098名無しさん@お腹いっぱい。 (ワッチョイ 5701-+kmf)
垢版 |
2022/11/25(金) 15:23:05.28ID:PfnRH0Oq0
>>88
イラスト生成目的だとSD無印使う機会ないから良くも悪くもあんまりなにも
「超短期間で良くなってる」はMJとNAIと派生に対して思うことが多いな、ベースがSDなのは理解してるけど
なので性能というより「公開してること」が一番の強みのままかなぁと
0103名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 16:26:00.06ID:04vPy7BcM
>>95
ドアップ正面顔はほんとAI強いぜ
0104名無しさん@お腹いっぱい。 (アウアウウー Sa3b-stRS)
垢版 |
2022/11/25(金) 16:26:14.73ID:XBMrIrUna
文字が出るようになってるな。日本語プロンプトもいける

a beautiful slavic vouge model girl
a beautiful japanese vouge model girl
photo of landscape, mt.fuji, sunset, cinematic lighting, beautiful sky
photo of night view of tokyo, bird eye angle
photo of a beautiful girl eating ramen with chopsticks
photo of a biohazard mark
photo of Stop traffic sign
photo of clock
photo of calender
photo of credit card
photo of 京都
photo of おっぱい

画像多いからまとめてうpした。imgurがちゃんと?18禁扱いしてて笑う
https://imgur.com/a/Htrx37I
0106名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 16:30:48.53ID:04vPy7BcM
>>104
なんか夢でみる景色みたいで怖いw
0120名無しさん@お腹いっぱい。 (ワッチョイ ff7c-VDzr)
垢版 |
2022/11/26(土) 00:28:03.38ID:VhK3Usta0
延期を繰り返すのはだいたいクソゲーってのはどこの世界も一緒なのな。はー、最初の威勢もなくなったし残念だわ。
0121名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/11/26(土) 01:36:22.18ID:b5mR0NSx0
SDの規模と資金力と技術でもクリーンな学習するとこうなるってことは
MJとNJはどんだけダーティな学習の仕方してんだろうって思ってしまった
絶対表に出せない手法使ってるんだろうな論文すら一切出さんし
0122名無しさん@お腹いっぱい。 (ワッチョイ 178e-RVlR)
垢版 |
2022/11/26(土) 01:42:50.08ID:Qpwq6fDy0
SD2.0+eDiff+nsfw+masterpiece+style+最低でもダンボールタグの表現力(細部指定)が欲しいわけで…
ポリコレ抜きでも金出してるところがエログロペドダメだっていえばそれまでだしな
Midjorneyの高画質版でしかないわな。コンセプトアートもCGアートの受賞した奴からちょっと詳細になった程度だし
宇宙服やストームトルーパー出せますっていうだけじゃ…実写や人の手でいいのでは?っていう突っ込みも増える
(イギリスで黒人が幼女レイプしてる画像ポンポン出せる奴が許容はされないわな)
0123名無しさん@お腹いっぱい。 (ワッチョイ 97ad-zuBb)
垢版 |
2022/11/26(土) 01:48:31.82ID:YGmN3o9k0
Checkpoint /content/drive/MyDrive/model3.ckpt has both EMA and non-EMA weights.
In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag.

--extract_emaのフラグ君はどこに書き込めばいいの...?
0144名無しさん@お腹いっぱい。 (ワッチョイ d75f-emCW)
垢版 |
2022/11/26(土) 09:42:52.90ID:mW1WB0nO0
2.0は深度管理ができるようになったんじゃなかったか
絵を立体的にとらえることができたり
生成のStep数が少なくてすむようになったり
スペックが必要なのは768とか1024に対応する時だけで
512のままならそんなに変わらないとか何とか
0147名無しさん@お腹いっぱい。 (ワッチョイ d75f-emCW)
垢版 |
2022/11/26(土) 09:52:40.38ID:mW1WB0nO0
有名人・アーティストは学習時点でプロンプトとの関連を無くしたから
指定して作るのは難しくなっている
NSFW関連は学習元から除外されているが出せないわけではない
デッサンが狂いやすいとか顔や手がおかしくなりやすいと言われているが詳細は不明
1.5の時点でもそんなに綺麗じゃなかったし
0148名無しさん@お腹いっぱい。 (ワッチョイ 9701-CHRJ)
垢版 |
2022/11/26(土) 09:57:40.49ID:rYd0ukah0
要するにハードが新しくなったからやれることやグラフィックはよくなったよ
それに合わせたソフト作ってもらえれば前以上のことできるよ
今はデフォルトのソフトしか動いてないからnsfwは出しにくいよってこと?
0160名無しさん@お腹いっぱい。 (ワッチョイ 178e-RVlR)
垢版 |
2022/11/26(土) 13:13:48.88ID:Weft+u9r0
>>157
SD2.0を3Dで出すと完全に不気味の谷に落ちて行ってるよな…
SD1.4でbeautifulやkawaiiっていうのが重宝されたことを考えると需要と供給が乖離して言ってる
SD2.0つえええのただの切り取りで、出たばかりでサンプルプロンプトが屑だっていうだけかもしれんが
0162名無しさん@お腹いっぱい。 (ワッチョイ 1768-9ylf)
垢版 |
2022/11/26(土) 13:45:37.63ID:4ZdFQj+y0
colabだけどSDwebuiバージョンアップしたらなんか不安定になった
0174名無しさん@お腹いっぱい。 (ワッチョイ 1743-ykd8)
垢版 |
2022/11/26(土) 21:41:33.78ID:yPlzUTn10
テキストエンコーダが変わって、具体的に以前のプロンプトがどう通らなくなってるのかなあ
なんとか意図どおり引っ張ろうとしてゴテゴテ言葉足すとかえって良くないとか、そういうことなのか?
0176名無しさん@お腹いっぱい。 (アウアウウー Sa5b-Z2Iz)
垢版 |
2022/11/26(土) 22:19:00.21ID:OoLkevtia
単語の表現範囲が狭いというか生成される画像にばらつきが少ないんだよな
1.5だとプロンプトがだめでもたまに当たりがでるけど、2だとハズレしか出ない

photo of a clockだとアラビア数字の時計だけ
full body of a girlだと首から下の画像だけ
head and body of a girlでも全身でないし生成画像が偏りまくってる(ちなみにこのプロンプトだと乳首普通に出る。ただし(以下略
0177名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-F1GU)
垢版 |
2022/11/26(土) 22:39:23.07ID:XefD7PQP0
>>175
CLIP学習させると埋め込む単語が1トークンになるとかどっかで見たような…
ただCLIPを固定して学習したのがSDだからCLIP弄るとその他すべての表現にも
影響が出てしまうんじゃないかな。あとはそれを許容する程度の問題?
0178名無しさん@お腹いっぱい。 (ワッチョイ d75f-emCW)
垢版 |
2022/11/26(土) 22:41:17.44ID:mW1WB0nO0
full bodyには「豊満」って意味があるからだぞ
1.5で試してみたけど太めの女性の全身が出る(男性は出ない)
whole bodyだと正面と背面の二面図が出る
あと顔が画面から外れるのはスケールが強すぎる場合もある
0179名無しさん@お腹いっぱい。 (ワッチョイ 775f-Z2Iz)
垢版 |
2022/11/26(土) 22:46:25.02ID:DnfntcA/0
AUTOMATIC1111版が2.0に対応
0181名無しさん@お腹いっぱい。 (アウアウウー Sa5b-Z2Iz)
垢版 |
2022/11/26(土) 22:53:20.84ID:OoLkevtia
単語にはたくさんの意味があるけど、そのことを理解してくれてないってことかな
時計にはローマ数字もアラビア数字も日時計あるんだから様々なのを出してもらいたいけど出てこない
full bodyも色々な意味があるならその色々な意味で出してもらいたいけど出てこない

これ要するに今後プロンプトがよほど細かく解析されない限り、求める画像を出すのが難しいってことになる
0183名無しさん@お腹いっぱい。 (ワッチョイ d75f-emCW)
垢版 |
2022/11/26(土) 23:15:47.55ID:mW1WB0nO0
waifuやnaiで使われてるbooruタグは素の1.5とか2.0では通用しないとか
full bodyよりもfull body shotの方がいいかも?とか
3 birdsよりもthree birdsの方が正確に三羽の鳥を描くとか
プロンプトを強調しようとしてスケールを上げると一部が強調されて全体的には遠ざかるとか
試してみないとわからないことだらけだよ
0185名無しさん@お腹いっぱい。 (ワッチョイ d75f-emCW)
垢版 |
2022/11/26(土) 23:34:52.25ID:mW1WB0nO0
自然言語的にする必要はないと思うよ
that構文はちょっとだけ理解してるっぽいけど大体無視されるし
受け身も理解してくれないのが多いし
andやonやinを増やしすぎても理解してくれないし
ただ通用するプロンプトが違うだけだと思う
0195名無しさん@お腹いっぱい。 (ワッチョイ ff8e-RVlR)
垢版 |
2022/11/27(日) 05:00:35.72ID:sTFdBSBM0
>>192
そこだよなぁ。一部期待している人も多いようだが…
NAIやAnythingと全く違った方向にはなりにくいだろうし、WD1.3だって1.2よりはましって判断してたわけだろ?
世界的に1.3のepoc小出しでどんどん悪くなるのが止められないモデル生成者扱いだ
学習終ったらまともになるって思いこんでる人もいたが結局そのままで
NAIリークで存在意義もかなり薄れてマージ素材になってしまった感じがな
WD1.4だしてSD2.0でまた学習するんかな…頑張ってほしいけどまた3ヶ月4か月後となると周回遅れ感が
0206名無しさん@お腹いっぱい。 (ワッチョイ ff8e-RVlR)
垢版 |
2022/11/27(日) 12:54:44.95ID:bYiqE2oi0
>>199
AIだろうが何だろうが作品として使ったら全部自己責任だよ
ライセンスや規約に書いてある通り、ドラブルはその画像を使用した人に一番の責任がある
5chだって画像リンク貼った人が一番訴えやすいようなもんで
その使う画像を選んだのはあなたなんだから、金とるなら最低限の責任は取ろう
心配になる程度は知識あるんだろうし、誠実に対応すれば画像差し替え程度で済む
文章書くなら差別用語とか問題になる表現のクレーム対処と一緒だよ
0207名無しさん@お腹いっぱい。 (ワッチョイ 9fbe-RPwI)
垢版 |
2022/11/27(日) 12:56:29.14ID:L7mwToAm0
>>199
どんどんやれ
0209名無しさん@お腹いっぱい。 (ワッチョイ 5701-Hcgz)
垢版 |
2022/11/27(日) 13:09:56.29ID:TMuKsB0g0
ここはAI雑談スレということでよろしいか?
0210名無しさん@お腹いっぱい。 (ワッチョイ 5701-Hcgz)
垢版 |
2022/11/27(日) 13:11:23.39ID:TMuKsB0g0
オウフw
拙者のIDがHcgでござって草wwwwwww
0219名無しさん@お腹いっぱい。 (ワッチョイ fff2-RPwI)
垢版 |
2022/11/27(日) 15:05:12.43ID:DPj8XLZK0
AUTOMATIC1111がSD2.0に対応したというのでクリーンインストールしたがモデルに768-v-ema.ckptを指定してもエラーになる

https://fate.5ch.net/test/read.cgi/liveuranus/1669467214/103
によると追加のダウンロードが必要なのだそうだ

----
https://huggingface.co/stabilityai/stable-diffusion-2/
1. "768-v-ema.ckpt"をダウンロードする
2. ↓からyamlファイルをダウンロードして768-v-ema.yaml(モデルと同じファイル名)にする
  https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-inference-v.yaml
3. models/Stable-Diffusion directoryに両方つっこんで最新版Automatic1111 WebUIで読み込む

やで。サンプラーはDDIM、CLIPのレイヤー設定は1がお作法や
----

なんでこんな仕様なのかね?
0220名無しさん@お腹いっぱい。 (アウアウウー Sa5b-N0LU)
垢版 |
2022/11/27(日) 15:09:59.13ID:g6uqr4e5a
実は前からckptの他にvae.pt, yamlを同名でそこに置くというオプションはあった
中身みても正直僕にはなんの設定が書かれてあるのか分からなかったけど
SD2.0というモデルがそういう個別対応が必要なくらいには妙なことを行うモデルなんだろう
とはいえyamlひとつでその対応も済むautomatic1111すごい
0221名無しさん@お腹いっぱい。 (ワッチョイ 9f8a-LK2I)
垢版 |
2022/11/27(日) 15:22:20.42ID:4r3qwtw+0
洞窟壁画からはや数万年、AIで絵を描く道具を人々は手に入れた。AIもデジタル描画の延長線上なのだが、いずれは手作業のみで自由闊達に描ける絵師の人口は減り、職人として彼らは尊敬されるときが来る
0225名無しさん@お腹いっぱい。 (ワッチョイ d705-s0H/)
垢版 |
2022/11/27(日) 16:21:47.16ID:2W161o7q0
アナログのアートには余り影響ないだろうから残るよ
0227名無しさん@お腹いっぱい。 (ワッチョイ 1755-zuBb)
垢版 |
2022/11/27(日) 16:37:38.28ID:FzBz8XN30
工業品って、最初は薄くて軽いことを売りにして出るけど、
そのうち滑り止めとか合理的な理由ではなく形を歪にしたり、手作り風の商品が出てくる。
そうなっても、自分で粘土を捏ねて釜で焼いた茶碗で飯が食える人も、数は激減するがちゃんと残る。

でも勘違いしてはいけないのが、その残った人達はプラスチックで茶碗を作っているわけではないということ。
機械生産と機能が同じかそれ以下でも手作りは勝てる、ただし質感まで同じだと勝てない
要するに普通のデジタルイラストではどんなに味があってもAIには勝てない。
「手書き」のデジタルイラストで飯が食える人はせいぜい日本に2,3人、国宝級の人だけになる。
0228名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/11/27(日) 16:39:34.49ID:C6VMfAQL0
車は自分の足で走ってないとバレるから陸上競技は滅びてないけど
AI絵はバレないから手描きの絵が残るのは無理でしょ
それ以前にこんなにコピーが横行してたら創作自体が無理になっていくだろうし
公式の設定画1枚あればそれを完コピしてどんなエロでもさせられますってなった日にはね
0232名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 17:50:44.11ID:WBbkAK++M
別に画力あるなら適応も早いよ
0234名無しさん@お腹いっぱい。 (ワッチョイ ffcf-9/BM)
垢版 |
2022/11/27(日) 17:51:38.37ID:2CS7/3/d0
AIしか使えない人と、プロレベルで絵が描けてAIや3D使って時短もできる人だと、前者を使う理由がないけどな…
前者で食っていきたくて、値段を下げて対応しようと考えると、追われるように絵を生成するような生活になって結構、大変だと思う
0236名無しさん@お腹いっぱい。 (ワッチョイ ffcf-9/BM)
垢版 |
2022/11/27(日) 18:05:24.92ID:2CS7/3/d0
今でも誰でも簡単にAIで生成できるけどなぁ…
というかAI開発でしか食っていけなくなるとか、AIイラスト業界の先行き暗すぎやな
0240名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 18:49:18.86ID:h48SLuJ8M
他の仕事もAIに代替されてくから安心しろ
0242名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 18:54:47.33ID:h48SLuJ8M
アニメーター大量削減
0252名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 19:49:35.15ID:vh8WOxb+M
NJはちょっとまんまなんじゃないかってのがポンポン出るからやりすぎコージー感ある
0260名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/27(日) 20:49:54.92ID:v0hzifR+a
版権の取り扱いがヤバイし
多分日本の絵師の学習さらに徹底してる
ダンボールとかよりも広い範囲で学習してそう

いま出せる限界ギリギリの最高性能って感じ
0264名無しさん@お腹いっぱい。 (ワッチョイ 1755-zuBb)
垢版 |
2022/11/27(日) 23:25:29.58ID:FzBz8XN30
最近は今まで馬鹿みたいに生産してきた何万枚という構図があるから、それをベースにi2iすることから始める
粗方方向性が決まったら、手足を雑に切り取って移動させてi2iする。

自分も人形とか3Dモデル使えばいいじゃん!と思った瞬間があったけど、
結局は立ち絵出ない限り情景豊な背景が必要だし、
その背景や他のオブジェクトが確定するまでポーズも確定できない
だから案外そういったのは使いにくい
0265名無しさん@お腹いっぱい。 (ワッチョイ d733-Gfcg)
垢版 |
2022/11/27(日) 23:41:38.46ID:nAej2vxf0
すまん、初心者なんだがwiki見てDreamBoothやってるんやけど上手くいかない
https://i.imgur.com/nqmCyf2.png
途中まではうまく進んでるように見えるけど、結局modelsのStable-diffusionフォルダに完成品が出力されないし、1200stepsでやってる学習が1198で止まってる?
これって何が悪いんだろうか
何かわかる人いたら教えてほしい
0278名無しさん@お腹いっぱい。 (スププ Sdbf-3JNK)
垢版 |
2022/11/28(月) 08:55:19.34ID:AFKHWUfId
たぶんSD公式は2.0の配布モデルは実質デモ版みたいなもんとして割り切って突っつかれそうな要素は排除したんだと思う
できることはこれで示すからややこしいことになりそうな実用モデルは誰か作ってってことだろう
責任の分散という意味では正しい
0281名無しさん@お腹いっぱい。 (ガックシ 06db-LtF3)
垢版 |
2022/11/28(月) 09:14:08.34ID:zLxFu69A6
>>279
多分1ヶ月もすればチラホラ出てくると思う。
やっぱコード書いてモノとして実現できるやつはすげぇと思うわ。
0282名無しさん@お腹いっぱい。 (ワッチョイ fff2-RPwI)
垢版 |
2022/11/28(月) 09:21:29.82ID:UpWv/+0l0
1.4や1.5で吟味したプロンプトの効き方が変わって、また探し直しになったのがめんどい
ネット上のプロンプトを集めるとかして、よく使われているプロンプトを引き続き使えるように調整してほしかった
(Greg Rutkowskiなどの除外には反対しません)
0284名無しさん@お腹いっぱい。 (ワッチョイ 178e-RVlR)
垢版 |
2022/11/28(月) 10:59:48.53ID:wiv0LeSt0
SD2の学習されてないものは追加学習すればいいんだけど、アウロリペドエログロ差別宗教犯罪関連のいくつかのNGワードがあるとモザイクになる仕様はかなり厄介だとは思う
ただ単に学習されてないワードには反応しないだけなのに
0287名無しさん@お腹いっぱい。 (テテンテンテン MM8f-tmyp)
垢版 |
2022/11/28(月) 13:37:55.57ID:Bai13XLUM
>>286
何それ?
適当に過学習しても最適化されるってこと??
0289名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/11/28(月) 15:19:18.36ID:i5GtozBw0
ちょい前話題になったVITSはベースモデルが中国語で訓練されてる影響で訛りあるからしょぼいと思われて沈静化したけど
あれって追加学習のワード数少なすぎるだけで訛りを完全に消して本人とほぼ区別付かないレベルのモデルも配布されてたんだよね
個人が趣味レベルで学習させるだけでそこまでいくから画像生成みたいに企業が動いたら一瞬で人間は攻略される
多分どっかのベンチャーが水面下で研究しててある日突然出てきて声優やV業界が一瞬でひっくり返されると思う…
0290名無しさん@お腹いっぱい。 (ガックシ 068f-tmyp)
垢版 |
2022/11/28(月) 15:28:54.61ID:6QspJRQW6
>>286
extensionにあったやつ?
正式実装はされたんだっけ
0295名無しさん@お腹いっぱい。 (ワッチョイ 97bd-zuBb)
垢版 |
2022/11/28(月) 16:43:17.93ID:Soj/BDeW0
>>265
経験談であれだが
俺「作り終わったデータは フォルダa に吐き出してね」
AI「その フォルダa とやらが見当たらないんですがそれは・・・」
俺「あっやべ作るの忘れてた」

このあと指定位置に指定フォルダを作って
もっかいやり直ししたらうまくいった。
という例もある。
案外こんな単純ミスもやらかしがちやで。

学習が終わった後にエラーが出るってことは吐き出し関連な気がしないでもないのよな。
0296名無しさん@お腹いっぱい。 (ワッチョイ 9701-sXoO)
垢版 |
2022/11/28(月) 16:53:37.90ID:STHTK8b/0
>>292-293
既存職業を奪うかどうかは技術的にはわりとどうでもいい話だとは思うけど、「感情を乗せる」というのはそれを声優がやるかボカロみたいに調声師がやるかという違いではある
>>291
これが気になるな
「自然な」と言っても大抵調音ノイズ入ってることが多いけど探してみたい
0297名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/11/28(月) 17:05:42.54ID:i5GtozBw0
感情を指定したり文章から感情を推定したり音声から感情を読み取ったり既に出来るんだよなぁ
過小評価されてた所にある日突然ドカン!という画像と同じパターンになると思ってる
W2V2-VITSモデルで1000ワードも用意してトレーニングすれば既に中堅声優レベルくらいあるからね
流石に既存の音声ソフトとは次元が違う
0304名無しさん@お腹いっぱい。 (ワッチョイ 9701-RPwI)
垢版 |
2022/11/28(月) 20:09:16.44ID:DCsglPOc0
新しいHentai Diffusionが凄いらしいと聞いて試してるけどガチで凄い
ネガティブプロンプトをガッツリ入れるからか
シンプルなプロンプトでいい感じのイラストが生成できる
masterpiece, best quality, 1girl, hatsune miku
https://i.imgur.com/bJjx3TA.png
masterpiece, best quality, 1girl, cyberpunk
https://i.imgur.com/hvRbFA0.png
masterpiece, best quality, 1girl, steampunk
https://i.imgur.com/eUfSFjn.png
masterpiece, best quality, 1girl, fantasy
https://i.imgur.com/T6QeTtT.png

ただ、ややくすんだ色味になるから色調補正はいるかもしれない
https://i.imgur.com/m9RARQx.png
https://i.imgur.com/FESLa7w.png
https://i.imgur.com/zJPoNuo.png
https://i.imgur.com/nz1dVsZ.png
0314名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/28(月) 22:00:28.03ID:OIawWuj5M
waifuって1.4もうすぐじゃなかった?いま出しても他のが強くて知れてそうだけど
0319名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/28(月) 23:13:34.81ID:VSXPz+oRM
みんなNJ触っとらんのか
流石にやばいんかなアレ
0325名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/11/29(火) 00:43:00.77ID:ZlXcKOUI0
>>324
今のペースでいくと2025年にはシンギュラリティを迎えるという論文が出て、どうやら確からしいと言うのがおおかたの見方らしい
絵師の仕事どころの話じゃないらしいね。あらゆる職業がやばい
お絵描きAIの成功もあって、どうやってAIを巨大化させればいいかがハッキリしたんだってさ
0327名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/29(火) 00:49:51.59ID:L8EwHdsYa
俺の仕事も普通にAIに代替されるって言われてるわ
0329名無しさん@お腹いっぱい。 (ワッチョイ 9f8e-RVlR)
垢版 |
2022/11/29(火) 02:43:40.17ID:3omdRo010
>>325
でもAIに仕事取られるかどうかは別として、
タダのSEEDガチャにプロンプトの指定で人力これだけ使うAIって何だろうとは思うわな
指定単語つかった学習画像の非可逆圧縮を、Eta noiseひっくるめたSEEDつかって解凍してるだけなきもする
0335名無しさん@お腹いっぱい。 (ワッチョイ 178e-RVlR)
垢版 |
2022/11/29(火) 08:42:15.32ID:ZRzs7jo80
1つのモデルにまとめたいっていうのがもう古いわな
学習してない画像に似た絵を無理やり引っ張り出そうとするより
特化したモデルをシーンや物足りない時に切り替える方が速くて楽
ローカルDBとかはもともとそういう発想だしね
0338名無しさん@お腹いっぱい。 (ワッチョイ 9f73-HV6F)
垢版 |
2022/11/29(火) 09:42:37.00ID:AhmYn7Bz0
言えてんのこれだけじゃねえか
Intelligence is constrained by P (cumulative optimization power)
P is predictable (Moore's Law), and postdicts the history of AI/ML progress
Future extrapolation predicts AGI in roughly a decade, absent unlikely defeaters
DL systems already seem competitive enough with equivalent brain modules and animal brains of similar P values; DL architectures/algorithms will only improve
It is unlikely that the human brain is highly exceptional other than in P
特に最後のが論説見ると疑わしい
実際の予測値はこれの次に書いてあるけどなったらええなーぐらいの適当予測やん
草生えるわ
0342名無しさん@お腹いっぱい。 (ワッチョイ b7f0-630k)
垢版 |
2022/11/29(火) 11:23:16.58ID:oWByR1eQ0
シンギュラリティやらすぐ強いAI出現やら言い出す人達は
どうもスケールさえあれば届くと思い込んでる
GPT-3の時点で普通の個人の語彙を遥かに超えているが
統計的オウムに過ぎないと揶揄されるレベル
0343名無しさん@お腹いっぱい。 (アウアウエー Sadf-Gfcg)
垢版 |
2022/11/29(火) 11:32:37.65ID:AL5VB+IRa
GPT-3といえば某界隈でのAIのべりすとの活用例を見てるけど
脈略のないギャグの連続を書くことしかできないなという感想
専門的な文章を書かせようとしても、すぐに「〜だそうだ。」「〜なんだって。」のような
ふさわしくない表現が出てくるし
0344名無しさん@お腹いっぱい。 (ワッチョイ 974b-8lxm)
垢版 |
2022/11/29(火) 11:34:32.09ID:uX21bG6+0
現状は人間が学習モデルを作ってごく限られた範囲に適用しているだけ
画像生成に限ってはGoogleがDeepLearningで優れたモデルを作ってからある程度予想できた範囲内のこと
人間のようにふるまう汎用的な人工知能は試みはあっても進展はないよ
ただ、局所的な能力を不可逆的に進歩させていけば、神のような超知能の片鱗は見えるかもしれない
0345名無しさん@お腹いっぱい。 (ワッチョイ b7f0-630k)
垢版 |
2022/11/29(火) 11:56:05.13ID:oWByR1eQ0
局所的な能力はただの弱いAIでしょ
そもそもハイスペックな機能なんてなくても
昆虫レベルの脳回路ですら見事に難しい制御をやってのける
パラメータ・データ量・マシンパワーのド根性は確実に何かを見失ってる
0347名無しさん@お腹いっぱい。 (ワッチョイ 9701-CHRJ)
垢版 |
2022/11/29(火) 12:11:09.06ID:31H1sRzC0
Photoshopのコンテンツに合わせた修正ツール自動選択ツールがどんどん進化してるのと同じことしているんだと思ってる
今までスタンプでペチペチ、荒く選択してパスで選択してマスクで塗って消してみたいなことしてたのに、ほいやっといてねってしたら綺麗にしてくれるんだもん
お絵描きツールも一緒でしょ、こうしたいからやっといてねってしたらやってくれるみたいな
手間を減らしてくれるってのがありがたい
0348名無しさん@お腹いっぱい。 (ワッチョイ 9f7d-HJC/)
垢版 |
2022/11/29(火) 12:39:06.02ID:YSadndhv0
強いとか弱いとか関係ない。
来年には動画、動画の次はアバターや
大人気AIVTuberが無限に生放送する時代がすぐ来る。

その時にそのAIと自分を比べて、
どちらが「知的生命体」として優秀かと考えることになる。
あいつには汎用性はない
ゴミを拾ってゴミ箱に捨てれるだけ人間の俺の方が優秀やと思ったって惨めなだけ。

まあまだその段階だと、人間同士でも自分より優秀な人を知る機会はあるので得意不得意論でスルーもできる。
でもそこから数年も経てば、種族としてどうあがいても立ち向かえないと嫌でも分からされるときが来る。

その時人類は「サピエンス」を捨ててただの「ホモ」になる。
0349名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/29(火) 12:41:30.29ID:gSGtRvRZa
失業する人大量に出てくるならそれはそれでお仲間だしいま好きなことやってりゃいいや
俺の仕事もどうせすぐAIで代替されそうなもんだし
0355名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/29(火) 13:07:29.89ID:QP3cZ4b6M
なぜか絵とか音楽だけやたらと騒がれてるけど他の分野も危ういの気づいてないんだよねみんな
0359名無しさん@お腹いっぱい。 (ワッチョイ 9701-CHRJ)
垢版 |
2022/11/29(火) 13:13:44.39ID:31H1sRzC0
数字いじりとかコードいじりなら明らかに得意そうなイメージあるからじゃないのかね
クリエイティブと言われるアート的なのは人間が優れているんだって思ってたのに
なんか急に抜き去ろうとするのはちょっと待てってなるよ
0362名無しさん@お腹いっぱい。 (ワッチョイ f768-FvAm)
垢版 |
2022/11/29(火) 13:29:48.36ID:lIc9HT6L0
まあでも音楽とか絵は今後超進化して何でもできるようになっても、この人が直接描いた絵がほしい!直接作曲した曲聞きたい!みたいなのあるからよくね、著作権も発生するし仲間内で遊べるやん趣味として

この人がする事務処理がいい!この人の書いたコードがいい!みたいなのとか絶対にないわけじゃん…
0363名無しさん@お腹いっぱい。 (ワッチョイ 974b-8lxm)
垢版 |
2022/11/29(火) 13:38:27.36ID:uX21bG6+0
>>352
日進月歩の技術発展を知らないでお絵かきAIの最先端を上っ面だけ追ってるから
こういう人たちはすぐ失望期に入ると思う
0365名無しさん@お腹いっぱい。 (ワッチョイ 9f7d-HJC/)
垢版 |
2022/11/29(火) 15:15:54.31ID:YSadndhv0
この人が~ってなるのは、あくまで今現在は多くの人にとって深く好きになれる存在が人間しか居ないからでしかないでしょ
別に遺伝子に人間の形のみを好むように組み込まれてるわけでもないし、人間だって千差万別じゃん
人間より良いものが出てきたら基本的にそっちに流れるというのが普通だよ
0366名無しさん@お腹いっぱい。 (ワッチョイ f768-FvAm)
垢版 |
2022/11/29(火) 15:36:35.57ID:lIc9HT6L0
AI信仰すごいな
0374名無しさん@お腹いっぱい。 (ワッチョイ 9701-zuBb)
垢版 |
2022/11/29(火) 18:51:12.91ID:6+7rtA7i0
DBの追加学習に結構すぐに限界があることがわかったから、今のところマージ遊びに落ち着くなぁ
落合陽一が言ってたシンギュラリティと言うからには別のベクトルの論拠だよ。一人が騒いでるだけだけど。一応。この辺も面白いよね。
HD17は良かった、教えてくれた人ありがとう。
0383名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-F1GU)
垢版 |
2022/11/29(火) 20:34:38.87ID:gja13cJi0
SDの学習で使ったCLIPから変更して良くなる理屈が分からんのだが…。
学習時に使ったCLIPの埋め込みに対してunetを学習させてるんだから、変更すると出力がややズレるのでは?
CLIP自体の性能とSDの出力の品質は別問題じゃないの?
0384名無しさん@お腹いっぱい。 (ワッチョイ 97ad-zuBb)
垢版 |
2022/11/29(火) 20:44:40.05ID:f/0HmZc70
ふと思ったけど皆promptどんなの打ってるのかなって。
自然言語を使ってるのか、それとも単語をカンマで区切って使ってるのか。

前まで英文を使ってたけど単語方式にも興味が湧いたんだ。
0392名無しさん@お腹いっぱい。 (ワッチョイ 57a5-3Hoc)
垢版 |
2022/11/29(火) 23:01:19.59ID:ZBSdCCPg0
NMKDが1.71になって+/-表記に変更
従来の記法は勝手に直してくれるので楽チン
あとやっぱりローメモリモードではVAEやネガティブプロンプトは使用不可のようだ

でも今までローメモリでしか動かなかったのに(当方3GB)ノーマルモードでも動くようになった
軽量化に成功したのかしら?
0394名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/11/29(火) 23:47:00.46ID:ZlXcKOUI0
>>378
変更内容おかしくないし良さげな内容っぽいから試してみた。

プロンプトではsmall breastsと書いてるんだけど、変更後は胸がちょっと強調されてサイズアップしたっぽい。あと表情が少しだけエロっぽくなったかも?
エロ目的なら変更したほうがちょっとだけ良くなるかもと思った

変更前
https://i.imgur.com/eEuqbHj.jpg

変更後
https://i.imgur.com/tYJcIP3.jpg
0395名無しさん@お腹いっぱい。 (ワッチョイ d7e6-FLvJ)
垢版 |
2022/11/29(火) 23:51:30.97ID:Qh0qZGDU0
clip変えるやつかなり効いたよ
とても聞き分けが良くなって使いやすい
強調しなくても効果が出るようになる
Anythingで特定のワード入れると問答無用でロリになってしまう現象がかなり緩和されて満足
0403名無しさん@お腹いっぱい。 (アウアウウー Sa5b-N0LU)
垢版 |
2022/11/30(水) 05:10:21.42ID:AJdrv7PZa
プロンプト1
P :
a wizard girl swings a bluish fire glowing magic sword with blue fire trails, loli, loli, loli, kawaii, detailed
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/92115pvyaxkieh7/no_Edited1.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/ea9mke68c9jujj0/Edited1.jpg

プロンプト2
P :
big sister is supporting little sister from behind in steampunk styled wizard atelier, little sister is casting a magical spell with a stuff, loli, kawaii, little sister has long dark blonde hair, big sister has long silver hair, detailed, from under
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/xi8rn64v9jr8083/no_Edited2.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/xo1ikwx8kltxnyt/Edited2.jpg

xはなんとなくCLIP skip入れた
yのモデルはHentai Diffusion1.7とtrinとかwaifuとかを混ぜたもの
シード値はグリッドの場所ごとにすべて共通
SamplerはDPM++ SDE KarassのStep数20
CFG Scaleは4.5
サイズは768x512
0404名無しさん@お腹いっぱい。 (アウアウウー Sa5b-N0LU)
垢版 |
2022/11/30(水) 05:14:15.02ID:AJdrv7PZa
自分でもやってみた
NP共通なのはただの横着
全く当然のことだけどCLIPの性能が高い(?)からといってかわいい絵が出る訳でもなければ
銀髪と金髪をくれと言って出てきた画像に銀髪しかいなかったり金髪しかいなかったりするのはどっちのCLIPでもあったり
0406名無しさん@お腹いっぱい。 (ワッチョイ 178e-RVlR)
垢版 |
2022/11/30(水) 06:11:15.69ID:x1MSjrmE0
>>393
何度も出てるけど英単語は利用されてるものの、英語を理解しているわけでもエミューレートしているわけでも
英語全ワードが登録されている訳じゃないから…
Danbooruタグ使いたいなら、NAIやNAI-lastestの再学習版のAnything、Gape60、EimisAnime、Elysium等のモデルを混ぜるかそのものを使った方が早いかな
WDもあるっちゃあるが、タグをアルファベット順に並べたほうがいいとか、生成そのものが残念って言われてるから…

基本的に学習時に登録されている単語(または関連)でしか出てこないよ
子供向けワードや、SDオリジナルそのまま使う人は嫌がるロリワード使った方が出やすいかも
ハイレグいらないならDBでレオタードをローレグの画像で再学習して上書きしてしまえばいい
メモリがないならDAやHNでもできる
0410名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/11/30(水) 09:18:37.36ID:KUpPztaZ0
DreamBoothってCLIP自体も学習してたの知らんかった
このプロンプトにはこういう絵を割り当てますってこと自体を再学習してるから
画風や絵描きの癖(パンスト好きとか)まで再現してしまうんだな
その分汎用性は大きく下がると
0414名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/30(水) 12:59:43.08ID:DGWZsD6Sa
>>412
これ海外で大炎上してて面白い
セルシスはバカやったと思うわ
0422名無しさん@お腹いっぱい。 (ワッチョイ 775f-K+pH)
垢版 |
2022/11/30(水) 13:59:47.64ID:nf1kbvJS0
イラスト界隈で今AIがどんな立場にあるかセルシスが知らないはずがない
その上でSDを導入したというのはもうそういうことだ
ツール提供側はAIを完全に是としている
まあエンジニアと絵描きでは価値観も大きく違って当然だ
0423名無しさん@お腹いっぱい。 (ワッチョイ d705-s0H/)
垢版 |
2022/11/30(水) 14:30:18.72ID:FXcW8qeB0
>>412
これローカルだよね?
グラボないとまともに動かんのでは
0448名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-Z2Iz)
垢版 |
2022/11/30(水) 17:14:07.71ID:90te3Ndd0
線画”風”とかラフスケッチ”風”じゃなくて、ラフスケッチから必要な主線のみにクリンナップした状態がほしいってことだろ、たぶん
ラフをmonochromeやsketchをプロンプトに入れつつi2iしてコントラスト調整、再度i2iさせてみるとか?
0453名無しさん@お腹いっぱい。 (ワッチョイ 1769-Z2Iz)
垢版 |
2022/11/30(水) 18:39:13.49ID:CzdL5MT50
TheLastBenのfast-stable-diffusion、
数日前からNAIリークモデルが使えなくなったんだけど
これはNAIモデル禁止の方向にでもなったのかな?
誰か知ってる?

ttps://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
0454名無しさん@お腹いっぱい。 (ワッチョイ 978e-RVlR)
垢版 |
2022/11/30(水) 18:50:07.38ID:NgdVXxkK0
少し前にNovelAILeak使ってるサービスにNovelAIが仕掛けた話は出てたね
海外で結構初めの方で拡散してたところもNovelAILeakのTorrent関連削除してるのは見た
Anythingの情報は残ってるけ、まぁ集金システムとして普通の行動ではある
0464名無しさん@お腹いっぱい。 (ワッチョイ 9701-DdKR)
垢版 |
2022/12/01(木) 03:06:52.68ID:2k07AcOw0
>>461
CPUは現行世代のデスクトップ向けなら何でもいいぐらい。
とにかくGeforceのできるだけ上位のモデルを入れるといい。
ただし冷却性能に気をつけた方がいいかも。
ゲーム時でもGDDR6Xメモリのジャンクション温度(一番熱い部分の温度)は100℃ぐらいになるんだけど、AIで自動生成しまくってたら112℃まであがってワロタ。
別にそれで壊れたとかいうわけではないんだが。
0470名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO)
垢版 |
2022/12/01(木) 04:28:19.93ID:C0vUGqaS0
>>465
2048x2048もいけるよ。
この時は手が増殖しちゃったけど……
https://i.imgur.com/sjQilI6.jpg
0472名無しさん@お腹いっぱい。 (オッペケ Srcb-8ZEP)
垢版 |
2022/12/01(木) 04:37:45.37ID:qtuJcsWgr
オッサンゲーマーというサイトではvram12では、640までしか作れないと書いてあるんですが、何か間違っていますか
高解像度のエロ画像がほしいと思って
vram24gbいるのかなとおもってたんですが...
rtx3060で十分ですか?
0473名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO)
垢版 |
2022/12/01(木) 04:44:04.67ID:C0vUGqaS0
最近はvramの利用の効率化が進んでるので、昔の情報はあまり当てにならない。
12GBあれば概ね問題ない(学習やろうとすると足りない場合もある)けど、3060だと使ってるうちにもっと速度が欲しくなる……かもしれない。
0480名無しさん@お腹いっぱい。 (ワッチョイ 9701-tmyp)
垢版 |
2022/12/01(木) 05:43:39.47ID:GFc+fVij0
最近初めてstable diffusion web ui (automatic1111)を導入して、画風の学習をさせようとしているのですが、全く上手くいかなくて行き詰っています。原因が分かる方いますでしょうか?
tps://wikiwiki.jp/sd_toshiaki/Textual%20inversion
上のサイトを参考にして、Trainタブから画風を学習させようとしています。
設定としては、373枚の画像(もともと186枚の画像だったのですが、prosessで1:1にトリミングした結果ほとんど2倍の枚数になりました。)をanything-v3.0をもとのデータとして使い(?)、Prompt template fileはF:\stable-diffusion-webui\textual_inversion_templates\style_filewords.txtに、embedding learning rateは0.005としています。
それで今49000step目まで行ったのですが、下の画像のように全く似た感じの絵柄にならなくて困惑しています…。
https://imgur.com/a/mBapB0u
まだstep数が少ないからこんなにもぼやけているのでしょうか?それともそもそもの用意していた画像や、設定が悪くて失敗しているのでしょうか?
よろしければ教えて頂けると嬉しいです…!!m(__ __)m
0483名無しさん@お腹いっぱい。 (ワッチョイ bf7d-0Wj7)
垢版 |
2022/12/01(木) 07:54:36.02ID:Zj6RCOjq0
3060はホント同価格帯の代わりがないのに安くて優秀で庶民の味方
在庫少なくなってきてるから迷ってる人は買っといた方がいい
2060の12gb?3xと大して変わらない価格の割に性能低くてtdpの高い知らないコですね
0490名無しさん@お腹いっぱい。 (ワッチョイ 1743-ykd8)
垢版 |
2022/12/01(木) 09:10:33.87ID:hlSfanw/0
>>480
失敗しているのはやり方間違ってるから。
画風ならhypernetworks、単品のモノやキャラの顔だけとかならtextual inversion が定番

参考にするならこっちの投稿
HN
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670#discussioncomment-4010316

TI
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1528
0492名無しさん@お腹いっぱい。 (ワッチョイ ff8e-RVlR)
垢版 |
2022/12/01(木) 09:29:45.58ID:+iOu6L6B0
>>480
画像が違うのはSEED固定してプロンプトをしっかり入れてないからだと思う
トリミングして胴体切れたりしてるのは足や手が空中に浮かんだり切り株状態の下半身を学習するから慣れるまでは除外したほうがいい
画風の基本は顔の構造(ドラマや映画とかで顔承認で使われるようなやつ)と髪の毛の塗なんだけど
Anything-v3はNAIのデータ潰して今の塗やら指先等の構造データを追加学習させた奴だから学習させにくいのもある
ってHN
0494名無しさん@お腹いっぱい。 (ワッチョイ d7ba-C1QD)
垢版 |
2022/12/01(木) 11:07:52.14ID:tn4CipcP0
tagger使おうと思ったんだけどエクステンションからインストールしてstable-diffusion-webui-wd14-taggerとmodelsに解凍したフォルダを置いてもinterrogatorにWD14が無いしinterrogateを押してもコマンドプロンプトは反応しないんだけどフォルダの置き場所間違えてる?


https://i.imgur.com/12ER8e8.png
https://i.imgur.com/f2aIpvv.png
https://i.imgur.com/rkJudeC.png
0502名無しさん@お腹いっぱい。 (アウアウウー Sa5b-CQbr)
垢版 |
2022/12/01(木) 13:05:44.44ID:JNw+nbOQa
>>494
モデルはモデルフォルダ直下じゃなくてdeepdanbooruの中に入れるはず。そんでバックエンドごと再起動しないとモデルデータを読んでくれない。
残念ながらうちでは8ギガメモリなんでモデルデータにVRAM占有されて最高解像度が落ちちゃったので使うときだけ入れることにした
0505名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg)
垢版 |
2022/12/01(木) 15:45:57.79ID:dGBb3TB80
waifuの延期はしょうがないだろ
NJとSD2.0の結果見比べれば画像生成は権利無視の過剰学習/ファインチューングによるコピー
というダーティなやり方でしか上手くいかないとはっきり分かった
まともなやり方してたら競争できないから全部やり直してんだろ
0508名無しさん@お腹いっぱい。 (ワッチョイ fff2-RPwI)
垢版 |
2022/12/01(木) 16:55:47.14ID:F2y0beMX0
>>495
2.0で768×768で出力するようになったら1枚出すのにかかる時間が2倍ちょいになってしんどーと思っていたから
高速化は嬉しい
がしかしどういう技術なんだろうか
VRAM40GB以上必須とかじゃないよね?
0511名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-F1GU)
垢版 |
2022/12/01(木) 18:13:08.38ID:3XWwXtWJ0
>>508
現状のSDの出力を教師データに使った生徒モデルみたいだな
だとするとむしろ必要VRAMは小さくなるんじゃないのか?
大分前にモデルデータを100MB位にする、って言ってたのはこれの事なのかもな
0519名無しさん@お腹いっぱい。 (ワッチョイ ff10-QMeh)
垢版 |
2022/12/02(金) 01:16:04.25ID:L31z3Fz/0
Dreamboothに手を出してみたくてスレとgithubの情報を追っていたのですが
・AnythingよりNAIモデルの方が学習に向いている
・ローカル環境でvramが12GBない場合wsl2上でubuntuでdeepspeedを使って本体のRAMで代替する方法があるが半精度モデルになる/wsl環境を使わないWindowsではDeepspeedの依存ライブラリが対応しないので環境構築ができない
・現在のfast-stable-diffusion(>>453)ではvram使用量が大きく無料プランのcolabでは動かない/有料プランでもGPUガチャになる?
・NAIモデルをdiffusers形式に変換するには変換スクリプトの書き換えが必要
という理解で良いでしょうか?

・diffusers形式に変換する際にvaeのマージをするとの情報が前スレにあったのですが、このやり方が調べても全く分からないので分かる方いらっしゃいましたらご教示いただけないでしょうか
0520名無しさん@お腹いっぱい。 (ワッチョイ 9701-zuBb)
垢版 |
2022/12/02(金) 01:35:18.43ID:5bH14ff30
>>490
>>492
ありがとうございます‼‼
次はhypernetworksで試してみます!
0521名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-F1GU)
垢版 |
2022/12/02(金) 01:41:13.44ID:cBO47kU40
>>519
vaeのマージが必要かどうは知らんけど、
マージしたいならnaiのvaeをckptのfirst_stage_modelを上書きすればいいだけじゃないの?
vaeのキーの前にfirst_stage_model.を付けてそのまま上書き或いはマージ
0526名無しさん@お腹いっぱい。 (ワッチョイ 97ad-X4DW)
垢版 |
2022/12/02(金) 17:52:46.14ID:lUksRyEe0
webuiのdreambooth見てたら更新来てる!
コンセプト1,2,3ってあるけど、もしかして3つまでの概念を学習できるってことかな?
0527名無しさん@お腹いっぱい。 (ワッチョイ 9702-PXXj)
垢版 |
2022/12/02(金) 19:04:57.35ID:fL+2SRwv0
2.0は学習させるとかなりいい感じになるって言われてたし年末くらいにはそれなりのものが出てくるんじゃないかな
0528名無しさん@お腹いっぱい。 (ワッチョイ 9701-zuBb)
垢版 |
2022/12/02(金) 19:35:20.96ID:5bH14ff30
stable diffusion のtrainで画像学習させる時に、画像ごとにつける(?)プロンプトってどんな感じにしてますか?
自分は余り文章を気にせずに、『a naked girl with blue hair and blue eyes is posing for the camera with her hand on her head, green hair ornaments on her head, expose armpit』
という感じに、画像を加工する際に抽出されていたプロンプトを修正⇒そこからカンマで区切って短く追加、としているのですが、これで大丈夫でしょうか?
0530名無しさん@お腹いっぱい。 (ワッチョイ 9701-X4DW)
垢版 |
2022/12/02(金) 20:42:49.32ID:5bH14ff30
>>529
今回はキャラを学習させようとしてて、textual inversionでembeddings(?)の学習をさせてます
0533名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/12/02(金) 21:13:30.48ID:ffVg67Rl0
>>532
それな。初音ミクを学習させるときにプロンプトが「green hair hatsune miku」だと
green hair と書いてあるから緑髪の絵になってることになってしまう
hatsune miku から緑髪が出てきたことにならないんだよな
hatsune mikuだから緑髪ということにしたいなら、green hair と書いてはいけない
ちょっと考えたらわかることだよな
0536名無しさん@お腹いっぱい。 (ワッチョイ 9701-X4DW)
垢版 |
2022/12/02(金) 21:50:32.07ID:5bH14ff30
>>533
今まで勘違いしてました...
そしたらプロンプトは構図とかだけにして、キャラに関する事は書かないほうが良い感じなのでしょうか?
0537名無しさん@お腹いっぱい。 (ワッチョイ 9f15-ykd8)
垢版 |
2022/12/02(金) 22:03:08.81ID:kekqnurK0
学習素材上に存在してるけど
学習の本筋とは関係ない要素を列挙するような感じやね
TI、DAの場合は

効果的にタグ付けするのは結構難しくて、下手にやるくらいならタグ何もなしの方が上手くいく
0538名無しさん@お腹いっぱい。 (ワッチョイ 1743-ykd8)
垢版 |
2022/12/02(金) 22:03:44.83ID:OOVrPa2W0
>>530
TIの場合は、HNのように全部盛りのキャプションを書かない。
学習させたくない要素だけを学習画像のキャプションとして書く
ポーズがどうとか手の位置が…みたいなのはキャラ特徴としては覚えさせたくない要素としたら、
posing for the camera with her hand on her head,expose armpit
を学習画像の組になるキャプションとして書くみたいな感じ
あと、背景も大抵の場合は必要ないから、例えば白壁背景なら white wall background とかを足しとく
なので blue hair and blue eyes を書いちゃうと、キャラ特徴を覚えなくなるんすよ。ややこしいけど
0540名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/12/02(金) 22:10:20.82ID:ffVg67Rl0
>>536
俺のケースだと、SPY×FAMILYの嫁のヨルの黒い暗殺服姿を学習させたくて
服に関する単語は入れないようにしたら、見事あの黒い暗殺服を学習した

ただ今度は、脱がせたくなって naked yoru とカッコ付きでいくら書いても絶対に脱がないモデルになったw
少ない枚数で学ばせる方法の弊害だろうねこれは

もっと多い枚数で学習させる場合は、さっきのミクの例だと
多くの教師画像でgreen hair hatsune miku としておけば、
『hatsune mikuといえば green hairだよね』という共起関係をモデルが学習するから、green hair と書かなくても高い確率で緑髪になるし、bold hatsune miku と書けばつるっぱげにもなる

多い画像枚数で網羅的にタグ付けて普通に学習させるのが、一番応用の効くモデルになるってことだね
0541名無しさん@お腹いっぱい。 (ワッチョイ 1743-ykd8)
垢版 |
2022/12/02(金) 22:10:41.28ID:OOVrPa2W0
俺は実写顔学習させて遊んだりするのだけど、インスタとか盛った写真の影響を強く学習しちゃう場合は、
big eyes とかを予め仕込んでる。美人にあえてugly face とか入れといても案外効果あるっぽい
high key photo とか書いといて、白飛び気味の画像を補正するような効果を入れることもある
0544名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/12/02(金) 22:24:21.71ID:ffVg67Rl0
>>543
なるほどすごいなw
ほどほどの絵を描かせるなら簡単なんだけど、細かいところまで思い通りにしようとするとまだ大変だね
ただ、人間に指示するのと同じ程度の言葉で伝えられるようには、遅くとも1〜2年くらいでなると思う
あと3年でシンギュラリティなわけだからね
0545名無しさん@お腹いっぱい。 (ワッチョイ ff8e-RVlR)
垢版 |
2022/12/02(金) 22:29:10.15ID:SqbTZrit0
再現率上げれば汎用性が下がるからな
DBで専用モデル学習させていって、同時に出すのは諦めた方が中途半端にならなくて済む
いいマスクもあるし合成したほうがいい物ができる。どうせ奇形や光源も狂ってる物ばかりだから修正はしないといけないもんな
0546名無しさん@お腹いっぱい。 (ワッチョイ ff10-XMEC)
垢版 |
2022/12/02(金) 22:34:15.02ID:ffVg67Rl0
>>541
逆の形容詞で特徴を強化させるのか。それは面白いね
美人の写真をブスだと学習させれば、もっとすごい美人が描けるようになるとw
学習した美人をさらにブスだと学習させて何度も繰り返したら、最後はどんな美人が出てくるんだろうなぁ
0560名無しさん@お腹いっぱい。 (アウアウウー Sab5-7kHv)
垢版 |
2022/12/03(土) 13:35:37.63ID:t3ANqpw3a
>>556
人間が「この写真いいね!」ってどれくらい感じるかをスコア化するAIがあるんだよ。その評価点が高かったのにマスピってタグ付けしてるだけ
同じように画質をスコア化するAIもあるし、それでハイクオリティやロークオリティってしてる
学習させてる人(NAIなりwaifu)が学習データを事前処理でそういうタグ付けしてれば1111でタグが使えるし、処理してなければ使えない
0566名無しさん@お腹いっぱい。 (ワッチョイ d08e-64DC)
垢版 |
2022/12/03(土) 15:09:15.48ID:ycHF0FhQ0
>>561
SD1.4だとStyleっていうかmuchaとか画家の名前つけて絵画の画風をまねしてた名残
NovelAIが絵画いらんのや実写もいらんのじゃって追加学習した結果「masterpiece」タグに版権キャラが居座っている感じ
今じゃmasterpieceタグ使うのはNovelAIのリーク品の定番
AUTOMATIC1111の拡張のNAIConvert使ってNovelAIのプロンプトを変換する時付けられる
0568名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/03(土) 16:02:57.66ID:QZt0wd98a
InvokeAIにモデル追加するのさては結構めんどくさいな?
AUTOMATIC1111みたいにvae切り替えてランダム色変換器みたいに使うことも出来なさそうだし
自分はたまに気分転換に触るくらいで終わりそうだ
0594名無しさん@お腹いっぱい。 (ワッチョイ d08e-64DC)
垢版 |
2022/12/04(日) 09:07:14.46ID:rwPgt1dK0
>>590
できるけどmeituはオリジナルのモデル使ってるから同じような学習させたモデルとプロンプト他設定も知らないと同じ風にするのは難しいよ
自分の好みのモデルさえ用意できれば、meitu以上の事もできるという事だけど
0595名無しさん@お腹いっぱい。 (ワッチョイ d236-7kHv)
垢版 |
2022/12/04(日) 10:05:03.20ID:c6Z13DsQ0
>>588
pixivよりも雨後の竹の子のように出てきたAI絵の投稿・コンテストサイトを漁るのがいい
ちゃんとプロンプトも公開されてる。
登録必要な所もあるけど、大半は登録せんでも視れるのがほとんどだし
0607名無しさん@お腹いっぱい。 (ワッチョイ d0f2-Ge2j)
垢版 |
2022/12/04(日) 13:30:36.80ID:ilbrF2vJ0
>>605
そうそう、つよつよビデオカードをただ買ってくればいいってわけでもないんだね
大容量の電源に換えるだけでなくckptがファイルサイズ大きいからSSDも大きいのに買い替えた
前は2000Mbps以下の安いのにしてたけど今度は3000Mbpsクラスのにしたからやや割高

画像生成AIをローカルでやろうとするとなんだかんだで金がかかるね
0608名無しさん@お腹いっぱい。 (ワッチョイ 5905-XMR3)
垢版 |
2022/12/04(日) 13:30:50.45ID:t+N+Xcy00
pc買い替えのタイミングにnovelAIリークが重なって3060買えたから良かったわ
0621名無しさん@お腹いっぱい。 (ワッチョイ 3aa5-7kHv)
垢版 |
2022/12/04(日) 17:03:52.92ID:2kOJpswY0
>>620
理解度が足りないくらいだったらHNでいいけど、完全に知らなそうなもんを出すのはDB向けで、これは2070Sだときつい
まずプロンプトの工夫で「なんぼかそれっぽいものになってきたけどどうも雰囲気が出ないなー」みたいなものまで近づけるかどうか試すといい
そこまでイケるようだったら、HNやTIで調整してやれば狙ったものが出せる可能性はそこそこ高い
逆に、特徴的な衣装だとかで「これを言葉で指示するのはちょっと無理があるな」っていう感じがしたら、無理にTI/HNで粘る意味は薄い
0622名無しさん@お腹いっぱい。 (ワッチョイ acc9-7f3L)
垢版 |
2022/12/04(日) 17:46:41.36ID:6PIzj/3J0
>>621

ありがとうございます!
民族衣装でしっくりこない(無駄にフサフサになる等)ものがあったので
学習させたかったのですが難しそうですね
とりあえず既存のワードの組み合わせで学習できないか試してみます
0642名無しさん@お腹いっぱい。 (ワッチョイ 6768-BV3Z)
垢版 |
2022/12/05(月) 03:11:23.70ID:WQM6Adnw0
画像のサイズを変えずに画質良くする方法ってないですかね?
0651名無しさん@お腹いっぱい。 (ワッチョイ 8cbb-7kHv)
垢版 |
2022/12/05(月) 14:13:38.36ID:9iTb0kL70
アプコンの話?他のアプリ使えばできるっちゃできるよ

ソース
https://suishoshizuku.com/images/twitter_icon_taisho.jpg

madVR + MPC-BEのシェーダーでアプコン
https://i.imgur.com/KRROgDu.jpg

ノイズ除去も一応できる

ノイズ有り
https://i.imgur.com/4OV9yAB.jpg

ノイズ除去後
https://i.imgur.com/iG4fz5m.jpg

これ本来動画再生に使う物だから
モニタの解像度を超えて出力できないのが問題

詳しくはここで
https://egg.5ch.net/test/read.cgi/software/1622529336/
0655名無しさん@お腹いっぱい。 (ワッチョイ a45f-WJTY)
垢版 |
2022/12/05(月) 16:39:01.44ID:ADI2tp0q0
pruningと呼ばれる軽量化が施されたもの
重みを一部除去して推論を簡素化しつつ類似した結果を得られるようにする
pruning前後で全く同じ結果が得られる訳ではないが
できるだけ誤差を減らすために多くの論文が発表されている
openvinoで使うonnxファイルへの変換でも使われていた
0657名無しさん@お腹いっぱい。 (ワッチョイ bc5f-6IzU)
垢版 |
2022/12/05(月) 16:45:18.07ID:Yqlpr/pT0
>>653
AI学習モデルのpruningとは、学習済みのモデルから不要な重みや層を削除することを指します。
モデルのpruningを行うことで、モデルのサイズが小さくなり、推論時の計算量が減少します。また、pruningによって、モデルの収束が早くなり、学習の効率が向上することがあります。
pruningは、学習済みのモデルをもとに行います。そのため、pruningを行う前には、モデルを学習させる必要があります。また、pruningの適用範囲や削除する量を適切に決定する必要があります。
pruningは、深層学習のモデルでよく用いられる手法です。モデルを小さくしたり、学習の効率を向上させるために利用されます。

ってChatGPTが言ってた
0660名無しさん@お腹いっぱい。 (ワッチョイ 3f8e-64DC)
垢版 |
2022/12/05(月) 17:01:38.95ID:g8eLROKM0
ChatGPTはそれでいいんだがSDだと削った情報にある程度必要な人もいるわけで
fp16/32,pruned,pruned-emaonly,無印,full,full-emaと千差万別あって生成結果は大きくずれなくてもそれなりに変化する
学習方法によってその選択もまた変わるという
さらに別条件でデータカットされたモデルをマージして学習元にしようとか奇々怪々な世界になってる
0667名無しさん@お腹いっぱい。 (ワッチョイ c2e6-io8I)
垢版 |
2022/12/05(月) 23:38:10.88ID:VPZ4Kuht0
macもネイティブ対応なんだね
Colab使わずにできるのが楽しみ
0668名無しさん@お腹いっぱい。 (アウアウウー Sab5-9L44)
垢版 |
2022/12/05(月) 23:57:37.05ID:Bgv4fQ7sa
NKMDでi2iしようとしたんだけど何故か元の画像がそのまま出力されるんだが原因がわかる人いない?
ちゃんとinfluenceの値も設定して画像に沿ったプロンプトも入れてるのに全然反映されなくて困ってる
0684名無しさん@お腹いっぱい。 (スッップ Sd70-Pxbt)
垢版 |
2022/12/06(火) 14:48:58.56ID:jYnJfpmZd
Any v3.0使うときはvae入れないと色が淡くなるってのは分かったんだけど、Any v3.0と他のモデルを7:3くらいでマージしたときもvae入れないと色が淡くなるんですか?
マージモデル使ったらやけに色が淡くなっちゃって
その時ってマージされたモデルのvaeはAny v3.0と同じvaeファイルをコピーして新モデルのファイル名に書き換えただけのやつでいいんでしょうか?
0685名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/06(火) 14:51:29.94ID:h7w2K1mBa
自分は応急手当的にそれで問題なさそうだったからそうしてる
でもなぜそれで上手くいくのか
なぜAny:ほかのモデル=0.1:0.9とか0.7:0.3で淡くなり方は違うのにvae適用でどれも同じくらい彩度持ち上がるのかとか
そういうのは理解してない
だからvaeは発見次第落として選択肢にしてる
0704名無しさん@お腹いっぱい。 (ワッチョイ ba8e-64DC)
垢版 |
2022/12/07(水) 10:00:59.43ID:DmTGftkf0
https://huggingface.co/nitrosocke/redshift-diffusion-768
男が出てこない…どうするん?と思ったけど
https://i.imgur.com/ZzDpXhJ.jpg
https://i.imgur.com/uoIpwRX.jpg
黒人問題も解消してるし
https://i.imgur.com/4rtdUOO.jpg
https://i.imgur.com/LWxPnYq.jpg
セクシー表現もできるし
https://i.imgur.com/N6JOsgZ.jpg
リアリスティックも有効だし、SD2.0リリース時よりはだいぶ明るい未来が…
https://i.imgur.com/EHcZRyi.jpg
https://i.imgur.com/GLGWEeT.jpg
テスト生成にcolab用意されてるのは気が楽でいいな
0716名無しさん@お腹いっぱい。 (アウアウウー Sa30-nia1)
垢版 |
2022/12/07(水) 15:24:19.98ID:DuNZnzYZa
HyperNetworkか?
いけるんじゃね
0720名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/07(水) 16:29:13.11ID:muv6N//xa
まず個人的に使い物になるサンプラー一覧
Euler a, PLMS, DDIM, DPM fast, DPM++ 2M(Karras), DPM++ SDE(Karras)

とりあえず呪文模索する時やシード値探しする時はSDE KarrasのStep6
良さげなシードだけどこかに控えて後から好きなサンプラーでXY Plotで色んなStep数を試す
なおシード値探しをSDE Karrasで行っている以上「SDE Karrasではハズレだったけどあるサンプラーでは当たりになるはずだったシード」「SDE Karrasでは当たりだったけど違うサンプラーではハズレになる」ことは避けられない

リアル系とかは知らないけどNAI系の萌え(死語)なアニメイラストが出したい場合はEuler a > DPM fast(高steps) > その他サンプラー >> DPM fast(低steps)
背景とかはDDIMやDPM系の20~50stepsくらいがちょうど良さそう
0721名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/07(水) 16:31:48.27ID:muv6N//xa
CFG Scaleに限らずSamplerにも言えることだけど
モデルによってちょうどいいCFG ScaleやSamplerやそのStep数はだいぶ変わる
使うモデルをいくつかのプロンプトでCFG ScaleとSamplerでXY Plotして自分の好みを見つけるのが早い
0722名無しさん@お腹いっぱい。 (アウアウウー Sab5-r8Qf)
垢版 |
2022/12/07(水) 16:41:42.58ID:d0P9NnBTa
>>706,707
ありがとう返信もらえると思ってなかった
生成した絵をそのままimageに取り込むならならないのに一回加工して持ってくると全部濃淡薄くて線が太い絵になるんだよな
どんな元絵でも、thick outlineとblack outline強調してネガにぶち込んでも全然ダメ
rength0.6以上にすると元の画像無視するし手詰まりになってる…
他になにか無いかな?
0724名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/07(水) 17:35:24.55ID:muv6N//xa
Kaggleの自分のDatasetにNotebookで落としたモデルを送り込むってできない?

Datasetの追加のところにあるRemoteLinkでHuggingFaceに置いてあるモデルの直リン入れてみたらエラーが出るみたいで
かと言ってローカルから十数のモデルをアップロードするのもうんち回線だからちょっと辛い
だからNotebookを通じてHuggingFaceから高速で落としてDatasetに突っ込めないかなって思ってググってみたんだけど検索ワードのそれぞれの単語が強すぎて上手く見つけられなかった
0735名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 02:34:46.95ID:qZl9gbPz0
nijijourney入れたけどこれすごいわね
日本語の簡単なプロンプトで限りなく欲しい絵に近いものがぽんぽん出てくる
画像生成aiで初めて課金してもいいと思ったわ
0737名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 06:09:29.66ID:5AW3AB+D0
>>735
エロは出来ますかね?
0738名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 06:12:28.09ID:5AW3AB+D0
i2iと追加学習はどっちが良いんだろう?
ピクシブを見てると学習って意外と量産性が低い気がする
0741名無しさん@お腹いっぱい。 (ワッチョイ 98be-4FAg)
垢版 |
2022/12/08(木) 06:42:40.38ID:nXGnwmXq0
>>738
汎用AIで生成→DB,HNで絞るみたいな感じで両方使えよ
0743名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:11:06.91ID:5AW3AB+D0
>>741
学習しても最後はi2iで修正する人が多いのかな
0745名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:25:24.94ID:5AW3AB+D0
学習やったことないけど
エロは出しにくいのかな?
ピクシブ見てると学習はエロが苦手な気がする
0746名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/08(木) 07:31:38.56ID:OdilId63a
追加学習やったことないけどそれは学習の方向性によるのでは🤔
そもそもpixivに追加学習したモデルを使用してるって明言してる人そんな多いかな
マージもファインチューニングもしたしHNも使ってるしTIも使ってるとなった場合
分類に困ったからとりあえずStable DiffusionタグかNovelAIタグをつける人は多い
0747名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:37:39.65ID:5AW3AB+D0
>>746
dreamboothタグはありますね
0748名無しさん@お腹いっぱい。 (ワッチョイ 978e-64DC)
垢版 |
2022/12/08(木) 07:51:55.48ID:UFpmDrIu0
>>745
なぜ来週からエロ制限が厳しくなるピクシブ基準なのか視野が狭いわ…無料で試せるものなのに意味不明だわ
SD1.4の実写学習潰してDanbooru画像を学習したのがNAIで、マスピに2D版権キャラが上書きされタグとエロのバリエーションが増えてる
エロ同人売ったら捕まるような国でNAIに追加学習したのがAnythingだし
そもそもマスピ減らしてでも塗や指の再現を優先したかったわけで…その先にmeituがある
NAIに2D性器を学習させたGapeのサンプルでも見てまだ弱いって言えるのかどうかだな
ベースモデルを何に特化させるのかっていうだけで、黒人や障碍者入ったi2iで消えるっていちゃもん付ける屑にならんようにな
オープンソースなんだから好きなもの学習させて公開して、これ使えっていうのが筋だしな
文句言うだけなら日本の野党でもできる。何ができないかじゃなくて、何ができるかっていうのが技術発展でありお金になる
0749名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 07:54:42.39ID:qZl9gbPz0
>>737
エロが出来ないからWD1.4次第だよな
理論上NAIは軽々超えられるカタログスペックはある訳だから、あとは学習のやり方なわけで
これでしょうもない結果だったら結局クローズドソースが最強というオチ
0750名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK)
垢版 |
2022/12/08(木) 08:09:15.68ID:OdilId63a
wd1.35もwd1.4もすげー楽しみ
イラストのみを学習した1.35はこれまでの上位互換を期待してるし
色々データセットを増やした1.4にはイラストとより正確な絵的構造を兼ね備えたモデルを期待してる
楽しみだ
0752名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 09:12:36.99ID:5AW3AB+D0
>>748
詳しい解説ありがとうございます
Gapeのサンプルってどこで見れるんですかね?
検索しても全然でないですね
0755名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 09:41:57.85ID:qZl9gbPz0
リークはともかくniji上で学習もimpaintもoutpaintingも出来るようになって欲しいのはあるな
NAIもそうだけど細かい修正が効かなきゃ玩具以上の価値はない
0757名無しさん@お腹いっぱい。 (ワッチョイ 307d-Nb+f)
垢版 |
2022/12/08(木) 11:06:00.85ID:qSxW78m40
別にdanbooruから学習したってことはわかってたんだからリーク使わなくても同じ方法でモデル作ればNAIと同じものが出来るだろ
特許とか取ってなきゃ誰でも同じモデル作って問題ない
0762名無しさん@お腹いっぱい。 (ワッチョイ 1acf-XhAG)
垢版 |
2022/12/08(木) 12:35:28.51ID:r1+FtCNM0
>>748
文章が無駄に長いよ
基本的に偏った認識をしやすい・思い込みが激しい傾向があるようだけれど、それはできるだけ短く書くようにすれば対外的にはある程度改善されるから説明が苦手なら最低限だけ書くようにすりゃいい
0789名無しさん@お腹いっぱい。 (アウアウウー Saab-nia1)
垢版 |
2022/12/08(木) 17:52:29.48ID:IcSdI6nja
>>788
たぶん--no-half-vaeで治るやつだわ
0795名無しさん@お腹いっぱい。 (ワッチョイ 1ebd-RX5i)
垢版 |
2022/12/08(木) 20:56:06.88ID:Z+XmntM50
エロの無いmidjourney系統に
ハッキング仕掛けるだけの情熱を持った変態が目を向けるとも思えん。
ああいうのは変態が偏執的に執着するからガードを破れるんであって
何が言いたいかっていうと変態はつええし、なんやかんや文明を発展させるってこった。
NAIリークで明らかにイラストAIの時代は進んだしな。