X



【StableDiffusion】AI画像生成技術10【NovelAI】

レス数が1000を超えています。これ以上書き込みはできません。
2022/11/03(木) 00:10:16.15ID:0dW1bfVB0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合17【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1667381701/
AIイラスト 愚痴、アンチ、賛美スレ part12
https://mevius.5ch.net/test/read.cgi/illustrator/1666872303/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術9【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1666139334/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2022/11/03(木) 00:13:42.52ID:0dW1bfVB0
スレタイのMidjourneyをNovelAIに変えた(スレタイが長すぎるというエラーのため)
それに合わせて>>1の説明文も一部改修
3名無しさん@お腹いっぱい。 (ワッチョイ 19ad-FQW+)
垢版 |
2022/11/03(木) 01:02:24.31ID:yx05OOaT0
立て乙
2022/11/03(木) 01:06:46.74ID:qx5XNQAV0
>>1
やっとワッチョイ導入か・・・
2022/11/03(木) 01:51:11.08ID:0dW1bfVB0
AUTOMATIC1111版のUIが良すぎて他使う気にならん
あとは1111版が、UIそのまま使えるRadeon対応してくれればいいのに
2022/11/03(木) 01:54:08.00ID:pfIzmvgua
幼女にジャックオーチャレンジさせてたら1日終わってた
2022/11/03(木) 03:23:29.59ID:knkL58+L0
おすすめプロンプト教えてください
2022/11/03(木) 03:32:22.49ID:pfIzmvgua
loli
2022/11/03(木) 07:42:21.57ID:bz6qi//D0
assertive female
2022/11/03(木) 11:26:02.22ID:v+lUlKfS0
ちょっと見ない間に随分お客さん増えたな
正直プロンプト勢はなんUに誘導して技術者だけ残したいが
2022/11/03(木) 11:27:05.72ID:HoMsumRC0
>>1
2022/11/03(木) 11:32:22.70ID:xyc2zBkF0
sukebe oppai
2022/11/03(木) 12:45:14.84ID:Mh5yKIPc0
スレ立てとワッチョイ導入乙
2022/11/03(木) 13:08:56.20ID:bzHnQdq90
https://www.bilibili.com/video/BV1Vg411h7of/
音声自動生成も凄いな
色々と真っ黒だけど
2022/11/03(木) 14:55:04.85ID:yeR/zH1L0
何か荒れてると思ったら、イラスト板の愚痴スレで直接技術スレに誘導してるんだな
そんなら技術的なことだけじゃなくて暴れたい人が来るわけだわ

ワッチョイ立て乙
2022/11/03(木) 15:03:33.23ID:HoMsumRC0
Text2LIVE、推奨VRAM32GBらしいけど、24GBじゃ流石に厳しいかな…
Dreamboothみたいに軽量化が進むのを待つか
2022/11/03(木) 15:09:12.45ID:pfIzmvgua
いやいや32て
Vじゃない方のRAMかよ
2022/11/03(木) 15:09:25.71ID:pfIzmvgua
4090でいくらだっけVRAM
2022/11/03(木) 15:17:11.75ID:ePtBBKpC0
>>16
グラボじゃなくてAI用アクセラレーターの容量だから、グラボでも出来るようになるの待つかAI用アクセラレーターを買ってまでチャレンジするかの選択では
2022/11/03(木) 15:32:05.46ID:9NeDnz+za
>>17
遅くなってもいいからメインメモリー32GBで動いてほしいよね

メインメモリーなら64GBでもたいした金かからないし
2022/11/03(木) 15:46:34.49ID:JQYkbX540
たしか24だったはず
2022/11/03(木) 17:58:40.61ID:xyc2zBkF0
1111の単語強調の新旧設定って何が違うんじゃろかい
2022/11/03(木) 18:02:57.00ID:pfIzmvgua
よく知らないけどgithubのfeatureのとこに書いてたりしないのか
2022/11/03(木) 18:35:37.30ID:1Er+KXW00
>>22
旧:(((1.331倍に強める))) [[[1.331倍に弱める]]]
新:(1.331倍に強める:1.331) (1.331倍に弱める:0.751)
2022/11/03(木) 18:40:10.97ID:yeR/zH1L0
弱める方も()になったのか
[xx:0,21]とか一瞬数字どっちだっけってなって分かりにくかったからええ変更やな
2022/11/03(木) 18:42:42.50ID:1Er+KXW00
>>22
旧は、() 一重で1.1倍、[] 一重で1/1.1で、かぶせるごとに同じ倍率で強化される。
新は、単純に数字で倍率を指定する。
2022/11/03(木) 18:47:27.69ID:xyc2zBkF0
>>24
>>26
さんくす
2022/11/03(木) 18:52:59.68ID:pfIzmvgua
あれ最近feature見て前からこれだと思ってたわ
数値指定いいよね
2022/11/03(木) 19:31:13.95ID:qx5XNQAV0
>>24
説明wikiを見た感じだと旧が廃止されたと言うより新書式が追加されたみたいだ
(((((単語)))))みたいに()が多過ぎる事が増えたし倍率指定可能になったのか
2022/11/03(木) 19:36:00.94ID:g0gnvvB40
一か月以上前の話なんだけど
2022/11/03(木) 21:26:48.01ID:7KsYE46a0
声の分野で数年かかった進化が三ヶ月で起きてしまったから一ヶ月とか大昔に感じてしまうな
2022/11/03(木) 21:31:18.32ID:+rNa9VK10
丸括弧を任意数重ねる ((A))→丸括弧1つに付き1.1倍に強める
角括弧を任意の数重ねる [[A]]→角括弧1つに付き1,1分の1に弱める
丸括弧にコロンで区切って数字 (A:1.1)や(A:0.9) →数字の倍率に強める。数字を1未満にすると弱める

角括弧にコロンで区切って数字 [A:0.5] →プロンプトの適用ステップの調整、この場合「全体の50%からAという要素を加える」。わりと複雑なのでこれ以上の説明は省略

案外知らないみたいなのでおさらいに。
角括弧とコロンは書き方が似てても強弱とは全く別のシステムだからな
2022/11/03(木) 23:00:15.69ID:ISzYQBe10
>>1ワッチョイ立て乙

ここの人の大半がwebUI使ってるのかな
自分はあえて自前のしょぼ環境で遊んでるから最近のwebUI専門っぽい流れについていけないや
わかっててこうしてるわけだから別にいいんだけど
34名無しさん@お腹いっぱい。 (ワッチョイ 19ad-ofdD)
垢版 |
2022/11/03(木) 23:25:44.33ID:yx05OOaT0
>>32
こういう基礎知識置いてくれるの嬉しい。
僕みたいな初心者にはとても助かるよ。
2022/11/04(金) 01:00:54.93ID:31NImAUF0
絵文字とか2バイトもじが表示されないの解決したので

https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3333
36名無しさん@お腹いっぱい。 (ワッチョイ 19ad-ofdD)
垢版 |
2022/11/04(金) 01:59:52.69ID:wLqUXW4t0
ウーム、HNやらTI試そうと思ったけどグラボのメモリ不足かぁ。
やっぱり3060には厳しいのかな。
2022/11/04(金) 02:48:52.51ID:7eTG9Hbw0
VAE Selection実装されてるな。
設定画面でVAE固定で選べる。
NovelAIのVAEを他のモデルに当てても専用のVAEよりよくなるケースが多かってんでシンボリックリンクをリネームしていたのだが、もうそんなことをしなくて良いようだ。
2022/11/04(金) 04:01:36.96ID:VOICmpyG0
モデル比率変えて混ぜてvae噛ませて比較とかしてたからありがたいんだけど
settingの中じゃなくて普段からチェックポイントとvaeと2つ選択できるようになると更に嬉しいな
2022/11/04(金) 06:12:28.74ID:J0YqTZuXa
>>33
最近はデータ新規学習やモデルデータ自作とかが当たり前の世界になってきて正直ついていけない所がある
40名無しさん@お腹いっぱい。 (ワッチョイ 11a5-ofdD)
垢版 |
2022/11/04(金) 06:46:46.16ID:SNxR3W8u0
SDの画像圧縮技術がすごいらしいけど
pngやjpgじゃなくてその形式でファイルに吐き出すことはできんの?
2022/11/04(金) 06:57:22.01ID:zJd0zUkLa
それ言い出した奴がコード上げててバイナリ保存してるだろ
圧縮率高いっても圧縮復元に4GBのモデルデータが必要になるっていうある意味で本末転倒なやつだからな
2022/11/04(金) 07:27:25.04ID:DKex/1Gsa
辞書を使う圧縮形式なんて普通に使われてるぞ
問題は展開速度の方だよ
2022/11/04(金) 07:49:31.53ID:zJd0zUkLa
jpgなら6kbのとこがsdなら5kbになります。1枚で1kbもお得ってレベルの効率化だから4GBだったら400万枚に相当する
もちろん何千万枚何億枚も扱うってなら恩恵にあずかれるし
辞書はよく使われてるけどここまで効率悪い辞書はそうそう使われないよ
44名無しさん@お腹いっぱい。 (ワッチョイ 1901-T+yX)
垢版 |
2022/11/04(金) 08:01:20.33ID:LqHAYjHf0
画像閲覧タブが2つになってExtensionsからimage historyOFFったら一つになった
相変わらずプレビュー画像クリックで次の画像出ても生成情報は更新されないのな
2022/11/04(金) 08:08:12.95ID:zbxQmRf20
VRAM 10GBでDreambooth使えるようになったっていうから1080tiでウキウキで回してるけど面白いなこれ
なかなか思ったようにいかないのはHNとかと一緒か
2022/11/04(金) 08:51:30.64ID:uGl6tOed0
>>38
Quicksettings list に、sd_vae て書き足してみ。ちょっと楽になるから
2022/11/04(金) 11:40:13.83ID:ClK14nla0
>>46
38じゃないけどサンクス
まさにやりたいことだったわ
2022/11/04(金) 11:55:44.46ID:+i6frDEoM
SDで圧縮って言うなら、半分に縮小してUpscaleした方がはるかに効率いいと思います。
2022/11/04(金) 12:44:31.95ID:jYFExM140
復元コストを度外視するなら、モデル名と呪文とシード値のテキストで1kbくらいになるのでは
量子化の工程が入るから、圧縮っていうほど元画像の忠実再現性はないと思うが
2022/11/04(金) 15:38:29.17ID:GkxNCQjBr
>>46
ああ、quicksettingsってそこに反映されるのね。
ついでにHyperNetwotkとHyperNetwotk強度も出したらすごく快適になった。これまでX-Yプロットの凡例なしで適用してたわw
51名無しさん@お腹いっぱい。 (ワッチョイ 19ad-ofdD)
垢版 |
2022/11/04(金) 17:11:54.92ID:wLqUXW4t0
ModuleNotFoundError: No module named 'tensorflow.python'
って言われたんだけど、tensorflowはどこにぶち込めばいいんだろ。
2022/11/04(金) 17:28:59.37ID:ZKLNSgo60
7900XTXがかなりコスパよさそうなんだがAMDのカードでdreamboothってできる?
環境整ってんのかな
2022/11/04(金) 17:39:09.79ID:ClK14nla0
>>52
今のところ新規で買うならNVIDIA以外はありえんね
コスパならRTX3060 12GBが鉄板
2022/11/04(金) 17:55:29.74ID:uGhLLMgN0
Dreambooth GUIもnVidiaがターゲット
あとRX 7900 XTX買うなら値段的に近い3900買った方が安牌な気がする
2022/11/04(金) 18:41:32.22ID:aITtjuhqr
AI使うならNVIDIA買うべき。AMDはゲームとかで近い性能が出したい人向けであって、機械学習に使おうとしたら対応しないソフトだらけで泣くぞ。
2022/11/04(金) 18:44:42.16ID:ZKLNSgo60
やっぱりきついのかぁ
7900買うのはやめとくわサンクス
2022/11/04(金) 19:10:20.44ID:VOICmpyG0
>>46
ありがとうありがとう
まさにこれが欲しかった
2022/11/04(金) 20:05:12.94ID:qfRDEbNXd
ここでする話題か分からんが、mimicが再始動したけど、あれって自分で用意した画像以外にもなんかベースになってる学習素材があるのかな
だいたいの画像生成AIはなんかがオープンソースで公開されたのがきっかけらしいから、そこで学習された画像になるのか?
2022/11/04(金) 20:56:40.60ID:AAbme5950
>>58
普通にSDベースなんかなと思ってたけどどうなんやろうね
SDベースなら心情的なクリーンさは他のサービスと正直どっこいどっこいな気もするよなあ
2022/11/04(金) 21:09:36.67ID:Di8U1jsJ0
バストアップイラストだけのクリーン画像で作ったSDに
TIしてるだけじゃないか
2022/11/04(金) 21:30:15.89ID:aeshogBVd
無断で著作物を学習素材として使う=クリーンじゃないって話なら
今ある画像生成AIにクリーンなやつなんてひとつもないだろうな
合法ではあるけど
2022/11/04(金) 21:36:34.88ID:b2ctWRTD0
お気持ちの問題だ
残留農薬たっぷり中国産野菜でも国産有機無農薬と書いておけば美味しく食べられる
2022/11/04(金) 21:58:00.58ID:uGl6tOed0
最初のリリース時と違って自前で学習するのも当たり前になってしまったから、
mimicにどれほどの価値が見いだせるか正直よくわからんな
で、あれは結局TIなのだろうか。再始動ならDBはともかく、HNとかも取り入れてそうだけど
2022/11/04(金) 22:02:53.95ID:0jBXpnOSd
NAIはダンボールで学習してるから嫌い、mimicは自分の画像だからOKって流れできてるよね
2022/11/04(金) 22:07:57.71ID:+FFT574z0
構図がすげえ限定されてるから
TIベースの強制img2imgで似たようなことできると思う。というか出来る
66名無しさん@お腹いっぱい。 (ワッチョイ 9168-TUMG)
垢版 |
2022/11/04(金) 22:17:11.06ID:/crn/wJ90
mimicは環境が変わりすぎて今更再稼働したところでな……
67名無しさん@お腹いっぱい。 (ワッチョイ a95f-SxIP)
垢版 |
2022/11/04(金) 22:27:37.32ID:xe1O169b0
mimicはGANじゃないの?
StyleGAN2をAnimeFaceデータセットで学習させたのと似てる気がする
2022/11/05(土) 05:16:15.61ID:bDpl8kTka
SDもGANだけどw
SD1.4ベースではないだろうね
2022/11/05(土) 07:47:23.31ID:yue4HkzD0
stable diffusionは名前の通りdiffusion modelというノイズがどうこうという学習モデルの改良版のlatent diffusion model使っているんじゃないの
2022/11/05(土) 09:32:36.50ID:PrWUAu4H0
>>67
俺もそんな感じだと思う。SD発表前から自前のを作ってたし
2022/11/05(土) 12:23:57.71ID:/8fkZ/qR0
>>32
これってネガティブプロンプトに (A:1.3)とか書くと
Aを除去する効果が1.3倍になるってことでいいんかな
2022/11/05(土) 12:55:29.56ID:jKwGiDnld
>>71
方向性としてはそう
ネガティブプロンプトに強調をつけると強めに除去する
2022/11/05(土) 20:59:42.69ID:pBxwJWnba
(red) (hair)と(red hair)だと違う意味になる??
2022/11/05(土) 21:27:39.96ID:IKYcNs0K0
赤が画像全体にかかるか赤髪強調になるかぐらいの違い
2022/11/06(日) 12:20:39.48ID:mMotORCe0
>>73
旧仕様の1111なら、プロンプトのパース処理で '(' が出てきたらその時点でトークンの強度を1.1倍、 ')' が出てきたら1/1.1 みたいな処理になってたから、そのふたつに違いはないはず。
今のがどんな処理に変わってるのかはわかんね。
2022/11/06(日) 13:44:41.15ID:ssKzkWif0
AUTOMATIC1111にも実装されるかしら
https://twitter.com/Yamkaz/status/1589052487721717760?t=40Q_D0xinQVq_V6UgrQaGQ&s=19
https://twitter.com/5chan_nel (5ch newer account)
2022/11/06(日) 13:49:12.87ID:5fBMedEI0
sampler めっちゃ増えてたな
2022/11/06(日) 13:51:56.64ID:mja3HTm90
>>76
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/4280
2022/11/06(日) 13:54:01.80ID:mja3HTm90
こっち貼ればよかった
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/bbfdfa52c5f0ad4f0660b465b39416899c80a17a
2022/11/06(日) 14:00:52.28ID:1tzc6lHf0
もう実装済みやね
2022/11/06(日) 14:18:30.82ID:rscbsgkvM
red hairにしても服とか背景にも影響するよな
エリア限定する構文ないのかね
2022/11/06(日) 14:19:35.62ID:zjZl80ZJ0
>>81
これもNAI実装予定リストで見た記憶
2022/11/06(日) 14:26:28.49ID:ssKzkWif0
>>79
いつのまにいいい
2022/11/06(日) 14:57:19.29ID:rscbsgkvM
AM1111で{}使えてる?
()と{{}}が同じ効果のはずだけど()のが強い気がする
2022/11/06(日) 15:15:15.79ID:ssKzkWif0
>>84
そもそも使えない
Automatic1111とNAIはカッコの使い方や倍率が違うのよ
2022/11/06(日) 15:16:26.39ID:mnX/Jido0
NovelAIだと+~+で区切ると効果範囲を限定できるとか
記号は「+」でなくてもよく、限定する効果がより高まる記号もあるかもみたいな話だった

250 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6988-P3uR)[sage] 投稿日:2022/11/05(土) 01:38:23.94 ID:ZK5ok5dV0 [1/9]
>> 229
技術部ディスコからの引用やけど
+shiny hage+ ←こんな感じで要素を意味のない記号で区切るとその要素が外に漏れない(っぽい
この場合「shinyがハゲにだけ掛かって他には影響を及ぼさない」(っぽい

これも引用やけど、「pixel」系の単語を背景と人物で切り離すのに成功した例

自分もある程度は試して効果実感しとるからwikiに書こうかと思っとるけど、もう少し検証したい
https://i.imgur.com/g4vvFqm.png
https://i.imgur.com/lq6V1e4.png
2022/11/06(日) 15:21:16.33ID:ssKzkWif0
>>86
だからそれは単なる眉唾だと何度言えば
効果はまったく期待出来ないよ
+とか使わなくてもガチャれば出来るし
あくまでも確率の問題
確定じゃない情報をwikiとかに書かないで欲しいんだが
88名無しさん@お腹いっぱい。 (ワッチョイ 9201-84Ua)
垢版 |
2022/11/06(日) 16:15:17.57ID:y+UNZPkx0
表情差分ってNovel AIだとどうやって生成するんですか?
2022/11/06(日) 16:26:39.26ID:ZrCejMl90
>>88
https://seesaawiki.jp/nai_ch/d/%c7%ed%a4%ae%a5%b3%a5%e9%a5%c6%a5%af
90名無しさん@お腹いっぱい。 (ワッチョイ 8101-Cw2/)
垢版 |
2022/11/06(日) 16:27:59.13ID:J2Iau4RU0
誰かおすすめの実写モデル教えてーや
2022/11/06(日) 16:40:59.93ID:mja3HTm90
LDSRの黒帯治ったらしい
2022/11/06(日) 16:50:56.47ID:mMotORCe0
>>91
先月半ばくらいには治ってたと思う。
2022/11/06(日) 16:53:25.98ID:mMotORCe0
>>91
んん、この環境作ったの21日だから、半ばじゃなく下旬やな……
2022/11/06(日) 16:58:36.32ID:mja3HTm90
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/6603f63b7b8af39ab815091460c5c2a12d3f253e
95名無しさん@お腹いっぱい。 (ワッチョイ 7922-chQ5)
垢版 |
2022/11/06(日) 17:01:54.19ID:mMotORCe0
ということは、ここ最近使ってた縦横サイズがたまたま黒帯出ない条件になってたってことか?
2022/11/06(日) 17:02:44.33ID:ssKzkWif0
>>90
Stable Diffusion
97名無しさん@お腹いっぱい。 (ワッチョイ 8101-Cw2/)
垢版 |
2022/11/06(日) 17:10:13.80ID:J2Iau4RU0
>>96
ありがとうな!
98名無しさん@お腹いっぱい。 (ワッチョイ 9201-84Ua)
垢版 |
2022/11/06(日) 17:31:14.52ID:y+UNZPkx0
>>89
サンクス
2022/11/06(日) 18:10:57.41ID:4teYXyrB0
stable-diffusion-webuiで
Aesthetic Gradients使ってptファイル取り入れようとしたんだけど
AttributeError: 'dict' object has no attribute 'T'
になってできません。どうすればいいのでしょうか?
2022/11/06(日) 18:19:51.10ID:5fBMedEI0
DPM++ 2M Karrasが収束早くて使いやすいかなー
2022/11/06(日) 18:23:24.70ID:bgXqYp4l0
>>87
5%が10%になるならちょっと効果はありそうだけど
2022/11/06(日) 18:27:41.94ID:YVwO6VDq0
オリジナル魔法少女を生成するとして
魔法少女自体はともかく、おともの謎生物はどうやって指定すればいいのだろう
2022/11/06(日) 18:33:53.76ID:hD+dhGSQ0
謎生物をTIしたので生成して貼り付けるか
pixivから拾ってきたものをi2iしてフォトショで貼り付けろ
2022/11/06(日) 18:57:47.77ID:sLvQDmuk0
>>101
100%出ない奴は嘘だ載せるなって言ってるのは相手にしてなくていいと思う
AIの収束率上げる要素に使えないか?要検証っていう話なのに、違う次元の話をしてる
SNSやプロンプト公開してマネするなって言ってるアホと同レベルの技術阻害
2022/11/06(日) 19:03:39.78ID:IL9AxMIc0
dreambooth-gui精度カスだな
同オプションのshyvamと比べても
2022/11/06(日) 19:05:12.17ID:ssKzkWif0
>>104
散々試した結果、効果が見られなかったんだよ
なんJでも散々言われている
効果はない、と
プロンプトは一文字違うだけでも結果は変わる
それで変わっただけなのを効果だと勘違いすることはよくあること
新しい発見をした、と思いたいのだろうけど残念ながらなんの効果もないよという話なんだよ
というか色んな記号でサンドイッチしてみようなんてのはSDが出てきた初期から試されていることだしホント今更のこと
そもそもそんな便利な方法があったら、とっくに中国で発見されてる
日本は何週も遅れてる
2022/11/06(日) 19:07:45.90ID:FVjgtv1AM
>>85
変換スクリプトがどっかになかったっけ?
2022/11/06(日) 19:10:49.08ID:ssKzkWif0
>>107
そのままでは使えない
NAI構文→AUTOMATIC1111であれば、AUTOMATIC1111の拡張機能でワンタッチ変換ボタンが追加できるよ
109名無しさん@お腹いっぱい。 (ワッチョイ a2bd-Cw2/)
垢版 |
2022/11/06(日) 19:11:41.11ID:IL9AxMIc0
>>86
こんなんprompt全文公開しなきゃ追試もできないし情報としての価値はないに等しいね
そもそも実装にない記号勝手につけて効いた気がする!なんてオカルトにしか見えないから十分に検証されない限りwikiの類には書くべきではないだろ
2022/11/06(日) 19:15:03.03ID:zjZl80ZJ0
まぁ要検証→検証結果として効果なかった、って結論ならそれを否定する方が技術的には不適切だわな
2022/11/06(日) 19:39:25.71ID:pmoEqpk/0
>>105
精度って望んだオブジェクトが出てくる確率のこと?
2022/11/06(日) 19:50:19.81ID:keFl9jLQ0
>>86
引用とかする前にまず試しなさいよ。

+1 girl and 1 boy+,+a girl blue hair+, +a boy blonde hair+
とでも入力してランダムで20回ぐらい試せばわかる。
男と女、どっちが青髪・金髪になることもある。

結論:+で括っても無意味
2022/11/06(日) 20:03:38.09ID:cR/d+JAl0
DPM++めっちゃ速いな
もうDDIMいらないわ
2022/11/06(日) 20:09:50.80ID:bgXqYp4l0
+自体は文脈的には分割より加算に動くのは分からんでもない
もっと強いセパレータ記号見つかるといいけど
2022/11/06(日) 20:18:08.64ID:1tzc6lHf0
24枚生成で実験

1 girl and 1 boy+,a girl blue hair, a boy blonde hair
https://i.imgur.com/OAV36Sq.png
女青髪:11枚

+1 girl and 1 boy+,+a girl blue hair+, +a boy blonde hair+
https://i.imgur.com/yiQfoCi.png
女青髪:8枚

効果無しと判断するがねぇ
2022/11/06(日) 20:33:58.54ID:1tzc6lHf0
あ、スレに貼るときに+消し忘れがあったか(生成時は消してた)
まあ皆試せるからいいか
2022/11/06(日) 22:30:07.87ID:qK6gVkXn0
男同士あら~^
2022/11/06(日) 22:49:20.65ID:wZlauhKp0
正直なところコンマやピリオドですら隣同士で混ざるのに
それ以上の効果を持った区切り方があるとは思えないというところでこういう話は全部眉唾で聞いてる

コンマもそこで区切らないと別の意味の言葉や文になるって時に的確に入れるのが効き目高いぐらいで
意味もなくたくさん入れても分割効果は無いし
2022/11/06(日) 23:02:16.21ID:mja3HTm90
DPM-Solver++2M is the fastest solver currently.
https://github.com/LuChengTHU/dpm-solver#news

らしい
2022/11/06(日) 23:10:46.67ID:nPHA+tXu0
新しいサンプラー群使おうとXYのサンプラーに「Euler a,Euler」とか入力したら
「エラー 俺はそんなサンプラー知らん」て表示された
カンマで区切るんじゃなかったっけ??
2022/11/06(日) 23:20:38.33ID:mja3HTm90
どうせタイプ間違ってるだけ
2022/11/06(日) 23:26:33.73ID:nPHA+tXu0
自己解決した
最後にもカンマ付けてたわ

サンプラー増やすのはええけど、i2iの画像の真下に「幅 高さ」スライダー設置してくれんかなぁ
前から思ってたけどなんであんな画像の全体が見えなくなるくらい遠くに置くんやろ
使わんサンプラー消しゃええがなって話ではあるけど
2022/11/06(日) 23:40:32.10ID:mja3HTm90
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/4372
2022/11/06(日) 23:45:28.16ID:nPHA+tXu0
やっぱ思ってる人いたのか
適用されるといいけど
もっといえば各項目の位置をカスタマイズ出来るようになれば最高やけど
2022/11/07(月) 00:00:29.75ID:5IWNjlRl0
むしろ日々の更新でAUTOMAちゃんが倒れないかが心配だわ
2022/11/07(月) 00:33:54.78ID:hFiMBhwM0
>>122
下までちゃんと見ないと、へんなscriptがオンになってて失敗するからさ……
2022/11/07(月) 11:22:10.11ID:HH6RD3xnM
ui.pyをいじればuiの位置動かせるぞ
2022/11/07(月) 11:25:24.76ID:5zpXdHne0
それだとpullするたび元に戻るのがツラいんよ
2022/11/07(月) 11:27:03.42ID:hU+0P0RT0
カスタマイズ待つより自力でプラグイン作って公開した方が早そうだな、使う側も技術者なら
OSS的には当たり前と言えば当たり前だけど
2022/11/07(月) 11:29:01.29ID:hU+0P0RT0
ワンクリックでui.pyに同じ変更を再現するバッチファイルが一番シンプルか
2022/11/07(月) 11:37:13.75ID:5zpXdHne0
>>129
そう思っていた時期もあったw
automaticの実装の速さに何度心を折られたことか

ニッチな機能ならエクステンションで組み込むのが良いけどな
2022/11/07(月) 12:14:29.70ID:OIs0U+27a
automatic1111ほんと早い
dpm solverの存在を知った時には既に実装されててびっくりした
2022/11/07(月) 12:17:09.41ID:OIs0U+27a
まあ普段使いはDDIMなんですけどね
2022/11/07(月) 12:42:15.89ID:k58fYZeMM
>>130
git stash
git pull
gitstash pop
で自動マージしてくれる
2022/11/07(月) 13:43:40.38ID:OIs0U+27a
>>115
無のトークン数が増えるって話じゃなかった?
2022/11/07(月) 13:44:39.13ID:OIs0U+27a
なんかこうカエルとネコを足して2で割るところを50くらいで割るみたいな
2022/11/07(月) 13:47:09.19ID:OIs0U+27a
あすまんStable Diffusionか

それについての話がここにあるらしい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2138
2022/11/07(月) 13:58:32.29ID:OIs0U+27a
いかなる長さのトークンでも75トークンごとに分割して、分割されたプロンプトをひとかたまりと扱ってCLIPを実行して絵ができるというよりは
分割されたプロンプトの範囲で一つ一つのトークンごとにCLIPが実行され、その結果で絵ができる
75トークン目の単語は同分割範囲のプロンプトのことであれば認識できるが
76トークン目以降の単語はもはやその範囲のトークンではなく、どうたらこうたら

CLIPってのが俺はなんなのかわからんが
トークン数稼ぎに使える記号がいくつかあって
それに+を使いたいかコンマ+空白を使いたいかっていうお好みの問題なんじゃないかと認識してる
2022/11/07(月) 13:59:40.56ID:OIs0U+27a
ちなみに俺は2連続コンマを使ってる
Ctrl+BSで一気に消せるから楽
2022/11/07(月) 14:02:43.51ID:gKDVj8CJp
docker版はk-diffusionとかが古くて新しいサンプラーが表示されなかった
なかなか面倒臭い
2022/11/07(月) 14:11:03.31ID:OIs0U+27a
うわめっちゃ誤訳したかもしれない
やっぱおのおのの手段で翻訳して読んで
2022/11/07(月) 14:25:31.66ID:Udd7gJ+k0
>>125
乗り乗りの時は意外と無茶が出来るもんだよ。みんなが飽きて来たらやばいかもね
2022/11/07(月) 14:47:54.38ID:aZJdx2UV0
++括り(意味なし)とコンマカンマ以外で何か区切り的に強そうなのってなんだろ
2022/11/07(月) 15:58:02.10ID:u5bJ4eBCM
>>143
AND
2022/11/07(月) 16:07:11.48ID:4Ayu4K4Q0
その区切り文字が単語かつ画像のオブジェクトを別々に説明する区切り記号として
用いられてるラベルが付いた画像が学習データに大量に存在しない限り意味ないだろう事を考えると
, や . 並みに英文上で普遍的に区切りとして使われてる記号は ' と " じゃないか?

>>144
大文字だと1111で使われてるプロンプト分割用の特殊文字なっちゃうぞ
2022/11/07(月) 17:59:54.58ID:IxS2Pl330
意外と全角スペース辺りが強かったりしてな
2022/11/07(月) 18:25:35.23ID:hSrFIJ5Y0
※イメージしやすいようトークンを単語で置き換える

(1girl、、、、、、)75単語(、、、、、green)75単語
で昔は区切って変換かけてたから、76単語以降は1~75と関係ない要素で生成してしまう事があった。しかも記載ルール的に76単語目の比重が大きくなる
今は(1girl、、、、、、、、、、、、、green)で変換かけている。語順、単語を繰り返す、単語に重みを記載するなどで表現の幅が広がった

カンマで区切るまでの1文が長いほど計算には時間がかかる

A B and C Dの記載は、A BandC Dになる。ユーザーが欲しい(AB) and (CD)にはならない。
※ここ自信ない

\n(改行)の記載はまた違った結果になる
※ここは、ごちゃごちゃ書いてたけど改行なのかスペースなのか良く読み取れなかった

みたいに書いてあるから、正しい重みの表記をするか単語を繰り返す方が正解な気がする。本当かは知らんけど
2022/11/07(月) 19:06:22.38ID:0jpDSQ0E0
大丈夫かこのスレ
2022/11/07(月) 19:10:53.04ID:aZJdx2UV0
大丈ばない
2022/11/07(月) 19:16:20.89ID:K77Y0MAW0
電気ネズミは攻めすぎ

>写真は「Stable Diffusion」からAI Acceleratorを叩いているというデモだが、どうやってAI Acceleratorにアクセスしているのかまでの情報は明かされなかった。

https://ascii.jp/elem/000/004/111/4111884/2/
2022/11/07(月) 19:23:54.18ID:FbibxUKd0
モザイク貫通してるぞ
2022/11/07(月) 19:59:21.83ID:TroPMJqp0
絵を見せることより電気ネズミ呼ばわりのがヤバいやろ
2022/11/07(月) 20:03:23.57ID:4Ayu4K4Q0
>>147
ANDはプロンプトを分割してそれぞれ別々のconditionとしてサンプラー等に渡す1111の独自機能だろ?
上で話してる様な、プロンプトの単語が混ざりにくくする様な文字は無いかなぁ?
ってのとは全く別の話でしょ
2022/11/07(月) 20:33:47.99ID:q6HvvxN10
+も,も使って理想の絵に収束させれば理屈なんてなんでもいいんや
中二病がつけたタグ連想と英語文法通りに動かないとかHyperやUltraがどっちが強いとかんなもの学習元抜きで語る話じゃないしな
馬鹿なこと言ってる間に1枚でも多く回して理想に近づく方がいいんやで
2022/11/07(月) 20:48:05.83ID:4Ayu4K4Q0
まぁ原理的に考えたらプロンプトを任意に区切る文字なんて無いと思うが、
NAIがCLIPの最終レイヤー無視したら色が混ざりにくくなったって言ってたみたいに
思わぬ方法が効果あるかも知れんから色々試してみるのは悪くないと思う
2022/11/07(月) 21:37:50.60ID:3JdyLg6c0
>>150
Radeon RX 7000シリーズで新規実装されたAIアクセラレーターだな
これでSDが動くのなら、Radeonにも希望が見えてきたか!?
157名無しさん@お腹いっぱい。 (ワッチョイ 1968-8gy9)
垢版 |
2022/11/08(火) 00:41:46.00ID:NQa1kjoI0
RTX4090が24GBで1600ドル
RX7090 XTXが24GBで1000ドル
まあ9万円差で多少性能おちるくらいらしいからコスパいいRX7090が欲しいんだが
AI画像生成に不向きなのがなぁ
2022/11/08(火) 01:00:14.66ID:fLA13UoP0
TrainingLabのゴタゴタが早速GOLDMINEに纏められてて草
1111周りは面白い事が良く起きるな。今回は本人関係ないけど…
2022/11/08(火) 02:34:27.36ID:kSIqxSlk0
AI関連で使うならNVIDIAにしておけと。仮にStableDiffusionがRadeon対応したとしても関連するソフトや新しいソフトが出るたびに困るのが目に見えてる。
160名無しさん@お腹いっぱい。 (ワッチョイ a901-fRPT)
垢版 |
2022/11/08(火) 04:50:53.08ID:uSGzQ2ur0
メモリがたりませぬ
2022/11/08(火) 13:05:09.24ID:4bsLzCAbr
OSはWindowsを使うべきだしグラボはNVIDIAを選ぶべ
2022/11/08(火) 13:36:21.34ID:wumgVh5N0
今は金ないなら306012GB
あるなら4090が正解?
2022/11/08(火) 13:40:11.65ID:Ibse/TcX0
機械学習に関してはOSはUbuntuが安全牌
WSLgでWindowsでも殆ど問題なくなったがリアルUbuntuの方がトラブルは少ない
164名無しさん@お腹いっぱい。 (ワッチョイ 6502-FYet)
垢版 |
2022/11/08(火) 14:09:39.38ID:E16y2BtY0
>>162
もう少しでRTX4070以下やRX7000シリーズが出そろうのと
3000の在庫膨大だから待ちが正解

機械学習用途ですぐ買わないといけないなら
24GBのRTX3090か16GBのRTX A4000が正解
2022/11/08(火) 14:11:43.37ID:9KfeUYvTa
4090の150Wケーブル問題ってもう大丈夫?
買っていい?
166名無しさん@お腹いっぱい。 (ワッチョイ 6502-FYet)
垢版 |
2022/11/08(火) 14:12:30.48ID:E16y2BtY0
>>165
ダメ
2022/11/08(火) 14:14:57.71ID:9KfeUYvTa
わかりました
2022/11/08(火) 15:46:24.16ID:pO2WxVC60
Sandy世代の古いPCに3060挿してAI専用機にするってできるかな?
一応PCI-Ex16スロットと物理スペースはある。OSもたぶんWin10にできる
2022/11/08(火) 15:46:53.54ID:xxdKrteO0
円安だし待ってて安くなることなんてあんのかな
2022/11/08(火) 15:51:30.67ID:+uQEM3Z+0
AI需要を見込んだnvidiaがミドルスペ高vram出してくる可能性が
2022/11/08(火) 15:56:55.15ID:b6aAJ2VA0
待ってると12GB版3060の在庫が減って8GBに切り替わって居ちゃうから今がいいタイミングだと思うよ
2022/11/08(火) 15:59:40.59ID:i2x2yi2X0
そもそもローカルで学習動かしたい人ってどれくらいいるんだろう
173名無しさん@お腹いっぱい。 (ワッチョイ a901-fRPT)
垢版 |
2022/11/08(火) 16:15:33.76ID:uSGzQ2ur0
12GBだと足りなくてひーひーしてる
2022/11/08(火) 16:18:11.99ID:9KfeUYvTa
8GBで泣いてる
2022/11/08(火) 16:18:52.29ID:wumgVh5N0
>>173
DB12GBで可能になったっ聞いたけど
2022/11/08(火) 16:24:52.05ID:kSIqxSlk0
>>165
変換ケーブルなしでつなげるように新しいコネクタに対応した電源も買うなら問題なさそうな話になってきてる。
177名無しさん@お腹いっぱい。 (ワッチョイ 6502-FYet)
垢版 |
2022/11/08(火) 16:27:02.54ID:E16y2BtY0
>>173
ほんそれ
>>168
中途半端最低ラインの12GBでローカルなんて感じで買うと絶対に後悔する
今SSD128GBのメモリ4GBマシン買うくらい後悔する
ローカルでやりたいなら24GBがライン
そして出かけている間や寝ている間もフルで回すことになる機械学習では
RTX4090のコネクタ融解発火問題はかなりリスクある
なので今の選択肢としては >>164
2022/11/08(火) 16:39:41.96ID:0HzMp2lz0
正直融解問題も毎世代あるお約束の初期不良みたいなもんだし気にせんでいいで、数万出荷して報告数20とかだし
2022/11/08(火) 16:39:50.78ID:Zd5rbbaX0
>>176
RTX 4090、変換ケーブルを使わなくても12VHPWRが融解。ATX 3.0電源のネイティブ接続でも融解したとの報告
ttps://www.nichepcgamer.com/archives/geforce-rtx-4090-s-12vhpwr-melts-even-with-atx-3-0-native-cable.html

こういう話もあるので、まだ注意が必要かと
2022/11/08(火) 16:43:07.33ID:uSGzQ2ur0
3060ならまあ安いし12GBモデル貴重になりそうな感はあるし
4090待ちの間に買っといてもいいんじゃないのかはある
自分はそう自分を騙したぞ!
金がないからな!
2022/11/08(火) 16:49:36.75ID:9KfeUYvTa
>>179
えぇ……
結構最近の話でこわい

自分ズボラでメンテとかせずグラボ酷使するタイプの人間だからもうちょい様子見るわ
2022/11/08(火) 16:50:52.34ID:ezK0zjjcr
3090Ti使ってるけど、ローカル学習の沼にハマると24GBでも全然足りない青天井だから…
183名無しさん@お腹いっぱい。 (ワッチョイ 1968-8gy9)
垢版 |
2022/11/08(火) 18:52:36.16ID:NQa1kjoI0
学習ってそんな頻繁にやる?
たまにしかやらないならColabプレミアムでやれば別に高性能グラボいらんとちゃうん
2022/11/08(火) 19:30:22.55ID:X1KWGdKx0
>>169
中間選挙の結果で日米で金利差がどうなるか分からん
為替変動を見て数カ月待っても良いと思う
今すぐほしいとか言う人は知らん
2022/11/08(火) 19:59:56.35ID:OtaFJ60Q0
>>163
元々機械学習はLinuxのほうが圧倒的に環境充実してて
Windowsでもある程度動かせるようになってきたのは最近の話だからな
2022/11/08(火) 21:53:32.50ID:3mFJFOU80
>>177
で、あんたは何を使ってるの?
2022/11/08(火) 22:11:44.40ID:JnMRcSj70
dreamboothって複数概念覚えさせるととたんにクオリティ落ちない?
画像各40枚で対象1つと対象3つの学習結果比較したら
一つの事覚えさせた方がクオリティ高かった
対象3つの場合モデル3つそれぞれ作った方がよかった
いろいろ実験した結果
step数は画像1枚につき100stepぐらいがよさげ
step増やせばいいってもんでもないのが不思議
188名無しさん@お腹いっぱい。 (ワッチョイ 12be-YZoV)
垢版 |
2022/11/08(火) 22:29:47.68ID:oR0Dl9aS0
>>187
わかる、だから人物とかなら、t2iは複数概念モデルでだしてから、1人ずつ単独モデルでi2iしてブラッシュアップさせるとかもありだと思うわ
2022/11/08(火) 22:41:27.44ID:JnMRcSj70
>>188
その方法いいね今度試してみよ
自分の場合人力img2imgしてるw
元々ずっと絵描いてて学習データ大量にあったから自キャラ学習させてヘブン状態
革命が起こったわ
2022/11/09(水) 06:41:10.50ID:sFhJUtjL0
現状AIイラストって技術屋とプロンプターと絵描きの三種のスキルがクオリティに影響するけど、
このスレ居るぐらい技術の素養もあって絵も描けたら最強だな
>>189
ちなみに「どの部分は学習(db)で、どの部分はプロンプトで、どの部分は手描きで直すと一番良い」
みたいな最適手法とかってもうあったりする?
2022/11/09(水) 07:45:38.77ID:SiIxY9Cla
技術屋実質プロンプターだけど
絵は全く別の方向の力だよなあ
うらやましい
2022/11/09(水) 08:06:26.38ID:SlcbTe8z0
「貴様! どんな呪文でこのイラストを召喚した!?」
「何って……描いただけだが?」
2022/11/09(水) 08:56:53.08ID:ca7RPDkK0
何ィ!?i2iに自分の絵を食わせてネガティブにLow Qualityだとぉ!!?
プライドは無いのか貴様!!!
2022/11/09(水) 09:07:05.67ID:Ja9RbGdE0
結局のところ注文する側に絵描きと共通するスキルが必要なところからは逃れられないんだよな
素材はあるからポスター作ってって素人にやらせてもセンスあるものができないようにさ
2022/11/09(水) 10:55:05.50ID:vMhRrDql0
イラスト描きに依頼したりするときに
イメージに乖離が生まれにくい
目的に近いものができるまで生成しまくって
それを持って打ち合わせしてこうしたいこうしたいすればつめやすい
素人の自分が打ち合わせするときに一番やっかいなのはあたりのイメージを伝えられないことだから
2022/11/09(水) 11:20:45.14ID:9y78rn2R0
技術屋としては絵で食って人と話す機会も多いけど、細部の観察力や再現性のこだわりや精度の次元が全く違うからなぁと思うことは多い
1枚絵で何を表現しているかとか、何を伝えたいかとか、人がものを描く場合配置から何からすべてのオブジェクトに理由や意味がある
そこには物語があって、描いている人間にも過程と苦悩と満足感がある。クライアントになんでここにと聞かれてもすべて答えられる程度には。特に外資は突っ込みが厳しいから明確に答えられなくともあいまいな返答すると仕事は取れないとも
いずれAIも奥行きや構図を理解して犬の目線や鳥の目線だったり人とは違う目線でも違和感がない絵が描けるようになってほしいとは言ってたね

子供が描く突拍子もない絵も子供が描くから親には意味があるわけだし
きれいだねうまいねって言われてるうちは人の領分には入ってこれないって
漫画の背景マンやトレス主体のアシスタントは仕事が楽になるだろとも言ってた

料理人同士の素材の仕入れや厳選とかこだわり味付けや仕込みの会話についていけないような
男の料理!スーパーの素材で、まずくなくて太らなければそれでいいよ!と思ってる自炊の話なんてできやしないわな
2022/11/09(水) 11:27:18.43ID:sFhJUtjL0
まぁ自炊なら自炊で使い道もあるけど、それはビジネススレ向きの話題だからな
このスレだと「技術的にどうやるか」がテーマになるか
まぁそれは開発側レベルの試行錯誤になるから使う側の技術者ができることは多くないかもしれないが……

ただ、「奥行き」「構図」「オブジェクト」「それぞれの意図」とかのデザイン観点の候補を一覧化して、
エディタに搭載することでプロンプトコーディング時に候補表示とかはできるよな?

『絵描きの視点』を基本的な範囲だけでも搭載・網羅したIDEもどきが作れれば
技術的なアプローチからプロンプターの平均水準を引き上げられるんじゃないか
2022/11/09(水) 11:31:57.74ID:sFhJUtjL0
Wikiに既存のブラウザ拡張とかNovelAI Managerは「観点」のサポートはしてないから、
最低限「イラストレーター・デザイナーが考慮する基本観点一覧」の入力ボックスとかプルダウンとか
作るだけでもエディタとしての質はかなり上がりそう
https://seesaawiki.jp/nai_ch/d/%a4%aa%a4%b9%a4%b9%a4%e1%a5%c4%a1%bc%a5%eb%a1%a6%a5%ea%a5%f3%a5%af%bd%b8
2022/11/09(水) 12:08:58.58ID:kwG6wQjJd
いつもの人かな
2022/11/09(水) 12:22:23.94ID:C0oJdh8NM
俺だよ俺
2022/11/09(水) 13:04:20.17ID:IhS059tP0
やまかず @Yamkaz (2022/11/08 10:58:23)
言葉と塗りで意図した画像を生成

NVIDIAの画像生成AI「eDiffi」と一緒に提案されていた技術のStableDiffusion実装が公開されてる
https://github.com/cloneofsimo/paint-with-words-sd
https://ohayua.cyou/twimg/FhAaKMkaAAEwyyC.jpg
https://ohayua.cyou/tweet/1589799463430008832/Yamkaz

[引用元] AK @_akhaliq (2022/11/07 08:11:58)
Unofficial Implementation of Paint-with-words, method from eDiffi that let you generate image from text-labeled segmentation map

github: https://github.com/cloneofsimo/paint-with-words-sd
https://ohayua.cyou/twimg/Fg6qdO1XgAQQOOU.png
https://ohayua.cyou/tweet/1589395194348474369/_akhaliq
2022/11/09(水) 13:26:56.76ID:tfxZqANcd
DBで服は学習させずに髪型だけ学習させることできるんだろうか?
言語化しにくい変わった髪型のキャラを再現したいけど、服は普通にNAIに任せるってことをしたい
2022/11/09(水) 13:35:16.95ID:w1rX65Os0
>>201
興味深くて動かしたらSD1.4のモデルしか無理って言われたわ
任意のモデル可でWebUI実装されたら起こしてくれ

>>202
顔だけクロップして学習するとか
204名無しさん@お腹いっぱい。 (ワッチョイ 12be-YZoV)
垢版 |
2022/11/09(水) 13:35:36.50ID:AOhS3Yra0
>>202
それは髪型だけを覚えさせるデータセットを作ればいい
512x512で〇〇hairって書かれた髪の毛部分の画像を覚えさせればいいんじゃない?
もしくはキャラを覚えさせて、i2i時にモデルを変更して、任意の服を指定すればいい
2022/11/09(水) 13:36:14.53ID:V+Ey+j250
髪だけ塗ってモデル変える?
それじゃないってことだもんなあ
2022/11/09(水) 13:57:30.38ID:4bt/ywKZ0
>>202
基本的にキャラ覚えさせたら髪型も一緒に覚える訳だし、
髪型のみを別のキャラに移転させたいのでも無ければ、
普通にキャラ自体を学習すればいいんじゃないの?
2022/11/09(水) 15:01:52.06ID:TAW2WViK0
>>201
ohayuaってまだお前生きてたのか
1スレ目でペタペタしてたやつだろ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/4406
2022/11/09(水) 15:15:25.63ID:2V+R315Z0
>>150で出てたのってここのやつか
詳細は何も分からんな
https://nod.ai/shark-rdna3-sd/
2022/11/09(水) 16:39:42.20ID:WH5yULSPd
>>206
服装は元のキャラとは別に自由に変えたいんだ
服込みで学習すると、服や構図がかなり制限されてしまうから
2022/11/09(水) 16:43:42.37ID:ruGH/uBu0
服着てるかどうかが構図にも影響してくるもんなの?
2022/11/09(水) 17:14:42.08ID:WO/g0toz0
>>209
学習後に大元のckptでマージして割ってやると
キャラを維持したままそれなりに服とか構図とかの自由度を得られるよ
程度問題ではあるけど
2022/11/09(水) 17:23:33.25ID:u5p/ThrN0
>>190
求めるものによるかなあ
趣味で使う分には自分で描いたやつが一番いい
自己満の世界なので

自分の場合ラフ描くの苦手で仕上げ工程が得意だから
アイデアいっぱい出すのにはAIめちゃ使える

あと自分で描いてて描くのムズいなって思ったもの生成しようとすると
(斜め後ろから俯瞰気味で斧振り下ろしたマッチョ体型の獣人)
AIでも生成できんくて他の人も苦戦して描くの避けてるような構図は
学習データが圧倒的に不足してて描けないみたい

仕事で使うならもうAIで出したやつ手直しするぐらいで十分だと思う
他人からみたらわからんだろし

自動車系でデザイナーしてたことあったんだけど
仕事の進め方として一人じゃ仕事さばけないから
デザイン事務所にレンダ外注して出てきたものを手直しして会議にかけるっていう方法が業界のスタンダートだったんだけど
デザイン事務所はもうこれからきついと思う
デザイン事務所に外注してもあんまりズバリのものでてくることなくて
結局自分で手直ししてるのでそれならAIで大量に生成した中から自分でチョイスしたほうがいいだろし外注費も浮く
今はまだ発注する側のデザイナーは必要かもね
こっちもいずれ時間の問題だとは思うけど
イラストレーター業界はしらんけど多分業界構造は同じだと思う
2022/11/09(水) 18:04:36.92ID:4bt/ywKZ0
>>209
その目的だと頭と顔だけ学習させてinpaintが現実的かもなぁ
身体なしで学習させた場合、身体アリの絵を一発でだすと顔が似てなかったりするし
2022/11/09(水) 20:05:07.50ID:3WtoKNO0d
>>213
なるほどなぁ…ありがとう
2022/11/09(水) 23:56:06.60ID:vR+TRnBe0
AI画像コンテストのシトラスって人票操作してるのに何故叩かれないのか

前日よりクオリティ高い絵で100票減ってるって頭おかしいだろ
明らかにランキング1位に追従してる
2022/11/10(木) 00:02:18.01ID:ewHsooqU0
知らんがな
2022/11/10(木) 00:23:09.64ID:YfXkzOc60
コンテスト最後の5分で今4位の奴の票も30票くらい増えてて草
一応国内最大規模のAIイラストコンテストって謳ってるのに不法まかり通っててええんか?
2022/11/10(木) 00:31:47.64ID:ewHsooqU0
運営に言ってこいやw
2022/11/10(木) 01:26:10.49ID:YfXkzOc60
もう言ってるから書き込んでんだよなぁ……
シトラスより𝐒𝐮𝐢 𝐒𝐇𝐎𝐑𝐘𝐔𝐉𝐈って奴のがヤバかったわ

国内でまともなAIイラストコンテストが実施されるのはいつになるのやら
2022/11/10(木) 05:35:17.93ID:FijazI2k0
AI絵自体がいかに悪い事するかを嬉々として競い合ってるような界隈なんだし
まともなコンテストなんて成立する訳がない
2022/11/10(木) 06:05:56.06ID:zxQicDEQ0
変な人が生えてきた
2022/11/10(木) 07:09:55.11ID:minQYZU10
総合スレに行け
2022/11/10(木) 07:13:39.29ID:eV+JPGnX0
ここでする話じゃあない
2022/11/10(木) 07:15:40.70ID:UCrfMXH40
1ステップにめちゃくちゃ時間かかるサンプラーのDPM adaptiveってどういう代物?
ステップ数で絵柄も変わるしこれだけ異色の能力すぎ
他のサンプラーの数十ステップを1ステップに込めてます!て感じ
2022/11/10(木) 07:43:21.39ID:q6OXyNQG0
鯖上の票操作がわかる凄腕のハッカーなんだからむしろ技術スレ向きじゃね
2022/11/10(木) 11:46:58.15ID:jDq24NBOp
票操作する技術と画像生成技術の関係性について
2022/11/10(木) 12:02:37.25ID:Eb7nidmWd
ワッチョイ着いても気にしない無敵の人なのかしら
2022/11/10(木) 13:31:27.03ID:ITXSn/1Yr
やっと3080買ったからプロンプト勢から卒業して学習に手をだそうと思うんだが、学習は細かい箇所の補完に向いてるて認識でいい?
NAIで大元つくって、手や装飾とかをinpaintで修正て形になるてことだよね
2022/11/10(木) 14:52:31.32ID:I4rva/Iud
自前でGPU買わずともコラボラトリーなりでうん十GBのスーパーグラボ借りればよくない?
2022/11/10(木) 14:56:59.38ID:CXpS2PRJa
>>224
これグラフのところがバグってるね
そのせいで余計に遅く感じる
231名無しさん@お腹いっぱい。 (ワッチョイ a901-Cw2/)
垢版 |
2022/11/10(木) 15:12:55.84ID:RI8st1+s0
『ModuleNotFoundError: No module named 'jsonmerge'』
webui-user.batを実行した後、一生このエラーに悩まされてる。

PowerShellで
pip uninstall jsonmerge
pip install jsonmerge==1.8.0(pip install jsonmergeも試した)
を実行しても上手くいかなかった。

調べたら同じ現象に悩まされてる海外ニキも居た。
誰か解決策わからん…?
2022/11/10(木) 15:29:31.82ID:gVIceitN0
>>229
googleに怒られそうなもん学習させてるんだろ
2022/11/10(木) 15:30:08.60ID:PROWOf8fa
そこでcolab出てくるのか
なんか制限きつくなってなかったあれ
2022/11/10(木) 15:34:05.47ID:HxFJQAnc0
なんだっけpipのインストール先もローカルとそうじゃないインストールがあって両方チェックして消してからやると治る事はある
235名無しさん@お腹いっぱい。 (テテンテンテン MM96-yzAO)
垢版 |
2022/11/10(木) 15:52:56.46ID:cBhSr4wjM
novelAIは顔がハンコやね少なくともパッと見でわかるわ
2022/11/10(木) 16:09:49.47ID:DfN/Vu6p0
DB環境作ろうとしてた時にvenvからpipでパッケージ更新かけようとすると
システム側のパッケージで依存関係うんぬんかんぬんで面倒なことになったので
よくわかってない頃適当にvenvの外で色々突っ込んでたパッケージ全削除してvenvの中だけで全部やるようにしたら解決した

単にターミナル開いてpip listで表示されるやつ全部uninstall(pipそのものは残しとく)
何かしら追加インストールする時はwebui等のvenv/Scripts/activate.bat(ps1)叩いてからやる
2022/11/10(木) 16:12:47.86ID:5nY8Fn8I0
>>235
分かるといえば分かるだろうけれどハンコというほど同じでもなく

https://i.imgur.com/t3acbet.png

https://i.imgur.com/uA4NRnE.png
2022/11/10(木) 16:13:28.00ID:qAGHtnGt0
うん、依存関係でおかしくなること多いっぽいからvenvの中でできることはその方がいい
239名無しさん@お腹いっぱい。 (ワッチョイ a901-Cw2/)
垢版 |
2022/11/10(木) 16:21:07.54ID:RI8st1+s0
>>236
ありがとう、試してみるわ!
2022/11/10(木) 16:37:15.78ID:CXpS2PRJa
>>231
全部消して最初からやり直したほうが簡単
2022/11/10(木) 17:14:28.51ID:GbP+dohz0
>>228
補完というか、AIが知らないキャラとか概念を覚えさせるのが学習
簡単にプロンプトで呼び出せるならすでに学習済みということ
242名無しさん@お腹いっぱい。 (ワッチョイ a901-Cw2/)
垢版 |
2022/11/10(木) 17:53:28.67ID:RI8st1+s0
>>236
この方法でいけたわ。
マジで詰んでたから助かった…ありがとな!
2022/11/10(木) 17:57:36.65ID:gC0Ge+td0
>>235
デフォで出力したりmasterpiececeで顔を出すと見慣れたAI顔になりやすいから
慣れてきたらみんな好みのを簡易学習させたり合わせてマージしたり作家や作品の名前で変えたりやってると思う
2022/11/10(木) 19:22:57.51ID:isSFp5Fs0
MJのver4の話が出てるけど、もう誰もやってないのかな?
https://gigazine.net/news/20221110-midjourney-v4/
2022/11/10(木) 19:34:41.92ID:03Y+XMnI0
古い奴を公開するつもりはないんだろうな
2022/11/10(木) 19:36:14.41ID:iR77Cg/6r
>>244
様子見
実写系が強化されたように見えるから、使い道がある人にとっては強そう
2022/11/10(木) 20:02:35.28ID:isSFp5Fs0
ああ自分でdiscord見りゃいんだ・・サブスク止めてもROMは可能だった
--v 4って入れてるの見ると確かにかなりいいように見える
2022/11/10(木) 20:08:30.09ID:GbP+dohz0
1111版WebUIにDreamBoothが実装されたのも結構な大ニュースだと思ったのに
スレでは話題にならなかったな。ワッチョイのせいか、かなり人が減った気がする
2022/11/10(木) 20:22:48.97ID:94Uyo4lZ0
>>241
なるほどね
そうだと、今プロンプトで呼べるもののクオリティを上げるには一工夫いるてことよな
とりあえず、色々試してみるわ
2022/11/10(木) 20:28:26.59ID:RVZY7FQS0
>>240
そうそう
Extensionをアンインストールしたくてフォルダを削除したら起動しなくなったので、今日も別フォルダに再インストールしたよ
modelsやoutputフォルダなどは最初から別の場所に置いてあって、シンボリックリンクを旧フォルダから新フォルダへ移動するだけですむようにしてる
モデルデータは容量が大きいから、1つのフォルダにまとめておければ節約にもなる
2022/11/10(木) 20:34:17.43ID:iR77Cg/6r
>>248
イラストAI関連スレはアンチスレまで含めて全部勢い落ちてるよ
そもそも今できることは大体やり尽くしたし、予想されてた流れでもある

趣味勢はよほどモチベ高い層だけが残って、仕事で使う勢もまだ実用は無理

だから残った層も個人やdiscordで研究続けつつ実用レベルになる次の大きな変化を待ってる
今後も何度か段階的に波があって広まっていくんじゃないかな
2022/11/10(木) 20:34:28.01ID:NAya9Xsf0
>>237
それはrealistic入れるかどうかで、それをハンコとみんな言ってるわけで…
マスピ顔以外っていえばほとんどrealistic顔じゃん
追加学習情報についてどんどん世界に置いて行かれてるわ

中華モデルのAnything-V3.0はNAIの再学習だけど
https://rentry.org/sdmodels#anything-v30-38c1ebe3-1a7df6b8-6569e224

韓国HN使ったくらいになれば別顔だとは思う
https://arca.live/b/hypernetworks/60940948

eDiffi対応になればSDベースのSingleSamplerの旧学習モデルでのガチャがばかばかしくなるわけだし
今頑張ってもしたかがないのはわかるけどな
2022/11/10(木) 20:36:56.29ID:iR77Cg/6r
韓国HNってのも国内で見た覚えがある範囲だしね
世界全部含めても今は停滞ターン
2022/11/10(木) 21:01:40.28ID:GbP+dohz0
>>251
学習に関してはまだまだ未知の領域で手探り状態だと思うけどな
開発者すらもよくわかってないから
DreamBoothのText Encoder学習できてない問題とかあったわけでしょ
255名無しさん@お腹いっぱい。 (ワッチョイ a901-Cw2/)
垢版 |
2022/11/10(木) 21:02:04.18ID:HxFJQAnc0
>>248
webUIのDBは15GBだと設定弄ってもOOM+エラー出てみんな詰んでるので使えなかった
対策待ち
クラスイメージ回り使いやすくて便利そうなんだけどなぁ
2022/11/10(木) 21:07:15.89ID:minQYZU10
>>254
勢いが出るのは毎日毎時新しい発見がある時で、じっくり手探りしてる間は自然と勢いは落ちるからな
2022/11/10(木) 21:38:16.95ID:RLxElvZA0
>>252
これ、片方はrealistic入れていないよ
2022/11/10(木) 21:56:50.42ID:RLxElvZA0
>>257
NovelAIのAdd Quality Tagのチェック外して、UCもデフォルト外してNoneにして

masterpiece,{{best quality}},{{ultra detailed}}{{disheveled hair}},detailed light,dispersion light,caustics,a girl

UC:
lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, signature, watermark, username, blurry,missing fingers,bad hands,missing arms

Seed:4214832537
Steps:50,Scale:11
2022/11/10(木) 22:00:45.73ID:GRPNBHmX0
NovelAIは顔がハンコ、ではなくNovelAIで生成されたキャラはマスピ顔が人気なので結果として同じ顔ばかり生成されてる、が正解
色んな絵柄を試してる人は多いけど結局エロばかりが目立ってるイメージ
2022/11/10(木) 22:03:43.63ID:minQYZU10
マスピに元素法典UC足すぐらいが結局到達点というか
HNも結局元ネタ絵師の劣化版だし、それならマスピ系列の方がね
2022/11/10(木) 22:14:34.29ID:eV+JPGnX0
>>259
それはあるな
自給自足できる人気
2022/11/10(木) 22:46:42.29ID:RLxElvZA0
まだ始まったばかりだし用途によって追加学習をするのがAIを使いこなすのに重要そうというのは同感だけれどもマスピ顔が多いのはNovelAIの特性と言うよりは
>>259
の言う通りじゃないかと。

midjourneyもv3でa beautiful girlとだけ指定するといかにも人種混ぜたようなユーザーがよく見る美人顔というのが生成される。
stable diffusionでは同じようにならないからmidjourneyの開発者が調整した美人顔と思われる
263名無しさん@お腹いっぱい。 (ワッチョイ 1210-BzuK)
垢版 |
2022/11/10(木) 23:12:43.82ID:wMr+52Xs0
https://twitter.com/yokohara_h/status/1590392929788780544?s=46&t=a3my6CCseK7kl1hQLDrHNQ

midjourneyの新機能
1111のAND構文に似てる機能だとは思うが、こんなクオリティ高く混ざるか?
ベクトルを合成?する系は初期からあるけどまだあんまわかってない
https://twitter.com/5chan_nel (5ch newer account)
2022/11/10(木) 23:17:28.90ID:7wo05vi9a
>>263
手修正無しでこれなら凄いな
2022/11/10(木) 23:28:57.81ID:RLxElvZA0
初音ミクとキャプテンアメリカの合成で欠けているようなのあるから修正無しだと思う
2022/11/11(金) 00:27:39.06ID:MCNF6hno0
midjourneyはSDやNAIとはまた別路線で強いなぁ
2022/11/11(金) 00:53:36.07ID:B6iwieHo0
>>263
すごこの機能ほしい
268名無しさん@お腹いっぱい。 (ワッチョイ 9e68-YZoV)
垢版 |
2022/11/11(金) 01:44:11.60ID:E6WD4AVh0
>>263
これって多分ここらへんからだよね

https://magicmix.github.io
https://i.imgur.com/rhkXmtc.png
2022/11/11(金) 02:22:46.97ID:XqjrcMX00
SDで実装出来るものなら1111取り込まれる可能性はあるな
eDiffiのpaint with wordstと共に実装してくれる事を願うしかないな
270名無しさん@お腹いっぱい。 (ワッチョイ 9eda-Cw2/)
垢版 |
2022/11/11(金) 03:19:10.91ID:eZf8wnld0
昔流行ったモーフィングとアウトプットがあんま変わらん。
これで喜ぶのはケモナーか絵心ゼロのヘタコぐらいだろ

マツダの車はこれでデザインしてたのかって思ったわ
2022/11/11(金) 06:40:55.55ID:+DgixYsca
これが単なるフレーム補間に見えちゃうならそうなんだろうな…
2022/11/11(金) 07:33:09.06ID:yIy8uRi5a
Anything3.0の絵だなーって絵がめちゃくちゃ増えたね
NAIと違ってこっちは落としたローカル勢しか使えないからこんなにモラルに欠けた連中が多かったのかとびっくりしている(A30使いながら)
2022/11/11(金) 07:34:25.12ID:yIy8uRi5a
NAIモデルは黙ってりゃ公式と区別つかなかったからな
2022/11/11(金) 08:23:52.60ID:MkNLvcuY0
DBで学習させる時って素材は透過背景でキャラだけにした方が良い?
2022/11/11(金) 08:31:03.08ID:+y4oySM/0
じゃんぱらにA6000っていうvram48GBのボード売ってた
ローカルの学習環境としては最高峰だろうな
40万円…
2022/11/11(金) 08:33:57.78ID:9XgJNZML0
キャラや画風の再現に40万払えますか? って結構な勇気が試される
2022/11/11(金) 08:37:01.27ID:MkNLvcuY0
1ヶ月分の給料
2022/11/11(金) 08:38:07.00ID:yIy8uRi5a
A100とかいう最強のあれがありましてね
2022/11/11(金) 08:39:12.83ID:yIy8uRi5a
4xA100のPCとか売ってるサイトあったけど
あれいくらするんだろ
1000万?
2022/11/11(金) 09:30:56.65ID:v0zWMk2X0
マスピ顔は6桁人気絵師の絵柄を合成したウケ絵柄の最大公約数みたいなもんだからな
人間を装う気がないのなら結局一番人気出るのでそればっか生成される
2022/11/11(金) 10:42:24.38ID:NYi2vavi0
初期のyoutubeだってニコニコだって違法動画だらけだったけど気にせず見ていたわけだし、リークだろうと改造NAIだろうと今はカオスを楽しんだもん勝ちだわな
いずれは全て整備されてしまうよ
2022/11/11(金) 10:59:55.12ID:/UpwjhgW0
そもそもdanbooruの時点で色々怪しいし
2022/11/11(金) 11:45:17.12ID:/UlE3/MD0
masterpieceとは一体どんな絵師なんだろう
2022/11/11(金) 12:15:17.55ID:MkNLvcuY0
お呪い
2022/11/11(金) 12:20:49.14ID:8m8A0/bw0
絵師統合思念体や
2022/11/11(金) 12:27:32.68ID:7NaMO5zCa
>>278
どこでうってんの
2022/11/11(金) 12:54:09.49ID:SwQXwtuja
法人用ワークステーションとかでしょ
たぶん個人は買えない
288名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:11:34.78ID:sLz/tzU3a
>>274
jpegに変換されるから関係ないよ
勝手に変換されるから透過のところが黒になったりしたかも
289名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:15:17.92ID:sLz/tzU3a
>>272
NAIはリークだったけど
Anythingは元素なんとかのチームがファインチューニングしたらしい

リークしたモデルをファインチューニングにしたらリークじゃなくなるんじゃね?
290名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:26:24.56ID:sLz/tzU3a
今の高速化されたStableDiffusionなら1000万円あれば1からモデルを作れるってさ
中国マネーを考えたら1から作ったとしてもおかしくないし
改造だとしたらNAIが元になってるか判別するのは不可能

何が言いたいかというとリークじゃなければAnythingは合法じゃね?
隠れる必要もない
291名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:30:59.22ID:sLz/tzU3a
Danbooruはよく知らんが売ってる同人誌の無断転載があったんだろ?

違法なものを学習させたモデルが合法だとするなら
違法にリークしたものを学習させたモデルは合法じゃね?

この辺の見解を著作権に詳しい人に聞きたいね

Anythingがファインチューニングされたものなら合法だと俺は思うよ
2022/11/11(金) 13:37:34.37ID:2rgJp7xe0
え、オレは何も気にせずリーク使うが???
293名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:50:38.68ID:BMRnp5Pxa
ローカルでバレずに使うんじゃなくて

名前出して堂々と使うって意味な😅
294名無しさん@お腹いっぱい。 (ワッチョイ 1968-8gy9)
垢版 |
2022/11/11(金) 13:52:51.65ID:SmXsVdFp0
別にいいだろ
版権エロ同人で荒稼ぎしてる連中も堂々としてんじゃん
あいつらが著作権とか言い出すのちゃんちゃらおかしいのよね
295名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:53:35.95ID:BMRnp5Pxa
ワッチョイ便利だな
今名前出してAnythingに言及してる人そんなにいないんだよ

ちゃんと1から説明する?
296名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 13:59:13.84ID:BMRnp5Pxa
まあ俺の見解だとファインチューニングされたAnythingは合法だからな
これから全員これを使ってくれ
2022/11/11(金) 13:59:57.30ID:jCuReXA50
anythingとリークの違いってどんな部分がある?
改良されてるの?
2022/11/11(金) 14:00:30.57ID:2l/azxCB0
エッチ方面には弱い印象
299名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 14:03:13.24ID:BMRnp5Pxa
>>297
NAIと比べて
背景に強くなった
彩度が低くなった
中国人好みになった

聞いた話だがこれくらい
300名無しさん@お腹いっぱい。 (ワッチョイ 1210-BzuK)
垢版 |
2022/11/11(金) 14:06:04.88ID:aeUm0acr0
NovelAIが本当にstable diffusionを俺らがやるようにただファインチューニングしただけなのか
ベースにしただけで建て付け?から色々変えたのかが肝では
そんなん俺らからはわからんが
301名無しさん@お腹いっぱい。 (ワッチョイ 1210-BzuK)
垢版 |
2022/11/11(金) 14:08:43.66ID:aeUm0acr0
https://topcourt-law.com/ai-iot/learned-model-copyright
でいうところのパラメータ部分は別物になってるわけだから
NovelAIに独自の著作権が認められるだけの「プログラム部分」があるかどうかでしょ
2022/11/11(金) 14:11:51.13ID:8m8A0/bw0
>>300
NAIはSD本家と繋がってる以上、内部データまで見た上でモデル作ってるはずだから色々違うんじゃない
303名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 14:14:16.49ID:BMRnp5Pxa
NAIのブログで全部言ってるぞ
VAEをあとから読み込み
hypernetwork
学習させる画像の加工方法
CLIPの2段目

全部公開されてるしAUTOMATIC1111に取り入れられた
現状何も違いはないよ
304名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 14:19:40.38ID:BMRnp5Pxa
Anythingが元素法典作ってるところがファインチューニングにしてるかどうか

これさえはっきりすれば本名出して堂々と使っても何も問題ない
2022/11/11(金) 14:22:35.46ID:RVDY3Hh00
anythingってなんだ?
どっから生成物見れる?
2022/11/11(金) 14:23:25.44ID:7EdvzU2Xa
無断転載だからダメって流れなら金出して買ったCG集なら学習させ放題になるぞ
307名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 14:26:06.00ID:BMRnp5Pxa
>>305
ここ
https://www.bilibili.com/read/cv19603218
308名無しさん@お腹いっぱい。 (アウアウウー Sacd-5g+C)
垢版 |
2022/11/11(金) 14:26:32.88ID:BMRnp5Pxa
>>306
無断転載でも学習させることは合法です
2022/11/11(金) 14:29:42.96ID:RVDY3Hh00
>>307
ありがとう見てみよっと
2022/11/11(金) 14:30:17.84ID:VbIVrGA4M
そのへんは違法DL厳罰化みたく、あとからやっぱ駄目ですになる可能性あるしなぁ
遡及はされなくても規制後に使うのはアウトでしょ
2022/11/11(金) 14:35:56.40ID:v0zWMk2X0
違法DLしたデータでもAI通せば合法ならハッキングで盗んだデータもAI通せば合法だよな?
って先月言ってた奴がいたけどそれが早くも実現する悪党たちのフットワークの軽さよ
2022/11/11(金) 14:37:39.25ID:B6iwieHo0
マネロンかよw
2022/11/11(金) 15:08:32.54ID:i4hnsemg0
現状リークNAIを使って逮捕されることはNAI
そもそもリークしたやつが逮捕されてNAIし公式も見守る姿勢を崩さNAI
法律の問題はさておき、罰がNAIなら気にしNAI
同じ理由でNHKにも金は払わNAI
2022/11/11(金) 15:17:57.41ID:4zbKrCvUa
>>289
NAIの技術を応用したやつがこれからも出るけど
どこまでリーク扱いしたらいいのかわからん
2022/11/11(金) 15:19:15.15ID:2l/azxCB0
総合スレみたいになって来たな
何か過疎ってるんで盛り上げてケロ

【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1668016418/
2022/11/11(金) 15:22:20.35ID:4zbKrCvUa
>>301
NovelAIの独自部分というのがパクリの集合体じゃないの?

パクリパクられしてここまで発展してきたわけだし
2022/11/11(金) 15:25:30.50ID:/UlE3/MD0
anyなんとかってNAIみたいに直接的なエロ生成できるんけ?
2022/11/11(金) 15:27:20.43ID:1YRQbI/g0
ちゃんと出るから励んでエロスレに貼って❤
2022/11/11(金) 15:31:29.43ID:B6iwieHo0
あくしてくれ
仕事しながらまっとる
2022/11/11(金) 15:39:09.13ID:vIGRYoi+0
anythingは背景の描き込みが緻密で、デフォでマスピ補正と人体の破綻阻止の補正がかかってる感じ
DPM++の20stepでも安定して良絵を量産してくれるから速くて快適。学習したHNも流用できて言うことなし

この辺りはエロスレよりふたばが詳しく検証してるはず
2022/11/11(金) 16:00:14.57ID:yIy8uRi5a
>>289
言われてみればどんどん素のモデル要素が薄まっていくものな
なんかもうバレなきゃセーフみたいなもんでいいんかね
2022/11/11(金) 16:01:20.90ID:B6iwieHo0
混ぜすぎたらもうわかんないしそれオリジナルじゃね?っていう
2022/11/11(金) 16:10:32.44ID:2rgJp7xe0
さらにマージで混ぜ混ぜすれば世界にひとつだけの君専用のモデルが!というのが最近のトレンドらしい
https://rentry.co/LFTBL
2022/11/11(金) 16:15:21.31ID:AuhQOsCL0
画像生成の環境整える前にグラフィックドライバーも更新しておきたいてす、誰か助言ください…

画像生成用にドライバ更新したいのですがGeForce Experienceで確認するとgame readyドライバ、studioドライバの二種類あって…

画像生成の用途だとstudioドライバを選択した方がいいですか…?
325名無しさん@お腹いっぱい。 (ワッチョイ 8101-YZoV)
垢版 |
2022/11/11(金) 16:28:10.66ID:GEcBgb+d0
>>274
GB、白抜き、普通背景をデータセットに各種入れといたほうがいいんじゃない
俺はそうしてる
2022/11/11(金) 16:34:57.46ID:2rgJp7xe0
>>324
大抵の場合はgameでええよ
2022/11/11(金) 16:39:58.47ID:XqEkO4ye0
違法性の話と著作権法の話がごっちゃになっとる
「AIへの学習目的での利用は著作権法では保護されない」というのと
「モデルリークが不正アクセス禁止法や不正競争防止法に抵触したり、損害賠償が通る可能性がある」というのは両立するぞ
2022/11/11(金) 16:44:58.61ID:KkrPcKOa0
んなもん自己責任だしどうでもいい
誰かが法を犯していようと自分に迷惑がかかるわけでもないなら気にしない
2022/11/11(金) 16:47:08.41ID:F9HHRpPa0
>>324
分かんなかったらgame
ゲームを全くやらないならstudioでもいいけど、あなたにメリットがあるかは不明

自分はblenderダヴィンチ使うからstudio使ってるけど、はっきり理由を説明できないなら基本的にgameでいいよ
世の中の95%以上の人はgame使ってるだろうしそれで問題になることは基本的にない
2022/11/11(金) 16:52:07.57ID:8m8A0/bw0
>>327
過疎気味だからほっといてたけど、技術関係ない話は総合スレかイラストレーター板かビジネススレか、とにかくよそでどうぞ
スレチだし見飽きた話題
331名無しさん@お腹いっぱい。 (ワッチョイ 8101-YZoV)
垢版 |
2022/11/11(金) 16:54:25.71ID:GEcBgb+d0
>>329
ドライバの違いで速度とか変わるの?
色の厳密さとか?
2022/11/11(金) 16:56:00.68ID:NcI++JGL0
Anyは特に工夫しなくてもNAIより高密度できれいな絵が出るかわりに、抽象表現の絵作りはNAIよりやりづらくなった感じはする
waifu1.2から1.3になったような安定化・収束傾向なので、気に入らない人もいるだろうな
2022/11/11(金) 16:59:35.03ID:/UpwjhgW0
anyでエロが出にくくなったって言ってる人もいたし性癖によっては駄目そう
2022/11/11(金) 17:00:37.27ID:F9HHRpPa0
>>331
むっちゃ最適化されてるゲームで数フレーム変わるかもしれないみたいな感じじゃないか
あんま検証してる人見たことないけど

studioは一応精度とか安定性が高いってことになってるから
絶対ソフトが落ちたら嫌なクリエイターとかyoutuberならこっちだと思う
ただ基本的に微差。ゲフォはどちらでも最高の体験ができますって言ってる
2022/11/11(金) 17:04:42.70ID:2rgJp7xe0
特定のCG関係のソフトはわかりやすくパフォーマンスの差が出るらしいけど、少なくとも絵や色のクオリティに差が出るって類のものじゃないから気にすることはないかと
2022/11/11(金) 17:09:04.03ID:lCz1Okzna
anyはただの立ち絵でもやたらとカーテシーみたいにスカートつまみたがるのは、あちらの好みなんやろか
337名無しさん@お腹いっぱい。 (ワッチョイ 8101-YZoV)
垢版 |
2022/11/11(金) 17:28:02.97ID:GEcBgb+d0
>>334
>>335
ありがと、やっぱりそんなもんか
2022/11/11(金) 18:50:54.35ID:YUrIYGg90
anythingとTAとWDとNA混ぜこぜにしたらへんなのになるかなあ
いいとこ取りでうまいことできたらおもろいんだがなあ
2022/11/11(金) 18:57:56.08ID:2rgJp7xe0
そのうち混ぜないで複数のモデルをハシゴして画像を生成する技術が出たりしてな
メモリめっちゃ食いそうだけど
2022/11/11(金) 19:04:55.41ID:1YRQbI/g0
1ステップ毎に別モデルで回すのはちょっと工夫すればすぐできそう
2022/11/11(金) 19:16:26.03ID:wv+cpN7Zd
>>340
処理が死ぬほど遅くなってもよければわりとできそうだな
もしくはVRAMをアホほど食うか
それで良い結果になるかは分からないけど
2022/11/11(金) 19:56:54.57ID:B6iwieHo0
とりあえず気に入ったまぜまぜができたからこれで遊ぼう
anything混ぜると、塗り?色?がすごい引っ張られるなあ
なんでだ?
2022/11/11(金) 19:59:38.49ID:LuSDtRIo0
都合3つのエキスパート拡散モデル使うのがediffiらしいよ。
VRAMは増えるけど、実行速度は増えない
2022/11/11(金) 20:02:43.09ID:tvHqnsDE0
Hugging Face に anything が複数箇所アップされてるのねw
2022/11/11(金) 20:19:06.52ID:RxTx+S0K0
未だにwaifu1.2から離れられないわ
2022/11/11(金) 20:32:38.52ID:2rgJp7xe0
>>345
マージモデルのおかげで卒業出来たわ
2022/11/11(金) 20:36:09.04ID:KND5xqTr0
🤗
2022/11/11(金) 20:40:27.20ID:JwLmA53a0
>>342
vae使うと良いらしいよ
2022/11/11(金) 20:45:30.45ID:yIy8uRi5a
vae使って色が変わったところでじゃない?
2022/11/11(金) 20:50:46.38ID:ZPfgRnoq0
実写系の野良モデルはあんま出てこないのかな
redditで見かけた手が完璧に描けるとかいう(描けてない)モデルくらいしか知らん
2022/11/11(金) 22:48:18.06ID:YUrIYGg90
ANYは直接的なあれが出にくくなってるのかな
とりあえずNAと合体させれば問題なさそうだけど
2022/11/11(金) 23:55:38.53ID:2rgJp7xe0
>>350
エロだけどzeipherとか有名どころがあるじゃん
正常位増し増しミックスとか体位別になってたり
2022/11/12(土) 02:47:32.61ID:J2KntveE0
anythingとgapeを8:2で混ぜたのがいい感じ
2022/11/12(土) 02:57:37.48ID:k38lFsBe0
gapeは味の素的な悪魔の調味料だよなぁ
それだけじゃ役に立たんくせに、どこに入れても隠し味になる(笑)
2022/11/12(土) 03:32:10.56ID:XI1nMjFe0
Hypernetの内部に記録されるファイル名?って後から変更できない?…
初期に001って名前で作ったら画像コメント欄に記入されるファイル名が
001-500.ptも001-1000.ptも全部001って名前で記録されてしまって
どれがどのptを使ったのか全然わからない…
2022/11/12(土) 09:48:55.16ID:GgE0t6if0
CLIP Interrogator のバージョンが上がった


https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/4572
2022/11/12(土) 10:51:05.82ID:GcLtn+pua
へーと思ってGoldmineのgapeページ見に行ったら草が生えた
なんであれが隠し味になるんだよ
2022/11/12(土) 12:11:32.24ID:BNMrlJyX0
>>357
マージモデルの話してるのに大丈夫か?
翻訳で英単語調べて反映できないとか言ってるおつむよりやばい発想だ
2022/11/12(土) 12:24:54.61ID:c/UkqlCmM
AnyでもGapeでもワード単体で再現出来る kafuu_chino がsumすると再現できなくなる…
仕組みをいまいちわかってないわ
2022/11/12(土) 12:41:12.69ID:0oGfYICMd
そのぎゃっぷりゃとか言うのはどう言うモデルなんだろ
2022/11/12(土) 12:46:49.51ID:GcLtn+pua
>>358
なんであれが隠し味になるんだよwwww
って書いた方が良かった?
2022/11/12(土) 12:48:22.83ID:GcLtn+pua
きれーな絵が出るAnything3.0とガバマンガバケツのサンプルまみれのあのページ見てウェイト0.1でもあれを混ぜていい感じになるとか想像できねえだろ
2022/11/12(土) 12:49:37.12ID:GcLtn+pua
お前らは想像できる?
https://rentry.org/gapemodel
2022/11/12(土) 12:52:57.49ID:qyt0etz30
waifuにAnythingを半分混ぜただけでもほぼ判子絵になるんだけど
2022/11/12(土) 12:53:06.98ID:txawGLBn0
>>0326 >>0329
結局クリエイティブの方を選択してみました
ゲームをやる予定はなかったので書き込みを見て安心できました
遅れてしまいましたが、ありがとうございました…!
2022/11/12(土) 12:53:10.93ID:Dz/bYss/0
ほどよく綺麗にアナルが開きそうやん
2022/11/12(土) 13:06:33.98ID:Oi9+pKJZM
そのままの絵が表示されるわけでなしポーズの元ネタになれば意味があるわな
img2imgだって落書きでも役に立つ
2022/11/12(土) 13:16:51.27ID:GcLtn+pua
1を基準に
アナルの広がり0.1のチェックポイントとgapeみたいな締まり10のチェックポイントを9:1くらいでマージしたら
[:spread anus:0.2]がアナルの広がり1くらいになるかもしれないってことでいいのか
そんな直観的なもんなの?マージって
2022/11/12(土) 13:18:22.98ID:GcLtn+pua
✕gapeみたいな締まり10
○gapeみたいな広がり10
2022/11/12(土) 13:19:31.50ID:oWKh2KtM0
あなるはしらんがなw
2022/11/12(土) 13:34:27.76ID:z5B6cjntM
特徴を足してもチノちゃんにならん…
でもanyの綺麗だけど強制中華NGみたいなのが緩和されて亜種としていい感じではある
2022/11/12(土) 15:04:12.93ID:xT6Hh9mF0
元絵の頭部だけDBで学習したキャラに差し替えたい場合
Automatic1111でi2iを使ってやるのがベストなんだろうか?
Inpaint使ってもうまく行かないし...
2022/11/12(土) 15:39:44.02ID:B77kXyhU0
>>372
頭部を正方形に切り出して512x512にリサイズ、モデル差し替えてi2iして、出来たのを元のサイズに戻して上書き。
GIMP使えばレイヤー使って余計な部分削ったりできるので上書きが楽っすよ。
2022/11/12(土) 15:41:17.16ID:qyt0etz30
DBで出力した顔で雑コラ作ってi2iで修正させればおk
375名無しさん@お腹いっぱい。 (ワッチョイ 0522-vH5O)
垢版 |
2022/11/12(土) 15:46:18.29ID:B77kXyhU0
そのあと強度弱めで全体をもう一度i2iしてやると、上書き部分が馴染むのでなお良しです。
2022/11/12(土) 15:47:22.45ID:GcLtn+pua
強めのi2iすると顔とか指先とか変わって欲しくないところも変わらない?
マスクすると境目が歪むし
377名無しさん@お腹いっぱい。 (ワッチョイ 23be-IBSA)
垢版 |
2022/11/12(土) 15:59:21.57ID:6VEDxjAt0
>>376
マスクにブラーかけるか、歪んだ後ノイズ薄めでi2iかけて歪んだ部分をごまかせばいいんじゃない
2022/11/12(土) 17:07:54.13ID:b90DFPNT0
新しいプロンプト試すときって1枚目に奇跡の一枚が来て
その後は微妙ってこと妙に多くないか?偶然なんだろうけどあまりに多すぎてな
2022/11/12(土) 18:06:14.85ID:Dz/bYss/0
automatic1111は仕様なのかバグなのか、プロンプトを変更した時、最初の数枚だけ前回のプロンプトの影響を受けてるような挙動をするのは結構言われてるな
念のため必ず10連するようにしてるわ
380名無しさん@お腹いっぱい。 (アウアウウー Saa9-ZJUc)
垢版 |
2022/11/12(土) 19:01:05.20ID:YeITB07Fa
DBで顔だけ覚えさせるときは5枚位で左右それぞれの向きにすればいい?
2022/11/12(土) 19:11:22.57ID:Dz/bYss/0
Midjourney v4の出力画像でSD 1.5をトレーニングしたモデル、その名もMidjourney V4 Diffusion!
https://huggingface.co/prompthero/midjourney-v4-diffusion

もうめちゃくちゃだよ
2022/11/12(土) 19:23:49.54ID:g1M6DK+G0
>>381
ん?んん??
383名無しさん@お腹いっぱい。 (ワッチョイ 0522-vH5O)
垢版 |
2022/11/12(土) 19:28:21.80ID:B77kXyhU0
まあ、同じseedで後でやり直して同じ結果になる以上、だったら1111にはプロンプト変更前と似た雰囲気の絵を出すseedを選別する機能があるかっていうとそんなわけないので。

それはさておき、傾向掴むのに10回くらい回す必要があるのは、それはそう。

同じプロンプトでこの二つが出てきたりするもんな……

https://i.imgur.com/8Z4AN8W.png
https://i.imgur.com/akDjizF.png
2022/11/12(土) 19:58:42.69ID:GcLtn+pua
わかる
モデル毎の比較とかサンプラーの比較とかいっぱいあるけど
その比較画像シード値変えていっぱい欲しいわ
385名無しさん@お腹いっぱい。 (ワッチョイ 2310-ZZlP)
垢版 |
2022/11/12(土) 20:01:13.70ID:D02zmtAG0
>>381
midjourneyはもはや画風を売りにしてないね
SDに(今のところ)ない新しい機能をいち早く付けて、それが強みになってる
全部リークされたりしない限りは上手いこと住み分けられるんじゃないかな
2022/11/12(土) 20:05:05.79ID:GcLtn+pua
>>381
これカッチカチなんだよな
2022/11/12(土) 20:26:11.95ID:sH0fgPSr0
>>381
随分前に話してた「AIがAI絵を学習し出したらどうなるんだろ?」がもう実現したのか
388名無しさん@お腹いっぱい。 (ワッチョイ c568-/i6p)
垢版 |
2022/11/12(土) 20:29:06.29ID:WJK0oDyz0
質問です
yamlファイルってNAIはリークされてるから手に入りますけど
それ以外のモデル、Anything-V3.0とかを使う場合はどうすればいいんでしょうか?
NAIの使っても構わないのか、そもそもいらないのか…
2022/11/12(土) 20:30:42.24ID:9g2erz8i0
なんで現行のスレにある情報も読まないの?
2022/11/12(土) 20:30:53.80ID:GcLtn+pua
なんかあれ遅くなるだけじゃねって書いてた気がする
2022/11/12(土) 20:31:07.22ID:9g2erz8i0
誤爆めんなさい
2022/11/12(土) 21:48:38.32ID:nQjLkJWX0
DBで顔じゃない部位のアップ絵ばかり学習させたら人体がノイズだらけになった…

>>378
xformarsのせいっていう説が出てるな。novelAIでやってても顕著。てか3枚目以降Prompt無視してくる
2022/11/12(土) 22:20:57.46ID:Dz/bYss/0
新モデルやらマージやらで気付くと100GBぐらい平気で使ってる
整理せんとなぁ。。。
394名無しさん@お腹いっぱい。 (ワッチョイ cb7c-erDH)
垢版 |
2022/11/12(土) 22:56:53.70ID:ALakRml90
Midjourneyとの技術差が広がりつつある気がするけど、SD巻き返せるかな。PhotoshopとGIMPみたいな関係になったら悲しい
2022/11/12(土) 22:59:51.10ID:GcLtn+pua
向いてる(技能的に)方向が違うくない?
写実的で説得力のあるイラストがお手軽にって点ではMJに軍牌が上がるけど
SDはAE並に拡張されまくっててこれはこれでどえらい事になってる
2022/11/12(土) 23:00:45.31ID:GcLtn+pua
そもそもEmadって技術の独占が許せないからオープンソースにするわ的なスタンスだった気がする
2022/11/12(土) 23:06:17.70ID:Dz/bYss/0
SDは後出しでいいからどんどんパクッてばら撒いてほしいね
398名無しさん@お腹いっぱい。 (ワッチョイ 2536-k7jF)
垢版 |
2022/11/12(土) 23:58:59.22ID:jUQRL7ZN0
AIイラスト呪文生成器(AI画像・NovelAI・Waifu Diffusion)
https://programming-school-advance.com/ai-image-generation
2022/11/13(日) 04:26:09.87ID:qKK7ObVx0
XYのチェックポイント比較、ファイル名を改行とか出来んのかな
マージckptて名前が長くなりがちだから隣のファイル名と被って何が何なのか全然判読出来ん
縦にしたら横の画像にまで文字が入ってしまうし
2022/11/13(日) 06:01:52.82ID:doB21DZX0
>>399
設定画面でフォント指定できそうなので、すごく幅が狭いフォント使えばマシになるのかな
2022/11/13(日) 08:40:15.74ID:BaA0Q38wa
容量1TB空けたから無敵すぎる
モデルマージ楽しい
2022/11/13(日) 11:42:50.68ID:JIbugP4M0
>>401
マージで遊んでるとあっという間に数100ギガいくよ
めっちゃSSDの寿命削ると思うがやめられん
2022/11/13(日) 12:01:14.18ID:zgw+ZNDA0
画像よりモデルの管理が課題になってくるよな
倉庫用に大容量外付けHDD買ったけど書き込み時間クソほどかかる
2022/11/13(日) 12:41:17.19ID:bpheFmQXM
気付いたらvaeの指定がsettingsで出来るようになってたし作者ほんと気が利くなぁ
2022/11/13(日) 12:45:05.55ID:JIbugP4M0
>>404
そしてQuicksetting list にsd_model_checkpoint,sd_vae
を追加しておくんだぞ
2022/11/13(日) 13:16:14.42ID:7zEUW/fDd
>>356
最新の1111版で最近同じ絵を出力しようとしても違う絵が出る理由が解って安心した
2022/11/13(日) 13:47:24.82ID:yevUhSJZ0
パーティション切るときにCドライブは容量最小限にして基本Dドライブにしてたら
pythonがCドライブでしか動かんから容量カツカツでマジ苦しんでる
Cドライブ以外で動かす方法ってないのものか
2022/11/13(日) 13:56:47.00ID:HtAkdQiNa
venv
2022/11/13(日) 13:58:08.98ID:VSRnMw//0
シンボリックリンク
2022/11/13(日) 13:58:11.91ID:ExvL4fU60
>>406
安心したとこ悪いが、それ違うぞ
2022/11/13(日) 13:59:27.51ID:HtAkdQiNa
A1111ならStable-Diffusionのフォルダにvenvっていうフォルダが多分あって
その中のpython使えばって言おうと思ったけどもしかしてそういう話じゃないかもしれない
2022/11/13(日) 14:01:16.65ID:HtAkdQiNa
>>410
だな
CLIP いんてろげーたー(スペル覚えてない)はCLIP的にプロンプトを解析
DeepDanbooru いんてろげーたーはDanbooruタグ的にプロンプトを解析するもので
同じ絵が出来ない理由はxformersにあるって聞いたことがある
何故かは知らない
2022/11/13(日) 14:35:33.52ID:phoDID4t0
Dの中身待避してパーティション再編後に戻せばいいだけでは
2022/11/13(日) 14:40:35.90ID:ExvL4fU60
>>412
だいぶ前に生成した絵が同じプロンプトや設定にしているのに出ないっていうのは、
setting に Sampler parameters が出来てからじゃなかったかなという記憶
xformersはなんかはしょって高速化してるらしく、毎回生成が微妙に変わる
それもあってか、学習時に有効にしていると学習結果がおかしくなるらしい
2022/11/13(日) 14:42:26.16ID:HtAkdQiNa
ひえっ……
学習に影響あるの怖
2022/11/13(日) 14:55:22.93ID:JIbugP4M0
>>407
Python全部アンインスコしてこれでやってみ
全て込みでひとつのフォルダで構築できる
https://note.com/uunin/n/n715256399038
2022/11/13(日) 15:04:34.83ID:JIbugP4M0
あとpython関係のキャッシュも全部消してgitもアンインストールして、windows内のpipも全部消せばかなりCドライブ空けられるはず
2022/11/13(日) 17:46:49.69ID:TLug8rcWd
>>404
学習モデル毎にvaeをコピーする必要が無くなったってこと?
2022/11/13(日) 17:50:44.66ID:a0+VOBLsM
>>418
モデル選択みたいにフォルダに入っているvaeを選べる様になってる
どうせならvaeとclipはsettingsでは無くてモデルの下に置いて欲しい感があるけど、画面が混んできてるから仕方ないか
2022/11/13(日) 17:54:42.47ID:TLug8rcWd
>>419
神アプデじゃん
10GB分ぐらい空くわ
421名無しさん@お腹いっぱい。 (ワッチョイ ddda-nDAF)
垢版 |
2022/11/13(日) 18:01:31.31ID:pAiZRbel0
何考えて世に出したんだろな
オナ猿しか喜んでねぇじゃん
2022/11/13(日) 18:05:16.53ID:JIbugP4M0
>>419
だから>>405をやるんだってばよ
モデルとvaeがトップ画面にくるってばよ
CLIPも持ってきたいなら
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
だってばよ
他の項目を足したい時はconfig.jsonの中身をメモ帳で開けば、各設定の名前がわかるってばよ
2022/11/13(日) 18:08:04.19ID:GnbGB/p80
>>421
何考えてそれ書き込んだんだろうな
なんて言って欲しいのかな
2022/11/13(日) 18:11:27.81ID:JIbugP4M0
>>422
あ、settingタブの中ね
2022/11/13(日) 18:11:32.12ID:s/bkhV+4M
>>422
そういう事なのか
家に帰ったらやってみるサンクス
2022/11/13(日) 18:42:05.49ID:phoDID4t0
NAI君ウハウハで大歓喜やろ
2022/11/13(日) 19:16:53.14ID:3V79Ao91d
AnythingでDBやるとどうなるだろう
今以上にプロンプト無視しだすのかな
2022/11/13(日) 19:25:53.88ID:II8vT+0j0
Anything-v3.0.ckpt 7.94gb
WindowsDefenderでトロイの木馬検出されるんだけど大丈夫なのかな?
誤検出?
2022/11/13(日) 19:36:38.98ID:Q4JKRkj+0
hugging faceで公式DLできるんならAnything v3に手を出そうかと思ったけど
誤検出だろうが検出されるなら手出しにくいな・・・
2022/11/13(日) 19:38:01.49ID:HpVNY8Mo0
ワイのは、Anything-v3.0.ckpt 7,523,104KB
ウィルス対策ソフトはNOD32だけど検出しないよ
2022/11/13(日) 19:40:35.44ID:Sn07J0mY0
virustotalにでも投げてみたら
MSは誤検出も多いし特定の勢力に都合の悪いファイルを意図的にウイルス扱いしてくることもあるから
2022/11/13(日) 19:47:28.78ID:u2+rJ5av0
リーク落とすためにトレント入れたら対策ソフト全部文句言ってきてわろた
2022/11/13(日) 19:49:48.51ID:u1dQLRS60
EmbeddingのNumber of vectors per tokenってどれくらいがいいとかありますかね
みんなHNかDBやってて情報がない
2022/11/13(日) 19:53:26.82ID:II8vT+0j0
https://huggingface.co/Linaqruf/anything-v3.0/tree/main
ここからダウロードできるファイル

virustotalみてみたけど650mbまでしかファイルアップロードできないみたい
2022/11/13(日) 20:00:25.22ID:8JsvszDW0
7.94GBなん?
うちのは7.17 GB (7,703,657,858 バイト)だわ

PS D:\stable-diffusion-webui\models\Stable-diffusion> certutil -hashfile Anything-V3.0.ckpt
SHA1 ハッシュ (対象 Anything-V3.0.ckpt):
42190820033b9aa7cfd4a27367e079e3d43a55f0
CertUtil: -hashfile コマンドは正常に完了しました。
2022/11/13(日) 20:07:36.22ID:II8vT+0j0
ごめん間違えた7.17gb (7,703,657,858 バイト)だった
ウイルス検出されない?問題ないかな?
2022/11/13(日) 20:14:18.82ID:2x3YopWp0
>>433
普通の複雑度のキャラなら10で良い。
良いというのは絶対に十分ということで、実際は8とかそこらでも足りる。

昨日今日でメイドインアビスの「レグ」「ナナチ」「リコ」で二次創作作ったけど、
「リコ」が10→Riko
「ナナチ」が10と15の2モデル→NanachiOld, Nanachi
「レグ」が10→Regu
「レグの頭だけ」が10→ReguFace
「必ず3人が揃って写った画像」を15→MIAall
「1人か2人か3人のいずれかが写った画像」を20→MIAstyle
[MIAall|MIAstyle], [Regu|ReguFace], [NanachiOld|Nanachi], Riko
合計10×4+15×2+20=90で作ったのがこれ
https://i.imgur.com/6zX9dmP.png

正直超過剰だったと思う
それぞれ数十万ステップ回したけど安定仕切ったとは言えない
実際はナナチくらい複雑でも10で十分表現できる
2022/11/13(日) 20:19:12.22ID:Sn07J0mY0
>>437
いつの間にか特定の複数人構図に入るようになったのか
凄いな
2022/11/13(日) 20:28:19.38ID:LpzbrQqX0
>>437
こういうことやりたいならembeddingしかないのかな
2022/11/13(日) 20:44:24.35ID:u1dQLRS60
>>437
なるほど
自分でやってて8でいまいちだったんで足りないのかと思ってたけど、これ以外の要素を見直す必要がありそうだ
2022/11/13(日) 20:56:48.53ID:Pfu+1A4r0
ビデオカードの性能が速度
メモリ容量が解像度に影響するという理解であってますか?
2022/11/13(日) 20:58:07.30ID:vgrTrOR9M
>>422
出来ました
特にclipの方は多様してるのでとても良い、、
2022/11/13(日) 21:03:48.69ID:JIbugP4M0
>>441
基本はそうだけどVRAMも少ない場合は速度にも影響するかな
学習やるなら最低でも12GB必要
2022/11/13(日) 21:04:47.62ID:JIbugP4M0
>>442
CLIPはわりとよく変更するよね
2022/11/13(日) 21:15:52.36ID:Pfu+1A4r0
>>443
ありがとうございます。
ちなみに学習ってなんですか?
2022/11/13(日) 21:17:29.62ID:5Ob2a7pBa
anythingv3.0はなんか色が薄いな…中国の人の好きな塗りなのか?
サムネサイズだとおおっとなるけど小物ぐちゃぐちゃなのは変わらず
絵の情報量が増えすぎてる気がしなくもない

プロンプトの勝手もまあまあ違う模様
2022/11/13(日) 21:18:12.34ID:ExvL4fU60
>>433
TIについてはここ読めばだいたい正解じゃねぇかと思う。まんま真似してあとは学習画像に合わせて微調整

https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1528#discussioncomment-3993217
2022/11/13(日) 21:21:58.55ID:2x3YopWp0
>>438
構図はある程度は制御できるし、ある程度は運任せ
今回も最初は2人のつもりだった

https://i.imgur.com/U9n2pri.png
最初は微妙でも、それっぽいキャラがそれっぽい位置に居さえすれば、
高画素化しつつ各キャラをマスクしてinpaintを繰り返すだけで質が上がっていくので大丈夫
むしろ最初は:0.9や:0.8くらいで絵を固めないでガチャしたほうが良い
そのあと場合や重みによって:1.0やそれ以上に上げていく

https://i.imgur.com/uqTpaZ6.png
今回はその過程でたまたまナナチが反対を向いた図にピンときたので
outpaintで温泉を拡張してレグも登場させることにした

https://i.imgur.com/2BrUmrG.png
どんだけ頑張っても(>_<と頭のバンドは自分で描いた)
頭だけのレグがうまくいかないので、
頭だけで学習し直して再チャレンジすることにした

https://i.imgur.com/6zX9dmP.png
最後にキャラ以外のところをマスクしてi2iしてガタツキを取って、
さらに全体で薄くi2iして完成
2022/11/13(日) 21:35:04.92ID:2x3YopWp0
>>440
うまくいかないのは学習素材のせいもあるかもしれない
本当はキャラの大事な部分が見切れていない画像を準備して、背景を白抜きにした方がいいけどそれは面倒

1:1でない1枚の画像の使い方として、
余白をつけて縁の太い縮小画像にするやり方と、重要な部分をクロップして見切れた拡大画像にするやり方があるけど、
そのどちらかではなく、両方行って1枚の画像の情報を余すとこなく使うと良い。
余白を少なくするために、512x640とかで学習を試してみるのも良いかもしれない。

そして、ある程度回して、もし画像に望ましくない特徴が含まれていたら、
その特徴を与えているであろう素材を排除して、学習を続ける
学習率の指定は、まだ全然定まってないけどこんな感じに徐々に下げていく
1.0e-2:5000, 8.0e-3:10000, 6.5e-3:15000, 5.0e-3:20000, 4.0e-3:25000, 3.0e-3:30000, 2.5e-3:35000, 2.0e-3:40000, 1.5e-3:45000, 1.25e-3:50000,
1.0e-3:55000, 8.0e-4:60000, 6.5e-4:65000, 5.0e-4:70000, 4.0e-4:75000, 3.0e-4:80000, 2.5e-4:85000, 2.0e-4:90000, 1.5e-4:95000, 1.25e-4:100000,
1.0e-4:100000, 8.0e-5:125000, 6.5e-5:150000, 5.0e-5:175000, 4.0e-5:200000, 3.0e-5:225000, 2.5e-5:250000, 2.0e-5:275000, 1.5e-5:300000, 1.25e-5:325000, 1.0e-5
2022/11/13(日) 21:38:17.61ID:2x3YopWp0
あ、あとテンプレートファイルは
キャラならsubject系よりstyle系を使ったほうが良さげな感触がする。
多分テンプレートファイルをきちんと作ればいい結果が出るだろうけどまだ試せてない
2022/11/13(日) 21:42:46.81ID:foQwLLq4a
同じプロンプトでの違い
上がNAI、下がAny
https://i.imgur.com/1QgIgMC.png
https://i.imgur.com/EI3Eo2v.png


https://i.imgur.com/ooS5oRB.jpg
https://i.imgur.com/rO8tgpt.jpg

https://i.imgur.com/KRb7jkW.jpg
https://i.imgur.com/avYdgMM.jpg

さらにイラスト寄りへ調整してるっぽい?
元素法典のとこがやってるから

その他ミク、情報量多すぎて顔を隠すとすごい散らかった絵に見える
https://i.imgur.com/S5zPKdy.jpg
2022/11/13(日) 21:51:57.62ID:0BQBMbHzM
下の眼鏡の女の子のやつ、NAIとAnythingで逆だった
2022/11/13(日) 21:51:59.80ID:2hMrWiXK0
embeddingで作ったやつを当てると生成がすごい遅くなるんだが
これなんとかなったらめっちゃいいのになあ
2022/11/13(日) 22:49:45.47ID:JIbugP4M0
>>445
好きな絵柄を追加学習させて絵に反映させたり、通常じゃ出て来ないキャラを覚えさせて絵に登場させたりとか出来るようになる
そういう学習はVRAMが大量に必要で、計算も何時間もかかる
ま、今は考えなくていいかもだけど、AI生成にハマると大抵手を出したくなるからみんなVRAM多めをオススメしてくるのさ
2022/11/13(日) 23:06:22.37ID:GfaDIjxM0
>>448
すごい
Tiでここまで再現できるならDBとか要らないな
2022/11/13(日) 23:24:28.90ID:sWHDKnfy0
学習しまくるなら兎も角試してみる程度ならcolabあたりでやれるしより速いGPUを求めるのもアリだと思うよ
2022/11/13(日) 23:58:45.42ID:6SYmT4C00
Colabでだいぶ試したけどリセットあるから、最上位有償版にするか実機買うかお財布と相談してる(下手すると電気代だけでColabサブスクと価格帯同じなんじゃ疑惑はある)
2022/11/14(月) 00:00:46.37ID:4Lp+I/Ny0
colabはdeepfakeなんかも規制されたらしいしこっちも時間の問題な気はする
2022/11/14(月) 00:03:58.50ID:hEEqBvIp0
サブスクは別に切られたところで次に乗り換えればいいだけなのもメリット
月額5000円ちょいだからほんとに電気代くらいじゃない?
460名無しさん@お腹いっぱい。 (ワッチョイ 2536-k7jF)
垢版 |
2022/11/14(月) 01:07:40.91ID:GSLHgkJY0
画像生成AI「Stable Diffusion」で「画像の続き」を次々に描画して高解像度の画像をサクッと生成できる「Hua」の使い方まとめ
https://gigazine.net/news/20221113-hua-stable-diffusion-outpainting/


https://github.com/BlinkDL/Hua
2022/11/14(月) 01:16:27.47ID:P/iUL6OC0
>>460
それね、試してみたけど説明の通りでSD1.5inpaintモデル以外は全然ダメだった
全然うまく繋げてくれないの
NAIとかでやりたかったのになぁ
2022/11/14(月) 01:16:42.71ID:Hzz2W0L70
3060機2台を24時間生成でぶん回してるけどcolabで同じことできんの
ちな電気代は2台で月5400円くらい
2022/11/14(月) 01:52:32.00ID:pHTF6umXa
クラウドGPUはもうcolab見限った方がいい
2022/11/14(月) 01:53:01.93ID:pHTF6umXa
goldmineにGPU guideあったはずだからそこでおすすめ見るといいかも
465名無しさん@お腹いっぱい。 (スップ Sd43-mqg7)
垢版 |
2022/11/14(月) 01:58:05.61ID:mNYnIp+Cd
>>461
たしかwebuiのgithubにinpaintingモデルと普通のモデルをマージできるようにするプルリクエストが立ってたはず
自分の環境だとout of memory出てマージ後のモデルでの生成は失敗したけどVRAMが多ければ大丈夫だと思う
2022/11/14(月) 10:19:25.47ID:hEEqBvIp0
>>462
ちなみにできるかどうかで言えばできる
最上位プランは機種選んでバックグラウンド実行できるので
2022/11/14(月) 10:51:07.19ID:Q/74Ln/w0
ColabでNAIのckpt使ってDBしたいんだけど、リンクをNAIのckptに変えるだけだとエラーでる
みんなどうやってNAIのDBやってるの?
2022/11/14(月) 11:04:46.35ID:ZyfHmig6a
colabは知らんけど、dbのissueを見る、エラー出ないdbに変える、のどっちかで解決するだろ
2022/11/14(月) 11:28:53.28ID:hEEqBvIp0
なんか上の方でcolabでパスが通らない話が出てた気がするからログ辿ってみては
もしかしたら前スレかもしれんが
2022/11/14(月) 12:33:15.54ID:0f2Zjxt+0
>>467
NAI持ってないけどckptは一度diffusersモデルに変換しないと動かんよ
471名無しさん@お腹いっぱい。 (ガックシ 064b-ZZlP)
垢版 |
2022/11/14(月) 13:16:38.37ID:zqWvFKV66
無料colabでbatch size2以上は無理だという先入観に囚われていたよ......SDくんもがんばってるんだね......
2022/11/14(月) 14:07:50.66ID:KyPfu/Bt0
バッチサイズ増やすと何かいい事ある?
試してみたら生成速度がほぼ変わらなかったからバッチサイズ1でやってるんだけど
2022/11/14(月) 14:10:56.61ID:pHTF6umXa
鬼強いグラボ積んでたら早くなりそう
2022/11/14(月) 14:12:34.49ID:J2iDH9HIF
無料colabでSD1.5のwebUI起動するとプロセス死ぬ…
2022/11/14(月) 14:48:41.96ID:MkXAgCUy0
generate forever知ってからはcountもsizeも1から動かさんくなったわ
2022/11/14(月) 15:25:33.78ID:ZByjyKPV0
1111でDBしようとすると
RuntimeError: CUDA error: invalid argument
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
ってエラーが出るんだが、原因判る人います?
477名無しさん@お腹いっぱい。 (アウアウウー Saa9-Svi4)
垢版 |
2022/11/14(月) 15:42:37.71ID:GzOm7fnta
わからんけどメモリ足りないんやろ
2022/11/14(月) 15:43:34.75ID:a6YypLODM
>>467
NAIのckptをdiffusersに変換→Googledriveにアップ→パス指定
479名無しさん@お腹いっぱい。 (ワッチョイ 1d7d-FFna)
垢版 |
2022/11/14(月) 15:46:18.21ID:86kInj2g0
NovelAIの運営は機能を増やしてくれるのかね
金を貰ってんだから機能追加して欲しい
2022/11/14(月) 15:48:38.57ID:xAUhnX/t0
furryが追加されたじゃないですか😡
2022/11/14(月) 15:59:46.95ID:Zfl+QVNL0
自分もcolab版Auto1111の質問いいすか
画像生成しおわっても「generate」ボタンに戻らない時があって、(skipとか押しても戻らない)いちいち再リロードしないといけないんだけど
あれは何が原因で解決策はあるのでしょうか?
2022/11/14(月) 16:05:26.59ID:ZByjyKPV0
>>477
3090使っててDreamBooth GUIはエラー出ずに完了するからメモリ不足とは考えにくいんだ
でもGUIはベースがSD1.4しか選べないから……
NAIやAnyV3をベースにしたいのよ
2022/11/14(月) 16:22:47.25ID:ySDadFZiM
これ凄く気になる早く帰りたい

https://gigazine.net/news/20221114-stable-diffusion-advanced-prompt-tuning/
2022/11/14(月) 16:26:05.24ID:8OwiiXi0a
>>483
まだ開発中で公開されてないらしいが
485名無しさん@お腹いっぱい。 (アウアウウー Saa9-PKk0)
垢版 |
2022/11/14(月) 16:40:17.60ID:xM7N9VNTa
>>482
3090ならNMKDの方のDB使ってみれば?
任意のモデル選択できるし正規化画像要らなくて精度高いよ
486名無しさん@お腹いっぱい。 (ワッチョイ 95ad-FFna)
垢版 |
2022/11/14(月) 16:44:24.95ID:3VJEl9640
>>481
ずっと前からissueに報告あがってるけど、解決してない
解決方法知りたいよな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3150

実用上は、そのタブをあきらめて、
新しいタブで同URLのwebuiを開けば、再起動はしなくても使える。
それまで使ってた呪文やパラメータ設定とかは消えちゃうんで
新しいタブにコピー&ペーストしなきゃいけない(のは面倒だよねえ)
487名無しさん@お腹いっぱい。 (アウアウウー Saa9-PKk0)
垢版 |
2022/11/14(月) 16:45:58.29ID:xM7N9VNTa
>>485
って言ったのは1111版DBはその手のエラー報告多くて対処がまだ確立されてないから
2022/11/14(月) 16:46:46.51ID:cKqFGofn0
>>483
やば!気になる気になる!!
2022/11/14(月) 16:46:55.61ID:ySDadFZiM
>>484
ゆっくり帰る… ありがとう
2022/11/14(月) 16:49:25.55ID:kO/hhj+D0
>>460
おいおい、やばくね?
これ触って、SDをローカルで初めて動かした時以来の衝撃受けたんだけど
正直インペイント機能は今まで舐めてたけど、これくらい直感的に品質良く
絵を出力してくれるなら信者に鞍替えするわ
絵ガチャ>インペイントで修正の作業効率が超向上した

唯一の不満は、ローカルで完結するように作って欲しいところくらいかな
オンライン上にあるのはUI部分だけなんだろ?知らんけど
2022/11/14(月) 16:55:00.74ID:ZByjyKPV0
>>485
NMKDは使った事無かったな……
試して見る、サンクス
2022/11/14(月) 16:55:10.25ID:ZByjyKPV0
>>485
NMKDは使った事無かったな……
試して見る、サンクス
2022/11/14(月) 16:55:28.08ID:ZByjyKPV0
二重投稿すまんそ
2022/11/14(月) 17:31:44.73ID:P/iUL6OC0
>>483
そんな都合のいい夢のような技術があるのか!
って、毎回新機能が出るたびに思ってる
2022/11/14(月) 17:42:00.12ID:FDtdlGv7M
拾ってきたNAI用プロンプト、手元の1111でほぼ再現できるときとできないときがある
どうも[]の控えめの指定がどっかに入るとズレが大きくなるようなんだが
変換の倍率が実は違うとか、prompt_parserの計算式が本家とは違うとか、なんかそれっぽい情報見たことある人おらん?
2022/11/14(月) 17:42:35.24ID:WCtdM/UD0
また新しいのが出たのかと思ったら2日前ぐらいに情報出てたDreamArtistのことか
2022/11/14(月) 17:42:55.39ID:ewdieLPR0
>>490
それSD1.5のinpaint専用モデルじゃないとうまくいかんのよ
マージしたら精度下がるだろうし
2022/11/14(月) 17:43:02.24ID:awfpi3Ng0
>>483 は、WebUI全般を改造しようとしてマナーが悪いからやめろって言われたり
専用モデル持ってこいとか24GB以外は知らんとか、拡張機能にしてオンオフできるようにしろとか
まだまだ動かん報告が多いね。オリジナルより顔固定のハンコ絵になるのは悪手だし、プルリク閉じてるし、生暖かく見守ろう
2022/11/14(月) 17:43:39.96ID:ewdieLPR0
>>495
今 更 な に を

というわけでwiki見てきなさいな
2022/11/14(月) 17:53:55.92ID:Oqf8FBopa
1.05と1.1、0.95と0.9とかだっけ
そこは数値指定でなんとかなるとして
mixingって同じことできる?
2022/11/14(月) 17:56:01.41ID:Oqf8FBopa
cat frog,
~dog
~deer
をwebUIで再現する方法を未だによく分かってない
cat frog, dog, cat frog, deerみたいに全部書くしかない?
2022/11/14(月) 17:58:59.78ID:ciz22DhJx
>>499
うーん?
NAI→WebUIプロンプト変換しとんのかってレベルの話ならしとる

変換通して強調はちゃんとそれっぽくなるんだけど
弱めるほうが入るとやっぱ大きく変わるんだよな…
もっと詳しい情報wikiにあった?結構読んだつもりなんやけどな
2022/11/14(月) 18:27:13.86ID:7FuGQyaO0
1111の変換のやつではなんかアカンのか……
2022/11/14(月) 18:30:08.14ID:P/iUL6OC0
>>502
oh それは失礼
最近1111に搭載された変換は使ったことないけど、以前数値を手打ちしてた時は特に大きな変化は感じなかったなぁ
2022/11/14(月) 18:40:02.88ID:F8/KVLHlM
>>500
下げる方は、正確には1/1.05と1/1.1やで。
2022/11/14(月) 18:49:54.84ID:TFAnSbwAd
10%と5%の壁は大きい
2022/11/14(月) 18:50:38.64ID:M4Rz/HAUd
前にどっかで報告されてた75トークンを超えた時の挙動の問題が絡んでるとか?
2022/11/14(月) 19:00:49.03ID:ciz22DhJx
うーんわからん、プロンプト変えて検証始めたらそこまで大きく変わらんくなった
小数点以下の誤差レベルの差が本当にたまたま大きく変化する閾値またいじゃうプロンプトとシードの組み合わせだった感じかこれ?すまんな
509名無しさん@お腹いっぱい。 (ワッチョイ 1d7d-FFna)
垢版 |
2022/11/14(月) 20:38:27.63ID:86kInj2g0
SD使いたいけど30万のPCが必要と言われて辞めてしまった
普通のPCで動くのが欲しいンゴ
2022/11/14(月) 20:47:48.42ID:8OwiiXi0a
>>509
30万もしなくてもGTX 1650程度のグラボを搭載していれば不自由なく動く
自分で新規データ学習させながら24時間高負荷で稼働させるような上級者レベルの使い方を想定してなければ十分なはず
511名無しさん@お腹いっぱい。 (アウアウエー Sa13-vH5O)
垢版 |
2022/11/14(月) 20:50:56.21ID:8OwiiXi0a
あるいは、最近のゲームの必要スペックは急激に上昇してきてるから
あと数年はゲームを快適に遊べるゲーミングPC兼用の投資と考えて、思い切ってRTX3000クラスを買うのもありだと思う
2022/11/14(月) 21:19:03.92ID:Gl7drczW0
5万円ぐらいのメモリ16GB以上の中古デスクトップに5万弱の3060の12GBのグラボ乗せれば十分だぞ
2022/11/14(月) 22:56:57.22ID:P/iUL6OC0
お絵描きAIメインと割り切るのだったらCPUもだいぶ型落ちでいいし
vram12GBの3060さえ安く手に入れば20万は余裕で切るとは思う
それでも学生やニートや子育てパパとかには高いおもちゃかもね
2022/11/14(月) 23:30:54.14ID:7waFkvX50
Web版一番上のサブスクで数週間遊んだがかなりハマった
3080使ってるんだが色々弄れるみたいだしスタンドアロン版に乗り換えるべきなんだろうか
Web版のほうが優れている部分ってあるの?
2022/11/14(月) 23:38:42.33ID:41lgZVM00
1660super/zen2/6コア/16Gメモリ/win10で44800円
https://www.janpara.co.jp/sale/search/detail/?SRCODE=221011362&SHPCODE=223&KEYWORDS=gtx1660&OUTCLSCODE=1&CHKOUTCOM=1
2022/11/14(月) 23:54:05.01ID:P/iUL6OC0
>>514
自分のマシンが痛まない
わりと速い
スマホでできる
最近ケモナーアプデがあった
2022/11/15(火) 00:09:19.16ID:oHUcXPkT0
>>516
なるほど
うまいこと制限かけてあげればいい感じになるかな
2022/11/15(火) 01:04:13.00ID:+hrAUuEU0
こんなまとめサイト出来たのね
各モデルの雰囲気がわかりやすくてgoodかも
https://stableres.info/
2022/11/15(火) 01:07:45.01ID:+BbgLjot0
絵柄学習てキャラ学習よりステップ増やすべきだろうてことは分かるけどどれくらい増やせばいいんだろ
キャラ学習は出てくればそこで分かるけど絵柄学習だとどこが過学習ラインなのか全然わからない
520名無しさん@お腹いっぱい。 (ワッチョイ 7501-vH5O)
垢版 |
2022/11/15(火) 01:21:54.32ID:l9hPClwU0
>>518
野獣先輩はココでもトレーニングしてるのか(驚愕
2022/11/15(火) 01:40:24.97ID:j90Nt9cr0
3000枚ほどの画像でaestheticやろうとしたら容量多すぎなのかクラッシュして半端なとこで強制的に学習終了
ところが何故かそのptファイルを特定のmodelと組み合わせると嘘だろ?って神がかった絵が出てたんだよ
でもこの前そのファイルを間違って消して二度と神絵の数々を再現できなくなっちまった
ちょっとしたことで二度と同じ絵を再現できなくるAI絵のリスクを味わった
522名無しさん@お腹いっぱい。 (ワッチョイ a5ad-FFna)
垢版 |
2022/11/15(火) 01:49:23.13ID:W5ExsNaB0
ckptをdiffersに変えたいんだけどトラブった...
diffuersファイル一式、omegaconf、Transformersも皆入れたんだけど次のエラーを吐くんだ。
ImportError: cannot import name 'DPMSolverMultistepScheduler' from 'diffusers' (C:\Users\Miya\Desktop\env\lib\site-packages\diffusers\__init__.py)

こいつ何...?有識者いたら教えてくれるととても喜ぶ。
523名無しさん@お腹いっぱい。 (ワッチョイ 2310-ZZlP)
垢版 |
2022/11/15(火) 02:16:17.78ID:gwoYjZPz0
今更だけどWD1.3ってどの辺がダメだったんだっけ?
ダンボールタグじゃない普通の記法のプロンプトがNAIとかと比べて全然効かないの?
あと美少女ばっか出るみたいな感じ?
追加学習のベースとしてなら1.2よりいいんかな
2022/11/15(火) 02:37:08.93ID:AgWY/aZG0
1.2がdanbooru記法(アンダースコア連結 + アルファベット順)で学習されてて、1.3から普通の記法のはず
1.3は1.2ほどリアルによれず、NAIほどイラストによれなかった印象(というかNAIが破壊的すぎた)
Epoch6を過ぎたあたりから過学習気味になってたと思うから、追加学習のベースにするならそれより前の方がいいかも
525名無しさん@お腹いっぱい。 (ワッチョイ 2310-ZZlP)
垢版 |
2022/11/15(火) 02:53:43.43ID:gwoYjZPz0
>>524
NAIがやばすぎただけで、イラストで使うなら問題ない感じかありがとう
個人的にNAIは使いたくNAIからね
2022/11/15(火) 02:55:51.33ID:V3l1becM0
>>523
NAIの破壊力に完全に負けてた。求められていたのはNAIだった
epoc小出しにして無駄にモデル数増えてプロンプト再現も難易度が高く不評も買った
完成版1.3に合わせたようにNovelAIリークが出回って、同じ学習元の無断投稿ダンボール使ってるならNAIでいいやって事に
タダでもダンボールのアンダースコアやアルファベット順で使い方が不評だったのもあって、あえて使う意味はマスピ顔以外がたまに出るかもって程度になってしまった
pixivで受けがいいのは版権やマスピ顔の巨乳やロリだった
日本ではepoc6くらいまでは投稿する人もプロンプトの公開がほとんどなくて
10月以降の新規でやるなら真似たいNAIのプロンプトを再現するにはNAIを使うって空気に押され
10月中旬の中華元素法典が出回って完全に止めを刺された感じ
マージベースにするにしても、実写はSD1.4か1.5とその改良のMidjorney_v4、2DはNAIかAnything_v3が人気
結果的に、このご時世の話題も情報量の少なさも合いまって、良い悪い抜きでめんどくさい感じになってる
いまは絵面学習ではなく構図学習だっていう事で1.4を頑張っているらしい
2022/11/15(火) 03:07:40.44ID:hcgTX0yr0
>>522
自分はめんどくさいから__init__.pyの該当行をコメントアウトして使ってる
2022/11/15(火) 07:52:15.52ID:s/Ke558q0
>>522
エラーの理由はわからんがあんまデスクトップに置かないほうがいいよMiyaさん
2022/11/15(火) 08:47:54.09ID:7UkXbwzd0
https://i.imgur.com/njjTaHQ.jpg
https://i.imgur.com/htyx6vl.jpg

プロンプトが悪いんだろうがWDは使いにくいな
NAI以外ではanything diffusion(下) が意外と二次元に強そう
2022/11/15(火) 09:12:47.38ID:PALwDA/Ca
プロンプトが悪いんだろ
モデルのテスト用にいくつかプロンプトのテンプレート作った方がいい
長いやつ、かわいいのに特化したやつ、背景のみ、絡みみたいな
2022/11/15(火) 09:17:28.56ID:PALwDA/Ca
というかanythingはそら2次元に強いでしょ
公言されてないけどどうせNAIベースだろうし
2022/11/15(火) 09:28:31.67ID:ozK66Wve0
nmkdにAnything-v3.0.ckpt導入したんだけど
model/vaeフォルダにAmything-v3.0.vae.pt置いても読み込まないな…
2022/11/15(火) 09:32:04.98ID:PALwDA/Ca
エミシング

一応古典的手法でmodelを置いてるStable-diffusionフォルダに同名+.vae.ptでそのモデル読み込んだ時に読んでくれる
あとこれ>>405
これやっとけば選べるようになる
2022/11/15(火) 09:33:44.58ID:PALwDA/Ca
逆にvaeフォルダに配置して使ったことがない
2022/11/15(火) 09:34:32.21ID:PALwDA/Ca
あすまんwebuiに空目したわ
2022/11/15(火) 09:34:48.20ID:ozK66Wve0
>>533
もう一度見てみるthx
2022/11/15(火) 09:42:27.09ID:eYp1WTV70
Anything-v3.0.ckptをconvert_original_stable_diffusion_to_diffusers.pyでdiffusers形式に変換しようとすると

Checkpoint Anything-v3.0.ckpt has both EMA and non-EMA weights.
In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag.

と出る。
--extract_ema追加しても同じメッセージが出るのでお手上げ。
一応変換は出来るけど7GBから5GBに容量減ってるからEMAの部分が変換出来てないんだろうな...
2022/11/15(火) 10:07:46.90ID:hcgTX0yr0
>>537
Anything-V3.0-pruned-fp16.ckptは試した?
あと自分はdiffusersで使う場合は先にvaeをマージしてから変換してるけど、あとからvaeだけ変換できたっけ
2022/11/15(火) 10:12:46.27ID:eYp1WTV70
>>538
prunedはまだ試してない。
ColabでDBするのに変換してる。vaeの事は分からない...色々手探り状態
2022/11/15(火) 11:04:09.15ID:+gudomCDr
>>525
寒いよ…動いてないのに寒いよーぉ
2022/11/15(火) 11:27:51.78ID:GM4My7qk0
>>497
主体を黒背景でガチャして、いいのができたら背景をマスクしてinpaintintinモデルに描いてもらうのはどうですか
2022/11/15(火) 11:38:28.78ID:GM4My7qk0
>>497
舞い散る何かや、その他の謎物体
光のエフェクト等も黒背景で描いて
ペイントソフトでレイヤー加算・乗算合成

小物の生成はmage.spaceも使ってマルチタスクで...
2022/11/15(火) 11:49:49.58ID:+hrAUuEU0
>>541
>>542
ものによってはそれで出来ることもあるかもだけど、人物と背景とのマッチングが悪くなってしまうからねぇ
出来れば背景と人物は一緒に出したいよね
なので二次絵なら高解像度で生成して邪魔なものを消すってほうがベターかな
ただ、SD1.5で背景だけ作るって意味ではなかなか楽しかったのでお試しの価値はあるかも
2022/11/15(火) 11:54:34.52ID:LM3J7iN9d
背景と人物は一緒に出さなくても大丈夫
というか、まず背景だけ与えてi2iしても相当上手くいく
あとはキャラごとにinpaintしたらいい
2022/11/15(火) 11:57:40.26ID:GM4My7qk0
なるほど
背景からのほうがスムーズそうですね
2022/11/15(火) 12:05:33.85ID:icmxMy3Jr
そういえばNovelAI使ってると、指定した背景によってポーズ傾向が引っ張られる事があるわ
「この背景なら、こんなポーズ多いでしょ?」っていう補正は明らかに掛かってる
2022/11/15(火) 12:08:14.14ID:LM3J7iN9d
それで正常では?
そういうところに無頓着なことを
「センスがない」っていうんじゃないの?
2022/11/15(火) 12:19:04.85ID:+hrAUuEU0
え、なんでいきなり辛辣なの
こわい
2022/11/15(火) 12:39:23.13ID:tkkAEhOO0
逆にビキニ指定すると海が出やすいそ
仲良くやれよw
2022/11/15(火) 12:45:39.65ID:shunli600
>>548
すまんな
そういうつもりじゃなかった
自由な発想という要素と、良い絵という要素は
対立するのでは?と言いたかっただけ
2022/11/15(火) 13:33:17.02ID:j90Nt9cr0
出来るポーズと出来ないポーズに極端な差があるよな
最近の絵描きに特有の流れるような動きのポーズ?みたいのが全く出せない
言葉で表現できなくてタグ付け出来ないよう要素は無理ってことか
2022/11/15(火) 13:49:46.83ID:+hrAUuEU0
>>550
さっきまで優しかったのにいきなり変わったから何事?って思っただけw

>>551
指定は多分出来ないだろうね
そこまで詳細にポーズとして学習させてないだろうし
hard action poseみたいにジャンルを指定して強調すると色んなポーズはとってくれるが
2022/11/15(火) 14:17:25.47ID:d5VHzOfXa
でにくいポーズはDBだな。ただキャラの学習よりもはるかに面倒
2022/11/15(火) 14:18:05.04ID:tx4G5+U/0
>>546
コートの前閉じようとクッソ寒い雪山指定したら効果あったのは笑ったわ
2022/11/15(火) 15:04:22.10ID:ThgNhcC0d
メイドさんやドレス指定だとやたらカーテシーになるの辛い
2022/11/15(火) 15:09:02.28ID:tkkAEhOO0
ポーズは近いの指定してimg2imgで寄せてくしかないのかね
557名無しさん@お腹いっぱい。 (ワッチョイ f556-Lv2y)
垢版 |
2022/11/15(火) 15:21:15.02ID:CV22ZGhX0
知識乞食
2022/11/15(火) 16:17:07.54ID:d5VHzOfXa
i2iだとstrength上げるとポーズ変わるし、下げると望みの服装やキャラになってくれないみたいな感じで簡単そうで面倒
2022/11/15(火) 17:16:30.41ID:Pa9LOls10
可動フィギュアでそれっぽいポーズ取った写真からi2iするのが手っ取り早いんじゃないの
2022/11/15(火) 17:55:35.73ID:w5PhYPsf0
vaeのマージとか初めて聞いた
知らないことがたくさんありすぎる
2022/11/15(火) 18:17:37.96ID:35hpmyTXa
>>546
そりゃまあ学習ソース考えれば雪山で素っ裸の絵は多くないだろう。海で毛皮のコートも
2022/11/15(火) 18:41:52.66ID:k5ge9NrGr
>>547
正常を通り越して特定のポーズで「符号化」してるレベルの補正が掛かる
それは型に填めてるだけでセンスとは言えないと思うぞ
2022/11/15(火) 18:47:31.44ID:Nb/CiERo0
>>559
適当なMMDモデルにポーズ付けさせてi2iとかやってるわ
あの辺はポーズやモーションデータも色々配布されてるから使うと便利
2022/11/15(火) 21:28:39.94ID:blhPd3+V0
https://i.imgur.com/DNl6PKV.png
導入しようとしてこんなエラーになったのだが、何が欠けてるのかどなたかご教示ください
2022/11/15(火) 21:36:13.70ID:+hrAUuEU0
>>564
Pythonインストールした時にパスを通さなかった可能性
2022/11/15(火) 21:37:41.14ID:hcgTX0yr0
>>564
pytorchのバージョンが指定と違うんじゃね
2022/11/15(火) 21:40:18.73ID:PALwDA/Ca
青い部分が見えなくてわからないですね
2022/11/15(火) 21:50:52.92ID:IUTTToj00
たぶんPython 3.11使ってるせいじゃね
2022/11/15(火) 21:55:41.36ID:jXlxGkNU0
>>564
Phython 3.11は動かない定期
古いバージョンでバスを通すにチェックを入れてインストールだ
2022/11/16(水) 00:12:45.09ID:KX0GT+Zi0
>>565-569
ありがとうございます、Python3.11が原因でした。無事環境構築できました
571名無しさん@お腹いっぱい。 (ワッチョイ 2536-k7jF)
垢版 |
2022/11/16(水) 00:15:23.83ID:W4z1fQJB0
画像生成AI「Midjourney」をアニメ風二次元イラストに特化させたモデル「niji・journey(にじジャーニー)」がクローズドベータテスターを一般募集中
https://gigazine.net/news/20221115-niji-journey/


にじジャーニー - niji・journey -(ベータ)
https://pipoya.notion.site/niji-journey-9426c1a703d44dadbc6f14f679c7540f
**クローズドβの一般募集が開始されました!**

- Midjourneyメンバーでなくとも登録可能です。
- メールアドレスを待機リストに登録すれば、順次招待されます。
※現在1日数人~10数人程度の増加で、品質を保つためゆっくり招待しているそうです。
- クローズドβ中は無料で画像生成出来ます。
- Discordを使用した画像生成サービスとなるため、別途Discordアカウントが必要です。
2022/11/16(水) 00:23:45.84ID:IKaTtibX0
忘れられてたMJ攻めて来たな・・儲けた金を最大限投入してるのかな
2022/11/16(水) 00:26:35.77ID:PRstzewt0
>>571
生成された絵を見た感じだとそんな凄味は感じないなぁ
むしろ本来のMJの良さが消えてる気がするけどこれは生成してる人達のプロンプト技術の問題かな?
SD系よりは断然聞き分けがいいらしいから使う人次第ってとこかね
2022/11/16(水) 00:37:27.95ID:CwZf3/q30
でもエッチなものは作れないんでしょう?
2022/11/16(水) 00:40:06.88ID:kHLmxCoU0
1111 WebUI のextensionを数点作ってるんですが
それ関係の発表や情報共有に適した場所があれば教えて頂けませんか?
2022/11/16(水) 00:51:47.81ID:nasw79Qi0
>>574
そういえばそうだったw
やっぱ時代はローカルだなぁ
2022/11/16(水) 03:04:48.24ID:ymfylZnN0
>>575
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions?discussions_q=label%3Auser-script+
2022/11/16(水) 04:09:41.83ID:+RztS7G30
>>532
拡張子ckptに変えるだけで使えるようになるよ
ワイは野良NAIのVAEで色んなモデルを試してる
2022/11/16(水) 04:18:17.67ID:jyWl3Yc50
読んでも変化がほとんどない場合もあるけど、スペルが…
2022/11/16(水) 06:05:26.67ID:kHLmxCoU0
>>577
確かにAUTOMATIC1111本人も質問とかここで気軽にやってねって書いてますね
5chのスレみたいな日本語で駄弁りながら的な所が良かったんですが
さすがにニッチすぎて無いですかね?ありがとうございます
2022/11/16(水) 06:10:29.99ID:UlSJumdR0
公式で共有しとかないと拡張リストに乗らない
2022/11/16(水) 10:12:53.77ID:hno32G910
うーんAnything綺麗だけど画風がかなり固定されるな、縦長の目を出す安定した呪文が組めん
2022/11/16(水) 10:18:43.11ID:F5L9mPUa0
そう、好みの絵が出たと思って呪文を追加してくと、安定の「いつもの絵」になってくる
結構謎なんだよな
2022/11/16(水) 10:34:18.76ID:qyqedtzp0
DreamBooth,DreamArtist,HN,AEは全部併用できるから
ガン積みすると有名絵師にエグいほど画風寄せられるな
何なら本人の画風で画力向上したような絵も出せるの酷過ぎる
2022/11/16(水) 10:55:01.74ID:GXNlnWuFa
AEってなんだ?
2022/11/16(水) 10:59:01.22ID:gp+j8aR6d
いつもの画風になったら画風指定強化すればいいんだろうけど強めにしすぎると崩壊するしあんばい難しい
2022/11/16(水) 11:20:06.03ID:dgajiDCl0
併用して何とかなるなら苦労はしないんだよなぁ
正直今の仕組みじゃモデルやアルゴリズム変えるくらいじゃ満足いくものは出せんわ
2022/11/16(水) 11:32:26.41ID:GXNlnWuFa
ああVAEか
2022/11/16(水) 11:45:29.57ID:5LBWraE20
>>584
文字で読むとすげーってなるけど実例のイラストで神絵師越えはないし類似ですらほぼ見かけない
pixivランキング上位三位前後とかどう生成してるのかわからん
2022/11/16(水) 11:56:02.54ID:F5L9mPUa0
上位のAI絵見ると高解像度だし人物が小さくても顔はきれいに出てるし
手もちゃんとしてる(ここは加筆か?)同じAIでも良いものを出すには結構技術とマシン性能がいるんだよな
2022/11/16(水) 11:57:14.87ID:GXNlnWuFa
256stepsとかで書き出すらしいな
まあ1枚とかならそう時間かからないけど
2022/11/16(水) 12:11:01.64ID:W4z1fQJB0
【AI時代到来】NovelAIさん、完全に絵師を倒しに来る
https://nova.5ch.net/test/read.cgi/livegalileo/1668561104/
2022/11/16(水) 12:14:21.53ID:F5L9mPUa0
ほう複数人が綺麗に出てるな
2022/11/16(水) 12:15:55.22ID:GXNlnWuFa
どうせガチャゲーだろ
さっさと複数人を指定する方法確立されろや
2022/11/16(水) 12:18:23.12ID:GXNlnWuFa
というかプロンプトによる絵の出来に関してはもうひと月ほど進化止まってないか
さっさとなんか別の効果的なアプローチで絡み特化の画像生成方法出てきて
596名無しさん@お腹いっぱい。 (ワッチョイ 23f2-5DY9)
垢版 |
2022/11/16(水) 12:48:30.88ID:obupqW7x0
1111、最終更新日が「4日前」に……
2022/11/16(水) 12:49:20.68ID:16CrbN780
DPM++ 2M Karrasなら
10で見れる絵、25stepで安定、50以上は殆ど変わらないので
256とか回しておいたほうが良いかなという
強迫観念に襲われずに済む

https://ul.h3z.jp/w8Pm2dQv.png
https://ul.h3z.jp/2rO9jLvL.png
https://ul.h3z.jp/BqpEaYTY.png
https://ul.h3z.jp/ixao0ovo.png
2022/11/16(水) 12:51:05.06ID:st03pqBNa
NAIで顔まで描かずに体の一部分だけ(胸とか脚)の絵をやたら出すんだけど対処方法ってある?
2022/11/16(水) 12:54:02.67ID:5LBWraE20
>>598
NAIじゃなくてSDなら正方形で切り取って学習してたから上下切れるとかあったけど、
もっと細かいプロンプトとか環境書かないと何とも
2022/11/16(水) 12:55:00.82ID:M61kqhYC0
>>598
顔に関する要素を入れて強調しとけば
2022/11/16(水) 12:56:20.28ID:16CrbN780
>>594
手間はかかるけど自分は確立した
2キャラで生成ガチャ
必要なら背景を別に準備して組み合わせてi2i
inpaintで1キャラずつ補正
outpaintで拡張して追加のキャラを書く
それを繰り替えす
最後に背景だけでinpaint
オマケで全体でi2i
完成
2022/11/16(水) 12:58:41.07ID:jWfEUXsS0
>>601
>必要なら背景を別に準備して組み合わせてi2i
これフォトショ?
2022/11/16(水) 13:00:34.42ID:16CrbN780
>>602
雑に切り貼りしたので良いのでソフトはなんでもいいよ
というか手抜きしたければ背景だけでinpaintしてもキャラが生えてくる
2022/11/16(水) 13:01:22.27ID:GXNlnWuFa
>>601
共有助かる
やはり一体ずつ片付けていくのがいい方法なのね
2022/11/16(水) 13:02:00.57ID:qf3IdrvQ0
確かに1体ずつは目から鱗
2022/11/16(水) 13:03:15.18ID:GXNlnWuFa
>>597
なんかあれなんだよな
DPM++系20や50辺りで足三本あるのが150にしたら治るとかたまにある
2022/11/16(水) 13:08:19.76ID:vDeV+0Ia0
プロンプト一つでしか試してなくて悪いんだけど自分はこんな感じだった
VAE適用忘れてたから色は勘弁

Euler a
https://i.imgur.com/YDv4Isa.jpeg

DDIM
https://i.imgur.com/1oYmBUY.jpeg

DPM++2M
https://i.imgur.com/7AIYD2u.jpeg

DPM++2M Karras
https://i.imgur.com/CTbuYbM.jpeg
2022/11/16(水) 13:23:47.14ID:qeIr2R1L0
>>583
呪文はつまるところ概念の引っ張り合いだから、同じ概念の呪文は積めば積むほどそっちが強くなるし、
とっちらかった概念を色々詰め込むと目指す方向が定まらずどっちつかずの絵になるよ
そして呪文によっても同じ1語なら等価でも無く、マイナーキャラの名前みたいな全く学習してないとは言わんけど弱い呪文とか、
あるいはnsfwみたいにそれ一語で方向性がスパッと決まりかねないくらいの強力なワードもある

https://github.com/castorini/daam
どのプロンプトがどういうふうに効いてるかを視覚化するツールもあるし、これもそのうち1111に実装されるかもな
2022/11/16(水) 13:25:34.91ID:GXNlnWuFa
>>608
なにこれ面白そう
2022/11/16(水) 13:30:31.33ID:CMHdPxHb0
>>608
angryが顔だけじゃなく人物全体にかかってるのがポイントだな
こういう特徴の覚え方だと他の要素を上書きするのも納得
2022/11/16(水) 13:37:50.49ID:6FpPDUUZ0
すげ
これは面白い
2022/11/16(水) 13:49:34.11ID:3bAw0FGF0
>>584
それ本人が一番使いこなせるってことやな
2022/11/16(水) 14:11:30.81ID:ZswRsxHma
顔だけ怒った絵を描きたいなら顔だけ怒った写真をたくさん撮って学習させればいいわけか
2022/11/16(水) 14:49:57.26ID:5fTGFm910
昼頃に接続できなくなってa1111のフォルダを削除してからgitで入れ直したら、webuiは表示されるけど画像を生成しようとするとランタイムエラーで止まるんだけど
対処法知ってる人いませんか?


https://i.imgur.com/qnGOU0D.png
2022/11/16(水) 14:52:46.37ID:GXNlnWuFa
ハーフのスカラーが欲しいのにフロートじゃねえかだけ読めた
なんの事だろう
2022/11/16(水) 14:53:33.03ID:x4YcPz/A0
modelも一緒に捨てたとか
2022/11/16(水) 15:14:41.37ID:ymfylZnN0
>>598
ngにcroppedこれでもかってくらい強調しては
体感ng入れすぎるとむしろ奇形増える印象

>>580
亀だけど上げて駄弁るだけならここでいいんじゃ
2022/11/16(水) 15:19:47.68ID:5fTGFm910
>>615
>>616
自己解決
起動オプションで--no-halfってするところをうっかり--no-half-vaeってしてたのが原因でした
すいません
619名無しさん@お腹いっぱい。 (アウアウウー Saa9-O1le)
垢版 |
2022/11/16(水) 15:34:03.70ID:j9QgQS0Pa
>>607
絵柄はCFGスケール低い方が好みだな
ネガティヴだけCFGスケール効かせて破綻無くす事できないのかなー
620名無しさん@お腹いっぱい。 (ワッチョイ a501-WFXv)
垢版 |
2022/11/16(水) 15:57:24.40ID:s3y+vIRl0
>>608
これいいな
呪文がどこに作用してるのか見たいわ
2022/11/16(水) 16:24:30.12ID:163irJOSr
呪文の効果可視化は、文明のステップアップ並に革新だと思う
2022/11/16(水) 16:52:10.12ID:jVG3NjJ20
>>575
どんなの作ってるの?
2022/11/16(水) 18:26:33.74ID:nyu0SYEhd
>>604,605
TIを使ってるけど、具体例は>>448で示してるから見てみて
2022/11/16(水) 18:32:39.55ID:M61kqhYC0
DB使わずにここまで再現できるん?
625マグネシウムホイール (ワッチョイ cdbd-FFna)
垢版 |
2022/11/16(水) 18:42:45.33ID:NNSVSRcB0
殺風景な画像→C:\Users\KYOKO\Desktop\ねこかず\ヒカキン_.png
2022/11/16(水) 18:46:31.67ID:ymfylZnN0
WebUI版DBで過学習防ぐ方法ないかな
全身絵45枚を1e-6で学習したらstep1000も行かずに作画崩壊する。みんな4000とかどうやってるんだ
2022/11/16(水) 18:48:22.09ID:apAbGKU80
>>624
個人的にはTIだけで十分だと思ってる。扱いやすいし。
https://i.imgur.com/7JxWcrc.png
https://i.imgur.com/wLm0w84.jpg
2022/11/16(水) 20:04:08.52ID:kHLmxCoU0
>>622
ひとつは例えば「black long hair girl」を「blhg」みたいな造語に登録出来るTIの画像抜き簡易版を作る拡張です

通常のTIより軽い学習を30秒程回せば99%くらい意味が合致する圧縮造語作れます

もう一個は対象画像と「副詞,形容詞,名詞」みたいな三つ組指定の組み合わせフレーズとの合致率を表示する拡張です

素のIntertogatorみたいに合致タグだけ出すんじゃなくて一般の辞書ファイルから「extremely large apple」みたいな組み合わせを作って類似度ランキングにします
2022/11/16(水) 20:12:47.61ID:5LBWraE20
>>628
一つ目は変数名代入できるのに近いし確実に便利そう
二つ目は実物見ないと理解が難しいがなんとなく凄そう?

一つ目がかなり欲しいなできるなら
2022/11/16(水) 20:19:55.35ID:kHLmxCoU0
>>629
二つ目は例えば「そもそも英語でこれ何ていうのかわからないモノ」を名詞一覧からランキングで出したり
「gorgeousより場面に相応しい表現があるはずだけどマイナーすぎて知らない形容詞」を見つけたり
「なんか崩れててキモい手の画像」から「collapsedとmutatedとcreepy」要素のどれが強いかを判定したり出来ますね
2022/11/16(水) 20:28:05.09ID:TNmnTYcp0
masterpiece, best quality → mbみたいに複数の呪文効果をひとまとめにするわけではない?
2022/11/16(水) 20:36:40.00ID:kHLmxCoU0
>>631
1つ目のは正にそれですがもしかして既に有りましたか?
プロンプトのテキストを弄るんではなくTIの仕様を拝借して同等な新しい概念を持つサイズ1(から75まで好きなサイズ)のトークンにできます
まだ試験段階ですけどマスピ+ベスクオくらいなら1トークンに収めても機能する可能性があります
2022/11/16(水) 20:42:35.42ID:TNmnTYcp0
>>632
最近ローカル導入したばっかの初心者なので分からないです
良く使う呪文をまとめてくれたらめっちゃ便利だと思いますこれ
2022/11/16(水) 20:49:37.05ID:5LBWraE20
>>630
上手く使いこなせれば強そうだが、danbooruタグ検索とかと重複してる部分はありそうかな
>>632
トークン節約できて一単語辺りの影響度が下がる問題も解決できるのか
シンプルかつ既存言語でも頻用されてる概念だし強い
逆にどう考えても便利すぎていつかは誰かが作りそうだから早めにコミットしてはいかが
2022/11/16(水) 20:59:14.57ID:yXGTAs3/0
もし"red eyes"を"re"にまとめることができれば、redが余所に漏れていくことも少なくなったりするんだろうか
636名無しさん@お腹いっぱい。 (ワッチョイ cdbd-FFna)
垢版 |
2022/11/16(水) 21:37:09.87ID:NNSVSRcB0
http://imepic.jp/20221116/776560
2022/11/16(水) 22:44:44.37ID:jVG3NjJ20
>>628
このスレだけで話すには勿体ないくらいの内容だと思う。
GitHubとかで公開するつもりなら使ってみたいな。
個人的には2つ目が興味深い。
2022/11/16(水) 22:51:26.96ID:Z28xzGnt0
難しいことはよく分からんが技術がある人が絡んでいくことで
更に進化をしていくんだろうね頑張ってほしい
2022/11/16(水) 23:53:10.94ID:A9z8krEV0
モデルって.vae.ptみたいなのとセットだと思ってたのですが
それが必要ないモデルもあるんですよね?
Anythingモデルだとvaeが無いと色褪せるのは知ってますが
追加武装みたいなもんすか?
2022/11/17(木) 00:17:44.68ID:eGyrLlIt0
Anything-V3.0のvaeって、naiのvaeを使うんじゃないの?
2022/11/17(木) 00:38:11.48ID:vKJqPbmT0
それ同じもんやしな
2022/11/17(木) 00:48:44.97ID:ss7Mv/0u0
そもそもckptはvaeとunetとtext encoder/decoderが一つに統合されたもの
なので別ファイルのvaeってのはckptのvaeを上書きするためのものでしょ
2022/11/17(木) 00:53:08.50ID:AjStvslFa
へー
2022/11/17(木) 01:00:27.94ID:ss7Mv/0u0
あぁtext decoderは入ってないわごめん
2022/11/17(木) 03:31:03.32ID:sLCGiQFV0
vaeは最後にもう1Step書き換えてくれる程度のもんだと思っとけばいいよ
トレントやhuggingfaceにあるAnything-V3.0のvaeはハッシュ見る限りNAIのコピー品だね
Waifu Diffusion VAE kl-f8-animeとかいろいろあるし使い分けだね
それ以外の出どころの分からないのは実績もないので自己責任で
2022/11/17(木) 03:52:06.64ID:XGWwgDird
vaeって何なのかさっぱりだったけどイメージつかめたわ助かる
2022/11/17(木) 09:16:06.88ID:4N/2xo5j0
なんか読んでるだけだが賢くなってきた気がする
648名無しさん@お腹いっぱい。 (ワッチョイ 23f2-5DY9)
垢版 |
2022/11/17(木) 09:48:38.29ID:tR5FQwHD0
1111、最終更新日が「5日前」に……
2022/11/17(木) 09:56:56.95ID:AjStvslFa
今最新版ぷるったらバグある?
2022/11/17(木) 10:17:03.91ID:VGZVKRU00
何故かlpw_stable_diffusionがDiffusers.utilsのPIL_INTERPOLATIONを読み込めないというエラーを吐いたが、当該箇所のPIL_INTERPOLATIONをPillowライブラリ側で代替したら普通に動くな
なおdynamic_modules_utils.pyの300行目にあるshutil.copyを止めないとファイル再取得によってlpw_stable_diffusionの書き換えが修正されるからそこも書き換えた
2022/11/17(木) 13:08:29.09ID:59QeFPB20
Anythingでの強調と弱化
(要素)や(要素:1.5)は効いてるけど{要素}が効いてる気がしない
[要素]も微妙なラインだな…
2022/11/17(木) 13:11:03.64ID:AjStvslFa
なんか3重で囲って始めて効果出てくるくらいだよな
一応効果はある
2022/11/17(木) 13:13:14.78ID:KDIPCy67d
>>651
どんな環境でやってるのか知らないけど、一般的には(要素)と{要素}が両方使える環境はないと思うよ
AUTOMATIC1111とかのローカル系は(要素)表記で強調、NovelAI公式Webは{要素}表記で強調ってだけだから
2022/11/17(木) 13:15:10.62ID:59QeFPB20
>>653
なるほどローカルだから{}が無意味だったのか
だとしたら[]は間違いなく効くはずか
2022/11/17(木) 13:28:12.74ID:CnKe2gEa0
[]はPrompt Editing
2022/11/17(木) 13:37:04.95ID:DPirTnw40
そんな機能があったな
使いこなせてる人いるの?
2022/11/17(木) 13:42:30.57ID:/M8B7/j5d
>>655
[要素]は弱化、[要素:要素:数字]はプロンプトエディティングだよ

>>656
光る刀を出したいときに[katana:lightsaber:0.5]みたいにすることでそれなりに出せたことはある
使いどころは難しい
2022/11/17(木) 13:44:30.99ID:w/WxURkcr
なるほど
2022/11/17(木) 13:44:47.58ID:AjStvslFa
お腹ちょっとだけ膨らませたい時とか後半のStepでだけpregnant効かせるとかしてる
[:pregnant:0.1]だか[:pregnant:0.9]だかどっちか忘れたけど
ちなみに効果を実感できているかと言われたら首を傾げる
2022/11/17(木) 13:48:14.11ID:AjStvslFa
サンプラーによるけど今のシードの絵が何Stepでほぼ最終系に近づくかをまずXYplotかなんかで確認して
それから微調整に使うって感じ
いきなり入れるものではなさそう
2022/11/17(木) 13:54:53.41ID:AjStvslFa
個人的にそれよりも謎なのは[A|B]みたいな記述するやつ
AとBを1stepごとに切り替えるらしいけど何に使うんこれ
2022/11/17(木) 13:55:34.37ID:XFMesPDu0
>>608
デモやってみたけど , カンマにめちゃくちゃ反応するしてる時あるから
微妙なツールではないかな
2022/11/17(木) 14:14:58.64ID:BFer7TTE0
そこらへんは単語単位じゃなくてトークン単位の方がいいってCommunityで提案されてるな
来月そうする予定らしい
664名無しさん@お腹いっぱい。 (ワッチョイ 23d7-EHNx)
垢版 |
2022/11/17(木) 15:48:58.33ID:PCuNygCv0
(extra [arms|legs|fingers]:1.1)とかやってネガティブ圧縮に使ってるわ
強化数値はどのくらいが妥当になるのはは知らんので適当
665名無しさん@お腹いっぱい。 (ワッチョイ cdbd-FFna)
垢版 |
2022/11/17(木) 17:00:58.10ID:XYvVVWYU0
https://imgur.com/a/LgFR1Y6
2022/11/17(木) 17:40:16.50ID:Tv/9onWg0
NVIDIAやっちまったな

RTX 4090 の所有者が 16 ピン コネクタの溶融をめぐって Nvidia に訴訟を起こす
https://www.tomshardware.com/news/rtx-4090-owner-hits-nvidia-with-lawsuit-over-melting-16-pin-connector
2022/11/17(木) 17:43:05.33ID:AjStvslFa
これまだ公式の対応と解決のアナウンス出てないの?
2022/11/17(木) 17:45:27.47ID:Tv/9onWg0
今のとこ調査中としか言ってないね
2022/11/17(木) 17:50:02.09ID:xfh9icDl0
いつもどおり偶数型番はハズレ世代てやつでは?
2022/11/17(木) 17:54:47.41ID:lJMmvcgKM
学習素材がほぼ1枚しかないようなキャラを学習させるのって現状dream artistでTIくらいしかない?
671名無しさん@お腹いっぱい。 (スププ Sd43-WM47)
垢版 |
2022/11/17(木) 18:02:28.02ID:BUstsHlCd
Novel AI関連のツイートで探してるのがあります。
割とNovel AIが出た初期のツイートで、座っている女の子の画像をベースにあくまでAIをイメージ補完や、構図の参考にするという使い方でした。
探しても出てこないんですが、どなたか出どころがわかる方がいたらリンクを貼ってくれたら幸いです。
2022/11/17(木) 18:07:28.18ID:O3DpVj6ja
>>670
自分で素材つくりゃいい
切り抜いて背景変えたり、自由変形でちょっと台形変形したり、レベル補正で見た目分からない程度に色変えたり・・・
2022/11/17(木) 18:29:07.41ID:Vt5jVkkD0
>>670
画像検索で似ているキャラ探してぶちこんで少しTI
その後、出力画像を入力画像に入れて再びTI
2022/11/17(木) 18:53:19.54ID:ZCfIrLk7a
そもそも一枚しかなかったら後ろ姿とか全然わかんないじゃん
2022/11/17(木) 18:56:28.11ID:rKx5c2tR0
モデルデータってなんで新しく学習させると過去の記憶が一部消えるん?
なんか制限あるの?どんどん追加できるようにならないと
特化すればするほど限界あるよね
2022/11/17(木) 18:59:13.20ID:vprb0jjKd
anything3.0でdreamboothやってみたけどなんかwaifuの時のが良かったな、要素は拾ってるけどあんま画風を学習してねぇ
step上げたらマシになんのかなこれ
2022/11/17(木) 19:00:00.39ID:O3DpVj6ja
>>675
ema使わずfullでyml変えればいい
2022/11/17(木) 19:02:02.51ID:/3UjM6CD0
すごいな、iPhoneでもローカルでWD1.3動かせるようになってたのか…

なんか最適化されてるらしいからPCのと生成結果は違うかもだけど
2022/11/17(木) 19:15:52.96ID:rKx5c2tR0
>>677
忘れずに覚えさせる方法はあるのに誰もやってないってこと?
なんでだろ
2022/11/17(木) 19:25:52.96ID:GB5r+TUQ0
>>672
ちょっとした変形とかで学習効率上がるんかね?やってみるかサンクス

>>673
TIで出した画像をTIに使う!そういうのもあるのか!
2022/11/17(木) 19:41:58.35ID:ss7Mv/0u0
>>675
やってる事は関数近似だから。学習すると関数の形状が変わる
2022/11/17(木) 19:47:11.54ID:O3DpVj6ja
>>679
忘れてくれないと過去の数十億枚に引っ張られて望む結果が出るまで学習するのに時間かかる
2022/11/17(木) 19:58:12.42ID:rKx5c2tR0
なるほど
それで特化モデルを沢山用意して使い分けるのがベストというところに落ち着くのか
2022/11/17(木) 21:39:33.04ID:Msiekl/80
novelIが流行りだした頃に"冒険者ギルドの受付嬢"みたいな画像がバズってたと思うんだけど元画像探しても全然見つからん...
誰かわかる人おる?
2022/11/17(木) 22:21:13.18ID:AjStvslFa
ゲーミングチンポ
2022/11/17(木) 23:14:04.26ID:kv8G42WW0
CPUの性能も速度や解像度に影響しますか?
2022/11/17(木) 23:16:36.21ID:w949cq4d0
>>686
画像生成には直接関係ない
相当古くない限りは大丈夫
2022/11/17(木) 23:19:00.71ID:kv8G42WW0
>>687
11年前のCPUですw
2022/11/17(木) 23:29:41.79ID:vKJqPbmT0
相当古い件
2022/11/17(木) 23:33:49.26ID:9nYXDzu30
PS3時代のCPUか……
2022/11/17(木) 23:55:30.64ID:JxnGP2Mc0
CPUというよりグラボと接続する規格の古さが足を引っ張るかと
最悪映らない
2022/11/18(金) 00:00:55.75ID:mnu98Tnj0
そもそも11年前のcpuを乗せるマザボに乗せるグラボとか、最高スペックでも電気効率最悪なだけでまともに動かんだろうな…‥
というかグラボのram量で詰みそう
2022/11/18(金) 00:11:08.11ID:iqTJc2tg0
10年前ならIvy BridgeでPCI Express 3.0(うちも3.0で3060刺してるわ)だけど、その前だとどうなんじゃろな……?
2022/11/18(金) 00:16:16.57ID:N2GVVDto0
PCI Express 2.0だったw
2022/11/18(金) 00:24:49.90ID:fxS2CYlp0
あきらめろんw
2022/11/18(金) 00:31:03.90ID:RL77VY0k0
>>688
というかColab Stable difussionで検索してやってみるべし
2022/11/18(金) 00:46:34.13ID:RL77VY0k0
https://dskjal.com/others/sd-fine-tune.html
DBやTI作るときの注意点が書かれてます。(未読な人向け
2022/11/18(金) 01:09:12.43ID:6eKteRTl0
PCIE2の2700KとRTX3800 12GBで一応動いてるけど、たぶんちょっと遅い。

--midmemみたいなオプションつけるとすごく遅い。
2022/11/18(金) 01:29:12.52ID:0JWvpgu/0
別に初代Coreシリーズとかでもたいして問題なくない?
接続バスの速度とかそんなにネックになってないでしょ。
メモリは16GB程度積むとして、あとはGPUだけ最新の物を搭載しろって話になる。
2022/11/18(金) 03:03:45.52ID:EstYu41id
dreamartistやってるとcpu(ryzen5600)も30%くらい使われてるから10年前のcpuだと動かなそう
2022/11/18(金) 03:45:05.26ID:19V1EuRi0
さすがにここにはSandyで十分おじさんはいなかったか...
2022/11/18(金) 03:55:00.59ID:cTcaphab0
>>699
そもそもUEFIじゃないから認識しないから無理やし…初代とか論外やで。そもそもグラボ指したらブートしないよおじちゃん
2022/11/18(金) 04:04:07.21ID:45G0oeH6a
https://s.kakaku.com/bbs/-/SortID=21490261/

そう言えばそうだったな、SandyですらUEFI対応イマイチだったから3年前の記事だが刺さるグラボ探してるっぽいな

早く死滅してくんねーかな低スペ老害ジジイ
2022/11/18(金) 04:06:07.78ID:cTcaphab0
LegacyBIOS積んでるグラボって多分1050Tiあたりが最後?
2022/11/18(金) 04:29:09.61ID:sTgcmVL10
Corei7で1080だけどう何年前に組んだかな
2022/11/18(金) 05:02:28.80ID:0vKvWAMwa
11年前って東日本大震災の頃か
物持ちいいね
2022/11/18(金) 05:25:23.96ID:YVIW+z5x0
>>697
単精度オプションが必須な16XXのグラボは学習不可か
VRAMも6GBだから何となく察してたけど辛いわ
2022/11/18(金) 06:46:57.36ID:hQxixj4H0
開発や学習は基本VRAM24GBでシステムで32GBはないと何かを妥協しないといけなくなるって言ってるし
低VRAM環境はプログラムが完走するっていうだけで学習効率も速度も精度も落ちて思い通りにならなくてもまぁ仕方ないかなと
FP16とFP32でも同じものにならない訳だし当たり前っちゃ当たり前か
2022/11/18(金) 08:05:40.33ID:9u0TfwZ7r
今で言う1660ぐらいの感覚で24GBのRAMが乗ったグラボが買えるのは何年後だろうな……
2022/11/18(金) 08:28:28.89ID:RdwjsV5h0
nvidiaがAI向けのvram特盛の廉価グラボ出してくれるって期待してる
2022/11/18(金) 08:43:56.60ID:6bzE8DbW0
RTX4080が25万位や・・・
2022/11/18(金) 08:49:17.64ID:fxS2CYlp0
4080は価格のわりにvram少ないし4090は電源ケース冷却他含めて金がかかりすぎる
他でも何度も言ってるが、相当なマニアか金持ちでもない限り今の4000番台はオススメ出来ないわ
2022/11/18(金) 09:23:23.53ID:6bzE8DbW0
NVIDIAはテスラからAIおじさんを引き抜いた頃から方向性変えて来てるのは解ってたけどここまで値段に反映させるのは予想外だった
2022/11/18(金) 09:35:12.14ID:m8Nd078r0
昨日NVIDIAのドライバが強制的にアップデートされてから動かなくなった
画像生成しようとするとあちこちで報告されてるこのエラーが出る↓
RuntimeError: CUDA error: an illegal memory access was encountered
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
2022/11/18(金) 09:38:29.74ID:TF5ePXT1a
えそんなのあったの
こわ
2022/11/18(金) 10:03:57.84ID:MBg/8f8g0
ゲームにはオーバースペックと思いながら買っちまった3090が役に立つとはなぁ
2022/11/18(金) 10:23:01.13ID:6FNt9lDna
アプデは切るのが基本だからな。有効にしとくとろくなことない
2022/11/18(金) 10:33:02.82ID:I1DEQct8M
そういやアプデの通知あったけど無視してたな
助かってたのか
2022/11/18(金) 11:24:09.49ID:e9nNLZT40
既にマイニングで前科あるけどAIでもやるんか…
2022/11/18(金) 11:24:33.84ID:41G5kcWH0
>>714
昨日ドライバ更新出てstudioドライバー更新されたけど問題無いな
ちな3090
2022/11/18(金) 12:11:13.32ID:FigW9ObO0
まあ革ジャンもマイニングと違ってAI需要は公認だからすぐに修正してくるだろ
2022/11/18(金) 12:24:39.75ID:Af3wePXtd
マシで2年後の5090はメモリ256GBくらいにしてほしい
その頃には動画よりも高度なコンテンツまで波及してるだろうし
というかせっかく40902台手に入れられたのにnvlink.sliに対応してないのマジ凹むわ
2022/11/18(金) 12:26:07.73ID:TF5ePXT1a
富豪かな?
両方誘拐してしまえ
724名無しさん@お腹いっぱい。 (スフッ Sd43-8zR2)
垢版 |
2022/11/18(金) 12:27:08.96ID:DgGzrWFGd
その5090、300万円くらい?
2022/11/18(金) 12:30:53.19ID:TF5ePXT1a
機械学習目的でそのレベルにGPUが必要ならもうクラウド借りた方がよいのではとは思う
2022/11/18(金) 12:33:40.01ID:IpGUuu0L0
思い出の中で眠っててくれ
2022/11/18(金) 12:36:05.72ID:FigW9ObO0
4090を2台行くならメモリ48GBあるrtx4000だの8000が普通に買えそうだ
SLIというかマルチGPU構想はnvidia自体やる気完全にないからしゃーない
2022/11/18(金) 12:50:26.19ID:pxrm3lfp0
400wをSLIかあ……
2022/11/18(金) 12:53:18.21ID:0JWvpgu/0
>>726
それクラウド=ストライフや
2022/11/18(金) 13:11:02.15ID:UdWHShg40
>>722
4万台とかすごい数だけど何に使うんです?
2022/11/18(金) 13:13:20.11ID:2MV6pTUi0
全体的にVRAM少なすぎるんよ
2倍積んだのを出してほしい
メモリ容量なんて過剰なくらいが丁度良いのに
732名無しさん@お腹いっぱい。 (ワッチョイ 9be9-L0L7)
垢版 |
2022/11/18(金) 13:27:33.39ID:PAKsUItk0
>>731
数ヶ月前じゃ信じられない発言だぞそれ。VRAM20GBとか何処で使うんだよって誰しもが思ってた筈

stablediffusionの演算の為にgpu指定する機能とかほしい
2022/11/18(金) 13:35:14.95ID:I0PxjKQ70
AI向けスパコンもMと作るらしいし、NVIDIAには個人向けAI向けPC市場でも頑張って需要満たして欲しいところ
https://www.itmedia.co.jp/news/spv/2211/17/news104.html
2022/11/18(金) 13:35:26.76ID:6FNt9lDna
aiやってる奴は数年前からvramいくらあっても足りなかった
2022/11/18(金) 13:39:47.80ID:TF5ePXT1a
わかる
2022/11/18(金) 14:08:55.88ID:U7i67ANi0
やってるやつは個人でもA100複数台所持して回してるよ
2022/11/18(金) 14:16:25.08ID:19V1EuRi0
(イラストレーターに金払って描いてもらった方が安い...)
2022/11/18(金) 14:21:18.85ID:TF5ePXT1a
A100ってどこで売ってんの
2022/11/18(金) 14:23:25.06ID:l0c0G3g00
個人というか個人事業者だろうな
740名無しさん@お腹いっぱい。 (ワッチョイ 9be9-L0L7)
垢版 |
2022/11/18(金) 14:28:52.33ID:PAKsUItk0
A40だかA100は一枚1万ドルって何処かで見たな。それを40台使って学習して作ったmodelがnovelAIだろ。
741名無しさん@お腹いっぱい。 (ワッチョイ 2502-CzAo)
垢版 |
2022/11/18(金) 14:29:10.09ID:K+4QG1A20
これ面白いな

StableDiffusion のTextual Inversion追加学習で敢えて変形した画像を学習させ、学習結果を「ネガティブプロンプトに」使うという試み。手が!手がちゃんと出てる!!

https://twitter.com/needle/status/1593428231901700101

https://pbs.twimg.com/media/Fhz9XxyUUAA8zrB?format=jpg&name=large

https://pbs.twimg.com/media/Fh0NG9WVIAAR8Oh?format=jpg&name=900x900
https://twitter.com/5chan_nel (5ch newer account)
2022/11/18(金) 14:35:02.21ID:6FNt9lDna
A100は価格コムにも載ってる(た)。3月の価格で80GBモデルで180万、40GBが130万ぐらい
乗ってる店に問い合わせたら取り寄せてくれると思うよ。円安だから1.5倍ぐらいは覚悟した方がいいだろうけど
2022/11/18(金) 14:54:22.81ID:nYodbenM0
それでどんだけ消費電力がえぐいんだい?って思ったら
80GBのほうでも最大で300Wらしい
新車を買ったと思えば出せない金額ではないが
ここ最近のAI関連の飛躍的な進化でそれに最適化されていくだろうし
この金額だともっと突き抜けた性能が欲しくなる
2022/11/18(金) 15:11:23.75ID:I1DEQct8M
>>741
これ自分のフォルダにコピーしたら使えるんか?
2022/11/18(金) 15:14:08.93ID:I1DEQct8M
よく見たら引リツに書いてあったわ

リンク先にある「bad_prompt.pt」をダウンロードして自環境の「\stable-diffusion-webui\embeddings」内に保存。その後、BadPromptにて「bad_prompt」を指定することで有効化されるようですね。後でやってみよう。
2022/11/18(金) 15:14:39.12ID:IpGUuu0L0
>>744
1111ならempru何とかみたいホルダー
2022/11/18(金) 15:15:29.69ID:Vyu3Jh+3a
まあ暫く庶民はRTX3060、ちょい贅沢して3080、気合い入れて3090が精々だろうて
2022/11/18(金) 15:30:33.28ID:rGxHRdB10
bad_promptをTest my prompt!使って試したが出される絵が変わる
使うならこれは最初から入れておかないといけないみたいだ
749名無しさん@お腹いっぱい。 (ワッチョイ 23d7-EHNx)
垢版 |
2022/11/18(金) 15:32:24.26ID:VPRDR3i70
マルチGPU(SLIやnvlinkでない)に対応してくれたら3060を2枚みたいなのも手軽でいいなとは思った
1111のディスカッションでマルチGPU取り掛かってる人はいたみたいだけどその後どうなったんかな
2022/11/18(金) 15:45:29.30ID:9uWdRLuJ0
TIは学習したモデル以外では上手く機能しなくなるということなら
bad_promptもどれくらい有用なのかわからないな
2022/11/18(金) 15:54:03.18ID:PCfIhG/Ea
vram20gbが標準になったらソフトは40gb要求するようになるだろうな
2022/11/18(金) 15:54:58.70ID:ydVUQBut0
初期はガンガン必要メモリ減ってたけど
革新は一旦ストップしちゃったな
2022/11/18(金) 16:25:46.95ID:0mKHCVHm0
「正規化画像」の意味すらググってもわからないのですがどなたかおしえていただけないでしょうか
2022/11/18(金) 16:31:50.75ID:xQ7Spg8T0
>>753
https://atmarkit.itmedia.co.jp/ait/articles/2110/07/news027.html
2022/11/18(金) 17:02:03.86ID:41G5kcWH0
bad_prompt使うと絵の感じがガラッと変わるな
なんか90年代アニメみたいにバタくさくなった
使ってるモデルで得手不得手あるんかねぇ?
756名無しさん@お腹いっぱい。 (ワッチョイ 2502-CzAo)
垢版 |
2022/11/18(金) 17:10:31.13ID:K+4QG1A20
破綻してるものを学習させてネガティブプロンプトで出なくするって考え自体は応用性高そう
2022/11/18(金) 17:11:28.96ID:5tXNxV5z0
>>749
釣りだとは思うがもし下位GPUでSLIが有効になるようなことがあっても、12GBx2であって24GBになるわけじゃないからな…
マイニングと違って底辺発想は潰してあるもんだ。そんなに都合よくいかない
画面を上下2分割して描画できるって程度でしかない
2022/11/18(金) 17:22:33.29ID:MagthE390
これはダメって指示出来たら便利だろうなとは思ってたが実際にそうなったか
2022/11/18(金) 17:27:43.00ID:h/JWSUs10
>>753
「正規化」ではなくて「正則化」が正しいんですよ
2022/11/18(金) 17:33:16.38ID:fxS2CYlp0
アニマルプラネッツ in アマゾン
gapeちゃん、もしかして筒状のものなら何でも挿入できるのでは
https://i.imgur.com/epRorvr.png
https://i.imgur.com/L8mEXw4.png
https://i.imgur.com/sl8eUQc.png
https://i.imgur.com/qbaee5S.png
2022/11/18(金) 17:35:03.67ID:fxS2CYlp0
すまん、スレ間違い><
2022/11/18(金) 17:42:22.95ID:6bzE8DbW0
VRAMに関しては距離の問題だよ
昔から出来ないし今はLINKな
2022/11/18(金) 18:24:53.52ID:VPRDR3i70
>>757
いや単純に計算速度的な話で
3060買い足しという選択肢が取れるようになれば3080買うよりは手軽だなと
2022/11/18(金) 18:41:33.09ID:ASW2SX/x0
手が悪くても他が理想だとその理想もbad判定の烙印押されたりしないのかな?
面白そうな技術だは
2022/11/18(金) 18:46:59.25ID:41G5kcWH0
学習のさせ方が胆だろうね
変な手のアップ画像をすれば他には影響少なさそうだけど、中々難しそう
2022/11/18(金) 18:50:45.08ID:ASW2SX/x0
プロンプトのネガとポジ入れ替えた奴で生成してみるか
2022/11/18(金) 18:51:03.27ID:I0PxjKQ70
それこそ>>608と組みあわせて使えたら一番使えそうなんだけどな
2022/11/18(金) 19:17:05.42ID:m8Nd078r0
結局手動でドライバ入れ直しの全部インストールしなおしで復活した
bad_promptは独自に追加学習したモデルでもそこそこ手に効果あったな
2022/11/18(金) 20:09:09.60ID:RdwjsV5h0
崩壊してても手は手だしあんまりネガると手自体が画面に映らないだけってことになりそう
2022/11/18(金) 21:48:02.52ID:rRabsgmA0
bad_promptの手、これめちゃくちゃ優秀だわ
NAIのときは妥協するか、構図の工夫で乗り切り
Anyになってから、ようやくinpaintガチャを試す気が沸くくらいになってきたところだったのが
bad_prompt使うとこれまでの基準で正しい指と言える絵が50%くらい出てくる
手だけでなくて、目や構図も整形されてるので、ガチャ後にざっくり厳選しても、10%も残るわ。素晴らしい。
https://i.imgur.com/X5uxEIX.png

ただし欠点もあって、重みが強いとざらついてくること(上の絵で言う植物)
そしてスラットした指が出る代わりにケモ手が出なくなった
そして明らかにケモ手が出るシードやプロンプトで使うと強制的に手が出ない構図にされる

https://i.imgur.com/6ibrzwy.png
これが「, bad_prompt」をつけるだけでこうなるのは残念すぎると思う
https://i.imgur.com/1Fxjdmk.png
2022/11/18(金) 22:12:12.20ID:2gHwcEX50
>>770
これはひどいww
2022/11/18(金) 22:29:37.48ID:18YkbeN/r
表現の幅が広がってる感は凄い理解できる例で草
2022/11/18(金) 22:59:26.12ID:sZyNNQD30
bad_promptとかよく思いつくもんだな
2022/11/19(土) 00:58:07.58ID:M2A4uB/da
ポジ反転からのネガ作成よりは正攻法に感じるな
2022/11/19(土) 05:36:41.37ID:e/g5n3150
背景が粒になるのはどういう理屈なんだ
2022/11/19(土) 07:23:30.03ID:a8LEZ5yz0
背景植物って葉っぱを高精度で出力するのanyが得意でnaiは雑にプロンプト作るとぼやけるよな
bad_promptに何学習させたのかが気になるけど高精度葉っぱ背景の方を否定して強制的にぼやけさせてる?
2022/11/19(土) 07:42:50.23ID:sDqskg8La
https://i.imgur.com/X5uxEIX.png
耳の形がおかしい
合わせ目のない服にボタンw、飾りボタンって昭和か?
2022/11/19(土) 07:44:23.70ID:DgiBN7rg0
そりゃ、ドラえもんみたいな絵出したらそうなるだろ
2022/11/19(土) 07:59:38.95ID:lGip4gFP0
今までなかったのに最近めっちゃ黒塗り画像が出力されるのなんでやろ
同一プロンプトでも20枚作れば10枚くらい黒塗り
真っ黒かと思ったら数十ピクセルくらいの人間ぽい小さい画像があったり
euler aだと発生しないからDPM++特有の問題だろうか
2022/11/19(土) 08:30:30.66ID:GYI4BGNe0
>>770
既にやってたらスマンがHugging Face のとこに
(bad_prompt:0.8) くらいに薄めて使ってなって書いてあるんで試してみては?
781名無しさん@お腹いっぱい。 (ササクッテロラ Spdf-eybm)
垢版 |
2022/11/19(土) 09:12:17.50ID:9kH0Eg7Wp
>>779
Anythingとか特定のモデル使うと真っ黒画像が混ざってくるからモデルの問題だと思う
NAIだとちゃんと出力されるし
2022/11/19(土) 10:21:36.15ID:lGip4gFP0
>>781
俺も最初はエロ画像拒否的なモデルの問題かGPUメモリが足りないのが理由かと思ったけど、
DPM++では頻繁に発生するのにeuler aでは一切発生しないから、モデル起因説にはウ~ンなんだよなぁ…
調べたらmacではDPM++で真っ黒画像が出る問題があるっぽい
自分はwinなんで関係ないかもしれんけど
2022/11/19(土) 10:41:09.52ID:DT2o8CXl0
--no-half-vae で解決すると思う
2022/11/19(土) 11:00:39.27ID:AznjMOQV0
真っ黒になるのはメモリ不足でしょ
出力サイズ下げたら出なくなるよ
2022/11/19(土) 11:25:52.17ID:M2A4uB/da
3060でバッチサイズ1、512x512でメモリ十分ある状態でもちょくちょく黒いのは出るな
2022/11/19(土) 11:32:38.25ID:9x2GbPBu0
もうすぐグラボが死ぬんじゃない?
2022/11/19(土) 11:37:23.32ID:UhONoJMR0
3060だけどそんな現象起きないな
特有の症状かもしれんね
2022/11/19(土) 11:39:01.98ID:jQfbthPo0
たまに真っ黒になるのは--no-half-vaeやで
24あってもなるのでメモリあんま関係ない
2022/11/19(土) 11:45:51.21ID:P0AglgEo0
>>783が言ってるじゃん
ていうか調べたら出てくることなのに「~のせいかもしれん」とか「っぽい」とか独自の結論出そうとするやつなんなんて思うわ
2022/11/19(土) 12:08:37.11ID:tC6xcf3bd
まあ--no-half-vaeにしたら出力可能サイズが1周り2周り下がるから
あえて付けずに苦しむという選択肢もある
2022/11/19(土) 12:25:37.30ID:8TsDY9ze0
うちもAnythingv3とそのブレンドモデルの場合だけ、真っ黒画像が時々出る
途中STEPの画像を表示する設定にしてると、あるSTEPで真っ黒になると残りのSTEPは全部真っ黒になる

メモリ不足ならエラーで止まるから、メモリ不足ではなさそう
計算値のどこかが一定の値を超えたせいで、以降の値が全部振り切った値になる系だと思われ

計算がおかしくなるCNNの箇所を特定すれば、モデルを直せる可能性はありそう
2022/11/19(土) 12:29:06.49ID:UhZEbiHi0
>>789
世界一詳しいお前が全部の解決策と結論かけば解決じゃね?
2022/11/19(土) 12:30:13.81ID:iw4Lnxkj0
vram足りてるのに時々生成で真っ黒画像が出るのはvaeのせい
外せば出なくなる
もしくは--no-half-vaeオプションを付ける
今んとこ仕様
以上
2022/11/19(土) 12:32:50.86ID:iw4Lnxkj0
>>792
くだらん嫌みを言う前にレスよく読め
オレより先に>>783>>788が解決方法書いてる
2022/11/19(土) 12:47:39.29ID:n+A2DRBqa
自分は全くその問題に出くわしちゃいないが
どうして真っ黒になるのか
どうしてほとんど真っ黒の中微妙に人っぽいのが描かれるのか
さっと目を通した感じわからなかった
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/130
https://www.kobayashi-foods.co.jp/washoku-no-umami/itban-niban#1-2

なんでそんなことが起きるんだ?
2022/11/19(土) 12:48:51.68ID:n+A2DRBqa
すまん片方違うのだった
このふたつ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/130
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/28
2022/11/19(土) 12:54:21.45ID:nxkBm0OW0
ついでにAnythingv3でSD upscaleやるとブロックのいくつかが黄色になるってのもあるw
場所がランダムに変わるんだ。これもvaeのせいなんかな……

https://i.imgur.com/qi6SQ1K.jpg
2022/11/19(土) 13:01:43.78ID:8TsDY9ze0
>>797
めっちゃわかりやすいな。その大きさだとVAEの一番絞ったところで明らかにオーバーフローが起きてて、その領域は全部死んでるパターンだ

プロンプトでカッコを画像が崩壊するギリギリまで付けまくってたりもしてそう
やっぱり計算値が吹っ飛んでるんだよ。明らかにメモリ量は関係ないね
2022/11/19(土) 13:02:18.33ID:n+A2DRBqa
へー
これはこれで面白いな
2022/11/19(土) 14:08:01.12ID:hQaTuHeer
>>791,798
なるほどオーバーフローなのか、面白い

VAE軽く調べてみたけど変分オートエンコーダによる半教師あり学習=「half-vae」で、それをしないのが「--no-half-vae」オプションかな

応急処置としては色んなとこに書いてあるけど原因特定はパッと見まだっぽい
https://wikiwiki.jp/sd_toshiaki/%E4%B8%8D%E5%85%B7%E5%90%88%E3%81%AA%E3%81%A9

vae関連内部処理のどっかでバグって値が弾けてるのかね
AI経験ないからCNNの触り方とかわからんが
2022/11/19(土) 14:43:55.73ID:i/4EYunk0
そこのhalfは16bit精度で計算のhalfじゃね?
2022/11/19(土) 14:51:41.38ID:n+A2DRBqa
誰かそういうふうに誤解してる人居たの?
2022/11/19(土) 15:03:53.78ID:XYVvluwq0
黒画像はfp16問題だから…fp16モデルや高速化&省メモリオプション付けてる環境で起きる
特に顕著なのがvae使用時。ただそれだけ。回避策も散々出てるしぐぐらない&過去ログ読まない人が来てるのかな
804名無しさん@お腹いっぱい。 (ワッチョイ 5f88-eybm)
垢版 |
2022/11/19(土) 15:04:11.89ID:woc8rhpB0
あとanything v3だと紫ぽい色の点がでてきたりもするね
2022/11/19(土) 15:14:15.87ID:X3ziVNbd0
>>804
これ、まじうざい
2022/11/19(土) 15:22:40.23ID:8TsDY9ze0
fp16だと半分の桁数で計算してるわけだから、桁数が足りなくなって数字が飛びやすいよね
https://i.imgur.com/N4IkHzI.jpg

そもそもモデルのパラメータ値が異常に大きかったり、呪文で無理してたり、TIなどで作ったモデルのEmbedding値が異常だと、
fp32だって桁の限界があるわけだから、真っ黒になることはある

なので「こうすれば何をやっても絶対に黒くならない」なんて言い切ることはできないだろう
そういう対策を入れない限りはね
2022/11/19(土) 15:37:36.80ID:8TsDY9ze0
パラメータの値が大きくなりすぎないように、普通は正則化項というのを損失関数に入れるものなんだけどね
Anythingv3は学習時にそういうテクを使ってないと考えるのが妥当かもしれない
https://qiita.com/Frog67/items/8c845757337a672062b3

ただ、正則化を入れると平均的なものしか出なくなるから、出力画像がつまらなくなる可能性がある
なので、少々黒潰れが出るリスクはあるけど、正則化項を入れずに攻めるモデル作りをした、って考えるとAnythingっぽくていいね
2022/11/19(土) 16:17:56.08ID:MHILyVtCa
使える色の名前の一覧とかある?
こう言う違いを表現したい
https://i.imgur.com/Dx2a7zD.jpg
2022/11/19(土) 16:20:11.79ID:P0AglgEo0
>>808
https://seesaawiki.jp/nai_ch/d/%bf%a7%b0%ec%cd%f7
そこまで完璧には無理だろうけど
2022/11/19(土) 16:43:27.54ID:AO/hPf310
L1/L2正則化なんてパラメータ調整がエグイから誰も使ってないぞ
2022/11/19(土) 16:50:34.31ID:MHILyVtCa
>>809
ありがとう
でも色の名前ってそのまま形容詞として使えるんだろうか?
日本語でも色名と形容詞(青と青い、黄色と黄色い)は違うからなあ
2022/11/19(土) 17:07:48.11ID:n+A2DRBqa
色ishじゃだめなんる
2022/11/19(土) 17:10:05.62ID:AO/hPf310
>>811
NAIとかならDanbooruのtagを雑に突っ込んでるんで多少文法が雑でも大丈夫
逆にその影響で文脈理解しないで画像全体が特定の単語に引っ張られるケースが多いが...

pink hairとかやると画像全体がピンクっぽくなったり、aqua eyesとかやると目がこのすばのアクアに寄る(マスピ顔回避)
2022/11/19(土) 17:15:49.66ID:AO/hPf310
あとは単語のtokenizeもあるんで緩い気がする
blue hair -> <blue> <hair>
blueish hair -> <blue> <ish> <hair>
みたいな感じで分割されて逐次処理で文脈ベクトル(embedding)が作られるので、多少の違いはあるが似た感じの結果になる

それよりもこのtoken上限75とか、Automaticの上限回避テクを考慮してpromptいじったほうが個人的には良い
2022/11/19(土) 17:40:48.07ID:kGsyyGof0
fp32使うメリットってxformer使っても黒画像でにくいってことだったのか?初耳やわ
2022/11/19(土) 18:06:28.34ID:e/g5n3150
anyってなんか属性でキャラが決まってるらしくて
ツインテールって入れると自動的に年齢が下がって顔もハンコ顔になる
2022/11/19(土) 18:14:34.69ID:n+A2DRBqa
へー
2022/11/19(土) 18:15:33.63ID:nxkBm0OW0
>>804
紫の点ってこんなん?
https://i.imgur.com/864lhTY.png
819名無しさん@お腹いっぱい。 (ササクッテロラ Spdf-eybm)
垢版 |
2022/11/19(土) 18:28:32.94ID:oWq1JuQRp
>>818
これは紫のエフェクトが描写されてるだけじゃね
今画像上げれんのだがなんつーかタバコの焦げ跡みたいなのが出ることがある
2022/11/19(土) 18:36:06.86ID:nxkBm0OW0
>>819
タバコの焦げ跡……こんなんか?
https://i.imgur.com/7XqrSwZ.png

↑これはAnythingじゃないんだけど、Highres.fixの設定で「もう無理」てなったときに出てくる。
>>818のも同じ種類
2022/11/19(土) 20:06:10.30ID:zAumrnY10
i2i使ってるときに正常出力に混じって真っ黒画像でて困ってたけど同じ現象なんかな
2022/11/19(土) 20:10:13.44ID:DgiBN7rg0
https://huggingface.co/eimiss/EimisAnimeDiffusion_1.0v
またアニメ系の新作出たらしい
この画風は何のゲーム食わせたんだ?
2022/11/19(土) 20:15:23.77ID:mdEp9K6n0
なんかmiHoYo系のゲームの雰囲気があるな
2022/11/19(土) 20:16:01.69ID:UhONoJMR0
>>822
色合いが素敵なやつだね
2022/11/19(土) 20:16:40.31ID:DgiBN7rg0
ああ、NAIリークに原神or崩壊3rdか
2022/11/19(土) 23:31:03.10ID:oHkvHqoMM
>>14
これなんのソフト使ってるのかおしえてくれないか
2022/11/19(土) 23:41:53.48ID:KQIjLKmnr
>>826
嫌儲かラ板のスレが詳しいよ
828名無しさん@お腹いっぱい。 (ワッチョイ 772d-ihPV)
垢版 |
2022/11/19(土) 23:46:27.86ID:fP4ux55y0
>>714
もしかしてGeForce Experience入れてる?
アレ入れないほうが良いよ。メリットないし

初心者が手軽に録画したいなら仕方ないけど
2022/11/19(土) 23:54:09.84ID:FGpwkcNHa
>>826
moe-ttsだろ。windowsでやるならdocker使わないと面倒
2022/11/20(日) 00:35:35.41ID:sC2rrF96a
>>822
使ってみたけど微妙だな…感覚waifu1.3レベル
2022/11/20(日) 05:13:41.83ID:BdJxe2ni0
bad_prompt絵柄変わりすぎて今一だな
inpaintで手にマスクかけてやるのが無難か
2022/11/20(日) 07:00:07.67ID:2oCiHhYFa
>>822
サンプルからして指や腕が変形してる
2022/11/20(日) 07:35:02.33ID:fVJ7X8wE0
多少歪みがある方が味があって良い
人間の描く絵のようだ
2022/11/20(日) 08:04:44.37ID:IUkgS2Szr
人間とAIの歪む傾向全然違うからそのジョークはな
人間は全体画力、AIは部分の整合性
2022/11/20(日) 08:32:05.48ID:pK/t1M1Kr
だよな、そういう(人間味な)類の歪みでは無いとは思うぞ……
単なるブラックユーモアだと信じたい

上記の歪みは、一昔前の3Dの『不気味の谷』に近いような微妙さが有るわ
不気味の谷との決定的な違いは「基本は機械的に妙に整ってるのに、局所的に奇怪な場所が際だってる点」か
2022/11/20(日) 08:44:45.33ID:ydDQJmt40
例えば髪の毛と腕が融合してたりとかね
人間のやる間違いとは傾向が違うのでw
2022/11/20(日) 09:46:23.66ID:wlfLPdPd0
>>828
GeForce Experienceが勝手に中途半端なverにアップーデートする上に
最新版入れようとしたらDLエラーとか抜かして動かないので結局手動で入れ替えたわ
マジで迷惑なだけだなGeForce Experience
2022/11/20(日) 13:43:22.83ID:zfbdbjq8a
モデルマージの管理ってどうするのが正解?
名前に素材名と割合書いてるけどそろそろやばい
2022/11/20(日) 13:47:57.43ID:zwJgysyv0
割合書いたエクセルでも入れとけ
2022/11/20(日) 14:00:24.63ID:zfbdbjq8a
どちらにせよこんな感じにならない?

[] smoothstep
() exact

[f2220.2 (((trinart0.4 waifu0.6)0.7 anything0.3)0.9 sd0.1)]
2022/11/20(日) 14:07:49.92ID:DXQiM0hr0
どの観点で管理したいかによるけどサムネとかサンプル画像と備考欄つけてExcel管理じゃダメなのか
そもそもそんな大量のモデル持ちたいならなんか目的があるんだろうしそれに合わせれば
2022/11/20(日) 14:18:21.34ID:zfbdbjq8a
やっぱExcel使わなきゃダメ?
2022/11/20(日) 14:20:49.05ID:zwJgysyv0
メモ書き入れとけ
2022/11/20(日) 14:25:50.84ID:zfbdbjq8a
とりあえずtxtで混合割合書いてExplorerのプレビューで確認するようにするか
ある程度複雑に混ぜた頃合いでオリジナルの名前付けるのもいいかもしれんな
HassanとかBerryみたいな
2022/11/20(日) 14:26:37.38ID:OXcJbcVma
管理なんて考えずでテキトーにやっとくのが楽だと思うよ

俺は性格的にテキトーにやるの嫌だから管理してるけどさw
マージ割合とpng infoだけだと情報抜け多いから、1111もフォルダごと(pip listや設定ごと)バックアップしとく必要あるし
そのバックアップと画像が対になるようにしとかないといけない
launch.py呼ぶとトラブル起こりうるから1111の起動もbat使わないようにしないといけない
めんどくさっ
2022/11/20(日) 14:45:34.95ID:u1UEWiOo0
3090でお絵描きしようと思うのですけどRAM24GBだとギリギリだから表示用に別のGPU必須ですか
サブグラボ使えばPCIEx8リンクになりますけどAI用途で帯域幅減少しても大丈夫でしょうか
2022/11/20(日) 15:04:36.60ID:h/ZmoSmK0
>>846
なにひとつギリギリじゃないよ
楽しいお絵かきライフを
2022/11/20(日) 15:11:15.01ID:zgH0ilcW0
釣りやろ……
2022/11/20(日) 15:15:54.01ID:KPtQ7g9L0
ギリギリというのは1050tiをいうのだ
2022/11/20(日) 17:21:41.47ID:8yy5WE+Qa
1060の3GBでお絵かきしてる俺みたいなのもいるぞ
2022/11/20(日) 17:36:00.12ID:q3a3+wLs0
趣味に対するお金のかけかたは人それぞれなので
2022/11/20(日) 17:51:27.02ID:zwJgysyv0
バストアップとエロ画像を作るべくモデル改良していったら
fullbody入れても全身絵が作れなくなった;;
2022/11/20(日) 18:10:08.67ID:eHVyLUfw0
>>852
モデル改良ってDBのこと?
2022/11/20(日) 19:58:21.39ID:a58OnAKnr
>>850
最初手持ちpcに1060(3GB)乗せてたけど、AI無理すぎて手持ちPC的な電力限界ラインの3050(8GB)に載せ替えたわ

生成一回45秒~1分近いけど、NovelAIの補助的な利用にはそれなりに使えて満足してる
2022/11/20(日) 20:23:49.63ID:zwJgysyv0
自分でも何と何を混ぜたのか忘れるレベルで
様々なモデルを試行錯誤しながら混ぜまくった
856名無しさん@お腹いっぱい。 (ワッチョイ c27c-LEwT)
垢版 |
2022/11/20(日) 20:30:02.33ID:VjajSqXg0
Anything入れてからimg2imgでガンガン彩度が下がっていくようになったんだけど同じ現象の人いる?
Anythingと混ぜたモデルでも同じで最初は気のせいかと思ってたけど、Inpaint使うと明らかに修正した箇所だけ色褪せてる
2022/11/20(日) 20:38:02.83ID:y+5pTy0Y0
>>856
VAEの指定は正しくなってるか?
2022/11/20(日) 20:46:03.54ID:zfbdbjq8a
混ぜたモデルにvae使わせて描かせると色復活するけど
これってどんどんckptをマージしてany要素が薄まってもオリジナルの状態のvae使ってて大丈夫?
859名無しさん@お腹いっぱい。 (ワッチョイ c27c-LEwT)
垢版 |
2022/11/20(日) 20:50:46.87ID:VjajSqXg0
>>857
指定した覚えがないのでそれかも
Anything-V3.0.vae.ptってやつかな
詳しく書いてそうなとこ見つけたから読みながらやってみるよ、ありがとう
2022/11/20(日) 21:41:23.70ID:u1UEWiOo0
>>846ですけど24GB必要というのは学習の為です
マイナーキャラ好き&特殊性癖持ちなのでNovelAIでは描けず追加学習が必要なのです
あとVTuber志願者なので高級AIは活動に役立ちそうに思えたのです
2022/11/20(日) 21:45:46.65ID:zgH0ilcW0
情報小出ししかも足りない
2022/11/20(日) 22:14:50.50ID:DXQiM0hr0
Vtuber関連で必要な機材としてどうかはまた別で考える必要があるしなぁ
そこまで行くとこのスレの範疇の内容でもないし、必須かはともかく金があるなら買えば確実なのでは
「お絵描きする」と「学習する」は別だし活動にどう役立てるかも自分で考えることだし、
Wiki見て自分の思う用途と方針固めてからじゃないと必要スペックは答えようがないんじゃないかな
2022/11/20(日) 22:34:58.74ID:q3a3+wLs0
説明力がないにも程がある
違う意味でスペックが心配に
2022/11/20(日) 22:42:03.07ID:KPtQ7g9L0
おやじ!この店で一番高いやつだ!って言えば大丈夫だろ
2022/11/20(日) 22:57:32.65ID:FA5qT2or0
vaeて同じ名前の勝手に読み込んでくれるんとちゃうの?
自分で指定する所あったっけ?
2022/11/20(日) 23:11:45.72ID:VjajSqXg0
ckptと同じ場所に同じ名前で置けば認識してくれるけどそもそもおいてなかった
2022/11/20(日) 23:20:54.10ID:FA5qT2or0
AnyV3-prunedはバギングから落としたvae使っても薄くなったから何もついてないAnyV3使ってるな
868名無しさん@お腹いっぱい。 (ワッチョイ 772d-ihPV)
垢版 |
2022/11/21(月) 00:05:40.64ID:PTd1lBff0
>>860
今なら4090買っといた方がイイヨ
2022/11/21(月) 02:16:55.19ID:4gQ3YHLPa
vaeなくても問題ないのか
地味に重いからanyの消そうかな
2022/11/21(月) 03:15:05.64ID:5D/cI28Xa
問題なくはないでしょ
vaeひとつ消したところでけっきょくckptのウェイト読むとかで大差ないんじゃないの
2022/11/21(月) 07:43:13.27ID:pK9Qnydx0
手先指先の修正をいるかいらないかってところ
問題ないといえばない
人それぞれ
2022/11/21(月) 07:54:44.58ID:ZZf3bhAV0
NAIとAnything-v3のvaeは一緒だけど、Anything-v3の素のモデルだと
描画は色が薄いというかあせた感じになりやすいのでvae使って鮮やかに最後のひと手間をかけてもらうのが基本だけど、無くても差を感じないなら無しでいいと思うわ。
その人の目にはそう見えるんだろうし、差分とってなにが違うかなんてする必要もないしね。もともとどっちが正しいとかそういうものでもないしな。好きな方を選べ!
2022/11/21(月) 09:47:37.09ID:wwbCuGvg0
anything、vae使った時と使ってない時の間くらいの鮮やかさにしたい
2022/11/21(月) 10:30:54.72ID:FYX4bUWr0
手動で一括コントラスト補正すればまあいらんかな
2022/11/21(月) 10:31:09.46ID:6CwU0uOqM
anyやgapeやマージ版やら色々使ったけどNAIの柔軟性はやっぱ凄いわ
2022/11/21(月) 11:58:04.12ID:6nLxRaxr0
https://deepimagination.cc/Magic3D/
2022/11/21(月) 12:29:05.23ID:5D/cI28Xa
vaeって色くらいしか変わらなくない?
2022/11/21(月) 12:29:42.58ID:CXIYfBJj0
>>873
anythingにvaeを0.5でマージしてみては?
2022/11/21(月) 12:31:14.23ID:wBfqS8u/0
text to 3dもここまで来たのか
やっぱnvidiaなんすね
2022/11/21(月) 12:49:24.22ID:H3Qj3JSK0
AMDの新しいやつに載ってるAIなんちゃらって謎部分が使われるようになると熱いんだけどね
2022/11/21(月) 16:04:24.12ID:nl0WJAsX0
> Artstation-Diffusionとかいう、Artstationの5万枚の画像でファインチューニングされたSDモデル
https://twitter%2ecom/umiyuki_ai/status/1594179335082033153

AIをよく研究している人が作者を名指しにしているツイートなのでウイルスとかの心配は少なそう
2022/11/21(月) 16:07:09.24ID:pK9Qnydx0
>>877
指先とかよく見てみると崩れてるのが治ってたりする
2022/11/21(月) 17:31:37.77ID:X3aMYO0g0
>>880
謎なうちは広まらないわな
2022/11/21(月) 17:39:20.67ID:As3SJvtv0
謎の半導体メーカーNVIDIAを信じろ
2022/11/21(月) 17:49:07.95ID:xhy67mfo0
>>882
なるほど
2022/11/21(月) 18:03:43.78ID:GLsefYU/0
>>880
Vulkanかも知れん
2022/11/21(月) 20:45:14.80ID:Y+NO5HbC0
any3.0のvae使ったらサーモンピンク1色の画像がちょいちょい出てくるようになったんだが?
おま環ってやつかしら
2022/11/21(月) 20:49:01.77ID:sbfkBs980
>>887
>>791以降でその話題しばらく出てたからどうぞ
多分色関係なく塗り潰しオーバーフローは原因同じで応急処置は--no-half-vae
2022/11/21(月) 20:52:02.63ID:Y+NO5HbC0
>>888
これってこの古都だったのか
サンガツ
2022/11/22(火) 10:30:00.59ID:axelrHhL0
>>881
https://huggingface.co/hakurei/artstation-diffusion
これか

waifuの人が作ってるようだけど、1.4のckptの前にDiffuserのを出してみた的なものなのかな?
2022/11/22(火) 10:31:48.68ID:cIh+eiKQM
5万枚って今じゃ少ない気もするがどうなんだろ
2022/11/22(火) 11:49:31.21ID:hAD8W24q0
枚数少ないから、別分野のものを個人的に作りましたって感じじゃないか
2022/11/22(火) 12:48:17.08ID:gV1YHDDp0
アスペクト比を変えてうまく生成できるかのテストみたい?
2022/11/22(火) 15:00:12.11ID:uOd2xEx+0
1111で単語並べてると「Warning: too many input tokens; some (2) have been truncated:」という警告が出てくるんだけど
75トークン以上はやっぱりダメなのか?
2022/11/22(火) 15:20:11.10ID:dwXv6x6p0
>>894
1111のバージョンが極度に古いかモデルの問題か
とにかく環境書いたほういいかと
2022/11/22(火) 17:11:30.26ID:uOd2xEx+0
>>895
すまない、環境は1111の最新(さっきもgit pullした)でグラボは3090、モデルはAnyV3、HNなし

現象はこれ(Time takenの上にWarningが出る) 
https://imgur.com/a/SmPT2fi.png

関係ありそうな設定はこれ(デフォのまま)
https://imgur.com/a/tyWDHF3

何か判りますかね?
2022/11/22(火) 18:11:36.70ID:4yPwCdxc0
>>896
ソース見てきたけど
旧仕様の強調構文を利用する設定にしている場合に
処理自体が75トークン上限の古い解析が入るらしい
その辺り弄った覚えはないだろか?
2022/11/22(火) 18:17:38.85ID:4yPwCdxc0
>>896
追記

Settings の Stable Diffusion の項にあるこの真ん中のが
「ONになってると」そうなるようだ
古いプロンプト再現でもしない限り必要ないんだが間違えて弄ってないか?

https://i.imgur.com/lbsTbsU.png
899名無しさん@お腹いっぱい。 (ワッチョイ 57ad-kfYZ)
垢版 |
2022/11/22(火) 19:19:36.18ID:eN+LirKh0
- This IS expected if you are initializing CLIPTextModel from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPreTraining model).
- This IS NOT expected if you are initializing CLIPTextModel from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).
コイツは何モン...?

学習済みモデルに追加学習させたいのだけど...
2022/11/22(火) 19:37:19.20ID:98mPIsyoa
pullした時点でこんなものが出るのか?
2022/11/22(火) 19:54:13.88ID:uOd2xEx+0
>>897-898
そこONになってました
OFFにしたら警告消えました
いつ触ったか記憶に無いけど触ってたようです
ありがとうございます!!
902名無しさん@お腹いっぱい。 (アウアウウー Sa3b-XEgA)
垢版 |
2022/11/22(火) 21:51:17.37ID:edv8cYFFa
inpaintやるときガンダムSEEDのコーディネイターの母親になった気分になるわ
目の色が違うわ!!
2022/11/23(水) 06:46:07.80ID:yJzkah3F0
EimisAnimeDiffusionってvaeファイル無いけど無しのまま使えって事なのでしょうか
2022/11/23(水) 07:06:43.07ID:T+kHLMBF0
無しのまま使えって事だよ。必要かどうかもわらん状態でなぜ必要だと思い込んでいるのか
vaeがないと死にそうなくらい不安ならAnything-v3(NAIのコピー)やSDやらいくらでもあるから拾ってきて使えばいい
ちなみにMidjorney-v4もないけどな
2022/11/23(水) 08:45:50.53ID:E56ZcNsa0
artstation-diffusionを使ってみたいんだがこれファイルどれかわかる?
.ckptがないんだが
hakurei/artstation-diffusion at main - https://huggingface.co/hakurei/artstation-diffusion/tree/main
2022/11/23(水) 08:53:46.06ID:E56ZcNsa0
>>905
なんかDiffuser形式モデルからckptファイルへの変換が必要らしい。わからん
https://gist.github.com/jachiam/8a5c0b607e38fcc585168b90c686eb05
2022/11/23(水) 09:08:00.68ID:vDYIf0Rr0
その辺の手順まとめておかないとすぐ忘れる
2022/11/23(水) 09:28:41.62ID:Mhp6NV6Ga
それをやってくれるAIを作ればいい
2022/11/23(水) 09:53:33.16ID:XSrKX4+o0
>>896
>>901
一応もう一つソース覗いたから知ってる事言っておくけどローカルの強調構文って
(xxx :2.0) みたいに ワード->スペース->:数値 でないと解釈しないよ
:とxxxの間のスペースがない (xxx:2.0) も 数値の前にスペース挟んだ (xxx : 2.0) も効かない
2022/11/23(水) 10:29:00.50ID:KibpYxgx0
>>909
じゃあこれはどういうこと?
(huge breasts:1.8)
https://i.imgur.com/rRhBlzc.png

(huge breasts :1.8)
https://i.imgur.com/czgyUTK.png
2022/11/23(水) 10:35:35.44ID:Rp92T0xy0
うちでもスペース無しは普通に効いてるな
2022/11/23(水) 10:38:36.81ID:7aXFrjmd0
>>910
それは乳がでかい
2022/11/23(水) 10:52:48.09ID:57SZj/Qf0
でかすぎて草
2022/11/23(水) 11:01:30.95ID:inkp2j/T0
多少の違い出るようだけど意味のある違いは出なそう
2022/11/23(水) 11:03:26.25ID:3FHBi3Vt0
>>909
スペース入れないと効かないんですか
気をつけますわ
2022/11/23(水) 11:22:48.99ID:L4ooA/eQ0
ソース見ないでいうけど、トークナイザがワードを分離しまいか?
うちでもスペースなしで効果がでている。
2022/11/23(水) 11:22:59.15ID:AxWFfxxB0
anyだけど、

https://i.imgur.com/kPVRms4.jpg

(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)
グレッグさん連呼 括弧いらんかも

https://i.imgur.com/T44RcsI.jpg

Greg Rutkowski :2.0

スペース無くても同じやね
2022/11/23(水) 11:23:51.61ID:AxWFfxxB0
ああわるい、上下の絵は逆ね
2022/11/23(水) 11:24:53.09ID:WxFxWeXE0
modules/prompt_parser.pyに書いてある強調構文の正規表現はこうなってるので、スペースはいらん。

re_attention = re.compile(r"""
\\\(|
\\\)|
\\\[|
\\]|
\\\\|
\\|
\(|
\[|
:([+-]?[.\d]+)\)|
\)|
]|
[^\\()\[\]:]+|
:
""", re.X)
2022/11/23(水) 11:29:44.30ID:MXwB9dRc0
t2iデバッグ実行してみたけどコロン前のスペースなくても強調は解釈したし
CLIPがトークン化する際に末尾のスペースを削除してるから(hoge:1.2)も(hoge :1.2)も同じトークン列になる
ただ (hoge: 1.2) みたくコロンの後にスペースはダメ
2022/11/23(水) 12:07:55.61ID:XSrKX4+o0
自分が弄ってたとこが処理すっとばしてたっぽいわまじごめん
2022/11/23(水) 12:09:59.91ID:XSrKX4+o0
それか(hoge: 1.2)の記述したときに見たの誤解したか
すまぬ…すまぬ……
2022/11/23(水) 13:03:51.19ID:ctVB6hYm0
>>909
横からだけどそうだったんですね
なんか利きが悪いとおもった
2022/11/23(水) 13:13:54.33ID:WhheMXaQ0
>>910
これ見ると効果同じでは?
2022/11/23(水) 13:15:30.53ID:XPraprzF0
extensionと同じように、モデルも1ボタンでDLしてckpt変換してインスコしてくれたらいいのにね
2022/11/23(水) 13:24:38.65ID:XSrKX4+o0
コロンと数値の間にスペースがある場合のみ効かない?のを勘違いしたようで
お騒がせして申し訳ない
というか検証とコード引用がすぐ出てくる辺りさすが技術スレっすね
自分が出しゃばる必要なんて全然無かったんや
2022/11/23(水) 13:32:52.67ID:OzgBblG70
まぁ自信出た直後に恥ずかしい思いするのはあるある
結論だけじゃなくて最初から該当ソース引用して貼ってれば確認しやすいし恥ずかしさも減る
5chのUI的に初手ソース貼ると長文になるからリンク貼る方がやりやすいか
2022/11/23(水) 13:44:22.32ID:AxWFfxxB0
いやどこかで :2.0のような強調文はエディションによって効かないとか見たことある
初期のSDでは効いてたし、どこかのバージョンでは今でも効くかもしれないし、わからない
2022/11/23(水) 13:46:21.33ID:7aXFrjmd0
とりあえずスペース空けなければ効くで間違いないがわかったら自分ごときには充分
2022/11/23(水) 14:04:05.43ID:i+OZ+FUha
スレチかもしれないけどNMKDでしかもローメモリ環境だと記述も色々違って混乱したぜ…
()で強調{}で弱体、倍率指定や[]、ネガティブプロンプトは使用不可、VAEやモデルミックスは使えないって感じだったよ
2022/11/23(水) 14:19:30.61ID:rxl/5/pC0
NMKDはバージョンアップでそれ大体出来るようになってるがいつの話だよ
2022/11/23(水) 14:57:10.17ID:0Mz+wy0I0
強調寂澄の文字は指定出来るようになって欲しい今日この頃
2022/11/23(水) 15:26:27.69ID:QyyzBdf/0
WebUIは範囲選択してカーソルキーの上下で調節するから、スペースがないのが普通に思ってた
2022/11/23(水) 15:57:39.98ID:ANSAWO8Md
NMKD のdreamboothで特定キャラじゃなく
画風を学ばせたい場合、色々なキャラを
1枚ずつ学習させればいいのかな?
935名無しさん@お腹いっぱい。 (ワッチョイ 5701-kfYZ)
垢版 |
2022/11/23(水) 18:59:36.69ID:PNlGLTbf0
>>904
ありがとうございます
hugingにはvaeフォルダとかあったりしたから、私が知らないだけだと思っておりました。(どちらにしろ知らなかったのですが)
2022/11/23(水) 19:08:49.13ID:2N068jN10
>>934
その全部が混ざったのが出てきそうな気するけどやってみて結果教えてほしい
937名無しさん@お腹いっぱい。 (ワッチョイ 9702-EFWK)
垢版 |
2022/11/24(木) 10:35:59.10ID:fun5DVAs0
SD2.0
エロ系はカットされてるらしい

Stable Diffusion 2.0 Release
https://stability.ai/blog/stable-diffusion-v2-release
2022/11/24(木) 10:55:23.34ID:NIldVpeK0
本家はベースとしてのクオリティあげてくれればいいわ
ユーザーたちが勝手にエロばっかり足すから
2022/11/24(木) 11:05:41.02ID:j1v5zf/30
だよな。本家もそれ想定はしてんだろうし
2022/11/24(木) 11:05:54.65ID:delS3m8pM
エロと戦争は技術進歩の母なんだけどな
2022/11/24(木) 11:08:52.08ID:DS7MfSbQd
リアル・エロ、
リアル・非エロ、
二次元・エロ、
二次元・非エロ
それぞれで高品質な特化モデルを作ってあとはユーザー側で好きな比率でマージしてくれってのが一番理想的な道なのかもしれんなあ
まだモデルのマージはやったことないけど
2022/11/24(木) 11:58:35.63ID:tVg+X3LDa
あれ
逆にエロを含んだデータセットで学習したって書いてた気がするけど読み間違えたか
2022/11/24(木) 12:00:47.16ID:tVg+X3LDa
俺が読み違えてたはい
2022/11/24(木) 12:09:04.84ID:S9r8DMlEr
正直なところエロ要素の無いAI自動生成って、結局は『出力した絵の活用方法(目的)が明確にある人』以外は長くても数ヶ月も弄ったら飽きてそうだと思う
綺麗な絵が出力できたとして「きれいだね、良かったね。で、その絵どうするの?」という状況になる

つまり何が言いたいかというと
「もっとエロ方向に進化早よ」
2022/11/24(木) 12:11:58.77ID:OawX97DQM
SD2.0はどんな感じ?
早く家に帰って試したい
2022/11/24(木) 12:15:18.02ID:2Ovwy7w6d
メモリが24GB必要とかだったら笑う
2022/11/24(木) 12:19:25.10ID:eV+oHJtea
>>945
まだ一般リリースはされてないみたいだが
2022/11/24(木) 12:23:19.30ID:z+B27vI00
depth-to-image がどんなもんか気になる
2022/11/24(木) 12:40:10.99ID:j1v5zf/30
一応、モデルの公開はされとるみたいやな
1111に対応リクエストされとるし

https://huggingface.co/stabilityai/stable-diffusion-2/tree/main
2022/11/24(木) 12:42:36.22ID:j1v5zf/30
これが分かりやすいか
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5011
951名無しさん@お腹いっぱい。 (ワッチョイ afad-kfYZ)
垢版 |
2022/11/24(木) 13:26:14.04ID:KwcaBPhb0
>>937
2.0をベースにエロ系を追加学習してくれる人がかならず現れるw
みつけたらおしえろください!
2022/11/24(木) 13:48:06.98ID:w6M0K2nj0
>>937
デモページがつながらない。
誰か試した画像ある?
2022/11/24(木) 13:52:11.35ID:w6M0K2nj0
These models are trained on an aesthetic subset of the LAION-5B dataset created by the DeepFloyd team at Stability AI,
which is then further filtered to remove adult content using LAION’s NSFW filter.

学習データーの段階でadult contentは外されているのかな
2022/11/24(木) 14:20:10.65ID:j1v5zf/30
>>952
デモページはあるけど、サーバがお忙しい模様
https://huggingface.co/spaces/stabilityai/stable-diffusion
2022/11/24(木) 14:53:29.33ID:4JBUFBUA0
>>951
100%すぐ出てくるやろ。問題は使い物になるかどうかで…
現状ダンボールのタグの優位性はSDのエロでは太刀打ちできんところにいるからな切っても大した問題じゃないしね
引っぱり出せないエロ学習データなんて切ってかまわんわけだし

まぁエロ生成は、版権物にエロ足すからそこオリジナルのコピーではないって言いきれるのに
一発で公式が出すわけないってわかるしな
webUI対応待ち…正座して待つぉ
2022/11/24(木) 15:06:14.90ID:lK7F0W8S0
マジで本当に言語能力が強化されてれば
プロンプトだけでマイナーキャラを再現できるかもしれない
そうでなくとも、小物とかバックグラウンドのシチュエーションをバッチリ描いてくれるだけでも今のモデルと組み合わせて使える
2022/11/24(木) 15:14:09.49ID:lK7F0W8S0
というか1111もう768モデルを動かせてるじゃん
対応早すぎでしょ
新しい機能の実装も数日中に来そうだね
2022/11/24(木) 15:26:06.66ID:hipy4kbra
プロンプトで最も手を加えにくい目の形を自在にできればほとんどのキャラ再現ができそう
2022/11/24(木) 15:54:06.03ID:fXDhc5/s0
最近1111の更新止まってたけど
事前に情報貰ってSD2対応進めてたんだろうか
単にやる気なかっただけ?
2022/11/24(木) 15:56:33.74ID:wfXh6dlF0
768モデルってなんや
2022/11/24(木) 16:06:09.68ID:j1v5zf/30
どこで動かせてる報告見れる?
2022/11/24(木) 16:18:06.15ID:rzqXOupMM
暫くgit pullは控えよう
人柱頼むで
2022/11/24(木) 16:59:50.56ID:NIldVpeK0
あの更新速度からして対応してたんだろう
唐突に力尽きた説もありえるけど
2022/11/24(木) 17:00:52.08ID:fXDhc5/s0
>>953
5回ぐらいちゃんと読み直したが外されてそう

思いっ切り意訳すると
「これらのモデルは、ライオンAIで美しい画像だけチョイスして、さらにエロ画像は排除してそのデータセットで学習したよ」
みたいな感じかと
2022/11/24(木) 17:02:21.34ID:A2uKogAd0
対応してんの?error出るんだけど?
2022/11/24(木) 17:04:00.83ID:fXDhc5/s0
964だけどライオンデータセットの収集は手動かも、エロ排除はAIぽいけど
2022/11/24(木) 17:07:59.60ID:BD3KmHv+0
768-v-ema.ckptをmodels\Stable-Diffusionに入れたままweb UIを起動しようとしたらエラーで起動しなくなった
別の場所に移してことなきをゲット
2022/11/24(木) 17:10:43.14ID:fXDhc5/s0
説明読んでるととんでもない進化してるな

768x768対応と、超解像アップスケーラーが本命かと思ってたんだけど
depth2imgも上手く作動すればとんでもない機能だわ
2022/11/24(木) 17:23:03.52ID:hOF9jS180
ライオンさんデータセットのエロ素材は説明文と画像が全く合ってない低質なものが多かったから
除外されてむしろ可能性が広がったんじゃないかなぁと思う
2022/11/24(木) 17:23:26.21ID:BD3KmHv+0
>950のissueに投稿しているペンギンさんは自分でパッチを当てているもよう
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5011#issuecomment-1326020064

https://user-images.githubusercontent.com/1349689/203712298-d62b7e7c-bd48-47cf-8f15-67ed67251bc2.png
2022/11/24(木) 17:37:47.31ID:FYS69E540
新スレでーす

【StableDiffusion】AI画像生成技術11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1669278997/
2022/11/24(木) 17:42:46.41ID:BD3KmHv+0
またワッチョイか…前スレみたいに荒れていなければIDのみに戻したいものだ
このスレでワッチョイが入ったら明らかに流量が減ったし
2022/11/24(木) 17:52:17.68ID:tVg+X3LDa
要らないものがだいぶ減っただけだと思う
2022/11/24(木) 17:57:11.77ID:wEoLBVFe0
ワッチョイごときでいなくなるようなやつはそんだけ自分のレスが後ろ暗いことだって分かってるんだろ
2022/11/24(木) 17:58:50.11ID:izTtuXw6a
sd2は12GBじゃ動かないのか?メモリないって怒られる
2022/11/24(木) 18:08:44.83ID:+WvngkTc0
ワッチョイスレは最終的にはIP切り替えで荒らしてる奴しか残らなくなって過疎化していく
というか最初からそれを目的に荒らして自作自演でワッチョイ入れろって騒ぐ奴が多い
2022/11/24(木) 18:09:41.33ID:tVg+X3LDa
じゃあワッチョイなしも立てようよ!
って言うのが狙いだろ
2022/11/24(木) 18:13:26.81ID:iwdMrLpg0
ワッチョイ有り無しの話が一番いらんのはみんなわかってるだろう
毎回毎回荒しと変わらん
2022/11/24(木) 18:15:41.68ID:yLX+AEPI0
最近人がいないのはほとんどがなんJとエロスレの掛け持ちだからだな
ここはここでまったりやってりゃいいじゃん
2022/11/24(木) 18:26:48.61ID:1/cKPyb5d
あたおかさんは明らかに減ったしもう1スレはわっちょいありでの様子見でいいんやない
981名無しさん@お腹いっぱい。 (ワッチョイ ffe6-kfYZ)
垢版 |
2022/11/24(木) 18:36:05.89ID:KAVW1K6L0
Anlas9990のこして更新されてしまった
とはいえ特に使い道もなかったが
皆何につかっとるんや?
2022/11/24(木) 18:41:38.66ID:tVg+X3LDa
Automatic1111クイズ!
Automatic1111にはプロンプトエディティングという機能が気を利かせて用意されてあります
記法は[1 boy:1 girl:0.5]と書き、これにより[]で括られた部分はstep数のうち前半を1 boyとして、後半を1 girlとしてプロンプトが解釈されます
ここでstep数100で[1 boy:1 girl:0.1]と記述した時、1 boyとして解釈されるのは何番目から何番目までのstepか

プロンプトエディティングどっちがどっちなのか毎回忘れる
チェックポイントマージも同様
2022/11/24(木) 18:41:47.88ID:izTtuXw6a
256x256、512x256だとまともな画像生成せず
512x512だとメモリ足りて生成始まったけど3060でETA1時間るっていってるぞ。GPU100%占有中。なんだこれ
2022/11/24(木) 18:43:21.85ID:OydNBn+H0
>>981
デカい画像を無意味に出しとる
985名無しさん@お腹いっぱい。 (ワッチョイ ffe6-kfYZ)
垢版 |
2022/11/24(木) 18:57:47.59ID:KAVW1K6L0
>>984
そんな感じになるよなあ
無料生成いるから結局プランは変える気ないがもったいない気がしてくるわ
2022/11/24(木) 19:49:07.07ID:izTtuXw6a
3060/768x512/ddim/20ステップ/バッチサイズ1/バッチカウント1で20分
出力サイズの問題なのかプロンプト問題なのかしらないけどだめだな
時間かかるし出力画像悪いし。まったく使い物にならない
2022/11/24(木) 19:51:15.24ID:HBWqd3Mn0
>>986
ハイエンドグラボ以外はお断りな感じか
2022/11/24(木) 19:53:59.06ID:wEoLBVFe0
>>982
プロンプトエディティングは切り替えるタイミングだから0.1=10%なら頭から10%時点、10なら10ステップ時点

なんだけど、マージは0.いくつの数字が「A+BのAを消す割合=Bを残す割合」で、どっちかといえば後者で考えやすいから混ざるのも分かる
2022/11/24(木) 19:54:31.14ID:Tbi/u2pIr
20分とかやべぇな……そこまで性能求められるのか……
2022/11/24(木) 19:57:30.97ID:arpiGsu60
そこまで要求して見合うほど画像の品質上がるのか……?
2022/11/24(木) 20:02:03.42ID:1Ym3pmrZa
見るに堪えない絵しかでない
あとフェイクやエロに直結しがちな実写成分削られたのかな
photo of a girl, kawaii, loli face, wear school uniform, highly detailed, sharp forcus, cinematic lighting
https://i.imgur.com/3nTGakN.png
2022/11/24(木) 20:07:23.93ID:0UL1Inxr0
>>988
助かる……
2022/11/24(木) 20:15:21.80ID:NIldVpeK0
なんだこれ・・・
ver0.01か?
2022/11/24(木) 20:18:28.38ID:2f32BO4cM
>>991
出たばかりの試行錯誤時代を思い出してほっこりした
この頃はみんな生まれたての赤子を見るような優しい目をしてた(ウソです)
2022/11/24(木) 20:19:26.60ID:B9+vlfbs0
なんてこった
2022/11/24(木) 20:19:53.26ID:+WvngkTc0
>>988
英語ではなんでも逆にするのが好きだからAとBの比率みたいなのはほんと間違いやすくて
1111も途中で実は反対に変更してるし解説サイトもどっちがどっちか自信なくて5:5でしか説明してないとこが多いんだよなぁ
2022/11/24(木) 20:20:51.70ID:Tbi/u2pIr
>>991
1~2ヶ月前ぐらいはこんなの量産してたはずなのに、なんかもう数年前の出来事に思える
2022/11/24(木) 20:24:21.06ID:Bwf8QeP0d
>>991
2.0とはいえ素SDなんだから素SD向けの呪文でないとダメなんじゃない?
2022/11/24(木) 20:25:33.79ID:fXDhc5/s0
>>911
まじでSD初期の絵やw
2022/11/24(木) 20:26:10.42ID:fXDhc5/s0
>>971
イケメンかな
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 21日 20時間 15分 54秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況