X



【StableDiffusion】AI画像生成技術11【NovelAI】

■ このスレッドは過去ログ倉庫に格納されています
2022/11/24(木) 17:36:37.21ID:FYS69E540
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合20【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669092302/
AIイラスト 愚痴、アンチ、賛美スレ part14
https://mevius.5ch.net/test/read.cgi/illustrator/1669117382/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1667401816/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2022/12/04(日) 13:21:33.79ID:OCdScX7kr
普通のゲーマーはVRAM容量よりバス幅・アクセス速度の方が重要だからね。
2022/12/04(日) 13:30:36.80ID:ilbrF2vJ0
>>605
そうそう、つよつよビデオカードをただ買ってくればいいってわけでもないんだね
大容量の電源に換えるだけでなくckptがファイルサイズ大きいからSSDも大きいのに買い替えた
前は2000Mbps以下の安いのにしてたけど今度は3000Mbpsクラスのにしたからやや割高

画像生成AIをローカルでやろうとするとなんだかんだで金がかかるね
608名無しさん@お腹いっぱい。 (ワッチョイ 5905-XMR3)
垢版 |
2022/12/04(日) 13:30:50.45ID:t+N+Xcy00
pc買い替えのタイミングにnovelAIリークが重なって3060買えたから良かったわ
2022/12/04(日) 13:30:55.63ID:JQCx85l+0
仮想通貨のマイニング祭りが終わって、3090が20万以下で買えるなんて今しかないよ
https://i.imgur.com/XRNgT3Y.jpg

chatGPTで今度は賢いボット祭りが来てる
これからまたGPUの需要増で価格が上がる前に買っておいたほうがいいと思うぞ
2022/12/04(日) 13:37:06.44ID:ZO8kDlYP0
VRAM欲しいのはMOD好きとVR系位かな正直ニッチ
2022/12/04(日) 14:14:24.36ID:6azRteeO0
昨日なら3060が3万で買えたんだけどな
怪しさ満点だったけど
2022/12/04(日) 14:43:10.16ID:33Dn7XgRa
>>602
わいかな?
さっきローカルに移行したけど学習にさえ目を瞑れば普通に生成早いやん😅
2022/12/04(日) 14:44:22.21ID:PJpqM95R0
学習はオンラインでいいんじゃね?
2022/12/04(日) 14:45:37.84ID:epEOUGv70
NAIリーク直前に70Ti買った俺もいるぞ
安く買えたけどさ、70の方がワッパの点で良いとか知らなかったよ
2022/12/04(日) 14:48:41.47ID:epEOUGv70
>>613
実際3090~運用するのとどっちがいいんだろうね
colabは有料でも使える時間に制限あるみたいだし、他のやつ月10ドルの固定で動くとかならそっちで学習考えるけど
2022/12/04(日) 15:17:15.27ID:xDZ0FLQC0
2060や3060の12G版ってメモリ余ってたから使ったったw説は本当なのか気になる
それが本当なら当分ミドル帯にVRAM容量降りてこない
2022/12/04(日) 15:35:16.30ID:6PIzj/3J0
学習ってそんなにパワー食うのね
自分の2070sじゃ無理そうだ。
そもそもやり方がよく分からないけど…
2022/12/04(日) 15:37:00.83ID:2kOJpswY0
2070sでもTIやHNなら問題ないぞ
2022/12/04(日) 15:54:15.91ID:SEk05QfVM
>>611
あれは100%詐欺やろ
2022/12/04(日) 16:13:57.58ID:6PIzj/3J0
>>618

スペック的に大丈夫なんですか? なら試してみようかな…
未知もしくは理解度が足りないワードを学習させるならHNでしたっけ
2022/12/04(日) 17:03:52.92ID:2kOJpswY0
>>620
理解度が足りないくらいだったらHNでいいけど、完全に知らなそうなもんを出すのはDB向けで、これは2070Sだときつい
まずプロンプトの工夫で「なんぼかそれっぽいものになってきたけどどうも雰囲気が出ないなー」みたいなものまで近づけるかどうか試すといい
そこまでイケるようだったら、HNやTIで調整してやれば狙ったものが出せる可能性はそこそこ高い
逆に、特徴的な衣装だとかで「これを言葉で指示するのはちょっと無理があるな」っていう感じがしたら、無理にTI/HNで粘る意味は薄い
2022/12/04(日) 17:46:41.36ID:6PIzj/3J0
>>621

ありがとうございます!
民族衣装でしっくりこない(無駄にフサフサになる等)ものがあったので
学習させたかったのですが難しそうですね
とりあえず既存のワードの組み合わせで学習できないか試してみます
2022/12/04(日) 22:22:08.97ID:7MZsijB0a
何エポックに対して何LRといった内容を掘り下げているサイトってありますか?
2022/12/04(日) 22:56:53.84ID:PUU/1BRs0
RadeonをメインにしてGeForceをサブにしても
StableDiffusionで画像生成できますか?
2022/12/04(日) 23:00:53.72ID:X1zqR8u4p
Distilled diffusionっていう新しい手法を使うと
拡散モデルによる生成が爆速化するらしい
https://twitter.com/EMostaque/status/1598131202044866560
https://twitter.com/5chan_nel (5ch newer account)
2022/12/04(日) 23:05:55.62ID:ZO8kDlYP0
>>624
できる
2022/12/04(日) 23:21:03.36ID:eDV41SzJ0
>>624
まずWindowsが不安定になるのでできない。
2022/12/04(日) 23:24:46.77ID:MJFvv/LEa
不安定な組み合わせもあるのかもしれないけど(マイニングでwindows+)geforce+radeonいけるって話もある
2022/12/04(日) 23:28:36.77ID:PUU/1BRs0
>>626
ありがとうございます。

使用するVGAを設定する項目があるのかな
2022/12/05(月) 00:03:00.42ID:2pIwpNNA0
>>629
ないけど、Radeonはcudaデバイスとして認識されないだろうから、
cuda:0でGeForceが勝手に使われる気がする
2022/12/05(月) 00:03:41.12ID:GK7r0f+J0
ディスプレイ繋ぐのをRADEONにしてGPGPUとしてGeForce使うのは余程へましなきゃ今のOSはこなすがまあ使えん奴には使えんだけや
2022/12/05(月) 00:19:07.80ID:/Za0lruD0
やっぱラデはRX6900とかでもRTX3060の方がいい感じなんかな?
2022/12/05(月) 00:33:41.94ID:faOL3WJC0
Stable Diffusionそのものの技術は日進月歩なのに
なんでRadeon(というかCUDA非対応デバイス)への対応はこんなに牛歩なんだ
CUDAに囚われていい技術じゃないだろ
2022/12/05(月) 00:43:25.68ID:THgOUwN00
4090で学習させてたら途中でVRAM不足でクラッシュwwwww
PC再起動までGPU認識しないでやんのwwwwwwww
クッソワラタwwwwwwwwwwwwww
2022/12/05(月) 00:44:11.12ID:75Su7y/K0
>>633
オープンソースの発展は勝手にコード書く人口の多さに影響されやすい
2022/12/05(月) 00:45:57.42ID:bJiHIXjQ0
pytorchが動かんことには云々
2022/12/05(月) 00:51:17.01ID:faOL3WJC0
Windows+Radeon環境でも1111 webuiを楽にインストールさせてくれれば文句ないのになあ
NVIDIAはVRAM量ケチりがち & 個人的にNVIDIAに良いイメージないから、あんまりGeForce買う気にならん
2022/12/05(月) 00:51:40.73ID:rbFymsoa0
24GBでクラッシュとか…
2022/12/05(月) 01:22:12.63ID:HU9/2YSl0
そこまで言うなら自分で音頭取って有志をあつめるか、究極的に自分で書けばいいじゃんって話なんだよな
金もやる気もないなら現環境を受け入れるしかない
2022/12/05(月) 01:50:58.74ID:PPKKc3lG0
スレ民だったりして

AMDのWindowsマシンでStableDiffusion V1.5とAnything V3.0を使えるようにする
https://dolls.tokyo/howto-amd-win-sd15_any30/


AMDのWindowsマシンで動くAnythingV3.0 WebUIを更新(スケジューラと複数枚生成)
https://dolls.tokyo/amd_anything_webui_verup/
2022/12/05(月) 03:06:54.43ID:aBPwcwj50
Radeonがメモリ32GBとか出してくれると期待している
642名無しさん@お腹いっぱい。 (ワッチョイ 6768-BV3Z)
垢版 |
2022/12/05(月) 03:11:23.70ID:WQM6Adnw0
画像のサイズを変えずに画質良くする方法ってないですかね?
2022/12/05(月) 03:12:28.61ID:XwjCtEs2d
そろそろnijijourneyを学習したSDモデルが出てきてもいい頃だろ、少し楽しみ
2022/12/05(月) 05:46:47.45ID:HOXEL8v2M
>>595
まじでありがと
2022/12/05(月) 08:00:28.75ID:hxdCKOnSa
>>625
論文更新してたぞ
2022/12/05(月) 08:40:39.09ID:g8eLROKM0
Stable Diffusion 2.1 beta coming real soon to a Discord near you
って話も気になるな
SD2.0が残念さんだっただけに
2022/12/05(月) 08:51:10.98ID:19d8KIhq0
>>642
最終的にそのサイズになってればいいってことなら2倍のサイズで作って半分に縮小すればいいんだけど、そういうことではないよな……
2022/12/05(月) 12:58:01.48ID:Z3tq5VgW0
画素数を倍にしたいって意味だろ
方法は知らんけど
2022/12/05(月) 13:26:00.10ID:Sg0g0kcZa
くっそ劣化したjpgを同じ解像度のまま元の絵に復元したいという意味では?
無理だけど
2022/12/05(月) 14:09:48.45ID:2pIwpNNA0
i2iすれば?

>>630
--device でcudaデバイスのidは指定できるらしい
コマンドラインオプション一覧はたまに読むと発見がある
2022/12/05(月) 14:13:38.36ID:9iTb0kL70
アプコンの話?他のアプリ使えばできるっちゃできるよ

ソース
https://suishoshizuku.com/images/twitter_icon_taisho.jpg

madVR + MPC-BEのシェーダーでアプコン
https://i.imgur.com/KRROgDu.jpg

ノイズ除去も一応できる

ノイズ有り
https://i.imgur.com/4OV9yAB.jpg

ノイズ除去後
https://i.imgur.com/iG4fz5m.jpg

これ本来動画再生に使う物だから
モニタの解像度を超えて出力できないのが問題

詳しくはここで
https://egg.5ch.net/test/read.cgi/software/1622529336/
2022/12/05(月) 14:24:31.18ID:GK7r0f+J0
Upscaylをここでも推すわ
2022/12/05(月) 15:45:48.82ID:oDHW4Q8a0
prunedってどういうことなんやろね
2022/12/05(月) 16:25:46.01ID:KfS/LOyH0
>>653
プルンプル~ンってことだよ
ようはおっぱいだね
あと、『無駄な部分を削ぎ落した』 という意味でもあるよ
プルンプルンのおっぱいなのに無駄がないって素敵だよね
2022/12/05(月) 16:39:01.44ID:ADI2tp0q0
pruningと呼ばれる軽量化が施されたもの
重みを一部除去して推論を簡素化しつつ類似した結果を得られるようにする
pruning前後で全く同じ結果が得られる訳ではないが
できるだけ誤差を減らすために多くの論文が発表されている
openvinoで使うonnxファイルへの変換でも使われていた
2022/12/05(月) 16:40:56.51ID:Sg0g0kcZa
へー
2022/12/05(月) 16:45:18.07ID:Yqlpr/pT0
>>653
AI学習モデルのpruningとは、学習済みのモデルから不要な重みや層を削除することを指します。
モデルのpruningを行うことで、モデルのサイズが小さくなり、推論時の計算量が減少します。また、pruningによって、モデルの収束が早くなり、学習の効率が向上することがあります。
pruningは、学習済みのモデルをもとに行います。そのため、pruningを行う前には、モデルを学習させる必要があります。また、pruningの適用範囲や削除する量を適切に決定する必要があります。
pruningは、深層学習のモデルでよく用いられる手法です。モデルを小さくしたり、学習の効率を向上させるために利用されます。

ってChatGPTが言ってた
2022/12/05(月) 16:48:01.26ID:GK7r0f+J0
尤もらしいが正確性は眉唾すぎるw
2022/12/05(月) 16:53:37.51ID:DTZ7ARgsa
ChatGPTww
SDだとチェックポイントファイルに学習に必要なデータ(画像生成には不要なデータ)も含まれてるからそれを削除するってだけだな
2022/12/05(月) 17:01:38.95ID:g8eLROKM0
ChatGPTはそれでいいんだがSDだと削った情報にある程度必要な人もいるわけで
fp16/32,pruned,pruned-emaonly,無印,full,full-emaと千差万別あって生成結果は大きくずれなくてもそれなりに変化する
学習方法によってその選択もまた変わるという
さらに別条件でデータカットされたモデルをマージして学習元にしようとか奇々怪々な世界になってる
2022/12/05(月) 17:09:30.23ID:Sg0g0kcZa
まあ生成時はprunedでいいって言うのは間違いない
2022/12/05(月) 17:35:35.70ID:KfS/LOyH0
そうだね、おっぱいだね
2022/12/05(月) 18:09:10.31ID:0RSi1VUa0
おっぱい小さくしつつちちくび大きくしたい
2022/12/05(月) 19:17:05.82ID:Z3tq5VgW0
chargptは面白いけど
追加学習できなきゃ使い道ないよ
有料プランはいつになるの?
2022/12/05(月) 19:20:21.99ID:Mp90nLkxr
>>654
2022/12/05(月) 20:14:48.47ID:2NFWIrQ8M
>>654
おっぱいに無駄があるなんてのはまやかし
夢が詰まってんだからな
667名無しさん@お腹いっぱい。 (ワッチョイ c2e6-io8I)
垢版 |
2022/12/05(月) 23:38:10.88ID:VPZ4Kuht0
macもネイティブ対応なんだね
Colab使わずにできるのが楽しみ
2022/12/05(月) 23:57:37.05ID:Bgv4fQ7sa
NKMDでi2iしようとしたんだけど何故か元の画像がそのまま出力されるんだが原因がわかる人いない?
ちゃんとinfluenceの値も設定して画像に沿ったプロンプトも入れてるのに全然反映されなくて困ってる
2022/12/06(火) 00:02:22.89ID:CgVyxU+o0
NMKDを捨てるという解決策
2022/12/06(火) 01:26:02.74ID:KdRu5GeSM
流石に1111に乗り換えよう
2022/12/06(火) 03:23:40.17ID:oxVwO6g40
>>668
俺もNMKDから乗り換えた派なんだけど1111の方が滅茶苦茶良いよ
作れるキャラの幅が一気に広がった上にサクサク作業できる
便利な機能も多過ぎて使っているだけでも楽しいよ
2022/12/06(火) 07:14:21.17ID:QaeGquTE0
あとはInvokeAIのキャンバスみたいな機能が
1111にも来て欲しいな
2022/12/06(火) 08:28:20.67ID:MMnzFzOP0
今はというか、もうInvokeAIはChatGPT並みにエロ禁だからちょっと面倒なんだよな
2022/12/06(火) 08:31:53.17ID:y6WJo6O3a
なんで初期インストールの時にnsfwチェック拒否らなかったん?
2022/12/06(火) 08:32:57.84ID:y6WJo6O3a
ユーザーフォルダに.invokeaiファイルがあるからそれ編集すればいいみたいなことnsfwチェッカーが反応しても出たと思う
2022/12/06(火) 09:12:31.18ID:+brISm3kd
そのいんぐりもんぐりってのはなんじゃろかい
2022/12/06(火) 10:32:32.07ID:eCSlfg1xd
真ん中にキャラだけ置いてる透過画像から背景を作るのって出来る?

それっぽい背景はっつけてi2iしたほうがいいのかな
2022/12/06(火) 11:13:27.05ID:OH78SXdDM
>>677
なんぞ背景だけ描くプロンプトで出したのに透過画像を貼り付ければいいのでは?
2022/12/06(火) 11:31:57.46ID:eCSlfg1xd
>>678
角度?パース?がキャラに合うように出力できなそうだなって思って
2022/12/06(火) 12:07:36.00ID:GQVtRzkT0
ちょっと試したけどパースはインペイントで背景消して描きなおしても人物に合わせてパースも参照されてるみたいや
不思議やねw
2022/12/06(火) 12:10:37.50ID:+brISm3kd
いい感じにアレンジしてくれるのかしら
2022/12/06(火) 12:15:08.48ID:y6WJo6O3a
multi-subject rendererみたいなスクリプトなかったっけ
2022/12/06(火) 12:18:39.15ID:rC8PZS/80
そのキャラを黒くしたマスク画像作って、inpaintでマスクのアップロードしたらいいのでは
2022/12/06(火) 14:48:58.56ID:jYnJfpmZd
Any v3.0使うときはvae入れないと色が淡くなるってのは分かったんだけど、Any v3.0と他のモデルを7:3くらいでマージしたときもvae入れないと色が淡くなるんですか?
マージモデル使ったらやけに色が淡くなっちゃって
その時ってマージされたモデルのvaeはAny v3.0と同じvaeファイルをコピーして新モデルのファイル名に書き換えただけのやつでいいんでしょうか?
2022/12/06(火) 14:51:29.94ID:h7w2K1mBa
自分は応急手当的にそれで問題なさそうだったからそうしてる
でもなぜそれで上手くいくのか
なぜAny:ほかのモデル=0.1:0.9とか0.7:0.3で淡くなり方は違うのにvae適用でどれも同じくらい彩度持ち上がるのかとか
そういうのは理解してない
だからvaeは発見次第落として選択肢にしてる
2022/12/06(火) 17:35:25.63ID:K/bc3+sO0
1111使ってるから設定でAnyのやつに固定してるわ
モデルごとに準備しなくていいから楽だなと
原理は俺も理解してない
2022/12/06(火) 17:41:29.60ID:eCSlfg1xd
>>680
マジかすげぇ
2022/12/06(火) 18:22:16.59ID:jYnJfpmZd
理屈は分からないけどとりあえずAnyのvae使っとけばいい感じなんですね、ありがとうございます
2022/12/06(火) 18:44:38.15ID:+vo4LHGA0
>>652
これ使ってみたけどめっちゃいいわありがとう
2022/12/06(火) 20:31:31.73ID:sDYyXkjk0
なるほど、見映えのvaeということか
2022/12/06(火) 21:09:06.36ID:TrpIOPPL0
Any3の画風でnsfwするには、naiと3:7でマージするのがいいって聞いたんだけどうまくいかない…間違った情報かな?
2022/12/06(火) 21:16:59.84ID:I+ZJ9VY10
なんか更新したらHypernetworkの学習できなくなった?
2022/12/06(火) 21:42:02.58ID:h7w2K1mBa
いつものこと
動いてたSHA256とってcheckout
2022/12/06(火) 22:28:18.35ID:3JFob8cN0
>>691
その情報の所に行って正しいやり方聞いた穂がいいと思うけどな
本当に間違ってるかもしれないし、その人が言ってることが理解できてないだけなのかもしれないし
2022/12/06(火) 23:18:25.00ID:tXtpXv5k0
SD2.0のFineTuneモデル来た
https://huggingface.co/nitrosocke/redshift-diffusion-768

少し試してみたけどグニョグニョの奇形になるのは変わらんね
https://i.imgur.com/irFaVmg.jpg
https://i.imgur.com/WUWufi6.jpg
2022/12/07(水) 00:12:38.63ID:QBo/jucC0
目がこわい
2022/12/07(水) 00:27:40.81ID:boIb8gxA0
一枚目の方向性好き
写実と漫画の融合を突き詰めてえちえちコスプレイヤー絵を量産してほしい
2022/12/07(水) 00:37:34.23ID:HRazAn7qa
わいも2.5次元目指してるけどこれはきもさが勝つ
2022/12/07(水) 00:39:13.87ID:Nzy9oCd00
2枚目のうにょうにょ感も頭身下げればコミカルでいいかもしれないけど
多分chibiにするとそれはそれで崩れるんだろうな
2022/12/07(水) 01:28:39.88ID:ESgqaW+r0
>>695
kawaiiと3をネガティブプロンプトに入れるとキモさは減るかも
2022/12/07(水) 01:29:04.82ID:ESgqaW+r0
3D
2022/12/07(水) 06:43:47.18ID:Mv3jCvTP0
確定でアニメ塗りで出力されるモデルかプロンプトないですかね
2022/12/07(水) 06:54:22.64ID:syYgb19e0
>>695
ぬうう、ある意味質感が上がってるが…
イラスト系のクリーンモデルって難しいのかな
2022/12/07(水) 10:00:59.43ID:DmTGftkf0
https://huggingface.co/nitrosocke/redshift-diffusion-768
男が出てこない…どうするん?と思ったけど
https://i.imgur.com/ZzDpXhJ.jpg
https://i.imgur.com/uoIpwRX.jpg
黒人問題も解消してるし
https://i.imgur.com/4rtdUOO.jpg
https://i.imgur.com/LWxPnYq.jpg
セクシー表現もできるし
https://i.imgur.com/N6JOsgZ.jpg
リアリスティックも有効だし、SD2.0リリース時よりはだいぶ明るい未来が…
https://i.imgur.com/EHcZRyi.jpg
https://i.imgur.com/GLGWEeT.jpg
テスト生成にcolab用意されてるのは気が楽でいいな
2022/12/07(水) 11:57:27.23ID:e0bYM8SVa
novelAIでi2iしたら必ず水墨画みたいに線が太くなるんですか設定とかの問題ですか?
マスピ絵で出力したいのに…
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。