X



【StableDiffusion】AI画像生成技術8【Midjourney】

■ このスレッドは過去ログ倉庫に格納されています
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
2022/10/14(金) 14:01:11.39ID:XNOQ4Zh8
>>512
メモリ不足の可能性がある
出力画像の解像度を下げて出力できるか試してみるといい
2022/10/14(金) 14:01:34.47ID:AcwfJ4Wh
DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
2022/10/14(金) 14:04:52.95ID:ARTDPbZp
>>513
1660ti

>>514
なるほど!DDR4で16Gしかないからかもしれん
試してみる

ありがとう
2022/10/14(金) 14:07:40.90ID:QeGD8Cwp
まあ、あとは念のためにpromptにNSFWをどっかに突っ込んでおくかな。あくまでもオマケ的に
2022/10/14(金) 14:08:10.45ID:ARTDPbZp
64×64まで下げたけどだめだった
2022/10/14(金) 14:11:10.58ID:nYV2BrHh
コマンドラインに何かエラーメッセージは出てないの
2022/10/14(金) 14:11:58.16ID:ALilA1k2
>>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention

NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ
2022/10/14(金) 14:47:26.99ID:30QwPrZZ
横からごめん
--opt-split-attentionって知らなかったんだけどどんな効果のオプションなの?
2022/10/14(金) 14:48:43.94ID:AmgEVVUS
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations
2022/10/14(金) 15:21:47.00ID:30QwPrZZ
あんまり更新おってないからしらなかった

あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
https://i.imgur.com/z2XJYaV.png
2022/10/14(金) 15:28:02.89ID:T/ePtpFR
hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな
2022/10/14(金) 15:46:03.56ID:K5lHcCjq
アンダーフィッティング気味のpt使うと薄く効く気がする
2022/10/14(金) 15:48:44.98ID:ALilA1k2
だめやったんやろか…
2022/10/14(金) 16:01:42.39ID:dLPWtPAo
>>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし
528名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:02:35.83ID:ARTDPbZp
>>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな?
2022/10/14(金) 16:05:37.99ID:J8eb4dyA
インストールどころか場所ごと新しく作り直してゼロからやったら上手くいったことあるわ
2022/10/14(金) 16:33:20.52ID:OMLW7wgc
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
2022/10/14(金) 16:52:03.02ID:40bMpPm9
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
532名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:54:51.68ID:ARTDPbZp
>>530
なるほど〜
4090欲しくなりました
533名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:40:10.57ID:ARTDPbZp
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
2022/10/14(金) 17:45:35.52ID:QeGD8Cwp
連続生成って? バッチカウントとは別の?
2022/10/14(金) 17:49:29.32ID:nKgTqKnx
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
2022/10/14(金) 18:12:33.01ID:6Dz0i5Q9
Generateボタン右クリしてGenerat Forever
537名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:14:01.63ID:AvuLwezm
>>533
https://gigazine.net/news/20220909-automatic1111-stable-diffusion-webui-prompt-matrix/
538名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:15:21.42ID:XnPXne0y
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
2022/10/14(金) 18:26:49.65ID:YLsjtjlH
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
2022/10/14(金) 18:29:21.53ID:FMOFHk9F
>>539
わからん
同じ枚数に対して50でも200でも違いがわからん
2022/10/14(金) 18:37:37.83ID:OMLW7wgc
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い

もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
2022/10/14(金) 18:42:40.37ID:aUor17yO
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
2022/10/14(金) 18:43:27.15ID:aUor17yO
誤爆、誤爆でもないけど
2022/10/14(金) 18:48:27.44ID:bNwczKpA
そのうちAI絵師同士が殴り合うことになるのでは
545名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:50:31.38ID:ARTDPbZp
>>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww

バッチカウントってどこで変えれるの?
546名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:52:16.22ID:ARTDPbZp
ああ見つけたわw
バッチサイズの横にあった
2022/10/14(金) 18:52:20.38ID:QeGD8Cwp
CFGスケールの上のバー
2022/10/14(金) 18:55:35.26ID:AmgEVVUS
NAIモデルで二次元キャラを三次元に変換するの楽しい
549名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:56:33.69ID:XnPXne0y
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
2022/10/14(金) 19:01:42.64ID:I4aoRgos
>>549
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね
551名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 19:05:51.91ID:XnPXne0y
>>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
2022/10/14(金) 19:30:34.74ID:K1vetAlc
チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw
2022/10/14(金) 20:05:12.49ID:FMOFHk9F
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
2022/10/14(金) 20:56:55.52ID:Jz1slLtt
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
2022/10/14(金) 21:00:26.00ID:XjikJorg
>>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
2022/10/14(金) 21:27:50.14ID:lpWZ4Hlp
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
2022/10/14(金) 22:34:27.60ID:dLPWtPAo
>>556
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ttps://note.com/uunin/n/n725ae4601264
2022/10/14(金) 22:45:00.85ID:lpWZ4Hlp
>>557
おう!ありがとよ!(導入するとは言ってない)
2022/10/14(金) 22:54:14.21ID:ntrMQ3UX
2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった
2022/10/14(金) 22:58:33.12ID:K5lHcCjq
NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな
2022/10/14(金) 23:03:07.13ID:C/gau9np
すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか?
562名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:15:04.53ID:AcwfJ4Wh
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ

でもトレにめちゃ時間かかるし課金するか悩むなぁ
2022/10/14(金) 23:27:27.86ID:IZHJbIbx
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
2022/10/14(金) 23:28:15.28ID:Ia8ZvkTj
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
2022/10/14(金) 23:28:21.31ID:ARTDPbZp
waifuじゃnovelAIみたいなエロ画像出すのは無理?
2022/10/14(金) 23:30:02.18ID:I4aoRgos
>>565
普通にいける
>>563
ネガティブに 白黒っていれてみた?
567名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:38:30.80ID:AcwfJ4Wh
ごめんDBstablediffusion のが爆速だった
2022/10/14(金) 23:38:30.92ID:ARTDPbZp
>>565
マジかぁ
精進するわ

pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ
2022/10/14(金) 23:53:13.74ID:+g+H2Nl6
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
2022/10/15(土) 00:00:15.59ID:NIfsDDC5
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
2022/10/15(土) 00:28:30.86ID:cVyIiDx3
>>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
2022/10/15(土) 00:28:52.89ID:MA6pT5cu
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
2022/10/15(土) 00:32:54.52ID:MA6pT5cu
いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人
2022/10/15(土) 00:54:36.35ID:kphj/9u/
>>568
リクエストはいくつか出てるようだけどまだ実装はされてない模様
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1621
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues?q=is%3Aissue+multi+gpu+is%3Aclosed

GPU指定とport番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはできるかも?
2022/10/15(土) 01:14:10.59ID:AikKaOMk
>>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size

サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
2022/10/15(土) 01:31:58.84ID:MA6pT5cu
>>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね

具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた

WSL2のDockerに入れたから細かいところが違うのかなぁ
2022/10/15(土) 01:45:05.20ID:AikKaOMk
>>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる

詳しい人の降臨待ちっすね
2022/10/15(土) 02:03:46.69ID:TmM0Ta1u
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
579名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:16:57.29ID:S/D1EGiC
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
2022/10/15(土) 03:45:25.60ID:L+3ToJT9
>>579
俺はvenv消して実行し直したら治った
581名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 03:51:53.16ID:uMZtKJRm
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
2022/10/15(土) 04:02:26.09ID:NIfsDDC5
>>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
2022/10/15(土) 04:19:01.82ID:5rScqju3
履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう
584名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:22:07.54ID:uMZtKJRm
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G

AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")

RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。

結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
2022/10/15(土) 09:25:54.15ID:7nZ34vzV
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな

なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
2022/10/15(土) 09:29:09.45ID:uMZtKJRm
>>584
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん
2022/10/15(土) 09:31:05.90ID:SRcrgA/b
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
2022/10/15(土) 09:35:18.22ID:bfq41/Ms
1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる……
2022/10/15(土) 09:36:43.82ID:kphj/9u/
COMMANDLINE_ARGS(コマンドライン引数)まとめ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Run-with-Custom-Parameters

ソースを読んだ方が完璧に把握できるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/shared.py
590名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:39:58.53ID:uMZtKJRm
>>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
2022/10/15(土) 09:46:26.92ID:uMZtKJRm
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
592名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:53:49.69ID:osFtr3lr
面白いなこれ
回転するフィギュアを動画で撮って全コマAIでimg2img
https://twitter.com/toyxyz3/status/1581039517112602624?s=46&t=qtABZ33710o14Nfouqn8Ew
https://twitter.com/5chan_nel (5ch newer account)
2022/10/15(土) 09:59:19.21ID:cETgTEzp
顔が全部カメラ目線
やはりカメラ目線は重要ということか
594名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:01:30.70ID:e+jJnNMA
アニメーションの自動生成はそんなに遠くないんだろうなって感じる
2022/10/15(土) 10:18:12.19ID:8pgYproy
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった

よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
2022/10/15(土) 10:51:43.76ID:AikKaOMk
>>595
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
https://youtu.be/YF3MtNuX_F0
2022/10/15(土) 11:02:32.50ID:8pgYproy
>>596
ほーん

配置が修正されるのかと思ったら
解像度が上って美肌される感じか
598名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:03:54.95ID:uMZtKJRm
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。

GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
2022/10/15(土) 11:06:59.56ID:bfq41/Ms
ちゃんとレイヤーステップ2になっとるけ?
2022/10/15(土) 11:13:20.62ID:AikKaOMk
>>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
2022/10/15(土) 11:26:25.32ID:mbp63UAw
>>598
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから
602名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:38:12.22ID:uMZtKJRm
>>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。

settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337

*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590

Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
2022/10/15(土) 11:40:04.74ID:bfq41/Ms
vae通ってないんじゃ?
604名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:44:19.45ID:uMZtKJRm
>>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。

…ネカフェのPCで…だめか。
2022/10/15(土) 11:48:09.45ID:Kwyzi7uJ
ネカフェのPCなら
3060位積んでるんじゃね
2022/10/15(土) 11:48:59.10ID:7nZ34vzV
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
2022/10/15(土) 11:51:04.13ID:Ntrq5HZ9
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
2022/10/15(土) 11:54:45.21ID:bfq41/Ms
その条件なら8枚で23秒かな。3070ti
2022/10/15(土) 11:56:06.76ID:bfq41/Ms
ああ、ごめんステップ見間違えてた。150stepなら19秒だわ
2022/10/15(土) 12:02:01.69ID:KScbvafB
>>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
2022/10/15(土) 12:12:08.50ID:JcgiPC8b
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
612名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:14:41.26ID:uMZtKJRm
>>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。

>>603
なんやそれ

>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
2022/10/15(土) 12:16:36.84ID:mbp63UAw
>>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況