X



【StableDiffusion】AI画像生成技術8【Midjourney】

■ このスレッドは過去ログ倉庫に格納されています
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
2022/10/16(日) 18:03:32.09ID:ZnhcANsj
>>786
>>787
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな

ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる
2022/10/16(日) 18:04:34.37ID:BIra5d23
ついに俺のGTX1080のフルパワーを発揮するときが来たと思ったけど
メモリが足りなくて泣いた
790名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:06:03.17ID:kWLs9UQI
hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?
2022/10/16(日) 18:08:03.30ID:xGrXXdLo
>>785
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ
2022/10/16(日) 18:25:15.07ID:ejt6P45d
1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり
2022/10/16(日) 18:25:33.47ID:ejt6P45d
>>792
スレッド
https://www.reddit.com/r/StableDiffusion/comments/y56qb9/security_warning_do_not_use_share_in
2022/10/16(日) 18:25:57.43ID:+U5N+6KE
diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど
2022/10/16(日) 18:33:02.39ID:ejt6P45d
誤記:shareオプションだ
2022/10/16(日) 18:38:34.37ID:+U5N+6KE
任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
2022/10/16(日) 18:43:45.45ID:VAYJsdng
AIくん手や足が苦手なのはhypernetworkやDream boothで追加学習させれば解決出来る?
2022/10/16(日) 18:45:26.99ID:HJvyOLCz
ローカルマンは起動時のlunch=trueになってなければ大丈夫
2022/10/16(日) 19:09:03.38ID:k2SMXVws
勝手に変態スケベ画像作られちゃう!?
2022/10/16(日) 19:14:21.38ID:c/X3WEwH
ウェブカメラ起動されて顔写真撮られまくって自分のエロ画像生成された挙げ句拡散されるぞ
2022/10/16(日) 19:23:11.79ID:B9hWP+Us
中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。
2022/10/16(日) 19:32:43.44ID:B9hWP+Us
さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
803名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:34:23.17ID:7rdeF0oE
novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?
2022/10/16(日) 19:34:47.16ID:I8bATd7d
AUTOMATIC1111Colab版だとshareってのが必要なのか
2022/10/16(日) 19:57:12.56ID:J6rT9g9/
ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう
2022/10/16(日) 21:06:33.73ID:B9hWP+Us
新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。

原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。

順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?

うーん
2022/10/16(日) 21:15:38.49ID:B9hWP+Us
多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな
2022/10/16(日) 21:16:35.23ID:7Ekig07N
とりあえずgitクローンからやり直しせばなおる
2022/10/16(日) 21:21:10.29ID:B9hWP+Us
変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ
2022/10/16(日) 21:24:42.43ID:7DUNBWh6
俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…

この辺の正しい使い方あると嬉しいんだけどな

dreamboothってのがいるんかなあ
2022/10/16(日) 21:26:45.64ID:Zee6dncT
手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし
2022/10/16(日) 21:30:28.08ID:7DUNBWh6
出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど

アクセサリーとかエロネタ系だったり
2022/10/16(日) 21:30:49.44ID:7Xgmo+75
colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m

35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。

Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571

(中略)

以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。
2022/10/16(日) 21:34:24.68ID:XnlSfyrV
質問するようなレベルならやめるべき
2022/10/16(日) 21:37:37.00ID:1j9gK3ok
前からパスかけずに--share使うなって言われてんのに使ってる奴居るのか
2022/10/16(日) 21:40:09.26ID:7+6NBw4t
>>809
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。
2022/10/16(日) 21:43:02.80ID:J6rT9g9/
ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。
2022/10/16(日) 21:43:38.36ID:k6J7VrR6
>>>792
Ngrok経由なら大丈夫ということでしょうか?
2022/10/16(日) 21:45:36.39ID:+ZwawC2e
>>812
それはinpaintしかないんじゃないかな
2022/10/16(日) 22:19:07.67ID:7DUNBWh6
>>819
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?

新しくは書き込めなかったよね…?
2022/10/16(日) 22:21:17.88ID:J6rT9g9/
書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる
2022/10/16(日) 22:52:25.29ID:7DUNBWh6
>>821
なるありがとう。
2022/10/16(日) 22:53:20.63ID:XIiZzwz/
>>777
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ

でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない
2022/10/16(日) 22:58:38.91ID:s5IGHlcL
機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ
825名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:11:58.25ID:1Get5kDd
>>818
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと
2022/10/16(日) 23:14:58.39ID:+U5N+6KE
グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう

このままだとMacはスタバでドヤるためだけのパソコンになるだろうな
2022/10/16(日) 23:16:25.47ID:1Get5kDd
>>780
>>823

さんきゅー。とりあえずしばらく待ったら復活した。
無料だとトレーニングはなかなか難しいかもねー
2022/10/16(日) 23:44:22.73ID:wopiNjdt
xformers有効でたまに真っ黒の出るんだけどおま環?
2022/10/16(日) 23:53:47.82ID:rT5G0VDH
>>828
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね
2022/10/16(日) 23:58:33.82ID:2YaNlGqE
>>824
機械学習は今も昔もpython一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ
2022/10/16(日) 23:59:12.45ID:Yg7Hg+zN
shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい?
2022/10/17(月) 00:03:18.16ID:gWeiQ26A
>>831
(ローカルではない)publicなリンクを作るためには'share=True'にしろよ、って言ってるだけだ。
2022/10/17(月) 00:09:09.14ID:U7+CHkNh
colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい
2022/10/17(月) 00:16:30.99ID:WG4Oke8l
xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない
2022/10/17(月) 00:19:15.31ID:gWeiQ26A
launch.py見た感じ、今も--xformersオプション付けなければインストールされないのでは?
2022/10/17(月) 01:34:50.34ID:alDmjM1O
xformersのビルドパラメーター変えたら動くようになった
そもそも入ってなかったのかも
837名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 02:09:11.72ID:/Z66lPo9
というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい
2022/10/17(月) 07:16:13.77ID:iZ/UdLjt
絵柄を統一するにはどうしたらいいんだ?
839名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 07:49:48.10ID:2m3hygkV
>>837
3000以降でなくて?
2022/10/17(月) 07:54:00.36ID:nQGEYwDS
Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか
2022/10/17(月) 08:07:27.14ID:d2XyZlWc
>>813
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという
2022/10/17(月) 08:48:45.02ID:OdjOHVZz
絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で
2022/10/17(月) 08:52:52.10ID:fu4E24m1
>>840
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う
844名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 09:07:03.32ID:d2XyZlWc
すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。
2022/10/17(月) 10:32:25.54ID:mndmJmmd
自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった
2022/10/17(月) 10:36:14.41ID:nQGEYwDS
>>843
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか
2022/10/17(月) 10:36:57.29ID:mndmJmmd
そして書くスレ間違えた…
いやまあ大きく外れてはいないけど
2022/10/17(月) 10:40:03.05ID:ULNZXAxL
帽子とか被らないようにしたい場合はどんな呪文を入れればいいのか教えてください
2022/10/17(月) 10:55:02.80ID:2JeR298Q
negative promptに帽子いれたら?
2022/10/17(月) 10:56:22.48ID:/4GmzdgE
Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな?
2022/10/17(月) 10:57:10.16ID:FjkRtqVh
xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね
2022/10/17(月) 11:01:58.50ID:rgXlaQs+
SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
2022/10/17(月) 11:29:12.21ID:fu4E24m1
>>852
謎なんだけど、NMKDで剪定しちゃえば同じ生成してくれる2GBのモデルは作れる
2022/10/17(月) 11:37:04.40ID:d+usOTfa
追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?
2022/10/17(月) 11:56:25.35ID:rgXlaQs+
>>853
prune済みfp16でも小さくなるって事?
どうやればいいの?NMKD使った事なくてよく分からん
2022/10/17(月) 11:58:33.91ID:nQGEYwDS
hypernetworkのトレーング方法ようやく要領が掴めてきた
Tiよりは大分いいな
2022/10/17(月) 11:58:57.02ID:x0GhWPSO
学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?

https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する

ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?
2022/10/17(月) 12:07:51.66ID:PEU3gbWs
>>852
pruneスクリプトが9/28以降おかしいからじゃね
作者は新しいの使ってるみたいだけどそれだとprune前後で出力内容が変わる
https://github.com/harubaru/waifu-diffusion/commits/main/scripts/prune.py
2022/10/17(月) 12:33:04.82ID:fu4E24m1
>>855
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない

使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.

で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
2022/10/17(月) 12:45:13.44ID:rgXlaQs+
>>858.859
ありがとう、どちらも試してみるわ
2022/10/17(月) 12:53:25.46ID:nQGEYwDS
Hypernetworkでdreamboothみたいに少ない枚数で学習したい
流石に5-6枚では無理か?
2022/10/17(月) 13:04:46.79ID:s3d8QjiO
ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで

bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"

を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518

あとは、run_webui_mac.shを実行するだけ

ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh

104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす
2022/10/17(月) 13:46:44.99ID:TZxRUe++
auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった

モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな
2022/10/17(月) 14:30:32.55ID:zoSlJeQX
NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど
865名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:09:32.24ID:Y2AMcOHu
TrinArt旧キャラクターモデルがオープンソース化

https://twitter.com/naclbbr/status/1581876642200244224?s=46&t=Y8rt7gPiC2mM-zVcHKTPiA
https://twitter.com/5chan_nel (5ch newer account)
2022/10/17(月) 15:20:18.77ID:2kKXaQLK
当たり前のようにVAEをかます手法になってきたなw
2022/10/17(月) 15:31:48.42ID:nQGEYwDS
hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる
2022/10/17(月) 15:33:18.61ID:hP+5piYT
>>857
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど
2022/10/17(月) 16:05:42.43ID:n2Bxn8NT
>>865
405MBしかないautoencoder_kl-f8-trinart_characters.ckptはどう使うものなのかな
2022/10/17(月) 16:08:23.94ID:2kKXaQLK
>>869
vaeだろう? waifuと同じ感じの
ファイル名も同系列だし
871名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:09:56.53ID:4sACRINh
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
2022/10/17(月) 16:13:30.61ID:nQGEYwDS
そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ
874名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
2022/10/17(月) 16:16:33.01ID:n2Bxn8NT
>>870
models\Stable-diffusion に入れればいいんですか?
876名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:17:06.46ID:4sACRINh
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
2022/10/17(月) 16:37:00.08ID:l1DjdfDd
>>844
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
2022/10/17(月) 17:02:14.80ID:+Pf/s7hV
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん

waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
2022/10/17(月) 17:08:04.28ID:d+usOTfa
1.3はちょっとガッカリでしたね
2022/10/17(月) 17:17:36.70ID:mndmJmmd
アウロリ製造目的でもないならdreamboothはcolabでよくね
2022/10/17(月) 17:19:54.66ID:wYyHAuYq
冷静な指摘THX
2022/10/17(月) 17:30:32.51ID:jzVVkhF8
>>857
Hypernetwork解説してるのこれかなー。ちゃんと見てないけど
https://www.youtube.com/watch?v=1mEggRgRgfg
885名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:35:35.74ID:PG7EuW3q
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
2022/10/17(月) 17:39:26.96ID:jzVVkhF8
>>870
すまん、vaeについていけてない。どう使えばいいの?
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況