X



【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
0002名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 17:03:55.87ID:+XD7dv7a
各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう
0006名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:01:02.05ID:gscUMfzz
WaifuDiffusion 1.4 現在の進捗

https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。

で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。
0010名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:12:22.34ID:1bDnmn14
batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな
0011名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:13:15.43ID:EMyATYCl
調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな
0012名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:20:42.51ID:fzcab7+d
1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし
0013名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:23:26.75ID:tixPEkND
>>1
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる
0014名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:35:07.53ID:vrG9EP2J
NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?
0015名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:36:28.67ID:+Ij4h03E
例のまとめ(一部修正)

Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce

Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce

Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=

set COMMANDLINE_ARGS=--xformers

比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg

比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2
0016名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:45:03.32ID:gscUMfzz
Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1

promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。

1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。
0017名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:45:14.46ID:h4X7qE9c
素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね?
0018名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:58:04.09ID:vrG9EP2J
いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし
0020名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:03:43.02ID:ynEZ5O3d
Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?

つかオープンソースでBANなんて出来るの?
0021名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:09:33.72ID:+RuPmzAv
>>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ
0022名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:10:33.89ID:lHTtdA8q
>>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ
0023名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:11:43.95ID:Jaszf78g
>>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係

という感じのはず
0024名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:15:46.51ID:lHTtdA8q
>>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ
0028名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:40:13.92ID:qLVZxWBM
>>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?

あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい
0029名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:41:58.69ID:+RuPmzAv
>>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる

つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな
0030名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:42:52.11ID:ynEZ5O3d
>>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます
0031名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:43:36.36ID:4E2s8WMB
>>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも

nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね
0032名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:49:04.54ID:ynEZ5O3d
>>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版?
0033名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:54:06.56ID:+VC1PwwK
>>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ
0035名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:05:19.38ID:r/AtNiCe
>>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる
0036名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:05:28.82ID:qLVZxWBM
>>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる

ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/
0038名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:16:45.81ID:pWFrk5Hs
>>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok?
0040名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:45:45.53ID:fzcab7+d
>>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし
0041名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:49:34.11ID:ynEZ5O3d
>>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな

コンパイルとか言われてもぷよぷよしか思い浮かばん
0044名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:52:11.96ID:NG0XU+CV
NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし
0045名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:58:56.03ID:/GYn74uZ
Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる?
0046名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:00:36.95ID:fzcab7+d
>>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな
0047名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:01:53.73ID:jDYsbSI7
NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが

それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう
0049名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:05:50.33ID:4HCwQqWR
>>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね
0052名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:25:04.61ID:5d7Si+yR
>>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない
0056名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:54:09.56ID:Jaszf78g
>>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ
0057名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:54:54.47ID:fzcab7+d
>>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ
0058名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:56:15.23ID:5d7Si+yR
>>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい
0062名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:03:43.36ID:yYW88ItN
>>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??
0065名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:11:22.22ID:eaFbeTfF
>>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない
0067名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:17:40.59ID:4E2s8WMB
こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな
0070名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:24:27.90ID:gscUMfzz
NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。
0072名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:33:00.08ID:jDYsbSI7
>>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある

あと、どうやらpromptを勉強した方が良いから、とりあえず

https://lexica.art/ とか眺めて、真似しまくるんだ
0074名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:57:12.95ID:1bDnmn14
StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか...
0075名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:08:38.31ID:hyUB8XNU
automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが
0077名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:20:33.21ID:yYW88ItN
>>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな

俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png
0083名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:56:08.51ID:y6ZyfTo4
>>80
モデル切り替えタブいつついた?
0085名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 00:07:15.33ID:f1GMUS3e
同じseedで同じプロンプトの「ikemen boy」と「kawaii girl」を入れ替えただけの画像を並べて生成するの結構楽しいな
色合いの配置とかはほぼ同じで、解釈が少しずつ変わってくるのがわかる
https://i.imgur.com/g7sFVVV.jpg
https://i.imgur.com/jUrzj20.jpg
https://i.imgur.com/QFVjZaD.jpg
https://i.imgur.com/66sZ2SF.jpg
https://i.imgur.com/bucRrCo.jpg
0088名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 00:31:15.43ID:65nbRhCF
昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ
0090名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:05:48.50ID:Dj93+uNN
NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて
0091名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:11:08.80ID:R5mTwYJe
>>90
()でくくる
0093名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:14:40.57ID:tY8OtFws
強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい
0095名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 02:00:48.38ID:GghQiVQz
みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ
0097名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 02:50:32.48ID:NtZIb7O5
なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな
0099名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:02:42.24ID:B22SZBMX
1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから
0100名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:38:48.39ID:kbaweW5+
ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう
0101名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:55:08.51ID:iXYo6Vy0
もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの
0105名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 04:31:25.56ID:/K0g0820
おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw
0106名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 05:39:04.51ID:B22SZBMX
1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった…
0108名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:18:28.20ID:iXYo6Vy0
そこに出力されてる文を実行してもう一度pullしてできない?
0111名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:26:10.33ID:iXYo6Vy0
>>109
0114名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:41:52.90ID:m9QnEdXo
>>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった
0115名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:50:01.52ID:GUqR9G2b
諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか
0117名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:04:10.47ID:CZ9nqGeN
52だか50gだかあるデータは使えるんか?
0119名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:11:25.23ID:eheI2hbr
つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな?
0121名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:20:32.24ID:qgCnfGsM
>>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.

なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか?
0122名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:54:35.94ID:m9QnEdXo
NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで
0123名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 08:02:49.84ID:GUqR9G2b
>>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的
0125名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 08:59:44.98ID:nhKOmsix
お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。
0127名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:14:46.60ID:CZ9nqGeN
>>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど
0128名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:25:35.68ID:prFppl0I
開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。
0130名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:35:18.76ID:R5mTwYJe
NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん?
0132名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 10:04:52.36ID:IHfd6I9L
Euler aでもNAIエミュレート成功したのね
0133名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 10:38:55.42ID:m9QnEdXo
AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに
0135名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:36:49.92ID:UkKl3ah7
>>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う
0136名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:43:40.55ID:A1RFlDJ+
MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか?
0142名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 12:35:04.31ID:c2af8446
>>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう
0144名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:14:12.43ID:c2af8446
DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ
0149名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:21:01.31ID:GcJsTdiu
昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど
0150名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:24:49.44ID:nhKOmsix
1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利
0152名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:32:30.62ID:eiVrWGXv
そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ
0153名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:34:58.42ID:nhKOmsix
NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。
0156名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:04:13.70ID:2pAHsrFx
>>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが……
0158名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:09:15.23ID:rM2ZLnI2
>>155
貴重な情報ありがとう
0159名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:22:15.03ID:nhKOmsix
NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。
0160名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:27:22.78ID:B22SZBMX
AI周りの動きって全部金儲けのためにやってる事やで
0161名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:29:48.84ID:mWgLOeQI
昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな
0163名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:39:33.95ID:iXYo6Vy0
たまげたなぁ〜 ノベカスくんよぉ
0165名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:47:51.11ID:++hbjAhe
>>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ
0166名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:50:49.20ID:F5ILH/Iq
>>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな
0167名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:52:23.57ID:nhKOmsix
メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。

ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……
0168名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:54:22.98ID:RtwaYqst
>>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ

更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても

>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな
0170名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:57:07.33ID:nhKOmsix
3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。
0171名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:02:44.60ID:c2af8446
数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな
0173名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:09:57.68ID:2pAHsrFx
もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない
0175名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:14:41.68ID:mWgLOeQI
>>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました
0176名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:18:29.84ID:CZ9nqGeN
腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし

課金とかしたくねえ
0177名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:24:56.34ID:CZ9nqGeN
自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ
0180名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:30:42.03ID:CZ9nqGeN
というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)

fuck!!!!!!!
0185名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:57:43.41ID:CZ9nqGeN
エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない

終わる
オンラインでできるので遊ぶしかないのか
0188名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:05:16.84ID:CZ9nqGeN
もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた
0191名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:16:59.45ID:CZ9nqGeN
諦めきれん
ZLUDAてのを使って・・
だめか
0200名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:34:04.53ID:CZ9nqGeN
>>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある
0201名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:34:52.89ID:gMGAc8Wj
850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない?
0202名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:35:27.97ID:CZ9nqGeN
中華のがあるはずだが利用しているツイートがあまりない、ほぼない
0205名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:46:10.89ID:CZ9nqGeN
困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ

無料でエロを。
無料でエロをしたい
0206名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:47:38.56ID:ANbGNzr9
CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え
0208名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:54:11.93ID:CZ9nqGeN
>>206
年金まであと3日
我慢できないンゴねえ

>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能
0210名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:57:47.97ID:ANbGNzr9
>>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え
0212名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:00:23.36ID:CZ9nqGeN
せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ
0213名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:05:06.74ID:ANbGNzr9
>>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ
0215名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:17:19.65ID:VktYYArG
>>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。
0216名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:18:50.14ID:eheI2hbr
出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが
0217名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:25:56.91ID:mq6SWHcu
>>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い
0218名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:35:41.67ID:bQ/h7hWY
10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない

ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな?
0222名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:47:03.43ID:ZeUg+SCW
4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない

そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに
0225名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:50:41.61ID:iXYo6Vy0
>>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ?
0227名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:55:46.53ID:BBUpK2cF
グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090
0232名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:03:36.60ID:gMGAc8Wj
>>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ
0233名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:04:15.27ID:cYZxoNFI
3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目
0236名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:09:21.80ID:VWEX5mCS
あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど
0239名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:22:18.14ID:CZ9nqGeN
ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ
0240名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:27:35.39ID:WJDFfila
novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま
0246名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:47:21.76ID:xfwneuFr
>>240
マジでどこで言ってる?
0250名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:06.45ID:WJDFfila
emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ
0251名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:07.87ID:6YYv3EfZ
VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?
0252名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:57.02ID:6YYv3EfZ
そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。
0253名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:54:16.04ID:xfwneuFr
一旦流出するともうどうしようもないから、ばら撒くことにしたのかな

>>247
ありがとう。あいつらライセンス違反やってたのか。
0254名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:55:41.07ID:HsAWRd20
25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ
0255名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:56:14.64ID:29Udd4W/
これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな?
0256名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:57:17.34ID:WJDFfila
ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ
0257名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:59:11.54ID:6YYv3EfZ
>>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。
0258名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:08:34.55ID:+IYEg037
実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし
0260名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:12:36.88ID:29Udd4W/
いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな
0261名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:14:33.69ID:VWEX5mCS
>>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ
0262名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:22:16.80ID:c2af8446
https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答

なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。


アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな
0264名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:28:38.54ID:Y/+qAYDf
しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう
0267名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:25:52.28ID:6YYv3EfZ
なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる
0268名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:27:56.45ID:OKWzXzG8
画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」

あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる?
0270名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:43:22.14ID:m9QnEdXo
偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる
0272名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:01:09.93ID:oKx/eDyV
前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ
0273名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:10:32.94ID:nKKPAe0W
ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、
0277名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:20:28.18ID:Y4JtovpP
画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある
0278名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:21:50.31ID:GJPpDEKo
>>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う
0279名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:26:11.69ID:6YYv3EfZ
サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。
0282名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:47:08.22ID:NtZIb7O5
xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ
0284名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:54:06.88ID:j3ZHYBkl
img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ
0286名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:25:55.37ID:oKx/eDyV
>>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話
0288名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:40:18.59ID:euFxIGy0
1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ?
0289名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:44:04.26ID:SNYTfBwu
よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう
0290名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:46:31.55ID:GcJsTdiu
まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便
0293名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:33:12.32ID:oslN2U1X
正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな
0294名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:35:52.15ID:0zPfU5+P
フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど
0297名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:53:40.81ID:1En7iy57
音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い
0300名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:09:10.24ID:YjzIQUOi
1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや

もしかして1111版だとnswf表現できない?
0301名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:09:36.88ID:2ladUrgg
AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ
0302名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:11:26.82ID:oslN2U1X
>>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、
0303名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:11:29.17ID:0zPfU5+P
エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。
0305名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:15:23.50ID:0zPfU5+P
>>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし
0307名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:21:01.04ID:YjzIQUOi
>>303
入れてるんやがまんこ出んなー
だしたいなーまんこ

>>304
なにそれ詳しく
0308名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:29:00.71ID:2ladUrgg
>>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない

まあ9日の版で出せばいいんだけど
0309名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:55:37.33ID:oslN2U1X
TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが
0310名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 02:08:48.50ID:E8GzIrEy
トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ
0311名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 02:38:00.83ID:bnvw4Uul
NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが
0315名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 04:29:31.84ID:5fT70X24
>>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず
0318名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:27:23.67ID:pAhU5nv7
stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう
0319名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:30:14.69ID:zx+gyfL9
>>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される
0320名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:32:14.81ID:zx+gyfL9
>>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。
0321名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:39:21.03ID:C3DeDa5u
>>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい
0322名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 07:31:21.34ID:H5Zxeydq
webuiにhypernetworkのトレーニング機能来てるね
0325名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 08:41:48.87ID:Jtt7R8ot
画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが
0327名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 08:51:21.57ID:DEdMJn6N
1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった
0331名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 10:51:09.46ID:SYo62ZNQ
じきに皆慣れて反感も忘れ去られる

ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ
0332名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 11:17:23.41ID:ybfOmJmX
16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな
0333名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 11:31:12.60ID:fbQ+aX/K
70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う
0334名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 12:02:14.78ID:LxxZooPL
保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない…
0336名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 12:32:40.01ID:dOKrPM1J
web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない
0339名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 13:10:52.21ID:oslN2U1X
fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ
0341名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 13:40:48.98ID:pFAZCdQL
4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな
0342名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:01:23.33ID:2H018u9e
数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる
0344名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:50:02.74ID:/0Qg67th
pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか
0345名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:52:11.47ID:9og32tKs
AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ

これでどれぐらい安定していくのかちょっと見てみたい
0346名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:19:20.03ID:ybfOmJmX
dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく…
0347名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:20:31.71ID:pyeOGgSk
dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい
0349名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:29:14.18ID:0+M7IquF
バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう
0353名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:48:18.56ID:wY80ZS1c
>>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる
0354名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:49:56.21ID:OiV7LtOS
>>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな

Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル
0355名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:52:16.18ID:9og32tKs
>>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで
0356名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:52:31.44ID:OiV7LtOS
>>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない

AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし
0357名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:55:24.99ID:9og32tKs
それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし
0360名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 16:24:47.83ID:ZlAOHCh1
>>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから

あるいはmaster #2129まで巻き戻したものを別個入れればいい
0361名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 16:25:17.91ID:9og32tKs
>>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。
0362名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:00:03.71ID:z2VVctkE
>>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな
0364名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:08:43.63ID:9fjO5n7K
novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども
0366名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:28:00.23ID:7WgE6Aas
実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど
0367名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:18:49.86ID:OSbDnTsm
そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。
0368名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:30:59.03ID:oslN2U1X
NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ
0369名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:32:40.07ID:OiV7LtOS
むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが
0371名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:41:48.17ID:DEdMJn6N
>>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…?
0372名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:47:26.12ID:OSbDnTsm
>>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や

それにしてもwdもバージョンありすぎてようわからんな。
0373名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:57:47.84ID:6PKdw4UK
>>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い
0374名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:08:45.59ID:NO0PpfX3
何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな
0375名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:23:04.71ID:AIArC2qd
ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う
0376名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:33:27.11ID:oslN2U1X
NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ
0378名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:53:33.69ID:jO+SeLLh
俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった

バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)

普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?
0379名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:54:17.64ID:QlQMsFsc
NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい
0380名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:56:56.32ID:Fc+KOdTU
>>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ
0383名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 21:35:25.98ID:Fc+KOdTU
>>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし
0388名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:08:49.39ID:1vFMU4BV
いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと
0389名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:14:48.96ID:AIArC2qd
はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね
0392名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:44:07.81ID:1En7iy57
titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな
0393名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:49:29.02ID:zx+gyfL9
もういっそのこと金あるならA40あたりでいいのでは...
0394名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:43:19.27ID:w0Q0a4VW
text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想
0395名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:46:21.83ID:0zPfU5+P
意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど
0396名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:59:45.28ID:Fc+KOdTU
プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?
0397名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:04:13.10ID:+sNQ5SXU
from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw
0398名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:19:48.36ID:Nm5De/sw
Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね?
0403名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:39:17.19ID:j5SKLFgm
WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は
0404名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:43:29.09ID:mMYaT5a+
>>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw
0405名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:46:28.02ID:mMYaT5a+
>>402
あ、ほんとだ。checkpoint nameとか入ってるわ。
0410名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 02:57:01.66ID:pkInAopp
追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい

textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない
0412名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 03:09:26.87ID:zmcQhSoI
後ろのURLいらなくて単にgit pullよ
0413名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 03:14:41.84ID:bhkjUU2G
また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様…
0416名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 04:55:39.94ID:B6jYdeNw
線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい
0417名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 05:15:53.93ID:iUqZHk8n
AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど
0418名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 06:52:09.13ID:x1mr0mmI
colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね…
0421名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:08:01.55ID:M4inZTpt
novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね
0424名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:28:39.67ID:iUqZHk8n
俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい
0426名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:47:45.82ID:z0k0c3WV
>>391
最後のコミットでコメントにこう書かれてる

Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me

そして勿論引き継ぐ人なんか居ない
0433名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 09:34:35.65ID:kY4znFzn
hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。
0436名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 10:03:22.45ID:AQIrnPB6
せっかくやからコ↑コ←にもマルチポストしとくで。

だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ
0440名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 13:21:23.98ID:nG71Z+6z
>>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ
0441名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 13:30:28.51ID:qTuaLJzO
>>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…
0444名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 14:51:54.75ID:yOxgSzrZ
>>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る
0445名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 15:36:03.58ID:mvr2EnqE
グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな
0447名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 18:12:23.91ID:VVCDygvq
DreamboothのTtl版の導入に初っぱなからつまずいた
WSL2必須かこれ
以前Hyper-V入れたら何やっても環境戻らなくなってトラウマになってるんだが
0450名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 19:42:02.88ID:3r4OKC5I
NOVELAIのオパール入ったけど1万使い切りそうなのでAnalを追加したいけど
どうしてもエラーになる
完全に使い切らないと追加できないのかな?
無理なら2垢を検討してる
0462名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 22:02:13.78ID:+sNQ5SXU
それ以上は普通にAシリーズ買えってことだろう
A6000が60万ぐらいだから、90ti2台よりかは安かろうって感じで
0463名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 22:16:15.37ID:Oy6AMrOL
A6000使ってるけどメモリ多くてバッチサイズ大きくできるのめっちゃいい
てかいま60万なのか安いな
0468名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 23:14:49.60ID:rt53UEZn
クラウドサーバーならA6000のインスタンスを1時間3ドルくらいで借りれるから
短時間で大量に生成したいなら使えそう
0469名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 23:16:08.88ID:GVpn0S9d
このスレでいつもグラボの話されてるのに過去一度もA6000持ってるなんて書き込みないのに
いきなり>>462に反応して「使ってるけど」ってあるかね?

ニュース速+とかでいきなり被害者の知り合いだけど~って現れる奴みたい
0473名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:13:46.62ID:SHdTzgia
A100 80GBモデルをNVLINKしてVRAM160GB手に入れてーなー
AI画像生成始めてからVRAMジャンキーになってしまった
0474名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:22:18.27ID:aK7rHLoF
まてよまてよ
WSLを2つ使ってSDとWebUI2つ起動して、それぞれを別々のGPU(2枚刺し)に割り当てたら
2並列で生成できるんじゃなかろうか
0475名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:31:38.10ID:XjikJorg
そらできるでしょ
巷のGPUクラウドって超多コアのCPUと大量のRAM積んだベースに
挿せるだけのGPU挿してその数分のインスタンスを提供してるんだし
ローカルだったらPyTorchの実行先指定をちょいといじれば仮想化無しでそれぞれ別のGPUに流せるけど
0476名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:52:21.67ID:SHdTzgia
というか2GPU手に入れたら片方のグラボで超重量級ゲームやって、もう片方のグラボでDreamboothとかやりたいな

3090Ti持ってるからもう一つ3090Ti買って、普段はゲームとAIの分割運用で、一部の対応ゲームとかベンチマークするときだけNVLINKにしてドヤるとかやってみたい

普通に欲しくなってきた、真面目に検討しようかな
当分VRAMは24GBから増えないだろうし、4090はNVLINKに対応してないし、せっかくだしNVLINKができる30シリーズの特性を活かしたいよね
0478名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 01:33:28.86ID:kQTtTl7+
200Vが必要だからエアコンや乾燥機のコンセントを拝借するか新設だな
最強は電気自動車用コンセントだが
最大出力を何時間流しても平気
出力も3kwから10kwまであるし
0479名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 01:57:25.46ID:hROnJCcO
Novel AI Leak 設定してもなぜかアスカが生足にならないし、nsfwいれても描画されない。
何か設定間違えている…?
0482名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 03:20:01.07ID:0nulJh1R
電源やケーブルにマイニング並みの知識と管理が必要になるな
24hフルで動かす訳じゃないにしろ一時的な負荷はむしろ大きいし
0484名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 06:43:17.96ID:2+qJ6I6I
みんなアップスケーラーてどれ使ってるのん?
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描き込みを増やしたい場合てどれがいいのん?
0485名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 07:52:22.49ID:Pj8SnpbA
部屋が冬でも冷房、夏はサマーウォーズの「うわ〜っ、暑い!」になるのでは
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理してるのかな
0486名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 07:59:18.10ID:nKgTqKnx
聡太名人レベルになると家にデータセンターありそう
あとそろそろスレチ気味になってきたにゃー
0488名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 08:35:13.65ID:QeGD8Cwp
90Tiなんか発熱で溶けたみたいなこと言われてるから、もう普通に水冷つけとけって思うな
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ
0489名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 08:46:29.47ID:I4aoRgos
4090は物理的に スロット埋まるから
SLI出来ないとか

長さも 3.5スロット占有や
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる
0493名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:04:07.93ID:f2T3x2aC
>>477
>>478
コンセントを200Vにはしたくないし、Signature1300ていう電源はデュアル電源に標準対応してて実質2600Wだからそれを検討してる

ただケース買い替えだし、グラボ代マザボ代その他諸々にCPUも13世代にしたいしで流石に当分は妄想にとどめておくよ
0495名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:26:22.42ID:bNwczKpA
SDの新しいバージョンが正式にリリースされたらそっちのこと話すんでないかな
生成そのものの呪文とかはなんJやさんJが盛んだし
生成技術のスレだからそれでも良いと思うが
0496名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:36:14.39ID:QeGD8Cwp
ハイパーネットワークで学習させてるヤツおる? あれってリークじゃない普通のckptでも動くんだよな?
0497名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:40:56.91ID:OMLW7wgc
グラフィックボードの妄想だけつらつらと書かれてもね
世間はColabで使えるTPUで8枚8秒の話題になってるよ

>>496
例を見たいだけならtwitterでhypernetworkで検索すればいくつか出てくる
エロスレで試してる奴も居る
それによればNAIのckptじゃなくても普通に動かしてる人ばかり
けど誰もこうすりゃうまくいく的な話はしてないな
0499名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 10:30:33.49ID:u3Iza5ue
5日みてなかったらもうついていけなくなった
TIはby Embeddingで使うけど、hyperは全体に勝手にかかるでOK?
0502名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:00:50.75ID:f2T3x2aC
悪い妄想癖が出てしまって申し訳ない

自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定した上で、TIで特定のオブジェクトを覚えさせることも出来るんかな
0504名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:18:34.78ID:FWkjSdxh
TIは学習内容に応じて特定プロンプトでptファイルを参照、対象モデル内のベクトルを引っ張る感じ
顔とかモノとかピンポイントで学習させた絵が生成されやすくなる。なのでファイルサイズも小さい

hypernetworkは追加学習でhypernetwork用の追加モデルとしてptファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風や作風そのものを全体に転送する感じ

と理解した
0506名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:43:07.23ID:AcwfJ4Wh
DreamBoothって使ってる人いる?
適当に弄ってみたけどなんかLinuxでしか動かない?のかな
てゆうかcolabなんて初めて触ったよw
0508名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:01:04.01ID:F4FsJOKA
dbでprompt追加して学習したやつにtiを上乗せして顔を覚えさせようとしてるけど
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとしては使いづらい

あと体型ネガティブとか beautiful cuteあたりでもめちゃくちゃ顔変わってきちゃうからdfとしてだと生成後に顔周りだけimg2imgで変えたほうがいいかもしれん
0509名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:14:01.77ID:XBUk6hAg
>>508
DBで画風学習させた後、別のプロンプト指定して再度DBでキャラを覚えさせて成功してる人Twitterで見たから、DB→TIよりDB→DBの方が良いかも
0511名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:57:04.67ID:I4aoRgos
ローカル環境だと
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライブの空き容量は100GB位は必要みたい
0512名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 13:51:47.56ID:ARTDPbZp
StableDiffusionで真っ黒な画像しか出てこないんだけど助けて
卑猥な言葉は使ってないからフィルターとかではないと思うんだが
0515名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 14:01:34.47ID:AcwfJ4Wh
DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
0520名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 14:11:58.16ID:ALilA1k2
>>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention

NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ
0523名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 15:21:47.00ID:30QwPrZZ
あんまり更新おってないからしらなかった

あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
https://i.imgur.com/z2XJYaV.png
0524名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 15:28:02.89ID:T/ePtpFR
hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな
0527名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:01:42.39ID:dLPWtPAo
>>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし
0528名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:02:35.83ID:ARTDPbZp
>>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな?
0530名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:33:20.52ID:OMLW7wgc
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
0531名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:52:03.02ID:40bMpPm9
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
0532名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:54:51.68ID:ARTDPbZp
>>530
なるほど〜
4090欲しくなりました
0533名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:40:10.57ID:ARTDPbZp
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
0535名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:49:29.32ID:nKgTqKnx
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
0538名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:15:21.42ID:XnPXne0y
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
0539名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:26:49.65ID:YLsjtjlH
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
0541名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:37:37.83ID:OMLW7wgc
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い

もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
0542名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:42:40.37ID:aUor17yO
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
0545名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:50:31.38ID:ARTDPbZp
>>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww

バッチカウントってどこで変えれるの?
0546名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:52:16.22ID:ARTDPbZp
ああ見つけたわw
バッチサイズの横にあった
0549名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:56:33.69ID:XnPXne0y
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
0551名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 19:05:51.91ID:XnPXne0y
>>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
0553名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 20:05:12.49ID:FMOFHk9F
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
0554名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 20:56:55.52ID:Jz1slLtt
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
0555名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 21:00:26.00ID:XjikJorg
>>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
0556名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 21:27:50.14ID:lpWZ4Hlp
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
0562名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:15:04.53ID:AcwfJ4Wh
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ

でもトレにめちゃ時間かかるし課金するか悩むなぁ
0563名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:27:27.86ID:IZHJbIbx
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
0564名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:28:15.28ID:Ia8ZvkTj
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
0567名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:38:30.80ID:AcwfJ4Wh
ごめんDBstablediffusion のが爆速だった
0569名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:53:13.74ID:+g+H2Nl6
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
0570名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:00:15.59ID:NIfsDDC5
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
0571名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:28:30.86ID:cVyIiDx3
>>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
0572名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:28:52.89ID:MA6pT5cu
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
0575名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:14:10.59ID:AikKaOMk
>>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size

サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
0576名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:31:58.84ID:MA6pT5cu
>>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね

具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた

WSL2のDockerに入れたから細かいところが違うのかなぁ
0577名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:45:05.20ID:AikKaOMk
>>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる

詳しい人の降臨待ちっすね
0578名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:03:46.69ID:TmM0Ta1u
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
0579名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:16:57.29ID:S/D1EGiC
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
0581名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 03:51:53.16ID:uMZtKJRm
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
0582名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 04:02:26.09ID:NIfsDDC5
>>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
0584名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:22:07.54ID:uMZtKJRm
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G

AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")

RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。

結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
0585名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:25:54.15ID:7nZ34vzV
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな

なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
0587名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:31:05.90ID:SRcrgA/b
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
0590名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:39:58.53ID:uMZtKJRm
>>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
0591名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:46:26.92ID:uMZtKJRm
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
0594名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:01:30.70ID:e+jJnNMA
アニメーションの自動生成はそんなに遠くないんだろうなって感じる
0595名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:18:12.19ID:8pgYproy
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった

よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
0598名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:03:54.95ID:uMZtKJRm
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。

GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
0600名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:13:20.62ID:AikKaOMk
>>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
0602名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:38:12.22ID:uMZtKJRm
>>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。

settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337

*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590

Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
0604名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:44:19.45ID:uMZtKJRm
>>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。

…ネカフェのPCで…だめか。
0606名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:48:59.10ID:7nZ34vzV
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
0607名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:51:04.13ID:Ntrq5HZ9
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
0610名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:02:01.69ID:KScbvafB
>>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
0611名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:12:08.50ID:JcgiPC8b
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
0612名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:14:41.26ID:uMZtKJRm
>>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。

>>603
なんやそれ

>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
0613名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:16:36.84ID:mbp63UAw
>>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
0615名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:25:42.23ID:uMZtKJRm
使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……
0617名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:33:17.14ID:7nZ34vzV
>>612
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが
0622名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:07:16.65ID:cVyIiDx3
なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!

と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
0623名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:11:27.42ID:0Krj1uq/
>>615
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする
0624名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:22:52.99ID:S28Zpjdt
gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ

素直にGPUかえ
0625名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:30:41.91ID:F0xLrC4V
>>620
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
0626名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:53:58.52ID:0kSXAuWY
NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?
0627名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:55:31.51ID:nm/5L0YC
そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる

>>625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…
0629名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:00:42.92ID:LYx8iol5
>>628
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
0631名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:02:11.31ID:21RKitFN
8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい
0633名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:14:35.36ID:7nZ34vzV
>>632
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった
0634名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:18:07.33ID:+S3McIYd
手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です
0636名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:25:47.77ID:nm/5L0YC
>>629
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う

ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い
0640名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:35:57.23ID:uMZtKJRm
>>623
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.

こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
0644名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:42:38.70ID:bfq41/Ms
正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる
0645名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:44:43.86ID:B6H/o30J
あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
0646名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:45:48.91ID:VUuwRUix
@アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力

@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。
0647名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:50:53.54ID:F0xLrC4V
>>627
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流
0648名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:56:10.75ID:Kwyzi7uJ
アニメキャラを覚えさせる場合

reg template smallest
"phot of a {}"→"{}"
に変更して

覚えさせたいキャラの特徴で吐き出させた方がいいのかね
0651名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:15:56.94ID:F0xLrC4V
Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと
0652名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:18:11.65ID:bfq41/Ms
とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし
0657名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:43:30.71ID:zLlnUrZc
ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね
0659名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:48:59.51ID:5rScqju3
scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか
0660名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:49:49.61ID:eUckkZej
一方勝間和代は外付けGPUボックスを買った

ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419

別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた

Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147
0661名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:49:57.86ID:KzL+RF0K
>>636
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう
0665名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:10:39.34ID:MA6pT5cu
うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる

記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ

注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
0672名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:50:06.61ID:21RKitFN
AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?
0674名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:53:06.29ID:pbYNsuKO
今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ
0676名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:55:44.11ID:uMZtKJRm
>>654
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。
0677名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 17:03:40.09ID:uMZtKJRm
せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
0679名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 17:48:01.71ID:21RKitFN
>>673
俺も探してるけど見つかってないな
0680名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 18:00:08.61ID:NWnRPioF
ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。
0686名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 18:59:35.33ID:/FBs4jwG
>>683
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)

ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"

!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py
0687名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:04:17.53ID:nkG6PHq4
>>685
エロスレに試してる人いる
0689名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:06:47.86ID:S/D1EGiC
>>579 >>580
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
0691名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:37:20.07ID:uMZtKJRm
メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ

are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)
0692名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:41:59.21ID:uMZtKJRm
はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ

適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分
0694名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:43:03.24ID:JcgiPC8b
dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか

それか、step数踏めば銃やミリタリー系の色消えるもの?
0695名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:44:24.00ID:MA6pT5cu
JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?
0697名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:53:13.33ID:MA6pT5cu
>>694
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
0698名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:06:43.56ID:JcgiPC8b
適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?

結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする
0699名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:33:09.95ID:Ras3M4ay
トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか
0702名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:56:45.47ID:4y2ZH5X6
流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね
0703名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:01:46.70ID:Ras3M4ay
グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように
0704名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:12:38.01ID:Ntrq5HZ9
>>702
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど
0705名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:21:10.64ID:bfq41/Ms
novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い
0709名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 22:07:58.45ID:nkG6PHq4
dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら
0713名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 22:54:34.79ID:4y2ZH5X6
>>704
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし
0714名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:33:10.89ID:yN0Lb7VT
>>698
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!
0717名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:56:32.22ID:yj0C8KAM
NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい
0718名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:01:30.37ID:Zee6dncT
1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?
0719名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:04:47.44ID:i8k1JocR
dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた
0720名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:09:23.41ID:igoLWNix
>>712
>>712
TI(画風の学習)→プロンプトに味付け
 教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
 ×学習時のモデルで使わないとダメ
 (そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)

dreambooth(特定の意味を加える→キャラとか覚えさせる)
 教えた画像群の意味を覚えさせてモデルに加える
 →sksとか教えた意味が呪文で使える

hypernetwork(画風の学習→生成後半に味付け)
 モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
 生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
 Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)


TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う

TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)

HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた
0721名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:17:26.64ID:bXlx3GEL
>>718
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される
0722名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:20:08.98ID:6ffuqtQX
スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる

一長一短だなぁ
0723720
垢版 |
2022/10/16(日) 00:20:37.91ID:igoLWNix
あと、TIよりHNの方が学習時間が短い。

そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)
0724名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:23:22.66ID:kvXH9jJF
はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう
0726名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:27:20.34ID:igoLWNix
>>722
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
0727名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:32:22.50ID:6x1IPbSd
どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
0729名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:34:46.97ID:igoLWNix
>>725
画風を複数作っておくのはHNでもTIでも切り替え可能。

HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ
0730名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:41:08.62ID:6ffuqtQX
HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
0732名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:13:20.91ID:ghjWKzhb
>>713
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで
0733名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:55:54.91ID:QmrqDzef
>>713
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。
0734名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:56:01.24ID:5rzd4/h5
waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます
0735名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:05:32.11ID:5rzd4/h5
>>713
>>733
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺
0736名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:11:10.76ID:QmrqDzef
6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。
0737名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:14:00.78ID:hZM0T8yy
>>713
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる
0738名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:27:26.22ID:dh9YtBzs
1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??
0739名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:30:23.90ID:QmrqDzef
5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB
0740名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:37:15.76ID:Gdqp7gRE
初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか
0741名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:44:04.05ID:FPOZlxXn
>>740
TIでもHNでも一応できるよ
0743名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:11:46.80ID:B9hWP+Us
nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを
0744名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:13:59.26ID:B9hWP+Us
そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか
0745名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:51:11.60ID:vfrGrCfV
Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう
0746名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:51:51.01ID:NHyXE8Qr
少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて
0750名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 10:05:28.76ID:B9hWP+Us
>>744>>743
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???
0753名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 10:42:02.54ID:YEX1sJRa
https://i.imgur.com/KwZZRBA.png

「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?

カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが
0757名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:15:30.64ID:J6rT9g9/
colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ
0759名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:26:45.89ID:YEX1sJRa
そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし
0761名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:31:22.16ID:igoLWNix
>>734
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ

「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される
0762名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:48:35.66ID:J6rT9g9/
colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能
0765名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 14:42:42.43ID:kkaKYXbZ
>>764
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます
0766名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 15:03:47.10ID:B9hWP+Us
やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった

cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。

ところで、1111でsettingsのリセットってどうやるんですかね。
0768名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 15:38:27.23ID:B9hWP+Us
全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒
0770名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:01:48.29ID:B9hWP+Us
よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな
0772名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:11:34.08ID:4txKkgUl
構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか
0773名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:24:51.33ID:ghjWKzhb
>>606が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた
0774名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:25:09.35ID:1Get5kDd
ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。

radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。
0775名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:32:31.29ID:B9hWP+Us
クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや
0777名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:38:50.59ID:1Get5kDd
Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの??
0778名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:55:46.65ID:ZnhcANsj
教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね
0781名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 17:21:45.04ID:t7hiT172
>>778
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる
0785名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 17:44:01.08ID:ZnhcANsj
>>781
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う

>>784
3090Tiで約12時間かかった
0788名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:03:32.09ID:ZnhcANsj
>>786
>>787
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな

ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる
0790名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:06:03.17ID:kWLs9UQI
hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?
0792名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:25:15.07ID:ejt6P45d
1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり
0794名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:25:57.43ID:+U5N+6KE
diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど
0796名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:38:34.37ID:+U5N+6KE
任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
0801名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:23:11.79ID:B9hWP+Us
中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。
0802名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:32:43.44ID:B9hWP+Us
さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
0803名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:34:23.17ID:7rdeF0oE
novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?
0805名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:57:12.56ID:J6rT9g9/
ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう
0806名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:06:33.73ID:B9hWP+Us
新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。

原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。

順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?

うーん
0807名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:15:38.49ID:B9hWP+Us
多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな
0809名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:21:10.29ID:B9hWP+Us
変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ
0810名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:24:42.43ID:7DUNBWh6
俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…

この辺の正しい使い方あると嬉しいんだけどな

dreamboothってのがいるんかなあ
0811名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:26:45.64ID:Zee6dncT
手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし
0812名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:30:28.08ID:7DUNBWh6
出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど

アクセサリーとかエロネタ系だったり
0813名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:30:49.44ID:7Xgmo+75
colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m

35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。

Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571

(中略)

以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。
0816名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:40:09.26ID:7+6NBw4t
>>809
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。
0817名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 21:43:02.80ID:J6rT9g9/
ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。
0820名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 22:19:07.67ID:7DUNBWh6
>>819
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?

新しくは書き込めなかったよね…?
0821名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 22:21:17.88ID:J6rT9g9/
書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる
0823名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 22:53:20.63ID:XIiZzwz/
>>777
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ

でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない
0824名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 22:58:38.91ID:s5IGHlcL
機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ
0825名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:11:58.25ID:1Get5kDd
>>818
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと
0826名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:14:58.39ID:+U5N+6KE
グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう

このままだとMacはスタバでドヤるためだけのパソコンになるだろうな
0829名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:53:47.82ID:rT5G0VDH
>>828
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね
0831名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:59:12.45ID:Yg7Hg+zN
shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい?
0833名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 00:09:09.14ID:U7+CHkNh
colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい
0834名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 00:16:30.99ID:WG4Oke8l
xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない
0837名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 02:09:11.72ID:/Z66lPo9
というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい
0839名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 07:49:48.10ID:2m3hygkV
>>837
3000以降でなくて?
0840名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 07:54:00.36ID:nQGEYwDS
Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか
0841名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 08:07:27.14ID:d2XyZlWc
>>813
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという
0842名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 08:48:45.02ID:OdjOHVZz
絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で
0843名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 08:52:52.10ID:fu4E24m1
>>840
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う
0844名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 09:07:03.32ID:d2XyZlWc
すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。
0845名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 10:32:25.54ID:mndmJmmd
自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった
0846名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 10:36:14.41ID:nQGEYwDS
>>843
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか
0850名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 10:56:22.48ID:/4GmzdgE
Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな?
0851名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 10:57:10.16ID:FjkRtqVh
xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね
0852名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:01:58.50ID:rgXlaQs+
SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
0854名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:37:04.40ID:d+usOTfa
追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?
0857名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:58:57.02ID:x0GhWPSO
学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?

https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する

ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?
0859名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 12:33:04.82ID:fu4E24m1
>>855
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない

使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.

で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
0862名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 13:04:46.79ID:s3d8QjiO
ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで

bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"

を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518

あとは、run_webui_mac.shを実行するだけ

ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh

104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす
0863名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 13:46:44.99ID:TZxRUe++
auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった

モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな
0864名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 14:30:32.55ID:zoSlJeQX
NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど
0867名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:31:48.42ID:nQGEYwDS
hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる
0868名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:33:18.61ID:hP+5piYT
>>857
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど
0871名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:09:56.53ID:4sACRINh
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
0872名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
0874名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
0876名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:17:06.46ID:4sACRINh
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
0878名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
0880名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
0885名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:35:35.74ID:PG7EuW3q
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
0887名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
0890名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:52:13.04ID:4sACRINh
>>887
Fullにしてないオチ
0894名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:18:40.75ID:n2Bxn8NT
>>888
autoencoder_kl-f8-trinart_characters.ckpt

trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな

NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
0896名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:30:53.13ID:2kKXaQLK
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
0898名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:44:46.35ID:yqllOzjB
hlkyって死んだの?
0899名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:49:49.96ID:AN5V5xfD
>>878
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな
0901名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 19:26:37.90ID:jzVVkhF8
>>894
ありがとう!

colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
0902名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 19:46:35.16ID:jzVVkhF8
>>901
ごめん、このwgetのコマンドは間違い。

vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。

こんな感じになったら、VAEがロードされてるはず。

Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
0903名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:13:46.33ID:ldxtMWb/
私もHypernetworkが上手くいかないので教えてください。

キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?

・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい

1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
 >100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
 ・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
    (「a woman, 1girl, solo, white background」でもだめ) 
0904名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:31:29.55ID:fu4E24m1
>>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく

自分ならとりあえずこんな感じで試すかも
0908名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 22:39:57.04ID:UGl0wV53
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
0912名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 23:55:39.15ID:UGl0wV53
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
0913名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 23:57:11.48ID:+Pf/s7hV
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
0914名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:02:36.49ID:j0I0cSk3
>>912
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな
0915名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:06:18.31ID:oKNCSux3
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
0917名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:18:46.14ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
0918名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:31:00.38ID:93v8L+yq
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
0919名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:43:10.46ID:l1T5Qa1Z
diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで

config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
0921名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 04:14:38.49ID:soj7FsTJ
wd1.4の新しいvae来たけど試した?
0924名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:45:17.71ID:cyHLbL5S
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
0925名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:46:54.53ID:TtXnf/fW
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
0926名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:47:13.18ID:Lo3y4TAi
>>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
0927名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 09:41:15.76ID:RDN7cvBB
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
0928名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:16.00ID:bKPdKQSD
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
0929名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:56.24ID:wbrPm6Fj
>>926
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる
0930名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:51:55.46ID:3BBOW5w1
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
0931名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:54:05.13ID:x3uyPhfX
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り

Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.

英語と日本語できる人よろしくたのむ
0932名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:58:00.25ID:RDN7cvBB
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
0934名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 11:35:57.20ID:93v8L+yq
>>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか

(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png

novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
0935名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:28:22.93ID:l1T5Qa1Z
引数に以下必要かも
--original_config_file=model/config.yaml
0936名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:43:40.98ID:l1T5Qa1Z
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
0937名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:50:27.09ID:JoiaNmiz
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
0939名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 14:06:39.39ID:93v8L+yq
>>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます

出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
0941名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 15:40:53.95ID:5DgBXIZt
>>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね

全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う

全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
0943名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 15:58:16.38ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
0945名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 16:25:37.33ID:93v8L+yq
>>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました

--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]

- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)

return text_model
0948名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 17:21:57.69ID:GXy84LFC
>>941
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます
0949名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 19:12:48.64ID:cvFdiqt/
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
0954名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 20:34:57.45ID:5fUCLEJM
>>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
0955名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 20:39:28.53ID:U+Re+1lV
>>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
0959名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:01:25.84ID:k4JvEfw0
>>955
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。
0963名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:21:49.83ID:U+Re+1lV
>>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
0965名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:27:06.68ID:NEYHrj9C
Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
0967名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:36:53.35ID:D1LFLupJ
>>960
>>963
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。
0968名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:42:09.52ID:zu/vdcfa
>>960 >>964
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>960
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの??
0970名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:57:27.95ID:7jXZOYp0
>>967
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます!
0971名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 22:01:56.47ID:NEYHrj9C
既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに
0972名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 22:13:25.88ID:00I+6kfi
NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください
0976名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 22:43:01.73ID:P2mP3FzW
hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww
0978名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 22:50:06.74ID:8eBdxQoJ
ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー
0980名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 23:13:52.08ID:0F2kphzm
学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど
0982名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 23:38:55.98ID:gq0Co63H
hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6

色々倍率は試したけど0.6倍が個人的には丁度良かった
0984名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 00:08:58.49ID:++6+YAXw
画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。

かっこいい...
0985名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 00:11:36.54ID:0pJigVJ+
SDについて調べてもわからなかったので質問させてください

最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか?
0986名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 00:17:17.68ID:aNl7PeR+
>>984
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配
0988名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 01:34:07.52ID:qwe7eRJ8
dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…

[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings

○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。

1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
  例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]

これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。
0989名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:07:20.38ID:YEGUlNqL
>>988
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。
0990名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:35:43.49ID:XotkVMWS
>>871
俺的hypernetworkの学習率の結論はこれだわ
0991名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:36:47.49ID:XotkVMWS
>>985
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る
0997名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 05:48:21.35ID:PQV9Ke8W
Google Colab

OpenVINO


Docker


Anaconda
…etc

Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね
0998名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 08:44:26.07ID:h/UtDtX1
Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね?
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 16時間 42分 30秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況