X



【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
0002名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 17:03:55.87ID:+XD7dv7a
各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう
0006名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:01:02.05ID:gscUMfzz
WaifuDiffusion 1.4 現在の進捗

https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。

で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。
0010名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:12:22.34ID:1bDnmn14
batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな
0011名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:13:15.43ID:EMyATYCl
調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな
0012名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:20:42.51ID:fzcab7+d
1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし
0013名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:23:26.75ID:tixPEkND
>>1
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる
0014名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:35:07.53ID:vrG9EP2J
NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?
0015名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:36:28.67ID:+Ij4h03E
例のまとめ(一部修正)

Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce

Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce

Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=

set COMMANDLINE_ARGS=--xformers

比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg

比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2
0016名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:45:03.32ID:gscUMfzz
Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1

promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。

1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。
0017名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:45:14.46ID:h4X7qE9c
素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね?
0018名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:58:04.09ID:vrG9EP2J
いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし
0020名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:03:43.02ID:ynEZ5O3d
Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?

つかオープンソースでBANなんて出来るの?
0021名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:09:33.72ID:+RuPmzAv
>>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ
0022名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:10:33.89ID:lHTtdA8q
>>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ
0023名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:11:43.95ID:Jaszf78g
>>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係

という感じのはず
0024名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:15:46.51ID:lHTtdA8q
>>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ
0028名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:40:13.92ID:qLVZxWBM
>>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?

あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい
0029名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:41:58.69ID:+RuPmzAv
>>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる

つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな
0030名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:42:52.11ID:ynEZ5O3d
>>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます
0031名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:43:36.36ID:4E2s8WMB
>>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも

nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね
0032名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:49:04.54ID:ynEZ5O3d
>>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版?
0033名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:54:06.56ID:+VC1PwwK
>>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ
0035名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:05:19.38ID:r/AtNiCe
>>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる
0036名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:05:28.82ID:qLVZxWBM
>>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる

ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/
0038名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:16:45.81ID:pWFrk5Hs
>>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok?
0040名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:45:45.53ID:fzcab7+d
>>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし
0041名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:49:34.11ID:ynEZ5O3d
>>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな

コンパイルとか言われてもぷよぷよしか思い浮かばん
0044名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:52:11.96ID:NG0XU+CV
NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし
0045名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:58:56.03ID:/GYn74uZ
Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる?
0046名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:00:36.95ID:fzcab7+d
>>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな
0047名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:01:53.73ID:jDYsbSI7
NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが

それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう
0049名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:05:50.33ID:4HCwQqWR
>>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね
0052名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:25:04.61ID:5d7Si+yR
>>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない
0056名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:54:09.56ID:Jaszf78g
>>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ
0057名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:54:54.47ID:fzcab7+d
>>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ
0058名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:56:15.23ID:5d7Si+yR
>>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい
0062名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:03:43.36ID:yYW88ItN
>>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??
0065名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:11:22.22ID:eaFbeTfF
>>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない
0067名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:17:40.59ID:4E2s8WMB
こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな
0070名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:24:27.90ID:gscUMfzz
NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。
0072名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:33:00.08ID:jDYsbSI7
>>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある

あと、どうやらpromptを勉強した方が良いから、とりあえず

https://lexica.art/ とか眺めて、真似しまくるんだ
0074名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:57:12.95ID:1bDnmn14
StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか...
0075名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:08:38.31ID:hyUB8XNU
automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが
0077名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:20:33.21ID:yYW88ItN
>>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな

俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png
0083名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:56:08.51ID:y6ZyfTo4
>>80
モデル切り替えタブいつついた?
0085名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 00:07:15.33ID:f1GMUS3e
同じseedで同じプロンプトの「ikemen boy」と「kawaii girl」を入れ替えただけの画像を並べて生成するの結構楽しいな
色合いの配置とかはほぼ同じで、解釈が少しずつ変わってくるのがわかる
https://i.imgur.com/g7sFVVV.jpg
https://i.imgur.com/jUrzj20.jpg
https://i.imgur.com/QFVjZaD.jpg
https://i.imgur.com/66sZ2SF.jpg
https://i.imgur.com/bucRrCo.jpg
0088名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 00:31:15.43ID:65nbRhCF
昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ
0090名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:05:48.50ID:Dj93+uNN
NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて
0091名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:11:08.80ID:R5mTwYJe
>>90
()でくくる
0093名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:14:40.57ID:tY8OtFws
強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい
0095名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 02:00:48.38ID:GghQiVQz
みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ
0097名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 02:50:32.48ID:NtZIb7O5
なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな
0099名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:02:42.24ID:B22SZBMX
1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから
0100名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:38:48.39ID:kbaweW5+
ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう
0101名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:55:08.51ID:iXYo6Vy0
もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの
0105名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 04:31:25.56ID:/K0g0820
おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw
0106名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 05:39:04.51ID:B22SZBMX
1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった…
0108名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:18:28.20ID:iXYo6Vy0
そこに出力されてる文を実行してもう一度pullしてできない?
0111名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:26:10.33ID:iXYo6Vy0
>>109
0114名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:41:52.90ID:m9QnEdXo
>>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった
0115名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:50:01.52ID:GUqR9G2b
諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか
0117名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:04:10.47ID:CZ9nqGeN
52だか50gだかあるデータは使えるんか?
0119名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:11:25.23ID:eheI2hbr
つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな?
0121名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:20:32.24ID:qgCnfGsM
>>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.

なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか?
0122名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:54:35.94ID:m9QnEdXo
NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで
0123名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 08:02:49.84ID:GUqR9G2b
>>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的
0125名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 08:59:44.98ID:nhKOmsix
お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。
0127名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:14:46.60ID:CZ9nqGeN
>>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど
0128名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:25:35.68ID:prFppl0I
開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。
0130名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:35:18.76ID:R5mTwYJe
NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん?
0132名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 10:04:52.36ID:IHfd6I9L
Euler aでもNAIエミュレート成功したのね
0133名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 10:38:55.42ID:m9QnEdXo
AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに
0135名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:36:49.92ID:UkKl3ah7
>>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う
0136名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:43:40.55ID:A1RFlDJ+
MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか?
0142名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 12:35:04.31ID:c2af8446
>>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう
0144名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:14:12.43ID:c2af8446
DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ
0149名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:21:01.31ID:GcJsTdiu
昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど
0150名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:24:49.44ID:nhKOmsix
1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利
0152名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:32:30.62ID:eiVrWGXv
そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ
0153名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 13:34:58.42ID:nhKOmsix
NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。
0156名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:04:13.70ID:2pAHsrFx
>>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが……
0158名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:09:15.23ID:rM2ZLnI2
>>155
貴重な情報ありがとう
0159名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:22:15.03ID:nhKOmsix
NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。
0160名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:27:22.78ID:B22SZBMX
AI周りの動きって全部金儲けのためにやってる事やで
0161名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:29:48.84ID:mWgLOeQI
昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな
0163名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:39:33.95ID:iXYo6Vy0
たまげたなぁ〜 ノベカスくんよぉ
0165名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:47:51.11ID:++hbjAhe
>>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ
0166名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:50:49.20ID:F5ILH/Iq
>>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな
0167名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:52:23.57ID:nhKOmsix
メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。

ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……
0168名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:54:22.98ID:RtwaYqst
>>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ

更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても

>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな
0170名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:57:07.33ID:nhKOmsix
3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。
0171名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:02:44.60ID:c2af8446
数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな
0173名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:09:57.68ID:2pAHsrFx
もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない
0175名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 15:14:41.68ID:mWgLOeQI
>>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました
0176名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:18:29.84ID:CZ9nqGeN
腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし

課金とかしたくねえ
0177名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:24:56.34ID:CZ9nqGeN
自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ
0180名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:30:42.03ID:CZ9nqGeN
というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)

fuck!!!!!!!
0185名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:57:43.41ID:CZ9nqGeN
エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない

終わる
オンラインでできるので遊ぶしかないのか
0188名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:05:16.84ID:CZ9nqGeN
もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた
0191名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:16:59.45ID:CZ9nqGeN
諦めきれん
ZLUDAてのを使って・・
だめか
0200名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:34:04.53ID:CZ9nqGeN
>>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある
0201名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:34:52.89ID:gMGAc8Wj
850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない?
0202名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:35:27.97ID:CZ9nqGeN
中華のがあるはずだが利用しているツイートがあまりない、ほぼない
0205名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:46:10.89ID:CZ9nqGeN
困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ

無料でエロを。
無料でエロをしたい
0206名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:47:38.56ID:ANbGNzr9
CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え
0208名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:54:11.93ID:CZ9nqGeN
>>206
年金まであと3日
我慢できないンゴねえ

>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能
0210名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:57:47.97ID:ANbGNzr9
>>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え
0212名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:00:23.36ID:CZ9nqGeN
せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ
0213名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:05:06.74ID:ANbGNzr9
>>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ
0215名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:17:19.65ID:VktYYArG
>>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。
0216名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:18:50.14ID:eheI2hbr
出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが
0217名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:25:56.91ID:mq6SWHcu
>>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い
0218名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:35:41.67ID:bQ/h7hWY
10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない

ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな?
0222名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:47:03.43ID:ZeUg+SCW
4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない

そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに
0225名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:50:41.61ID:iXYo6Vy0
>>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ?
0227名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:55:46.53ID:BBUpK2cF
グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090
0232名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:03:36.60ID:gMGAc8Wj
>>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ
0233名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:04:15.27ID:cYZxoNFI
3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目
0236名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:09:21.80ID:VWEX5mCS
あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど
0239名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:22:18.14ID:CZ9nqGeN
ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ
0240名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:27:35.39ID:WJDFfila
novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま
0246名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:47:21.76ID:xfwneuFr
>>240
マジでどこで言ってる?
0250名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:06.45ID:WJDFfila
emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ
0251名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:07.87ID:6YYv3EfZ
VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?
0252名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:57.02ID:6YYv3EfZ
そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。
0253名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:54:16.04ID:xfwneuFr
一旦流出するともうどうしようもないから、ばら撒くことにしたのかな

>>247
ありがとう。あいつらライセンス違反やってたのか。
0254名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:55:41.07ID:HsAWRd20
25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ
0255名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:56:14.64ID:29Udd4W/
これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな?
0256名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:57:17.34ID:WJDFfila
ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ
0257名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:59:11.54ID:6YYv3EfZ
>>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。
0258名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:08:34.55ID:+IYEg037
実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし
0260名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:12:36.88ID:29Udd4W/
いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな
0261名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:14:33.69ID:VWEX5mCS
>>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ
0262名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:22:16.80ID:c2af8446
https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答

なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。


アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな
0264名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:28:38.54ID:Y/+qAYDf
しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう
0267名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:25:52.28ID:6YYv3EfZ
なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる
0268名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:27:56.45ID:OKWzXzG8
画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」

あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる?
0270名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:43:22.14ID:m9QnEdXo
偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる
0272名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:01:09.93ID:oKx/eDyV
前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ
0273名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:10:32.94ID:nKKPAe0W
ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、
0277名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:20:28.18ID:Y4JtovpP
画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある
0278名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:21:50.31ID:GJPpDEKo
>>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う
0279名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:26:11.69ID:6YYv3EfZ
サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。
0282名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:47:08.22ID:NtZIb7O5
xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ
0284名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:54:06.88ID:j3ZHYBkl
img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ
0286名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:25:55.37ID:oKx/eDyV
>>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話
0288名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:40:18.59ID:euFxIGy0
1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ?
0289名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:44:04.26ID:SNYTfBwu
よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう
0290名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 23:46:31.55ID:GcJsTdiu
まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便
0293名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:33:12.32ID:oslN2U1X
正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな
0294名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:35:52.15ID:0zPfU5+P
フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど
0297名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 00:53:40.81ID:1En7iy57
音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い
0300名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:09:10.24ID:YjzIQUOi
1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや

もしかして1111版だとnswf表現できない?
0301名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:09:36.88ID:2ladUrgg
AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ
0302名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:11:26.82ID:oslN2U1X
>>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、
0303名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:11:29.17ID:0zPfU5+P
エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。
0305名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:15:23.50ID:0zPfU5+P
>>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし
0307名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:21:01.04ID:YjzIQUOi
>>303
入れてるんやがまんこ出んなー
だしたいなーまんこ

>>304
なにそれ詳しく
0308名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:29:00.71ID:2ladUrgg
>>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない

まあ9日の版で出せばいいんだけど
0309名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:55:37.33ID:oslN2U1X
TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが
0310名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 02:08:48.50ID:E8GzIrEy
トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ
0311名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 02:38:00.83ID:bnvw4Uul
NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが
0315名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 04:29:31.84ID:5fT70X24
>>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず
0318名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:27:23.67ID:pAhU5nv7
stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう
0319名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:30:14.69ID:zx+gyfL9
>>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される
0320名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:32:14.81ID:zx+gyfL9
>>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。
0321名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:39:21.03ID:C3DeDa5u
>>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい
0322名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 07:31:21.34ID:H5Zxeydq
webuiにhypernetworkのトレーニング機能来てるね
0325名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 08:41:48.87ID:Jtt7R8ot
画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが
0327名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 08:51:21.57ID:DEdMJn6N
1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった
0331名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 10:51:09.46ID:SYo62ZNQ
じきに皆慣れて反感も忘れ去られる

ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ
0332名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 11:17:23.41ID:ybfOmJmX
16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな
0333名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 11:31:12.60ID:fbQ+aX/K
70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う
0334名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 12:02:14.78ID:LxxZooPL
保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない…
0336名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 12:32:40.01ID:dOKrPM1J
web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない
0339名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 13:10:52.21ID:oslN2U1X
fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ
0341名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 13:40:48.98ID:pFAZCdQL
4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな
0342名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:01:23.33ID:2H018u9e
数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる
0344名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:50:02.74ID:/0Qg67th
pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか
0345名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:52:11.47ID:9og32tKs
AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ

これでどれぐらい安定していくのかちょっと見てみたい
0346名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:19:20.03ID:ybfOmJmX
dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく…
0347名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:20:31.71ID:pyeOGgSk
dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい
0349名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:29:14.18ID:0+M7IquF
バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう
0353名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:48:18.56ID:wY80ZS1c
>>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる
0354名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:49:56.21ID:OiV7LtOS
>>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな

Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル
0355名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:52:16.18ID:9og32tKs
>>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで
0356名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:52:31.44ID:OiV7LtOS
>>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない

AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし
0357名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:55:24.99ID:9og32tKs
それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし
0360名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 16:24:47.83ID:ZlAOHCh1
>>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから

あるいはmaster #2129まで巻き戻したものを別個入れればいい
0361名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 16:25:17.91ID:9og32tKs
>>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。
0362名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:00:03.71ID:z2VVctkE
>>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな
0364名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:08:43.63ID:9fjO5n7K
novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども
0366名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:28:00.23ID:7WgE6Aas
実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど
0367名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:18:49.86ID:OSbDnTsm
そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。
0368名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:30:59.03ID:oslN2U1X
NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ
0369名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:32:40.07ID:OiV7LtOS
むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが
0371名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:41:48.17ID:DEdMJn6N
>>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…?
0372名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:47:26.12ID:OSbDnTsm
>>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や

それにしてもwdもバージョンありすぎてようわからんな。
0373名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:57:47.84ID:6PKdw4UK
>>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い
0374名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:08:45.59ID:NO0PpfX3
何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな
0375名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:23:04.71ID:AIArC2qd
ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う
0376名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:33:27.11ID:oslN2U1X
NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ
0378名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:53:33.69ID:jO+SeLLh
俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった

バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)

普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?
0379名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:54:17.64ID:QlQMsFsc
NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい
0380名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 20:56:56.32ID:Fc+KOdTU
>>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ
0383名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 21:35:25.98ID:Fc+KOdTU
>>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし
0388名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:08:49.39ID:1vFMU4BV
いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと
0389名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:14:48.96ID:AIArC2qd
はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね
0392名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:44:07.81ID:1En7iy57
titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな
0393名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:49:29.02ID:zx+gyfL9
もういっそのこと金あるならA40あたりでいいのでは...
0394名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:43:19.27ID:w0Q0a4VW
text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想
0395名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:46:21.83ID:0zPfU5+P
意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど
0396名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 23:59:45.28ID:Fc+KOdTU
プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?
0397名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:04:13.10ID:+sNQ5SXU
from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw
0398名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:19:48.36ID:Nm5De/sw
Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね?
0403名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:39:17.19ID:j5SKLFgm
WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は
0404名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:43:29.09ID:mMYaT5a+
>>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw
0405名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:46:28.02ID:mMYaT5a+
>>402
あ、ほんとだ。checkpoint nameとか入ってるわ。
0410名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 02:57:01.66ID:pkInAopp
追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい

textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない
0412名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 03:09:26.87ID:zmcQhSoI
後ろのURLいらなくて単にgit pullよ
0413名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 03:14:41.84ID:bhkjUU2G
また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様…
0416名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 04:55:39.94ID:B6jYdeNw
線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい
0417名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 05:15:53.93ID:iUqZHk8n
AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど
0418名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 06:52:09.13ID:x1mr0mmI
colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね…
0421名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:08:01.55ID:M4inZTpt
novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね
0424名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:28:39.67ID:iUqZHk8n
俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい
0426名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 07:47:45.82ID:z0k0c3WV
>>391
最後のコミットでコメントにこう書かれてる

Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me

そして勿論引き継ぐ人なんか居ない
0433名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 09:34:35.65ID:kY4znFzn
hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。
0436名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 10:03:22.45ID:AQIrnPB6
せっかくやからコ↑コ←にもマルチポストしとくで。

だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ
0440名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 13:21:23.98ID:nG71Z+6z
>>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ
0441名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 13:30:28.51ID:qTuaLJzO
>>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…
0444名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 14:51:54.75ID:yOxgSzrZ
>>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る
0445名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 15:36:03.58ID:mvr2EnqE
グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな
0447名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 18:12:23.91ID:VVCDygvq
DreamboothのTtl版の導入に初っぱなからつまずいた
WSL2必須かこれ
以前Hyper-V入れたら何やっても環境戻らなくなってトラウマになってるんだが
0450名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 19:42:02.88ID:3r4OKC5I
NOVELAIのオパール入ったけど1万使い切りそうなのでAnalを追加したいけど
どうしてもエラーになる
完全に使い切らないと追加できないのかな?
無理なら2垢を検討してる
0462名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 22:02:13.78ID:+sNQ5SXU
それ以上は普通にAシリーズ買えってことだろう
A6000が60万ぐらいだから、90ti2台よりかは安かろうって感じで
0463名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 22:16:15.37ID:Oy6AMrOL
A6000使ってるけどメモリ多くてバッチサイズ大きくできるのめっちゃいい
てかいま60万なのか安いな
0468名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 23:14:49.60ID:rt53UEZn
クラウドサーバーならA6000のインスタンスを1時間3ドルくらいで借りれるから
短時間で大量に生成したいなら使えそう
0469名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 23:16:08.88ID:GVpn0S9d
このスレでいつもグラボの話されてるのに過去一度もA6000持ってるなんて書き込みないのに
いきなり>>462に反応して「使ってるけど」ってあるかね?

ニュース速+とかでいきなり被害者の知り合いだけど~って現れる奴みたい
0473名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:13:46.62ID:SHdTzgia
A100 80GBモデルをNVLINKしてVRAM160GB手に入れてーなー
AI画像生成始めてからVRAMジャンキーになってしまった
0474名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:22:18.27ID:aK7rHLoF
まてよまてよ
WSLを2つ使ってSDとWebUI2つ起動して、それぞれを別々のGPU(2枚刺し)に割り当てたら
2並列で生成できるんじゃなかろうか
0475名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:31:38.10ID:XjikJorg
そらできるでしょ
巷のGPUクラウドって超多コアのCPUと大量のRAM積んだベースに
挿せるだけのGPU挿してその数分のインスタンスを提供してるんだし
ローカルだったらPyTorchの実行先指定をちょいといじれば仮想化無しでそれぞれ別のGPUに流せるけど
0476名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 00:52:21.67ID:SHdTzgia
というか2GPU手に入れたら片方のグラボで超重量級ゲームやって、もう片方のグラボでDreamboothとかやりたいな

3090Ti持ってるからもう一つ3090Ti買って、普段はゲームとAIの分割運用で、一部の対応ゲームとかベンチマークするときだけNVLINKにしてドヤるとかやってみたい

普通に欲しくなってきた、真面目に検討しようかな
当分VRAMは24GBから増えないだろうし、4090はNVLINKに対応してないし、せっかくだしNVLINKができる30シリーズの特性を活かしたいよね
0478名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 01:33:28.86ID:kQTtTl7+
200Vが必要だからエアコンや乾燥機のコンセントを拝借するか新設だな
最強は電気自動車用コンセントだが
最大出力を何時間流しても平気
出力も3kwから10kwまであるし
0479名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 01:57:25.46ID:hROnJCcO
Novel AI Leak 設定してもなぜかアスカが生足にならないし、nsfwいれても描画されない。
何か設定間違えている…?
0482名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 03:20:01.07ID:0nulJh1R
電源やケーブルにマイニング並みの知識と管理が必要になるな
24hフルで動かす訳じゃないにしろ一時的な負荷はむしろ大きいし
0484名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 06:43:17.96ID:2+qJ6I6I
みんなアップスケーラーてどれ使ってるのん?
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描き込みを増やしたい場合てどれがいいのん?
0485名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 07:52:22.49ID:Pj8SnpbA
部屋が冬でも冷房、夏はサマーウォーズの「うわ〜っ、暑い!」になるのでは
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理してるのかな
0486名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 07:59:18.10ID:nKgTqKnx
聡太名人レベルになると家にデータセンターありそう
あとそろそろスレチ気味になってきたにゃー
0488名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 08:35:13.65ID:QeGD8Cwp
90Tiなんか発熱で溶けたみたいなこと言われてるから、もう普通に水冷つけとけって思うな
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ
0489名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 08:46:29.47ID:I4aoRgos
4090は物理的に スロット埋まるから
SLI出来ないとか

長さも 3.5スロット占有や
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる
0493名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:04:07.93ID:f2T3x2aC
>>477
>>478
コンセントを200Vにはしたくないし、Signature1300ていう電源はデュアル電源に標準対応してて実質2600Wだからそれを検討してる

ただケース買い替えだし、グラボ代マザボ代その他諸々にCPUも13世代にしたいしで流石に当分は妄想にとどめておくよ
0495名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:26:22.42ID:bNwczKpA
SDの新しいバージョンが正式にリリースされたらそっちのこと話すんでないかな
生成そのものの呪文とかはなんJやさんJが盛んだし
生成技術のスレだからそれでも良いと思うが
0496名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:36:14.39ID:QeGD8Cwp
ハイパーネットワークで学習させてるヤツおる? あれってリークじゃない普通のckptでも動くんだよな?
0497名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 09:40:56.91ID:OMLW7wgc
グラフィックボードの妄想だけつらつらと書かれてもね
世間はColabで使えるTPUで8枚8秒の話題になってるよ

>>496
例を見たいだけならtwitterでhypernetworkで検索すればいくつか出てくる
エロスレで試してる奴も居る
それによればNAIのckptじゃなくても普通に動かしてる人ばかり
けど誰もこうすりゃうまくいく的な話はしてないな
0499名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 10:30:33.49ID:u3Iza5ue
5日みてなかったらもうついていけなくなった
TIはby Embeddingで使うけど、hyperは全体に勝手にかかるでOK?
0502名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:00:50.75ID:f2T3x2aC
悪い妄想癖が出てしまって申し訳ない

自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定した上で、TIで特定のオブジェクトを覚えさせることも出来るんかな
0504名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:18:34.78ID:FWkjSdxh
TIは学習内容に応じて特定プロンプトでptファイルを参照、対象モデル内のベクトルを引っ張る感じ
顔とかモノとかピンポイントで学習させた絵が生成されやすくなる。なのでファイルサイズも小さい

hypernetworkは追加学習でhypernetwork用の追加モデルとしてptファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風や作風そのものを全体に転送する感じ

と理解した
0506名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 11:43:07.23ID:AcwfJ4Wh
DreamBoothって使ってる人いる?
適当に弄ってみたけどなんかLinuxでしか動かない?のかな
てゆうかcolabなんて初めて触ったよw
0508名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:01:04.01ID:F4FsJOKA
dbでprompt追加して学習したやつにtiを上乗せして顔を覚えさせようとしてるけど
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとしては使いづらい

あと体型ネガティブとか beautiful cuteあたりでもめちゃくちゃ顔変わってきちゃうからdfとしてだと生成後に顔周りだけimg2imgで変えたほうがいいかもしれん
0509名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:14:01.77ID:XBUk6hAg
>>508
DBで画風学習させた後、別のプロンプト指定して再度DBでキャラを覚えさせて成功してる人Twitterで見たから、DB→TIよりDB→DBの方が良いかも
0511名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 12:57:04.67ID:I4aoRgos
ローカル環境だと
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライブの空き容量は100GB位は必要みたい
0512名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 13:51:47.56ID:ARTDPbZp
StableDiffusionで真っ黒な画像しか出てこないんだけど助けて
卑猥な言葉は使ってないからフィルターとかではないと思うんだが
0515名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 14:01:34.47ID:AcwfJ4Wh
DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
0520名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 14:11:58.16ID:ALilA1k2
>>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention

NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ
0523名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 15:21:47.00ID:30QwPrZZ
あんまり更新おってないからしらなかった

あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
https://i.imgur.com/z2XJYaV.png
0524名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 15:28:02.89ID:T/ePtpFR
hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな
0527名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:01:42.39ID:dLPWtPAo
>>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし
0528名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:02:35.83ID:ARTDPbZp
>>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな?
0530名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:33:20.52ID:OMLW7wgc
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
0531名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:52:03.02ID:40bMpPm9
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
0532名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:54:51.68ID:ARTDPbZp
>>530
なるほど〜
4090欲しくなりました
0533名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:40:10.57ID:ARTDPbZp
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
0535名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:49:29.32ID:nKgTqKnx
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
0538名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:15:21.42ID:XnPXne0y
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
0539名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:26:49.65ID:YLsjtjlH
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
0541名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:37:37.83ID:OMLW7wgc
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い

もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
0542名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:42:40.37ID:aUor17yO
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
0545名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:50:31.38ID:ARTDPbZp
>>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww

バッチカウントってどこで変えれるの?
0546名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:52:16.22ID:ARTDPbZp
ああ見つけたわw
バッチサイズの横にあった
0549名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:56:33.69ID:XnPXne0y
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
0551名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 19:05:51.91ID:XnPXne0y
>>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
0553名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 20:05:12.49ID:FMOFHk9F
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
0554名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 20:56:55.52ID:Jz1slLtt
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
0555名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 21:00:26.00ID:XjikJorg
>>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
0556名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 21:27:50.14ID:lpWZ4Hlp
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
0562名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:15:04.53ID:AcwfJ4Wh
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ

でもトレにめちゃ時間かかるし課金するか悩むなぁ
0563名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:27:27.86ID:IZHJbIbx
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
0564名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:28:15.28ID:Ia8ZvkTj
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
0567名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:38:30.80ID:AcwfJ4Wh
ごめんDBstablediffusion のが爆速だった
0569名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:53:13.74ID:+g+H2Nl6
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
0570名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:00:15.59ID:NIfsDDC5
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
0571名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:28:30.86ID:cVyIiDx3
>>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
0572名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 00:28:52.89ID:MA6pT5cu
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
0575名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:14:10.59ID:AikKaOMk
>>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size

サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
0576名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:31:58.84ID:MA6pT5cu
>>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね

具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた

WSL2のDockerに入れたから細かいところが違うのかなぁ
0577名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:45:05.20ID:AikKaOMk
>>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる

詳しい人の降臨待ちっすね
0578名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:03:46.69ID:TmM0Ta1u
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
0579名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:16:57.29ID:S/D1EGiC
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
0581名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 03:51:53.16ID:uMZtKJRm
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
0582名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 04:02:26.09ID:NIfsDDC5
>>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
0584名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:22:07.54ID:uMZtKJRm
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G

AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")

RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。

結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
0585名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:25:54.15ID:7nZ34vzV
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな

なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
0587名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:31:05.90ID:SRcrgA/b
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
0590名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:39:58.53ID:uMZtKJRm
>>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
0591名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:46:26.92ID:uMZtKJRm
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
0594名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:01:30.70ID:e+jJnNMA
アニメーションの自動生成はそんなに遠くないんだろうなって感じる
0595名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:18:12.19ID:8pgYproy
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった

よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
0598名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:03:54.95ID:uMZtKJRm
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。

GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
0600名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:13:20.62ID:AikKaOMk
>>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
0602名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:38:12.22ID:uMZtKJRm
>>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。

settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337

*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590

Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
0604名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:44:19.45ID:uMZtKJRm
>>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。

…ネカフェのPCで…だめか。
0606名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:48:59.10ID:7nZ34vzV
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
0607名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:51:04.13ID:Ntrq5HZ9
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
0610名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:02:01.69ID:KScbvafB
>>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
0611名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:12:08.50ID:JcgiPC8b
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
0612名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:14:41.26ID:uMZtKJRm
>>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。

>>603
なんやそれ

>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
0613名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:16:36.84ID:mbp63UAw
>>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
0615名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:25:42.23ID:uMZtKJRm
使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……
0617名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:33:17.14ID:7nZ34vzV
>>612
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが
0622名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:07:16.65ID:cVyIiDx3
なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!

と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
0623名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:11:27.42ID:0Krj1uq/
>>615
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする
0624名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:22:52.99ID:S28Zpjdt
gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ

素直にGPUかえ
0625名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:30:41.91ID:F0xLrC4V
>>620
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
0626名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:53:58.52ID:0kSXAuWY
NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?
0627名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:55:31.51ID:nm/5L0YC
そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる

>>625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…
0629名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:00:42.92ID:LYx8iol5
>>628
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
0631名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:02:11.31ID:21RKitFN
8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい
0633名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:14:35.36ID:7nZ34vzV
>>632
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった
0634名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:18:07.33ID:+S3McIYd
手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です
0636名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:25:47.77ID:nm/5L0YC
>>629
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う

ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い
0640名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:35:57.23ID:uMZtKJRm
>>623
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.

こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
0644名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:42:38.70ID:bfq41/Ms
正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる
0645名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:44:43.86ID:B6H/o30J
あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
0646名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:45:48.91ID:VUuwRUix
@アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力

@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。
0647名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:50:53.54ID:F0xLrC4V
>>627
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流
0648名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:56:10.75ID:Kwyzi7uJ
アニメキャラを覚えさせる場合

reg template smallest
"phot of a {}"→"{}"
に変更して

覚えさせたいキャラの特徴で吐き出させた方がいいのかね
0651名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:15:56.94ID:F0xLrC4V
Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと
0652名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:18:11.65ID:bfq41/Ms
とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし
0657名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:43:30.71ID:zLlnUrZc
ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね
0659名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:48:59.51ID:5rScqju3
scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか
0660名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:49:49.61ID:eUckkZej
一方勝間和代は外付けGPUボックスを買った

ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419

別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた

Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147
0661名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:49:57.86ID:KzL+RF0K
>>636
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう
0665名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:10:39.34ID:MA6pT5cu
うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる

記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ

注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
0672名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:50:06.61ID:21RKitFN
AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?
0674名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:53:06.29ID:pbYNsuKO
今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ
0676名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:55:44.11ID:uMZtKJRm
>>654
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。
0677名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 17:03:40.09ID:uMZtKJRm
せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
0679名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 17:48:01.71ID:21RKitFN
>>673
俺も探してるけど見つかってないな
0680名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 18:00:08.61ID:NWnRPioF
ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。
0686名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 18:59:35.33ID:/FBs4jwG
>>683
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)

ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"

!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py
0687名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:04:17.53ID:nkG6PHq4
>>685
エロスレに試してる人いる
0689名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:06:47.86ID:S/D1EGiC
>>579 >>580
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
0691名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:37:20.07ID:uMZtKJRm
メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ

are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)
0692名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:41:59.21ID:uMZtKJRm
はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ

適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分
0694名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:43:03.24ID:JcgiPC8b
dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか

それか、step数踏めば銃やミリタリー系の色消えるもの?
0695名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:44:24.00ID:MA6pT5cu
JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?
0697名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:53:13.33ID:MA6pT5cu
>>694
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
0698名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:06:43.56ID:JcgiPC8b
適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?

結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする
0699名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:33:09.95ID:Ras3M4ay
トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか
0702名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 20:56:45.47ID:4y2ZH5X6
流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね
0703名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:01:46.70ID:Ras3M4ay
グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように
0704名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:12:38.01ID:Ntrq5HZ9
>>702
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど
0705名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:21:10.64ID:bfq41/Ms
novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い
0709名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 22:07:58.45ID:nkG6PHq4
dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら
0713名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 22:54:34.79ID:4y2ZH5X6
>>704
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし
0714名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:33:10.89ID:yN0Lb7VT
>>698
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!
0717名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:56:32.22ID:yj0C8KAM
NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい
0718名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:01:30.37ID:Zee6dncT
1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?
0719名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:04:47.44ID:i8k1JocR
dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた
0720名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:09:23.41ID:igoLWNix
>>712
>>712
TI(画風の学習)→プロンプトに味付け
 教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
 ×学習時のモデルで使わないとダメ
 (そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)

dreambooth(特定の意味を加える→キャラとか覚えさせる)
 教えた画像群の意味を覚えさせてモデルに加える
 →sksとか教えた意味が呪文で使える

hypernetwork(画風の学習→生成後半に味付け)
 モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
 生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
 Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)


TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う

TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)

HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた
0721名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:17:26.64ID:bXlx3GEL
>>718
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される
0722名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:20:08.98ID:6ffuqtQX
スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる

一長一短だなぁ
0723720
垢版 |
2022/10/16(日) 00:20:37.91ID:igoLWNix
あと、TIよりHNの方が学習時間が短い。

そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)
0724名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:23:22.66ID:kvXH9jJF
はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう
0726名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:27:20.34ID:igoLWNix
>>722
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
0727名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:32:22.50ID:6x1IPbSd
どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
0729名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:34:46.97ID:igoLWNix
>>725
画風を複数作っておくのはHNでもTIでも切り替え可能。

HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ
0730名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:41:08.62ID:6ffuqtQX
HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
0732名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:13:20.91ID:ghjWKzhb
>>713
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで
0733名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:55:54.91ID:QmrqDzef
>>713
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。
0734名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 01:56:01.24ID:5rzd4/h5
waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます
0735名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:05:32.11ID:5rzd4/h5
>>713
>>733
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺
0736名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:11:10.76ID:QmrqDzef
6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。
0737名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:14:00.78ID:hZM0T8yy
>>713
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる
0738名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:27:26.22ID:dh9YtBzs
1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??
0739名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:30:23.90ID:QmrqDzef
5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB
0740名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:37:15.76ID:Gdqp7gRE
初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか
0741名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:44:04.05ID:FPOZlxXn
>>740
TIでもHNでも一応できるよ
0743名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:11:46.80ID:B9hWP+Us
nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを
0744名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:13:59.26ID:B9hWP+Us
そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか
0745名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:51:11.60ID:vfrGrCfV
Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう
0746名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:51:51.01ID:NHyXE8Qr
少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて
0750名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 10:05:28.76ID:B9hWP+Us
>>744>>743
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???
0753名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 10:42:02.54ID:YEX1sJRa
https://i.imgur.com/KwZZRBA.png

「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?

カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが
0757名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:15:30.64ID:J6rT9g9/
colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ
0759名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:26:45.89ID:YEX1sJRa
そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし
0761名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:31:22.16ID:igoLWNix
>>734
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ

「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される
0762名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:48:35.66ID:J6rT9g9/
colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能
0765名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 14:42:42.43ID:kkaKYXbZ
>>764
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます
0766名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 15:03:47.10ID:B9hWP+Us
やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった

cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。

ところで、1111でsettingsのリセットってどうやるんですかね。
0768名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 15:38:27.23ID:B9hWP+Us
全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒
0770名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:01:48.29ID:B9hWP+Us
よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな
0772名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:11:34.08ID:4txKkgUl
構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか
0773名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:24:51.33ID:ghjWKzhb
>>606が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた
0774名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:25:09.35ID:1Get5kDd
ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。

radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。
0775名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:32:31.29ID:B9hWP+Us
クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや
0777名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:38:50.59ID:1Get5kDd
Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの??
0778名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:55:46.65ID:ZnhcANsj
教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね
0781名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 17:21:45.04ID:t7hiT172
>>778
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる
0785名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 17:44:01.08ID:ZnhcANsj
>>781
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う

>>784
3090Tiで約12時間かかった
0788名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:03:32.09ID:ZnhcANsj
>>786
>>787
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな

ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる
0790名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:06:03.17ID:kWLs9UQI
hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?
0792名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:25:15.07ID:ejt6P45d
1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり
0794名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:25:57.43ID:+U5N+6KE
diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど
0796名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:38:34.37ID:+U5N+6KE
任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
0801名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:23:11.79ID:B9hWP+Us
中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。
0802名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:32:43.44ID:B9hWP+Us
さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
0803名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:34:23.17ID:7rdeF0oE
novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?
0805名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:57:12.56ID:J6rT9g9/
ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう