X

【StableDiffusion】AI画像生成技術8【Midjourney】

レス数が1000を超えています。これ以上書き込みはできません。
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
2022/10/10(月) 17:03:55.87ID:+XD7dv7a
各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう
2022/10/10(月) 17:54:40.11ID:Gj1IXST8
ワッチョイ派のお兄ちゃんお姉ちゃん達怖かった(´;ω;`)
2022/10/10(月) 17:56:16.00ID:1bDnmn14
https://rentry.org/sdg_FAQ#building-xformers
xformers導入方法のリンクが見つからなくて苦労したのでとりあえず張っておく
2022/10/10(月) 17:58:42.81ID:ZvhIqRE0
curatedの再現できないなぁ
海外では再現法見つかってるんやろか
2022/10/10(月) 18:01:02.05ID:gscUMfzz
WaifuDiffusion 1.4 現在の進捗

https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。

で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。
2022/10/10(月) 18:05:07.03ID:U+M/ykXy
まともなの1枚も出なくなってしまった
2022/10/10(月) 18:07:28.11ID:fzcab7+d
xformersは古いGPUでやると逆に遅くなるな。最近のGPU専用か
2022/10/10(月) 18:08:28.72ID:gscUMfzz
うーん、まだ読みに行くだけって感じだな。
2022/10/10(月) 18:12:22.34ID:1bDnmn14
batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな
11名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:13:15.43ID:EMyATYCl
調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな
2022/10/10(月) 18:20:42.51ID:fzcab7+d
1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし
2022/10/10(月) 18:23:26.75ID:tixPEkND
>>1
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる
2022/10/10(月) 18:35:07.53ID:vrG9EP2J
NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?
2022/10/10(月) 18:36:28.67ID:+Ij4h03E
例のまとめ(一部修正)

Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce

Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce

Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=

set COMMANDLINE_ARGS=--xformers

比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg

比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2
2022/10/10(月) 18:45:03.32ID:gscUMfzz
Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1

promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。

1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。
17名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 18:45:14.46ID:h4X7qE9c
素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね?
2022/10/10(月) 18:58:04.09ID:vrG9EP2J
いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし
2022/10/10(月) 19:01:38.28ID:5cPe3xaV
それなら今回の件と関係ないgptとかお漏らししないと思うけど
2022/10/10(月) 19:03:43.02ID:ynEZ5O3d
Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?

つかオープンソースでBANなんて出来るの?
2022/10/10(月) 19:09:33.72ID:+RuPmzAv
>>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ
2022/10/10(月) 19:10:33.89ID:lHTtdA8q
>>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ
2022/10/10(月) 19:11:43.95ID:Jaszf78g
>>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係

という感じのはず
2022/10/10(月) 19:15:46.51ID:lHTtdA8q
>>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ
2022/10/10(月) 19:28:24.64ID:ynEZ5O3d
>>22
>>23
https://nmkd.itch.io/t2i-gui
こっからSD-GUI-1.5.0をダウンロードして
エロ回避しようとみましたが
https://gigazine.net/news/20220903-stable-diffusion-safety-filter/

・ステップ2の
「txt2img.py」をエディタで開き、以下の行を探す(通常は309行目)
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim)
が見当たらない…
2022/10/10(月) 19:35:28.08ID:ynEZ5O3d
https://i.gyazo.com/cc6c15cb8622f511b781727f5f926ecc.png
この中のにあるのどれもcheckedという文字すらHITしなかった…
2022/10/10(月) 19:36:50.79ID:ynEZ5O3d
txt2img.pyがスクリプトフォルダにないからダウンロードしてるverが違うんでしょうか
2022/10/10(月) 19:40:13.92ID:qLVZxWBM
>>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?

あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい
2022/10/10(月) 19:41:58.69ID:+RuPmzAv
>>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる

つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな
2022/10/10(月) 19:42:52.11ID:ynEZ5O3d
>>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます
2022/10/10(月) 19:43:36.36ID:4E2s8WMB
>>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも

nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね
2022/10/10(月) 19:49:04.54ID:ynEZ5O3d
>>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版?
33名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:54:06.56ID:+VC1PwwK
>>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ
34名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 19:55:59.20ID:WBulEFxq
WD1.4に置いてあるvae導入してみた。

https://i.imgur.com/4FkWFuv.png
https://i.imgur.com/hkgXz1D.png
https://i.imgur.com/vpiCyhs.png

顔と手が改善された。色合いが薄くなって変わった。体型も改善された?
まだテスト段階だから良くなっていくと思われる
2022/10/10(月) 20:05:19.38ID:r/AtNiCe
>>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる
2022/10/10(月) 20:05:28.82ID:qLVZxWBM
>>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる

ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/
2022/10/10(月) 20:10:04.23ID:gscUMfzz
>>34
スマホ、かなり綺麗に持ってるね。
38名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:16:45.81ID:pWFrk5Hs
>>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok?
2022/10/10(月) 20:20:14.87ID:eaFbeTfF
>>34
こっちはおっぱいダメよ
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/
40名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:45:45.53ID:fzcab7+d
>>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし
2022/10/10(月) 20:49:34.11ID:ynEZ5O3d
>>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな

コンパイルとか言われてもぷよぷよしか思い浮かばん
2022/10/10(月) 20:50:35.87ID:ynEZ5O3d
https://note.com/uunin/n/n725ae4601264
ここ見ながらやっていったら駄目?
一ヶ月前のだからこれも古いのかな
2022/10/10(月) 20:50:54.97ID:5cPe3xaV
xformers導入
手順通りやるだけだから何も難しいことはないけどね
44名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 20:52:11.96ID:NG0XU+CV
NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし
2022/10/10(月) 20:58:56.03ID:/GYn74uZ
Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる?
46名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 21:00:36.95ID:fzcab7+d
>>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな
2022/10/10(月) 21:01:53.73ID:jDYsbSI7
NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが

それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう
2022/10/10(月) 21:04:02.97ID:rCxGwPTq
>>45
dreambooth事態
ローカルで動かす為にはどれ使えばいいのか分からないな
2022/10/10(月) 21:05:50.33ID:4HCwQqWR
>>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね
2022/10/10(月) 21:16:15.71ID:WuZ5mE6I
dreamboothのnum_class_imageって何しとるん?モデルの中からクラスのサンプルか何か取ってるのん
2022/10/10(月) 21:18:41.02ID:jiS6TDQ/
xformersの最も簡単な導入方法はRTX30x0を買うことだ
2022/10/10(月) 21:25:04.61ID:5d7Si+yR
>>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない
2022/10/10(月) 21:48:12.62ID:ynEZ5O3d
>>52
https://i.gyazo.com/ec19e96ed2896518647623efa1ad9246.png
その劣化版で遊んでるけど悔しくて泣きそう
2022/10/10(月) 21:51:37.93ID:ynEZ5O3d
>>34
見てやこれとの差
ふざけんな
壊されました楽しく遊べない
2022/10/10(月) 21:54:05.13ID:EBDaR7Nm
>>54
そもそもパラメータめちゃくちゃだしプロンプトもうちょい書けよ
2022/10/10(月) 21:54:09.56ID:Jaszf78g
>>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ
2022/10/10(月) 21:54:54.47ID:fzcab7+d
>>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ
2022/10/10(月) 21:56:15.23ID:5d7Si+yR
>>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい
2022/10/10(月) 21:58:02.76ID:M5UKVyNQ
ここまで調べる気がない奴はNAIだけやってればいいじゃん
2022/10/10(月) 21:59:03.43ID:nklInquz
これならNAI使った方が早いだろうな
2022/10/10(月) 22:02:44.52ID:eaFbeTfF
なんかキレ方や日本語のおかしさ的に、大陸っぽい感じがするなw
62名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:03:43.36ID:yYW88ItN
>>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??
2022/10/10(月) 22:04:38.49ID:nklInquz
どうしてNAIの画面になると思った?
2022/10/10(月) 22:06:49.02ID:gscUMfzz
むしろNAIより1111のhi の方が使いやすくね?
2022/10/10(月) 22:11:22.22ID:eaFbeTfF
>>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない
2022/10/10(月) 22:14:52.85ID:gscUMfzz
良くあるのがclipモデルの設定を2にし忘れるやつだな。
2022/10/10(月) 22:17:40.59ID:4E2s8WMB
こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな
2022/10/10(月) 22:18:47.10ID:eaFbeTfF
いや、エロにきたらこっちに投げるわw
2022/10/10(月) 22:22:25.60ID:4E2s8WMB
ぜひそうしてください
向こうもついつい答えちゃってるからね
2022/10/10(月) 22:24:27.90ID:gscUMfzz
NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。
71名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:26:00.06ID:SIqdTjiI
>>48
これみてみぃ多分役立つよ
https://www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_in_under_8_gb_vram_and/
2022/10/10(月) 22:33:00.08ID:jDYsbSI7
>>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある

あと、どうやらpromptを勉強した方が良いから、とりあえず

https://lexica.art/ とか眺めて、真似しまくるんだ
73名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:55:36.23ID:SIqdTjiI
webuiのプルリクエストを見るとDreamboothについて話してるところがあった
もしかしたら追加あるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2002
2022/10/10(月) 22:57:12.95ID:1bDnmn14
StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか...
2022/10/10(月) 23:08:38.31ID:hyUB8XNU
automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが
2022/10/10(月) 23:19:09.57ID:rCxGwPTq
>>71
ありがと 読んでみるよ
77名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:20:33.21ID:yYW88ItN
>>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな

俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png
2022/10/10(月) 23:23:18.62ID:fzcab7+d
>>77
と言うかそれ1111じゃ無くない?画面違うぞ
2022/10/10(月) 23:31:57.44ID:4DnQXICh
>>77
おそろしく古いの使ってないか?
とりあえず最新版入れるとこからやり直せ
2022/10/10(月) 23:34:45.00ID:rCxGwPTq
今のAUTOMTIC1111はこれだぞ
https://i.imgur.com/GvC6raO.png
2022/10/10(月) 23:43:33.79ID:QfVBCRDE
AUTOMATIC1111版をフォークしたやつじゃねえかなそれ?
2022/10/10(月) 23:46:12.65ID:mjmpqPoH
>>77
stable-diffusion-weuiフォルダで↓の呪文を実行だ。gitから入れてるよね?
git pull origin master
83名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 23:56:08.51ID:y6ZyfTo4
>>80
モデル切り替えタブいつついた?
2022/10/11(火) 00:01:09.51ID:eheI2hbr
>>83
月曜未明のコミットにあるな
2022/10/11(火) 00:07:15.33ID:f1GMUS3e
同じseedで同じプロンプトの「ikemen boy」と「kawaii girl」を入れ替えただけの画像を並べて生成するの結構楽しいな
色合いの配置とかはほぼ同じで、解釈が少しずつ変わってくるのがわかる
https://i.imgur.com/g7sFVVV.jpg
https://i.imgur.com/jUrzj20.jpg
https://i.imgur.com/QFVjZaD.jpg
https://i.imgur.com/66sZ2SF.jpg
https://i.imgur.com/bucRrCo.jpg
2022/10/11(火) 00:17:51.02ID:WqXOCa52
>>83
モデル切り替えると自動で読みに行ってくれるから
楽になったね
2022/10/11(火) 00:20:52.02ID:GcJsTdiu
>>85
面白いな、兄弟姉妹作りたい放題じゃん!ほんと無限に遊べるな……
2022/10/11(火) 00:31:15.43ID:65nbRhCF
昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ
2022/10/11(火) 00:52:31.67ID:SNYTfBwu
>>77
hlkyにしか見えない
2022/10/11(火) 01:05:48.50ID:Dj93+uNN
NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて
91名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:11:08.80ID:R5mTwYJe
>>90
()でくくる
2022/10/11(火) 01:12:57.73ID:++hbjAhe
>>89
確かにhlkyだね
初期の頃しか使わなかったから完全に忘れてた
93名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 01:14:40.57ID:tY8OtFws
強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい
2022/10/11(火) 01:22:04.86ID:++hbjAhe
>>75
グラボが結構ローエンドか
生成サイズが大きすぎるか
95名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 02:00:48.38ID:GghQiVQz
みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ
2022/10/11(火) 02:36:40.91ID:/XqKydHl
SD1.4ってとこだろうなぁ。4chから比較借りてきた。
https://i.imgur.com/zucQVB6.jpg
2022/10/11(火) 02:50:32.48ID:NtZIb7O5
なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな
2022/10/11(火) 02:56:23.49ID:4tFLkTuy
1111でおかしくなるのはだいたい
ui-config.jsonとconfig.jsonが古いまま
上書きされないからね
99名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:02:42.24ID:B22SZBMX
1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから
2022/10/11(火) 03:38:48.39ID:kbaweW5+
ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう
101名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 03:55:08.51ID:iXYo6Vy0
もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの
2022/10/11(火) 04:11:26.52ID:JVAbuSU2
webuiになくても適当に調べてやればいいのに
2022/10/11(火) 04:15:20.54ID:mdKTXLOI
VRAM足りない民は学習時だけColabo使え
2022/10/11(火) 04:30:46.91ID:ZeUg+SCW
結局値上げしてもなおcolabが一番安いの?
105名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 04:31:25.56ID:/K0g0820
おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw
106名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 05:39:04.51ID:B22SZBMX
1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった…
2022/10/11(火) 05:39:29.34ID:sR4uTrUi
ここで聞くことじゃないのかもしれないですが
git pullしてもwebuiが更新されません
git入れる時点でなにかミスしてるんでしょうか

https://i.imgur.com/djE8kMJ.png
108名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:18:28.20ID:iXYo6Vy0
そこに出力されてる文を実行してもう一度pullしてできない?
2022/10/11(火) 06:19:45.99ID:GUqR9G2b
NovelAI Improvements on Stable Diffusion
https://blog.novelai.net/novelai-improvements-on-stable-diffusion-e10d38db82ac
急にオープンにするやん
2022/10/11(火) 06:21:58.72ID:+lEh5vRR
もう追うので精一杯でライフ0なんだが
111名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 06:26:10.33ID:iXYo6Vy0
>>109
2022/10/11(火) 06:33:25.70ID:V9LPCIjp
もう意味が分からないよ
2022/10/11(火) 06:36:06.75ID:Zi63tt5A
NovelAIもそのうちオープンソースになる…ってコト!?
2022/10/11(火) 06:41:52.90ID:m9QnEdXo
>>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった
2022/10/11(火) 06:50:01.52ID:GUqR9G2b
諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか
2022/10/11(火) 06:59:51.31ID:sR4uTrUi
>>108
出来ました
初心者丸出しな質問すいませんでした
117名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 07:04:10.47ID:CZ9nqGeN
52だか50gだかあるデータは使えるんか?
2022/10/11(火) 07:04:18.13ID:P6z7GnyZ
>>109
ワロタw
2022/10/11(火) 07:11:25.23ID:eheI2hbr
つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな?
2022/10/11(火) 07:12:41.26ID:m9QnEdXo
WD1.4はNAIの手法を確実にパクってくるんだろうな
2022/10/11(火) 07:20:32.24ID:qgCnfGsM
>>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.

なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか?
2022/10/11(火) 07:54:35.94ID:m9QnEdXo
NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで
2022/10/11(火) 08:02:49.84ID:GUqR9G2b
>>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的
2022/10/11(火) 08:46:38.15ID:TIoWKPgl
>>122
さすがにその話はこっちでやってくれ

【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
2022/10/11(火) 08:59:44.98ID:nhKOmsix
お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。
2022/10/11(火) 09:07:40.45ID:ZeUg+SCW
表面上は有難がるけど、結局バカ正直な初心者しか使わん奴
127名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:14:46.60ID:CZ9nqGeN
>>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど
2022/10/11(火) 09:25:35.68ID:prFppl0I
開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。
2022/10/11(火) 09:31:06.73ID:HV7c3eEx
furryが入ってないやん…
130名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 09:35:18.76ID:R5mTwYJe
NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん?
2022/10/11(火) 09:59:28.66ID:Q5NSJg+e
>>94
グラボは3090だから生成サイズが大きすぎるのかな
ありがとう
132名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 10:04:52.36ID:IHfd6I9L
Euler aでもNAIエミュレート成功したのね
2022/10/11(火) 10:38:55.42ID:m9QnEdXo
AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに
2022/10/11(火) 11:14:56.39ID:pCQDwfS5
どっちのスレでも一人でひたすらブツブツやってるこのキチガイは誰が連れてきたんだよ
2022/10/11(火) 11:36:49.92ID:UkKl3ah7
>>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う
136名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:43:40.55ID:A1RFlDJ+
MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか?
2022/10/11(火) 11:45:54.48ID:JmTqeuuH
案ずるより産むが易し
138名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 11:51:45.92ID:29Udd4W/
これ見る限り6~7倍くらい遅い?
その後最適化されても少し早くなってるかもしれんけど
https://twitter.com/atyenori/status/1571440021219192832
https://twitter.com/5chan_nel (5ch newer account)
2022/10/11(火) 12:13:51.14ID:ZeUg+SCW
>>74
素人がcolabでTIさせただけでもこのレベルだから
多分余裕で商用レベルに行ける
https://i.imgur.com/RqrhRR7.png
2022/10/11(火) 12:31:42.05ID:gWiio3Zh
Torrentが99.9%で止まったけどこのまま使っておけ?
2022/10/11(火) 12:33:26.44ID:nhKOmsix
まだ終わってないからマテ
142名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 12:35:04.31ID:c2af8446
>>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう
2022/10/11(火) 12:38:09.87ID:gWiio3Zh
>>141
待てなかった
novelaiぽい絵は出たのでヨシ!
2022/10/11(火) 13:14:12.43ID:c2af8446
DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ
2022/10/11(火) 13:16:56.02ID:WqXOCa52
>>144
今朝更新した時は ボタン増えてなかったなぁ
2022/10/11(火) 13:18:06.01ID:eiVrWGXv
ギフハブのEmuのページ更新されてcuratedが部分的にローカル再現成功ってなってるな
2022/10/11(火) 13:20:35.51ID:nhKOmsix
>>145
コマンドスイッチ追加してからじゃ無いと出てこないよ
2022/10/11(火) 13:20:39.91ID:tOWGF529
日進月歩っぷりが違う世界を早送りで見てる感じになってる
2022/10/11(火) 13:21:01.31ID:GcJsTdiu
昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど
2022/10/11(火) 13:24:49.44ID:nhKOmsix
1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利
2022/10/11(火) 13:26:21.85ID:c2af8446
Deepdanbooru↔img2imgで似たような絵を量産できるんだな
これは捗る
2022/10/11(火) 13:32:30.62ID:eiVrWGXv
そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ
2022/10/11(火) 13:34:58.42ID:nhKOmsix
NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。
2022/10/11(火) 13:54:44.77ID:JMiJJVxH
マイニング対策のLHRって画像生成には影響ないんだよな?
2022/10/11(火) 13:55:41.85ID:WqXOCa52
>>147
あぁ
START_webui.batの方に追加したらいけたわ
2022/10/11(火) 14:04:13.70ID:2pAHsrFx
>>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが……
2022/10/11(火) 14:06:49.73ID:++hbjAhe
>>155
あー、スタンドアローンのやつかw
ひっかかるやつ多そう
158名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:09:15.23ID:rM2ZLnI2
>>155
貴重な情報ありがとう
2022/10/11(火) 14:22:15.03ID:nhKOmsix
NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。
160名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:27:22.78ID:B22SZBMX
AI周りの動きって全部金儲けのためにやってる事やで
2022/10/11(火) 14:29:48.84ID:mWgLOeQI
昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな
2022/10/11(火) 14:36:06.13ID:CZ9nqGeN
ここはNMKD民は少ないのだろうか
楽だなぁ思って導入してみたが
163名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 14:39:33.95ID:iXYo6Vy0
たまげたなぁ〜 ノベカスくんよぉ
2022/10/11(火) 14:47:35.75ID:c3YuwZCn
SDやデフォルメにmasterpiece入れないほうが良いな
2022/10/11(火) 14:47:51.11ID:++hbjAhe
>>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ
2022/10/11(火) 14:50:49.20ID:F5ILH/Iq
>>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな
2022/10/11(火) 14:52:23.57ID:nhKOmsix
メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。

ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……
2022/10/11(火) 14:54:22.98ID:RtwaYqst
>>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ

更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても

>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな
2022/10/11(火) 14:56:11.19ID:tOWGF529
3060がおすすめされる世の中になるとか3ヶ月前には思いもしなかった
2022/10/11(火) 14:57:07.33ID:nhKOmsix
3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。
2022/10/11(火) 15:02:44.60ID:c2af8446
数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな
2022/10/11(火) 15:08:55.53ID:LaP0GiJC
早いとこAMDもROCmを発展させてくれないもんかね
MacどころかWindowsですら使えないんだが
2022/10/11(火) 15:09:57.68ID:2pAHsrFx
もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない
2022/10/11(火) 15:09:57.92ID:WqXOCa52
3070tiからは
DDR6Xだから 生半可なクーラーじゃ死ぬぞ
2022/10/11(火) 15:14:41.68ID:mWgLOeQI
>>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました
176名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:18:29.84ID:CZ9nqGeN
腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし

課金とかしたくねえ
177名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 16:24:56.34ID:CZ9nqGeN
自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ
2022/10/11(火) 16:25:52.59ID:c3YuwZCn
そもそも理解してなくて草
2022/10/11(火) 16:27:04.28ID:nhKOmsix
CUDAはnvidiaさんの専売特許だから……
radeonさん頑張れ。
2022/10/11(火) 16:30:42.03ID:CZ9nqGeN
というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)

fuck!!!!!!!
2022/10/11(火) 16:31:51.49ID:JmTqeuuH
NMKDでなにが不満なのだろうか
最近ネガティブプロンプトも実行できるようになったぞ
2022/10/11(火) 16:39:12.93ID:SNYTfBwu
流石に絶許狙いだろ
情弱がわざわざこんなこと言わない
2022/10/11(火) 16:41:34.80ID:HMl0Y+Qw
Intel HD Graphicsってw
2022/10/11(火) 16:53:08.64ID:Zi63tt5A
久しぶりにcolab使ってみたら一瞬で規制されたわ
以前より厳しくなったか?
2022/10/11(火) 16:57:43.41ID:CZ9nqGeN
エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない

終わる
オンラインでできるので遊ぶしかないのか
2022/10/11(火) 16:58:55.72ID:AloA+G1f
勝手に期待して勘違いで失望されるIntel HD Graphicsがかわいそう
2022/10/11(火) 16:58:58.37ID:gMGAc8Wj
WD1.3は直接的な性表現つよくなった?
188名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:05:16.84ID:CZ9nqGeN
もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた
2022/10/11(火) 17:15:49.44ID:x2SYJ+vG
>>185
colabでノートブックにbase64として埋め込まれる画像は検閲されないと思う
2022/10/11(火) 17:16:51.90ID:nhKOmsix
ANDが全然上手く動いてる気がしない……なんか追加のオプションとかあるんかいな
191名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:16:59.45ID:CZ9nqGeN
諦めきれん
ZLUDAてのを使って・・
だめか
2022/10/11(火) 17:17:16.83ID:lWaEbqhF
というか、CPUで動くの使えばいいのでは……?
2022/10/11(火) 17:17:51.77ID:CZ9nqGeN
>>189
そもそもgoogleアカウント持っていない
電話認証突破できんしな
2022/10/11(火) 17:19:17.93ID:P6z7GnyZ
金もねえgoogleアカウントもねえ
なんだねチミは
2022/10/11(火) 17:20:33.57ID:RqAFkfWi
さっさとGeForceのPCかえよ
2022/10/11(火) 17:22:17.23ID:SNYTfBwu
明らかにネタなんだから無視しろよ
邪魔
2022/10/11(火) 17:23:50.39ID:JmTqeuuH
NovelAIって無課金でもある程度動かせるのでは?
2022/10/11(火) 17:26:39.83ID:nhKOmsix
無理。課金しないと、一才画像は使えない。
2022/10/11(火) 17:29:19.26ID:c2af8446
ワッチョイいるんじゃないですか?
200名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:34:04.53ID:CZ9nqGeN
>>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある
2022/10/11(火) 17:34:52.89ID:gMGAc8Wj
850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない?
202名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:35:27.97ID:CZ9nqGeN
中華のがあるはずだが利用しているツイートがあまりない、ほぼない
2022/10/11(火) 17:39:45.48ID:ZeUg+SCW
そういえば中華制waifuも一瞬流行ったな
ckpt配らないから一瞬で消えたけど
2022/10/11(火) 17:40:03.16ID:xVFCPwqB
>>197
文章なら書ける
205名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:46:10.89ID:CZ9nqGeN
困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ

無料でエロを。
無料でエロをしたい
2022/10/11(火) 17:47:38.56ID:ANbGNzr9
CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え
2022/10/11(火) 17:52:48.04ID:SNYTfBwu
なんで無視できないの?
まぁ俺も荒らしを無視できない奴を無視できてないんだけど
208名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 17:54:11.93ID:CZ9nqGeN
>>206
年金まであと3日
我慢できないンゴねえ

>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能
2022/10/11(火) 17:54:44.97ID:Xc5wtwxO
このアプリ使う上で3060tiってコスパ何点ですか
2022/10/11(火) 17:57:47.97ID:ANbGNzr9
>>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え
2022/10/11(火) 18:00:12.91ID:nhKOmsix
4080が出るから、それの乗ったPCを買うんだ。4090でも良いが、これ載ったのBTOで出るかな?
212名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:00:23.36ID:CZ9nqGeN
せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ
2022/10/11(火) 18:05:06.74ID:ANbGNzr9
>>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ
2022/10/11(火) 18:10:53.47ID:Y/+qAYDf
>>209
40点

4080もコスパ悪いだろ
4090なら一気にできること増える
2022/10/11(火) 18:17:19.65ID:VktYYArG
>>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。
2022/10/11(火) 18:18:50.14ID:eheI2hbr
出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが
2022/10/11(火) 18:25:56.91ID:mq6SWHcu
>>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い
2022/10/11(火) 18:35:41.67ID:bQ/h7hWY
10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない

ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな?
2022/10/11(火) 18:39:17.17ID:gMGAc8Wj
huggingfaceにおいてあるぞい
2022/10/11(火) 18:39:40.17ID:bn6ltzAi
1111更新したらwd-v1-2-full-emaが読めなくなってるけど何でだ…
2022/10/11(火) 18:42:48.97ID:bQ/h7hWY
>>219
あれ?hakureiのはもう1.3に更新されてるよね?
それともjcplusってやつか
2022/10/11(火) 18:47:03.43ID:ZeUg+SCW
4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない

そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに
2022/10/11(火) 18:48:32.79ID:gMGAc8Wj
https://huggingface.co/hakurei/waifu-diffusion
これを
https://note.com/npaka/n/ne3f3316b8dad
で変換するか
https://huggingface.co/crumb/pruned-waifu-diffusion
これ(これは変換方法の問題でちょっとオリジナルと違うらしい)
2022/10/11(火) 18:49:07.98ID:ZeUg+SCW
>>211
今のところはVRAMが最優先事項だから3090にしろ
電気代は知らん
225名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 18:50:41.61ID:iXYo6Vy0
>>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ?
2022/10/11(火) 18:51:56.37ID:gMGAc8Wj
DBは元モデル内包のckptファイルになる
TIは学習方法である程度汎用性ある(ない場合もある)
2022/10/11(火) 18:55:46.53ID:BBUpK2cF
グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090
2022/10/11(火) 18:56:44.78ID:eheI2hbr
VRAM大量に使うのって学習する時だけじゃないの?やらん人には要らんでしょ
2022/10/11(火) 18:57:50.76ID:UFVvvgHt
fine tuningぐらいならcolabかその辺でよかろう
2022/10/11(火) 18:58:13.26ID:bQ/h7hWY
>>223
これって1.3のモデルじゃないのん
ファイルにもWD1.3て書いてるし
2022/10/11(火) 19:00:06.61ID:AloA+G1f
エロ絵が作りたいだけの男に4080だ4090だと薦める鬼畜スレ
2022/10/11(火) 19:03:36.60ID:gMGAc8Wj
>>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ
2022/10/11(火) 19:04:15.27ID:cYZxoNFI
3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目
2022/10/11(火) 19:06:02.42ID:bQ/h7hWY
>>232
親切にありがとう
探してみるわ
2022/10/11(火) 19:07:05.18ID:OaRMwoWU
>>222
AIに学習させるプロンプターを募集してる企業ならあるけどな
2022/10/11(火) 19:09:21.80ID:VWEX5mCS
あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど
2022/10/11(火) 19:10:49.71ID:4tFLkTuy
>>236
>>98とか?
2022/10/11(火) 19:21:20.70ID:mUV+ns7j
前スレにあった翻訳ボタンをTampermonkeyスクリプト化してみました
https://github.com/hetima/SD-JE-translate
2022/10/11(火) 19:22:18.14ID:CZ9nqGeN
ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ
240名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:27:35.39ID:WJDFfila
novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま
2022/10/11(火) 19:30:13.29ID:mHSrToGr
正味AI自体を商売にするのもう無理そう
2022/10/11(火) 19:30:16.03ID:++hbjAhe
>>228
VRAMは結果的に生成の速度に大きく関係してる
2022/10/11(火) 19:33:25.62ID:BBUpK2cF
>>239
3Dモデルやるなら、BlenderのテクスチャをAIで生成できるプラグインとかあるから調べてみるといいぞ
2022/10/11(火) 19:36:04.46ID:HMl0Y+Qw
25ドル涙目
2022/10/11(火) 19:39:29.50ID:w27UG8fH
>>237
うちはクリーンインスコしないとそれではダメだった
246名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:47:21.76ID:xfwneuFr
>>240
マジでどこで言ってる?
2022/10/11(火) 19:48:39.72ID:mHSrToGr
>>246
https://six-loganberry-ba7.notion.site/22-10-10-Emad-aae60a74858a4f52ab453aab7f4e3a1e
2022/10/11(火) 19:51:07.38ID:Y/+qAYDf
誰がそんな話信じるんだよ
25ドル払った奴らにどう説明すんねん
2022/10/11(火) 19:52:41.16ID:mHSrToGr
オープンソース公開(半年後)みたいなのはありそう
250名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:53:06.45ID:WJDFfila
emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ
2022/10/11(火) 19:53:07.87ID:6YYv3EfZ
VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?
2022/10/11(火) 19:53:57.02ID:6YYv3EfZ
そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。
253名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:54:16.04ID:xfwneuFr
一旦流出するともうどうしようもないから、ばら撒くことにしたのかな

>>247
ありがとう。あいつらライセンス違反やってたのか。
2022/10/11(火) 19:55:41.07ID:HsAWRd20
25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ
255名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:56:14.64ID:29Udd4W/
これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな?
256名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 19:57:17.34ID:WJDFfila
ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ
2022/10/11(火) 19:59:11.54ID:6YYv3EfZ
>>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。
2022/10/11(火) 20:08:34.55ID:+IYEg037
実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし
2022/10/11(火) 20:09:50.36ID:Cn6wuu2U
deep段ボールって
Interrogate CLIPってボタン?
260名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:12:36.88ID:29Udd4W/
いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな
2022/10/11(火) 20:14:33.69ID:VWEX5mCS
>>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ
262名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 20:22:16.80ID:c2af8446
https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答

なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。


アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな
2022/10/11(火) 20:26:02.30ID:t2JQ2Rdx
>>236
うちではvenv消して作り直させたら動いた。
細かいバージョンが狂ってるのかも。
2022/10/11(火) 20:28:38.54ID:Y/+qAYDf
しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう
2022/10/11(火) 20:40:47.42ID:m9QnEdXo
何で神seedだと多少違うプロンプトでもいい絵になるのか不思議だ
2022/10/11(火) 21:23:33.24ID:gMGAc8Wj
deepダンボールはメモリどれぐらいいるんだろ
2022/10/11(火) 21:25:52.28ID:6YYv3EfZ
なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる
268名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 21:27:56.45ID:OKWzXzG8
画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」

あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる?
2022/10/11(火) 21:38:31.83ID:eheI2hbr
>>267
またオカルトか。ソースりゃわかるでしょ。
torch.randn()で生成するただの乱数だよ。プロンプト関係ない
2022/10/11(火) 21:43:22.14ID:m9QnEdXo
偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる
2022/10/11(火) 21:50:09.83ID:x2SYJ+vG
GIMPでそのシードのノイズ作ってみてください
そしたら何かが見えてくるはずです
2022/10/11(火) 22:01:09.93ID:oKx/eDyV
前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ
2022/10/11(火) 22:10:32.94ID:nKKPAe0W
ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、
2022/10/11(火) 22:11:13.87ID:nKKPAe0W
>>273
ステップ数多いとデメリットあったりする?
275名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 22:18:03.07ID:1p0zySTV
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017

ローカルでカッコで強調する時にカッコの前にバックスラッシュを置くと良いらしい
2022/10/11(火) 22:19:56.95ID:mHSrToGr
>>274
時間がかかる
2022/10/11(火) 22:20:28.18ID:Y4JtovpP
画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある
2022/10/11(火) 22:21:50.31ID:GJPpDEKo
>>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う
2022/10/11(火) 22:26:11.69ID:6YYv3EfZ
サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。
2022/10/11(火) 22:32:28.92ID:+OwR5sq1
NAIって新規登録再開してる?
2022/10/11(火) 22:46:52.14ID:j3ZHYBkl
>>277
以前そう思って試したんだけどただフィルタ処理されたものを返しただけだった
2022/10/11(火) 22:47:08.22ID:NtZIb7O5
xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ
2022/10/11(火) 22:49:32.41ID:nKKPAe0W
>>276
>>278

>>279
ありがと。あげすぎてもあんま意味ないのね。 50~60あたりでいい感じのところを調節して探してみる
2022/10/11(火) 22:54:06.88ID:j3ZHYBkl
img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ
2022/10/11(火) 23:07:01.75ID:SNYTfBwu
>>275
NAIモデルは()認識してない気がするけど
2022/10/11(火) 23:25:55.37ID:oKx/eDyV
>>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話
2022/10/11(火) 23:39:38.20ID:SNYTfBwu
いやWD1.3の仕様みたく認識されない気がするって話なんだけどなぁ
2022/10/11(火) 23:40:18.59ID:euFxIGy0
1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ?
2022/10/11(火) 23:44:04.26ID:SNYTfBwu
よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう
2022/10/11(火) 23:46:31.55ID:GcJsTdiu
まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便
2022/10/12(水) 00:24:29.49ID:tnkHPKBn
>>288
↓ここ
Output directory for images from extras tab
2022/10/12(水) 00:30:54.08ID:dOKrPM1J
>>291
なるほど、エクストラへ一枚ずつ送ればいいのか
ありがとう
2022/10/12(水) 00:33:12.32ID:oslN2U1X
正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな
2022/10/12(水) 00:35:52.15ID:0zPfU5+P
フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど
2022/10/12(水) 00:43:28.84ID:mVA/sRdU
音楽AIはどうしたんだ
割と楽しみにしてるんだが
2022/10/12(水) 00:47:12.58ID:AIArC2qd
SD1.5も楽しみだし音楽AIも動画AIも待ってるし、世の中楽しみだらけやで
2022/10/12(水) 00:53:40.81ID:1En7iy57
音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い
2022/10/12(水) 00:58:00.66ID:ddxhJKC8
音楽の話はスレチだから俺はしないけど
どこで話せばいい?
2022/10/12(水) 01:00:36.52ID:mVA/sRdU
確かにスレチだったかすまん
やるならAI総合だろうけどまともに話にならなそう
300名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:09:10.24ID:YjzIQUOi
1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや

もしかして1111版だとnswf表現できない?
2022/10/12(水) 01:09:36.88ID:2ladUrgg
AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ
2022/10/12(水) 01:11:26.82ID:oslN2U1X
>>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、
2022/10/12(水) 01:11:29.17ID:0zPfU5+P
エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。
2022/10/12(水) 01:13:11.98ID:kozSGHal
特定のステップまで無効にするやつ効いてない?ローカルNAI
2022/10/12(水) 01:15:23.50ID:0zPfU5+P
>>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし
2022/10/12(水) 01:16:05.43ID:AIArC2qd
>>301
その辺でトークン75制限を超えたときの挙動が変わったはず。毎回変わるってのはちょっとわからんけど
307名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 01:21:01.04ID:YjzIQUOi
>>303
入れてるんやがまんこ出んなー
だしたいなーまんこ

>>304
なにそれ詳しく
2022/10/12(水) 01:29:00.71ID:2ladUrgg
>>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない

まあ9日の版で出せばいいんだけど
2022/10/12(水) 01:55:37.33ID:oslN2U1X
TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが
2022/10/12(水) 02:08:48.50ID:E8GzIrEy
トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ
2022/10/12(水) 02:38:00.83ID:bnvw4Uul
NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが
2022/10/12(水) 03:07:11.81ID:7WgE6Aas
お前のAI意思を持ちはじめたんだな
うらやましい
2022/10/12(水) 03:08:47.33ID:KMpw9fSM
意思持ち始めたAIを野に放ってくれ
そいつに界隈蹂躙させよう
2022/10/12(水) 03:12:37.64ID:tnkHPKBn
--xformers も --deepdanbooru もうまく動かないや。
linuxにぶち込むの、なかなかしんどいなぁ
2022/10/12(水) 04:29:31.84ID:5fT70X24
>>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず
2022/10/12(水) 04:55:26.02ID:DZy23lp4
>>286
めんどいな方言
2022/10/12(水) 04:57:15.31ID:h5Duf69K
>>4
更新されてた
https://rentry.org/sdg_FAQ

> If you are running an Pascal, Turing and Ampere (1000, 2000, 3000 series) card
> Add --xformers to COMMANDLINE_ARGS in webui-user.bat and that's all you have to do.
2022/10/12(水) 05:27:23.67ID:pAhU5nv7
stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう
319名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:30:14.69ID:zx+gyfL9
>>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される
320名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 05:32:14.81ID:zx+gyfL9
>>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。
2022/10/12(水) 05:39:21.03ID:C3DeDa5u
>>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい
322名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 07:31:21.34ID:H5Zxeydq
webuiにhypernetworkのトレーニング機能来てるね
2022/10/12(水) 07:57:19.14ID:Fc+KOdTU
背景綺麗な絵がほしいから顔の破綻は多少は許す
でも足は2本にしてください…
2022/10/12(水) 08:18:21.64ID:fbQ+aX/K
顔の向きとかでXYZ軸の角度指定欲しいな
2022/10/12(水) 08:41:48.87ID:Jtt7R8ot
画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが
2022/10/12(水) 08:43:46.48ID:nWe7TwLZ
(Y軸方向に無限に伸びた首画像)
2022/10/12(水) 08:51:21.57ID:DEdMJn6N
1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった
2022/10/12(水) 09:46:53.14ID:NDQ40tzG
>>309
3Dからとかは前からあるしねぇ
https://twitter.com/yokohara_h/status/1578636519144685569?s=61&t=iaYI_6Bjq6zFL0zE-KwsgQ
リンクメモってなかったけどTikTokから変換するテストは4chに動画で上がってたよ
背景動かない奴はそれなりに見れるレベルになってた
https://twitter.com/5chan_nel (5ch newer account)
2022/10/12(水) 10:25:08.01ID:7X8wtcYd
日本語であればシャフ度という便利な言葉があるが
2022/10/12(水) 10:29:56.59ID:C55NbFwb
TwitterでAI関連の発言するの躊躇うようになってしまって苦しい
風当たり強すぎる
2022/10/12(水) 10:51:09.46ID:SYo62ZNQ
じきに皆慣れて反感も忘れ去られる

ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ
2022/10/12(水) 11:17:23.41ID:ybfOmJmX
16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな
2022/10/12(水) 11:31:12.60ID:fbQ+aX/K
70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う
2022/10/12(水) 12:02:14.78ID:LxxZooPL
保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない…
2022/10/12(水) 12:20:29.82ID:aBAn8uGQ
VRAMで24GBで 動かせるらしい
https://github.com/gammagec/Dreambooth-SD-optimized

を試してるところだけど

一回目の
last.ckptを吐き出し終わったかどうか分からないよく分からない状態で
out of memoryでエラー終了する
2022/10/12(水) 12:32:40.01ID:dOKrPM1J
web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない
2022/10/12(水) 12:33:51.71ID:NY35Cg55
いよいよQuadro 48GBが必要になってきたのか
2022/10/12(水) 12:37:56.61ID:yndPCBwT
4090tiの48GB待ちかね
2022/10/12(水) 13:10:52.21ID:oslN2U1X
fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ
2022/10/12(水) 13:11:10.48ID:oslN2U1X
誤爆
2022/10/12(水) 13:40:48.98ID:pFAZCdQL
4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな
2022/10/12(水) 14:01:23.33ID:2H018u9e
数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる
2022/10/12(水) 14:16:45.06ID:YaNYl5V4
3090-24GBをnvlinkで繋げればいいじゃん
344名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 14:50:02.74ID:/0Qg67th
pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか
2022/10/12(水) 14:52:11.47ID:9og32tKs
AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ

これでどれぐらい安定していくのかちょっと見てみたい
2022/10/12(水) 15:19:20.03ID:ybfOmJmX
dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく…
347名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 15:20:31.71ID:pyeOGgSk
dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい
2022/10/12(水) 15:25:36.07ID:5fT70X24
手で描く時代の終焉だな
民主化万歳
2022/10/12(水) 15:29:14.18ID:0+M7IquF
バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう
2022/10/12(水) 15:43:53.72ID:OiV7LtOS
>>345
それまさに強化学習の有名な手法のやつだな
2022/10/12(水) 15:44:45.99ID:NY35Cg55
NovelAIの社員はともかく1111の人とかWDの人は本業大丈夫なんだろうかw
2022/10/12(水) 15:46:55.29ID:AIArC2qd
>>350
加えて「これはダメ」のネガティブ学習もさせてみたいね
2022/10/12(水) 15:48:18.56ID:wY80ZS1c
>>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる
2022/10/12(水) 15:49:56.21ID:OiV7LtOS
>>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな

Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル
2022/10/12(水) 15:52:16.18ID:9og32tKs
>>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで
2022/10/12(水) 15:52:31.44ID:OiV7LtOS
>>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない

AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし
2022/10/12(水) 15:55:24.99ID:9og32tKs
それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし
2022/10/12(水) 16:13:39.58ID:Jtt7R8ot
>>351
1111の人ってロシア人らしいし動員で開発中止とかはあるかもな
2022/10/12(水) 16:20:32.87ID:Ooqyi5eK
>>357
できることはTIやDBと同じで、画風やモノ(キャラ)を覚えさせられる、らしい。
しかし少ない学習ステップでいける、らしい。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2284
2022/10/12(水) 16:24:47.83ID:ZlAOHCh1
>>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから

あるいはmaster #2129まで巻き戻したものを別個入れればいい
2022/10/12(水) 16:25:17.91ID:9og32tKs
>>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。
2022/10/12(水) 17:00:03.71ID:z2VVctkE
>>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな
2022/10/12(水) 17:02:40.59ID:ifrLRek9
>>344
サーバーパンクしそうだな
364名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 17:08:43.63ID:9fjO5n7K
novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども
2022/10/12(水) 17:22:54.19ID:fbQ+aX/K
>>362
改造ドライバとか出てこないかな
昔はGeforceのQuadro化とかあったよね
2022/10/12(水) 17:28:00.23ID:7WgE6Aas
実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど
367名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 19:18:49.86ID:OSbDnTsm
そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。
2022/10/12(水) 19:30:59.03ID:oslN2U1X
NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ
2022/10/12(水) 19:32:40.07ID:OiV7LtOS
むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが
2022/10/12(水) 19:41:05.69ID:0zPfU5+P
one先生の絵をNAIとかWDに食わせてみたいと思う俺ガイル
2022/10/12(水) 19:41:48.17ID:DEdMJn6N
>>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…?
2022/10/12(水) 19:47:26.12ID:OSbDnTsm
>>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や

それにしてもwdもバージョンありすぎてようわからんな。
2022/10/12(水) 19:57:47.84ID:6PKdw4UK
>>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い
2022/10/12(水) 20:08:45.59ID:NO0PpfX3
何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな
2022/10/12(水) 20:23:04.71ID:AIArC2qd
ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う
2022/10/12(水) 20:33:27.11ID:oslN2U1X
NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ
2022/10/12(水) 20:45:27.32ID:U11jpQVz
NAIの公式オープンソースはよしてくれー
2022/10/12(水) 20:53:33.69ID:jO+SeLLh
俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった

バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)

普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?
2022/10/12(水) 20:54:17.64ID:QlQMsFsc
NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい
2022/10/12(水) 20:56:56.32ID:Fc+KOdTU
>>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ
2022/10/12(水) 21:05:35.67ID:fbQ+aX/K
ノートのCPU長時間ブン回すのは破壊前提でもない限りお勧めしない
2022/10/12(水) 21:06:51.76ID:FjjgbpjM
RTX2060+xformersですら512x512(20step)は3秒
これ以上のグラボの人は一枚生成に1~2秒?
2022/10/12(水) 21:35:25.98ID:Fc+KOdTU
>>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし
2022/10/12(水) 21:55:10.68ID:1vFMU4BV
IntelがRTX 3060 Ti相当の性能を持つグラボ「Arc A770」を10月12日から329ドルで発売へ
http://gigazine.net/news/20220928-intel-arc-a770/

ZLUDA使えるなら選択肢に入る?
2022/10/12(水) 21:58:53.15ID:fQ316zUC
CUDA・・・
2022/10/12(水) 22:01:59.40ID:aBAn8uGQ
VRAMが沢山乗ってるね
2022/10/12(水) 22:04:25.57ID:0zPfU5+P
ラデと同じでcuda無いから…ってパターンな予感
2022/10/12(水) 22:08:49.39ID:1vFMU4BV
いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと
2022/10/12(水) 22:14:48.96ID:AIArC2qd
はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね
2022/10/12(水) 22:25:35.90ID:aOAzC1Re
Trainのやり方やパラメーター解説してるところあったら教えて
2022/10/12(水) 22:31:15.83ID:0zPfU5+P
Zludaって開発まだやってるのかな
なんかこのみた感じだと止まってるっぽいけど…

https://github.com/vosen/ZLUDA
2022/10/12(水) 22:44:07.81ID:1En7iy57
titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな
393名無しさん@お腹いっぱい。
垢版 |
2022/10/12(水) 22:49:29.02ID:zx+gyfL9
もういっそのこと金あるならA40あたりでいいのでは...
2022/10/12(水) 23:43:19.27ID:w0Q0a4VW
text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想
2022/10/12(水) 23:46:21.83ID:0zPfU5+P
意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど
2022/10/12(水) 23:59:45.28ID:Fc+KOdTU
プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?
2022/10/13(木) 00:04:13.10ID:+sNQ5SXU
from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw
2022/10/13(木) 00:19:48.36ID:Nm5De/sw
Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね?
2022/10/13(木) 00:21:46.42ID:mMYaT5a+
>>398
AUTOMATIC1111のprompt matrixとかX/Y protとかを使う。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features
2022/10/13(木) 00:21:55.25ID:j5SKLFgm
テキストから3Dモーションを生成するMotion Diffusionてやつならあるよ
2022/10/13(木) 00:29:23.31ID:mMYaT5a+
>>398
model変えてマトリックス作るのはできない……かな?
2022/10/13(木) 00:33:02.19ID:FNeVUzvw
出来るだろ何言ってんだ
2022/10/13(木) 00:39:17.19ID:j5SKLFgm
WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は
404名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:43:29.09ID:mMYaT5a+
>>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw
405名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 00:46:28.02ID:mMYaT5a+
>>402
あ、ほんとだ。checkpoint nameとか入ってるわ。
2022/10/13(木) 01:28:23.57ID:KGvGoTe1
colab3日経っても規制が続く
厳しくなってるなあ
2022/10/13(木) 01:29:24.04ID:Nm5De/sw
>>399-402
ありがとう!試してみます
2022/10/13(木) 01:39:14.98ID:89TGTej+
automatic 1111のアップデートってどうすればできますか?
2022/10/13(木) 01:43:16.67ID:j0JlHvJO
git pull
2022/10/13(木) 02:57:01.66ID:pkInAopp
追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい

textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない
2022/10/13(木) 03:06:57.67ID:SgQcu03O
>>409
git bash hereで
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
打ち込んでもエラー吐くんだが俺だけかな
412名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 03:09:26.87ID:zmcQhSoI
後ろのURLいらなくて単にgit pullよ
2022/10/13(木) 03:14:41.84ID:bhkjUU2G
また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様…
2022/10/13(木) 03:54:44.00ID:SgQcu03O
>>412
できたわありがとー
2022/10/13(木) 04:24:12.71ID:PnQCQTvw
>>413
ブラウザ拡張でやれ
2022/10/13(木) 04:55:39.94ID:B6jYdeNw
線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい
2022/10/13(木) 05:15:53.93ID:iUqZHk8n
AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど
2022/10/13(木) 06:52:09.13ID:x1mr0mmI
colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね…
2022/10/13(木) 06:54:21.78ID:La+Qxu0Q
つpython入門
2022/10/13(木) 07:01:07.53ID:r0EYpDo2
AI絵で学習させても手がどんどん溶けるだけじゃないかな
2022/10/13(木) 07:08:01.55ID:M4inZTpt
novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね
2022/10/13(木) 07:23:22.29ID:zwM3s4wI
イラストは将棋と違って明確なルールや勝敗が決まってないから自己学習させたら行き着く先はシュメール人だろうな
https://i.imgur.com/PU9ye4s.jpg
2022/10/13(木) 07:27:25.88ID:6gZRmsvv
人間にフィードバックさせればいい
すでに投下されてるAIイラストは人の手で厳選されたもの
2022/10/13(木) 07:28:39.67ID:iUqZHk8n
俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい
2022/10/13(木) 07:34:24.68ID:PnQCQTvw
Hypernetworkのtrain10GBくらいvramくってんな
それだけ効果期待していいのか?
2022/10/13(木) 07:47:45.82ID:z0k0c3WV
>>391
最後のコミットでコメントにこう書かれてる

Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me

そして勿論引き継ぐ人なんか居ない
2022/10/13(木) 07:56:12.29ID:z0k0c3WV
>>394
URL貼れねえけど
mdm-a-new-text-to-motion-generative-model
てのが発表されてる
2022/10/13(木) 07:57:24.30ID:VVCDygvq
Intel自らがCUDAとの互換取れるように作り込めばいいんだけど
2022/10/13(木) 08:02:58.02ID:z0k0c3WV
>>413
bookmarkletでonBeforeunloadを上書きしてalert出すやつ作ればいいだろ
2022/10/13(木) 08:05:03.65ID:z0k0c3WV
>>428
なぜAMDがCUDAを採用しないか考えたこと無いの
2022/10/13(木) 08:09:34.15ID:VVCDygvq
>>430
あー、特許とか絡んでるのか
2022/10/13(木) 08:55:48.09ID:F/f1VpBz
使用率見てると生成速度はCUDAの性能が全てっぽい?
2022/10/13(木) 09:34:35.65ID:kY4znFzn
hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。
2022/10/13(木) 09:45:00.64ID:FNeVUzvw
--listen
2022/10/13(木) 09:55:03.65ID:qTuaLJzO
サブPCのCPUうんこだけど3060あたり載っけてそこそこ動くんかな
436名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 10:03:22.45ID:AQIrnPB6
せっかくやからコ↑コ←にもマルチポストしとくで。

だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ
2022/10/13(木) 10:21:20.60ID:La+Qxu0Q
犯罪者が出たぞ、囲め!
2022/10/13(木) 10:22:58.04ID:92UCQItD
>>435
3060が乗るマザボって時点で最低限のスペックは満たしてそうだし大丈夫なんじゃないかな
2022/10/13(木) 10:41:56.94ID:kY4znFzn
>>434
助かり申した、感謝。
---
・webui-user.bat
set COMMANDLINE_ARGS=--listen
---
2022/10/13(木) 13:21:23.98ID:nG71Z+6z
>>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ
2022/10/13(木) 13:30:28.51ID:qTuaLJzO
>>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…
2022/10/13(木) 13:39:17.34ID:6op4yHiB
artroomってPC再起動すると動かなくなっちゃうのなんでやねん。毎回インストールすんのかよ
2022/10/13(木) 13:43:46.22ID:vJaVK+nz
diffuserのモデルに入ってるunetとかtextencoderとかvaeとかってなんなん?
unetが本体で他はサブ?
2022/10/13(木) 14:51:54.75ID:yOxgSzrZ
>>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る
2022/10/13(木) 15:36:03.58ID:mvr2EnqE
グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな
2022/10/13(木) 15:39:10.22ID:bXTgaR1D
>>422
んなもんそれこそ批評側AIのパラメータ作り込めばいいだけじゃん
2022/10/13(木) 18:12:23.91ID:VVCDygvq
DreamboothのTtl版の導入に初っぱなからつまずいた
WSL2必須かこれ
以前Hyper-V入れたら何やっても環境戻らなくなってトラウマになってるんだが
2022/10/13(木) 18:28:44.99ID:fGfj5KTs
むしろWSL2よりWindowsに生で入れる方が怖くない?
2022/10/13(木) 18:50:43.71ID:vJaVK+nz
>>444
あーなるほどサンクス
>>6の意味がちょっと分かったわ
450名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 19:42:02.88ID:3r4OKC5I
NOVELAIのオパール入ったけど1万使い切りそうなのでAnalを追加したいけど
どうしてもエラーになる
完全に使い切らないと追加できないのかな?
無理なら2垢を検討してる
2022/10/13(木) 19:47:41.48ID:FNeVUzvw
何の話してるのか分からないから専スレ行け
2022/10/13(木) 20:02:50.44ID:bXTgaR1D
NAI使って最上位プランにしてるけど無料枠で回してるしエラーは知らん
2022/10/13(木) 20:11:13.36ID:JwR6r/WL
4090まだ在庫がある。
2022/10/13(木) 20:17:26.99ID:j5SKLFgm
4090TiのVRAMは24GBらしいという噂
2022/10/13(木) 20:27:04.88ID:WlGY421S
エロのために4090ポチったわ グッバイ3080
2022/10/13(木) 20:29:31.42ID:8bMXHU9P
仮想通貨を掘る運命から解放されたと思いきやエロ絵製造機にされるGPUさん…
2022/10/13(木) 20:33:22.12ID:JwR6r/WL
Graphics Processing Unitだからあながち間違いではない
2022/10/13(木) 20:36:18.80ID:+sNQ5SXU
4090、買うのはイイがその箱と電源で大丈夫か? というデカさなんだがw
2022/10/13(木) 20:39:41.71ID:3WgsBlQo
箱なんて飾りなんですよ
開けときゃいいんですよ知らんけど
2022/10/13(木) 20:46:41.45ID:FNeVUzvw
なんかgradio軽くなった?
2022/10/13(木) 21:57:48.61ID:AJipAR28
>>454
通常のシリーズでは24GB以上積む気ないだろうな
2022/10/13(木) 22:02:13.78ID:+sNQ5SXU
それ以上は普通にAシリーズ買えってことだろう
A6000が60万ぐらいだから、90ti2台よりかは安かろうって感じで
2022/10/13(木) 22:16:15.37ID:Oy6AMrOL
A6000使ってるけどメモリ多くてバッチサイズ大きくできるのめっちゃいい
てかいま60万なのか安いな
2022/10/13(木) 22:30:48.36ID:xe18AZvQ
A6000て48GBかぁすごい
何枚くらい出力できるもんなの?
2022/10/13(木) 22:44:21.88ID:GVpn0S9d
>>463
さすがにネタでしょ?w
なんか証拠スクショ貼ってよ
2022/10/13(木) 23:08:36.27ID:89TGTej+
情報系の研究室なら科研費で買って家で使ってるとかなくもなさそう
2022/10/13(木) 23:12:34.11ID:GNPAxSEa
流石に新グラボは人柱の報告待ちだな
468名無しさん@お腹いっぱい。
垢版 |
2022/10/13(木) 23:14:49.60ID:rt53UEZn
クラウドサーバーならA6000のインスタンスを1時間3ドルくらいで借りれるから
短時間で大量に生成したいなら使えそう
2022/10/13(木) 23:16:08.88ID:GVpn0S9d
このスレでいつもグラボの話されてるのに過去一度もA6000持ってるなんて書き込みないのに
いきなり>>462に反応して「使ってるけど」ってあるかね?

ニュース速+とかでいきなり被害者の知り合いだけど~って現れる奴みたい
2022/10/13(木) 23:20:52.75ID:FNeVUzvw
今まで生成画面にないことに違和感を感じていた設定を上に持ってきたけど
左下のデッドスペースが気になる
https://i.imgur.com/mHm6DtI.png
2022/10/13(木) 23:37:13.00ID:hTqPPs8M
>>469
昭和か?
クラウドなら分単位でつかえるぞ。
2022/10/13(木) 23:52:29.34ID:g84ecUt1
> てかいま60万なのか安いな
2022/10/14(金) 00:13:46.62ID:SHdTzgia
A100 80GBモデルをNVLINKしてVRAM160GB手に入れてーなー
AI画像生成始めてからVRAMジャンキーになってしまった
2022/10/14(金) 00:22:18.27ID:aK7rHLoF
まてよまてよ
WSLを2つ使ってSDとWebUI2つ起動して、それぞれを別々のGPU(2枚刺し)に割り当てたら
2並列で生成できるんじゃなかろうか
2022/10/14(金) 00:31:38.10ID:XjikJorg
そらできるでしょ
巷のGPUクラウドって超多コアのCPUと大量のRAM積んだベースに
挿せるだけのGPU挿してその数分のインスタンスを提供してるんだし
ローカルだったらPyTorchの実行先指定をちょいといじれば仮想化無しでそれぞれ別のGPUに流せるけど
2022/10/14(金) 00:52:21.67ID:SHdTzgia
というか2GPU手に入れたら片方のグラボで超重量級ゲームやって、もう片方のグラボでDreamboothとかやりたいな

3090Ti持ってるからもう一つ3090Ti買って、普段はゲームとAIの分割運用で、一部の対応ゲームとかベンチマークするときだけNVLINKにしてドヤるとかやってみたい

普通に欲しくなってきた、真面目に検討しようかな
当分VRAMは24GBから増えないだろうし、4090はNVLINKに対応してないし、せっかくだしNVLINKができる30シリーズの特性を活かしたいよね
2022/10/14(金) 01:16:15.56ID:tjbReTyG
つか、3090Tiを2つ動かせる電源ってどうなってんの……2000Wくらい?
2022/10/14(金) 01:33:28.86ID:kQTtTl7+
200Vが必要だからエアコンや乾燥機のコンセントを拝借するか新設だな
最強は電気自動車用コンセントだが
最大出力を何時間流しても平気
出力も3kwから10kwまであるし
2022/10/14(金) 01:57:25.46ID:hROnJCcO
Novel AI Leak 設定してもなぜかアスカが生足にならないし、nsfwいれても描画されない。
何か設定間違えている…?
2022/10/14(金) 02:16:55.05ID:hROnJCcO
>>479
すまん、ここに書いてあった。モデルの名前勘違いしてた
https://imgur.com/a/DCYJCSX
2022/10/14(金) 03:11:27.27ID:bNwczKpA
2つフルパワーで動かしたら水冷でもないと熱で死にそう
2022/10/14(金) 03:20:01.07ID:0nulJh1R
電源やケーブルにマイニング並みの知識と管理が必要になるな
24hフルで動かす訳じゃないにしろ一時的な負荷はむしろ大きいし
2022/10/14(金) 03:33:06.70ID:iByz9gC/
箱に入れずにオープンフレームで直接扇風機当てればいいべ
2022/10/14(金) 06:43:17.96ID:2+qJ6I6I
みんなアップスケーラーてどれ使ってるのん?
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描き込みを増やしたい場合てどれがいいのん?
2022/10/14(金) 07:52:22.49ID:Pj8SnpbA
部屋が冬でも冷房、夏はサマーウォーズの「うわ〜っ、暑い!」になるのでは
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理してるのかな
2022/10/14(金) 07:59:18.10ID:nKgTqKnx
聡太名人レベルになると家にデータセンターありそう
あとそろそろスレチ気味になってきたにゃー
2022/10/14(金) 08:25:04.93ID:I4aoRgos
やはり水冷だな
2022/10/14(金) 08:35:13.65ID:QeGD8Cwp
90Tiなんか発熱で溶けたみたいなこと言われてるから、もう普通に水冷つけとけって思うな
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ
2022/10/14(金) 08:46:29.47ID:I4aoRgos
4090は物理的に スロット埋まるから
SLI出来ないとか

長さも 3.5スロット占有や
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる
2022/10/14(金) 08:48:59.40ID:bNwczKpA
物理的なスロット干渉はマイニング延長ケーブルみたいのでどうにかなるんでね
2022/10/14(金) 08:50:47.50ID:pN8Jm991
最近のグラボの爆熱上等で無理やり性能上げてく感じはPentiumEEを彷彿とさせる
2022/10/14(金) 08:51:08.93ID:I4aoRgos
あとは 200Vコンセントが必要になるだろうってところか
2022/10/14(金) 09:04:07.93ID:f2T3x2aC
>>477
>>478
コンセントを200Vにはしたくないし、Signature1300ていう電源はデュアル電源に標準対応してて実質2600Wだからそれを検討してる

ただケース買い替えだし、グラボ代マザボ代その他諸々にCPUも13世代にしたいしで流石に当分は妄想にとどめておくよ
2022/10/14(金) 09:17:17.91ID:AmgEVVUS
グラボの話ばっかで画像生成の話してない
2022/10/14(金) 09:26:22.42ID:bNwczKpA
SDの新しいバージョンが正式にリリースされたらそっちのこと話すんでないかな
生成そのものの呪文とかはなんJやさんJが盛んだし
生成技術のスレだからそれでも良いと思うが
2022/10/14(金) 09:36:14.39ID:QeGD8Cwp
ハイパーネットワークで学習させてるヤツおる? あれってリークじゃない普通のckptでも動くんだよな?
2022/10/14(金) 09:40:56.91ID:OMLW7wgc
グラフィックボードの妄想だけつらつらと書かれてもね
世間はColabで使えるTPUで8枚8秒の話題になってるよ

>>496
例を見たいだけならtwitterでhypernetworkで検索すればいくつか出てくる
エロスレで試してる奴も居る
それによればNAIのckptじゃなくても普通に動かしてる人ばかり
けど誰もこうすりゃうまくいく的な話はしてないな
2022/10/14(金) 10:07:05.07ID:NSsJQ8sI
https://iwiftp.yerf.org

ここのNAIらしきデータって非torrentかな
でも非公式なのってウイルス怖いよね…
もう試した勇者様ってどれくらいいますか?
2022/10/14(金) 10:30:33.49ID:u3Iza5ue
5日みてなかったらもうついていけなくなった
TIはby Embeddingで使うけど、hyperは全体に勝手にかかるでOK?
2022/10/14(金) 10:39:43.81ID:T/ePtpFR
公式リークという概念
2022/10/14(金) 10:50:48.93ID:Ur2GaHD6
wslでxformers導入できた人いる?
2022/10/14(金) 11:00:50.75ID:f2T3x2aC
悪い妄想癖が出てしまって申し訳ない

自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定した上で、TIで特定のオブジェクトを覚えさせることも出来るんかな
2022/10/14(金) 11:02:39.08ID:vAHWjfwX
xformersが対応遅くて現時点では3090ti>4090っぽいね
2022/10/14(金) 11:18:34.78ID:FWkjSdxh
TIは学習内容に応じて特定プロンプトでptファイルを参照、対象モデル内のベクトルを引っ張る感じ
顔とかモノとかピンポイントで学習させた絵が生成されやすくなる。なのでファイルサイズも小さい

hypernetworkは追加学習でhypernetwork用の追加モデルとしてptファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風や作風そのものを全体に転送する感じ

と理解した
2022/10/14(金) 11:23:57.53ID:nKgTqKnx
TI やべえ
DB すげえ
HN ほげえ

なんかこんなニュアンス
2022/10/14(金) 11:43:07.23ID:AcwfJ4Wh
DreamBoothって使ってる人いる?
適当に弄ってみたけどなんかLinuxでしか動かない?のかな
てゆうかcolabなんて初めて触ったよw
2022/10/14(金) 11:55:18.33ID:AcwfJ4Wh
使い方わかった来たけど トークンいれても403エラーで蹴られる
もーやだ
2022/10/14(金) 12:01:04.01ID:F4FsJOKA
dbでprompt追加して学習したやつにtiを上乗せして顔を覚えさせようとしてるけど
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとしては使いづらい

あと体型ネガティブとか beautiful cuteあたりでもめちゃくちゃ顔変わってきちゃうからdfとしてだと生成後に顔周りだけimg2imgで変えたほうがいいかもしれん
2022/10/14(金) 12:14:01.77ID:XBUk6hAg
>>508
DBで画風学習させた後、別のプロンプト指定して再度DBでキャラを覚えさせて成功してる人Twitterで見たから、DB→TIよりDB→DBの方が良いかも
2022/10/14(金) 12:50:28.30ID:bNwczKpA
>>506
オリジナル版とCPU版はPythonで動かしてた気がする
2022/10/14(金) 12:57:04.67ID:I4aoRgos
ローカル環境だと
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライブの空き容量は100GB位は必要みたい
512名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 13:51:47.56ID:ARTDPbZp
StableDiffusionで真っ黒な画像しか出てこないんだけど助けて
卑猥な言葉は使ってないからフィルターとかではないと思うんだが
2022/10/14(金) 13:58:57.58ID:ALilA1k2
1660?
2022/10/14(金) 14:01:11.39ID:XNOQ4Zh8
>>512
メモリ不足の可能性がある
出力画像の解像度を下げて出力できるか試してみるといい
2022/10/14(金) 14:01:34.47ID:AcwfJ4Wh
DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
2022/10/14(金) 14:04:52.95ID:ARTDPbZp
>>513
1660ti

>>514
なるほど!DDR4で16Gしかないからかもしれん
試してみる

ありがとう
2022/10/14(金) 14:07:40.90ID:QeGD8Cwp
まあ、あとは念のためにpromptにNSFWをどっかに突っ込んでおくかな。あくまでもオマケ的に
2022/10/14(金) 14:08:10.45ID:ARTDPbZp
64×64まで下げたけどだめだった
2022/10/14(金) 14:11:10.58ID:nYV2BrHh
コマンドラインに何かエラーメッセージは出てないの
2022/10/14(金) 14:11:58.16ID:ALilA1k2
>>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention

NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ
2022/10/14(金) 14:47:26.99ID:30QwPrZZ
横からごめん
--opt-split-attentionって知らなかったんだけどどんな効果のオプションなの?
2022/10/14(金) 14:48:43.94ID:AmgEVVUS
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations
2022/10/14(金) 15:21:47.00ID:30QwPrZZ
あんまり更新おってないからしらなかった

あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
https://i.imgur.com/z2XJYaV.png
2022/10/14(金) 15:28:02.89ID:T/ePtpFR
hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな
2022/10/14(金) 15:46:03.56ID:K5lHcCjq
アンダーフィッティング気味のpt使うと薄く効く気がする
2022/10/14(金) 15:48:44.98ID:ALilA1k2
だめやったんやろか…
2022/10/14(金) 16:01:42.39ID:dLPWtPAo
>>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし
528名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:02:35.83ID:ARTDPbZp
>>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな?
2022/10/14(金) 16:05:37.99ID:J8eb4dyA
インストールどころか場所ごと新しく作り直してゼロからやったら上手くいったことあるわ
2022/10/14(金) 16:33:20.52ID:OMLW7wgc
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
2022/10/14(金) 16:52:03.02ID:40bMpPm9
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
532名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 16:54:51.68ID:ARTDPbZp
>>530
なるほど〜
4090欲しくなりました
533名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 17:40:10.57ID:ARTDPbZp
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
2022/10/14(金) 17:45:35.52ID:QeGD8Cwp
連続生成って? バッチカウントとは別の?
2022/10/14(金) 17:49:29.32ID:nKgTqKnx
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
2022/10/14(金) 18:12:33.01ID:6Dz0i5Q9
Generateボタン右クリしてGenerat Forever
537名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:14:01.63ID:AvuLwezm
>>533
https://gigazine.net/news/20220909-automatic1111-stable-diffusion-webui-prompt-matrix/
538名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:15:21.42ID:XnPXne0y
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
2022/10/14(金) 18:26:49.65ID:YLsjtjlH
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
2022/10/14(金) 18:29:21.53ID:FMOFHk9F
>>539
わからん
同じ枚数に対して50でも200でも違いがわからん
2022/10/14(金) 18:37:37.83ID:OMLW7wgc
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い

もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
2022/10/14(金) 18:42:40.37ID:aUor17yO
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
2022/10/14(金) 18:43:27.15ID:aUor17yO
誤爆、誤爆でもないけど
2022/10/14(金) 18:48:27.44ID:bNwczKpA
そのうちAI絵師同士が殴り合うことになるのでは
545名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:50:31.38ID:ARTDPbZp
>>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww

バッチカウントってどこで変えれるの?
546名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:52:16.22ID:ARTDPbZp
ああ見つけたわw
バッチサイズの横にあった
2022/10/14(金) 18:52:20.38ID:QeGD8Cwp
CFGスケールの上のバー
2022/10/14(金) 18:55:35.26ID:AmgEVVUS
NAIモデルで二次元キャラを三次元に変換するの楽しい
549名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 18:56:33.69ID:XnPXne0y
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
2022/10/14(金) 19:01:42.64ID:I4aoRgos
>>549
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね
551名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 19:05:51.91ID:XnPXne0y
>>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
2022/10/14(金) 19:30:34.74ID:K1vetAlc
チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw
2022/10/14(金) 20:05:12.49ID:FMOFHk9F
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
2022/10/14(金) 20:56:55.52ID:Jz1slLtt
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
2022/10/14(金) 21:00:26.00ID:XjikJorg
>>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
2022/10/14(金) 21:27:50.14ID:lpWZ4Hlp
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
2022/10/14(金) 22:34:27.60ID:dLPWtPAo
>>556
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ttps://note.com/uunin/n/n725ae4601264
2022/10/14(金) 22:45:00.85ID:lpWZ4Hlp
>>557
おう!ありがとよ!(導入するとは言ってない)
2022/10/14(金) 22:54:14.21ID:ntrMQ3UX
2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった
2022/10/14(金) 22:58:33.12ID:K5lHcCjq
NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな
2022/10/14(金) 23:03:07.13ID:C/gau9np
すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか?
562名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:15:04.53ID:AcwfJ4Wh
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ

でもトレにめちゃ時間かかるし課金するか悩むなぁ
2022/10/14(金) 23:27:27.86ID:IZHJbIbx
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
2022/10/14(金) 23:28:15.28ID:Ia8ZvkTj
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
2022/10/14(金) 23:28:21.31ID:ARTDPbZp
waifuじゃnovelAIみたいなエロ画像出すのは無理?
2022/10/14(金) 23:30:02.18ID:I4aoRgos
>>565
普通にいける
>>563
ネガティブに 白黒っていれてみた?
567名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 23:38:30.80ID:AcwfJ4Wh
ごめんDBstablediffusion のが爆速だった
2022/10/14(金) 23:38:30.92ID:ARTDPbZp
>>565
マジかぁ
精進するわ

pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ
2022/10/14(金) 23:53:13.74ID:+g+H2Nl6
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
2022/10/15(土) 00:00:15.59ID:NIfsDDC5
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
2022/10/15(土) 00:28:30.86ID:cVyIiDx3
>>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
2022/10/15(土) 00:28:52.89ID:MA6pT5cu
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
2022/10/15(土) 00:32:54.52ID:MA6pT5cu
いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人
2022/10/15(土) 00:54:36.35ID:kphj/9u/
>>568
リクエストはいくつか出てるようだけどまだ実装はされてない模様
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1621
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues?q=is%3Aissue+multi+gpu+is%3Aclosed

GPU指定とport番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはできるかも?
2022/10/15(土) 01:14:10.59ID:AikKaOMk
>>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size

サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
2022/10/15(土) 01:31:58.84ID:MA6pT5cu
>>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね

具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた

WSL2のDockerに入れたから細かいところが違うのかなぁ
2022/10/15(土) 01:45:05.20ID:AikKaOMk
>>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる

詳しい人の降臨待ちっすね
2022/10/15(土) 02:03:46.69ID:TmM0Ta1u
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
579名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 02:16:57.29ID:S/D1EGiC
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
2022/10/15(土) 03:45:25.60ID:L+3ToJT9
>>579
俺はvenv消して実行し直したら治った
581名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 03:51:53.16ID:uMZtKJRm
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
2022/10/15(土) 04:02:26.09ID:NIfsDDC5
>>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
2022/10/15(土) 04:19:01.82ID:5rScqju3
履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう
584名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:22:07.54ID:uMZtKJRm
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G

AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")

RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。

結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
2022/10/15(土) 09:25:54.15ID:7nZ34vzV
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな

なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
2022/10/15(土) 09:29:09.45ID:uMZtKJRm
>>584
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん
2022/10/15(土) 09:31:05.90ID:SRcrgA/b
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
2022/10/15(土) 09:35:18.22ID:bfq41/Ms
1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる……
2022/10/15(土) 09:36:43.82ID:kphj/9u/
COMMANDLINE_ARGS(コマンドライン引数)まとめ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Run-with-Custom-Parameters

ソースを読んだ方が完璧に把握できるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/shared.py
590名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:39:58.53ID:uMZtKJRm
>>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
2022/10/15(土) 09:46:26.92ID:uMZtKJRm
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
592名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 09:53:49.69ID:osFtr3lr
面白いなこれ
回転するフィギュアを動画で撮って全コマAIでimg2img
https://twitter.com/toyxyz3/status/1581039517112602624?s=46&t=qtABZ33710o14Nfouqn8Ew
https://twitter.com/5chan_nel (5ch newer account)
2022/10/15(土) 09:59:19.21ID:cETgTEzp
顔が全部カメラ目線
やはりカメラ目線は重要ということか
594名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 10:01:30.70ID:e+jJnNMA
アニメーションの自動生成はそんなに遠くないんだろうなって感じる
2022/10/15(土) 10:18:12.19ID:8pgYproy
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった

よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
2022/10/15(土) 10:51:43.76ID:AikKaOMk
>>595
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
https://youtu.be/YF3MtNuX_F0
2022/10/15(土) 11:02:32.50ID:8pgYproy
>>596
ほーん

配置が修正されるのかと思ったら
解像度が上って美肌される感じか
598名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:03:54.95ID:uMZtKJRm
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。

GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
2022/10/15(土) 11:06:59.56ID:bfq41/Ms
ちゃんとレイヤーステップ2になっとるけ?
2022/10/15(土) 11:13:20.62ID:AikKaOMk
>>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
2022/10/15(土) 11:26:25.32ID:mbp63UAw
>>598
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから
602名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:38:12.22ID:uMZtKJRm
>>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。

settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337

*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590

Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
2022/10/15(土) 11:40:04.74ID:bfq41/Ms
vae通ってないんじゃ?
604名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 11:44:19.45ID:uMZtKJRm
>>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。

…ネカフェのPCで…だめか。
2022/10/15(土) 11:48:09.45ID:Kwyzi7uJ
ネカフェのPCなら
3060位積んでるんじゃね
2022/10/15(土) 11:48:59.10ID:7nZ34vzV
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
2022/10/15(土) 11:51:04.13ID:Ntrq5HZ9
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
2022/10/15(土) 11:54:45.21ID:bfq41/Ms
その条件なら8枚で23秒かな。3070ti
2022/10/15(土) 11:56:06.76ID:bfq41/Ms
ああ、ごめんステップ見間違えてた。150stepなら19秒だわ
2022/10/15(土) 12:02:01.69ID:KScbvafB
>>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
2022/10/15(土) 12:12:08.50ID:JcgiPC8b
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
612名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:14:41.26ID:uMZtKJRm
>>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。

>>603
なんやそれ

>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
2022/10/15(土) 12:16:36.84ID:mbp63UAw
>>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
2022/10/15(土) 12:23:26.27ID:CvyUGpTa
勉強すんのは嫌だけどエロの為なら頑張れる
615名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 12:25:42.23ID:uMZtKJRm
使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……
2022/10/15(土) 12:31:52.38ID:vxI1kUjx
ネカフェに金払うくらいならcolabに課金して家でやった方がコスパいいのでは
2022/10/15(土) 12:33:17.14ID:7nZ34vzV
>>612
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが
2022/10/15(土) 12:37:32.96ID:et6JpmZW
>>608
8枚70秒くらいかかるわ
ちなrtx4090
2022/10/15(土) 12:40:51.93ID:Ntrq5HZ9
>>609
くっそ早いww
もうこんなグラボでチンタラやってるの悲しくなってきた
グラボ買うぞ🥺
2022/10/15(土) 12:42:07.96ID:1wuGG+vw
ついに4090持ちが現れたかw
4090の方が遅いの?スクショとかupできる?>>618
2022/10/15(土) 12:43:38.94ID:Ntrq5HZ9
俺も4090買うぞ☺
2022/10/15(土) 13:07:16.65ID:cVyIiDx3
なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!

と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
2022/10/15(土) 13:11:27.42ID:0Krj1uq/
>>615
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする
2022/10/15(土) 13:22:52.99ID:S28Zpjdt
gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ

素直にGPUかえ
625名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:30:41.91ID:F0xLrC4V
>>620
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
626名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 13:53:58.52ID:0kSXAuWY
NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?
2022/10/15(土) 13:55:31.51ID:nm/5L0YC
そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる

>>625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…
2022/10/15(土) 13:58:04.03ID:nm/5L0YC
>>626
自分がちょうど >>539 で同じ質問してて、 >>541 が詳しく解説してくれたから参考になると思うよ
629名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:00:42.92ID:LYx8iol5
>>628
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
2022/10/15(土) 14:01:53.34ID:1wuGG+vw
>>625
うっひょー
報告あるんだ
631名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:02:11.31ID:21RKitFN
8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい
2022/10/15(土) 14:11:00.25ID:TmM0Ta1u
情報が少し古いのがあるけどこんなにGIGAZINEが役に立ったのは初めてかもしれない
2022/10/15(土) 14:14:35.36ID:7nZ34vzV
>>632
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった
2022/10/15(土) 14:18:07.33ID:+S3McIYd
手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です
2022/10/15(土) 14:24:01.67ID:bfq41/Ms
線画に軽く色をつけて投げて、ちゃんとpromptも書き込む
2022/10/15(土) 14:25:47.77ID:nm/5L0YC
>>629
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う

ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い
2022/10/15(土) 14:29:14.87ID:eUckkZej
3060だと26秒(5.56it/s)
2022/10/15(土) 14:30:48.39ID:mbp63UAw
>>634
SDはそういう目的のAIじゃないので向いてない。こっち↓のAIの方が良さそう
https://github.com/lllyasviel/style2paints
2022/10/15(土) 14:33:39.75ID:8pgYproy
そういえばRTX3000が発売さたときもBLENDERとかで遅くて、後に最適化で早くなってたなぁ
2022/10/15(土) 14:35:57.23ID:uMZtKJRm
>>623
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.

こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
2022/10/15(土) 14:36:07.59ID:Kwyzi7uJ
step150も上げなくてよくね?
50とそんなに変わるのか
2022/10/15(土) 14:38:34.04ID:hntWdn8M
50以上は上げても違いがよくわからん
2022/10/15(土) 14:42:33.68ID:nm/5L0YC
せやね
なんならアニメ調の絵は30くらいでも十分かも
2022/10/15(土) 14:42:38.70ID:bfq41/Ms
正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる
2022/10/15(土) 14:44:43.86ID:B6H/o30J
あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
2022/10/15(土) 14:45:48.91ID:VUuwRUix
@アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力

@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。
647名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:50:53.54ID:F0xLrC4V
>>627
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流
2022/10/15(土) 14:56:10.75ID:Kwyzi7uJ
アニメキャラを覚えさせる場合

reg template smallest
"phot of a {}"→"{}"
に変更して

覚えさせたいキャラの特徴で吐き出させた方がいいのかね
2022/10/15(土) 14:58:25.36ID:+S3McIYd
>>638
ありがとうございます!試してみます!
2022/10/15(土) 15:08:16.84ID:nm/5L0YC
>>647
環境も同じっぽいしやっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー
651名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:15:56.94ID:F0xLrC4V
Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと
2022/10/15(土) 15:18:11.65ID:bfq41/Ms
とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし
2022/10/15(土) 15:21:19.16ID:+EjjPfMN
>>631
がんばって
自分も詰んでる組だから
もし出来たらまた報告に来て欲しい
2022/10/15(土) 15:21:53.00ID:0Krj1uq/
>>640
ちゃんと読み込めてるな
他の設定も合ってるみたいだし、CPUとGPUの差が濃厚っぽいな
2022/10/15(土) 15:22:45.82ID:+EjjPfMN
>>632
まだ読んでないけどgigazineがkindleに無料の解説本だしてた
2022/10/15(土) 15:41:34.87ID:EkMd8kqH
https://github.com/7eu7d7/APT-stable-diffusion-auto-prompt

この技術なんか凄そうだけど
中国語でよくわからん
pixivをクローリングしてプロンプトを最適化したらしいけど
2022/10/15(土) 15:43:30.71ID:zLlnUrZc
ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね
2022/10/15(土) 15:46:24.94ID:jDEnkG22
確かにHires.fix変わってScale Latentなくなってるな。これなしだと見栄えが違うから復活希望の意見ばかりだし、待ってれば戻ってきそう。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2613
2022/10/15(土) 15:48:59.51ID:5rScqju3
scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか
2022/10/15(土) 15:49:49.61ID:eUckkZej
一方勝間和代は外付けGPUボックスを買った

ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419

別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた

Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147
661名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:49:57.86ID:KzL+RF0K
>>636
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう
2022/10/15(土) 15:54:09.49ID:5ecYbv+F
勝間和代のブログ見てる人おんのか…
2022/10/15(土) 15:56:34.55ID:093ZpIqN
>>660
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ
664名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 15:56:38.51ID:21RKitFN
>>653
それっぽい報告は複数あるけど解決策出てないんだよな

https://github.com/microsoft/DeepSpeed/discussions/2408
https://github.com/microsoft/DeepSpeed/issues/2099
https://github.com/microsoft/DeepSpeed/issues/2191
2022/10/15(土) 16:10:39.34ID:MA6pT5cu
うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる

記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ

注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
2022/10/15(土) 16:10:49.69ID:6vS59t0d
勝間和代NMKD使ってるのか
画像まであげるとは攻めてるなー
2022/10/15(土) 16:24:43.36ID:+EjjPfMN
>>655
ごめんKindleUnlimitedで0に見えてただけだった
2022/10/15(土) 16:40:09.91ID:4y2ZH5X6
ワイのグラボGTX760で2GBしかないんやけどWebUI(AUTO1111版)いけるか?
2022/10/15(土) 16:43:50.49ID:bHEhhghC
いけますよ、CPUを使いましょう
1枚5分くらいで生成してくれることでしょう
2022/10/15(土) 16:47:08.80ID:mbp63UAw
5分かかるCPUなら760でもGPU使った方がマシなんじゃないか
2022/10/15(土) 16:48:24.84ID:MA6pT5cu
1111の最低要件ってVRAM4GBじゃなかったっけ
672名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:50:06.61ID:21RKitFN
AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?
2022/10/15(土) 16:52:41.71ID:MR4PxJk9
NAIモデルでdreambooth走らせたいんだがgoogle cloabじゃ無理?
2022/10/15(土) 16:53:06.29ID:pbYNsuKO
今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ
2022/10/15(土) 16:55:20.12ID:mbp63UAw
>>671
4chanに750Tiで動かしてる人おったから多分2Gでも動く
676名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 16:55:44.11ID:uMZtKJRm
>>654
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。
2022/10/15(土) 17:03:40.09ID:uMZtKJRm
せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
2022/10/15(土) 17:11:14.26ID:mbp63UAw
どっかの説明にも2Gでいける書いてあった気がするので探したがコレだわ
https://rentry.org/voldy

If you have 4GB VRAM and want to make 512x512 (or maybe larger) images,
use --medvram.
If you have 2GB VRAM,
use --lowvram
679名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 17:48:01.71ID:21RKitFN
>>673
俺も探してるけど見つかってないな
2022/10/15(土) 18:00:08.61ID:NWnRPioF
ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。
2022/10/15(土) 18:10:32.38ID:VOiTplJv
colab1111の出力枚数上限の増やし方がわからない・・・
2022/10/15(土) 18:12:34.22ID:iTuUmUVr
コンフィグいじれよ
2022/10/15(土) 18:17:01.11ID:VOiTplJv
>>682
ローカルでいうui-configのcount/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・
2022/10/15(土) 18:48:06.87ID:S36LRKR5
フォルダ直下
2022/10/15(土) 18:59:12.98ID:O196yiuJ
hypernetworkどれくらい学習すればこんくらい効果あるみたいな情報ないか?
2022/10/15(土) 18:59:35.33ID:/FBs4jwG
>>683
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)

ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"

!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py
687名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:04:17.53ID:nkG6PHq4
>>685
エロスレに試してる人いる
2022/10/15(土) 19:06:10.12ID:5rScqju3
NAIモデルで月野うさぎ/セーラームーンが出ない
689名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:06:47.86ID:S/D1EGiC
>>579 >>580
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
2022/10/15(土) 19:14:00.95ID:VOiTplJv
ありがとございました!
無事設定できました!
2022/10/15(土) 19:37:20.07ID:uMZtKJRm
メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ

are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)
692名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:41:59.21ID:uMZtKJRm
はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ

適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分
2022/10/15(土) 19:42:21.90ID:bfq41/Ms
これを踏まえると、将来cuda以外で実行したら全部結果変わるっていう感じになりそうだな
2022/10/15(土) 19:43:03.24ID:JcgiPC8b
dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか

それか、step数踏めば銃やミリタリー系の色消えるもの?
2022/10/15(土) 19:44:24.00ID:MA6pT5cu
JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?
2022/10/15(土) 19:46:39.79ID:7nZ34vzV
>>692
スペック記載してる店は少ないからバクチやけど、せめてハイスペゲーミングPCの席選ぶんやで
2022/10/15(土) 19:53:13.33ID:MA6pT5cu
>>694
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
2022/10/15(土) 20:06:43.56ID:JcgiPC8b
適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?

結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする
2022/10/15(土) 20:33:09.95ID:Ras3M4ay
トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか
2022/10/15(土) 20:42:52.20ID:Ntrq5HZ9
novelAIに勝てねえ
やっぱ有料サービスは強いな
2022/10/15(土) 20:55:51.81ID:hntWdn8M
リークモデル使ってもやっぱ違う?
2022/10/15(土) 20:56:45.47ID:4y2ZH5X6
流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね
2022/10/15(土) 21:01:46.70ID:Ras3M4ay
グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように
2022/10/15(土) 21:12:38.01ID:Ntrq5HZ9
>>702
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど
2022/10/15(土) 21:21:10.64ID:bfq41/Ms
novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い
2022/10/15(土) 21:24:13.81ID:TmM0Ta1u
シンギュラリティ?!!
2022/10/15(土) 21:34:17.94ID:Kwyzi7uJ
NovelAI最近糞重くて サービスちょこちょこ止まってるけど
2022/10/15(土) 21:37:38.67ID:bHEhhghC
radeonはrocmでcuda使えるって話もあるな
ただしmacテメーはダメだ
709名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 22:07:58.45ID:nkG6PHq4
dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら
2022/10/15(土) 22:13:27.58ID:5Sol/bUf
colabでdreamboothしばらく使ったらもう何日も使わせてもらえない
2022/10/15(土) 22:15:44.95ID:hntWdn8M
あんまり負担掛けるんじゃねーよ的な?
2022/10/15(土) 22:34:32.92ID:khLmL76h
dreamboothとTIとhypernetworkの使い分けがよく分からない
2022/10/15(土) 22:54:34.79ID:4y2ZH5X6
>>704
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし
714名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:33:10.89ID:yN0Lb7VT
>>698
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!
2022/10/15(土) 23:37:47.09ID:mbp63UAw
>>712
使い分けるまでも無くHNが完全上位互換じゃないの?
2022/10/15(土) 23:50:10.20ID:eUckkZej
Train Hypernetworkをさっき初めて開始した
100000stepsまで15時間
2022/10/15(土) 23:56:32.22ID:yj0C8KAM
NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい
2022/10/16(日) 00:01:30.37ID:Zee6dncT
1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?
2022/10/16(日) 00:04:47.44ID:i8k1JocR
dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた
720名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:09:23.41ID:igoLWNix
>>712
>>712
TI(画風の学習)→プロンプトに味付け
 教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
 ×学習時のモデルで使わないとダメ
 (そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)

dreambooth(特定の意味を加える→キャラとか覚えさせる)
 教えた画像群の意味を覚えさせてモデルに加える
 →sksとか教えた意味が呪文で使える

hypernetwork(画風の学習→生成後半に味付け)
 モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
 生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
 Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)


TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う

TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)

HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた
721名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:17:26.64ID:bXlx3GEL
>>718
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される
2022/10/16(日) 00:20:08.98ID:6ffuqtQX
スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる

一長一短だなぁ
723720
垢版 |
2022/10/16(日) 00:20:37.91ID:igoLWNix
あと、TIよりHNの方が学習時間が短い。

そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)
2022/10/16(日) 00:23:22.66ID:kvXH9jJF
はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう
2022/10/16(日) 00:27:05.45ID:86BHjn16
HNを複数作っておけば好きに画風を切り替えられるってことでいい?
726名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:27:20.34ID:igoLWNix
>>722
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
2022/10/16(日) 00:32:22.50ID:6x1IPbSd
どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
2022/10/16(日) 00:33:24.01ID:J6rT9g9/
こうしてみるとHNはckptというよりもdiffuserの拡張的なイメージなんだな
729名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:34:46.97ID:igoLWNix
>>725
画風を複数作っておくのはHNでもTIでも切り替え可能。

HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ
2022/10/16(日) 00:41:08.62ID:6ffuqtQX
HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
2022/10/16(日) 00:48:55.75ID:wopiNjdt
Hypernetwork strength...
2022/10/16(日) 01:13:20.91ID:ghjWKzhb
>>713
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで
2022/10/16(日) 01:55:54.91ID:QmrqDzef
>>713
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。
2022/10/16(日) 01:56:01.24ID:5rzd4/h5
waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます
2022/10/16(日) 02:05:32.11ID:5rzd4/h5
>>713
>>733
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺
2022/10/16(日) 02:11:10.76ID:QmrqDzef
6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。
2022/10/16(日) 02:14:00.78ID:hZM0T8yy
>>713
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる
2022/10/16(日) 02:27:26.22ID:dh9YtBzs
1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??
2022/10/16(日) 02:30:23.90ID:QmrqDzef
5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB
2022/10/16(日) 02:37:15.76ID:Gdqp7gRE
初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか
741名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 02:44:04.05ID:FPOZlxXn
>>740
TIでもHNでも一応できるよ
2022/10/16(日) 02:54:41.70ID:ZnhcANsj
まあすでにRadeon持ってるならともかく、今からAI画像生成目的で買うならGeforce一択だと思う
2022/10/16(日) 07:11:46.80ID:B9hWP+Us
nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを
744名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 07:13:59.26ID:B9hWP+Us
そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか
2022/10/16(日) 07:51:11.60ID:vfrGrCfV
Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう
2022/10/16(日) 07:51:51.01ID:NHyXE8Qr
少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて
2022/10/16(日) 07:59:21.04ID:ObnEzCwO
エロスレで聞いたほうが早いんじゃね?

【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/
2022/10/16(日) 08:11:24.98ID:NHyXE8Qr
>>747
ありがとう
ちょっと行ってくる
2022/10/16(日) 08:37:08.15ID:Zee6dncT
>>721
ありがとう。試してみる
750名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 10:05:28.76ID:B9hWP+Us
>>744>>743
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???
2022/10/16(日) 10:19:58.47ID:HUWTCMFo
>>750
1111でも{}解釈してくれない?
2022/10/16(日) 10:28:22.97ID:2aq9lCQB
1111で{}は意味ないぞ
2022/10/16(日) 10:42:02.54ID:YEX1sJRa
https://i.imgur.com/KwZZRBA.png

「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?

カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが
2022/10/16(日) 10:46:51.38ID:YEX1sJRa
あーなんかgithubの導入はいけそうな記事あるな
2022/10/16(日) 10:55:11.85ID:2aq9lCQB
>>753
colabはlinuxだぞ。windowsのバイナリが動く訳ない
gitは何もせんでもコマンド使える
2022/10/16(日) 11:13:50.17ID:YEX1sJRa
>>755
ありがとう、やっぱそういう根本的なとこだったか

そんでLinuxサポートしてないのな、代替GUI探してみるわサンクス
https://qiita.com/solmin719/items/f174aab0fc73ddbc9cdf
2022/10/16(日) 11:15:30.64ID:J6rT9g9/
colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ
2022/10/16(日) 11:25:58.09ID:+U5N+6KE
仕様をよく知らないけどcolabでコマンドを使う時は先頭に!を入れないと動かない
!wgetみたいに
2022/10/16(日) 11:26:45.89ID:YEX1sJRa
そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし
2022/10/16(日) 11:27:31.29ID:YEX1sJRa
>>758
記事のコピペでGitHubまで通ったけどなんで!あんのかわかんなかったがなるほど、サンキュー
761名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 11:31:22.16ID:igoLWNix
>>734
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ

「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される
2022/10/16(日) 11:48:35.66ID:J6rT9g9/
colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能
2022/10/16(日) 14:24:32.60ID:kkaKYXbZ
hypernetworkを試してみているんですが、500ステップごとの画像出力がこんなにバラバラなのはうまくいっていない…ってコト!?
https://i.imgur.com/YTrrFiM.png
2022/10/16(日) 14:25:27.84ID:Zee6dncT
>>763
シードがランダムになってるからじゃね?
2022/10/16(日) 14:42:42.43ID:kkaKYXbZ
>>764
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます
766名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 15:03:47.10ID:B9hWP+Us
やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった

cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。

ところで、1111でsettingsのリセットってどうやるんですかね。
2022/10/16(日) 15:11:09.04ID:J6rT9g9/
settingのJSON削除したら再起動時にデフォのsettingのJSONが生成されるぞなもしばってん
2022/10/16(日) 15:38:27.23ID:B9hWP+Us
全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒
2022/10/16(日) 15:51:12.34ID:sVKT7A6r
4090で速度上がったって人もいるね
遅いのはxformersなのかな?
770名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 16:01:48.29ID:B9hWP+Us
よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな
2022/10/16(日) 16:08:17.71ID:Wyi55eZ9
おめぇの日記帳じゃねえんだよ
2022/10/16(日) 16:11:34.08ID:4txKkgUl
構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか
2022/10/16(日) 16:24:51.33ID:ghjWKzhb
>>606が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた
2022/10/16(日) 16:25:09.35ID:1Get5kDd
ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。

radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。
2022/10/16(日) 16:32:31.29ID:B9hWP+Us
クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや
2022/10/16(日) 16:34:01.06ID:1Get5kDd
>>774
radioの問題だけど、参考までにgithubの情報も載せとく
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/344
2022/10/16(日) 16:38:50.59ID:1Get5kDd
Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの??
2022/10/16(日) 16:55:46.65ID:ZnhcANsj
教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね
2022/10/16(日) 17:05:04.93ID:86BHjn16
モザイク必要になる奴?
2022/10/16(日) 17:17:04.92ID:I8bATd7d
>>777
待ってたら回復するよ
100コンピューティングユニットだと無料枠と同じGPU(Tesla T4)で50時間くらい使える
781名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 17:21:45.04ID:t7hiT172
>>778
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる
2022/10/16(日) 17:31:09.51ID:i8k1JocR
Waifu-Diffusers1.4来たらdreamboothに革命来る?
2022/10/16(日) 17:32:03.23ID:6hH9al3A
>>778
3090欲しくなるやんけ…
2022/10/16(日) 17:34:09.14ID:xGrXXdLo
>>778
250枚ともなるとステップ数も凄いな
時間どんくらいかかるんそれ
2022/10/16(日) 17:44:01.08ID:ZnhcANsj
>>781
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う

>>784
3090Tiで約12時間かかった
2022/10/16(日) 17:46:10.38ID:T83lw36i
成果物の提出をお願いいたします
2022/10/16(日) 17:50:14.43ID:86BHjn16
絵柄の学習は完全にクリーンだから
出していいでしょ
見せてくれませんか
2022/10/16(日) 18:03:32.09ID:ZnhcANsj
>>786
>>787
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな

ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる
2022/10/16(日) 18:04:34.37ID:BIra5d23
ついに俺のGTX1080のフルパワーを発揮するときが来たと思ったけど
メモリが足りなくて泣いた
790名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 18:06:03.17ID:kWLs9UQI
hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?
2022/10/16(日) 18:08:03.30ID:xGrXXdLo
>>785
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ
2022/10/16(日) 18:25:15.07ID:ejt6P45d
1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり
2022/10/16(日) 18:25:33.47ID:ejt6P45d
>>792
スレッド
https://www.reddit.com/r/StableDiffusion/comments/y56qb9/security_warning_do_not_use_share_in
2022/10/16(日) 18:25:57.43ID:+U5N+6KE
diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど
2022/10/16(日) 18:33:02.39ID:ejt6P45d
誤記:shareオプションだ
2022/10/16(日) 18:38:34.37ID:+U5N+6KE
任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
2022/10/16(日) 18:43:45.45ID:VAYJsdng
AIくん手や足が苦手なのはhypernetworkやDream boothで追加学習させれば解決出来る?
2022/10/16(日) 18:45:26.99ID:HJvyOLCz
ローカルマンは起動時のlunch=trueになってなければ大丈夫
2022/10/16(日) 19:09:03.38ID:k2SMXVws
勝手に変態スケベ画像作られちゃう!?
2022/10/16(日) 19:14:21.38ID:c/X3WEwH
ウェブカメラ起動されて顔写真撮られまくって自分のエロ画像生成された挙げ句拡散されるぞ
2022/10/16(日) 19:23:11.79ID:B9hWP+Us
中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。
2022/10/16(日) 19:32:43.44ID:B9hWP+Us
さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
803名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 19:34:23.17ID:7rdeF0oE
novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?
2022/10/16(日) 19:34:47.16ID:I8bATd7d
AUTOMATIC1111Colab版だとshareってのが必要なのか
2022/10/16(日) 19:57:12.56ID:J6rT9g9/
ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう
2022/10/16(日) 21:06:33.73ID:B9hWP+Us
新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。

原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。

順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?

うーん
2022/10/16(日) 21:15:38.49ID:B9hWP+Us
多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな
2022/10/16(日) 21:16:35.23ID:7Ekig07N
とりあえずgitクローンからやり直しせばなおる
2022/10/16(日) 21:21:10.29ID:B9hWP+Us
変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ
2022/10/16(日) 21:24:42.43ID:7DUNBWh6
俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…

この辺の正しい使い方あると嬉しいんだけどな

dreamboothってのがいるんかなあ
2022/10/16(日) 21:26:45.64ID:Zee6dncT
手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし
2022/10/16(日) 21:30:28.08ID:7DUNBWh6
出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど

アクセサリーとかエロネタ系だったり
2022/10/16(日) 21:30:49.44ID:7Xgmo+75
colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m

35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。

Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571

(中略)

以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。
2022/10/16(日) 21:34:24.68ID:XnlSfyrV
質問するようなレベルならやめるべき
2022/10/16(日) 21:37:37.00ID:1j9gK3ok
前からパスかけずに--share使うなって言われてんのに使ってる奴居るのか
2022/10/16(日) 21:40:09.26ID:7+6NBw4t
>>809
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。
2022/10/16(日) 21:43:02.80ID:J6rT9g9/
ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。
2022/10/16(日) 21:43:38.36ID:k6J7VrR6
>>>792
Ngrok経由なら大丈夫ということでしょうか?
2022/10/16(日) 21:45:36.39ID:+ZwawC2e
>>812
それはinpaintしかないんじゃないかな
2022/10/16(日) 22:19:07.67ID:7DUNBWh6
>>819
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?

新しくは書き込めなかったよね…?
2022/10/16(日) 22:21:17.88ID:J6rT9g9/
書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる
2022/10/16(日) 22:52:25.29ID:7DUNBWh6
>>821
なるありがとう。
2022/10/16(日) 22:53:20.63ID:XIiZzwz/
>>777
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ

でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない
2022/10/16(日) 22:58:38.91ID:s5IGHlcL
機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ
825名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 23:11:58.25ID:1Get5kDd
>>818
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと
2022/10/16(日) 23:14:58.39ID:+U5N+6KE
グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう

このままだとMacはスタバでドヤるためだけのパソコンになるだろうな
2022/10/16(日) 23:16:25.47ID:1Get5kDd
>>780
>>823

さんきゅー。とりあえずしばらく待ったら復活した。
無料だとトレーニングはなかなか難しいかもねー
2022/10/16(日) 23:44:22.73ID:wopiNjdt
xformers有効でたまに真っ黒の出るんだけどおま環?
2022/10/16(日) 23:53:47.82ID:rT5G0VDH
>>828
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね
2022/10/16(日) 23:58:33.82ID:2YaNlGqE
>>824
機械学習は今も昔もpython一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ
2022/10/16(日) 23:59:12.45ID:Yg7Hg+zN
shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい?
2022/10/17(月) 00:03:18.16ID:gWeiQ26A
>>831
(ローカルではない)publicなリンクを作るためには'share=True'にしろよ、って言ってるだけだ。
2022/10/17(月) 00:09:09.14ID:U7+CHkNh
colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい
2022/10/17(月) 00:16:30.99ID:WG4Oke8l
xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない
2022/10/17(月) 00:19:15.31ID:gWeiQ26A
launch.py見た感じ、今も--xformersオプション付けなければインストールされないのでは?
2022/10/17(月) 01:34:50.34ID:alDmjM1O
xformersのビルドパラメーター変えたら動くようになった
そもそも入ってなかったのかも
837名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 02:09:11.72ID:/Z66lPo9
というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい
2022/10/17(月) 07:16:13.77ID:iZ/UdLjt
絵柄を統一するにはどうしたらいいんだ?
839名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 07:49:48.10ID:2m3hygkV
>>837
3000以降でなくて?
2022/10/17(月) 07:54:00.36ID:nQGEYwDS
Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか
2022/10/17(月) 08:07:27.14ID:d2XyZlWc
>>813
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという
2022/10/17(月) 08:48:45.02ID:OdjOHVZz
絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で
2022/10/17(月) 08:52:52.10ID:fu4E24m1
>>840
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う
844名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 09:07:03.32ID:d2XyZlWc
すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。
2022/10/17(月) 10:32:25.54ID:mndmJmmd
自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった
2022/10/17(月) 10:36:14.41ID:nQGEYwDS
>>843
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか
2022/10/17(月) 10:36:57.29ID:mndmJmmd
そして書くスレ間違えた…
いやまあ大きく外れてはいないけど
2022/10/17(月) 10:40:03.05ID:ULNZXAxL
帽子とか被らないようにしたい場合はどんな呪文を入れればいいのか教えてください
2022/10/17(月) 10:55:02.80ID:2JeR298Q
negative promptに帽子いれたら?
2022/10/17(月) 10:56:22.48ID:/4GmzdgE
Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな?
2022/10/17(月) 10:57:10.16ID:FjkRtqVh
xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね
2022/10/17(月) 11:01:58.50ID:rgXlaQs+
SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
2022/10/17(月) 11:29:12.21ID:fu4E24m1
>>852
謎なんだけど、NMKDで剪定しちゃえば同じ生成してくれる2GBのモデルは作れる
2022/10/17(月) 11:37:04.40ID:d+usOTfa
追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?
2022/10/17(月) 11:56:25.35ID:rgXlaQs+
>>853
prune済みfp16でも小さくなるって事?
どうやればいいの?NMKD使った事なくてよく分からん
2022/10/17(月) 11:58:33.91ID:nQGEYwDS
hypernetworkのトレーング方法ようやく要領が掴めてきた
Tiよりは大分いいな
2022/10/17(月) 11:58:57.02ID:x0GhWPSO
学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?

https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する

ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?
2022/10/17(月) 12:07:51.66ID:PEU3gbWs
>>852
pruneスクリプトが9/28以降おかしいからじゃね
作者は新しいの使ってるみたいだけどそれだとprune前後で出力内容が変わる
https://github.com/harubaru/waifu-diffusion/commits/main/scripts/prune.py
2022/10/17(月) 12:33:04.82ID:fu4E24m1
>>855
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない

使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.

で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
2022/10/17(月) 12:45:13.44ID:rgXlaQs+
>>858.859
ありがとう、どちらも試してみるわ
2022/10/17(月) 12:53:25.46ID:nQGEYwDS
Hypernetworkでdreamboothみたいに少ない枚数で学習したい
流石に5-6枚では無理か?
2022/10/17(月) 13:04:46.79ID:s3d8QjiO
ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで

bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"

を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518

あとは、run_webui_mac.shを実行するだけ

ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh

104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす
2022/10/17(月) 13:46:44.99ID:TZxRUe++
auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった

モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな
2022/10/17(月) 14:30:32.55ID:zoSlJeQX
NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど
865名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:09:32.24ID:Y2AMcOHu
TrinArt旧キャラクターモデルがオープンソース化

https://twitter.com/naclbbr/status/1581876642200244224?s=46&t=Y8rt7gPiC2mM-zVcHKTPiA
https://twitter.com/5chan_nel (5ch newer account)
2022/10/17(月) 15:20:18.77ID:2kKXaQLK
当たり前のようにVAEをかます手法になってきたなw
2022/10/17(月) 15:31:48.42ID:nQGEYwDS
hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる
2022/10/17(月) 15:33:18.61ID:hP+5piYT
>>857
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど
2022/10/17(月) 16:05:42.43ID:n2Bxn8NT
>>865
405MBしかないautoencoder_kl-f8-trinart_characters.ckptはどう使うものなのかな
2022/10/17(月) 16:08:23.94ID:2kKXaQLK
>>869
vaeだろう? waifuと同じ感じの
ファイル名も同系列だし
871名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:09:56.53ID:4sACRINh
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
2022/10/17(月) 16:13:30.61ID:nQGEYwDS
そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ
874名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
2022/10/17(月) 16:16:33.01ID:n2Bxn8NT
>>870
models\Stable-diffusion に入れればいいんですか?
876名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:17:06.46ID:4sACRINh
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
2022/10/17(月) 16:37:00.08ID:l1DjdfDd
>>844
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
2022/10/17(月) 17:02:14.80ID:+Pf/s7hV
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん

waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
2022/10/17(月) 17:08:04.28ID:d+usOTfa
1.3はちょっとガッカリでしたね
2022/10/17(月) 17:17:36.70ID:mndmJmmd
アウロリ製造目的でもないならdreamboothはcolabでよくね
2022/10/17(月) 17:19:54.66ID:wYyHAuYq
冷静な指摘THX
2022/10/17(月) 17:30:32.51ID:jzVVkhF8
>>857
Hypernetwork解説してるのこれかなー。ちゃんと見てないけど
https://www.youtube.com/watch?v=1mEggRgRgfg
885名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:35:35.74ID:PG7EuW3q
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
2022/10/17(月) 17:39:26.96ID:jzVVkhF8
>>870
すまん、vaeについていけてない。どう使えばいいの?
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
2022/10/17(月) 17:41:51.73ID:2kKXaQLK
>>886
6
2022/10/17(月) 17:44:37.35ID:d+usOTfa
>>887
今やってみたけど今まで通り出るよ
890名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:52:13.04ID:4sACRINh
>>887
Fullにしてないオチ
2022/10/17(月) 18:04:38.20ID:L7rdcMqT
とりさんまはどれをどこに入れればええんやん?
2022/10/17(月) 18:05:25.98ID:L7rdcMqT
自決した
2022/10/17(月) 18:16:54.70ID:ZVbLymcT
colab環境でdreambooth回すならwaifu1.3を使うしかないのか
2022/10/17(月) 18:18:40.75ID:n2Bxn8NT
>>888
autoencoder_kl-f8-trinart_characters.ckpt

trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな

NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
2022/10/17(月) 18:28:46.14ID:mtmeY11F
とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな
2022/10/17(月) 18:30:53.13ID:2kKXaQLK
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
2022/10/17(月) 18:35:07.99ID:CKWAYoH4
NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ
898名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:44:46.35ID:yqllOzjB
hlkyって死んだの?
2022/10/17(月) 18:49:49.96ID:AN5V5xfD
>>878
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな
2022/10/17(月) 19:19:29.32ID:mndmJmmd
HNは何か急激に再現度上がるタイミングがあるな
2022/10/17(月) 19:26:37.90ID:jzVVkhF8
>>894
ありがとう!

colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
2022/10/17(月) 19:46:35.16ID:jzVVkhF8
>>901
ごめん、このwgetのコマンドは間違い。

vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。

こんな感じになったら、VAEがロードされてるはず。

Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
2022/10/17(月) 20:13:46.33ID:ldxtMWb/
私もHypernetworkが上手くいかないので教えてください。

キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?

・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい

1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
 >100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
 ・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
    (「a woman, 1girl, solo, white background」でもだめ) 
2022/10/17(月) 20:31:29.55ID:fu4E24m1
>>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく

自分ならとりあえずこんな感じで試すかも
2022/10/17(月) 20:34:55.89ID:adqtuMlL
なかなか 難しいね
2022/10/17(月) 22:02:41.17ID:NFtScPgO
とりんさまも結構やる子だぞ
https://i.imgur.com/QSbVPOy.jpg
https://i.imgur.com/sS7R7xx.jpg
2022/10/17(月) 22:35:22.64ID:891my6Vf
イケメン生成するためにずっとtrinart2使ってるけど、美少女もわりといけると思うんだ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ
2022/10/17(月) 22:39:57.04ID:UGl0wV53
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
2022/10/17(月) 22:51:45.40ID:adqtuMlL
xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった
2022/10/17(月) 23:05:28.46ID:891my6Vf
>>908
わかりやすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな
2022/10/17(月) 23:47:42.47ID:+Pf/s7hV
色々試してるけど、結局waifu1.2に戻ってくる
https://i.imgur.com/cCJf2DY.png
2022/10/17(月) 23:55:39.15ID:UGl0wV53
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
2022/10/17(月) 23:57:11.48ID:+Pf/s7hV
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
2022/10/18(火) 00:02:36.49ID:j0I0cSk3
>>912
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな
2022/10/18(火) 00:06:18.31ID:oKNCSux3
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
2022/10/18(火) 00:18:08.04ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
2022/10/18(火) 00:18:46.14ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
2022/10/18(火) 00:31:00.38ID:93v8L+yq
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
919名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:43:10.46ID:l1T5Qa1Z
diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで

config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
2022/10/18(火) 00:50:34.35ID:93v8L+yq
>>919
ありがとう。試してみます
921名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 04:14:38.49ID:soj7FsTJ
wd1.4の新しいvae来たけど試した?
2022/10/18(火) 07:11:36.57ID:P2mP3FzW
進化の流れについていけねええええええええ
2022/10/18(火) 08:41:00.94ID:q9QBdgsx
https://docs.qq.com/doc/DWHl3am5Zb05QbGVs
なんでこれ貼ってないの
2022/10/18(火) 08:45:17.71ID:cyHLbL5S
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
2022/10/18(火) 08:46:54.53ID:TtXnf/fW
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
2022/10/18(火) 08:47:13.18ID:Lo3y4TAi
>>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
2022/10/18(火) 09:41:15.76ID:RDN7cvBB
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
2022/10/18(火) 10:36:16.00ID:bKPdKQSD
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
929名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:56.24ID:wbrPm6Fj
>>926
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる
2022/10/18(火) 10:51:55.46ID:3BBOW5w1
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
2022/10/18(火) 10:54:05.13ID:x3uyPhfX
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り

Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.

英語と日本語できる人よろしくたのむ
2022/10/18(火) 10:58:00.25ID:RDN7cvBB
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
2022/10/18(火) 10:58:13.00ID:YQaGLl7w
博多弁なら任せろ
2022/10/18(火) 11:35:57.20ID:93v8L+yq
>>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか

(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png

novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
935名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:28:22.93ID:l1T5Qa1Z
引数に以下必要かも
--original_config_file=model/config.yaml
2022/10/18(火) 13:43:40.98ID:l1T5Qa1Z
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
2022/10/18(火) 13:50:27.09ID:JoiaNmiz
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
2022/10/18(火) 14:00:14.32ID:xjE4NofN
無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念
2022/10/18(火) 14:06:39.39ID:93v8L+yq
>>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます

出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
2022/10/18(火) 15:14:54.45ID:N32QSKnx
>>939
https://colab.research.google.com/drive/1Fu_v_VfTVDan61uiS5zI8OEqeRjQgVC2#scrollTo=wnTMyW41cC1E
参考にしてください
2022/10/18(火) 15:40:53.95ID:5DgBXIZt
>>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね

全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う

全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
2022/10/18(火) 15:49:26.92ID:N32QSKnx
>>939
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted
2022/10/18(火) 15:58:16.38ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
2022/10/18(火) 16:07:25.39ID:N32QSKnx
./でした
失礼
2022/10/18(火) 16:25:37.33ID:93v8L+yq
>>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました

--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]

- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)

return text_model
2022/10/18(火) 16:42:09.31ID:x9mpdnVy
結局SD1.5はいつ出るんだ?
2022/10/18(火) 16:59:13.94ID:8m7b93Ex
たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない
948名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 17:21:57.69ID:GXy84LFC
>>941
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます
2022/10/18(火) 19:12:48.64ID:cvFdiqt/
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
2022/10/18(火) 19:22:32.68ID:PD7GU1ya
これ写真食わせたらどうなんの?
2022/10/18(火) 19:42:38.40ID:b76mos+T
deepfakeが作れるよ
2022/10/18(火) 19:44:39.55ID:83KLqlGX
>>949
i2iとかinpaintで頑張れ
2022/10/18(火) 20:19:37.76ID:SdnJUVNK
>>949
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり
954名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 20:34:57.45ID:5fUCLEJM
>>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
2022/10/18(火) 20:39:28.53ID:U+Re+1lV
>>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
2022/10/18(火) 20:40:23.24ID:zu/vdcfa
前スレの>>797
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど
2022/10/18(火) 20:43:40.02ID:oKNCSux3
Legのtypoミス
2022/10/18(火) 20:46:34.26ID:Nv8AfTz2
>>956
タイポ
959名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:01:25.84ID:k4JvEfw0
>>955
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。
2022/10/18(火) 21:05:58.64ID:VcGxzPHt
>>956
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで
2022/10/18(火) 21:06:36.01ID:zu/vdcfa
これで正常になった?
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png
2022/10/18(火) 21:07:10.61ID:ey3587xA
sfwでエロが出ないって当たり前だろ
わざとやってる?
2022/10/18(火) 21:21:49.83ID:U+Re+1lV
>>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
2022/10/18(火) 21:26:52.39ID:AaFa6Jve
>>961
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね
965名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:27:06.68ID:NEYHrj9C
Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
2022/10/18(火) 21:33:21.34ID:TgSrji0x
でりだアート…のべりすといつのまに?
967名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:36:53.35ID:D1LFLupJ
>>960
>>963
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。
2022/10/18(火) 21:42:09.52ID:zu/vdcfa
>>960 >>964
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>960
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの??
2022/10/18(火) 21:46:16.50ID:/we3lp9G
>>965
しゅごい
970名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 21:57:27.95ID:7jXZOYp0
>>967
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます!
971名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 22:01:56.47ID:NEYHrj9C
既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに
2022/10/18(火) 22:13:25.88ID:00I+6kfi
NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください
2022/10/18(火) 22:26:01.99ID:00I+6kfi
よく調べずに質問してしまいました...
Hypernetworkという凄い機能が付いてるんですね...
2022/10/18(火) 22:31:55.68ID:q9QBdgsx
年末には1人でアニメ作れるな
https://twitter.com/Buntworthy/status/1582307817884889088
https://twitter.com/5chan_nel (5ch newer account)
2022/10/18(火) 22:37:35.65ID:g1scDU/l
>>973
dreamboothのほうがええんちゃう
指示通りやっていけば終わるgoogleのcolabってサービスあるし
2022/10/18(火) 22:43:01.73ID:P2mP3FzW
hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww
2022/10/18(火) 22:48:48.02ID:YQaGLl7w
俺はhypernetwork全然上手くいかんわ
2022/10/18(火) 22:50:06.74ID:8eBdxQoJ
ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー
2022/10/18(火) 23:09:27.28ID:/we3lp9G
HN俺も上手くいかん
変に全身入れるより顔アップ多めの方がいいのかな?
2022/10/18(火) 23:13:52.08ID:0F2kphzm
学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど
2022/10/18(火) 23:35:16.41ID:TtXnf/fW
自分も上手くいかないので脱落組だ
顔だけとか背景切り抜きまでやったが
2022/10/18(火) 23:38:55.98ID:gq0Co63H
hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6

色々倍率は試したけど0.6倍が個人的には丁度良かった
2022/10/18(火) 23:56:17.57ID:8gvw4EwR
>>982
SettingsのHypernetwork strengthを0.6にするのじゃ駄目?
2022/10/19(水) 00:08:58.49ID:++6+YAXw
画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。

かっこいい...
2022/10/19(水) 00:11:36.54ID:0pJigVJ+
SDについて調べてもわからなかったので質問させてください

最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか?
2022/10/19(水) 00:17:17.68ID:aNl7PeR+
>>984
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配
2022/10/19(水) 00:18:54.67ID:+a8WOHE3
>>983
しばらく更新してなかったから気づかんかったけど既に設定でいじれるようになってたわ
その設定でOK
2022/10/19(水) 01:34:07.52ID:qwe7eRJ8
dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…

[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings

○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。

1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
  例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]

これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。
989名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:07:20.38ID:YEGUlNqL
>>988
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。
990名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:35:43.49ID:XotkVMWS
>>871
俺的hypernetworkの学習率の結論はこれだわ
991名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 02:36:47.49ID:XotkVMWS
>>985
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る
2022/10/19(水) 02:54:09.68ID:qwe7eRJ8
>>989
試してみます、ありがとうございます!
2022/10/19(水) 02:57:22.32ID:JZ+Yd7tj
ドリブスのモデルデータダウンロード中に限界きてデータも消えた…
2022/10/19(水) 03:01:33.61ID:WflAELaT
モデルの保存先をグーグルドライブにしなきゃ
2022/10/19(水) 03:08:03.30ID:QBYhxeUI
今知ったけどこの無限生成できる裏技便利すぎだろ
このスレでも知ってる人いたんだね >>536
webページへの出力も一枚ごとだからGradioに大量表示されて負荷がかかる心配もない
https://i.imgur.com/R6kCtsS.jpg
2022/10/19(水) 04:05:22.12ID:0pJigVJ+
>>991
教えていただいてありがとうございます
997名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 05:48:21.35ID:PQV9Ke8W
Google Colab

OpenVINO


Docker


Anaconda
…etc

Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね
2022/10/19(水) 08:44:26.07ID:h/UtDtX1
Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね?
2022/10/19(水) 09:06:32.13ID:LIPhQQnQ
colab以外は少なくとも低スペが解決策として使う手段にはならない
2022/10/19(水) 09:23:04.06ID:O5p02o0G
遊びならcolab
業務で使うならグラボ買え
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 16時間 42分 30秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況