X



【Midjourney】AI画像生成技術6【StableDiffusion】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:13:20.60ID:3CsEQOgg
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合3【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1663123507/
AIイラスト 愚痴、アンチ、賛美スレ part3
https://mevius.5ch.net/test/read.cgi/illustrator/1662093183/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【Midjourney】AI画像生成技術5【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1662940688/
0002名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 14:44:26.37ID:o1JRH+iz
前スレの最後のほうの話題だけど
CLIPの学習では単語の関係性がベクトルデータに変換されているから
例えば鳥山明という単語に対応するベクトルデータ―の中身には
漫画家である、ジャンプ作家である、絵柄は○○さんとは10%類似、△△さんとは20%類似…
みたいな意味が全て数値の組に変換されて突っ込まれている
だからLAIONの学習データから特定の作家の画像だけ抜いたところで作家名を指定すると
やっぱりその作家の画風が反映されてしまう
0005名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 15:21:02.80ID:WVAGFFoj
>>3
機能しなくなることはまずないよ
同じプロンプト指定しただけだと新旧で生成画像の雰囲気ががらりと変わる可能性がある
そしてまたゼロからプロンプト模索必要な可能性があるってだけ
0006名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 15:25:34.64ID:OVE2N6qM
>>3
引用ツイート元が消えてるけど、LAIONからOptOutしたいみたいな話に違うよって訂正入れたとかかね
0007名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 15:44:55.83ID:WVAGFFoj
>>4
初心者にはおすすめできないかな
1111はよく大きな変更入るからトラブったときに原因切り分け難しい。ここで聞いてもわからないだろうし
環境汚さないって考えるほどなら最初から自分でanaconda使うのがいい
しかし本家からmanual installのセクション消えたっぽいのは残念だな。あれで簡単に作れたのに
0008名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 15:50:12.70ID:dV6cugXI
初心者はそもそもそんな頻繁にアプデしないだろうし、Automatic1111を選択する時点で初心者ではない印象
0010名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 15:54:42.80ID:UmW/DjEu
>>7
manual installはここに移ったんじゃね?
AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs#manual-installation
0011名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 16:08:37.78ID:xOJ14pvO
>>4
アップデートがgit pull一発というわけにはいかないとしたら、頻繁にアップデートしている今は不便やね
0012名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 16:13:25.53ID:x8BSPT3Z
あくまでも最初の環境構築がちょっとだけラクってぐらいだな
個人的にはユーザーフォルダにゴミ作らないのは嬉しい
というかバッチファイル見たけどパスを追加するだけなのは盲点だったわ
0016名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 16:23:19.06ID:rlEiJ9iA
>>14
ミスって書き込み押しちゃったすまん
0017名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 16:24:43.58ID:dVCxx8Kz0
最近1111のcolabで連続出力出来ないんだけど同じような人おる?
0019名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 16:53:44.37ID:I/k6JwHc
NMKD stable diffusionを使ってるんだけど重み付けの方法次第でAutomatic1111のnegative promptと同じような設定できるのかな?
0021名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 17:03:43.13ID:LTcrQRpu
お絵描き教室で「人間の肌は"はだいろ"じゃありません。よく観察しましょう」と言われるがプロンプト探索でも同じやな
例えばフリルの付いたドレスを着せたいならフリルと入れるのではなくアメリカのドレス通販サイトでフリルの付いたやつを探してそのブランド名を打ち込む
0022名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 17:05:33.69ID:dVCxx8Kz0
>>18
無知すぎて申し訳ないのだがグリッドとは…
0024名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 17:11:31.29ID:DKWWZoBK
人物の属性にもかなり引っ張られるから、それを重みにしても結構良い感じにかかるね。
Drってやったらほぼ自動的に白衣を着るので、あえて白衣を着たとか付け加える必要は無かったりするし。
0027名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 17:30:18.84ID:UmW/DjEu
>>18
localの1111でも最近たまにgrid画像生成のところでエラーが出るよ。
grid画像は生成し終わってて、追加のテキストファイルが生成されてないので、こいつを吐くところでエラー出してるみたい。
0032名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 18:14:42.17ID:3CsEQOgg
Negativeは本当に便利よ
前はうまく描いて欲しいところを延々とプロンプトに祝詞として書いた挙げ句あまり効きもせずにそこだけ注目されてズームはされるなんて悲劇も多かったが
Negativeに呪詛を書いておく分にはそもそもそこに近寄らずズームされないから調整がしやすい
0033名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 18:36:29.03ID:ELGTUTED
TIエンベディングファイルに不審なコードが含まれてないか簡易チェックするスクリプト作ってみた
https://pastebin.com/ChWmscUK

python check.py embeddings.pt のようにファイルを指定して実行
手元で簡単に作った任意コード実行できるptファイルはこれで検知できたけど、抜け道はあるかも知れない
0034名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 18:37:33.27ID:dVCxx8Kz0
>>26
ありがとう。オフのやり方が分かんなかったので
1枚出力を間に挟めばとりあえず動くようになった。
0035名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 18:39:09.47ID:dVCxx8Kz0
いや、気の所為かもしれん…普通に連続で出来たわ
0037名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 20:36:14.71ID:xOJ14pvO
>>34
グリッド画像を出力しない設定はSettingsタブの
「Do not save grids consisting of one picture」
で変えられます(オンで出力しない)
0040名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 20:49:53.87ID:dVCxx8Kz0
>>37
ありがとうございます!
0043名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:20:28.28ID:WRfYHEBB
> If PNG image is larger than 4MB or any dimension is larger than 4000, downscale and save copy as JPG
にチェック入れてて、PNGじゃないとかってオチではないよね・・
0045名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:25:26.42ID:Dj8b68Fj
前スレの最後の方で質問させていただいた者ですが、おかげで理解できました。ありがとうございます
aiやるならWindowsの方が良さげなのですね
gpuについても大体分かったのですが、3060tiでもローカル関連で生成時間以外に不便なことってありますか?
0047名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:38:32.96ID:HtatjiG8
ai一般論だったらlinux+nvidiaの方がいいな。sdだったらwindows+nvidiaでいいけど
3060tiはメモリ8GBかな。今のsd使う分には十分
だけど数か月後、一年後にはメモリ不足で不満になってる可能性あると思う
0048名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:42:55.35ID:WRfYHEBB
>>44
へぇー、普通にバグだね
気づかれてないってことはたぶん誰もボタンオンリー保存してないw

>>45
> GPUは今のところはメモリが命なのでRTX30で考えると
> RTX 3090 Ti>=RTX 3090>RTX 3080 Ti>=RTX 3080 12GB>RTX 3080>RTX 3060
> 3070シリーズはVRAMが8GBしかないので、回避が吉。
この人のこれ3060tiじゃなく3060ってのに注意ね
3060tiはVRAMを8GBしか積んでない
0049名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:46:02.02ID:xOJ14pvO
>>41
本当だね!オンにしたら1枚出したときにもう1枚同じのが出るようになって、しかも1枚はtxt2img-gridに保存されるので何ごと?? と思っていたところだった
ゴメン間違っていたよ>40
0050名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:54:02.12ID:WRfYHEBB
> RTX 3080 12GB>RTX 3080>RTX 3060
メモリの話ならここ変だな
真ん中は「3080 10GB」なのに「3060 12GB」より上ってことに
0051名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 21:55:31.31ID:UmW/DjEu
4ch見てたら前スレ734のプロンプトの主題に「台所」って突っ込んだポストがあって、その手があったかー!ってなった。
こんな風になるんだなぁ
https://imgur.com/NF72Lth.png

そんなわけで働いてる人描写を追加していろいろ出してみた。
司書の働く図書室
https://imgur.com/O3tH3Ey.jpg
研究者の働く研究室
https://imgur.com/aOMTqzu.jpg
錬金術師の働くアトリエ
https://imgur.com/kIoSaNn.jpg

いうて、普通に図書館だけ突っ込んでも女の子出てくるんだが……
https://imgur.com/FUYcrPc.jpg

それにしてもurban backgroundは改変されずに使われてるな、使い勝手いいのかしらん……
0053名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 22:04:23.61ID:Dj8b68Fj
>>0046〜>>0048
ありがとうございます
速度を求めるなら最低限3060ti、質を求めるなら最低限3060(VRAM12GB)という感じみたいですね

速度も質も欲しい、のでもう少しパソコン買うのは様子見します
3080や3090入りのパソコン安くなって販売してほしいよ…
0056名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 22:53:12.48ID:Dj8b68Fj
それ用のパソコン見てるのですが
うーん27万円代でRTX 3080 12GB、64GB(32GB×2)って値段的にどうですか…?
0059名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 22:59:12.98ID:Dj8b68Fj
>>57
スペックはこういう感じです
Windows(R) 11 Home 64bit版 [正規版]
AMD Ryzen 7 5700X プロセッサー (3.40GHz [最大4.60GHz] / 8コア / 16スレッド / 32MB L3キャッシュ / TDP 65W)
【NVMe SSD】1TB SSD
ストレージ無し
NVIDIA GeForce RTX 3080 12GB LHR【HDMI x1 / DisplayPort x3】
【ASRock製】AMD B550 チップセット搭載マザーボード
850W ATX電源 80PLUS GOLD (日本製コンデンサ仕様)
0061名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 23:36:56.71ID:h0dEGu8R
前スレ948さん
調べていただいてありがとうございます

念のためにもう一回zipで更新してみたらオプション通るようになりました
更新に失敗してたか、なんかしらの相性が出てたみたいです
0062名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 23:37:17.05ID:UmW/DjEu
>>59
ドスパラで見てもだいたいそんな値段になるみたいね。

俺の場合はとりあえずお試しで3060でいいかなって5万で買ってみて特に不満はない。
0063名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 23:39:55.87ID:WRfYHEBB
>>62
一緒w
5年前のPCの980tiと入れ替えた
PC買うまで行くのはもったいないと判断、メモリもいっぱい載せてるし
0064名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 23:40:19.14ID:3CsEQOgg
3090か3080 12GBか3060 12GBを予算に応じて買えってのはいいけどさ
それ載ったPCの値段が適正かは他で相談した方がいいよ
0065名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 00:04:14.80ID:emuLHnVU
お安いと評判のPalitで12GB 3080って11万くらいだから、それ以外のPC部分が16万とかまあそんなもんでしょ。
0068名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 01:40:22.37ID:MMkdqDxI
マイニング死んだと思ったらSD特需か。Nvidiaには神風が吹いてるな
ユーザーには逆風でしかないが。特に日本は円安で二重苦だ…
0069名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 01:48:19.47ID:Poa0KEUr
画像生成でもこのレベルなら動画生成とか音楽生成になったらどんなGPU性能を求められてしまうんだ
来月にも音楽生成出るらしいし
0072名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 02:04:43.29ID:emuLHnVU
>>51
あ、プロンプトはこんな感じっス
prompt: kitchen, (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski and alphonse mucha, d & d character, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
negative prompt: ((((mutated hands and fingers)))), (((portrait)))

マジでだたの台所の絵描いてるだけだなw
0075名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 03:04:41.09ID:G6glHvA4
>>59
へえ3080搭載BTOがやっと20万円代まで下がったんだねえ
一時期のGPU高騰が落ち着いて来たってのは本当だったのか
いい事だ
0079名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 06:42:51.56ID:6qM+t7X8
DALLEがアップデートしたぞとメールが来た
どんなもんかレビューしてくれ
0082名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 09:09:21.87ID:uOVYd139
画像や動画よりも音声のほうがやばい気がするな
人間はなんだかんだで絵やコラ動画にはすぐ慣れて何とも思わなくなるけど
声優に好きなセリフ喋らせるとかVtuberにエロASMRさせるとかAIで実現したらヤバ味があると思う
0084名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 09:13:46.68ID:q1kehuti
どこまで自然に喋らせられるか、と言うか感情を乗せられるか次第かな。
これが難しいから、未だにゆっくりに毛の生えた状態なわけで。
0086名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 09:24:56.03ID:q1kehuti
いつの間にか、png infoに投げるだけで自動的にデータ出るようになっとるw
あとは、これをtxt2imageにボタン一発で反映させれるようになると嬉しいw
0088名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 10:14:56.86ID:D6UdtcJG
>>86
いいねえー
しかもこれ、画像が入っているときに画像を落とすと自動的に入れ替わる仕様に変わってる
1111版はどんどん便利になっていくなあ

出てきたパラメータをtxt2imgやimg2imgへ転記する機能は要望が出てるんじゃないかな
0089名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 10:18:44.73ID:OJwkxmng
新しいCLIPによるディープフェイク検出イニシアチブをまもなく発表
https://twitter.com/EMostaque/status/1572013393455845376

悪意のある利用は避けられないので、フェイクを検出するパートナー・コミュニティを作らなければならない

---

よく分からないんだけど、ディープフェイク固有の特徴量みたいなものを検出するってこと?
その特徴量を限りなく小さく消していくこともできる気がするんだけどどうなんだろう
https://twitter.com/5chan_nel (5ch newer account)
0091名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 10:22:35.21ID:ktIAvZID
>>84
今は提示された音声サンプルをトレースして、その通りに合成音声を調律するAIと
顔の動き、表情をトレースして発声に合わせたモーションをつけるAIが現場で使われてるよ
画像AIのTIみたいなもんで、全自動までは流石に少し遠いんだよな
0092名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 10:28:27.24ID:kdMT8oBh
>>89
やる姿勢見せなきゃいけないから見せてるだけで実際いたちごっこになりそう まぁ流石にここにはそんな人間いないと信じたいが
0093名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 10:58:46.36ID:Uz2xC4F2
>>89
AIによるフェイク検出の精度が上がるのはAIによる生成の精度も上げられることとイコールだよな...
0095名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 11:18:51.29ID:OJwkxmng
馬鹿は自分が知ってることを人が知ってると思い込むんだよなw

>>94
どういう改善で性能アップしたんですか?
0096名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 11:30:32.64ID:IWpLchd9
高速化よりもhighresfixとscale latentの方がホットでは?
トーテムポール問題に改善策が出た

その代わり人体は延長されるらしいが
0098名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 11:34:22.37ID:1jVCMyNY
hlkyもautomatic1111も確かに高速になってる
けどコミットもissueも多すぎてどれで速いなってんのか分からないw
0100名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 11:39:42.99ID:tClY47Vq
>>93
そこら辺は暗号通信と同じだろう
フェイク検出AIを誤魔化せるが電気代が500万かかるとかになる
0102名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 12:21:45.56ID:ktIAvZID
>>101
画像からテキストを類推、マッチング率何%以上のPromptと画像のセットを抽出するようになってんじゃない?
そのサイトの用途考えたらどうしろも何も無いと思うんだけど
0103名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 12:25:04.37ID:0P7BNKLH
>>101
確かに似ているのもあるけど9割以上が誤検知に近い判定だなぁ・・・
その類似画像も目元は流用された?程度で他は全然分からん
Googleの画像検索でも対象が全く同じでなければ全然アテにならないし
0105名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:03:08.15ID:ULiYZ3Vr
GPU買おうとしてる人は1週間は待った方がいい
今晩NVIDIAが新商品発表するから、値下がるかもしれない
0107名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:21:13.16ID:bor7SMhH
マイニング終了も今週末か来週に控えてるだろ
円安もあるし時期が悪いおじさんはいつまで経っても買えん
0109名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:35:08.44ID:Sastztzo
3000番台は在庫処分ですでに補填入って在所処分は始まってるわけで
すぐには値下がりはしないし、年内の4000番台はハイエンドだけだし
今の円安で3割近く値上がりして今の相場なら激安もいいところだよな
指くわえて眺めてるより今はどんどん回した方が楽しいと思うぞ
一週間で2割下がるなら土下座くらいするさ。いくら下がると思ってんの(笑)
0110名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:42:20.61ID:IWpLchd9
highres fix 一度512で作ってからそれをスケーリングして所望の解像度に直す機能

scale latent on SD内部のlatent(画像にデコードされる前のdiffusionが行われている空間)を拡大し、その後もう一度ステップを回す
scale latent off 出力画像を拡大しimg2img

off
https://i.imgur.com/OeVoyxU.png
highres fix scale latent on
https://i.imgur.com/jJl0ogA.png

なるほど
offとonで全然違うがそもそもトーテムポール画像に価値は無いのでうまく出るようになっただけで革新だな
0111名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:51:26.63ID:Uz2xC4F2
DiscordにDreamBoothでホロのぐらちゃんを学習させたモデルを公開している人がいたので使ってみた
前評判通りプロンプトに対して柔軟だし再現度も高い
https://i.imgur.com/C1LWwTB.jpg
https://i.imgur.com/8sCKAkR.jpg
0112名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 13:58:30.59ID:W86xY2CW
ローカル1111を使っていますが、生成中もGPU使用率はほぼ15%、たまに50%近くになるけど一瞬
これは1111の設定でGPUを最大限使わない命令がされてますか?
0115名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 14:03:54.91ID:bor7SMhH
>>112
せめてグラボぐらいかけとw
グラボ以外の部分の性能が問題なんじゃないの?
うちのだとGPU 3Dが90%、GPU copyが2%ぐらい
0117名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 14:06:43.24ID:UjjRaEya
そこそこ有名でも認識されないアーティストがたくさんいるのに日本でしか有名でないであろうラッセンがばっちり認識されるのが不思議でしょうがない
まあトラだけで海景画は全然別物になるんだけど
0119名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 14:15:32.71ID:xYr1ywAi
>>111
Textual Inversionじゃなくてckptモデルなんですね


見つけられない人のために↓
☁DREAMER COMMUNITIE☁
🍥|anime
2022/09/20 06:39
0120名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 14:17:18.87ID:Uz2xC4F2
>>119
ckpt読み込んだら1文字目大文字のGuraで呼び出せる
0121名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 14:19:49.86ID:ULiYZ3Vr
>>109
もう補填入ってんだ。ニュース出てる?
0122名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 15:30:01.51ID:AdZAJEps
RTX3060の12GB版ってマイニング対策でCUDAの性能下げられてるとかそういう話なかったっけ、大丈夫かな?
0125名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 15:58:23.71ID:AdZAJEps
>>124
あーLHR版ってのがあるんだ、多分それの事を聞いて覚えてたんだと思う。ありがとう
3060もそのLHR版があるみたいだし、適したカード探すの大変そうだなぁ
0126名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 16:01:21.80ID:fk5AQPcr
江戸の有名でない絵師とか彫刻家の名前でアニメちっくになるのおもろいね
やっぱ日本アニメの源流てこれかと思うわw
0127名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 16:17:52.18ID:IWpLchd9
なんか勝手に納得してるようだが
LHRはイーサリアムのマイニングの速度が落ちるだけで別にそれ以外は関係無いぞ
0128名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 16:20:45.84ID:lKVnDbR2
>>123
>コーヒーと同じで、結局はオリジナルが一番ウメえとかになりそうだがw
わかる。めっちゃわかりみ
0129名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 16:45:05.20ID:04JJgEhR
ワードの重み付けが全然違うからなあ
使いこなすには両方のワードの重み付けをある程度把握してないと無理だと思う
0130名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 17:34:22.71ID:F02Ti55+
>>125
それは暗号通貨掘るプログラムが検知されてスピードダウンするだけで
AIは全然アルゴリズム違うから関係ないぞ
0131名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 17:48:53.77ID:TeEjcx6u
ググって見つけた過去スレのレスから来たんだけどこれ解決方法わかる人いる?
https://github.com/AbdBarho/stable-diffusion-webui-docker
動かそうとしているんだけど
docker compose --profile auto up --build
で↓のエラーが出てしまって進めないんだ cuda toolkitは入れているけどエラー変わらずでお手上げ状態


161名無しさん@お腹いっぱい。2022/08/30(火) 15:24:50.21ID:kv64WKVJ
>>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown

また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした

Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
0133名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 17:54:54.81ID:tc9DMgyb
>>131
それ書いたの私だけど、WindowsをH21H2に更新することで解決しました。
CMDから、winverで確認してH21H1だったらそれが原因だと思います。

私の場合、Windows updateで表示されなかったのでググって個別にH21H2をインストールしました。

cuda toolkitは特に不要です。(普通のGeforceドライバに入ってると思われる)

https://mevius.5ch.net/test/read.cgi/cg/1662940688/946
0138名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 19:13:19.59ID:D6UdtcJG
>>135
なるほど
webui-user.batの2行目に「git pull」、最終行に「exit」と書いて、起動のたびに何も考えず最新版にしてた
0139名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 19:15:31.54ID:UjjRaEya
Snake PlisskenとかJack Burtonと入れてもカート・ラッセルの若かりし頃の姿が出てこないのはどうしてだろう
0146名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 20:13:40.10ID:tc9DMgyb
いつの間にか、Automatic1111って、modelsフォルダに複数ckpt入れておくと
Settingタブで切り替えられるようになってんたんだな・・・

Automatic1111のリリースノートというか新機能・変更点をまとめてるページとかってどこかにあるのかな?
0147名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 20:16:14.06ID:7GPgkdwh
毎日のように信じられないような新しい技術が出てくるな
切り替えるだけじゃなくて混ぜられるみたいだし
0151名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 20:28:50.90ID:8HyP3Dzf
>>133
ありがとう!
おかげで起動できました

うちもWindows Updateに表示されていなくて手動Updateが必要でした
1年近くもUpdateが放置されていたとは。。
0154名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 21:54:37.59ID:H0iRi1pv
ui-config.json範囲外でWebUIをちょっと修正しようとすると、じゃんじゃかエラーが出て手に負えない……
gradio ちゃんと学習せねばダメか
0155名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 21:59:32.20ID:POVqdY9g
>>153
昨日 TensorFlow / Kerasで実装してMacで4倍速くなったって言ってて、同じ話かな?と思ったら違う人だったw
https://twitter.com/divamgupta/status/1571234504320208897

>>153のツイートの人だとコードが読みやすい、Macで2~3倍になった、と言ってる
昨日の人のほうが早いのか環境の違いとかなのか

Windowsで性能向上するのかが気になる
https://twitter.com/5chan_nel (5ch newer account)
0162名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 00:38:46.73ID:1js7vxFZ
1111をアップデートしたらいきなりSD upscaleが動かなくなったが、どうやらrealesrganのweightsファイルの保存先が変更になったようだ。
0163名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 00:41:55.58ID:1js7vxFZ
それにしてもどうしてこんな変更があるんだ?
/usr/local/lib/python3.10/dist-packages/realesrgan/weights/

/usr/local/lib/python3.10/dist-packages/weights/
0169名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 01:52:49.87ID:s/yweLeB
服装の指定に引きずられて顔まで変化するのが困りものだな
髪色の指定だけでも顔分るしな、黒髪指定したら一気に顔がもっさりした感じになる
これはCLIPの仕様上避けられない奴だよな
0170名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 01:58:10.77ID:rFvQEhK/
色々なものが紐づいてるしな
スポーツウェア着せれば大人っぽくなるし、乳でかくすれば顔もエロくなる
0172名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 02:55:54.00ID:epx+ExZW
> 30 Socket774 (ワッチョイ b73f-jztO)[12]2022/09/21(水) 01:42:52.29ID:WWhkvTAA0(12)
> 今日の革ジャンの生配信9割AIの話ししてたな
> 一部の人間にしか売る気がないのか

革ジャン=NVIDIAのCEO、ね
マイニング景気終わってグダグダでこれしかないって状態との見方
0174名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 03:35:33.91ID:1js7vxFZ
prompt matrixによると、"in front of urban background"が真っ白背景を生み出している模様。
https://i.imgur.com/SvpmMp4.jpg

"in front of night urban background"ではどうか。……他は全部夜景なのに、なぜ最後の最後で白くなるのか!
https://imgur.com/HtkAkgy.jpg

もちっと細かく見てみる。
どうやら、"in front of" "a night arban" "illustration"の3つがそろった時、引きの絵に変わって夜景が解除される模様。
どないせいっちゅーねん!
https://imgur.com/NFY2RHS.jpg

そして今回、アップで人間が2人近接すると腕の数がすごいことになるという知見を得たw
0176名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 05:58:21.95ID:PMRsTx5b
>>172
4090一枚でガンガンファインチューニングできますという訳でもないしな...
さっさと3080かっといて正解だったわ
0177名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 06:15:36.85ID:a2RbsEhU
4090なんて今の為替だと20万軽く超えてくるしな(笑)
まぁ3070-8GBじゃいろいろ厳しかったので、4080-16GBあたりを買いそうだけど
モノがあればだなぁ
0180名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 06:22:37.51ID:qYxsv+xa
> NVIDIAは9月21日、「GeForce RTX 4090」「GeForce RTX 4080」を発表した。
> 「GeForce RTX 4090」は10月12日より順次発売予定、価格は29万8000円からとなる。
> 「GeForce RTX 4080」は11月発売。価格はメモリ12GBが16万4800円、16GBが21万9800円となる。
フーン
0181名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 07:09:18.36ID:zPCvXDpd
>>174
とりあえず、>>72をゴチャゴチャ触ってみたら、なんとか外の夜率は上がった気がする。

prompt:bright kitchen in front of the (( stary midnight city view )) and without citylights,, (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski, d & d character, digital painting, concept art, smooth, sharp focus illustration, artstation hq,wide angle,((underexpose)) photo
negative prompt: ((((mutated hands and fingers)))), (((portrait))),(((fog))),(((correct exposure)))

室内を明るくして、外の夜景は強引に灯りを落として星を強調。室内が暗いと露光差で外が白飛びする現象はSDでも再現してるっぽい……
なお、ここまで夜夜言っても昼になる時もある模様。。。

https://imgur.com/a/yerjxiP
0183名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 08:21:09.32ID:/00g/jQc
RTX40シリーズ、この値段ならcolabに居座りかな
0185名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 08:58:06.31ID:VX27Asrq
Waifuの場合、プロンプトの描き方が特殊らしい
https://wiki.installgentoo.com/wiki/Stable_Diffusion#Waifu_Diffusion

・Danbooruのタグを使う。元のタグのスペースは"_"で置き換える
・プロンプトははこの順番。カンマは使わずスペース区切り
 著作権タグ(作品名) キャラクタータグ 一般タグ アーティストタグ
・hiresなどのメタタグは使わない
・4種類のタグ内で複数タグが場合、数字、アルファベットでソートする

例: https://wiki.installgentoo.com/wiki/File:SD-Waifu_diffusion_finetune_recipe_example.jpg

"kono_subarashii_sekai_ni_shukufuku_wo! megumin 1girl ^_^ backlighting blush brown_hair cape closed_eyes collar facing_viewer fingerless_gloves flat_chest gloves hat lens_flare short_hair short_hair_with_long_locks smile solo staff sunset witch_hat dacchi"

1 著作権タグ: kono_subarashii_sekai_ni_shukufuku_wo!
2 キャラクタータグ: megumin
3 一般タグ: 1girl ^_^ backlighting blush brown_hair cape closed_eyes collar facing_viewer fingerless_gloves flat_chest gloves hat lens_flare short_hair short_hair_with_long_locks smile solo staff sunset witch_hat
4 アーティストタグ: dacchi

SDは、プロンプトを77トークン化した後、英語の構文解析して768次元ベクトルに変換してからDiffusionにつっこんでるんだけど
Waifuは英語の構文無視した学習してるから、それに応じたプロンプトが有効ってことぽい?
0188名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 09:43:44.84ID:30bO/dnS
Waifuでは効きやすいワードがあるってだけで、言ってみればタグで個別学習したみたいな感じになってる。
英文無視とまではいかなくて、kawaiiなんかが実質的に<style>化してるって感じ。
0190名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 12:27:47.14ID:jP7E8q7g
>>185
それっぽいのが出てくるけど
これがめぐみんかと言われると誰だこれになるわ

この絵にめぐみんのタグは付けないほうがいいと思う
0194191
垢版 |
2022/09/21(水) 13:59:29.71ID:tgWYuwLu
>>189
pthファイルダウンロードしてSwinIR/フォルダに置いたらもう使えた。誤情報すまん。
0200名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 16:55:07.59ID:c/QkDLF2
sdは質より量で三次元二次元混在、タグはカオスだけど
waifuは量より質で二次元のみ画像厳選(スコアで絞ってる)、画像ソース一か所でタグ公開予定
だからwaifuはwaifuで期待できる
0201名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 16:56:34.80ID:FqKjsQnT
SD1.5はSD1.4の延長線上でしかないから
別にシステム上何か変わったという話ではなく1.4で出てきた問題点を踏まえて追加学習とチューンをしたという程度
waifu1.2とwaifu1.3の変化幅の方がデカいと思うぞ
0203名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 17:00:06.04ID:30bO/dnS
国産Trinartにも頑張ってほしいところだが、別サービスがメインってことを考えるととりあえず出来るぜアピール以上のことは無理だろうなあ…
0205名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 17:34:52.94ID:sTaGiUTE
いうてWaifuのおかげでアニメ絵のクオリティはファインチューンしたStyleGAN2に追いついたけど
この先は未踏の地だから他AIの改善も必要になるし時間かかると思われ
0206名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 17:37:28.83ID:q8SmoQ7H
本家でも克服は難しいと言っている手などの問題は克服したのかね?
そこが変わらないと劇的に改良とは言えないような
0207名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 17:46:37.49ID:Cdb6KqJB
手とかはnegative promptの工夫である程度は改善できる
まぁ確実にキレイな手になるわけじゃなくあくまでなりやすくなるくらいだけど
0208名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 18:19:05.10ID:30bO/dnS
1番期待のブレイクスルー、キャラ使い回しはストーリーモード搭載まで無理っぽいから当分はガチャなのは変わりない感じだね。
精度はグングン上がってるから、クリーチャー率は激減して好みでピックアップになるだろうけど。
0209名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 18:34:32.76ID:shey3io3
SD1.5とWaifu1.3が両方くることによって、続きから学習するとこうなる
という事例が2個も出てくるのは良いことだと思う
0212名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 22:05:32.91ID:zPCvXDpd
512の学習縛りを考えると、メモリそこそこでもやっぱ速さが欲しくなるな。
試行回数は処理速度が重要だし。
つっても、将来的に512より高解像度で学習したデータが出てきたらメモリマシマシって話になるんだろうが。
省メモリも限界あるだろうしなあ。
0214名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 22:14:05.72ID:1js7vxFZ
>>181
いろいろと禁じられた結果、ついにオープンカフェタイプに移行してしまった……
https://imgur.com/MFBhCGv.jpg

prompt: (((kitchen widh lamps))), (((in front of midnight urban background, dark scenery, nightscape))), (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski and [alphonse mucha], d & d character, digital painting, concept art, smooth, sharp focus, illustration, artstation hq
negative prompt: ((((mutated hands and fingers)))), (((portrait))), ((((sky, open doors))))
0217名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 22:26:06.22ID:9soZpnEo
cosplay meguminで良くね☺
0223名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 23:27:47.52ID:1js7vxFZ
>>220
highres. fixの場合はテストで1600 x 1216を3枚目に突入したとこだけど、このサイズだと残像すごくて実用は無理だな……
832x512程度なら10枚ずつ出してるけど、さすがに小さいか。
0224名無しさん@お腹いっぱい。
垢版 |
2022/09/21(水) 23:53:17.18ID:zPCvXDpd
凄い今さらな話だが、1111のネガティブpromptってトークン制限ある? 警告でないから調子に乗って突っ込んでたら、後半効かなくなってる感じで。
0226名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 01:13:50.88ID:nt0l++ZR
どなたか、waifu_diffusionのfullemaじゃないモデルの場所か、fullema.ckptから不要部分を取り除く方法を教えていただけませんか?
東方project aiのDiscordにあることまでは調べたのですが場所がわからず困っています
既出だったらすみません
0228名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 01:39:05.17ID:nt0l++ZR
>>226
自己解決しました
0230名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 03:06:25.36ID:86QINjbS
colabを利用してTIにチャレンジしてるけど上手くいかない途中で止まる
無料枠だと途中で限界に来てしまうのか?

画像4枚、サイズ512に揃えてステップ数9000にして走らせてたけど途中で止まってた
ステップを3000に落として再チャレンジ中だけどイマイチ仕様が分からん
TI済みのトレーニングデータをステ9000とか1万以上で上げてる人いたけど有料でやってるのか?
0232名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 03:07:50.12ID:2MVvoPX4
logsの途中ckpt取り出して使えばいい
0233名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 03:14:30.72ID:C/kL2kI5
素のSDでこんなの出来ちゃったけどどうする?

girl, detailed face, beautiful face, by CLAMP, screentone
Negative prompt: ((((mutated hands and fingers))))
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 1, Size: 512x512, Model hash: 4af45990

https://i.imgur.com/yVnnDer.png
0236名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 04:58:34.87ID:eSrwJ1P3
>>233-234
凄いなあ‥来月には普通にプロレベルの漫画描けそう
0237名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 05:10:22.55ID:nt0l++ZR
重ね重ね申し訳ありません
前スレで話題に出た、1111automaticでgradioのoutput欄に出力画像を表示させなくする方法をご存知の方いたら教えてください
自分でも引き続き調べます
0239名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 08:24:43.30ID:E1ELaTgH
openAIが「人間レベルの」音声認識を発表したけど、インストール・使い方がわからない

https://github.com/openai/whisper

コマンドラインで
whisper japanese.wav --language Japanese
とかできると書いているけど、そもそもwhisperコマンドがない
0242名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 09:10:38.68ID:E1ELaTgH
音声の話でCG板としてはスレチですみません。 長く鬱陶しくなるようであれば場所を変えます。

>>239
ありがとうございます。
単純に見落としていました・・・

whisper audio.aac --language Japanese --task transcribe
これで日本語も文字起こしできました。わりと間違ってますが、他の文字起こし使ったことがないので精度が良い方なのかどうか不明
--translateにすると英語に翻訳されます。 英語→日本語がほしいけど多分無理?

--device "cuda" をつけると Torch not compiled with CUDA enabledで落ちるので遅いですね。
改良されていくと思いますが
0243名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 09:11:57.22ID:N6FCKlAR
さくっとcuda-toolkit入れずにimage作ってみたらCPUで動いた。
$ singularity exec ubuntu-20.04-whisper.sif whisper voice-01-01.ogg --language Japanese
/usr/local/lib/python3.8/dist-packages/whisper/transcribe.py:70: UserWarning: FP16 is not supported on CPU; using FP32 instead
warnings.warn("FP16 is not supported on CPU; using FP32 instead")
[00:00.000 --> 00:07.940] 私はマミアマミと言います ちょっと冗談みたいな名前ですよね
0250名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 11:47:14.93ID:5KgdJK0o
電車の車内で立ってる女の子描いてくれって難しい注文出すと
平気で青空背景に申し訳程度の電車の窓枠だけ描いて誤魔化してくるのが笑える
0252名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 13:45:46.91ID:/2XeH9L7
>>242
そろそろスレ違いもいいところですが、google翻訳のコマンドラインインターフェース(Ubuntuだとtranslate-shellとbsdmainutils)をインストールするとヨシ!
whisperの標準出力を全部回しちゃってるけどまあいいでしょう。
$ singularity exec ubuntu-20.04-whisper-2.sif sh -c "whisper sample/CD1-7.mp3 | trans -b en:ja"
/usr/local/lib/python3.8/dist-packages/whisper/transcribe.py:70: UserWarning: FP16 is not supported on CPU; using FP32 instead
warnings.warn("FP16 is not supported on CPU; using FP32 instead")
最初の 30 秒までを使用して言語を検出します。 `--language` を使用して言語を指定します
Did you mean: Detect language: english
検出された言語: 英語
[00:00.000 --> 00:12.000] 4. 私のフライトは何時に出発しますか?
0254名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 13:47:49.42ID:YWdevUA5
>>247
ありがとうございます。 miniconda環境なのですが以下の手順でcudaで動きました。

---
miniconda
(base) C:\t\whisper>python -V
Python 3.9.12

python -m venv env
env\Scritps\activate

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
pip install git+https://github.com/openai/whisper.git

whisper "AMA - Emad, Bill, Zach - 2022-09-03 17-59-34.mp3" --task transcribe --device "cuda"
→ 文字起こし成功
---
やっぱり日本語翻訳が欲しいw
0255名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 14:19:35.83ID:CSc9mSNX
人間も前後の文脈で補完しながら会話してるし認識精度は内容次第になりそうだな
YOUTUBEの字幕機能もほぼ固有名詞しか出てこない競馬実況だとひどいことになるし
0257名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 15:45:27.98ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (1/3)
Q 手、顔は改善されるの?
A 1.5で少し良くなっている。V3では指数関数的に改善される。
  ・コードと学習の両面でより大きいウィンドウでより長い学習することによる改善
  ・顔固有のファインチューニング。 (DALLE-E2は既に特定の顔モデルを持っている)
  ・データの質。LIAON-2Bは量は多いが、より質の高い構造化データのサブセットにLAIONと取り組んでいる

Q APIで1000枚生成要求したら、バッチ処理になる?並列処理になる?
A 並列処理なので1000枚同時に取得することもできる

Q GPT-3やもうすぐ出るGPT-4のオープンソース版を作ってくれない?
A Luther AIコミュニティを通じてGPTJ、GPT Neoその他バリエーションをリリースした。(最大200億パラメータ)
 GPT-4はすごそうだが1兆パラメータになる。我々は効率的なモデルにフォーカスしている。
 言語モデルでは色々ありRWKV(attension freeでGPTの10倍以上効率的)も有望だ
 我々が取り組んでいる中で最も興味深いのは、Chinchillaだ。GPTやBloomのような巨大モデルは適切に学習しておらず効率が悪いと考えている。
 GPT3からinstructGPTのように巨大パラメータモデルは縮小することができる。
 
Q "Stabler" Diffusionと前にEmadは言ったがそれはViTの改良?
A 我々はOpenCLIPチームとViT-Hを作っている。V2、V3はより安定し、DALLE-E2より確実に高品質になる

Q 3Dモデルの計画はある?
A ある。three.jsと互換性のあるGLBファイルはJSON+テクスチャのセット
 テクスチャはStableDiffusionで作れる ※3Dも同じなの??
 これはUnityと話しているところ・・・、あ言っちゃダメだった。でも誰と話してるかは想像はつくでしょう。
 NeRF、DreamFieldなどの研究は裏でたくさん支援していて今後6~12ヶ月で爆発的に普及すると思う。
 3Dは最も力を入れている分野で多くのリソースを投入しています。
0258名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 15:45:46.96ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (2/3)
Q テキストを信頼できるものにするにはどのぐらいのサイズのモデルが必要?
A T5XXLやUL2は、今から年末までの間に20億パラメータまで最適化されると思う。
 これはImagineatorなどの画像処理にも対応している。多くの最適化が必要だが言語だけなら10億パラメータ以下になるのではないか。
 我々はT5XXLやUL2とCLIPを組み合わせて言語理解をより良くできないか実験している。
 GoogleのPartiでこのような創発的な性質が現れることが分かったので。

Q 「少年」を出すと全て白人、「インド人」を出すと茶色になるんだけど?
A インドのEros(Netflixみたいな会社)と契約して多様性を反映させる予定
 またオープンなので我々がやらなくても誰かでもできるし、やると思う。

Q より多くの被写体を描けないでしょうか?
A 今のモデルは最大2つの被写体しか描けない。VIT-L14ではワンショットで複数被写体を描写するのが難しい。
 マルチプロンプトにはよりよい言語モデルが必要で、Dali miniのVAEのような別のアーキテクチャも必要
 個のモデルはポートレートやシングルショットを学習しているので基本マルチステップ(アウトペインティングや、小さいスケッチをしてディテールを埋める等)を推奨する

Q パーソナライズされたマーケティング用の画像を作る製品を作っている。ブランドのフォントなどを様々なレベルのパラメータを制御することはできないか?
A そうしたものを1発でやろうとすると大変なことになるので、複数ツールを組み合わる方がいいと思う
0259名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 15:46:09.99ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (3/3)
Q Google ColabのTPUをサポートしないの?
A 我々はGoolgeと深い関係を持っていて一番早くTPU V4を入手した。今後数週間の内に発表があると思う。

Q GPU需要が急増しちゃうのでは?
A 半年でGPUは変えなくなるかも。早く買った方がいい ※それは大げさすぎでは??

Q プロンプトをプログラミングのようにもっと合理的にする計画はないの?
A "octane render"や"artstation trend"ではなく、自然言語で望むものができるようにする方向

Q ルッキンググラスで遊んでるんだけど、インタラクティブ・リアルタイムレンダーで調整ができるようにならない?
A 開発チームが増員されて近々本当にエキサイティングな発表ができる。パイプラインには多くのものが必要でみんなが改良、発明できるものにしたい。
 最終的にレディプレイヤーワンのホロデッキのような体験をすることが目標でかなりの量のリソースを投入するつもり
0262名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 17:54:06.31ID:HVKQwQNh
852さんついに内容一切わからんもの売り始めててワロタ
0263名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 17:55:00.79ID:AAD0LqKl
あれバックに誰かついたな
AIをビジネスとして売り出したい勢力の人物が味方についた動きしてる
0266名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:14:31.10ID:YTjJKrJa
>>263
「いた」であって「ついた」ではないような気がするが、ともあれまあ今このムーブメントの中から売り出すならあの人以外にはないだろうさ。
0268名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:22:14.28ID:BnC2Jqtu
色々と集合知でコツみたいなのは掴めつつあるけど、カメラアングルだけは分からん…
バーズアイ以外は有効なトークンさっぱりみちゅからぬ
人間がメインだとポートレートとかバストショットがそこそこ効いてる感じあるんだけど風景だとさっぱりんこじゃ
0269名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:29:01.62ID:qsmpG6vA
写真とかの説明文にアングルが書いてあることは希だから学習時の結び付きが甘いんだろうな
そういうアングルで撮られやすいシチュエーションを指定するとか、そういうアングルじゃないと見えない物を要求することで誘導するとか
そういうアングルで撮るときによく使うレンズやカメラの設定を入れるとか
回りくどく行くしかないんじゃないか
0270名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:39:13.78ID:BnC2Jqtu
この辺がそれらしくは見えているけど、個々のパーツに意味が存在しないディープラーニング絵画の泣きどころだなあ…
もっと学習深度が深くなって、被写体の距離で分類するようなレイヤーが増えればいいんだろうが。

ところでbirds viewじゃなくてaerial viewでも同じ効果出たので鳥さんに襲われる方はおススメ。
0271名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:45:52.81ID:Vhb0uDbx
~ viewシリーズ
closeup
close range
low angle
wide angle
aerial
first Person
product
front
back
side
isometric
panoramic

単体/遠景 high dynamic range

全部効果はあるが結局はアスペクト比 * 他Prompt * Seedの兼ね合いだからな
0272名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:47:45.56ID:qsmpG6vA
>>270
言い換えるパターンは色々とある

直接指示
very high angle
vertical angle
overlooking

用語
bird's eye view
overhead view

機材
aerial photograph
satellite photograph
spy satellite

言葉のレベルを変えて色々と試すしかない
0274名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 19:35:58.47ID:mDWvoKTY
普通にアングルをファインチューニングさせれば済む話では
0275名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 20:04:35.73ID:yoCGziQQ
顔はいじらずにポーズだけ狙った形に修正する方法はないだろうか?
某人間みたいなボーンを受け付けてくれると神なんだが。
0279名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 20:59:35.11ID:zPfAjwfm
>>268

カメラのショットを真似るとアングルを変えられると思う

俯瞰 aerial shot
近接 close-up shot
中間 medium shot
ロング long shot, extremely long shot

まともなPCもプログラミングの知識もなくてdreamlike.artとかで遊んでる雑魚なので
的外れなこと言ってたらごめん
0281名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 21:40:55.56ID:mgwaFqyg
>>275
そういうときはimg2imgで体をマスクしてそこだけリトライするんじゃないの
それかいい体が出るまで回して、そこへKritaなどでいい顔を貼り付けてimg2imgで整える

こんな手法で
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]|abubu nounanka
https://note.com/abubu_nounanka/n/n3a0431d2c47a
0282名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 22:04:00.85ID:Uj+qizR0
>>281
これ自作絵img2imgやマスクまではいいんだけど、途中で編集入れてるからなぁ
いや別に何も悪くないんだけど、AIだけで生成みたいな暗黙のルールがあって
ちょっと後ろめたいんだよね

> 20枚くらい生成したらそれぞれの画像から優れている部分をピックアップして
> フォトショップで合成していき完璧な狐娘を作り上げます。狐娘が出来上がったら、
> 大きく崩れてしまったベイマは消してフェーズ2ベイ画像を合成します。

何も悪くない、悪くない
某数字話氏が目をいじってるーワーワー
0283名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 22:05:41.31ID:bUMFwT0G
>>282
> AIだけで生成みたいな暗黙のルール
馬鹿すぎ

某数字とかくだらんこと言ってるお前はもう書き込むな。しつこすぎだ
0285名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 22:24:53.24ID:A/AczZVC
Emad@Discord
昨日、超リファインされたデータセットでトレーニングを開始しました。43億のパラメータを超える、より優れたモデルが登場します
リリーススケジュールは決まっていませんが、かなり早いです。(セクター全体の動きが速いので遅く感じられるかもしれませんが)
また、新しい許可を得たライセンス・データセットの交渉も行い、今後の様々な改善のために多くのフィードバックに耳を傾けているところです。


V2 = 1024x1024学習モデル なのか、V3 = ViT-H学習なのか不明。
Emadさんでない人は、V3の方が先にでてV2が後になると書いてる人もいる(そんなことある?)
0286名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 22:30:49.42ID:A/AczZVC
DALL-E2 35億パラメータ
Imagen 46億パラメータ
SD1.4 9億パラメータ

SD V2 or V3 43億パラメータ

必要メモリ量が激増しないのかな。以前は+50%(最小3.1GB → 5GB)の見込みと言ってたけど
0288名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 22:46:41.00ID:BJ9nr9kp
1024×1024か……ローカルで動くかな。
ラデでCudaと同じように動いてくれれば、メモリは有利なんだけどなあ。
0290名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:15:44.52ID:nt0l++ZR
>>246
遅くなりましたが無事出来ました!
ありがとうございました
0291名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:19:57.80ID:tmj4QlW4
StableDiffusion用にメモリの多いグラボに買い替えようと考えているのだけど
24GBなら15万円で3090買うのと30万円で4090買うのとどちらが良いだろうか
4090なら画像の生成スピードも上がるかな
0292名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:23:36.04ID:rQ3Qpt4B
>>291
メモリ数の影響が大きいんだからメモリ数だけ見ときゃいいでしょ
4090とか絶対費用ほどの効果得られん
金あるなら買えばいいと思うけど
0295名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:28:50.28ID:Uj+qizR0
スレチになるけど4090って日本だと税込み32万とかでしょ?
3000系の在庫処理まで考えた明らかに恣意的な値付けなんで、今買うのはないかなぁ
0297名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:31:57.12ID:iIoobdUv
余裕があるなら好きな物買えばいいと思うけど
貧乏人なら今はまだcolabで様子みといたほうがいいわ…
0298名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:33:08.10ID:rxwRgLaP
メモリ量に対して最もコスパいいのは3060だろうな
酷使されてるけどマイニング上がりの中古が山のようにあるし
マルチGPUでメモリ合算できたら最高だったんだけどな
0300名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 23:39:15.42ID:Etn+pH/7
>>291
性能2倍以上と、15万円差どっちを取るかは人によるけど予算あるなら4090でいいじゃん
デメリットがない

若干悩ましいのは4090Ti(48GB)がそのうち出るのでは、という噂もあるんだよな。まあもっと高くなるのは確実だけど
0302名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 00:28:42.00ID:WmNtrZna
(人) with 2 hornsみたいに書いたら、角の生えた人間にヤギさんそのものまで生やそうとするの草
悪役っぽいイメージ与えてるから悪魔の角→ヤギの角みたいな連想するのはわかるし正しいんだけど、ヤギさんの顔はいらないの
0303名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 01:18:05.05ID:EuKEtzTY
テンプレからインストール手順消しちゃってもいいかな
知らぬ間に頻繁に変わるので編集が追い付かない
普通に最新版を英語で見たほうがいいと思う
0304名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 01:41:44.56ID:74wE4R72
ここにいるの、ローカルにインストールする気があるならすでにインストールしてしまった人ばかりなんだよね……
0305名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 01:46:12.39ID:BLmLJVf2
検索して来る人もいるかもだし、何がおすすめフォークかはいると思う
手順は確かに追うのが大変だね。注釈(最新版参照、不明点あれば掲示板で相談可)つけるとかかな。

公式のインストール手順もURLがちょいちょい変わったりするから誘導リンクもままならないって不安定ぶりだけどw
0306名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 01:47:16.47ID:dw8M8DMV
赤字で「古い情報、更新が早く今は変わってます」みたいに書いとけば察するんじゃね?
ないならないでなんでないの?不親切だ!みたいなことになるし・・
0308名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 04:06:01.26ID:EuKEtzTY
全身を描かせたい場合
筋肉質なほうが上手くいきやすいので
絵が上手なアメコミアーティストの一人や二人混ぜるのおすすめ
0310309
垢版 |
2022/09/23(金) 04:52:02.97ID:74wE4R72
↓マニュアルインストールの場合はこれを追加するだけでよいはず。
git clone https://github.com/Hafiidz/latent-diffusion.git repositories/latent-diffusion

960x512を2倍に拡大するの、3060で8分くらいかかりおった……
0312名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 07:23:18.13ID:YceTIVvh
初めて1週間ぐらいで右も左も分からない初心者です

https://i.imgur.com/vlhC3Yr.png
Textual Inversionでドット絵を出力させたく3日ぐらい試行錯誤しましたが画像が最高地点でそれ以上前に進めません
何が間違ってるんでしょうが?
使用機材はcolab、ckptはwaifu1.2、入力画像はフリーのドット絵集です
0314名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 08:11:24.34ID:iCFb399s
顔はWaifuとTrinartのおかげで、もうどうにでもなるんだけどネックはやっぱ指と手の辺りだな……
0315名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 08:12:00.95ID:r5K8J+Yc
なんか草
普通にTIなしでpixel artっていれるだけでもドット絵でるよ

TIするときは構図とか被写体をある程度固定したほうがいいっぽい
欲張って色々いれると何エポック回してもぐちゃぐちゃ
0316名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 08:21:16.69ID:eep3t4Fd
結局のところ生成されるのは「一般人がなんとなく抱いているイメージ」なので無理じゃね
ファミコンのドット絵を指定しても平気で10色くらい使いそう
逆に言うと「(アメリカ)一般人が抱いているイメージ」を確認するには使いやすい
民主的(democratic)を入れるとなんでも青と赤のツートンカラーになる(米民主党のイメージカラーが赤と青だから)
0317名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 08:25:23.22ID:iCFb399s
LDSR、使う時に無いと自分でインストールし始めるみたいね。
それにしても、くっそ時間かかるな……。通常の2割も出てないわ。
0321名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 10:38:28.49ID:YceTIVvh
ありがとうございます
プロンプトや設定を色々いじってもこれ以上進まなくなったので諦めます
0322名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 11:23:17.00ID:qVFdEYqz
出先なので試せないけど、ビデオでスタイル転送ができるこれどうなんだろう

VToonify Controllable High-Resolution Portrait Video Style Transfer
https://twitter.com/_akhaliq/status/1573112897710039041
https://github.com/williamyang1991/VToonify

Twitterのレスみると、1フレームが100msで描画できると書いてる人いる

"Portrait"だから用途は限定されそうだけど、VTuberみたいな使い方はできたりするのかも
https://twitter.com/5chan_nel (5ch newer account)
0323名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 11:46:54.08ID:nlbYeLtp
>>322
こいつはvtuberに向かないな。おっさんが女キャラ演じたくてもおかまにしかならない
snowのフィルターみたいな用途じゃないかな
0324名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 12:20:10.41ID:viLtTa6a
ファインチューニングして物を認識させたいんだけど、入力画像を512x512のサイズに拡大してv1-finetune.yamlで学習させたら画風自体が変わるようになってしまった
これってもしかして学習に使った画像の大きさ・位置にしか出ない?
手とかアクセサリーとか、物単位で学習させて、画像に合わせて適切な方向・サイズで出てきてくれたら嬉しいなぁって思ってやってみたんだけど
それは無理なのかな?それとも単に方法が違う?
0326名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 12:34:06.70ID:Jm2+2gWJ
多分TIだろうけどfine tuningはいくつかやり方あるからどの方法でやりたいか言わない誰も何も言えないかも
0327名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 12:39:17.69ID:74wE4R72
こちら、秋の森で獲物を探す猟師さん
outpaintingで追加してるので元画像は一回り大きかったのだけど、いろいろ難があって縮小してあります。
https://i.imgur.com/Gs2NVMA.png

Real-ESRGAN 4x plus anime 6Bを使ったSD upscale
https://i.imgur.com/8A11Zk0.png

LDSRを使ったSD upscale
https://i.imgur.com/PR06VfM.png

003_realSR_BSRGAN_DFOWMFC_s64w8_SwinIR-L_x4_GANを使ったSD upscale
https://i.imgur.com/Nl5jsMI.png

各10枚ずつ出して一番良さそうなのをピックアップしてあります。
背景が複雑だとDenoising strengthを0.15まで下げても妖精さんが湧いてきてツライ

LDSRとSwinIRは前景の描画が細やかになりますな。
0328名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 12:50:38.89ID:HdNk5CRI
>>312
dreamboothの方がいいんじゃね
知らんけど
0330名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 13:05:43.98ID:KHE6Yumc
>>327
LDSRいいね
葉っぱ一枚一枚細かい部分も描かれてる
0331名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 13:47:55.18ID:viLtTa6a
>>326
一杯あるんだ……Textual Inversionです。txt2imgで特定の単語で任意の画像を出したりしたいです

>>325
https://towardsdatascience.com/how-to-fine-tune-stable-diffusion-using-textual-inversion-b995d7ecc095
わからない……ここを参考にしてやってみたけどダメでした
「v1-finetune.yamlはオブジェクト学習用」って書いてあったから、多分これでいいんだろうって思い込んで学習させてたら
画風みたいに画像全体に影響するようになってしまいました(学習させたアクセサリーの形に人物が歪んだり、模様が入ってしまう)
0333名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 15:39:25.20ID:uJe6Xm90
waifuやとりんさまは簡単な呪文でいい感じの絵が出るから持て囃されてたけど
呪文の研究が進んでみるとSD1.4のほうがいい面も結構あるんだな
神絵師っぽい絵柄の制服JKとかはSD1.4のほうが上手く出せてる印象がある
0336名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 18:51:35.99ID:Wbrq3AQq
>>331
youtubeで無料素材製作@犬小屋って人が動画上げてるから調べてみ?
ただしGoogle colabでトレーニングだから有料使わないのならGPU制限に引っかかる可能性がある

objectでなくstyleで学習させてたら全体の画風が変わる
learning_rateやmax_train_stepsの数値でも学習深度から絵柄が変わる
低過ぎても高過ぎても駄目で手探り状態だわ
0337名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 18:56:03.82ID:Wbrq3AQq
>>333
wifuは無断転載のdanbooruを食わせた二次元向け学習モデルだからね
簡単な呪文で量産型萌えイラストを出すのは容易でもそれ以上になると厳しい

ゲーム画面を学習したみたいなモノまであったから質もピンキリよ
(画像生成したら明らかにゲームUIみたいなのが付いてきた)
0339名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 19:07:42.23ID:iCFb399s
Waifuは謎文字召喚率がめっちゃ高いからネガティブでtextとかtitle弾くのはほぼ必須。
言ってみれば二次系闇鍋。
0343名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 19:33:30.68ID:iCFb399s
>>340
横長にしてるので、たぶん512pxを境に両方から腕が伸びてきて腕しか残らなかったんだと思うw

一応、(((intricate human hands fingers)))とネガに((((mutated hands and fingers))))は突っ込んでるんだけど……
複数人間が出てくるとさすがにキツイっぽい。
0346名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 20:41:29.28ID:W6FPw38H
無断転載はダメということは逆に金出して買ったアニメのDVDを学習させるのはセーフということか
0347名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 20:45:48.38ID:uJe6Xm90
ネガティブで肥満とか熟女とか黒人とかどんどん弾いていくと
逆に実写要素が強まっていくのはどういう理屈なんだ
0348名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 20:54:19.90ID:uWfuSSxK
1111でLDSRを使ってみると下記のエラーが表示されました

「RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory」

自動でシステムがダウンロードされるものではなく別途手動でインストールが必要なのでしょうか?…
0349名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 21:05:26.50ID:74wE4R72
>>348
まずは、↓これができているか確認を。
stable-diffusion-webui/repositories/latent-diffusion

実行時にmodelはここにダウンロードされるはず(stable-diffusion-webuiディレクトリから起動していれば)。
stable-diffusion-webui/repositories/latent-diffusion/experiments/pretrained_models/

model.chkpt と project.yaml があって、 model.chkpt は1.9GBほどのサイズ。
0350名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 21:16:59.66ID:uWfuSSxK
>>349
ありがとうございます!
model.chkptがダウンロードされていることを知らず動作していないと思い途中でストップし
中途半端なデータ状態になっていたのが原因のようで、手動でダウンロードしていたものと置き換えたら出来ました!!
0353名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 22:47:11.31ID:G2uqIlgL
でぃすこより
Waifu Diffusion v1.3の進捗状況を少し報告します。
- データ量を30万画像から60万画像に増やしました。現在、データセットを単純に200万画像にしようかとも考えていますが、モデルが学習を終えるまでにあと2週間ほどかかることが唯一の問題点です。何か問題があれば教えてください。
- 学習時には、変分解像度が使用されます。これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。
- 通常のキャプションスタイルが使用され、タグの順序もランダム化されるため、touhou komeiji_koishi solo portrait looking_at_viewer の代わりに、トレーニング中に見られるキャプションは portrait, looking at viewer, touhou, solo, komeiji koishi のように見えます。つまり、アンダースコアがなくなるというのは良いニュースです。
データセットのサイズが30万画像から大幅に増加するため、モデルのリリース日が1?2週間遅れる可能性が非常に高くなります。
0355名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 23:17:48.69ID:Q4PL6KYJ
AI規制により、StableDiffusionを名指しで禁止しようとする動きもあるらしい

Discord抜粋 (私が雑要約)
ホワイトハウスのAI政策タスクフォース委員
・技術的に既にデータセットに入っている作品をオプトアウトすることはできないため、規制し
合意のないデータを中心に構築されたモデルを根絶するしかない。
・StableDiffusionの禁止を望んでおり、ホワイトハウスに直談判している
・クリエーターの収益化が必要であり、オープンソースAIとAIアートに対抗する組織が必要

Emad: そう考えているのは彼女だけではない。EUも規制を考えている

https://www.brookings.edu/blog/techtank/2022/08/24/the-eus-attempt-to-regulate-open-source-ai-is-counterproductive/amp/
・人工知能法に取り組んでいるEUの立法機関で汎用AI(GPAI)の規制が検討されている。
・目的:よりツールを安全に使用できること。フェイク、偽情報への対応等
 現状のGPAIの不透明性を問題視している。バイアスが意図的に操作されていないか等
・しかしオープンソースGPAIへの法的責任が重くなり弱体化すると、
 大規模AI企業への権力集中が更に進み、一般の人々のAI理解が妨害される危険もある
・汎用AI(GPAI)=(曖昧だが)複数の場面で利用可能なAI。画像生成、翻訳、ロボット制御、等
 規制はGPAI開発者にリスク管理、データ管理、透明性、精度、セキュリティ等の基準を満たすよう要求するもの

・規制への反論:既にAI法で規制(雇用、安全性)はある。オープンソースを明示的に入れるべきではない。オープンソースは(1)巨大企業への集中緩和、(2)AIの仕組みの一般理解の浸透で大きな役割を果たしている
 大手AI企業はこの規制に法的に不備なオープンソース開発者を訴訟することも可能性になる。
0356名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 23:19:09.61ID:Q4PL6KYJ
しまった・・・。技術スレの話題ではないですね。 総合の方にいきます。
もしコメントなどあればそちらで
0358名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 23:41:06.44ID:dw8M8DMV
LDSRってESRGANみたいなもんかと思ったら全然違った・・めっちゃ時間かかる
LDSRで検索しても何も出てこないけど、具体的には何やってるの?
Latent Diffusion Super Resolution?
0359名無しさん@お腹いっぱい。
垢版 |
2022/09/23(金) 23:43:20.01ID:iCFb399s
プロンプトの動き見てると、元画像を専用のmodel.ckptに学習させて、それをもとにアップスケールかけてるように見える。
時間がめっさかかるのはこの学習?パートでアップスケールそのものは普通って感じ。
0360名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 00:06:06.77ID:TQdEP/Of
自分の貧弱4GBグラボじゃLDSRは100%まで20分くらい、
しかも100%になったらメモリが足りないので生成出来なかったとエラー
それ最初に言ってくれ(T_T)
0365名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 00:27:40.07ID:i1cGJaN5
Textual Inversion やってみようかと思ってInvokeAIインストールしてみたけど、wsl2のせいなのかNCCL errorが出てダメやった……
そのうちまた挑戦しよう。
0368名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 00:48:54.21ID:Bom1QZWw
>>366
本家に連絡して、そのまま機能を入れてもらうんや
「日本の掲示板で公表したら思いのほか好評だったので」とか言ってええで
0372名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 03:56:14.50ID:mw09Hve+
promptコピペしてー
negativeコピペしてー
seedコピペしてー
サイズ調整してー
samlerとstepとcfg調整してー

細かく調整しながら大量に作って、あとから選んでると
promptは念のため結局コピペさせられてるんだよなぁ
みんな思ってるから高確率で採用されると思う
0376名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 07:37:41.82ID:cMJIYYj5
Macのグラボ、seedが機能せず再現性を持たせられないみたいで笑った(俺の環境でもそうなってる)
Macはほんと置いてけぼりだな…いいのは見た目だけ…
0377名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 07:37:45.37ID:J0vYRVI2
出す出す詐欺で、全く出さないなSDは
0379名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 07:43:03.83ID:Fu+sga2r
out paintingは辺を一気にガツッとかけちゃうんじゃなくてinfinityとかダリみたいにスクエアを動かして作って行きたいなあ。
ちょっとづつ伸ばす方が、多分望んだ方に誘導しやすいと思うし。
Inpaintingもマスク決めたらかなりガチャって採用決めてくし。out paintingもそんな感じでおながいします。
0381名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 08:31:57.54ID:YfE5m3n5
python出来るやつにuiの改造頼んでるわ
金はかかるけど使いやすくていいぞ☺
0385名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 09:17:05.02ID:J0vYRVI2
>>384
凄い
水着が小さくて乳がはみ出る高等テクも採用されとるけど
来月には抜けるレベルになるな
0386名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 09:51:21.24ID:mw09Hve+
>>353
> 学習時には、変分解像度が使用されます。> これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、
> 様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。
これ楽しみだね
0390名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:32:17.60ID:zZQg4ZiD
389がもっといい絵を上げてくれるらしいぞ
0392名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:36:04.97ID:V02U0GhL
確かにちょっと前のソシャゲとかだとコレより微妙な絵も普通に使われてたな
もっと言えば黎明期のエロソシャゲとかこれとは比較にならないレベルで下手だった
それでも商売として成り立ってたんだから一応プロの絵って事だったんだよな
0393名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:36:29.94ID:cKNdZ6KH
>>389のレベルというより、Pixiv、Artstation、日本の漫画、Pinterest、・・・どこみたって>>384,388レベルの絵が高評価されるとこなんてないでしょ

技術スレの話題ではないけど
0394名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:45:52.21ID:qJKR2NKy
神絵はともかく一般絵だとこれより下手な人の方が多い
なので >>389 が目だけ肥えてるタイプか描けるタイプかで意味は変わる
0396名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:48:03.66ID:VjVJ4lFD
単にAIがヘタな虹絵も学習してしまってるからだろうな
例えば目と耳がくっついてるような絵ってあるじゃない。ああいうのはプロの絵でも横行してて
別に誰も指摘しない。上のAIでもちょっとその傾向が出てる。
0399名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:52:45.65ID:cKNdZ6KH
>>394-395
なんでいきなり下手な人は大勢いるとか、AIは追い越すとかって話になるんだ。そりゃそうだが>>384,388がヘタクソな絵ってのは変わらないでしょ

目が肥えてるとか描けるかとかも何も関係ない
下手か上手いかは主観の問題だけど、少なくともPixiv、Artstation、漫画、同人誌、Pinterest、Twitterとかで高評価になることはない絵
0400名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:54:26.91ID:V02U0GhL
そもそもAIの下手さって人間とは違う傾向にあると思う
人間がまず躓く光の表現が上手い一方で構造はイマイチって言うね
人間の初心者の場合、陰影が上手い人ってまず居ないから
AIの絵がパッと見良く見えるのはソレが原因じゃないかな
0401名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:54:58.52ID:45eSPqjd
上手いか下手かでいうと、下手の部類に入っちゃうだろうね。
AIにしては上手いというの確かだろう。
けど、これ出力するのにかかった時間は秒単位なんだぜ…
その気になれば100枚ぐらいあっさり出せる。
この速さがAIの最大の武器だな。
一旦、ある程度のクォリティに達したら、そこから下がることなく秒単位でバンバン出せるんや。
誰にでも。
0403名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:58:53.04ID:VjVJ4lFD
色と光の表現は良いし、初期のアニメ絵は出せないとか言ってた頃からすれば凄い進歩だけどね
でも量産できるってのはあまりメリットにならないと思う。むしろ価値が落ちる
同じキャラを描いてくれないのも欠点の一つだし
0404名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 11:59:53.95ID:VjVJ4lFD
>>402
水着のねーちゃんの顔のパーツが輪郭からずれてる
人間もやりがちなミス 髪で見えないが耳があったら耳が目とくっついてる絵になる
0406名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:03:09.62ID:Jsiq1Nd7
>>389の目の正しさを確認するためにも>>488には期待だな
とりあえずAIの絵が下手かどうかを論ずる前にもうちょっとレスの仕方が上手くなると良いのだが
0408名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:05:55.78ID:qdRJqmgL
>>399
お前さんは目が肥えてんだろうけど、絵をまるで描かない人間からすれば充分上手だぞ
ていうかプロンプト次第ではもっとすごい絵いっぱい溢れてんじゃん?見てないの?
それでも下手だとか言い出すならそりゃもう単なる嫉妬かお前がとんでもない天才画家様かのどちらかだよ
0411名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:11:34.07ID:cKNdZ6KH
>>408
何言ってるのかさっぱり分からないが、上の絵がヘタクソって話と他にいいAI絵があるって話が何の関係があるんだw

そりゃ他にいいAI絵はあるよ。それがどうかしたのか?
0415名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:21:56.00ID:LDUjNPpd
>>411
あなた様の言い方が反AIのクソ絵師っぽいと思ったのでAI様をバカにされたようで腹が立ったんですごめんなさいもうしませんAI様最高ですよね
0416名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:22:47.65ID:VjVJ4lFD
いい絵っていったってここに上がったのも何十も試行しての結果だろう
一分で素晴らしい絵が描けるってのは語弊があるよな
0419名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:30:20.49ID:VjVJ4lFD
へーへーごめんなさいねぇ なんか気に障ること言っちゃったかな
別にこの話題引っ張る気もないしまだ4レスしかしてねぇんだけど
二匹とか何エラソーに お前は何様だよ 前もあった流れだがなぁ

はーい 私 が わ る う う ご ざ い ま し た 

満足か?必死な自治厨 まあ せいぜいがんばれや
0421名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:36:23.07ID:UexXWyPc
前スレ辺りでプロ級の絵がうpされてたけど、見る人が見たら肩の角度が~なんて判断でアマ級になってたろ
SDなんてただの道具でしかない
人間側に能力ないといい絵は作れないんだよ
0423名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:41:27.64ID:ED3gMzZj
誘導されていきなりキレて暴れだすやつって最初の方のスレにもいたな
同じやつかな、そこまでプライド高すぎるのはちょっとまずいぞ
0424名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:44:16.12ID:VjVJ4lFD
その話題もスレ違いじゃねーの
高すぎるプライドじゃないね。だが人間としてのプライドはある
畜生みたいに言われたりゴミって言われたら怒るよ あたりまえでしょ
0428名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:47:43.50ID:LDUjNPpd
これネタじゃなくて本当なのだとしたらかなりかわいそうな人だな
絵師だろ?おそらく
実は単なる中高生の荒らしでした、っていうオチであってほしい
本当にこんな人間がいるだなんて、あまりにも悲しくて
0429名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:48:14.14ID:VjVJ4lFD
スレ違いだから終わるがAIがどうのという前に人間としての常識をわきまえろ 以上だ
続きやりたいなら誘導先でやれ 俺がレスするとは限らないがな 下らんと思ったら永久に閉じて去るから心配すんな
0430名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 12:50:31.60ID:VjVJ4lFD
自治厨くん、こいつらは「匹」にはいらないのかい?ずいぶん偏向がある誘導なんだね
終わり あーくだらね
0432名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 13:07:04.37ID:Fu+sga2r
なろうとか書いてる文字書きには嬉しいアプリだろうな、これ。
特定のキャラの色んなシーンは描けないけど、雰囲気だけなら十分に絵でも伝えられるもん。
0435名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 13:22:44.48ID:Fu+sga2r
横幅の勝利だと思う。だから、2人居るシーンってよく見ると片方が透けてるんよ。
おそらく、左の512に1人かいて右の512に別人を書いて合成してる感じで動いてる。

もっと人を出すのはもうちょっとpromptを煮詰めんとね。
>>431>>387も1promptのバッチカウントぶん回しだから、汎用性のあるpromptにはなってきてる手応えある。
0438名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 13:26:09.89ID:Fu+sga2r
>>436
さっそく活用中w そしてpromptにバージョン管理も来てるよー
そのうちgitみたいにpromptのフォーク管理とかできるようになるんじゃねw
0447名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 15:06:08.32ID:gYR9rafZ
1111で4batch とかで生成すると結構な頻度でguiがバグる
絵はファイルとしては生成されてるんだけど右の画面に出てこず、generateボタンが反応しなくなる
colabだからかな
0448名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 15:09:10.01ID:Fu+sga2r
>>444
オスカー賞w 

>>447
colabはディスクの書き込みは遅いので、そこで止まるっぽい。
grid生成してると、高確率で返事返ってこなくなる。
0455名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 15:49:34.92ID:xxlpsYzL
Waifuで二次絵を出力したいのにドールみたいなリアル系の顔が出てくるのを簡単に抑える方法無いかな
0456名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 15:52:02.95ID:UexXWyPc
キチ消えたと思ったら日記帳になってんじゃん。書き込むならプロンプトも載せろよ

20yo man, wear paradin armor, chest up portrait shot, anime face, dark hair
insane detailed, highly detailed, [[greg rutkowski]], trend on artstation
Negative prompt: penis, helmet, mask,((poorly drawn face)), ((poorly drawn hands)), ((poorly drawn feet))
, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), legs
https://i.imgur.com/xvNdN8o.png

20yo man, → 20yo japanese man, loli face,
https://i.imgur.com/UT5lsVI.jpg
0460名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 16:23:34.39ID:n8EXDYtx
>>455
portrait(肖像画)をネガティブに入れるのがお手軽
danbooruにはportraitというタグはほとんど付いていないのでSDで学習してたリアルな顔の描き方だけ忘れてくれる
dollとかphoto faceとかも効く
0463名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 16:42:50.88ID:CNBGbHBe
グレッグさんはさすがに最大級の被害者
プロンプト入力してる人たちの大半がグレッグさん本人のことや作品を知らないだろうなというのもやばい
右にならえでみんな入れてるし
スレチなのは分かるけどすまんw
0465名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 16:55:07.80ID:uMwcZwrh0
1111の連続出力しようとすると高確率で無反応になるなあ
0469名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 17:39:01.84ID:HeclL8j8
とりんさまが同じ顔ばっかり出すのを利用すると
同じ子に制服着せたり裸にしたりが割と簡単にできるんだな
何なら人間が描くより作画安定してるわ
0470名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 17:39:09.67ID:bJ0v/dMN
>>466
テンプレから

>webui.batと同じディレクトリにある「ui-config.json」をテキストエディタで開く。9行目の「"txt2img/Batch count/maximum": 16,」の数値を増やして保存しStable Diffusionを再起動する
0471名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 17:53:06.68ID:Fu+sga2r
割と汎用性の高いpromptがそこそこ仕上がったと思うんで共有してみる。

beautiful <塗りの種類> 8k wallpaper kawaii anime (<主な人物の簡単な情報>) with <動きを想像出来る場面>,(((intricate human hands fingers))), (navels), wearing <着ている服>,beautiful face,<主たる人物の髪とか>

ネガティブは崩れないお呪い一択で変更無し
Negative prompt: ((((mutated hands and fingers)))),((poorly_drawn_face)), ((poorly drawn hands)), ((poorly drawn feet)), fat, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), (((text title signature)))

ガチャ必須で収率は正直よろしく無いが、ほぼどんなシーンでも使い回しが効くと思う。
ポイントは<動きを想像出来る場面>で、ここに動きを入れることでAIさんが勝手に妄想エンジン全開で動きをつけてくれる。

では、具体例をば。

beautiful CG painting 8k wallpaper kawaii anime (kawaii 1girl soldier) with fierce training grounds under the hot sun,(((intricate human hands fingers))), (navels), wearing uniform for infantrymen,beautiful face
ネガ略
https://imgur.com/E8RanYx
正直、動きの情報が複雑すぎて大暴れw

beautiful CG painting 8k wallpaper kawaii anime (kawaii 1girl student) withHoliday Underground Mall,(((intricate human hands fingers))), (navels), wearing Cute personal clothes,beautiful face,long hair
ネガ略
https://imgur.com/Mpc8YAQ
Trin系大活躍w

beautiful CG painting 8k wallpaper kawaii anime (fantasic 1girl ) with Dungeon where monsters lurk,(((intricate human hands fingers))), (navels), wearing Fantastic knight's armor,beautiful face,golden
ネガ略
https://imgur.com/oM4MuoM
鎧なんかのディテールはWaifuが強い気がする

こんな感じで、ポーズや構図を全部AIに任せるので数は回さなきゃダメだけどほぼほぼどんなシーンでも使える。
あと、引きで顔が崩れたらinペインティングで修正って感じ。数が勝負だからSTEPは30で十分。20でもおk
0472名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 17:55:15.50ID:a7kxR5bA
ブラウザ翻訳すれば使い方なんてバカでもわかるのにちゃんと公式読まねぇ奴多すぎるわ

あとテンプレの内容もだいぶ古いな
Automatic1111版はだいぶ前からckptの名前変更も必要無くなってるし
0478名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 21:03:36.81ID:YVeih2LP
img2imgでアップスケーラーを多用してる自分としては下部のスクリプトに組み込まれてしまったのは不便だな…
戻す予定ないんだろうか…
0479名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 21:20:43.33ID:UxKOT+zk
gyaru, detailed face, beautiful face, by <人物画家>, screentone

普通のSDでもそこそこの確率で漫画風の美女が出る
ルイ・イカールとかだと昭和の少女漫画風になる
うまくいく人といかない人がいるので実験で

gyaru, detailed face, beautiful face, by Alphonse Mucha, screentone
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/zJrW8Ch.jpg
0480名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 21:24:58.52ID:sYfHiaag
360度HDRI背景ってどうすれば良いでしょう
頭に
A panoramic 360 seamless hdri,
て入れてみてるのですが、継ぎ目がスムーズにいきません
0481名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 21:54:54.27ID:V0MBYcG3
>>480
SD完結は無理だと思うよ
フォトショ使ってつなぎ目が一枚に入るようにしてマスクつかってblur大きめでその間をペイント
ただし微妙にスムーズにならないからつなぎ目をフォトショで修正
そうやってけば縦横上下パノラマにまではなるけどHDRには・・・
0482名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 22:31:04.93ID:mIruhv5U
>>480
シームレスにするだけなら、Automatic11111でseamlessにチェックするだけでいい気がする。
ただ、普通の背景のような画像は生成されないかもしれない


試してないけどこういうのも最近出たみたい
テキストからHDRIを生成
Text2Light: Zero-Shot Text-Driven HDR Panorama Generation
https://github.com/FrozenBurning/Text2Light

CLIP使ってるのはSDと同じだけど画像生成はオリジナル?背景に強い学習してる?

普通のGeforceとかで動くものなのか、生成可能な画像のバリエーションがどの程度かとか全然分からないけど
0483名無しさん@お腹いっぱい。
垢版 |
2022/09/24(土) 22:57:18.96ID:dnVPHBuk
High Dynamic Rangeは光のダイナックレンジが広いフォーマットだから加工だと撮影段階で複数の露出で何枚か撮るかHDR(10bit以上のRawも含め)で撮らないと無理っぽいけれどAIに描かせればHDRにも出来るハズということか
0484名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:03:02.44ID:uREouYi4
1111の設定にあるこれてなにですか?
あと出力サブホルダをプロンプトのハッシュ値によって自動で集合させるという凄いテクノロジー話もあった気がしたのですが、
そんなことも可能なのですか?


>VRAM usage polls per second during generation. Set to 0 to disable.
>デホルト設定値8 最大40
>生成中の 1 秒あたりの VRAM 使用量ポーリング。無効にするには 0 に設定します。

>Always print all generation info to standard output
>すべての世代情報を常に標準出力に出力します
0486名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:22:41.44ID:nHoCEq69
>>484
>VRAM usage polls per second during generation.
画像生成が終わった後で下に使ったプロンプト等が表示されて、一番下に

Time taken: 91.75s Torch active/reserved: 6346/7960 MiB, Sys VRAM: 10550/12288 MiB (85.86%)

とか出るやつじゃね?

>Always print all generation info to standard output
これは上の情報をwebuiを実行している端末の画面に出す設定かの?

>出力サブホルダをプロンプトのハッシュ値によって自動で集合
>>420のことなら、settingsで Save images to a subdirectory にチェックを入れて Directory name pattern に [model_hash] と入れれば、settingsで現在選択中のmodelのハッシュ値が付いたサブディレクトリに画像が出力されるヨ!
0487名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:29:55.92ID:nHoCEq69
>>484
>すべての世代情報を常に標準出力に出力します
ではなくて、
「すべての生成情報を」だと思う。
0488名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:33:16.26ID:PXjBBhkX
VRAM usage polls per second during generation
の方はデフォルト8 per secだし、特にどこにも毎秒8回もメモリ使用量表示されてるとこないから、内部処理の設定だと思うよ
VRAMが十分あるなら0、VRAM普通ならいじらない、4GBとか少ないなら増やした方がよさげ

Always print all generation info to standard output
こっちはコンソール画面(背景真っ黒ウインドウ)への表示。ブラウザ表示しか見てないなら無効化していい
0489名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:36:57.59ID:ytTAIFhl
>>488
> 内部処理の設定
頼むから出鱈目言うのはやめてくれ
pollっていうのは集計って意味
よってVRAM使用状況の集計を秒毎に何回行うかという設定
8GBだと常に100%近くて特に参考にならないので自分は無効にしてる
0490名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:37:47.17ID:REa16q+M
>>486
それら情報表示設定だったのですね…
VRAM使用量の制御系かと思い低RAMグラボ用に最適化出来るのかと思いました…

ハッシュは「model_hash」だと思って入力したら単純にmodel_hashというフォルダが出来て焦りました!
「[model_hash]」だったのですね! ありがとうございます!!
0491名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 00:43:27.39ID:PXjBBhkX
>>489
毎秒何回取得してどうすんのって話よ。表示してるなら表示用の設定かもしれない
でも表示されてないんだから、VRAM値をなんらかのチェックをする内部処理用の設定でしょ
100%に張り付いてるならそのチェックできず異常起きる可能性あるから無効にはしない方がいいと思うよ
0492名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 01:01:57.23ID:BU7ZBq4B
キャッシュ君の再来?
その設定はVRAM使用量の状況を何秒ごとに取得するかの設定でしかないぞ
それで取得されたピーク値が処理後に表示されてあとどれぐらい余裕があるかの目安に使えるってだけ
短いと処理速度に影響出そうだし長いとピークを取り逃すしで暫定で8秒にされてるが変えたければ変えられるというだけ
0495名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 01:47:27.22ID:owAl6m1U
colabで1111版使おうとしたら、
ユーザーねーネームとパスワード求められて使えなかったわ
前まで必要なかったのに
0496名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 01:57:44.09ID:REa16q+M
モデルによるハッシュ値フォルダへの保存てプロンプトのハッシュ値ではなく
model.ckptのハッシュ値による保存だつたのですね…
プロンプト変えても同じフォルダに保存されるから焦つた…
前スレでプロンプトのハッシュ値で保存してる人がいたような気がしたけど、
あれは1111機能ではなく自分で算出して保存してたんですね…
0498名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 02:28:01.10ID:ytTAIFhl
プロンプトのハッシュって何?
モデルハッシュ/サンプラ/プロンプト
みたいなフォルダ構造にすればいいだけだよね?
0499名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 02:35:29.46ID:REa16q+M
たしかプロンプト文字列をMD5ハッシュ値にして、その値で画像をフィルタリング出来るようにしたとか、
そんなことを書いてた人がいて、最近1111のデフォルト機能でそのハッシュ値保存が可能になったのか~と思って…
0501名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 05:00:58.51ID:6RnQiqTg
>>473
そもそもMJとDALLE2用のスレだったので
有料サブスクとかSDには合ってないから変えた方がいいかもね、いまやメインだし
0502名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 06:24:19.67ID:cvGgDvDI
>>482
面白いけどだめっぽいな
SDののりで「sunset beach, sea, cinematic light, sharp focus」で生成されたHDR(これはLDR)画像がこれ
https://i.imgur.com/graQ9HE.png

一見まともに出力されてるようだけどプロジェクトページにあるサンプル画像とまったく同じのだった
https://i.imgur.com/tcO2Nk6.jpg
https://frozenburning.github.io/projects/text2light/

「tokyo street」みたいなの試しても東京どころか道にもならないしまったく学習できてない
使うには自分で学習させてモデル作らないといけないみたいだし、そうやって作ったところできちんと生成できる保証もなし
0503名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 08:37:48.81ID:gTrt2+7w
>>502
検証あり
HDRI画像学習させるのは大変だね
今後VRニーズが増えるなら環境テクスチャの自動生成も重要になると思うのでどっかが頑張って学習済みモデル提供して欲しい
0505名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 11:03:35.70ID:Ve4FTbed
パソコンで絵が描けるようになった頃も似たようなことは言われてたし、すぐ順応すると思うな
アンドゥや左右反転もアナログ描きからは邪道扱いされてたし、レイヤーや3Dになるとフザケンナって感じだった

その前の時代にはスクリーントーンも似たようなことを言われてた
0508名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 11:08:46.54ID:2uVyG9pr
いるよなこういう歴史を捏造する奴
俺はPC黎明期から絵描いてるけどそんなこと一切全く誰も言ってなかったぞ
むしろデジタル最初期の段階で既にイラストレーターはPCで描くのが常識で
線画だけはアナログか線画含めてフルデジタルかという程度の違いしかなかった
0511名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 12:23:43.94ID:8jGGCnJU
水彩画もパソコンで描いてたの?
それとも水彩画はイラストではない?
0512名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 12:36:46.80ID:BY6VbDbY
いつの時代をもってCGの黎明期って言ってるんだって感じではある。
PC9801の16時代からCG触ってるが、流石にこの時代でCGに手を出してたプロのイラストレーターは超希少。
都築とかぐらいじゃないかな。
当時のスキャナは白黒オンリーだったのでそもそも線画しか取り込めないw
ラップスキャンと言ってサランラップに油性ペンで線画を描いてモニタに貼ると言う荒技を使ってた人も多いw
ニフティなんかでは今のpixivみたいなフォーラムがあって、そこでCGを共有してた。ちなエロは7割ぐらいw

もうちょっと時代が進んで256色使えるようになるとマカー漫画家がCGに手を出すようになってきた。
ノーラの漫画家が多かったな。こやま基夫とか。
この頃からゲームのイラストレーター はみんなCGで描くようになってきた。

正直、アナログ画家はそもそもPC使えない方が普通だったのでコピペとかアンドゥとか何それって感じで邪道もへったくれもなかったし、色の表現力とか線の繊細さなんかは当時はアナログがダントツだったので文句言うヤツなんか当然いない。
CGといえばガジェオタのオモチャと大差なかったし、ペンタブなんかも普及してなかったからむしろ変人扱いだった記憶がある。

フォトショの4ぐらいからかな。いろいろ使いやすくなったのって。
0513名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 12:47:07.40ID:SHkwqg2j
>>512
おっさんスレチだし自分語りうぜーよ
って言われるけど語りたくなる気持ちはとてもわかる

98のマルチペイントは革新的ツールだったな
オレもやったよ、サランラップ
CGはいつになっても進化し続けてて面白いわ
0515名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 12:53:39.99ID:4G0Ll0bE
この世代のおっさんが一番CGを楽しめてるかもな
都筑和彦氏がマウスやタブレットのパソコンお絵描きをCGと呼ぶのはどうなんだろうと呟いてたことがあったが(キラキラ筆を作る少し前)、その意味ではAI画像生成の方が「コンピューター・グラフィックス」に近い
0516名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 12:53:40.28ID:nHoCEq69
PNG Infoからtxt2imgへのプロンプト送信、Highres. fixの設定は飛ばない。
全然違う絵が出て困惑しちまったよ……w
0520名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 14:33:48.14ID:8ohYB0PO
>>517
平成も34年まで続いて令和産まれがもう4歳だもんなw
まあ機会があったら昭和の2次絵を色々見てみるのも面白いもんだよ
0526名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 15:48:08.31ID:nzuXjo2K
本家のアプデとか即フォークにも適応されるものなのか?
今だと自動1111ありきになってしまったわ
0527名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 15:58:03.60ID:U6vEX/eu
1.5ベースの再学習いるだろうし派生モデルはそれをベースにするかどうか個別判断になるんじゃない?
1.4ベースで行く人もいたりいなかったり
0532名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 16:55:44.92ID:cjV4eppy
k_euler_a と euler_a は違うものなんでしょうか?
Automatic1111版はk_がついていないせいか、同じプロンプト・シードでも
NMKDのk_euler_aと出てくる画像が違います。k_euler_aはAutomatic版では使えないとか?
0535名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 17:29:36.19ID:QcBKDjkv
すいません総合スレに技術的な質問はこちらと書かれてたのでいいですか?
多分初歩的な事だろうと思うのですが、この画像をアップスケールすると( https://i.imgur.com/nIVPBe5.png
こうなって( https://i.imgur.com/0GOGOws.jpg )全体的にボヤけてデティールが無くなるんですが、その場合ってimg2imgタブにあるSD Upscaleを使えばいいんですよね?
ただそうすると( https://i.imgur.com/gZBf6rC.jpg )こうなって色々とおかしい画像になってしまいます
これを直すにはどうしたらいいんでしょうか…?
0536名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 17:38:42.46ID:nHoCEq69
>>535
upscaleだけならExtrasで適当なUpscalerを選んでやる。

SD upscaleは言うなれば拡大して描き直すので、Denoising strengthを0にすれば拡大しただけの絵になる……はず?
0542名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 18:05:50.37ID:ytTAIFhl
detailed face, beautiful face, by <アーティスト>
のテンプレで綺麗な顔が出てこないアーティストをネガティブに入れておくと綺麗になるとか言ってるやつね
0543名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 18:48:12.17ID:nzuXjo2K
本体のアプデよりも学習方法の方が影響力高そう
余計なイラストまで学習されるとネガで弾いてもキリが無いわ
理想を求めると自分でTI回すしかないという矛盾
0544名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 19:25:54.12ID:tgxfRXT4
お、waifu1.3明日16時からだ。
楽しみ。
0546名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 21:13:50.88ID:A3VRxyIG
オリジナルのWaifu Diffusion1.2って8GBギリギリまで使うんじゃなかったっけ
1.3で追加学習して8GBのグラボで動くのかな?
0549名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 21:36:25.66ID:AqP4i3LN
うわああああガイジすぎて
WaifuDiffusion=SDで自分好みの女の子生成しまくること
だと思ってた
一日中ツイッターを参考にしてSDいじってたの無駄だったんか
うんこもれそう
0550名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 21:37:45.88ID:BU7ZBq4B
EMAのことなら削れば4GBになるし
VRAMの消費量はSD1.4とWD1.2では変わらないしEMAの有無でも変わらない(メインメモリに一旦展開するのでそこは増える)

EMAは学習の途中経過を示すもので、あるとそこから学習を再開できるが無くても画像は作れる
use_emaをtrueにするとEMAを使用してモデルを最新の学習から巻き戻して先祖帰りすることもできるが、別にそれが良いとも限らない

追加学習だけであればサイズは増えないのでWD1.3も7GBでEMA無しは4GBのはず
ネットワークの構造変えるぐらいの手入れると増大するけど
そうでないなら何かを忘れて新しく覚えるだけ
0551名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 21:49:02.07ID:tgxfRXT4
ttp://twitter.com/novelaiofficial/status/1573834053031280641

waifuはこれと戦う気らしいけど、頑張ってほしい
https://twitter.com/5chan_nel (5ch newer account)
0553名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 22:02:05.88ID:tO0Kn1MA
>>551
乗り遅れてるかもしれないけど、このNovelAIというのは新しいSDのモデル、であってるのかな?

そのリンクのキャラの一貫性確保とかモデルでなんとかなるものなのか・・・

このエヴァとまどマギのミックスとかもかなりの完成度でどういうものか気になる
https://twitter.com/novelaiofficial/status/1572758950897917952
https://twitter.com/5chan_nel (5ch newer account)
0556名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 22:07:56.73ID:BU7ZBq4B
>>553
SDが世界中の写真から絵画までジャンル問わない画像という画像を入れてるキャパシティに
danbooruの二次元画像だけ食わせながら深く学習を進めるとプロンプトと出力の結びつきが強固になって安定性が増すんだろうね
seedで変動するのはプロンプトに指定されてない部分だけと

もちろんその画像たちも大量に生成したのをチェリーピックしてる可能性も多大にあるが
0557名無しさん@お腹いっぱい。
垢版 |
2022/09/25(日) 22:21:38.82ID:nHoCEq69
無限に風景画が吐き出されてきて楽しい……
https://imgur.com/am5SwZC.jpg

プロンプトはいつものを少し改変。風景画なのでクロード・ロラン先生にもご参加いただいた。
bird view of a <主題>, modern style, by greg rutkowski and [alphonse mucha] and claude lorrain, gradient <色1> to <色2>, in front of <背景> background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers)))), ((portrait))

ネガは正直いるのかって気はするがw
0564名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 02:28:03.73ID:iIUeuGkK
↙って
こことか4chanで貼られてる生成情報をプロンプト欄にペーストすると
ステップ、サンプラ、CFGスケール、シード、サイズ
を全部埋めてくれるっていうボタンだったのか
0565名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 02:50:06.18ID:Ftec7SVM
キャラ固定できないから絵師の仕事奪わないと言われていたのに
早くもキャラ固定まで出来るようになるのか
どこまで進化するんだ
0566名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 02:53:56.44ID:iIUeuGkK
プロンプト変形の有効活用法に今更気が付いた

前半に美人画アーティスト後半に写真アーティストって感じにプロンプトを組むと美人の写真が出てくる
girl, detailed face, beautiful face, by [Albert Lynch:Just Jared:0.5]
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/O9N6lu8.jpg

後半をフィギュアのブランドにすると美少女フィギュアが出てくる
girl, detailed face, beautiful face, by [Albert Lynch:Hot Toys:0.5]
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/7CrqJ4n.jpg
0567名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 04:22:35.89ID:uWto493T
公式とかのCUI版でネガティブプロンプトってどうやるんだ…?
色々試してるけどちゃんと効いてるのかよくわからん

AUTOMATIC1111の人はどうやって的確に効くネガティブプロンプトを実装したんだろう…
0572名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 07:19:58.78ID:ftdDpJAZ
プログレスバーが残り数%で遅くなるのはよくある事だしな
世界10位のスパコンでそれならもう待つしかないわ
0575名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 07:39:38.91ID:6rS7sLXp
>>567
これ自分も知りたい
プロンプトで「ネガティブワード::-0.25」みたいな書き方したら重み付けできるって書いてるところも見たことあるけど、プロンプトに入れてみても効いてる感じはしないし
「--prompt-correction 'ネガティブワード::-0.2'」というので指定したらいいってのも見たことあるけど、こういうコマンドみたいなのって自分のColab上だとどこにどう書いたらいいのかわからんし
0576名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 07:48:19.80ID:5T+OalCP
>>567
数字で重み付けできる GUI の場合はマイナス指定でできないのかな。

「ネガティブウェイト指定できないのはバグか?」みたいな英文をだいぶ前に見たような
0577名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 07:57:11.00ID:5T+OalCP
>>576
リロードしてなかった…

実装は、1111版も数字での重み付けも、文字列から matrix みたいなの作るあたりで、negative prompt だけ matrix 作って引き算してるとかなのかも?

1111さんが、数字で指定できる機能を入れるにはプロンプト分割が必要になるので入れたくない、みたいな返信してたので
0586名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 09:09:17.54ID:YuUIamTX
>>585
うーんなるほどありがとう
コマンドライン上とかColab上でネガティブプロンプト使えてる人は、その辺から違うことをしてるのか
よくわかってないけど何かできる方法ありそうな感じだし、お勉強頑張ってみるわ
0587名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 09:58:12.71ID:GLevNSnu
遅延理由が倫理とか下らない問題じゃないといいな
自主規制なんかやり出したら終わりだよ
0588名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 10:33:28.62ID:Ftec7SVM
英語圏は日本人よりロリコンが多いのが学習元画像にも反映されてるっぽくて
現実的なシチュでかつ西洋風のワードほど女の子がロリに傾いてしまうのが困りもの
例えば入浴させるにしてもonsenとbathだと後者はかなりはっきりロリ寄りに傾いてしまう
0589名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 11:04:43.60ID:eBv+j3Zm
waifuは10/10延期か
現状より可愛くなるのは難しいんじゃね
0594名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 11:44:08.69ID:Ftec7SVM
SD1.5もアニメモデルもWaifu1.3も一斉に延期って何が起こってるんだ
アメリカ最大手のNovelAIが堂々とエヴァの版権パクリ始めてるくらいだから
権利問題なんて外人は全力で無視だろうけど、てか流石にあれは訴えろよって思うけどな
0597名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 11:50:12.53ID:6yGlTG+s
影響が大きすぎて AI による画像生成そのものを規制する流れが出来てきてるからそのせいかも
0601名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 12:01:29.75ID:KDn2Rzn9
SDはすでに1.5のベータが動いてるから、規制とかではないと思うな。
規制関係だったら、ベータから1.5が真っ先に消えるはず。

WDもそうだけど、たぶんSDもここが気合の入れどころじゃあってモデルセットを馬鹿みたいに増やしてるんだと思う。
中華が本気出して来たら、権利ガン無視物量勝負大得意の連中に押し負ける可能性高いし。
それまでにスタンダードの地位を確立したいんじゃね?
0602名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 12:03:50.40ID:gSEnkgbb
学習する画像枚数を300万枚に増やすと公開が2週間ほど延びるから意見募集してなかったっけ。きっちり2週間延期だからそっちに舵をきったという理解だったが。
0605名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 12:15:06.55ID:GANM1QzC
下手に規制すると中華神絵師モデルが出兼ねないと思うとAI規制派に回るのも一考かも知れない
0608名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 12:30:42.86ID:SKseRWLM
知りもしない事情を妄想でつらつらと語る奴の頭の中を知りたい
まあ>>1もまともに読めないあたり大概なんだろうが
0615名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 16:24:46.94ID:6GVWO/l9
CPU版Dreambooth動いた
学習速度が10倍かかるがそこそこのCPUでメモリ30GBもあれば大丈夫
ただしmain.pyがバグっているので1個前のコミットの物に入れ替え必須

少し工夫がいるがColab Proのハイメモリランタイムでも動作確認済

https://github.com/andreae293/Dreambooth-Stable-Diffusion-cpu
0619名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 16:44:58.47ID:k9QOyL8f
1日経っても学習終わらなそう
0626名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 17:18:06.08ID:2SJVaG4V
ryzen 3900xで約6-7時間だからPCで出来る人はいいと思う

Colab ProのCPUがどれくらい速いのかが気になるな
確か遅かった記憶がある
0628名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 17:29:38.27ID:Ftec7SVM
今後技術が進歩したらもうフェイクか分からなくなるから
デマ飛ばし放題になってしまうんだよな
0631名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 17:36:38.13ID:KDn2Rzn9
SD1.4で吐いたリアル系の絵をtrinartに何回か食わせたらバッチリ2次系にコンバート出来たので、1.5である程度人体に強くなってたら、この方法で2次にもってくのも十分アリだな。
0633名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 18:20:42.57ID:FkHoiaiw
>>615
CompVis (本家)と合わせて使うローカルの学習環境か
GPUの代わりにメモリ30GBとかゲーミングPCで全スロ使わないと届かなそう
colabで3時間ならCPUローカルで丸1日+か・・・しかもPCは使用不能

多分、仮想通貨のマイニングとかと大差ない感じになりそう
0634名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 18:23:06.45ID:Ftec7SVM
waifu1.3の延期はただでさえ大きな進歩があるところ学習データを追加で増やしたってことなんだから
10/10の1.3で相当なジャンプアップがあるんだろうな
0636名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 18:57:29.52ID:zi9KLwrn
限定配布されたWD1.0とかあるけど別にいいもんじゃないよ
学習が浅いんで中途半端だし
同じことしたいならSDとWD1.2混ぜればいいと思う
0639名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 20:19:56.88ID:qOALnn7R
なんか、ファンタジーっぽい画像がワチャワチャでるprompt

beautiful CG 8k wallpaper cool anime,five::5 (fantasy characters) with Danger awaits in the deepdungeon ,(((intricate human hands fingers))), (navels), mature goodlooking face

ネガティブ
pablo picasso,((((mutated hands and fingers)))),((poorly_drawn_face)), ((poorly drawn hands)), ((poorly drawn feet)), fat, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), (((text title signature))),((light effect))

ネガティブからピカソさんを外すと奇形率が跳ね上がるが、ワチャワチャ度も高くなるのでゴチャキャラが好きな人はお勧め。
収率はかなり悪し。CFGは7から12ぐらいがお勧め。

ピカソ有
https://imgur.com/VuTltzF

ピカソ無
https://imgur.com/ULU802B
0641名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 23:23:37.31ID:qOALnn7R
Soon we will be able to make a house on chicken legs 🦵 🐓

…なんだかよく分からんが、もうちょっとなのか? 英国流は分かりづらい。
0643名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 23:49:47.54ID:/7AjRv9a
単にツリーハウス画像のツイートにバーバ・ヤガーのネタで返しただけじゃないの
意味は特にないと思う
0645名無しさん@お腹いっぱい。
垢版 |
2022/09/26(月) 23:59:44.08ID:munOgLTS
Variation Seedは通常のSeedを固定して少しだけ変化を与えるのに使える。Strength0.1〜0.2くらいなら元絵と大きく変わらないからうまく使えばバリエーション出せるぞ、的なやつ。

ResizeSeedfrom〜は、WidthHeightで指定したサイズをもとにせず、こっちで指定した解像度のSeedでスタートするって感じのやつ。
低解像度で乱数でいい感じの出るまで生成して当たりを見つけたらそのシード値で固定してResizeSeedのサイズに低解像度の時の値を入れて
元のWidthHeightを上げるといい感じのがそのままでる・・・こともある、って感じ。

より正確にはマニュアル読んでな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#seed-resize
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#variations
0646名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 00:03:18.33ID:pYfV0iDv
バリエーションはインペイントで指とか腕とかを修正して、もうちょっとって時に凄く使いやすい。
そう言う些細な違いを呼び出す感じ。
0648名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 08:30:12.20ID:KaaVWeKO
Emadみたいのは外人の経営者には凄くよくあること
英語圏の会社だとプレスリリースの内容が曖昧だったりポエムみたいだったりして
発表後にredditで内容の解釈で議論になることがよくある
0649名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 08:32:07.45ID:1hKTf8K2
ドコモとかkddiのホームページ見てみろよ
明るい未来だの次世代通信だの抽象的なことしか書いてないぞ
どこの国も同じ
0651名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 10:24:34.41ID:lPXJv2d3
今更だけど、1111のwebuiってすでに画像がある場所にD&Dでちゃんと認識してくれるんだね
前は新しい窓で画像が開くだけだったので、今の今までいちいち×で既存画像を消してた
0652名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 10:30:02.36ID:f9us/SHP
最近PNG infoのページが色々改修されて使いやすくなった時に併せて変わったんじゃなかったかなD&D
地味に便利になっていって大変嬉しい
0653名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 10:37:24.31ID:qGWOYR++
ドローマスクもレスポンス上がってたりマスクカラーが半透明じゃなくなったりでちょっとづつ使い勝手よくなってる。
細かいところの修正がほんと助かる。
0654名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 10:51:59.13ID:zAR+wH3i
あの細かいところまで改善してくれる意欲には頭が下がる。新機能の実装ペースも早いが、気張りすぎてある日突然やる気がぷっつり切れてしまわないか不安になる。
0655名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 12:25:14.41ID:8WL76/x1
>>651
むしろ、別窓で開いてそこは上書きしてくれないんかい!て突っ込んた
スクリプトの追加改修とか多すぎて全ての機能を使いこなす自信が無くなりつつある
0656名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 15:04:22.13ID:qGWOYR++
ありゃ? 1111なんか触ってるのかな。
pullしたら、png infoが画像サイズ認識しなくなってどのサイズ読んでも512x512になる。
0657名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 15:23:19.20ID:9y3DeUOP
画像生成の主な使用用途が2次絵の背景や小物生成と3次元のエロ画像生成なので
sdとwaifu両方使いたいんですがこれって使い分ける場合model.cpktを逐一上書きコピーしないといけないんですか?
automatic1111を使ってます
0661名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 15:32:54.13ID:kJWK2jti
artroom版0.3.17をArtroom-Setup-0.3.17.exeとArtroom-Setup-0.3.17.exe.blockmapをダウンロードしてインストールしようとした所、
インストール中のプロンプトでTraceback (most recent call last): File "model_downloader.py", line 106, in <module> shutil.copy(f"{userprofile}/artroom/model_weights/upscalers/{model_name}", model_dest)
~~~ERROR conda.cli.main_run:execute(49): `conda run python model_downloader.py` failed. (See above for error)
等とインストール中にエラーが出てそのままインストール完了になって画像生成にうつれないんですが、何が悪いんでしょうか
ちなみにグラボはgtx1660です
0666名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 18:54:26.02ID:/lKkrvop
1111にモデル合体きたの?
あとdreamboothの必要メモリ17.7GBまで減らせれたってSD-Dreambooth公式に報告上がってた
0669名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 21:23:28.71ID:xBZQ40lL
昨日のdream booth on cpuをcolab proで動かそうとしたが無理だったな
TPUハイメモリで35GB ramあるはずなんだが
ローカルでは動いた 1エポック8時間かかりそうだが
0675名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 22:44:15.57ID:n/h/dflA
あ、しまった。5chはページ内アンカーのリンクが無効になるんだよな。
github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#textual-inversion
0678名無しさん@お腹いっぱい。
垢版 |
2022/09/27(火) 23:25:12.21ID:E6CsAZO6
1111のTI(お手軽fine tuning)はできたptファイル(もしくはbin)をembeddingフォルダに入れて
実際プロンプトで呼び出す時はファイル名部分をプロンプトに記載する
うんこ.pt なら image of うんこ とか
0679名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 05:43:04.07ID:fWP92YJ6
1111の保存ファイル名にDenoising strengthの値だけ追加出来ないの不便だなぁ
CFGとかステップ数とかその他色々追加出来るのに、なんでDenoising strengthだけ
0681名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 08:03:45.59ID:bJP1GYjm
絵が変化する設定要素が増え過ぎて少し昔の絵はもう同じの出せないようになってきた
最適化の有無でも変わってしまうし
0684名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 09:35:35.27ID:AlqCZz/X
StableDiffusion始めたいと思ってpc見てますけどWindows10とWindows11で何か不都合ってありますか?
StableDiffusion動かせるのは知ってるけど設定面とか機能面で遅い速いなど…
0688名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 14:23:28.10ID:7zLw3psK
初心者は金かける前にある機材で試して何が足りないか見たほうがいい
普通の去年の20万前後のゲーム機レベルじゃとにかくGPUメモリが欲しくなるわな
0689名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 14:31:46.21ID:UFA4Isc7
AUTOMATIC1111って複数画像を連続でimg2imgできたりする?
feature showcase見たけどそれらしいのは無かったんだよね
具体的に何をしたいかというと動画を一括でimg2imgしたい
ユーザースクリプト組まないといけないかね
0692名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 14:59:07.69ID:ueaHWZ0V
>>691
SD1.2-8GB → WD1.2-8GBで使えるようになったけど
後にWD1.2-4GBに入れ替えても使用メモリーは減らなかった

今はAUTOMATIC1111にWD1.2-4GBをコピーしたら使用メモリーが4GBに減ったわ
0693名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 16:09:15.20ID:4BED1q96
full-emaは生成に必要じゃないデータも乗ってるから大きいだけで、実行時にGPUメモリに乗る分は関係ない(メインメモリにロードされる部分は影響あるらしい?)
なのでfull-ema-pruned版使ってもGPUメモリの上の使用率は変わらない、ってのを何処かでみた。 

AUTOMATIC1111版でメモリ使用率が低くなったのは別の仕組みのはず

それはそれとして、NMKDでWDを含む別のモデルが使えるかどうか?は使える。
Data\models にモデルデータ入れて起動して右上のSettingから使いたいモデルファイルを選べば良い
0695名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 19:21:53.45ID:yzeNAHQ8
なんか過疎ってるな

ttps://github.com/ShivamShrirao/diffusers/tree/main/examples/dreambooth
12.5gbでcolab proでも動作するdreamboothあるからみんな試してよ
0696名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 19:37:05.53ID:H2Jq3nv5
もう試したぞ
TIより目や髪型、服装は再現される

だけど同じ構図ばかりや場所の指定が上手く出来なかったから
いろんなポーズの教師データでやってみるわ

使えそうな機能は全身で学習させたら全身を描くようになるっぽい
あとはgregスタイルやネンドロイド化ができるとかか
同じキャラなら漫画とか使いやすくなるはず
0697名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 19:39:45.22ID:40HYBouK
>>695
使い方分からないけど学習はさせれた
やり方ミスって奇形しか出ないけど学習された服がでてくれて感動した
どういうサイズと形なら奇形になりにくい学習をさせれるのか学習させたデータをどうやって他で使うのか保存させれるのか誰か教えて
0699名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 19:44:30.45ID:H2Jq3nv5
>>698
設定いじらず1000ステップでguyのまま
ずんだもんでやったんだけど
ノイズだらけだぞ
anime illustration, a sks
でようやくずんだもんが出力された

というかPCから5chに書けなくて
画像あとで貼るわ
0700名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 19:51:22.42ID:H2Jq3nv5
教師データの画像は5枚しか使ってない
SDとguyでもなんとかなるんだな

guyはおっさんの画像からずんだもんを学習してるのか?

T4で一時間半もかからなかったとおもうわ

保存方法はグーグルドライブに/content/models/sksだっけ?を保存すればいいけど
ckptで保存できるようになるまで待ったほうがいいよ
0702名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 20:11:12.58ID:40HYBouK
すみませんdramboothで学習させたデータを他で使う方法が書かれているサイトはありますでしょうか?
0706名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 21:38:36.11ID:E/c/ewVR
このペースだとckpt本体の追加学習?もVRAM16GBで収まるだろうな

あとはdreamboothで学習したあとにさらにdreamboothで学習できるのか気になるな
今のdiffusers版は学習済データが5GBもあるからキャラごとにいくつも保存するより場所取らなくなる
0709名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 22:00:25.73ID:k+5Dgc4L
エロスレでdreambooth試してる人いるわ
https://mercury.bbspink.com/test/read.cgi/erocg/1664246635/158

ポーズが固定されがちで現実の背景指定すると
リアルになったりそのまま使うのは難しい
プロンプトで補正してあげると良くなる

もっと試してみないとね
0711名無しさん@お腹いっぱい。
垢版 |
2022/09/28(水) 22:10:21.99ID:t/J9f/4T
てかふと思いついたんだけどさ
良いプロンプトのベクトルを取り出して数方向に微妙に変化させたベクトルを直でジェネレータに入れたらネットワークの傾向わかるんじゃない?
プロンプト変えて粘るのでもエンコーダのベクトルを一緒に見ると言葉から離れて好きな画像作れそうじゃん
0714名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 01:59:21.34ID:WERu8ozA
機械学習でのベクトルは次元数が膨大な一本で〜というか
簡単に言うと大量の数字の羅列だ
プロンプトに書けうる英単語の組み合わせのデータがあまり損失なくしまえるくらいのデカさはありそう

で、そのベクトルを直接適当にいじるってのはキーボードを出鱈目に叩いて意味が通る文字列を出さなきゃみたいなことになりかねないわけで
0716名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 02:53:18.19ID:xwEFLF4F
トークンはたったの77トークンだけど、CLIP通した後は77x768の約6万次元ベクトルだからね

これはいわばプロンプトの文章を読んだAIさんのお気持ちベクトルで、これを元に他のデコードにつなげば、質問に答えたり翻訳したり画像作ったりできる情報が込められてる(ついでにCLIPの場合は画像の情報も入っている。diffusion,VAEが学習してない言語ー画像も伝えられる)

2つのプロンプトから生成された2つのお気持ちベクトルをミックスするのは簡単だけど、素で操作するのは難しそうだ
ちょっとずつずらすにしても6万次元のどれを?ってなる

お気持ちベクトルってのは俺が言ってるだけでembedding vectorだけどw
0717名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 03:06:32.71ID:gbXlzj26
dockerのautomatic1111でbatch countの最大値増やす方法わかる人いない?
ui-config.jsonは見当たらない
0721名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 04:00:21.45ID:gbXlzj26
>>720
これのために入れたから全然わかってない…
簡単にできる?
0723名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 06:48:32.93ID:NFZpXwUG
RTX3080 12GBから3090に変えてみたら、今までAUTOMATIC1111でいっぺんに8枚のバッチサイズで出力できていたのが7枚しかできなくなってしまった
512x512から画像サイズ変えてるわけでもないのに、なぜかメモリ不足と言われる
16枚ぐらいいっぺんに出せるようになると思っていたのに逆になるとは、何が原因なのか分かる方いるでしょうか
起動時の引数は--opt-split-attentionと--listen付けてます
0726名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 07:51:33.67ID:3bIZzmKe
>>714-716
今はベクトルの次元がとんでもねぇことになってるんだな
数年前のword to vecの感覚だったわ
そして調べたら当然のように入力のサブツールが作られてるのに恐怖してる
やっぱAI界隈すげぇわ
0728名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 08:17:06.41ID:xwEFLF4F
>>717
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker

docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings

てか、AbdBarhoっていつの間にか、hlky、automatic1111、automatic1111(cpu)、lsteinがコマンドラインで
docker compose up hlky
みたいに切り替えられるようになってたんだね。これは便利

○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。

1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
  例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
0730名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 08:32:22.70ID:NFZpXwUG
>>724
新品なのと3DMark等では特にエラー出ないので、問題はない気がします
0731名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 08:36:40.31ID:BqDvV2+y
じゃあCUDAかドライバが古いかVRAMサイズが前のより小さいじゃじゃね?
ハード絡むと問題条件広いから情報少ないとなんとも言えない
0732名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 08:47:26.95ID:JoWlsKPB
・ドライバが古くて3090のメモリの取り扱いが変
・前のGPUの環境でコンパイルされたPyTorchのキャッシュが残って使われていてVRAMを非効率に食い散らかしている

この二つが主な要因らしい
0734名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 09:04:58.79ID:gbXlzj26
>>728
できた!
ありがとう!!
0737名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 14:52:14.93ID:l8oJeMYu
DALLEが登録からの順番待ちではなく誰でもすぐ使えるようになったそうな・・もはやどうでもいいな
DALLEなのかDALLE2なのかもよくわからない
0738名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 15:40:10.09ID:t+B31qiS
最新版の1111を解凍して中身を丸ごと今使ってる1111フォルダに上書きしたのではダメですか?
それやると動かなくなるので、いつも最新版を最初からインストールし直してます
0739名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 16:04:36.44ID:hBOaE80N
>>738
上書きで大丈夫な時とそうじゃない時がある
更新履歴読んでもわからなかったら再インストールでも間違いではない
0741名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 18:10:59.94ID:Qm2fLWPW
そうなるから、面倒でもgitを入れてgut cloneから始めておくといいよね
ときどきgit pullすれば最新になるし全部ダウンロードして解凍して…という手間がない
0744名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 19:22:38.57ID:DnazhbAU
dockerとかsingularityとかでちゃんと動いていた時のイメージを保存しておくといいゾ
ローカルのconfigファイルとかは新しいの使えなくて作り直しになるかもだけど。
0745名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 19:43:41.33ID:muNrUVTC
結局colabでBANされたって話全然出てこないな
新開拓分野ということでGoogle様も色々と慎重になっているのだろうか
0746名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 20:19:56.72ID:tEi+1kHW
>>745
そもそもcolabのBANがどういう感じなのか良く解らん
登録したアカウントごと抹殺されるのかそれともcolabに限っては「使わせねーぞオメー」なのか
0747名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 20:41:03.10ID:ashDBMz5
ColabでBANというより、GoogleDriveにエロ画像保存してBANみたいな話でしょ

海外だと医者に見せるために自分の子供の裸撮ったらそれがドライブに保存されてGoogleアカウントがBANされた、
みたいなのたまに聞くし

ただ見聞きした限り、NSFW画像をColab上で作ってGoogleドライブに保管してた結果アカウント削除、みたいなのは聞かんな
0751名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:08:53.61ID:ykGLuXiE
1111、アップデート上書きしたら急に使えんくなった・・・
再インストールしてもなぜか初回のみ使える・・・
0752名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:25:58.52ID:9A//EM8C
>>747
グーグルはAIようぽは被害者がいるわけじゃないからグレーになって保留されてるけど
韓国は持ってるだけで2000人くらい捕まったって話じゃん、交換コミュニティー参加者全員家宅捜査で何かあれば別件逮捕も辞さないっていう
そりゃ末端捜査官からすれば、AIも写真も小児性愛者に変わりないわけで現場で詳細なんて比較しないもんな
そこに著作権違反だなんだかんだとごっそりやられたわけで
ここの5chの運営は日本にないわけだし、AI-ARTのようぽも情報交換とかで不特定多数に見える場で表に出す奴が出たら
炎上話題作り大好きな奴が通報なり幼児性愛者の被害にあった親族や団体たきつけたりで動く時はササっと芋づる式にやられちゃうだろうね
安倍テロ以降関係者の威信はがた落ちなわけだし
0753名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:32:44.79ID:T4gRvdNC
児童ポルノの話は少なくとも技術スレではないと思う

AIの話でもない。どっかの児童ポルノスレにでもいったらどう?
0755名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:41:22.40ID:Vs95/5FP
あの暗号みたいなツイは年跨ぎって意味なのかな?
0756名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:54:15.32ID:ashDBMz5
SD1.5に関しては匂わせめいたのばっかで名言されていないはず
Waifuの方はベータのBotも出てるし10/10から更に伸びることは無さそう
0757名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 21:55:15.86ID:GljARK0b
スレチかもしれんけどstabilityAIは10月には音楽生成AIもオープンソース化するとか言ってたような気がするからそれも楽しみ
0758名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 22:00:26.83ID:h8T0qHwN
1.5は正直そんな楽しみでもないな・・・。まあ出れば試して遊ぶとは思うけど大きく改善という感じじゃないから。

Emadさんが「Audioモデルを来月出す」といったのは8月だから、発言時点では9月予定だったんだろうけど、
まあこちらもそこまで早く見たいって感じじゃない。

予定より遅いとは言え、フォークがすごい速度で改善されてるし、他のAIも色々出てるから待ってる感じがあんまりしない
0759名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 22:02:04.93ID:Fcyau3U/
novel AIのツィートの作例が身体全然破綻してなくて、めっさ気になる。アレはdream boothみたいなことをキャラ特化でやってるんだろうか。
0761名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 22:22:22.42ID:KjKXsu+e
1.5自体はまあまあ楽しみくらいだけど、それをベースにWaifu他が更に発展してくれるんじゃないかって期待がある
0764名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 22:44:36.53ID:fWLQjVBF
SDのマイナーバージョンアップのたびにWDを作り直しとか非効率すぎるでしょ
SD2.0になるまでそのままだと思う
0766名無しさん@お腹いっぱい。
垢版 |
2022/09/29(木) 23:22:28.84ID:h8T0qHwN
Text2Video
https://mobile.twitter.com/hardmaru/status/1575476224880934913

"A teddy bear painting a portrait"
実力はわからないけど、テディベアが絵を描いてるこのツイートの例は出来がいい

ちょっとだけしか読んでないけど、
・言語ー画像生成モデルベース
・ビデオに言語キャプションは不要。 言語説明がなくてどれがどういう風に動くかビデオ自体で学習できる

と書いてる。

以下は推測(妄想)だけど、
(1)静止画の説明の時点で paintingという動きの説明が入っていて静止画がその動きのある時点の画像になっている
(2)動画で学習でそのシーンの動きを補完する
みたいな感じ? (2)なんて膨大なバリエーションがありそうで、デモ用のワードが動くモデルは作れても、汎用的なものは作れないのでは・・・

また多分静止画+アルファ程度の動きしか無理な気がする
https://twitter.com/5chan_nel (5ch newer account)
0769名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 00:01:46.73ID:6/qjAqjJ
>>766
さっそくEmadさんがこれに対して、ツイートしてるね
・StablityAIで作ってるものはこれよりいいし人々が実際に使うことができる
・多くの作業がるが日々改善している
・いつかは決まってないけどそれほど長くは待たない
0770名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 02:06:08.76ID:5dqbtLV6
1111でJPGにもプロンプト情報完全記載きたぁ
PNGだとデータサイズでかすぎるからJPGにしてたけど情報なくて不便だったから待望のアップデート

でもトークン計算の仕組みが変わったのかバグなのか何故かアップデート前と比べて増してる
0772名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 02:20:17.83ID:5dqbtLV6
>>771
これ知らんかった…
今まで意図しないプロンプトになってた…

>従来の方法では文字列を完全には渡すことができず、文字が消えてしまうことがあった為です。
>例えば "a (((farm))), daytime" を入力したとき、コンマ無しの "a farm daytime" として解釈されていました。
0773名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 06:22:16.78ID:friyMcNu
>- データ量を30万画像から60万画像に増やしました。現在、データセットを単純に200万画像にしようかとも考えていますが、モデルが学習を終えるまでにあと2週間ほどかかることが唯一の問題点です。何か問題があれば教えてください。
>- 学習時には、変分解像度が使用されます。これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。

WD1.3のこれなんだけど、データ量増えたら単純に画像の精度も上がるってこと?

変分解像度ってのよくわからんけど手足の精度も上がってるってことかな
もとになってるSD以上の手足の描画が可能になるってこと?すごくね?
0774名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 06:35:40.40ID:Muq4wtmI
waifu1.2は古い東方絵に学習元画像偏ってる割にあの出来だったんだよな
1.3ではそのへん見直すんだっけ?
0776名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 07:26:46.75ID:ytXpqxJ7
>>770
> 1111でJPGにもプロンプト情報完全記載きたぁ
settingsが
> Save text information about generation parameters as chunks to png files
のままなのがなんとも
png, jpg, jpeg, webpって書かないとなぁ
もしかしてチェック無しでもjpgなら勝手に全部に入るのかと一度実験させられた
0778名無しさん@お腹いっぱい。
垢版 |
2022/09/30(金) 08:08:09.94ID:GG88Jchz
新機能としてjpgコメントに生成情報記載しましたとあるけど
大昔からコメントに生成情報記載されてることに今気付いた
なぜ今頃発表したのかわからんけど昔から便利だったわ
jpgの場合はtxtに記録して照合するという地道なことしてたから助かる