X



【Midjourney】AI画像生成技術6【StableDiffusion】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。垢版2022/09/19(月) 13:13:20.60ID:3CsEQOgg
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合3【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1663123507/
AIイラスト 愚痴、アンチ、賛美スレ part3
https://mevius.5ch.net/test/read.cgi/illustrator/1662093183/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【Midjourney】AI画像生成技術5【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1662940688/
0002名無しさん@お腹いっぱい。垢版2022/09/19(月) 14:44:26.37ID:o1JRH+iz
前スレの最後のほうの話題だけど
CLIPの学習では単語の関係性がベクトルデータに変換されているから
例えば鳥山明という単語に対応するベクトルデータ―の中身には
漫画家である、ジャンプ作家である、絵柄は○○さんとは10%類似、△△さんとは20%類似…
みたいな意味が全て数値の組に変換されて突っ込まれている
だからLAIONの学習データから特定の作家の画像だけ抜いたところで作家名を指定すると
やっぱりその作家の画風が反映されてしまう
0005名無しさん@お腹いっぱい。垢版2022/09/19(月) 15:21:02.80ID:WVAGFFoj
>>3
機能しなくなることはまずないよ
同じプロンプト指定しただけだと新旧で生成画像の雰囲気ががらりと変わる可能性がある
そしてまたゼロからプロンプト模索必要な可能性があるってだけ
0006名無しさん@お腹いっぱい。垢版2022/09/19(月) 15:25:34.64ID:OVE2N6qM
>>3
引用ツイート元が消えてるけど、LAIONからOptOutしたいみたいな話に違うよって訂正入れたとかかね
0007名無しさん@お腹いっぱい。垢版2022/09/19(月) 15:44:55.83ID:WVAGFFoj
>>4
初心者にはおすすめできないかな
1111はよく大きな変更入るからトラブったときに原因切り分け難しい。ここで聞いてもわからないだろうし
環境汚さないって考えるほどなら最初から自分でanaconda使うのがいい
しかし本家からmanual installのセクション消えたっぽいのは残念だな。あれで簡単に作れたのに
0008名無しさん@お腹いっぱい。垢版2022/09/19(月) 15:50:12.70ID:dV6cugXI
初心者はそもそもそんな頻繁にアプデしないだろうし、Automatic1111を選択する時点で初心者ではない印象
0012名無しさん@お腹いっぱい。垢版2022/09/19(月) 16:13:25.53ID:x8BSPT3Z
あくまでも最初の環境構築がちょっとだけラクってぐらいだな
個人的にはユーザーフォルダにゴミ作らないのは嬉しい
というかバッチファイル見たけどパスを追加するだけなのは盲点だったわ
0016名無しさん@お腹いっぱい。垢版2022/09/19(月) 16:23:19.06ID:rlEiJ9iA
>>14
ミスって書き込み押しちゃったすまん
0017名無しさん@お腹いっぱい。垢版2022/09/19(月) 16:24:43.58ID:dVCxx8Kz0
最近1111のcolabで連続出力出来ないんだけど同じような人おる?
0019名無しさん@お腹いっぱい。垢版2022/09/19(月) 16:53:44.37ID:I/k6JwHc
NMKD stable diffusionを使ってるんだけど重み付けの方法次第でAutomatic1111のnegative promptと同じような設定できるのかな?
0021名無しさん@お腹いっぱい。垢版2022/09/19(月) 17:03:43.13ID:LTcrQRpu
お絵描き教室で「人間の肌は"はだいろ"じゃありません。よく観察しましょう」と言われるがプロンプト探索でも同じやな
例えばフリルの付いたドレスを着せたいならフリルと入れるのではなくアメリカのドレス通販サイトでフリルの付いたやつを探してそのブランド名を打ち込む
0022名無しさん@お腹いっぱい。垢版2022/09/19(月) 17:05:33.69ID:dVCxx8Kz0
>>18
無知すぎて申し訳ないのだがグリッドとは…
0024名無しさん@お腹いっぱい。垢版2022/09/19(月) 17:11:31.29ID:DKWWZoBK
人物の属性にもかなり引っ張られるから、それを重みにしても結構良い感じにかかるね。
Drってやったらほぼ自動的に白衣を着るので、あえて白衣を着たとか付け加える必要は無かったりするし。
0027名無しさん@お腹いっぱい。垢版2022/09/19(月) 17:30:18.84ID:UmW/DjEu
>>18
localの1111でも最近たまにgrid画像生成のところでエラーが出るよ。
grid画像は生成し終わってて、追加のテキストファイルが生成されてないので、こいつを吐くところでエラー出してるみたい。
0032名無しさん@お腹いっぱい。垢版2022/09/19(月) 18:14:42.17ID:3CsEQOgg
Negativeは本当に便利よ
前はうまく描いて欲しいところを延々とプロンプトに祝詞として書いた挙げ句あまり効きもせずにそこだけ注目されてズームはされるなんて悲劇も多かったが
Negativeに呪詛を書いておく分にはそもそもそこに近寄らずズームされないから調整がしやすい
0033名無しさん@お腹いっぱい。垢版2022/09/19(月) 18:36:29.03ID:ELGTUTED
TIエンベディングファイルに不審なコードが含まれてないか簡易チェックするスクリプト作ってみた
https://pastebin.com/ChWmscUK

python check.py embeddings.pt のようにファイルを指定して実行
手元で簡単に作った任意コード実行できるptファイルはこれで検知できたけど、抜け道はあるかも知れない
0034名無しさん@お腹いっぱい。垢版2022/09/19(月) 18:37:33.27ID:dVCxx8Kz0
>>26
ありがとう。オフのやり方が分かんなかったので
1枚出力を間に挟めばとりあえず動くようになった。
0035名無しさん@お腹いっぱい。垢版2022/09/19(月) 18:39:09.47ID:dVCxx8Kz0
いや、気の所為かもしれん…普通に連続で出来たわ
0037名無しさん@お腹いっぱい。垢版2022/09/19(月) 20:36:14.71ID:xOJ14pvO
>>34
グリッド画像を出力しない設定はSettingsタブの
「Do not save grids consisting of one picture」
で変えられます(オンで出力しない)
0040名無しさん@お腹いっぱい。垢版2022/09/19(月) 20:49:53.87ID:dVCxx8Kz0
>>37
ありがとうございます!
0043名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:20:28.28ID:WRfYHEBB
> If PNG image is larger than 4MB or any dimension is larger than 4000, downscale and save copy as JPG
にチェック入れてて、PNGじゃないとかってオチではないよね・・
0045名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:25:26.42ID:Dj8b68Fj
前スレの最後の方で質問させていただいた者ですが、おかげで理解できました。ありがとうございます
aiやるならWindowsの方が良さげなのですね
gpuについても大体分かったのですが、3060tiでもローカル関連で生成時間以外に不便なことってありますか?
0047名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:38:32.96ID:HtatjiG8
ai一般論だったらlinux+nvidiaの方がいいな。sdだったらwindows+nvidiaでいいけど
3060tiはメモリ8GBかな。今のsd使う分には十分
だけど数か月後、一年後にはメモリ不足で不満になってる可能性あると思う
0048名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:42:55.35ID:WRfYHEBB
>>44
へぇー、普通にバグだね
気づかれてないってことはたぶん誰もボタンオンリー保存してないw

>>45
> GPUは今のところはメモリが命なのでRTX30で考えると
> RTX 3090 Ti>=RTX 3090>RTX 3080 Ti>=RTX 3080 12GB>RTX 3080>RTX 3060
> 3070シリーズはVRAMが8GBしかないので、回避が吉。
この人のこれ3060tiじゃなく3060ってのに注意ね
3060tiはVRAMを8GBしか積んでない
0049名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:46:02.02ID:xOJ14pvO
>>41
本当だね!オンにしたら1枚出したときにもう1枚同じのが出るようになって、しかも1枚はtxt2img-gridに保存されるので何ごと?? と思っていたところだった
ゴメン間違っていたよ>40
0050名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:54:02.12ID:WRfYHEBB
> RTX 3080 12GB>RTX 3080>RTX 3060
メモリの話ならここ変だな
真ん中は「3080 10GB」なのに「3060 12GB」より上ってことに
0051名無しさん@お腹いっぱい。垢版2022/09/19(月) 21:55:31.31ID:UmW/DjEu
4ch見てたら前スレ734のプロンプトの主題に「台所」って突っ込んだポストがあって、その手があったかー!ってなった。
こんな風になるんだなぁ
https://imgur.com/NF72Lth.png

そんなわけで働いてる人描写を追加していろいろ出してみた。
司書の働く図書室
https://imgur.com/O3tH3Ey.jpg
研究者の働く研究室
https://imgur.com/aOMTqzu.jpg
錬金術師の働くアトリエ
https://imgur.com/kIoSaNn.jpg

いうて、普通に図書館だけ突っ込んでも女の子出てくるんだが……
https://imgur.com/FUYcrPc.jpg

それにしてもurban backgroundは改変されずに使われてるな、使い勝手いいのかしらん……
0053名無しさん@お腹いっぱい。垢版2022/09/19(月) 22:04:23.61ID:Dj8b68Fj
>>0046〜>>0048
ありがとうございます
速度を求めるなら最低限3060ti、質を求めるなら最低限3060(VRAM12GB)という感じみたいですね

速度も質も欲しい、のでもう少しパソコン買うのは様子見します
3080や3090入りのパソコン安くなって販売してほしいよ…
0056名無しさん@お腹いっぱい。垢版2022/09/19(月) 22:53:12.48ID:Dj8b68Fj
それ用のパソコン見てるのですが
うーん27万円代でRTX 3080 12GB、64GB(32GB×2)って値段的にどうですか…?
0059名無しさん@お腹いっぱい。垢版2022/09/19(月) 22:59:12.98ID:Dj8b68Fj
>>57
スペックはこういう感じです
Windows(R) 11 Home 64bit版 [正規版]
AMD Ryzen 7 5700X プロセッサー (3.40GHz [最大4.60GHz] / 8コア / 16スレッド / 32MB L3キャッシュ / TDP 65W)
【NVMe SSD】1TB SSD
ストレージ無し
NVIDIA GeForce RTX 3080 12GB LHR【HDMI x1 / DisplayPort x3】
【ASRock製】AMD B550 チップセット搭載マザーボード
850W ATX電源 80PLUS GOLD (日本製コンデンサ仕様)
0061名無しさん@お腹いっぱい。垢版2022/09/19(月) 23:36:56.71ID:h0dEGu8R
前スレ948さん
調べていただいてありがとうございます

念のためにもう一回zipで更新してみたらオプション通るようになりました
更新に失敗してたか、なんかしらの相性が出てたみたいです
0062名無しさん@お腹いっぱい。垢版2022/09/19(月) 23:37:17.05ID:UmW/DjEu
>>59
ドスパラで見てもだいたいそんな値段になるみたいね。

俺の場合はとりあえずお試しで3060でいいかなって5万で買ってみて特に不満はない。
0064名無しさん@お腹いっぱい。垢版2022/09/19(月) 23:40:19.14ID:3CsEQOgg
3090か3080 12GBか3060 12GBを予算に応じて買えってのはいいけどさ
それ載ったPCの値段が適正かは他で相談した方がいいよ
0065名無しさん@お腹いっぱい。垢版2022/09/20(火) 00:04:14.80ID:emuLHnVU
お安いと評判のPalitで12GB 3080って11万くらいだから、それ以外のPC部分が16万とかまあそんなもんでしょ。
0068名無しさん@お腹いっぱい。垢版2022/09/20(火) 01:40:22.37ID:MMkdqDxI
マイニング死んだと思ったらSD特需か。Nvidiaには神風が吹いてるな
ユーザーには逆風でしかないが。特に日本は円安で二重苦だ…
0069名無しさん@お腹いっぱい。垢版2022/09/20(火) 01:48:19.47ID:Poa0KEUr
画像生成でもこのレベルなら動画生成とか音楽生成になったらどんなGPU性能を求められてしまうんだ
来月にも音楽生成出るらしいし
0072名無しさん@お腹いっぱい。垢版2022/09/20(火) 02:04:43.29ID:emuLHnVU
>>51
あ、プロンプトはこんな感じっス
prompt: kitchen, (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski and alphonse mucha, d & d character, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
negative prompt: ((((mutated hands and fingers)))), (((portrait)))

マジでだたの台所の絵描いてるだけだなw
0075名無しさん@お腹いっぱい。垢版2022/09/20(火) 03:04:41.09ID:G6glHvA4
>>59
へえ3080搭載BTOがやっと20万円代まで下がったんだねえ
一時期のGPU高騰が落ち着いて来たってのは本当だったのか
いい事だ
0079名無しさん@お腹いっぱい。垢版2022/09/20(火) 06:42:51.56ID:6qM+t7X8
DALLEがアップデートしたぞとメールが来た
どんなもんかレビューしてくれ
0082名無しさん@お腹いっぱい。垢版2022/09/20(火) 09:09:21.87ID:uOVYd139
画像や動画よりも音声のほうがやばい気がするな
人間はなんだかんだで絵やコラ動画にはすぐ慣れて何とも思わなくなるけど
声優に好きなセリフ喋らせるとかVtuberにエロASMRさせるとかAIで実現したらヤバ味があると思う
0084名無しさん@お腹いっぱい。垢版2022/09/20(火) 09:13:46.68ID:q1kehuti
どこまで自然に喋らせられるか、と言うか感情を乗せられるか次第かな。
これが難しいから、未だにゆっくりに毛の生えた状態なわけで。
0086名無しさん@お腹いっぱい。垢版2022/09/20(火) 09:24:56.03ID:q1kehuti
いつの間にか、png infoに投げるだけで自動的にデータ出るようになっとるw
あとは、これをtxt2imageにボタン一発で反映させれるようになると嬉しいw
0088名無しさん@お腹いっぱい。垢版2022/09/20(火) 10:14:56.86ID:D6UdtcJG
>>86
いいねえー
しかもこれ、画像が入っているときに画像を落とすと自動的に入れ替わる仕様に変わってる
1111版はどんどん便利になっていくなあ

出てきたパラメータをtxt2imgやimg2imgへ転記する機能は要望が出てるんじゃないかな
0089名無しさん@お腹いっぱい。垢版2022/09/20(火) 10:18:44.73ID:OJwkxmng
新しいCLIPによるディープフェイク検出イニシアチブをまもなく発表
https://twitter.com/EMostaque/status/1572013393455845376

悪意のある利用は避けられないので、フェイクを検出するパートナー・コミュニティを作らなければならない

---

よく分からないんだけど、ディープフェイク固有の特徴量みたいなものを検出するってこと?
その特徴量を限りなく小さく消していくこともできる気がするんだけどどうなんだろう
https://twitter.com/5chan_nel (5ch newer account)
0091名無しさん@お腹いっぱい。垢版2022/09/20(火) 10:22:35.21ID:ktIAvZID
>>84
今は提示された音声サンプルをトレースして、その通りに合成音声を調律するAIと
顔の動き、表情をトレースして発声に合わせたモーションをつけるAIが現場で使われてるよ
画像AIのTIみたいなもんで、全自動までは流石に少し遠いんだよな
0092名無しさん@お腹いっぱい。垢版2022/09/20(火) 10:28:27.24ID:kdMT8oBh
>>89
やる姿勢見せなきゃいけないから見せてるだけで実際いたちごっこになりそう まぁ流石にここにはそんな人間いないと信じたいが
0093名無しさん@お腹いっぱい。垢版2022/09/20(火) 10:58:46.36ID:Uz2xC4F2
>>89
AIによるフェイク検出の精度が上がるのはAIによる生成の精度も上げられることとイコールだよな...
0096名無しさん@お腹いっぱい。垢版2022/09/20(火) 11:30:32.64ID:IWpLchd9
高速化よりもhighresfixとscale latentの方がホットでは?
トーテムポール問題に改善策が出た

その代わり人体は延長されるらしいが
0098名無しさん@お腹いっぱい。垢版2022/09/20(火) 11:34:22.37ID:1jVCMyNY
hlkyもautomatic1111も確かに高速になってる
けどコミットもissueも多すぎてどれで速いなってんのか分からないw
0100名無しさん@お腹いっぱい。垢版2022/09/20(火) 11:39:42.99ID:tClY47Vq
>>93
そこら辺は暗号通信と同じだろう
フェイク検出AIを誤魔化せるが電気代が500万かかるとかになる
0102名無しさん@お腹いっぱい。垢版2022/09/20(火) 12:21:45.56ID:ktIAvZID
>>101
画像からテキストを類推、マッチング率何%以上のPromptと画像のセットを抽出するようになってんじゃない?
そのサイトの用途考えたらどうしろも何も無いと思うんだけど
0103名無しさん@お腹いっぱい。垢版2022/09/20(火) 12:25:04.37ID:0P7BNKLH
>>101
確かに似ているのもあるけど9割以上が誤検知に近い判定だなぁ・・・
その類似画像も目元は流用された?程度で他は全然分からん
Googleの画像検索でも対象が全く同じでなければ全然アテにならないし
0105名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:03:08.15ID:ULiYZ3Vr
GPU買おうとしてる人は1週間は待った方がいい
今晩NVIDIAが新商品発表するから、値下がるかもしれない
0107名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:21:13.16ID:bor7SMhH
マイニング終了も今週末か来週に控えてるだろ
円安もあるし時期が悪いおじさんはいつまで経っても買えん
0109名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:35:08.44ID:Sastztzo
3000番台は在庫処分ですでに補填入って在所処分は始まってるわけで
すぐには値下がりはしないし、年内の4000番台はハイエンドだけだし
今の円安で3割近く値上がりして今の相場なら激安もいいところだよな
指くわえて眺めてるより今はどんどん回した方が楽しいと思うぞ
一週間で2割下がるなら土下座くらいするさ。いくら下がると思ってんの(笑)
0110名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:42:20.61ID:IWpLchd9
highres fix 一度512で作ってからそれをスケーリングして所望の解像度に直す機能

scale latent on SD内部のlatent(画像にデコードされる前のdiffusionが行われている空間)を拡大し、その後もう一度ステップを回す
scale latent off 出力画像を拡大しimg2img

off
https://i.imgur.com/OeVoyxU.png
highres fix scale latent on
https://i.imgur.com/jJl0ogA.png

なるほど
offとonで全然違うがそもそもトーテムポール画像に価値は無いのでうまく出るようになっただけで革新だな
0111名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:51:26.63ID:Uz2xC4F2
DiscordにDreamBoothでホロのぐらちゃんを学習させたモデルを公開している人がいたので使ってみた
前評判通りプロンプトに対して柔軟だし再現度も高い
https://i.imgur.com/C1LWwTB.jpg
https://i.imgur.com/8sCKAkR.jpg
0112名無しさん@お腹いっぱい。垢版2022/09/20(火) 13:58:30.59ID:W86xY2CW
ローカル1111を使っていますが、生成中もGPU使用率はほぼ15%、たまに50%近くになるけど一瞬
これは1111の設定でGPUを最大限使わない命令がされてますか?
0115名無しさん@お腹いっぱい。垢版2022/09/20(火) 14:03:54.91ID:bor7SMhH
>>112
せめてグラボぐらいかけとw
グラボ以外の部分の性能が問題なんじゃないの?
うちのだとGPU 3Dが90%、GPU copyが2%ぐらい
0117名無しさん@お腹いっぱい。垢版2022/09/20(火) 14:06:43.24ID:UjjRaEya
そこそこ有名でも認識されないアーティストがたくさんいるのに日本でしか有名でないであろうラッセンがばっちり認識されるのが不思議でしょうがない
まあトラだけで海景画は全然別物になるんだけど
0119名無しさん@お腹いっぱい。垢版2022/09/20(火) 14:15:32.71ID:xYr1ywAi
>>111
Textual Inversionじゃなくてckptモデルなんですね


見つけられない人のために↓
☁DREAMER COMMUNITIE☁
🍥|anime
2022/09/20 06:39
0120名無しさん@お腹いっぱい。垢版2022/09/20(火) 14:17:18.87ID:Uz2xC4F2
>>119
ckpt読み込んだら1文字目大文字のGuraで呼び出せる
0121名無しさん@お腹いっぱい。垢版2022/09/20(火) 14:19:49.86ID:ULiYZ3Vr
>>109
もう補填入ってんだ。ニュース出てる?
0122名無しさん@お腹いっぱい。垢版2022/09/20(火) 15:30:01.51ID:AdZAJEps
RTX3060の12GB版ってマイニング対策でCUDAの性能下げられてるとかそういう話なかったっけ、大丈夫かな?
0125名無しさん@お腹いっぱい。垢版2022/09/20(火) 15:58:23.71ID:AdZAJEps
>>124
あーLHR版ってのがあるんだ、多分それの事を聞いて覚えてたんだと思う。ありがとう
3060もそのLHR版があるみたいだし、適したカード探すの大変そうだなぁ
0126名無しさん@お腹いっぱい。垢版2022/09/20(火) 16:01:21.80ID:fk5AQPcr
江戸の有名でない絵師とか彫刻家の名前でアニメちっくになるのおもろいね
やっぱ日本アニメの源流てこれかと思うわw
0127名無しさん@お腹いっぱい。垢版2022/09/20(火) 16:17:52.18ID:IWpLchd9
なんか勝手に納得してるようだが
LHRはイーサリアムのマイニングの速度が落ちるだけで別にそれ以外は関係無いぞ
0128名無しさん@お腹いっぱい。垢版2022/09/20(火) 16:20:45.84ID:lKVnDbR2
>>123
>コーヒーと同じで、結局はオリジナルが一番ウメえとかになりそうだがw
わかる。めっちゃわかりみ
0129名無しさん@お腹いっぱい。垢版2022/09/20(火) 16:45:05.20ID:04JJgEhR
ワードの重み付けが全然違うからなあ
使いこなすには両方のワードの重み付けをある程度把握してないと無理だと思う
0131名無しさん@お腹いっぱい。垢版2022/09/20(火) 17:48:53.77ID:TeEjcx6u
ググって見つけた過去スレのレスから来たんだけどこれ解決方法わかる人いる?
https://github.com/AbdBarho/stable-diffusion-webui-docker
動かそうとしているんだけど
docker compose --profile auto up --build
で↓のエラーが出てしまって進めないんだ cuda toolkitは入れているけどエラー変わらずでお手上げ状態


161名無しさん@お腹いっぱい。2022/08/30(火) 15:24:50.21ID:kv64WKVJ
>>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown

また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした

Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
0133名無しさん@お腹いっぱい。垢版2022/09/20(火) 17:54:54.81ID:tc9DMgyb
>>131
それ書いたの私だけど、WindowsをH21H2に更新することで解決しました。
CMDから、winverで確認してH21H1だったらそれが原因だと思います。

私の場合、Windows updateで表示されなかったのでググって個別にH21H2をインストールしました。

cuda toolkitは特に不要です。(普通のGeforceドライバに入ってると思われる)

https://mevius.5ch.net/test/read.cgi/cg/1662940688/946
0139名無しさん@お腹いっぱい。垢版2022/09/20(火) 19:15:31.54ID:UjjRaEya
Snake PlisskenとかJack Burtonと入れてもカート・ラッセルの若かりし頃の姿が出てこないのはどうしてだろう
0146名無しさん@お腹いっぱい。垢版2022/09/20(火) 20:13:40.10ID:tc9DMgyb
いつの間にか、Automatic1111って、modelsフォルダに複数ckpt入れておくと
Settingタブで切り替えられるようになってんたんだな・・・

Automatic1111のリリースノートというか新機能・変更点をまとめてるページとかってどこかにあるのかな?
0147名無しさん@お腹いっぱい。垢版2022/09/20(火) 20:16:14.06ID:7GPgkdwh
毎日のように信じられないような新しい技術が出てくるな
切り替えるだけじゃなくて混ぜられるみたいだし
0151名無しさん@お腹いっぱい。垢版2022/09/20(火) 20:28:50.90ID:8HyP3Dzf
>>133
ありがとう!
おかげで起動できました

うちもWindows Updateに表示されていなくて手動Updateが必要でした
1年近くもUpdateが放置されていたとは。。
0154名無しさん@お腹いっぱい。垢版2022/09/20(火) 21:54:37.59ID:H0iRi1pv
ui-config.json範囲外でWebUIをちょっと修正しようとすると、じゃんじゃかエラーが出て手に負えない……
gradio ちゃんと学習せねばダメか
0155名無しさん@お腹いっぱい。垢版2022/09/20(火) 21:59:32.20ID:POVqdY9g
>>153
昨日 TensorFlow / Kerasで実装してMacで4倍速くなったって言ってて、同じ話かな?と思ったら違う人だったw
https://twitter.com/divamgupta/status/1571234504320208897

>>153のツイートの人だとコードが読みやすい、Macで2~3倍になった、と言ってる
昨日の人のほうが早いのか環境の違いとかなのか

Windowsで性能向上するのかが気になる
https://twitter.com/5chan_nel (5ch newer account)
0162名無しさん@お腹いっぱい。垢版2022/09/21(水) 00:38:46.73ID:1js7vxFZ
1111をアップデートしたらいきなりSD upscaleが動かなくなったが、どうやらrealesrganのweightsファイルの保存先が変更になったようだ。
0163名無しさん@お腹いっぱい。垢版2022/09/21(水) 00:41:55.58ID:1js7vxFZ
それにしてもどうしてこんな変更があるんだ?
/usr/local/lib/python3.10/dist-packages/realesrgan/weights/

/usr/local/lib/python3.10/dist-packages/weights/
0169名無しさん@お腹いっぱい。垢版2022/09/21(水) 01:52:49.87ID:s/yweLeB
服装の指定に引きずられて顔まで変化するのが困りものだな
髪色の指定だけでも顔分るしな、黒髪指定したら一気に顔がもっさりした感じになる
これはCLIPの仕様上避けられない奴だよな
0170名無しさん@お腹いっぱい。垢版2022/09/21(水) 01:58:10.77ID:rFvQEhK/
色々なものが紐づいてるしな
スポーツウェア着せれば大人っぽくなるし、乳でかくすれば顔もエロくなる
0172名無しさん@お腹いっぱい。垢版2022/09/21(水) 02:55:54.00ID:epx+ExZW
> 30 Socket774 (ワッチョイ b73f-jztO)[12]2022/09/21(水) 01:42:52.29ID:WWhkvTAA0(12)
> 今日の革ジャンの生配信9割AIの話ししてたな
> 一部の人間にしか売る気がないのか

革ジャン=NVIDIAのCEO、ね
マイニング景気終わってグダグダでこれしかないって状態との見方
0174名無しさん@お腹いっぱい。垢版2022/09/21(水) 03:35:33.91ID:1js7vxFZ
prompt matrixによると、"in front of urban background"が真っ白背景を生み出している模様。
https://i.imgur.com/SvpmMp4.jpg

"in front of night urban background"ではどうか。……他は全部夜景なのに、なぜ最後の最後で白くなるのか!
https://imgur.com/HtkAkgy.jpg

もちっと細かく見てみる。
どうやら、"in front of" "a night arban" "illustration"の3つがそろった時、引きの絵に変わって夜景が解除される模様。
どないせいっちゅーねん!
https://imgur.com/NFY2RHS.jpg

そして今回、アップで人間が2人近接すると腕の数がすごいことになるという知見を得たw
0177名無しさん@お腹いっぱい。垢版2022/09/21(水) 06:15:36.85ID:a2RbsEhU
4090なんて今の為替だと20万軽く超えてくるしな(笑)
まぁ3070-8GBじゃいろいろ厳しかったので、4080-16GBあたりを買いそうだけど
モノがあればだなぁ
0180名無しさん@お腹いっぱい。垢版2022/09/21(水) 06:22:37.51ID:qYxsv+xa
> NVIDIAは9月21日、「GeForce RTX 4090」「GeForce RTX 4080」を発表した。
> 「GeForce RTX 4090」は10月12日より順次発売予定、価格は29万8000円からとなる。
> 「GeForce RTX 4080」は11月発売。価格はメモリ12GBが16万4800円、16GBが21万9800円となる。
フーン
0181名無しさん@お腹いっぱい。垢版2022/09/21(水) 07:09:18.36ID:zPCvXDpd
>>174
とりあえず、>>72をゴチャゴチャ触ってみたら、なんとか外の夜率は上がった気がする。

prompt:bright kitchen in front of the (( stary midnight city view )) and without citylights,, (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski, d & d character, digital painting, concept art, smooth, sharp focus illustration, artstation hq,wide angle,((underexpose)) photo
negative prompt: ((((mutated hands and fingers)))), (((portrait))),(((fog))),(((correct exposure)))

室内を明るくして、外の夜景は強引に灯りを落として星を強調。室内が暗いと露光差で外が白飛びする現象はSDでも再現してるっぽい……
なお、ここまで夜夜言っても昼になる時もある模様。。。

https://imgur.com/a/yerjxiP
0183名無しさん@お腹いっぱい。垢版2022/09/21(水) 08:21:09.32ID:/00g/jQc
RTX40シリーズ、この値段ならcolabに居座りかな
0185名無しさん@お腹いっぱい。垢版2022/09/21(水) 08:58:06.31ID:VX27Asrq
Waifuの場合、プロンプトの描き方が特殊らしい
https://wiki.installgentoo.com/wiki/Stable_Diffusion#Waifu_Diffusion

・Danbooruのタグを使う。元のタグのスペースは"_"で置き換える
・プロンプトははこの順番。カンマは使わずスペース区切り
 著作権タグ(作品名) キャラクタータグ 一般タグ アーティストタグ
・hiresなどのメタタグは使わない
・4種類のタグ内で複数タグが場合、数字、アルファベットでソートする

例: https://wiki.installgentoo.com/wiki/File:SD-Waifu_diffusion_finetune_recipe_example.jpg

"kono_subarashii_sekai_ni_shukufuku_wo! megumin 1girl ^_^ backlighting blush brown_hair cape closed_eyes collar facing_viewer fingerless_gloves flat_chest gloves hat lens_flare short_hair short_hair_with_long_locks smile solo staff sunset witch_hat dacchi"

1 著作権タグ: kono_subarashii_sekai_ni_shukufuku_wo!
2 キャラクタータグ: megumin
3 一般タグ: 1girl ^_^ backlighting blush brown_hair cape closed_eyes collar facing_viewer fingerless_gloves flat_chest gloves hat lens_flare short_hair short_hair_with_long_locks smile solo staff sunset witch_hat
4 アーティストタグ: dacchi

SDは、プロンプトを77トークン化した後、英語の構文解析して768次元ベクトルに変換してからDiffusionにつっこんでるんだけど
Waifuは英語の構文無視した学習してるから、それに応じたプロンプトが有効ってことぽい?
0188名無しさん@お腹いっぱい。垢版2022/09/21(水) 09:43:44.84ID:30bO/dnS
Waifuでは効きやすいワードがあるってだけで、言ってみればタグで個別学習したみたいな感じになってる。
英文無視とまではいかなくて、kawaiiなんかが実質的に<style>化してるって感じ。
0190名無しさん@お腹いっぱい。垢版2022/09/21(水) 12:27:47.14ID:jP7E8q7g
>>185
それっぽいのが出てくるけど
これがめぐみんかと言われると誰だこれになるわ

この絵にめぐみんのタグは付けないほうがいいと思う
0194191垢版2022/09/21(水) 13:59:29.71ID:tgWYuwLu
>>189
pthファイルダウンロードしてSwinIR/フォルダに置いたらもう使えた。誤情報すまん。
0200名無しさん@お腹いっぱい。垢版2022/09/21(水) 16:55:07.59ID:c/QkDLF2
sdは質より量で三次元二次元混在、タグはカオスだけど
waifuは量より質で二次元のみ画像厳選(スコアで絞ってる)、画像ソース一か所でタグ公開予定
だからwaifuはwaifuで期待できる
0201名無しさん@お腹いっぱい。垢版2022/09/21(水) 16:56:34.80ID:FqKjsQnT
SD1.5はSD1.4の延長線上でしかないから
別にシステム上何か変わったという話ではなく1.4で出てきた問題点を踏まえて追加学習とチューンをしたという程度
waifu1.2とwaifu1.3の変化幅の方がデカいと思うぞ
0203名無しさん@お腹いっぱい。垢版2022/09/21(水) 17:00:06.04ID:30bO/dnS
国産Trinartにも頑張ってほしいところだが、別サービスがメインってことを考えるととりあえず出来るぜアピール以上のことは無理だろうなあ…
0205名無しさん@お腹いっぱい。垢版2022/09/21(水) 17:34:52.94ID:sTaGiUTE
いうてWaifuのおかげでアニメ絵のクオリティはファインチューンしたStyleGAN2に追いついたけど
この先は未踏の地だから他AIの改善も必要になるし時間かかると思われ
0206名無しさん@お腹いっぱい。垢版2022/09/21(水) 17:37:28.83ID:q8SmoQ7H
本家でも克服は難しいと言っている手などの問題は克服したのかね?
そこが変わらないと劇的に改良とは言えないような
0207名無しさん@お腹いっぱい。垢版2022/09/21(水) 17:46:37.49ID:Cdb6KqJB
手とかはnegative promptの工夫である程度は改善できる
まぁ確実にキレイな手になるわけじゃなくあくまでなりやすくなるくらいだけど
0208名無しさん@お腹いっぱい。垢版2022/09/21(水) 18:19:05.10ID:30bO/dnS
1番期待のブレイクスルー、キャラ使い回しはストーリーモード搭載まで無理っぽいから当分はガチャなのは変わりない感じだね。
精度はグングン上がってるから、クリーチャー率は激減して好みでピックアップになるだろうけど。
0209名無しさん@お腹いっぱい。垢版2022/09/21(水) 18:34:32.76ID:shey3io3
SD1.5とWaifu1.3が両方くることによって、続きから学習するとこうなる
という事例が2個も出てくるのは良いことだと思う
0212名無しさん@お腹いっぱい。垢版2022/09/21(水) 22:05:32.91ID:zPCvXDpd
512の学習縛りを考えると、メモリそこそこでもやっぱ速さが欲しくなるな。
試行回数は処理速度が重要だし。
つっても、将来的に512より高解像度で学習したデータが出てきたらメモリマシマシって話になるんだろうが。
省メモリも限界あるだろうしなあ。
0214名無しさん@お腹いっぱい。垢版2022/09/21(水) 22:14:05.72ID:1js7vxFZ
>>181
いろいろと禁じられた結果、ついにオープンカフェタイプに移行してしまった……
https://imgur.com/MFBhCGv.jpg

prompt: (((kitchen widh lamps))), (((in front of midnight urban background, dark scenery, nightscape))), (((intricate human hands fingers))), modern style, detailed face, beautiful face, by greg rutkowski and [alphonse mucha], d & d character, digital painting, concept art, smooth, sharp focus, illustration, artstation hq
negative prompt: ((((mutated hands and fingers)))), (((portrait))), ((((sky, open doors))))
0217名無しさん@お腹いっぱい。垢版2022/09/21(水) 22:26:06.22ID:9soZpnEo
cosplay meguminで良くね☺
0223名無しさん@お腹いっぱい。垢版2022/09/21(水) 23:27:47.52ID:1js7vxFZ
>>220
highres. fixの場合はテストで1600 x 1216を3枚目に突入したとこだけど、このサイズだと残像すごくて実用は無理だな……
832x512程度なら10枚ずつ出してるけど、さすがに小さいか。
0224名無しさん@お腹いっぱい。垢版2022/09/21(水) 23:53:17.18ID:zPCvXDpd
凄い今さらな話だが、1111のネガティブpromptってトークン制限ある? 警告でないから調子に乗って突っ込んでたら、後半効かなくなってる感じで。
0226名無しさん@お腹いっぱい。垢版2022/09/22(木) 01:13:50.88ID:nt0l++ZR
どなたか、waifu_diffusionのfullemaじゃないモデルの場所か、fullema.ckptから不要部分を取り除く方法を教えていただけませんか?
東方project aiのDiscordにあることまでは調べたのですが場所がわからず困っています
既出だったらすみません
0228名無しさん@お腹いっぱい。垢版2022/09/22(木) 01:39:05.17ID:nt0l++ZR
>>226
自己解決しました
0230名無しさん@お腹いっぱい。垢版2022/09/22(木) 03:06:25.36ID:86QINjbS
colabを利用してTIにチャレンジしてるけど上手くいかない途中で止まる
無料枠だと途中で限界に来てしまうのか?

画像4枚、サイズ512に揃えてステップ数9000にして走らせてたけど途中で止まってた
ステップを3000に落として再チャレンジ中だけどイマイチ仕様が分からん
TI済みのトレーニングデータをステ9000とか1万以上で上げてる人いたけど有料でやってるのか?
0232名無しさん@お腹いっぱい。垢版2022/09/22(木) 03:07:50.12ID:2MVvoPX4
logsの途中ckpt取り出して使えばいい
0233名無しさん@お腹いっぱい。垢版2022/09/22(木) 03:14:30.72ID:C/kL2kI5
素のSDでこんなの出来ちゃったけどどうする?

girl, detailed face, beautiful face, by CLAMP, screentone
Negative prompt: ((((mutated hands and fingers))))
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 1, Size: 512x512, Model hash: 4af45990

https://i.imgur.com/yVnnDer.png
0236名無しさん@お腹いっぱい。垢版2022/09/22(木) 04:58:34.87ID:eSrwJ1P3
>>233-234
凄いなあ‥来月には普通にプロレベルの漫画描けそう
0237名無しさん@お腹いっぱい。垢版2022/09/22(木) 05:10:22.55ID:nt0l++ZR
重ね重ね申し訳ありません
前スレで話題に出た、1111automaticでgradioのoutput欄に出力画像を表示させなくする方法をご存知の方いたら教えてください
自分でも引き続き調べます
0242名無しさん@お腹いっぱい。垢版2022/09/22(木) 09:10:38.68ID:E1ELaTgH
音声の話でCG板としてはスレチですみません。 長く鬱陶しくなるようであれば場所を変えます。

>>239
ありがとうございます。
単純に見落としていました・・・

whisper audio.aac --language Japanese --task transcribe
これで日本語も文字起こしできました。わりと間違ってますが、他の文字起こし使ったことがないので精度が良い方なのかどうか不明
--translateにすると英語に翻訳されます。 英語→日本語がほしいけど多分無理?

--device "cuda" をつけると Torch not compiled with CUDA enabledで落ちるので遅いですね。
改良されていくと思いますが
0243名無しさん@お腹いっぱい。垢版2022/09/22(木) 09:11:57.22ID:N6FCKlAR
さくっとcuda-toolkit入れずにimage作ってみたらCPUで動いた。
$ singularity exec ubuntu-20.04-whisper.sif whisper voice-01-01.ogg --language Japanese
/usr/local/lib/python3.8/dist-packages/whisper/transcribe.py:70: UserWarning: FP16 is not supported on CPU; using FP32 instead
warnings.warn("FP16 is not supported on CPU; using FP32 instead")
[00:00.000 --> 00:07.940] 私はマミアマミと言います ちょっと冗談みたいな名前ですよね
0250名無しさん@お腹いっぱい。垢版2022/09/22(木) 11:47:14.93ID:5KgdJK0o
電車の車内で立ってる女の子描いてくれって難しい注文出すと
平気で青空背景に申し訳程度の電車の窓枠だけ描いて誤魔化してくるのが笑える
0252名無しさん@お腹いっぱい。垢版2022/09/22(木) 13:45:46.91ID:/2XeH9L7
>>242
そろそろスレ違いもいいところですが、google翻訳のコマンドラインインターフェース(Ubuntuだとtranslate-shellとbsdmainutils)をインストールするとヨシ!
whisperの標準出力を全部回しちゃってるけどまあいいでしょう。
$ singularity exec ubuntu-20.04-whisper-2.sif sh -c "whisper sample/CD1-7.mp3 | trans -b en:ja"
/usr/local/lib/python3.8/dist-packages/whisper/transcribe.py:70: UserWarning: FP16 is not supported on CPU; using FP32 instead
warnings.warn("FP16 is not supported on CPU; using FP32 instead")
最初の 30 秒までを使用して言語を検出します。 `--language` を使用して言語を指定します
Did you mean: Detect language: english
検出された言語: 英語
[00:00.000 --> 00:12.000] 4. 私のフライトは何時に出発しますか?
0254名無しさん@お腹いっぱい。垢版2022/09/22(木) 13:47:49.42ID:YWdevUA5
>>247
ありがとうございます。 miniconda環境なのですが以下の手順でcudaで動きました。

---
miniconda
(base) C:\t\whisper>python -V
Python 3.9.12

python -m venv env
env\Scritps\activate

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
pip install git+https://github.com/openai/whisper.git

whisper "AMA - Emad, Bill, Zach - 2022-09-03 17-59-34.mp3" --task transcribe --device "cuda"
→ 文字起こし成功
---
やっぱり日本語翻訳が欲しいw
0255名無しさん@お腹いっぱい。垢版2022/09/22(木) 14:19:35.83ID:CSc9mSNX
人間も前後の文脈で補完しながら会話してるし認識精度は内容次第になりそうだな
YOUTUBEの字幕機能もほぼ固有名詞しか出てこない競馬実況だとひどいことになるし
0257名無しさん@お腹いっぱい。垢版2022/09/22(木) 15:45:27.98ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (1/3)
Q 手、顔は改善されるの?
A 1.5で少し良くなっている。V3では指数関数的に改善される。
  ・コードと学習の両面でより大きいウィンドウでより長い学習することによる改善
  ・顔固有のファインチューニング。 (DALLE-E2は既に特定の顔モデルを持っている)
  ・データの質。LIAON-2Bは量は多いが、より質の高い構造化データのサブセットにLAIONと取り組んでいる

Q APIで1000枚生成要求したら、バッチ処理になる?並列処理になる?
A 並列処理なので1000枚同時に取得することもできる

Q GPT-3やもうすぐ出るGPT-4のオープンソース版を作ってくれない?
A Luther AIコミュニティを通じてGPTJ、GPT Neoその他バリエーションをリリースした。(最大200億パラメータ)
 GPT-4はすごそうだが1兆パラメータになる。我々は効率的なモデルにフォーカスしている。
 言語モデルでは色々ありRWKV(attension freeでGPTの10倍以上効率的)も有望だ
 我々が取り組んでいる中で最も興味深いのは、Chinchillaだ。GPTやBloomのような巨大モデルは適切に学習しておらず効率が悪いと考えている。
 GPT3からinstructGPTのように巨大パラメータモデルは縮小することができる。
 
Q "Stabler" Diffusionと前にEmadは言ったがそれはViTの改良?
A 我々はOpenCLIPチームとViT-Hを作っている。V2、V3はより安定し、DALLE-E2より確実に高品質になる

Q 3Dモデルの計画はある?
A ある。three.jsと互換性のあるGLBファイルはJSON+テクスチャのセット
 テクスチャはStableDiffusionで作れる ※3Dも同じなの??
 これはUnityと話しているところ・・・、あ言っちゃダメだった。でも誰と話してるかは想像はつくでしょう。
 NeRF、DreamFieldなどの研究は裏でたくさん支援していて今後6~12ヶ月で爆発的に普及すると思う。
 3Dは最も力を入れている分野で多くのリソースを投入しています。
0258名無しさん@お腹いっぱい。垢版2022/09/22(木) 15:45:46.96ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (2/3)
Q テキストを信頼できるものにするにはどのぐらいのサイズのモデルが必要?
A T5XXLやUL2は、今から年末までの間に20億パラメータまで最適化されると思う。
 これはImagineatorなどの画像処理にも対応している。多くの最適化が必要だが言語だけなら10億パラメータ以下になるのではないか。
 我々はT5XXLやUL2とCLIPを組み合わせて言語理解をより良くできないか実験している。
 GoogleのPartiでこのような創発的な性質が現れることが分かったので。

Q 「少年」を出すと全て白人、「インド人」を出すと茶色になるんだけど?
A インドのEros(Netflixみたいな会社)と契約して多様性を反映させる予定
 またオープンなので我々がやらなくても誰かでもできるし、やると思う。

Q より多くの被写体を描けないでしょうか?
A 今のモデルは最大2つの被写体しか描けない。VIT-L14ではワンショットで複数被写体を描写するのが難しい。
 マルチプロンプトにはよりよい言語モデルが必要で、Dali miniのVAEのような別のアーキテクチャも必要
 個のモデルはポートレートやシングルショットを学習しているので基本マルチステップ(アウトペインティングや、小さいスケッチをしてディテールを埋める等)を推奨する

Q パーソナライズされたマーケティング用の画像を作る製品を作っている。ブランドのフォントなどを様々なレベルのパラメータを制御することはできないか?
A そうしたものを1発でやろうとすると大変なことになるので、複数ツールを組み合わる方がいいと思う
0259名無しさん@お腹いっぱい。垢版2022/09/22(木) 15:46:09.99ID:YWdevUA5
2022/9/3 DiscordでのEmad Q&Aライブ (3/3)
Q Google ColabのTPUをサポートしないの?
A 我々はGoolgeと深い関係を持っていて一番早くTPU V4を入手した。今後数週間の内に発表があると思う。

Q GPU需要が急増しちゃうのでは?
A 半年でGPUは変えなくなるかも。早く買った方がいい ※それは大げさすぎでは??

Q プロンプトをプログラミングのようにもっと合理的にする計画はないの?
A "octane render"や"artstation trend"ではなく、自然言語で望むものができるようにする方向

Q ルッキンググラスで遊んでるんだけど、インタラクティブ・リアルタイムレンダーで調整ができるようにならない?
A 開発チームが増員されて近々本当にエキサイティングな発表ができる。パイプラインには多くのものが必要でみんなが改良、発明できるものにしたい。
 最終的にレディプレイヤーワンのホロデッキのような体験をすることが目標でかなりの量のリソースを投入するつもり
0262名無しさん@お腹いっぱい。垢版2022/09/22(木) 17:54:06.31ID:HVKQwQNh
852さんついに内容一切わからんもの売り始めててワロタ
0266名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:14:31.10ID:YTjJKrJa
>>263
「いた」であって「ついた」ではないような気がするが、ともあれまあ今このムーブメントの中から売り出すならあの人以外にはないだろうさ。
0268名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:22:14.28ID:BnC2Jqtu
色々と集合知でコツみたいなのは掴めつつあるけど、カメラアングルだけは分からん…
バーズアイ以外は有効なトークンさっぱりみちゅからぬ
人間がメインだとポートレートとかバストショットがそこそこ効いてる感じあるんだけど風景だとさっぱりんこじゃ
0269名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:29:01.62ID:qsmpG6vA
写真とかの説明文にアングルが書いてあることは希だから学習時の結び付きが甘いんだろうな
そういうアングルで撮られやすいシチュエーションを指定するとか、そういうアングルじゃないと見えない物を要求することで誘導するとか
そういうアングルで撮るときによく使うレンズやカメラの設定を入れるとか
回りくどく行くしかないんじゃないか
0270名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:39:13.78ID:BnC2Jqtu
この辺がそれらしくは見えているけど、個々のパーツに意味が存在しないディープラーニング絵画の泣きどころだなあ…
もっと学習深度が深くなって、被写体の距離で分類するようなレイヤーが増えればいいんだろうが。

ところでbirds viewじゃなくてaerial viewでも同じ効果出たので鳥さんに襲われる方はおススメ。
0271名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:45:52.81ID:Vhb0uDbx
~ viewシリーズ
closeup
close range
low angle
wide angle
aerial
first Person
product
front
back
side
isometric
panoramic

単体/遠景 high dynamic range

全部効果はあるが結局はアスペクト比 * 他Prompt * Seedの兼ね合いだからな
0272名無しさん@お腹いっぱい。垢版2022/09/22(木) 18:47:45.56ID:qsmpG6vA
>>270
言い換えるパターンは色々とある

直接指示
very high angle
vertical angle
overlooking

用語
bird's eye view
overhead view

機材
aerial photograph
satellite photograph
spy satellite

言葉のレベルを変えて色々と試すしかない
0274名無しさん@お腹いっぱい。垢版2022/09/22(木) 19:35:58.47ID:mDWvoKTY
普通にアングルをファインチューニングさせれば済む話では
0275名無しさん@お腹いっぱい。垢版2022/09/22(木) 20:04:35.73ID:yoCGziQQ
顔はいじらずにポーズだけ狙った形に修正する方法はないだろうか?
某人間みたいなボーンを受け付けてくれると神なんだが。
0279名無しさん@お腹いっぱい。垢版2022/09/22(木) 20:59:35.11ID:zPfAjwfm
>>268

カメラのショットを真似るとアングルを変えられると思う

俯瞰 aerial shot
近接 close-up shot
中間 medium shot
ロング long shot, extremely long shot

まともなPCもプログラミングの知識もなくてdreamlike.artとかで遊んでる雑魚なので
的外れなこと言ってたらごめん
0281名無しさん@お腹いっぱい。垢版2022/09/22(木) 21:40:55.56ID:mgwaFqyg
>>275
そういうときはimg2imgで体をマスクしてそこだけリトライするんじゃないの
それかいい体が出るまで回して、そこへKritaなどでいい顔を貼り付けてimg2imgで整える

こんな手法で
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]|abubu nounanka
https://note.com/abubu_nounanka/n/n3a0431d2c47a
0282名無しさん@お腹いっぱい。垢版2022/09/22(木) 22:04:00.85ID:Uj+qizR0
>>281
これ自作絵img2imgやマスクまではいいんだけど、途中で編集入れてるからなぁ
いや別に何も悪くないんだけど、AIだけで生成みたいな暗黙のルールがあって
ちょっと後ろめたいんだよね

> 20枚くらい生成したらそれぞれの画像から優れている部分をピックアップして
> フォトショップで合成していき完璧な狐娘を作り上げます。狐娘が出来上がったら、
> 大きく崩れてしまったベイマは消してフェーズ2ベイ画像を合成します。

何も悪くない、悪くない
某数字話氏が目をいじってるーワーワー
0283名無しさん@お腹いっぱい。垢版2022/09/22(木) 22:05:41.31ID:bUMFwT0G
>>282
> AIだけで生成みたいな暗黙のルール
馬鹿すぎ

某数字とかくだらんこと言ってるお前はもう書き込むな。しつこすぎだ
0285名無しさん@お腹いっぱい。垢版2022/09/22(木) 22:24:53.24ID:A/AczZVC
Emad@Discord
昨日、超リファインされたデータセットでトレーニングを開始しました。43億のパラメータを超える、より優れたモデルが登場します
リリーススケジュールは決まっていませんが、かなり早いです。(セクター全体の動きが速いので遅く感じられるかもしれませんが)
また、新しい許可を得たライセンス・データセットの交渉も行い、今後の様々な改善のために多くのフィードバックに耳を傾けているところです。


V2 = 1024x1024学習モデル なのか、V3 = ViT-H学習なのか不明。
Emadさんでない人は、V3の方が先にでてV2が後になると書いてる人もいる(そんなことある?)
0286名無しさん@お腹いっぱい。垢版2022/09/22(木) 22:30:49.42ID:A/AczZVC
DALL-E2 35億パラメータ
Imagen 46億パラメータ
SD1.4 9億パラメータ

SD V2 or V3 43億パラメータ

必要メモリ量が激増しないのかな。以前は+50%(最小3.1GB → 5GB)の見込みと言ってたけど
0288名無しさん@お腹いっぱい。垢版2022/09/22(木) 22:46:41.00ID:BJ9nr9kp
1024×1024か……ローカルで動くかな。
ラデでCudaと同じように動いてくれれば、メモリは有利なんだけどなあ。
0290名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:15:44.52ID:nt0l++ZR
>>246
遅くなりましたが無事出来ました!
ありがとうございました
0291名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:19:57.80ID:tmj4QlW4
StableDiffusion用にメモリの多いグラボに買い替えようと考えているのだけど
24GBなら15万円で3090買うのと30万円で4090買うのとどちらが良いだろうか
4090なら画像の生成スピードも上がるかな
0292名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:23:36.04ID:rQ3Qpt4B
>>291
メモリ数の影響が大きいんだからメモリ数だけ見ときゃいいでしょ
4090とか絶対費用ほどの効果得られん
金あるなら買えばいいと思うけど
0295名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:28:50.28ID:Uj+qizR0
スレチになるけど4090って日本だと税込み32万とかでしょ?
3000系の在庫処理まで考えた明らかに恣意的な値付けなんで、今買うのはないかなぁ
0297名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:31:57.12ID:iIoobdUv
余裕があるなら好きな物買えばいいと思うけど
貧乏人なら今はまだcolabで様子みといたほうがいいわ…
0298名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:33:08.10ID:rxwRgLaP
メモリ量に対して最もコスパいいのは3060だろうな
酷使されてるけどマイニング上がりの中古が山のようにあるし
マルチGPUでメモリ合算できたら最高だったんだけどな
0300名無しさん@お腹いっぱい。垢版2022/09/22(木) 23:39:15.42ID:Etn+pH/7
>>291
性能2倍以上と、15万円差どっちを取るかは人によるけど予算あるなら4090でいいじゃん
デメリットがない

若干悩ましいのは4090Ti(48GB)がそのうち出るのでは、という噂もあるんだよな。まあもっと高くなるのは確実だけど
0302名無しさん@お腹いっぱい。垢版2022/09/23(金) 00:28:42.00ID:WmNtrZna
(人) with 2 hornsみたいに書いたら、角の生えた人間にヤギさんそのものまで生やそうとするの草
悪役っぽいイメージ与えてるから悪魔の角→ヤギの角みたいな連想するのはわかるし正しいんだけど、ヤギさんの顔はいらないの
0303名無しさん@お腹いっぱい。垢版2022/09/23(金) 01:18:05.05ID:EuKEtzTY
テンプレからインストール手順消しちゃってもいいかな
知らぬ間に頻繁に変わるので編集が追い付かない
普通に最新版を英語で見たほうがいいと思う
0304名無しさん@お腹いっぱい。垢版2022/09/23(金) 01:41:44.56ID:74wE4R72
ここにいるの、ローカルにインストールする気があるならすでにインストールしてしまった人ばかりなんだよね……
0305名無しさん@お腹いっぱい。垢版2022/09/23(金) 01:46:12.39ID:BLmLJVf2
検索して来る人もいるかもだし、何がおすすめフォークかはいると思う
手順は確かに追うのが大変だね。注釈(最新版参照、不明点あれば掲示板で相談可)つけるとかかな。

公式のインストール手順もURLがちょいちょい変わったりするから誘導リンクもままならないって不安定ぶりだけどw
0306名無しさん@お腹いっぱい。垢版2022/09/23(金) 01:47:16.47ID:dw8M8DMV
赤字で「古い情報、更新が早く今は変わってます」みたいに書いとけば察するんじゃね?
ないならないでなんでないの?不親切だ!みたいなことになるし・・
0308名無しさん@お腹いっぱい。垢版2022/09/23(金) 04:06:01.26ID:EuKEtzTY
全身を描かせたい場合
筋肉質なほうが上手くいきやすいので
絵が上手なアメコミアーティストの一人や二人混ぜるのおすすめ
0310309垢版2022/09/23(金) 04:52:02.97ID:74wE4R72
↓マニュアルインストールの場合はこれを追加するだけでよいはず。
git clone https://github.com/Hafiidz/latent-diffusion.git repositories/latent-diffusion

960x512を2倍に拡大するの、3060で8分くらいかかりおった……
0312名無しさん@お腹いっぱい。垢版2022/09/23(金) 07:23:18.13ID:YceTIVvh
初めて1週間ぐらいで右も左も分からない初心者です

https://i.imgur.com/vlhC3Yr.png
Textual Inversionでドット絵を出力させたく3日ぐらい試行錯誤しましたが画像が最高地点でそれ以上前に進めません
何が間違ってるんでしょうが?
使用機材はcolab、ckptはwaifu1.2、入力画像はフリーのドット絵集です
0315名無しさん@お腹いっぱい。垢版2022/09/23(金) 08:12:00.95ID:r5K8J+Yc
なんか草
普通にTIなしでpixel artっていれるだけでもドット絵でるよ

TIするときは構図とか被写体をある程度固定したほうがいいっぽい
欲張って色々いれると何エポック回してもぐちゃぐちゃ
0316名無しさん@お腹いっぱい。垢版2022/09/23(金) 08:21:16.69ID:eep3t4Fd
結局のところ生成されるのは「一般人がなんとなく抱いているイメージ」なので無理じゃね
ファミコンのドット絵を指定しても平気で10色くらい使いそう
逆に言うと「(アメリカ)一般人が抱いているイメージ」を確認するには使いやすい
民主的(democratic)を入れるとなんでも青と赤のツートンカラーになる(米民主党のイメージカラーが赤と青だから)
0317名無しさん@お腹いっぱい。垢版2022/09/23(金) 08:25:23.22ID:iCFb399s
LDSR、使う時に無いと自分でインストールし始めるみたいね。
それにしても、くっそ時間かかるな……。通常の2割も出てないわ。
0322名無しさん@お腹いっぱい。垢版2022/09/23(金) 11:23:17.00ID:qVFdEYqz
出先なので試せないけど、ビデオでスタイル転送ができるこれどうなんだろう

VToonify Controllable High-Resolution Portrait Video Style Transfer
https://twitter.com/_akhaliq/status/1573112897710039041
https://github.com/williamyang1991/VToonify

Twitterのレスみると、1フレームが100msで描画できると書いてる人いる

"Portrait"だから用途は限定されそうだけど、VTuberみたいな使い方はできたりするのかも
https://twitter.com/5chan_nel (5ch newer account)
0323名無しさん@お腹いっぱい。垢版2022/09/23(金) 11:46:54.08ID:nlbYeLtp
>>322
こいつはvtuberに向かないな。おっさんが女キャラ演じたくてもおかまにしかならない
snowのフィルターみたいな用途じゃないかな
0324名無しさん@お腹いっぱい。垢版2022/09/23(金) 12:20:10.41ID:viLtTa6a
ファインチューニングして物を認識させたいんだけど、入力画像を512x512のサイズに拡大してv1-finetune.yamlで学習させたら画風自体が変わるようになってしまった
これってもしかして学習に使った画像の大きさ・位置にしか出ない?
手とかアクセサリーとか、物単位で学習させて、画像に合わせて適切な方向・サイズで出てきてくれたら嬉しいなぁって思ってやってみたんだけど
それは無理なのかな?それとも単に方法が違う?
0326名無しさん@お腹いっぱい。垢版2022/09/23(金) 12:34:06.70ID:Jm2+2gWJ
多分TIだろうけどfine tuningはいくつかやり方あるからどの方法でやりたいか言わない誰も何も言えないかも
0327名無しさん@お腹いっぱい。垢版2022/09/23(金) 12:39:17.69ID:74wE4R72
こちら、秋の森で獲物を探す猟師さん
outpaintingで追加してるので元画像は一回り大きかったのだけど、いろいろ難があって縮小してあります。
https://i.imgur.com/Gs2NVMA.png

Real-ESRGAN 4x plus anime 6Bを使ったSD upscale
https://i.imgur.com/8A11Zk0.png

LDSRを使ったSD upscale
https://i.imgur.com/PR06VfM.png

003_realSR_BSRGAN_DFOWMFC_s64w8_SwinIR-L_x4_GANを使ったSD upscale
https://i.imgur.com/Nl5jsMI.png

各10枚ずつ出して一番良さそうなのをピックアップしてあります。
背景が複雑だとDenoising strengthを0.15まで下げても妖精さんが湧いてきてツライ

LDSRとSwinIRは前景の描画が細やかになりますな。
0328名無しさん@お腹いっぱい。垢版2022/09/23(金) 12:50:38.89ID:HdNk5CRI
>>312
dreamboothの方がいいんじゃね
知らんけど
0330名無しさん@お腹いっぱい。垢版2022/09/23(金) 13:05:43.98ID:KHE6Yumc
>>327
LDSRいいね
葉っぱ一枚一枚細かい部分も描かれてる
0331名無しさん@お腹いっぱい。垢版2022/09/23(金) 13:47:55.18ID:viLtTa6a
>>326
一杯あるんだ……Textual Inversionです。txt2imgで特定の単語で任意の画像を出したりしたいです

>>325
https://towardsdatascience.com/how-to-fine-tune-stable-diffusion-using-textual-inversion-b995d7ecc095
わからない……ここを参考にしてやってみたけどダメでした
「v1-finetune.yamlはオブジェクト学習用」って書いてあったから、多分これでいいんだろうって思い込んで学習させてたら
画風みたいに画像全体に影響するようになってしまいました(学習させたアクセサリーの形に人物が歪んだり、模様が入ってしまう)
0333名無しさん@お腹いっぱい。垢版2022/09/23(金) 15:39:25.20ID:uJe6Xm90
waifuやとりんさまは簡単な呪文でいい感じの絵が出るから持て囃されてたけど
呪文の研究が進んでみるとSD1.4のほうがいい面も結構あるんだな
神絵師っぽい絵柄の制服JKとかはSD1.4のほうが上手く出せてる印象がある
0336名無しさん@お腹いっぱい。垢版2022/09/23(金) 18:51:35.99ID:Wbrq3AQq
>>331
youtubeで無料素材製作@犬小屋って人が動画上げてるから調べてみ?
ただしGoogle colabでトレーニングだから有料使わないのならGPU制限に引っかかる可能性がある

objectでなくstyleで学習させてたら全体の画風が変わる
learning_rateやmax_train_stepsの数値でも学習深度から絵柄が変わる
低過ぎても高過ぎても駄目で手探り状態だわ
0337名無しさん@お腹いっぱい。垢版2022/09/23(金) 18:56:03.82ID:Wbrq3AQq
>>333
wifuは無断転載のdanbooruを食わせた二次元向け学習モデルだからね
簡単な呪文で量産型萌えイラストを出すのは容易でもそれ以上になると厳しい

ゲーム画面を学習したみたいなモノまであったから質もピンキリよ
(画像生成したら明らかにゲームUIみたいなのが付いてきた)
0339名無しさん@お腹いっぱい。垢版2022/09/23(金) 19:07:42.23ID:iCFb399s
Waifuは謎文字召喚率がめっちゃ高いからネガティブでtextとかtitle弾くのはほぼ必須。
言ってみれば二次系闇鍋。
0343名無しさん@お腹いっぱい。垢版2022/09/23(金) 19:33:30.68ID:iCFb399s
>>340
横長にしてるので、たぶん512pxを境に両方から腕が伸びてきて腕しか残らなかったんだと思うw

一応、(((intricate human hands fingers)))とネガに((((mutated hands and fingers))))は突っ込んでるんだけど……
複数人間が出てくるとさすがにキツイっぽい。
0346名無しさん@お腹いっぱい。垢版2022/09/23(金) 20:41:29.28ID:W6FPw38H
無断転載はダメということは逆に金出して買ったアニメのDVDを学習させるのはセーフということか
0347名無しさん@お腹いっぱい。垢版2022/09/23(金) 20:45:48.38ID:uJe6Xm90
ネガティブで肥満とか熟女とか黒人とかどんどん弾いていくと
逆に実写要素が強まっていくのはどういう理屈なんだ
0348名無しさん@お腹いっぱい。垢版2022/09/23(金) 20:54:19.90ID:uWfuSSxK
1111でLDSRを使ってみると下記のエラーが表示されました

「RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory」

自動でシステムがダウンロードされるものではなく別途手動でインストールが必要なのでしょうか?…
0349名無しさん@お腹いっぱい。垢版2022/09/23(金) 21:05:26.50ID:74wE4R72
>>348
まずは、↓これができているか確認を。
stable-diffusion-webui/repositories/latent-diffusion

実行時にmodelはここにダウンロードされるはず(stable-diffusion-webuiディレクトリから起動していれば)。
stable-diffusion-webui/repositories/latent-diffusion/experiments/pretrained_models/

model.chkpt と project.yaml があって、 model.chkpt は1.9GBほどのサイズ。
0350名無しさん@お腹いっぱい。垢版2022/09/23(金) 21:16:59.66ID:uWfuSSxK
>>349
ありがとうございます!
model.chkptがダウンロードされていることを知らず動作していないと思い途中でストップし
中途半端なデータ状態になっていたのが原因のようで、手動でダウンロードしていたものと置き換えたら出来ました!!
0353名無しさん@お腹いっぱい。垢版2022/09/23(金) 22:47:11.31ID:G2uqIlgL
でぃすこより
Waifu Diffusion v1.3の進捗状況を少し報告します。
- データ量を30万画像から60万画像に増やしました。現在、データセットを単純に200万画像にしようかとも考えていますが、モデルが学習を終えるまでにあと2週間ほどかかることが唯一の問題点です。何か問題があれば教えてください。
- 学習時には、変分解像度が使用されます。これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。
- 通常のキャプションスタイルが使用され、タグの順序もランダム化されるため、touhou komeiji_koishi solo portrait looking_at_viewer の代わりに、トレーニング中に見られるキャプションは portrait, looking at viewer, touhou, solo, komeiji koishi のように見えます。つまり、アンダースコアがなくなるというのは良いニュースです。
データセットのサイズが30万画像から大幅に増加するため、モデルのリリース日が1?2週間遅れる可能性が非常に高くなります。
0355名無しさん@お腹いっぱい。垢版2022/09/23(金) 23:17:48.69ID:Q4PL6KYJ
AI規制により、StableDiffusionを名指しで禁止しようとする動きもあるらしい

Discord抜粋 (私が雑要約)
ホワイトハウスのAI政策タスクフォース委員
・技術的に既にデータセットに入っている作品をオプトアウトすることはできないため、規制し
合意のないデータを中心に構築されたモデルを根絶するしかない。
・StableDiffusionの禁止を望んでおり、ホワイトハウスに直談判している
・クリエーターの収益化が必要であり、オープンソースAIとAIアートに対抗する組織が必要

Emad: そう考えているのは彼女だけではない。EUも規制を考えている

https://www.brookings.edu/blog/techtank/2022/08/24/the-eus-attempt-to-regulate-open-source-ai-is-counterproductive/amp/
・人工知能法に取り組んでいるEUの立法機関で汎用AI(GPAI)の規制が検討されている。
・目的:よりツールを安全に使用できること。フェイク、偽情報への対応等
 現状のGPAIの不透明性を問題視している。バイアスが意図的に操作されていないか等
・しかしオープンソースGPAIへの法的責任が重くなり弱体化すると、
 大規模AI企業への権力集中が更に進み、一般の人々のAI理解が妨害される危険もある
・汎用AI(GPAI)=(曖昧だが)複数の場面で利用可能なAI。画像生成、翻訳、ロボット制御、等
 規制はGPAI開発者にリスク管理、データ管理、透明性、精度、セキュリティ等の基準を満たすよう要求するもの

・規制への反論:既にAI法で規制(雇用、安全性)はある。オープンソースを明示的に入れるべきではない。オープンソースは(1)巨大企業への集中緩和、(2)AIの仕組みの一般理解の浸透で大きな役割を果たしている
 大手AI企業はこの規制に法的に不備なオープンソース開発者を訴訟することも可能性になる。
0356名無しさん@お腹いっぱい。垢版2022/09/23(金) 23:19:09.61ID:Q4PL6KYJ
しまった・・・。技術スレの話題ではないですね。 総合の方にいきます。
もしコメントなどあればそちらで
0358名無しさん@お腹いっぱい。垢版2022/09/23(金) 23:41:06.44ID:dw8M8DMV
LDSRってESRGANみたいなもんかと思ったら全然違った・・めっちゃ時間かかる
LDSRで検索しても何も出てこないけど、具体的には何やってるの?
Latent Diffusion Super Resolution?
0359名無しさん@お腹いっぱい。垢版2022/09/23(金) 23:43:20.01ID:iCFb399s
プロンプトの動き見てると、元画像を専用のmodel.ckptに学習させて、それをもとにアップスケールかけてるように見える。
時間がめっさかかるのはこの学習?パートでアップスケールそのものは普通って感じ。
0360名無しさん@お腹いっぱい。垢版2022/09/24(土) 00:06:06.77ID:TQdEP/Of
自分の貧弱4GBグラボじゃLDSRは100%まで20分くらい、
しかも100%になったらメモリが足りないので生成出来なかったとエラー
それ最初に言ってくれ(T_T)
0365名無しさん@お腹いっぱい。垢版2022/09/24(土) 00:27:40.07ID:i1cGJaN5
Textual Inversion やってみようかと思ってInvokeAIインストールしてみたけど、wsl2のせいなのかNCCL errorが出てダメやった……
そのうちまた挑戦しよう。
0368名無しさん@お腹いっぱい。垢版2022/09/24(土) 00:48:54.21ID:Bom1QZWw
>>366
本家に連絡して、そのまま機能を入れてもらうんや
「日本の掲示板で公表したら思いのほか好評だったので」とか言ってええで
0372名無しさん@お腹いっぱい。垢版2022/09/24(土) 03:56:14.50ID:mw09Hve+
promptコピペしてー
negativeコピペしてー
seedコピペしてー
サイズ調整してー
samlerとstepとcfg調整してー

細かく調整しながら大量に作って、あとから選んでると
promptは念のため結局コピペさせられてるんだよなぁ
みんな思ってるから高確率で採用されると思う
0376名無しさん@お腹いっぱい。垢版2022/09/24(土) 07:37:41.82ID:cMJIYYj5
Macのグラボ、seedが機能せず再現性を持たせられないみたいで笑った(俺の環境でもそうなってる)
Macはほんと置いてけぼりだな…いいのは見た目だけ…
0377名無しさん@お腹いっぱい。垢版2022/09/24(土) 07:37:45.37ID:J0vYRVI2
出す出す詐欺で、全く出さないなSDは
0379名無しさん@お腹いっぱい。垢版2022/09/24(土) 07:43:03.83ID:Fu+sga2r
out paintingは辺を一気にガツッとかけちゃうんじゃなくてinfinityとかダリみたいにスクエアを動かして作って行きたいなあ。
ちょっとづつ伸ばす方が、多分望んだ方に誘導しやすいと思うし。
Inpaintingもマスク決めたらかなりガチャって採用決めてくし。out paintingもそんな感じでおながいします。
0381名無しさん@お腹いっぱい。垢版2022/09/24(土) 08:31:57.54ID:YfE5m3n5
python出来るやつにuiの改造頼んでるわ
金はかかるけど使いやすくていいぞ☺
0385名無しさん@お腹いっぱい。垢版2022/09/24(土) 09:17:05.02ID:J0vYRVI2
>>384
凄い
水着が小さくて乳がはみ出る高等テクも採用されとるけど
来月には抜けるレベルになるな
0386名無しさん@お腹いっぱい。垢版2022/09/24(土) 09:51:21.24ID:mw09Hve+
>>353
> 学習時には、変分解像度が使用されます。> これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、
> 様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。
これ楽しみだね
0390名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:32:17.60ID:zZQg4ZiD
389がもっといい絵を上げてくれるらしいぞ
0392名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:36:04.97ID:V02U0GhL
確かにちょっと前のソシャゲとかだとコレより微妙な絵も普通に使われてたな
もっと言えば黎明期のエロソシャゲとかこれとは比較にならないレベルで下手だった
それでも商売として成り立ってたんだから一応プロの絵って事だったんだよな
0393名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:36:29.94ID:cKNdZ6KH
>>389のレベルというより、Pixiv、Artstation、日本の漫画、Pinterest、・・・どこみたって>>384,388レベルの絵が高評価されるとこなんてないでしょ

技術スレの話題ではないけど
0394名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:45:52.21ID:qJKR2NKy
神絵はともかく一般絵だとこれより下手な人の方が多い
なので >>389 が目だけ肥えてるタイプか描けるタイプかで意味は変わる
0396名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:48:03.66ID:VjVJ4lFD
単にAIがヘタな虹絵も学習してしまってるからだろうな
例えば目と耳がくっついてるような絵ってあるじゃない。ああいうのはプロの絵でも横行してて
別に誰も指摘しない。上のAIでもちょっとその傾向が出てる。
0399名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:52:45.65ID:cKNdZ6KH
>>394-395
なんでいきなり下手な人は大勢いるとか、AIは追い越すとかって話になるんだ。そりゃそうだが>>384,388がヘタクソな絵ってのは変わらないでしょ

目が肥えてるとか描けるかとかも何も関係ない
下手か上手いかは主観の問題だけど、少なくともPixiv、Artstation、漫画、同人誌、Pinterest、Twitterとかで高評価になることはない絵
0400名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:54:26.91ID:V02U0GhL
そもそもAIの下手さって人間とは違う傾向にあると思う
人間がまず躓く光の表現が上手い一方で構造はイマイチって言うね
人間の初心者の場合、陰影が上手い人ってまず居ないから
AIの絵がパッと見良く見えるのはソレが原因じゃないかな
0401名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:54:58.52ID:45eSPqjd
上手いか下手かでいうと、下手の部類に入っちゃうだろうね。
AIにしては上手いというの確かだろう。
けど、これ出力するのにかかった時間は秒単位なんだぜ…
その気になれば100枚ぐらいあっさり出せる。
この速さがAIの最大の武器だな。
一旦、ある程度のクォリティに達したら、そこから下がることなく秒単位でバンバン出せるんや。
誰にでも。
0403名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:58:53.04ID:VjVJ4lFD
色と光の表現は良いし、初期のアニメ絵は出せないとか言ってた頃からすれば凄い進歩だけどね
でも量産できるってのはあまりメリットにならないと思う。むしろ価値が落ちる
同じキャラを描いてくれないのも欠点の一つだし
0404名無しさん@お腹いっぱい。垢版2022/09/24(土) 11:59:53.95ID:VjVJ4lFD
>>402
水着のねーちゃんの顔のパーツが輪郭からずれてる
人間もやりがちなミス 髪で見えないが耳があったら耳が目とくっついてる絵になる
0406名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:03:09.62ID:Jsiq1Nd7
>>389の目の正しさを確認するためにも>>488には期待だな
とりあえずAIの絵が下手かどうかを論ずる前にもうちょっとレスの仕方が上手くなると良いのだが
0408名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:05:55.78ID:qdRJqmgL
>>399
お前さんは目が肥えてんだろうけど、絵をまるで描かない人間からすれば充分上手だぞ
ていうかプロンプト次第ではもっとすごい絵いっぱい溢れてんじゃん?見てないの?
それでも下手だとか言い出すならそりゃもう単なる嫉妬かお前がとんでもない天才画家様かのどちらかだよ
0411名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:11:34.07ID:cKNdZ6KH
>>408
何言ってるのかさっぱり分からないが、上の絵がヘタクソって話と他にいいAI絵があるって話が何の関係があるんだw

そりゃ他にいいAI絵はあるよ。それがどうかしたのか?
0415名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:21:56.00ID:LDUjNPpd
>>411
あなた様の言い方が反AIのクソ絵師っぽいと思ったのでAI様をバカにされたようで腹が立ったんですごめんなさいもうしませんAI様最高ですよね
0416名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:22:47.65ID:VjVJ4lFD
いい絵っていったってここに上がったのも何十も試行しての結果だろう
一分で素晴らしい絵が描けるってのは語弊があるよな
0419名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:30:20.49ID:VjVJ4lFD
へーへーごめんなさいねぇ なんか気に障ること言っちゃったかな
別にこの話題引っ張る気もないしまだ4レスしかしてねぇんだけど
二匹とか何エラソーに お前は何様だよ 前もあった流れだがなぁ

はーい 私 が わ る う う ご ざ い ま し た 

満足か?必死な自治厨 まあ せいぜいがんばれや
0421名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:36:23.07ID:UexXWyPc
前スレ辺りでプロ級の絵がうpされてたけど、見る人が見たら肩の角度が~なんて判断でアマ級になってたろ
SDなんてただの道具でしかない
人間側に能力ないといい絵は作れないんだよ
0423名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:41:27.64ID:ED3gMzZj
誘導されていきなりキレて暴れだすやつって最初の方のスレにもいたな
同じやつかな、そこまでプライド高すぎるのはちょっとまずいぞ
0424名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:44:16.12ID:VjVJ4lFD
その話題もスレ違いじゃねーの
高すぎるプライドじゃないね。だが人間としてのプライドはある
畜生みたいに言われたりゴミって言われたら怒るよ あたりまえでしょ
0428名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:47:43.50ID:LDUjNPpd
これネタじゃなくて本当なのだとしたらかなりかわいそうな人だな
絵師だろ?おそらく
実は単なる中高生の荒らしでした、っていうオチであってほしい
本当にこんな人間がいるだなんて、あまりにも悲しくて
0429名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:48:14.14ID:VjVJ4lFD
スレ違いだから終わるがAIがどうのという前に人間としての常識をわきまえろ 以上だ
続きやりたいなら誘導先でやれ 俺がレスするとは限らないがな 下らんと思ったら永久に閉じて去るから心配すんな
0430名無しさん@お腹いっぱい。垢版2022/09/24(土) 12:50:31.60ID:VjVJ4lFD
自治厨くん、こいつらは「匹」にはいらないのかい?ずいぶん偏向がある誘導なんだね
終わり あーくだらね
0432名無しさん@お腹いっぱい。垢版2022/09/24(土) 13:07:04.37ID:Fu+sga2r
なろうとか書いてる文字書きには嬉しいアプリだろうな、これ。
特定のキャラの色んなシーンは描けないけど、雰囲気だけなら十分に絵でも伝えられるもん。
0435名無しさん@お腹いっぱい。垢版2022/09/24(土) 13:22:44.48ID:Fu+sga2r
横幅の勝利だと思う。だから、2人居るシーンってよく見ると片方が透けてるんよ。
おそらく、左の512に1人かいて右の512に別人を書いて合成してる感じで動いてる。

もっと人を出すのはもうちょっとpromptを煮詰めんとね。
>>431>>387も1promptのバッチカウントぶん回しだから、汎用性のあるpromptにはなってきてる手応えある。
0438名無しさん@お腹いっぱい。垢版2022/09/24(土) 13:26:09.89ID:Fu+sga2r
>>436
さっそく活用中w そしてpromptにバージョン管理も来てるよー
そのうちgitみたいにpromptのフォーク管理とかできるようになるんじゃねw
0447名無しさん@お腹いっぱい。垢版2022/09/24(土) 15:06:08.32ID:gYR9rafZ
1111で4batch とかで生成すると結構な頻度でguiがバグる
絵はファイルとしては生成されてるんだけど右の画面に出てこず、generateボタンが反応しなくなる
colabだからかな
0448名無しさん@お腹いっぱい。垢版2022/09/24(土) 15:09:10.01ID:Fu+sga2r
>>444
オスカー賞w 

>>447
colabはディスクの書き込みは遅いので、そこで止まるっぽい。
grid生成してると、高確率で返事返ってこなくなる。
0455名無しさん@お腹いっぱい。垢版2022/09/24(土) 15:49:34.92ID:xxlpsYzL
Waifuで二次絵を出力したいのにドールみたいなリアル系の顔が出てくるのを簡単に抑える方法無いかな
0456名無しさん@お腹いっぱい。垢版2022/09/24(土) 15:52:02.95ID:UexXWyPc
キチ消えたと思ったら日記帳になってんじゃん。書き込むならプロンプトも載せろよ

20yo man, wear paradin armor, chest up portrait shot, anime face, dark hair
insane detailed, highly detailed, [[greg rutkowski]], trend on artstation
Negative prompt: penis, helmet, mask,((poorly drawn face)), ((poorly drawn hands)), ((poorly drawn feet))
, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), legs
https://i.imgur.com/xvNdN8o.png

20yo man, → 20yo japanese man, loli face,
https://i.imgur.com/UT5lsVI.jpg
0460名無しさん@お腹いっぱい。垢版2022/09/24(土) 16:23:34.39ID:n8EXDYtx
>>455
portrait(肖像画)をネガティブに入れるのがお手軽
danbooruにはportraitというタグはほとんど付いていないのでSDで学習してたリアルな顔の描き方だけ忘れてくれる
dollとかphoto faceとかも効く
0463名無しさん@お腹いっぱい。垢版2022/09/24(土) 16:42:50.88ID:CNBGbHBe
グレッグさんはさすがに最大級の被害者
プロンプト入力してる人たちの大半がグレッグさん本人のことや作品を知らないだろうなというのもやばい
右にならえでみんな入れてるし
スレチなのは分かるけどすまんw
0465名無しさん@お腹いっぱい。垢版2022/09/24(土) 16:55:07.80ID:uMwcZwrh0
1111の連続出力しようとすると高確率で無反応になるなあ
0469名無しさん@お腹いっぱい。垢版2022/09/24(土) 17:39:01.84ID:HeclL8j8
とりんさまが同じ顔ばっかり出すのを利用すると
同じ子に制服着せたり裸にしたりが割と簡単にできるんだな
何なら人間が描くより作画安定してるわ
0470名無しさん@お腹いっぱい。垢版2022/09/24(土) 17:39:09.67ID:bJ0v/dMN
>>466
テンプレから

>webui.batと同じディレクトリにある「ui-config.json」をテキストエディタで開く。9行目の「"txt2img/Batch count/maximum": 16,」の数値を増やして保存しStable Diffusionを再起動する
0471名無しさん@お腹いっぱい。垢版2022/09/24(土) 17:53:06.68ID:Fu+sga2r
割と汎用性の高いpromptがそこそこ仕上がったと思うんで共有してみる。

beautiful <塗りの種類> 8k wallpaper kawaii anime (<主な人物の簡単な情報>) with <動きを想像出来る場面>,(((intricate human hands fingers))), (navels), wearing <着ている服>,beautiful face,<主たる人物の髪とか>

ネガティブは崩れないお呪い一択で変更無し
Negative prompt: ((((mutated hands and fingers)))),((poorly_drawn_face)), ((poorly drawn hands)), ((poorly drawn feet)), fat, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), (((text title signature)))

ガチャ必須で収率は正直よろしく無いが、ほぼどんなシーンでも使い回しが効くと思う。
ポイントは<動きを想像出来る場面>で、ここに動きを入れることでAIさんが勝手に妄想エンジン全開で動きをつけてくれる。

では、具体例をば。

beautiful CG painting 8k wallpaper kawaii anime (kawaii 1girl soldier) with fierce training grounds under the hot sun,(((intricate human hands fingers))), (navels), wearing uniform for infantrymen,beautiful face
ネガ略
https://imgur.com/E8RanYx
正直、動きの情報が複雑すぎて大暴れw

beautiful CG painting 8k wallpaper kawaii anime (kawaii 1girl student) withHoliday Underground Mall,(((intricate human hands fingers))), (navels), wearing Cute personal clothes,beautiful face,long hair
ネガ略
https://imgur.com/Mpc8YAQ
Trin系大活躍w

beautiful CG painting 8k wallpaper kawaii anime (fantasic 1girl ) with Dungeon where monsters lurk,(((intricate human hands fingers))), (navels), wearing Fantastic knight's armor,beautiful face,golden
ネガ略
https://imgur.com/oM4MuoM
鎧なんかのディテールはWaifuが強い気がする

こんな感じで、ポーズや構図を全部AIに任せるので数は回さなきゃダメだけどほぼほぼどんなシーンでも使える。
あと、引きで顔が崩れたらinペインティングで修正って感じ。数が勝負だからSTEPは30で十分。20でもおk
0472名無しさん@お腹いっぱい。垢版2022/09/24(土) 17:55:15.50ID:a7kxR5bA
ブラウザ翻訳すれば使い方なんてバカでもわかるのにちゃんと公式読まねぇ奴多すぎるわ

あとテンプレの内容もだいぶ古いな
Automatic1111版はだいぶ前からckptの名前変更も必要無くなってるし
0478名無しさん@お腹いっぱい。垢版2022/09/24(土) 21:03:36.81ID:YVeih2LP
img2imgでアップスケーラーを多用してる自分としては下部のスクリプトに組み込まれてしまったのは不便だな…
戻す予定ないんだろうか…
0479名無しさん@お腹いっぱい。垢版2022/09/24(土) 21:20:43.33ID:UxKOT+zk
gyaru, detailed face, beautiful face, by <人物画家>, screentone

普通のSDでもそこそこの確率で漫画風の美女が出る
ルイ・イカールとかだと昭和の少女漫画風になる
うまくいく人といかない人がいるので実験で

gyaru, detailed face, beautiful face, by Alphonse Mucha, screentone
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/zJrW8Ch.jpg
0480名無しさん@お腹いっぱい。垢版2022/09/24(土) 21:24:58.52ID:sYfHiaag
360度HDRI背景ってどうすれば良いでしょう
頭に
A panoramic 360 seamless hdri,
て入れてみてるのですが、継ぎ目がスムーズにいきません
0481名無しさん@お腹いっぱい。垢版2022/09/24(土) 21:54:54.27ID:V0MBYcG3
>>480
SD完結は無理だと思うよ
フォトショ使ってつなぎ目が一枚に入るようにしてマスクつかってblur大きめでその間をペイント
ただし微妙にスムーズにならないからつなぎ目をフォトショで修正
そうやってけば縦横上下パノラマにまではなるけどHDRには・・・
0482名無しさん@お腹いっぱい。垢版2022/09/24(土) 22:31:04.93ID:mIruhv5U
>>480
シームレスにするだけなら、Automatic11111でseamlessにチェックするだけでいい気がする。
ただ、普通の背景のような画像は生成されないかもしれない


試してないけどこういうのも最近出たみたい
テキストからHDRIを生成
Text2Light: Zero-Shot Text-Driven HDR Panorama Generation
https://github.com/FrozenBurning/Text2Light

CLIP使ってるのはSDと同じだけど画像生成はオリジナル?背景に強い学習してる?

普通のGeforceとかで動くものなのか、生成可能な画像のバリエーションがどの程度かとか全然分からないけど
0483名無しさん@お腹いっぱい。垢版2022/09/24(土) 22:57:18.96ID:dnVPHBuk
High Dynamic Rangeは光のダイナックレンジが広いフォーマットだから加工だと撮影段階で複数の露出で何枚か撮るかHDR(10bit以上のRawも含め)で撮らないと無理っぽいけれどAIに描かせればHDRにも出来るハズということか
0484名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:03:02.44ID:uREouYi4
1111の設定にあるこれてなにですか?
あと出力サブホルダをプロンプトのハッシュ値によって自動で集合させるという凄いテクノロジー話もあった気がしたのですが、
そんなことも可能なのですか?


>VRAM usage polls per second during generation. Set to 0 to disable.
>デホルト設定値8 最大40
>生成中の 1 秒あたりの VRAM 使用量ポーリング。無効にするには 0 に設定します。

>Always print all generation info to standard output
>すべての世代情報を常に標準出力に出力します
0486名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:22:41.44ID:nHoCEq69
>>484
>VRAM usage polls per second during generation.
画像生成が終わった後で下に使ったプロンプト等が表示されて、一番下に

Time taken: 91.75s Torch active/reserved: 6346/7960 MiB, Sys VRAM: 10550/12288 MiB (85.86%)

とか出るやつじゃね?

>Always print all generation info to standard output
これは上の情報をwebuiを実行している端末の画面に出す設定かの?

>出力サブホルダをプロンプトのハッシュ値によって自動で集合
>>420のことなら、settingsで Save images to a subdirectory にチェックを入れて Directory name pattern に [model_hash] と入れれば、settingsで現在選択中のmodelのハッシュ値が付いたサブディレクトリに画像が出力されるヨ!
0487名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:29:55.92ID:nHoCEq69
>>484
>すべての世代情報を常に標準出力に出力します
ではなくて、
「すべての生成情報を」だと思う。
0488名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:33:16.26ID:PXjBBhkX
VRAM usage polls per second during generation
の方はデフォルト8 per secだし、特にどこにも毎秒8回もメモリ使用量表示されてるとこないから、内部処理の設定だと思うよ
VRAMが十分あるなら0、VRAM普通ならいじらない、4GBとか少ないなら増やした方がよさげ

Always print all generation info to standard output
こっちはコンソール画面(背景真っ黒ウインドウ)への表示。ブラウザ表示しか見てないなら無効化していい
0489名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:36:57.59ID:ytTAIFhl
>>488
> 内部処理の設定
頼むから出鱈目言うのはやめてくれ
pollっていうのは集計って意味
よってVRAM使用状況の集計を秒毎に何回行うかという設定
8GBだと常に100%近くて特に参考にならないので自分は無効にしてる
0490名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:37:47.17ID:REa16q+M
>>486
それら情報表示設定だったのですね…
VRAM使用量の制御系かと思い低RAMグラボ用に最適化出来るのかと思いました…

ハッシュは「model_hash」だと思って入力したら単純にmodel_hashというフォルダが出来て焦りました!
「[model_hash]」だったのですね! ありがとうございます!!
0491名無しさん@お腹いっぱい。垢版2022/09/25(日) 00:43:27.39ID:PXjBBhkX
>>489
毎秒何回取得してどうすんのって話よ。表示してるなら表示用の設定かもしれない
でも表示されてないんだから、VRAM値をなんらかのチェックをする内部処理用の設定でしょ
100%に張り付いてるならそのチェックできず異常起きる可能性あるから無効にはしない方がいいと思うよ
0492名無しさん@お腹いっぱい。垢版2022/09/25(日) 01:01:57.23ID:BU7ZBq4B
キャッシュ君の再来?
その設定はVRAM使用量の状況を何秒ごとに取得するかの設定でしかないぞ
それで取得されたピーク値が処理後に表示されてあとどれぐらい余裕があるかの目安に使えるってだけ
短いと処理速度に影響出そうだし長いとピークを取り逃すしで暫定で8秒にされてるが変えたければ変えられるというだけ
0495名無しさん@お腹いっぱい。垢版2022/09/25(日) 01:47:27.22ID:owAl6m1U
colabで1111版使おうとしたら、
ユーザーねーネームとパスワード求められて使えなかったわ
前まで必要なかったのに
0496名無しさん@お腹いっぱい。垢版2022/09/25(日) 01:57:44.09ID:REa16q+M
モデルによるハッシュ値フォルダへの保存てプロンプトのハッシュ値ではなく
model.ckptのハッシュ値による保存だつたのですね…
プロンプト変えても同じフォルダに保存されるから焦つた…
前スレでプロンプトのハッシュ値で保存してる人がいたような気がしたけど、
あれは1111機能ではなく自分で算出して保存してたんですね…
0498名無しさん@お腹いっぱい。垢版2022/09/25(日) 02:28:01.10ID:ytTAIFhl
プロンプトのハッシュって何?
モデルハッシュ/サンプラ/プロンプト
みたいなフォルダ構造にすればいいだけだよね?
0499名無しさん@お腹いっぱい。垢版2022/09/25(日) 02:35:29.46ID:REa16q+M
たしかプロンプト文字列をMD5ハッシュ値にして、その値で画像をフィルタリング出来るようにしたとか、
そんなことを書いてた人がいて、最近1111のデフォルト機能でそのハッシュ値保存が可能になったのか~と思って…
0501名無しさん@お腹いっぱい。垢版2022/09/25(日) 05:00:58.51ID:6RnQiqTg
>>473
そもそもMJとDALLE2用のスレだったので
有料サブスクとかSDには合ってないから変えた方がいいかもね、いまやメインだし
0502名無しさん@お腹いっぱい。垢版2022/09/25(日) 06:24:19.67ID:cvGgDvDI
>>482
面白いけどだめっぽいな
SDののりで「sunset beach, sea, cinematic light, sharp focus」で生成されたHDR(これはLDR)画像がこれ
https://i.imgur.com/graQ9HE.png

一見まともに出力されてるようだけどプロジェクトページにあるサンプル画像とまったく同じのだった
https://i.imgur.com/tcO2Nk6.jpg
https://frozenburning.github.io/projects/text2light/

「tokyo street」みたいなの試しても東京どころか道にもならないしまったく学習できてない
使うには自分で学習させてモデル作らないといけないみたいだし、そうやって作ったところできちんと生成できる保証もなし
0503名無しさん@お腹いっぱい。垢版2022/09/25(日) 08:37:48.81ID:gTrt2+7w
>>502
検証あり
HDRI画像学習させるのは大変だね
今後VRニーズが増えるなら環境テクスチャの自動生成も重要になると思うのでどっかが頑張って学習済みモデル提供して欲しい
0505名無しさん@お腹いっぱい。垢版2022/09/25(日) 11:03:35.70ID:Ve4FTbed
パソコンで絵が描けるようになった頃も似たようなことは言われてたし、すぐ順応すると思うな
アンドゥや左右反転もアナログ描きからは邪道扱いされてたし、レイヤーや3Dになるとフザケンナって感じだった

その前の時代にはスクリーントーンも似たようなことを言われてた
0508名無しさん@お腹いっぱい。垢版2022/09/25(日) 11:08:46.54ID:2uVyG9pr
いるよなこういう歴史を捏造する奴
俺はPC黎明期から絵描いてるけどそんなこと一切全く誰も言ってなかったぞ
むしろデジタル最初期の段階で既にイラストレーターはPCで描くのが常識で
線画だけはアナログか線画含めてフルデジタルかという程度の違いしかなかった
0511名無しさん@お腹いっぱい。垢版2022/09/25(日) 12:23:43.94ID:8jGGCnJU
水彩画もパソコンで描いてたの?
それとも水彩画はイラストではない?
0512名無しさん@お腹いっぱい。垢版2022/09/25(日) 12:36:46.80ID:BY6VbDbY
いつの時代をもってCGの黎明期って言ってるんだって感じではある。
PC9801の16時代からCG触ってるが、流石にこの時代でCGに手を出してたプロのイラストレーターは超希少。
都築とかぐらいじゃないかな。
当時のスキャナは白黒オンリーだったのでそもそも線画しか取り込めないw
ラップスキャンと言ってサランラップに油性ペンで線画を描いてモニタに貼ると言う荒技を使ってた人も多いw
ニフティなんかでは今のpixivみたいなフォーラムがあって、そこでCGを共有してた。ちなエロは7割ぐらいw

もうちょっと時代が進んで256色使えるようになるとマカー漫画家がCGに手を出すようになってきた。
ノーラの漫画家が多かったな。こやま基夫とか。
この頃からゲームのイラストレーター はみんなCGで描くようになってきた。

正直、アナログ画家はそもそもPC使えない方が普通だったのでコピペとかアンドゥとか何それって感じで邪道もへったくれもなかったし、色の表現力とか線の繊細さなんかは当時はアナログがダントツだったので文句言うヤツなんか当然いない。
CGといえばガジェオタのオモチャと大差なかったし、ペンタブなんかも普及してなかったからむしろ変人扱いだった記憶がある。

フォトショの4ぐらいからかな。いろいろ使いやすくなったのって。
0513名無しさん@お腹いっぱい。垢版2022/09/25(日) 12:47:07.40ID:SHkwqg2j
>>512
おっさんスレチだし自分語りうぜーよ
って言われるけど語りたくなる気持ちはとてもわかる

98のマルチペイントは革新的ツールだったな
オレもやったよ、サランラップ
CGはいつになっても進化し続けてて面白いわ
0515名無しさん@お腹いっぱい。垢版2022/09/25(日) 12:53:39.99ID:4G0Ll0bE
この世代のおっさんが一番CGを楽しめてるかもな
都筑和彦氏がマウスやタブレットのパソコンお絵描きをCGと呼ぶのはどうなんだろうと呟いてたことがあったが(キラキラ筆を作る少し前)、その意味ではAI画像生成の方が「コンピューター・グラフィックス」に近い
0516名無しさん@お腹いっぱい。垢版2022/09/25(日) 12:53:40.28ID:nHoCEq69
PNG Infoからtxt2imgへのプロンプト送信、Highres. fixの設定は飛ばない。
全然違う絵が出て困惑しちまったよ……w
0520名無しさん@お腹いっぱい。垢版2022/09/25(日) 14:33:48.14ID:8ohYB0PO
>>517
平成も34年まで続いて令和産まれがもう4歳だもんなw
まあ機会があったら昭和の2次絵を色々見てみるのも面白いもんだよ
0527名無しさん@お腹いっぱい。垢版2022/09/25(日) 15:58:03.60ID:U6vEX/eu
1.5ベースの再学習いるだろうし派生モデルはそれをベースにするかどうか個別判断になるんじゃない?
1.4ベースで行く人もいたりいなかったり
0532名無しさん@お腹いっぱい。垢版2022/09/25(日) 16:55:44.92ID:cjV4eppy
k_euler_a と euler_a は違うものなんでしょうか?
Automatic1111版はk_がついていないせいか、同じプロンプト・シードでも
NMKDのk_euler_aと出てくる画像が違います。k_euler_aはAutomatic版では使えないとか?
0535名無しさん@お腹いっぱい。垢版2022/09/25(日) 17:29:36.19ID:QcBKDjkv
すいません総合スレに技術的な質問はこちらと書かれてたのでいいですか?
多分初歩的な事だろうと思うのですが、この画像をアップスケールすると( https://i.imgur.com/nIVPBe5.png
こうなって( https://i.imgur.com/0GOGOws.jpg )全体的にボヤけてデティールが無くなるんですが、その場合ってimg2imgタブにあるSD Upscaleを使えばいいんですよね?
ただそうすると( https://i.imgur.com/gZBf6rC.jpg )こうなって色々とおかしい画像になってしまいます
これを直すにはどうしたらいいんでしょうか…?
0536名無しさん@お腹いっぱい。垢版2022/09/25(日) 17:38:42.46ID:nHoCEq69
>>535
upscaleだけならExtrasで適当なUpscalerを選んでやる。

SD upscaleは言うなれば拡大して描き直すので、Denoising strengthを0にすれば拡大しただけの絵になる……はず?
0542名無しさん@お腹いっぱい。垢版2022/09/25(日) 18:05:50.37ID:ytTAIFhl
detailed face, beautiful face, by <アーティスト>
のテンプレで綺麗な顔が出てこないアーティストをネガティブに入れておくと綺麗になるとか言ってるやつね
0543名無しさん@お腹いっぱい。垢版2022/09/25(日) 18:48:12.17ID:nzuXjo2K
本体のアプデよりも学習方法の方が影響力高そう
余計なイラストまで学習されるとネガで弾いてもキリが無いわ
理想を求めると自分でTI回すしかないという矛盾
0544名無しさん@お腹いっぱい。垢版2022/09/25(日) 19:25:54.12ID:tgxfRXT4
お、waifu1.3明日16時からだ。
楽しみ。
0546名無しさん@お腹いっぱい。垢版2022/09/25(日) 21:13:50.88ID:A3VRxyIG
オリジナルのWaifu Diffusion1.2って8GBギリギリまで使うんじゃなかったっけ
1.3で追加学習して8GBのグラボで動くのかな?
0549名無しさん@お腹いっぱい。垢版2022/09/25(日) 21:36:25.66ID:AqP4i3LN
うわああああガイジすぎて
WaifuDiffusion=SDで自分好みの女の子生成しまくること
だと思ってた
一日中ツイッターを参考にしてSDいじってたの無駄だったんか
うんこもれそう
0550名無しさん@お腹いっぱい。垢版2022/09/25(日) 21:37:45.88ID:BU7ZBq4B
EMAのことなら削れば4GBになるし
VRAMの消費量はSD1.4とWD1.2では変わらないしEMAの有無でも変わらない(メインメモリに一旦展開するのでそこは増える)

EMAは学習の途中経過を示すもので、あるとそこから学習を再開できるが無くても画像は作れる
use_emaをtrueにするとEMAを使用してモデルを最新の学習から巻き戻して先祖帰りすることもできるが、別にそれが良いとも限らない

追加学習だけであればサイズは増えないのでWD1.3も7GBでEMA無しは4GBのはず
ネットワークの構造変えるぐらいの手入れると増大するけど
そうでないなら何かを忘れて新しく覚えるだけ
0551名無しさん@お腹いっぱい。垢版2022/09/25(日) 21:49:02.07ID:tgxfRXT4
ttp://twitter.com/novelaiofficial/status/1573834053031280641

waifuはこれと戦う気らしいけど、頑張ってほしい
https://twitter.com/5chan_nel (5ch newer account)
0553名無しさん@お腹いっぱい。垢版2022/09/25(日) 22:02:05.88ID:tO0Kn1MA
>>551
乗り遅れてるかもしれないけど、このNovelAIというのは新しいSDのモデル、であってるのかな?

そのリンクのキャラの一貫性確保とかモデルでなんとかなるものなのか・・・

このエヴァとまどマギのミックスとかもかなりの完成度でどういうものか気になる
https://twitter.com/novelaiofficial/status/1572758950897917952
https://twitter.com/5chan_nel (5ch newer account)
0556名無しさん@お腹いっぱい。垢版2022/09/25(日) 22:07:56.73ID:BU7ZBq4B
>>553
SDが世界中の写真から絵画までジャンル問わない画像という画像を入れてるキャパシティに
danbooruの二次元画像だけ食わせながら深く学習を進めるとプロンプトと出力の結びつきが強固になって安定性が増すんだろうね
seedで変動するのはプロンプトに指定されてない部分だけと

もちろんその画像たちも大量に生成したのをチェリーピックしてる可能性も多大にあるが
0557名無しさん@お腹いっぱい。垢版2022/09/25(日) 22:21:38.82ID:nHoCEq69
無限に風景画が吐き出されてきて楽しい……
https://imgur.com/am5SwZC.jpg

プロンプトはいつものを少し改変。風景画なのでクロード・ロラン先生にもご参加いただいた。
bird view of a <主題>, modern style, by greg rutkowski and [alphonse mucha] and claude lorrain, gradient <色1> to <色2>, in front of <背景> background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers)))), ((portrait))

ネガは正直いるのかって気はするがw
0564名無しさん@お腹いっぱい。垢版2022/09/26(月) 02:28:03.73ID:iIUeuGkK
↙って
こことか4chanで貼られてる生成情報をプロンプト欄にペーストすると
ステップ、サンプラ、CFGスケール、シード、サイズ
を全部埋めてくれるっていうボタンだったのか
0565名無しさん@お腹いっぱい。垢版2022/09/26(月) 02:50:06.18ID:Ftec7SVM
キャラ固定できないから絵師の仕事奪わないと言われていたのに
早くもキャラ固定まで出来るようになるのか
どこまで進化するんだ
0566名無しさん@お腹いっぱい。垢版2022/09/26(月) 02:53:56.44ID:iIUeuGkK
プロンプト変形の有効活用法に今更気が付いた

前半に美人画アーティスト後半に写真アーティストって感じにプロンプトを組むと美人の写真が出てくる
girl, detailed face, beautiful face, by [Albert Lynch:Just Jared:0.5]
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/O9N6lu8.jpg

後半をフィギュアのブランドにすると美少女フィギュアが出てくる
girl, detailed face, beautiful face, by [Albert Lynch:Hot Toys:0.5]
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512, Model hash: 4af45990
https://i.imgur.com/7CrqJ4n.jpg
0567名無しさん@お腹いっぱい。垢版2022/09/26(月) 04:22:35.89ID:uWto493T
公式とかのCUI版でネガティブプロンプトってどうやるんだ…?
色々試してるけどちゃんと効いてるのかよくわからん

AUTOMATIC1111の人はどうやって的確に効くネガティブプロンプトを実装したんだろう…
0572名無しさん@お腹いっぱい。垢版2022/09/26(月) 07:19:58.78ID:ftdDpJAZ
プログレスバーが残り数%で遅くなるのはよくある事だしな
世界10位のスパコンでそれならもう待つしかないわ
0575名無しさん@お腹いっぱい。垢版2022/09/26(月) 07:39:38.91ID:6rS7sLXp
>>567
これ自分も知りたい
プロンプトで「ネガティブワード::-0.25」みたいな書き方したら重み付けできるって書いてるところも見たことあるけど、プロンプトに入れてみても効いてる感じはしないし
「--prompt-correction 'ネガティブワード::-0.2'」というので指定したらいいってのも見たことあるけど、こういうコマンドみたいなのって自分のColab上だとどこにどう書いたらいいのかわからんし
0576名無しさん@お腹いっぱい。垢版2022/09/26(月) 07:48:19.80ID:5T+OalCP
>>567
数字で重み付けできる GUI の場合はマイナス指定でできないのかな。

「ネガティブウェイト指定できないのはバグか?」みたいな英文をだいぶ前に見たような
0577名無しさん@お腹いっぱい。垢版2022/09/26(月) 07:57:11.00ID:5T+OalCP
>>576
リロードしてなかった…

実装は、1111版も数字での重み付けも、文字列から matrix みたいなの作るあたりで、negative prompt だけ matrix 作って引き算してるとかなのかも?

1111さんが、数字で指定できる機能を入れるにはプロンプト分割が必要になるので入れたくない、みたいな返信してたので
0586名無しさん@お腹いっぱい。垢版2022/09/26(月) 09:09:17.54ID:YuUIamTX
>>585
うーんなるほどありがとう
コマンドライン上とかColab上でネガティブプロンプト使えてる人は、その辺から違うことをしてるのか
よくわかってないけど何かできる方法ありそうな感じだし、お勉強頑張ってみるわ
0587名無しさん@お腹いっぱい。垢版2022/09/26(月) 09:58:12.71ID:GLevNSnu
遅延理由が倫理とか下らない問題じゃないといいな
自主規制なんかやり出したら終わりだよ
0588名無しさん@お腹いっぱい。垢版2022/09/26(月) 10:33:28.62ID:Ftec7SVM
英語圏は日本人よりロリコンが多いのが学習元画像にも反映されてるっぽくて
現実的なシチュでかつ西洋風のワードほど女の子がロリに傾いてしまうのが困りもの
例えば入浴させるにしてもonsenとbathだと後者はかなりはっきりロリ寄りに傾いてしまう
0589名無しさん@お腹いっぱい。垢版2022/09/26(月) 11:04:43.60ID:eBv+j3Zm
waifuは10/10延期か
現状より可愛くなるのは難しいんじゃね
0594名無しさん@お腹いっぱい。垢版2022/09/26(月) 11:44:08.69ID:Ftec7SVM
SD1.5もアニメモデルもWaifu1.3も一斉に延期って何が起こってるんだ
アメリカ最大手のNovelAIが堂々とエヴァの版権パクリ始めてるくらいだから
権利問題なんて外人は全力で無視だろうけど、てか流石にあれは訴えろよって思うけどな
0601名無しさん@お腹いっぱい。垢版2022/09/26(月) 12:01:29.75ID:KDn2Rzn9
SDはすでに1.5のベータが動いてるから、規制とかではないと思うな。
規制関係だったら、ベータから1.5が真っ先に消えるはず。

WDもそうだけど、たぶんSDもここが気合の入れどころじゃあってモデルセットを馬鹿みたいに増やしてるんだと思う。
中華が本気出して来たら、権利ガン無視物量勝負大得意の連中に押し負ける可能性高いし。
それまでにスタンダードの地位を確立したいんじゃね?
0602名無しさん@お腹いっぱい。垢版2022/09/26(月) 12:03:50.40ID:gSEnkgbb
学習する画像枚数を300万枚に増やすと公開が2週間ほど延びるから意見募集してなかったっけ。きっちり2週間延期だからそっちに舵をきったという理解だったが。
0608名無しさん@お腹いっぱい。垢版2022/09/26(月) 12:30:42.86ID:SKseRWLM
知りもしない事情を妄想でつらつらと語る奴の頭の中を知りたい
まあ>>1もまともに読めないあたり大概なんだろうが
0615名無しさん@お腹いっぱい。垢版2022/09/26(月) 16:24:46.94ID:6GVWO/l9
CPU版Dreambooth動いた
学習速度が10倍かかるがそこそこのCPUでメモリ30GBもあれば大丈夫
ただしmain.pyがバグっているので1個前のコミットの物に入れ替え必須

少し工夫がいるがColab Proのハイメモリランタイムでも動作確認済

https://github.com/andreae293/Dreambooth-Stable-Diffusion-cpu
0619名無しさん@お腹いっぱい。垢版2022/09/26(月) 16:44:58.47ID:k9QOyL8f
1日経っても学習終わらなそう
0626名無しさん@お腹いっぱい。垢版2022/09/26(月) 17:18:06.08ID:2SJVaG4V
ryzen 3900xで約6-7時間だからPCで出来る人はいいと思う

Colab ProのCPUがどれくらい速いのかが気になるな
確か遅かった記憶がある
0631名無しさん@お腹いっぱい。垢版2022/09/26(月) 17:36:38.13ID:KDn2Rzn9
SD1.4で吐いたリアル系の絵をtrinartに何回か食わせたらバッチリ2次系にコンバート出来たので、1.5である程度人体に強くなってたら、この方法で2次にもってくのも十分アリだな。
0633名無しさん@お腹いっぱい。垢版2022/09/26(月) 18:20:42.57ID:FkHoiaiw
>>615
CompVis (本家)と合わせて使うローカルの学習環境か
GPUの代わりにメモリ30GBとかゲーミングPCで全スロ使わないと届かなそう
colabで3時間ならCPUローカルで丸1日+か・・・しかもPCは使用不能

多分、仮想通貨のマイニングとかと大差ない感じになりそう
0634名無しさん@お腹いっぱい。垢版2022/09/26(月) 18:23:06.45ID:Ftec7SVM
waifu1.3の延期はただでさえ大きな進歩があるところ学習データを追加で増やしたってことなんだから
10/10の1.3で相当なジャンプアップがあるんだろうな
0636名無しさん@お腹いっぱい。垢版2022/09/26(月) 18:57:29.52ID:zi9KLwrn
限定配布されたWD1.0とかあるけど別にいいもんじゃないよ
学習が浅いんで中途半端だし
同じことしたいならSDとWD1.2混ぜればいいと思う
0639名無しさん@お腹いっぱい。垢版2022/09/26(月) 20:19:56.88ID:qOALnn7R
なんか、ファンタジーっぽい画像がワチャワチャでるprompt

beautiful CG 8k wallpaper cool anime,five::5 (fantasy characters) with Danger awaits in the deepdungeon ,(((intricate human hands fingers))), (navels), mature goodlooking face

ネガティブ
pablo picasso,((((mutated hands and fingers)))),((poorly_drawn_face)), ((poorly drawn hands)), ((poorly drawn feet)), fat, (disfigured), ((out of frame)), (((long neck))), (big ears), ((((tiling)))), ((bad hands)), (bad art), (((text title signature))),((light effect))

ネガティブからピカソさんを外すと奇形率が跳ね上がるが、ワチャワチャ度も高くなるのでゴチャキャラが好きな人はお勧め。
収率はかなり悪し。CFGは7から12ぐらいがお勧め。

ピカソ有
https://imgur.com/VuTltzF

ピカソ無
https://imgur.com/ULU802B
0641名無しさん@お腹いっぱい。垢版2022/09/26(月) 23:23:37.31ID:qOALnn7R
Soon we will be able to make a house on chicken legs 🦵 🐓

…なんだかよく分からんが、もうちょっとなのか? 英国流は分かりづらい。
0643名無しさん@お腹いっぱい。垢版2022/09/26(月) 23:49:47.54ID:/7AjRv9a
単にツリーハウス画像のツイートにバーバ・ヤガーのネタで返しただけじゃないの
意味は特にないと思う
0645名無しさん@お腹いっぱい。垢版2022/09/26(月) 23:59:44.08ID:munOgLTS
Variation Seedは通常のSeedを固定して少しだけ変化を与えるのに使える。Strength0.1〜0.2くらいなら元絵と大きく変わらないからうまく使えばバリエーション出せるぞ、的なやつ。

ResizeSeedfrom〜は、WidthHeightで指定したサイズをもとにせず、こっちで指定した解像度のSeedでスタートするって感じのやつ。
低解像度で乱数でいい感じの出るまで生成して当たりを見つけたらそのシード値で固定してResizeSeedのサイズに低解像度の時の値を入れて
元のWidthHeightを上げるといい感じのがそのままでる・・・こともある、って感じ。

より正確にはマニュアル読んでな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#seed-resize
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#variations
0646名無しさん@お腹いっぱい。垢版2022/09/27(火) 00:03:18.33ID:pYfV0iDv
バリエーションはインペイントで指とか腕とかを修正して、もうちょっとって時に凄く使いやすい。
そう言う些細な違いを呼び出す感じ。
0648名無しさん@お腹いっぱい。垢版2022/09/27(火) 08:30:12.20ID:KaaVWeKO
Emadみたいのは外人の経営者には凄くよくあること
英語圏の会社だとプレスリリースの内容が曖昧だったりポエムみたいだったりして
発表後にredditで内容の解釈で議論になることがよくある
0649名無しさん@お腹いっぱい。垢版2022/09/27(火) 08:32:07.45ID:1hKTf8K2
ドコモとかkddiのホームページ見てみろよ
明るい未来だの次世代通信だの抽象的なことしか書いてないぞ
どこの国も同じ
0651名無しさん@お腹いっぱい。垢版2022/09/27(火) 10:24:34.41ID:lPXJv2d3
今更だけど、1111のwebuiってすでに画像がある場所にD&Dでちゃんと認識してくれるんだね
前は新しい窓で画像が開くだけだったので、今の今までいちいち×で既存画像を消してた
0652名無しさん@お腹いっぱい。垢版2022/09/27(火) 10:30:02.36ID:f9us/SHP
最近PNG infoのページが色々改修されて使いやすくなった時に併せて変わったんじゃなかったかなD&D
地味に便利になっていって大変嬉しい
0653名無しさん@お腹いっぱい。垢版2022/09/27(火) 10:37:24.31ID:qGWOYR++
ドローマスクもレスポンス上がってたりマスクカラーが半透明じゃなくなったりでちょっとづつ使い勝手よくなってる。
細かいところの修正がほんと助かる。
0654名無しさん@お腹いっぱい。垢版2022/09/27(火) 10:51:59.13ID:zAR+wH3i
あの細かいところまで改善してくれる意欲には頭が下がる。新機能の実装ペースも早いが、気張りすぎてある日突然やる気がぷっつり切れてしまわないか不安になる。
0655名無しさん@お腹いっぱい。垢版2022/09/27(火) 12:25:14.41ID:8WL76/x1
>>651
むしろ、別窓で開いてそこは上書きしてくれないんかい!て突っ込んた
スクリプトの追加改修とか多すぎて全ての機能を使いこなす自信が無くなりつつある
0656名無しさん@お腹いっぱい。垢版2022/09/27(火) 15:04:22.13ID:qGWOYR++
ありゃ? 1111なんか触ってるのかな。
pullしたら、png infoが画像サイズ認識しなくなってどのサイズ読んでも512x512になる。
0657名無しさん@お腹いっぱい。垢版2022/09/27(火) 15:23:19.20ID:9y3DeUOP
画像生成の主な使用用途が2次絵の背景や小物生成と3次元のエロ画像生成なので
sdとwaifu両方使いたいんですがこれって使い分ける場合model.cpktを逐一上書きコピーしないといけないんですか?
automatic1111を使ってます
0661名無しさん@お腹いっぱい。垢版2022/09/27(火) 15:32:54.13ID:kJWK2jti
artroom版0.3.17をArtroom-Setup-0.3.17.exeとArtroom-Setup-0.3.17.exe.blockmapをダウンロードしてインストールしようとした所、
インストール中のプロンプトでTraceback (most recent call last): File "model_downloader.py", line 106, in <module> shutil.copy(f"{userprofile}/artroom/model_weights/upscalers/{model_name}", model_dest)
~~~ERROR conda.cli.main_run:execute(49): `conda run python model_downloader.py` failed. (See above for error)
等とインストール中にエラーが出てそのままインストール完了になって画像生成にうつれないんですが、何が悪いんでしょうか
ちなみにグラボはgtx1660です
0666名無しさん@お腹いっぱい。垢版2022/09/27(火) 18:54:26.02ID:/lKkrvop
1111にモデル合体きたの?
あとdreamboothの必要メモリ17.7GBまで減らせれたってSD-Dreambooth公式に報告上がってた
0669名無しさん@お腹いっぱい。垢版2022/09/27(火) 21:23:28.71ID:xBZQ40lL
昨日のdream booth on cpuをcolab proで動かそうとしたが無理だったな
TPUハイメモリで35GB ramあるはずなんだが
ローカルでは動いた 1エポック8時間かかりそうだが
0675名無しさん@お腹いっぱい。垢版2022/09/27(火) 22:44:15.57ID:n/h/dflA
あ、しまった。5chはページ内アンカーのリンクが無効になるんだよな。
github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#textual-inversion
0678名無しさん@お腹いっぱい。垢版2022/09/27(火) 23:25:12.21ID:E6CsAZO6
1111のTI(お手軽fine tuning)はできたptファイル(もしくはbin)をembeddingフォルダに入れて
実際プロンプトで呼び出す時はファイル名部分をプロンプトに記載する
うんこ.pt なら image of うんこ とか
0679名無しさん@お腹いっぱい。垢版2022/09/28(水) 05:43:04.07ID:fWP92YJ6
1111の保存ファイル名にDenoising strengthの値だけ追加出来ないの不便だなぁ
CFGとかステップ数とかその他色々追加出来るのに、なんでDenoising strengthだけ
0681名無しさん@お腹いっぱい。垢版2022/09/28(水) 08:03:45.59ID:bJP1GYjm
絵が変化する設定要素が増え過ぎて少し昔の絵はもう同じの出せないようになってきた
最適化の有無でも変わってしまうし
0684名無しさん@お腹いっぱい。垢版2022/09/28(水) 09:35:35.27ID:AlqCZz/X
StableDiffusion始めたいと思ってpc見てますけどWindows10とWindows11で何か不都合ってありますか?
StableDiffusion動かせるのは知ってるけど設定面とか機能面で遅い速いなど…
0688名無しさん@お腹いっぱい。垢版2022/09/28(水) 14:23:28.10ID:7zLw3psK
初心者は金かける前にある機材で試して何が足りないか見たほうがいい
普通の去年の20万前後のゲーム機レベルじゃとにかくGPUメモリが欲しくなるわな
0689名無しさん@お腹いっぱい。垢版2022/09/28(水) 14:31:46.21ID:UFA4Isc7
AUTOMATIC1111って複数画像を連続でimg2imgできたりする?
feature showcase見たけどそれらしいのは無かったんだよね
具体的に何をしたいかというと動画を一括でimg2imgしたい
ユーザースクリプト組まないといけないかね
0692名無しさん@お腹いっぱい。垢版2022/09/28(水) 14:59:07.69ID:ueaHWZ0V
>>691
SD1.2-8GB → WD1.2-8GBで使えるようになったけど
後にWD1.2-4GBに入れ替えても使用メモリーは減らなかった

今はAUTOMATIC1111にWD1.2-4GBをコピーしたら使用メモリーが4GBに減ったわ
0693名無しさん@お腹いっぱい。垢版2022/09/28(水) 16:09:15.20ID:4BED1q96
full-emaは生成に必要じゃないデータも乗ってるから大きいだけで、実行時にGPUメモリに乗る分は関係ない(メインメモリにロードされる部分は影響あるらしい?)
なのでfull-ema-pruned版使ってもGPUメモリの上の使用率は変わらない、ってのを何処かでみた。 

AUTOMATIC1111版でメモリ使用率が低くなったのは別の仕組みのはず

それはそれとして、NMKDでWDを含む別のモデルが使えるかどうか?は使える。
Data\models にモデルデータ入れて起動して右上のSettingから使いたいモデルファイルを選べば良い
0695名無しさん@お腹いっぱい。垢版2022/09/28(水) 19:21:53.45ID:yzeNAHQ8
なんか過疎ってるな

ttps://github.com/ShivamShrirao/diffusers/tree/main/examples/dreambooth
12.5gbでcolab proでも動作するdreamboothあるからみんな試してよ
0696名無しさん@お腹いっぱい。垢版2022/09/28(水) 19:37:05.53ID:H2Jq3nv5
もう試したぞ
TIより目や髪型、服装は再現される

だけど同じ構図ばかりや場所の指定が上手く出来なかったから
いろんなポーズの教師データでやってみるわ

使えそうな機能は全身で学習させたら全身を描くようになるっぽい
あとはgregスタイルやネンドロイド化ができるとかか
同じキャラなら漫画とか使いやすくなるはず
0697名無しさん@お腹いっぱい。垢版2022/09/28(水) 19:39:45.22ID:40HYBouK
>>695
使い方分からないけど学習はさせれた
やり方ミスって奇形しか出ないけど学習された服がでてくれて感動した
どういうサイズと形なら奇形になりにくい学習をさせれるのか学習させたデータをどうやって他で使うのか保存させれるのか誰か教えて
0699名無しさん@お腹いっぱい。垢版2022/09/28(水) 19:44:30.45ID:H2Jq3nv5
>>698
設定いじらず1000ステップでguyのまま
ずんだもんでやったんだけど
ノイズだらけだぞ
anime illustration, a sks
でようやくずんだもんが出力された

というかPCから5chに書けなくて
画像あとで貼るわ
0700名無しさん@お腹いっぱい。垢版2022/09/28(水) 19:51:22.42ID:H2Jq3nv5
教師データの画像は5枚しか使ってない
SDとguyでもなんとかなるんだな

guyはおっさんの画像からずんだもんを学習してるのか?

T4で一時間半もかからなかったとおもうわ

保存方法はグーグルドライブに/content/models/sksだっけ?を保存すればいいけど
ckptで保存できるようになるまで待ったほうがいいよ
0706名無しさん@お腹いっぱい。垢版2022/09/28(水) 21:38:36.11ID:E/c/ewVR
このペースだとckpt本体の追加学習?もVRAM16GBで収まるだろうな

あとはdreamboothで学習したあとにさらにdreamboothで学習できるのか気になるな
今のdiffusers版は学習済データが5GBもあるからキャラごとにいくつも保存するより場所取らなくなる
0709名無しさん@お腹いっぱい。垢版2022/09/28(水) 22:00:25.73ID:k+5Dgc4L
エロスレでdreambooth試してる人いるわ
https://mercury.bbspink.com/test/read.cgi/erocg/1664246635/158

ポーズが固定されがちで現実の背景指定すると
リアルになったりそのまま使うのは難しい
プロンプトで補正してあげると良くなる

もっと試してみないとね
0711名無しさん@お腹いっぱい。垢版2022/09/28(水) 22:10:21.99ID:t/J9f/4T
てかふと思いついたんだけどさ
良いプロンプトのベクトルを取り出して数方向に微妙に変化させたベクトルを直でジェネレータに入れたらネットワークの傾向わかるんじゃない?
プロンプト変えて粘るのでもエンコーダのベクトルを一緒に見ると言葉から離れて好きな画像作れそうじゃん
0714名無しさん@お腹いっぱい。垢版2022/09/29(木) 01:59:21.34ID:WERu8ozA
機械学習でのベクトルは次元数が膨大な一本で〜というか
簡単に言うと大量の数字の羅列だ
プロンプトに書けうる英単語の組み合わせのデータがあまり損失なくしまえるくらいのデカさはありそう

で、そのベクトルを直接適当にいじるってのはキーボードを出鱈目に叩いて意味が通る文字列を出さなきゃみたいなことになりかねないわけで
0716名無しさん@お腹いっぱい。垢版2022/09/29(木) 02:53:18.19ID:xwEFLF4F
トークンはたったの77トークンだけど、CLIP通した後は77x768の約6万次元ベクトルだからね

これはいわばプロンプトの文章を読んだAIさんのお気持ちベクトルで、これを元に他のデコードにつなげば、質問に答えたり翻訳したり画像作ったりできる情報が込められてる(ついでにCLIPの場合は画像の情報も入っている。diffusion,VAEが学習してない言語ー画像も伝えられる)

2つのプロンプトから生成された2つのお気持ちベクトルをミックスするのは簡単だけど、素で操作するのは難しそうだ
ちょっとずつずらすにしても6万次元のどれを?ってなる

お気持ちベクトルってのは俺が言ってるだけでembedding vectorだけどw
0717名無しさん@お腹いっぱい。垢版2022/09/29(木) 03:06:32.71ID:gbXlzj26
dockerのautomatic1111でbatch countの最大値増やす方法わかる人いない?
ui-config.jsonは見当たらない
0721名無しさん@お腹いっぱい。垢版2022/09/29(木) 04:00:21.45ID:gbXlzj26
>>720
これのために入れたから全然わかってない…
簡単にできる?
0723名無しさん@お腹いっぱい。垢版2022/09/29(木) 06:48:32.93ID:NFZpXwUG
RTX3080 12GBから3090に変えてみたら、今までAUTOMATIC1111でいっぺんに8枚のバッチサイズで出力できていたのが7枚しかできなくなってしまった
512x512から画像サイズ変えてるわけでもないのに、なぜかメモリ不足と言われる
16枚ぐらいいっぺんに出せるようになると思っていたのに逆になるとは、何が原因なのか分かる方いるでしょうか
起動時の引数は--opt-split-attentionと--listen付けてます
0726名無しさん@お腹いっぱい。垢版2022/09/29(木) 07:51:33.67ID:3bIZzmKe
>>714-716
今はベクトルの次元がとんでもねぇことになってるんだな
数年前のword to vecの感覚だったわ
そして調べたら当然のように入力のサブツールが作られてるのに恐怖してる
やっぱAI界隈すげぇわ
0728名無しさん@お腹いっぱい。垢版2022/09/29(木) 08:17:06.41ID:xwEFLF4F
>>717
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker

docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings

てか、AbdBarhoっていつの間にか、hlky、automatic1111、automatic1111(cpu)、lsteinがコマンドラインで
docker compose up hlky
みたいに切り替えられるようになってたんだね。これは便利

○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。

1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
  例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
0730名無しさん@お腹いっぱい。垢版2022/09/29(木) 08:32:22.70ID:NFZpXwUG
>>724
新品なのと3DMark等では特にエラー出ないので、問題はない気がします
0731名無しさん@お腹いっぱい。垢版2022/09/29(木) 08:36:40.31ID:BqDvV2+y
じゃあCUDAかドライバが古いかVRAMサイズが前のより小さいじゃじゃね?
ハード絡むと問題条件広いから情報少ないとなんとも言えない
0732名無しさん@お腹いっぱい。垢版2022/09/29(木) 08:47:26.95ID:JoWlsKPB
・ドライバが古くて3090のメモリの取り扱いが変
・前のGPUの環境でコンパイルされたPyTorchのキャッシュが残って使われていてVRAMを非効率に食い散らかしている

この二つが主な要因らしい
0734名無しさん@お腹いっぱい。垢版2022/09/29(木) 09:04:58.79ID:gbXlzj26
>>728
できた!
ありがとう!!
0737名無しさん@お腹いっぱい。垢版2022/09/29(木) 14:52:14.93ID:l8oJeMYu
DALLEが登録からの順番待ちではなく誰でもすぐ使えるようになったそうな・・もはやどうでもいいな
DALLEなのかDALLE2なのかもよくわからない
0738名無しさん@お腹いっぱい。垢版2022/09/29(木) 15:40:10.09ID:t+B31qiS
最新版の1111を解凍して中身を丸ごと今使ってる1111フォルダに上書きしたのではダメですか?
それやると動かなくなるので、いつも最新版を最初からインストールし直してます
0739名無しさん@お腹いっぱい。垢版2022/09/29(木) 16:04:36.44ID:hBOaE80N
>>738
上書きで大丈夫な時とそうじゃない時がある
更新履歴読んでもわからなかったら再インストールでも間違いではない
0741名無しさん@お腹いっぱい。垢版2022/09/29(木) 18:10:59.94ID:Qm2fLWPW
そうなるから、面倒でもgitを入れてgut cloneから始めておくといいよね
ときどきgit pullすれば最新になるし全部ダウンロードして解凍して…という手間がない
0744名無しさん@お腹いっぱい。垢版2022/09/29(木) 19:22:38.57ID:DnazhbAU
dockerとかsingularityとかでちゃんと動いていた時のイメージを保存しておくといいゾ
ローカルのconfigファイルとかは新しいの使えなくて作り直しになるかもだけど。
0745名無しさん@お腹いっぱい。垢版2022/09/29(木) 19:43:41.33ID:muNrUVTC
結局colabでBANされたって話全然出てこないな
新開拓分野ということでGoogle様も色々と慎重になっているのだろうか
0746名無しさん@お腹いっぱい。垢版2022/09/29(木) 20:19:56.72ID:tEi+1kHW
>>745
そもそもcolabのBANがどういう感じなのか良く解らん
登録したアカウントごと抹殺されるのかそれともcolabに限っては「使わせねーぞオメー」なのか
0747名無しさん@お腹いっぱい。垢版2022/09/29(木) 20:41:03.10ID:ashDBMz5
ColabでBANというより、GoogleDriveにエロ画像保存してBANみたいな話でしょ

海外だと医者に見せるために自分の子供の裸撮ったらそれがドライブに保存されてGoogleアカウントがBANされた、
みたいなのたまに聞くし

ただ見聞きした限り、NSFW画像をColab上で作ってGoogleドライブに保管してた結果アカウント削除、みたいなのは聞かんな
0751名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:08:53.61ID:ykGLuXiE
1111、アップデート上書きしたら急に使えんくなった・・・
再インストールしてもなぜか初回のみ使える・・・
0752名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:25:58.52ID:9A//EM8C
>>747
グーグルはAIようぽは被害者がいるわけじゃないからグレーになって保留されてるけど
韓国は持ってるだけで2000人くらい捕まったって話じゃん、交換コミュニティー参加者全員家宅捜査で何かあれば別件逮捕も辞さないっていう
そりゃ末端捜査官からすれば、AIも写真も小児性愛者に変わりないわけで現場で詳細なんて比較しないもんな
そこに著作権違反だなんだかんだとごっそりやられたわけで
ここの5chの運営は日本にないわけだし、AI-ARTのようぽも情報交換とかで不特定多数に見える場で表に出す奴が出たら
炎上話題作り大好きな奴が通報なり幼児性愛者の被害にあった親族や団体たきつけたりで動く時はササっと芋づる式にやられちゃうだろうね
安倍テロ以降関係者の威信はがた落ちなわけだし
0753名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:32:44.79ID:T4gRvdNC
児童ポルノの話は少なくとも技術スレではないと思う

AIの話でもない。どっかの児童ポルノスレにでもいったらどう?
0755名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:41:22.40ID:Vs95/5FP
あの暗号みたいなツイは年跨ぎって意味なのかな?
0756名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:54:15.32ID:ashDBMz5
SD1.5に関しては匂わせめいたのばっかで名言されていないはず
Waifuの方はベータのBotも出てるし10/10から更に伸びることは無さそう
0757名無しさん@お腹いっぱい。垢版2022/09/29(木) 21:55:15.86ID:GljARK0b
スレチかもしれんけどstabilityAIは10月には音楽生成AIもオープンソース化するとか言ってたような気がするからそれも楽しみ
0758名無しさん@お腹いっぱい。垢版2022/09/29(木) 22:00:26.83ID:h8T0qHwN
1.5は正直そんな楽しみでもないな・・・。まあ出れば試して遊ぶとは思うけど大きく改善という感じじゃないから。

Emadさんが「Audioモデルを来月出す」といったのは8月だから、発言時点では9月予定だったんだろうけど、
まあこちらもそこまで早く見たいって感じじゃない。

予定より遅いとは言え、フォークがすごい速度で改善されてるし、他のAIも色々出てるから待ってる感じがあんまりしない
0759名無しさん@お腹いっぱい。垢版2022/09/29(木) 22:02:04.93ID:Fcyau3U/
novel AIのツィートの作例が身体全然破綻してなくて、めっさ気になる。アレはdream boothみたいなことをキャラ特化でやってるんだろうか。
0761名無しさん@お腹いっぱい。垢版2022/09/29(木) 22:22:22.42ID:KjKXsu+e
1.5自体はまあまあ楽しみくらいだけど、それをベースにWaifu他が更に発展してくれるんじゃないかって期待がある
0764名無しさん@お腹いっぱい。垢版2022/09/29(木) 22:44:36.53ID:fWLQjVBF
SDのマイナーバージョンアップのたびにWDを作り直しとか非効率すぎるでしょ
SD2.0になるまでそのままだと思う
0766名無しさん@お腹いっぱい。垢版2022/09/29(木) 23:22:28.84ID:h8T0qHwN
Text2Video
https://mobile.twitter.com/hardmaru/status/1575476224880934913

"A teddy bear painting a portrait"
実力はわからないけど、テディベアが絵を描いてるこのツイートの例は出来がいい

ちょっとだけしか読んでないけど、
・言語ー画像生成モデルベース
・ビデオに言語キャプションは不要。 言語説明がなくてどれがどういう風に動くかビデオ自体で学習できる

と書いてる。

以下は推測(妄想)だけど、
(1)静止画の説明の時点で paintingという動きの説明が入っていて静止画がその動きのある時点の画像になっている
(2)動画で学習でそのシーンの動きを補完する
みたいな感じ? (2)なんて膨大なバリエーションがありそうで、デモ用のワードが動くモデルは作れても、汎用的なものは作れないのでは・・・

また多分静止画+アルファ程度の動きしか無理な気がする
https://twitter.com/5chan_nel (5ch newer account)
0769名無しさん@お腹いっぱい。垢版2022/09/30(金) 00:01:46.73ID:6/qjAqjJ
>>766
さっそくEmadさんがこれに対して、ツイートしてるね
・StablityAIで作ってるものはこれよりいいし人々が実際に使うことができる
・多くの作業がるが日々改善している
・いつかは決まってないけどそれほど長くは待たない
0770名無しさん@お腹いっぱい。垢版2022/09/30(金) 02:06:08.76ID:5dqbtLV6
1111でJPGにもプロンプト情報完全記載きたぁ
PNGだとデータサイズでかすぎるからJPGにしてたけど情報なくて不便だったから待望のアップデート

でもトークン計算の仕組みが変わったのかバグなのか何故かアップデート前と比べて増してる
0772名無しさん@お腹いっぱい。垢版2022/09/30(金) 02:20:17.83ID:5dqbtLV6
>>771
これ知らんかった…
今まで意図しないプロンプトになってた…

>従来の方法では文字列を完全には渡すことができず、文字が消えてしまうことがあった為です。
>例えば "a (((farm))), daytime" を入力したとき、コンマ無しの "a farm daytime" として解釈されていました。
0773名無しさん@お腹いっぱい。垢版2022/09/30(金) 06:22:16.78ID:friyMcNu
>- データ量を30万画像から60万画像に増やしました。現在、データセットを単純に200万画像にしようかとも考えていますが、モデルが学習を終えるまでにあと2週間ほどかかることが唯一の問題点です。何か問題があれば教えてください。
>- 学習時には、変分解像度が使用されます。これにより、モデルは、誰かの手足がぐらついたスパゲティーのように見えることなく、様々なアスペクト比の画像を生成できるようになりますし、512x512でない画像にも大いに役立ちます。

WD1.3のこれなんだけど、データ量増えたら単純に画像の精度も上がるってこと?

変分解像度ってのよくわからんけど手足の精度も上がってるってことかな
もとになってるSD以上の手足の描画が可能になるってこと?すごくね?
0774名無しさん@お腹いっぱい。垢版2022/09/30(金) 06:35:40.40ID:Muq4wtmI
waifu1.2は古い東方絵に学習元画像偏ってる割にあの出来だったんだよな
1.3ではそのへん見直すんだっけ?
0776名無しさん@お腹いっぱい。垢版2022/09/30(金) 07:26:46.75ID:ytXpqxJ7
>>770
> 1111でJPGにもプロンプト情報完全記載きたぁ
settingsが
> Save text information about generation parameters as chunks to png files
のままなのがなんとも
png, jpg, jpeg, webpって書かないとなぁ
もしかしてチェック無しでもjpgなら勝手に全部に入るのかと一度実験させられた
0778名無しさん@お腹いっぱい。垢版2022/09/30(金) 08:08:09.94ID:GG88Jchz
新機能としてjpgコメントに生成情報記載しましたとあるけど
大昔からコメントに生成情報記載されてることに今気付いた
なぜ今頃発表したのかわからんけど昔から便利だったわ
jpgの場合はtxtに記録して照合するという地道なことしてたから助かる
0779名無しさん@お腹いっぱい。垢版2022/09/30(金) 08:14:25.36ID:ytXpqxJ7
>>777
細かくてサーセンw

>>771
エロスレこっちより勢い上なんでプロンプト研究の本場かと見に行ったら
純粋にエロプロンプトしか研究してなかった・・情熱
0780名無しさん@お腹いっぱい。垢版2022/09/30(金) 08:22:59.89ID:4lL7N8bu
jpgへの記載は9月中旬くらいには実装されてて便利になったと思ってたが、更新履歴に載ってなかったのか。
0782名無しさん@お腹いっぱい。垢版2022/09/30(金) 08:30:32.39ID:aRP4jRQA
ローポリのカニが全然ローポリじゃないのウケる
0784名無しさん@お腹いっぱい。垢版2022/09/30(金) 09:05:05.99ID:KyJdtNvP
colabのアプデ来たけど金払っても制限キツい
GPU回しっぱなしだと1000円で50時間も回せないように見える
0791名無しさん@お腹いっぱい。垢版2022/09/30(金) 13:44:38.28ID:KyJdtNvP
3060tiが5万切ってたのか。
これからの季節、ストーブ替わりに欲しかった
0793名無しさん@お腹いっぱい。垢版2022/09/30(金) 15:52:38.03ID:Muq4wtmI
>>789
まだエポック数すくな過ぎでクオリティ低いけど
よりアニメ寄りになったりエロ方向が強化されたり手が消えにくくなっているのは分かるな
0795名無しさん@お腹いっぱい。垢版2022/09/30(金) 19:03:24.92ID:CwK19n2g
>>781
そろそろ3Dモデル生成のスレも建てたほうがよさそう
0797名無しさん@お腹いっぱい。垢版2022/09/30(金) 19:18:53.80ID:9IBxqDZh
TIやDBに顔を学習させるときって、背景があったほうがいいのかね?
全て白背景で統一させて学習させるとなんかうまくいかない気がする
0800名無しさん@お腹いっぱい。垢版2022/09/30(金) 19:49:44.90ID:DioWwCCP
誰も使ってないソフト使っても
誰も助けてくれないから
みんなが使ってるAUTOMATIC1111版を使ったほうがいいよ
0801名無しさん@お腹いっぱい。垢版2022/09/30(金) 19:52:48.03ID:tABpeLwU
「CUDAとcudnnをインストールした」ってなんだろう?
ドライバは普通のnvidiaのドライバーインストールすれば必要なものは一緒に入るはず

nvidia-smi を実行すればなにか分かるかも
0804名無しさん@お腹いっぱい。垢版2022/09/30(金) 20:40:42.64ID:Telff1dH
同じく超初心者なので何言ってるのか自分でもわからないけどNMKDのフォルダーを他のフォルダーの中に入れたままにしとくとエラー吐くらしい、とredditで見た
ので、自分の場合はデスクトップに直接フォルダーを移動したら正常に動くようになったよ
0805名無しさん@お腹いっぱい。垢版2022/09/30(金) 20:43:00.83ID:c54DcM/V
トラブってる人って高確率で公式の説明書に書いてないCUDAToolkitとかCUDNN入れてるよな
どこ見てるんだろう
0807名無しさん@お腹いっぱい。垢版2022/09/30(金) 20:58:25.05ID:Qgi5yFhD
一番最初の頃参考にしたページにCUDAtoolkitがいるとか書いてあった覚えがある。まだwebuiもないころだけど
0808名無しさん@お腹いっぱい。垢版2022/09/30(金) 20:59:56.01ID:ZMTmb8Jt
toolkitのフォルダを捨ててNMKDのフォルダをデスクトップに移したらいけました!
ありがとうございます
0810名無しさん@お腹いっぱい。垢版2022/09/30(金) 23:04:55.39ID:2k58coox
エロスレ35にあったスタンドアローン版のSD1111を使おうと思ったのですが画像生成後にエラーがでて止まってしまいます
GPUが1050tiなのでそれが原因なのかと思ったのですが調べて見ると1050tiiでもなんとか使えている記事や書き込みもあるのでよくわかりません
メモリ不足で落ちてるんだとは思うんですが、原因わかる人いたら教えてください

https://i.imgur.com/SzlWnca.png
https://i.imgur.com/HUfgNEt.png
0812名無しさん@お腹いっぱい。垢版2022/09/30(金) 23:46:51.14ID:f7EHza94
>>810
エロい35です(違
NOTEの最後に低VRAM時の対応方法を追記しました
動作を保証するものではありませんが試してみてください
0813名無しさん@お腹いっぱい。垢版2022/10/01(土) 00:23:08.31ID:BIgqd/6d
medにしたらエラーこそ出ませんでしたが生成された画像が真っ黒になってしまいました
lowvramに変えても変わらず
古いバージョンの探してみてだめだったら諦めます
ありがとうございました
0815名無しさん@お腹いっぱい。垢版2022/10/01(土) 01:09:16.33ID:qiLPlsEG
自分の1050tiの環境では最新版1111で問題なく動いてるよ
GPUドライバ更新してみるのも手かも?
あとは裏でGPU占領してるアプリないか確認するとか
0823名無しさん@お腹いっぱい。垢版2022/10/01(土) 03:57:26.16ID:EH5Ekqfo
>>822
バッチファイル内のPYTHONは実行ファイルそのもののパスだから、python.exeまで書かないとだめだと思う
0824名無しさん@お腹いっぱい。垢版2022/10/01(土) 04:49:54.53ID:BIgqd/6d
Pythonのパスをちゃんと指定して本家起動成功しました
しかしこちらでも黒塗りの生成画像になりました
lowvram 64x84 セーフフィルタにひっかからなさそうなワードでやってみても駄目だったのでなんか無理そうです
https://i.imgur.com/K45w5fm.png
0828名無しさん@お腹いっぱい。垢版2022/10/01(土) 06:13:35.33ID:Vi4rn4bV
自分が昔なったのは、980tiで
windowsがやたら古くて、nvidiaのドライバも最新にできなくてのoomだったなぁ
CUDAがあるのに反応してない感じ

コマンドプロンプトでnvidia-smiが直で動かないレベルの古さだった
デフォでパスが通ってなくて
C:\Program Files\NVIDIA Corporation\NVSMI
から起動とか
0829名無しさん@お腹いっぱい。垢版2022/10/01(土) 07:08:45.77ID:VKF6RJPh
colab料金体制変わったみたいだけどなんかcolab離れを宣言してる人も多いな
これ課金勢が離れて逆に無課金でも使いやすくなったりしてな
0830名無しさん@お腹いっぱい。垢版2022/10/01(土) 07:09:47.42ID:GHegVTzh
AI画像よりやっぱ人が描いてる方がいい絵ができると思うわ。体型や輪郭とか苦手すぎる

https://i.imgur.com/wdpyGCx.png
0831名無しさん@お腹いっぱい。垢版2022/10/01(土) 07:17:39.21ID:UoqpaC+y
colabは異常に安すぎたから仕方がない
月1000円でT4を24時間×30日ぶん回そうとするとか一部のユーザーも悪質過ぎたわ
善意を前提にした共有財の仕組みは必ず崩壊するという経済学の教科書みたいな現象
0832名無しさん@お腹いっぱい。垢版2022/10/01(土) 07:40:13.77ID:aXbs602n
>>830
モデルかえればいいじゃん。好みの絵を学習させて追加してもいい
どのモデルを使ってどうプロンプト入れたのか書かなきゃ、AIが悪いのか操作しているお前がポンコツなのかわからんだろ?
まだ公開されて一ヶ月だぞ、ここで脳死判定で切り捨てるのは勝手だとは思うが、ここまでの学習量よりもこれからの学習量の方が圧倒的に大きい分野なのにせっかちというか未来を見る気がないというか視野が狭すぎる
入社一ヶ月で今年の新人使えねーとか言ってる出来ない人間の言い訳見てる気分だ
やっべー今日徹夜で仕事がはかどらんわ~とか言ってないか?会議で主題けなすだけの自己主張してないか?気を付けたほうがいい
主軸になる次のモデルの公開は10/10以降の予定だし、気長に待ってまた来いよ。
0833名無しさん@お腹いっぱい。垢版2022/10/01(土) 08:01:59.26ID:UoqpaC+y
waifu1.3の学習が今のペースだと10/8くらいには終わりそうな感じだから
これ以上の延期はなさそうだな本家SDはどうなってんだろ
waifuなんて東方オタの個人がやってるだけなのに何で本家のアニメモデルが遅れ取ってるんだ
0836名無しさん@お腹いっぱい。垢版2022/10/01(土) 08:32:15.70ID:L9XhTX3g
Colabなんか制限きつくなったのか…大丈夫かな
と思って調べたけど自分は無課金だから関係なかった
これからもゆるくお世話になります
0837名無しさん@お腹いっぱい。垢版2022/10/01(土) 08:36:00.11ID:OC2XuDzl
俺も特化学習させてみたいんだけど時間はどれくらいかかるもんなんだ?RTX4090でどれくらい早く学習させれるんだろ
0840名無しさん@お腹いっぱい。垢版2022/10/01(土) 10:44:09.30ID:tdNQVcOm
本家はもうサイトでベータテストしてるからモデルはほとんど出来上がってるはず。
なので、v2とかv3がもう見えているのであんまり1.5はオープンでやる気ないのかも。
0841名無しさん@お腹いっぱい。垢版2022/10/01(土) 12:15:19.43ID:L9XhTX3g
Colab無課金ユーザーだけど今普通に使用量上限で止められてるので普段通りです

ところでStable Diffusion UI(webUIではない)がアプデでだいぶ使いやすくなってる
ちゃんとしたGPU持ってる勢は知らんけど、ローカルCPUで生成に10分以上かけてもいいゆるふわ勢には朗報なんじゃないか
Waifuにも対応したらしい
0842名無しさん@お腹いっぱい。垢版2022/10/01(土) 12:55:47.72ID:L6YzsVrn
そのcolabももう半月以上「使用上限に達した」って出っぱなしで接続出来ねーわ
課金しようかと思ったが手持ちのクレカは対応してねえしやってらんね
0843名無しさん@お腹いっぱい。垢版2022/10/01(土) 12:56:35.16ID:fwnHfBUF
Stable Diffusion UIはシード値が変で微妙だった
公開されてるシードとプロンプトを入れても同じ絵にならなかったし
他のと処理方法が違う気がする
0844名無しさん@お腹いっぱい。垢版2022/10/01(土) 13:01:23.53ID:wMaLWiJU
colab1日半で40ユニット消えた
もう画像AIには使うなってこったな
0849名無しさん@お腹いっぱい。垢版2022/10/01(土) 13:54:55.56ID:UoqpaC+y
プラスのイメージの単語だと白人しか出てこない
アジアを連想させる単語を使うと一気に顔がブサイク化するとかまあそっち方面も露骨だしな
有名になるにつれてどんどん面倒くさくなっていくわな
0850名無しさん@お腹いっぱい。垢版2022/10/01(土) 13:58:34.57ID:f2xPk21y
コンプライアンスって、ポリコレとかそういう方面なのかな?
それなら既に1.5でサービスしてるDreamStudioはどうなんだよ、って気がするけど
0851名無しさん@お腹いっぱい。垢版2022/10/01(土) 14:03:02.08ID:kAuQ76Il
しかし言うならこんなリプ先じゃなくてちゃんとツイートで言ってくれないかな
ポエム書かれても困るんじゃ
0852名無しさん@お腹いっぱい。垢版2022/10/01(土) 14:04:31.24ID:f2xPk21y
>>849
> プラスのイメージの単語だと白人しか出てこない

8枚だけだけど、性犯罪者描かせたら全員白人男だったな

まあネガティブなワードでどの人種だと思う?って試すのは厳しい
人間に描かせたってバイアスはある。多分日本人に描かせたら日本人を描くだろうし。
0862名無しさん@お腹いっぱい。垢版2022/10/01(土) 14:55:42.52ID:Vi4rn4bV
ワッチョイなんていらんでしょ、現状上手く回ってるがな
んなもん入れたら速攻過疎るぞw
今でもう総合の1/3の勢いなのに
0863名無しさん@お腹いっぱい。垢版2022/10/01(土) 14:57:47.96ID:UoqpaC+y
個人オタがやってるwaifuはSDをファインチューニングしてるだけだから
SDの進化が停滞すると影響が大きいな
0865名無しさん@お腹いっぱい。垢版2022/10/01(土) 15:33:10.40ID:Vdyu2xTW
Emadくん実はもう用済みなんよな
1.5も所詮は画像の選別に力をいれて再トレーニングしてるだけ
いいヤツだったよ
0867名無しさん@お腹いっぱい。垢版2022/10/01(土) 16:28:35.24ID:AVd8v30I
そもそもそれだってどこまで本当なのかわからんw
0868名無しさん@お腹いっぱい。垢版2022/10/01(土) 16:31:09.07ID:Vdyu2xTW
>>866
それはクソデカデータセットからどうやって軽いモデルを作成するかの部分だからポリコレとか関係ないよ
たとえば今色んなアルゴリズムを使って省メモリ&高速化や機能追加されていってるがそれと同じ範囲

StableDiffusionというオープンソースのプログラム本体と
StableDiffusionで問題視されてるモデルの中身や出力結果の話は別やで
0870名無しさん@お腹いっぱい。垢版2022/10/01(土) 17:16:28.31ID:Njq4kW0U
PNG Infoの内容や、txt2imgを終えてSaveボタンの下に表示される情報をクリップボードに入れるボタンがほしくなってきた
あとBatch Countを1に戻すボタン

ワッチョイ不要に一票
0872名無しさん@お腹いっぱい。垢版2022/10/01(土) 17:35:54.59ID:UoqpaC+y
モデルは公開せずAPIやWEBでの提供限定の方向へ向かっていくんだろうけど
Ver2くらいまでは規制前に配布されるものかと思っていた
0873名無しさん@お腹いっぱい。垢版2022/10/01(土) 18:07:02.20ID:hIZtW67O
でもそれをし始めると当初の目的であったモデルがクローズドであることへの対抗って話に反するから、
公開しなくなった瞬間にそれなら資本投入しまくってる大手企業が出してるモデルでいいやってなってく気もする
0879名無しさん@お腹いっぱい。垢版2022/10/01(土) 18:43:41.20ID:hIZtW67O
実際に被害にあった人が生成されてるわけでもなく、
作られた絵なわけだけど、本当の児ポと比べて何が問題であるか?
というのはあんまちゃんと考えられずに言われてるように思う(現実のリアルな児ポ画像が学習に使われてるってんならそれはまずいようにも思うが)

が、この話このスレで続けんの??AI画像生成技術のネタとしてはだいぶ外れてってない??
0883名無しさん@お腹いっぱい。垢版2022/10/01(土) 19:21:24.47ID:ZlvEkWJH
古いグラボで出せるからって粘ってたけど3060に換えたわ
めっちゃ快適でポンポン画像が出てきて助かる
VRAMに余裕があって裏でブラウザ開いたり画像整理できるようになったのもいい
0885名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:04:08.27ID:fwnHfBUF
>>845
https://zenn.dev/o_ob/articles/stable-diffusion-dream-studio-guide
この記事にある生成画像と同じように
シード=1457915964 ステップ数=50 Cfg Scale(Guidance Scaleのことらしい?)=20にして
Stable Diffusion UIでCPU処理した結果がこれ

A dream of a distant galaxy, by Caspar David Friedrich, matte painting trending on artstation HQ
https://i.imgur.com/fLw6QXD.png
Dancing Hatsune Miku in Minecraft Trending on pixiv HQ
https://i.imgur.com/EnSkdXb.png
0886名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:17:18.78ID:ZlvEkWJH
サンプラー合わせてる?
webUIのデフォルトはeuler aで絶対に他の環境とは合わない類いのサンプラーだけど
0887名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:21:19.51ID:yof0YgXJ
サンプラーが違うんだろ。そのURL見るとK-LMSだけど、このスレにあがってるのはほとんどがEuler a
サンプラーや画像サイズ、場合によってはバッチサイズも生成画像に影響する
0888名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:23:09.13ID:EaHzSBwy
初期の頃に、シードからノイズ生成するのにtorch使ってるから
CPU版ではシードが同じでも生成されるノイズが違うんで絵が変わりますって話があった気が
0891名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:44:46.80ID:A7NX5sp7
>>615
しばらく見れてなかったから今知ったが
CPUで学習できるようになってたんか
ピンポイントでたまに学習するだけなら、無理に最高級GPUなんか買う必要はないな
0893名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:47:50.30ID:fkTRFHz9
メインメモリとGPUメモリを統合して動作してくれる夢の環境が欲しいわ
リサイズバーとか何とか駆使して国家的事業規模でやってほしい
0894名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:48:22.64ID:79MXeKqV
これやっぱ本格的にやるなら1111版入れた方が良いんかな?
0896名無しさん@お腹いっぱい。垢版2022/10/01(土) 20:56:34.65ID:tdNQVcOm
1111の独自機能が優秀すぎる。開発者でもない限り、pythonの仮想化とかしてもほとんど意味ないんだから普通にgitとpython を入れてgit installが1番無難。
0897名無しさん@お腹いっぱい。垢版2022/10/01(土) 21:04:12.36ID:UoqpaC+y
1111が強力過ぎて他が更新する気なくしてるのがやや不安要素な気もする
もっと競争が働くかと思ってたら1強状態になってしまった
0900名無しさん@お腹いっぱい。垢版2022/10/01(土) 21:48:21.57ID:NUK6SBve
AUTOMATIC1111版
まったく同じ設定のはずなのに丁度1週間前に出したのと出力が違うわ
()とか使ってない2語のみのプロンプトなのに
opt split attentionがデフォで有効になったのは19日で
これとは関係ないはずだから最適化とかで色々変わってるのかな
0902名無しさん@お腹いっぱい。垢版2022/10/01(土) 22:31:46.98ID:L9XhTX3g
>>890
最初に生成されるノイズが違うってことなら、つまりシードの互換性がないってだけかと思ったけど違うの?
今後全く同じ絵を再生成しないとだめだとしても、プロンプトの研究とかには普通に使えるのでは
0903名無しさん@お腹いっぱい。垢版2022/10/01(土) 22:42:52.74ID:7y7txtGR
>>901

中世キャラを教えたはずなのになのにsks guy hunting in the forest って指定してるのに悉く銃を持参してくる理由がわかったわ
どうりでregurarization画像に弓兵突っ込んでも解決せんわけだ
0905名無しさん@お腹いっぱい。垢版2022/10/01(土) 22:50:42.81ID:xhqKZK96
どういうプレースホルダーにするのが正解なんだろうな
オリジナルで接頭語みたいのつければいいのか?
0906名無しさん@お腹いっぱい。垢版2022/10/01(土) 22:57:51.10ID:lBuKVnEi
>>885
AUTOMATIC1111版のことだよね?前に同じこと思ってgithubの掲示板で聞いてみたことがあって、その時の返事はプロンプト解析の実装が他と違うのでトークンの重み付けが微妙に違うとかなんとか言う話だった
0907名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:09:42.07ID:ZlvEkWJH
TIの話だけどなんか変だと思ったら混じってる単語の要素が混入してたことがある
上の例に合わせると、sksholderってプレースホルダーにしたらsks銃も出てくる的な
結構デリケートかもね
0908名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:18:19.67ID:fwnHfBUF
>>902
体感でしかないけど、Google Colabで生成したのと比べるとなんとなく絵が微妙な気がする
CPUでクッソ時間かかる割に失敗か…みたいのが多くて研究する気になれない
絵の傾向が変わるなら、CPU版で研究したノウハウをGPU版で流用できるかも微妙

>>906
俺が言ってるのはcmdr2版のStable Diffusion UIの話
0909名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:28:47.77ID:hIofvoJc
Textual Inversionでナニを学習させたとき、<Chimpo>で学習させたらチンパンジーの画像が混ざりまくるようになったのを思い出した
0910名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:28:51.85ID:yof0YgXJ
今のプロンプトのノウハウなんてすぐゴミになるよ
もちろんローカルプログラムだから環境保存しとけば10年後でも今のSDやプロンプトは使えるけど
どんどん改良されて便利なのが出るはずだから使う気になれないはず
そんな細かいレベルで試行錯誤してたら、バージョンアップで今の作業の不毛さに気付かされたとき首吊りたくなるぞw
0912名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:32:54.77ID:wcvpb0AW
>>910
そんなことわかったうえで楽しんでるんじゃあないか
今話題のテレビやアニメやゲームと同じようなものさ
何も残らないけど、きっと思い出は残るのさ
0916名無しさん@お腹いっぱい。垢版2022/10/01(土) 23:52:19.38ID:NUK6SBve
WDでTI作るときはgirlじゃなくて1girlにすればよかったのか?
colabで3時間かけて作ったけど
あそこら辺の設定は4chanのガイドになにも書いてなかったから
よくわからないでやったんだよね
0917名無しさん@お腹いっぱい。垢版2022/10/02(日) 00:00:13.43ID:DQJpZnpH
不意に思ったんだけど、元々自然言語解析がベースなんだから
「,」より「\n」の方が前後関係断ち切る力が強いんじゃないかと思ってテスト
モデルデータは素のSD1.4

上が「a girl, a cat」5トークン
ランダムシードで20枚、少女と猫が融合したのは9枚
下が「a girl \n a cat」5トークン(嬉しい誤算で改行コードも1トークンだった)
上と同じシードで20枚、融合した9枚中8枚の分離に成功 右下だけ失敗

https://imgur.com/a/0LigiXV

使い道は限定されそうだけど効果はあるかも
0921名無しさん@お腹いっぱい。垢版2022/10/02(日) 00:39:10.12ID:QOWU4dCG
単語並べるのに慣れすぎて、本来はclipに伝わるよう文章的に表現するもので
女の子と猫ならそもそもa girl and a catとするべきところ
カンマで置いたら「女の子、猫」だからそりゃ混ざる率が高いのも当然だと思うんだが
0923名無しさん@お腹いっぱい。垢版2022/10/02(日) 01:21:47.15ID:7uqvN1DX
¥rは用途選ぶけど、結構効果あったよ。
a girl with red hair and a boy with blue hair
ってやると、ほぼ確実にどっちかは無視されて赤色か青色一色になる。
けど
¥r a girl with red hair ¥r and ¥r a boy with blue hair
ってやると、ちゃんと塗り分けてくれる。
0924名無しさん@お腹いっぱい。垢版2022/10/02(日) 01:26:31.39ID:W/5jL9Ma
苦手とされてたオブジェクト切り分けがそれで本当にできるなら面白いな
スタイル指定のかかりはどうなるんだろう?
0925名無しさん@お腹いっぱい。垢版2022/10/02(日) 01:32:03.94ID:7uqvN1DX
ただ、 2要素混ざると片方は切り分けなかった。
¥r a girl with red hair green eye ¥r and ¥r a boy with blue hair black eyeだと、髪か目のどっちかが無視される。
0926名無しさん@お腹いっぱい。垢版2022/10/02(日) 01:36:37.90ID:p7rx7QXQ
エロスレではトークン単位で分けられてるから前後の意味を見てない的な話になってたけど
実はちゃんと意味のある文章の方が正しく伝わるのけ?
0927名無しさん@お腹いっぱい。垢版2022/10/02(日) 01:41:04.38ID:7uqvN1DX
伝わるのと伝わらないのがある。
動きを伴う場合は文章の方が圧倒的に理解してる。理解しすぎてwaifuやtrinartの範疇から外れてリアル画像吐く。
そうじゃない付随要素は文章関係ない。
エロスレは特性上、付随要素が圧倒的に多いからそっちの進化が凄すぎるだけだよ。
0930名無しさん@お腹いっぱい。垢版2022/10/02(日) 05:24:13.16ID:A898oRlb
あーもーインペイント全然いい感じにならん
インペイント上手く出来てる人は設定とかどうしとんやろ
マスクをphotoshopとかで細部までやってんのかな
0931名無しさん@お腹いっぱい。垢版2022/10/02(日) 05:35:44.58ID:Fs36I157
Coleb版、モデル見てみたら
本家のモデルとOldmodel\oldmodelってのしかないんですが
waifuとかtrinart2みたいな二次元特化モデルは使えない?
0932名無しさん@お腹いっぱい。垢版2022/10/02(日) 05:54:20.15ID:slhWu3wJ
でぃすこにWaifu1.3について正式アナウンスがきてたので抜粋してコピペ(deepL翻訳)

これを緩和するために、私たちはある組織と提携し、オープンソースAIを前進させ続けることを支援します。Unstable Diffusionとのパートナーシップを発表することに興奮しています。
私たちは、AIをトレーニングし、一般向けにリリースするための研究とリソースを共同で提供します。

Unstable DiffusionのDiscordはこちらです:

ttps://discord.gg/unstablediffusion


彼らは、@Cafe - かふぇとともに、Waifu Diffusion 1.3 を完成させるために、私たちの計算コストに多大な貢献をしてくれています。
私、そして私たちのチームのすべての開発者は、彼らの多大な支援なしには、現在の Finetune の完成はあり得なかったので、彼らへの惜しみない感謝を捧げます。
(いやマジで、Finetuneは3.5kドルもするので、彼らなしでは全く不可能だったでしょう)



ttps://twitter.com/cafeai_labs/status/1576299756376457216


HuggingFaceにアップロードされたプレビューのチェックポイントはこちらです
(トレーニングが完全に終了していないため、エポックが終了次第アップロードされることにご注意ください): ttps://huggingface.co/hakurei/waifu-diffusion-v1-3
https://twitter.com/5chan_nel (5ch newer account)
0935名無しさん@お腹いっぱい。垢版2022/10/02(日) 06:36:34.21ID:qkajZ2Qm
ん・・?違うな
3回くらい連続でうまく出てきてよっしゃーって思って次3回やると全然出なくなったりする
見せようとgridでバッチだとseed+1ずつだから覿面というか
0936名無しさん@お腹いっぱい。垢版2022/10/02(日) 07:32:26.98ID:ARM/1QrW
自然言語自体が元々極めて曖昧である以上細かい指示を出すのは無理だろうな
a girl and a boy with black hair.でgirとboy両方黒髪だってのが文法的には正しい解釈だし
(日本語でも黒い髪の少女と少年で両方黒髪だよね)
0937名無しさん@お腹いっぱい。垢版2022/10/02(日) 07:51:56.43ID:jjMCo+wc
自然言語でも指示自体はできるんだよ。書き方しだいで曖昧にも細かくもできるんだから人間側の問題でしかない
機械翻訳だとこうかけばきちんと区別してくれるんだけど、今のSDだと区別してくれないってだけ
a girl with black hair and a boy with red hair
a black haired girl and a red haired boy
0939名無しさん@お腹いっぱい。垢版2022/10/02(日) 08:34:36.22ID:NEy90BTD
>>732
ありがとうございました。PyTorchのキャッシュだけ消す方法がよく分からなかったので、22H2にするついでにクリーンインストールしたら12まではバッチサイズ増やせるようになりました。(ついでにHyper-V+GPU-Pで仮想化したら色々便利にできました。)
>>733
nvidia-smiはもともとPython.exeとかのメモリ量が全てN/Aになってて今ひとつ当てにならんようでした…
0940名無しさん@お腹いっぱい。垢版2022/10/02(日) 09:23:14.16ID:qkajZ2Qm
733だけど、何がメモリ使ってるか具体的な名前を確認してみたら?って意味だった(量ではなく)
メモリカツカツなら立ち上げっぱなしのブラウザとか影響するし
N/Aはnvidia-smiのusage部分がwindowsのWDDMに対応してないかららしい

ちな自分はブラウザのハードウェアアクセラレーターやら全部殺して
explorer・python・shellexperiencehost
の3つしか載せないようにしてる
0941名無しさん@お腹いっぱい。垢版2022/10/02(日) 09:28:43.82ID:jjMCo+wc
昨夜チェックしたらdwm.exeだけで1GB、chromeが500、edgeコントロールが500
この三つで合計2GBだった。おまえらVRAM食いすぎだろ・・・
0943名無しさん@お腹いっぱい。垢版2022/10/02(日) 09:47:22.09ID:qkajZ2Qm
嘘嘘
nvidia-smiに出ないだけでタスクマネージャーの詳細に列追加してみたら245M使ってたわ・・
(デスクトップ描画してるんだから当たり前じゃ)
0944名無しさん@お腹いっぱい。垢版2022/10/02(日) 10:12:45.57ID:vdGmB8rS
絶対にやり方あってるのに1111が導入できずに2日くらい苦しんでたけどNMKD起動しながらだと出来ないだけだったわ。1111が早くやりたすぎてNMKD回してたのがあだになってた
0951名無しさん@お腹いっぱい。垢版2022/10/02(日) 12:58:43.48ID:x0aIYxXC
>>949
なるほどなあ、いいこと聞いた
ネットカフェってそういう使い方ができるのか

その場合って環境構築どうやってるの?
毎回色々ダウンロードとかインストールとかしてると時間かかりそうな気がするけど
外付けのSSDとかに必要なファイルとか入れとけば、わりとすぐに使えたりするのかな?
0952名無しさん@お腹いっぱい。垢版2022/10/02(日) 13:01:01.23ID:mHMv271t
waifu1.3は5人くらいのキャラを同時に出せるようになってるな
髪と目の色を個別に指定できないのは当然そのままだが
0955名無しさん@お腹いっぱい。垢版2022/10/02(日) 14:11:46.74ID:mrP7hchx
DreamBoothをVRAM10GBで学習できる奴が出たらしいぞ
0956名無しさん@お腹いっぱい。垢版2022/10/02(日) 14:13:47.82ID:x0aIYxXC
>>953
なるほどありがとう!
おうちで環境構築できない勢だから前向きに検討してみる
近所のネットカフェのGPU調べないと

>>954
立て乙だけど、KOROKOROなしでIPありのワッチョイとは斬新な
これ使うの?
0957名無しさん@お腹いっぱい。垢版2022/10/02(日) 14:29:51.09ID:GMzMU2KL
次スレうんこマン湧いてこないようならワッチョイ継続で
ワッチョイ関係なくうんこマン湧いてくるようなら次次スレはワッチョイ無くせばええんや内
0958名無しさん@お腹いっぱい。垢版2022/10/02(日) 14:45:50.40ID:FE7mH/3h
>>956
単純にミスっただけなのだスマヌ

総合スレや愚痴賛美スレに行くべき書き込みが増え過ぎた
立て直すにしてもワッチョイ付きで頼む
0959名無しさん@お腹いっぱい。垢版2022/10/02(日) 14:51:26.89ID:p7rx7QXQ
いうほど増えすぎてるか?
平時はほとんど書き込みないしそういう話題になったとしても10レスも続かんうちに軌道修正できてんのに神経質過ぎない
まともな技術話題が流されてるってんなら分かるけども。
0961名無しさん@お腹いっぱい。垢版2022/10/02(日) 15:01:32.26ID:BeFS+3v2
自治気取りとそれに便乗したA・RA・SHIが暴れてるイメージ
10レスも20レスもスレチの続くようならだめだけど
0963名無しさん@お腹いっぱい。垢版2022/10/02(日) 15:20:42.33ID:x0aIYxXC
自分もNGしたくなったときにNGしやすいからワッチョイは賛成
IPはともかくKOROKOROのせいで書き込みにくくは別にならないだろうし
0964名無しさん@お腹いっぱい。垢版2022/10/02(日) 15:53:37.99ID:iq5I3rQV
>>900
週末にカンマ解釈の変更時にトークン解釈周りの修正の入ったから影響はあるかもしれんな
設定ページも先週初めと今じゃ項目がだいぶ変わってるし別物だと思った方がいい
まぁ当たり前のことだがAUTOMATIC1111版に限らず、残したいトークン設定と環境は一緒にしておかないとだめだよ
幸いgit関連のアップデートだけなら戻すか再構築すればまだ間に合う
今後モデルを変えたりもするだろうし、アップデート内容もわからずおかしいとかいうような環境管理は自業自得と言われるようになる
0966名無しさん@お腹いっぱい。垢版2022/10/02(日) 16:36:10.49ID:FUw7jFl5
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/

カウンターで立てたよ、IDのみ
話題メインのSDを先にした、ワナビ臭いって言われた文言変更、間違ってるリンクも変更
954とかでいきなり先行して立ててくる時点で荒らしなんで
んなやつ一人に同意もなしに6スレもやってきた方針勝手に決められたらたまらんわ
0970名無しさん@お腹いっぱい。垢版2022/10/02(日) 18:50:25.51ID:Fs36I157
StableDiffusionUI-Voldemort V1.2.ipynb - AUTOMATIC1111版が昼くらいから502badになってつながらなくなったんですがセルがどこかおかしくなってるんでしょうか
その前にwaifuモデルを使おうとgoogleドライブから読み込めるようにしようと触っていたのでそれでどこかおかしくなったのかもしれません

https://i.imgur.com/Vulz1nI.png
0971名無しさん@お腹いっぱい。垢版2022/10/02(日) 19:32:23.11ID:y5QmcMOl
>>966
good
0972名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:13:27.23ID:mHMv271t
waifu1.3学習が進むにつれて面白みのないアニメ絵になっていくんだな
手足の改善は確かに見られるけどこれではな。。。
0976名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:35:37.43ID:tDQ31oJa
>>966でいいでしょ
特に荒れてないのにワッチョイにする意味がない
・・・というかワッチョイになってないwあまりにアホすぎるよアンタ>>975
0978名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:41:30.37ID:Su9hQ3GC
ワッチョイ入れるのはどっちでもいいけど(本格的に荒れるまでいらん気もする)
IPは流石に無駄に勢い削ぐだけやろ。エロスレが本スレになってしまう

今回は>>966でええ
0979名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:42:50.98ID:DYkLDzWk
完全に自己満足だけど特定の作家の画風を指定せずかわいい2次絵描くには
どういうのがいいか研究してる。
でもCGとかillustrationと指定した時点で誰かの絵を模倣しているから意味ないよね
0983名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:46:29.49ID:Su9hQ3GC
怪しい雰囲気になったら次はワッチョイも検討みたいな感じでいいと思う

IPは平気な人は平気でも
せっかく素晴らしい知識がある人がIPだから来なくなったらスレの損失だと思うので明確に反対
0984名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:48:14.06ID:tDQ31oJa
ああ、なるほど、こうやって雰囲気悪くするのか
勝手にワッチョイで立てて、IDで立て返されたら分裂荒らし呼ばわり
とっても勉強になったわ、こいつみたいなの
ID:/atAZsX2

5 :名無しさん@お腹いっぱい。[sage] :2022/10/02(日) 20:36:31.34 ID:/atAZsX2
こっちにも書いとくけど荒らしか知らんがスレ分裂させるんじゃないよ
どっちメインかささっと決めてどっちか落としなはれ
0985名無しさん@お腹いっぱい。垢版2022/10/02(日) 20:48:46.81ID:/atAZsX2
5chのスレ削除って今ちゃんと稼働してるの?
もう10年くらい機能不全になってるイメージだが

あと1000ならSD 1.5くる
0992名無しさん@お腹いっぱい。垢版2022/10/02(日) 21:18:03.13ID:1snGnteZ
ほっといてもこのスレいずれ無くなるんで荒さないでください
技術力ある人いなくてただの初心者質問スレになってるし
0996名無しさん@お腹いっぱい。垢版2022/10/02(日) 21:22:30.95ID:e6cuAVcP
過去わりと技術的に内容があることや、検証した結果とかを何度か書いてきたけど、
何日か前の3Dとかオーディオとか新しい技術が出てきて、とどめにテスラのロボットが出てきたから
追うのに忙しくてここに書くどころじゃない感じw
10011001垢版Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 13日 8時間 10分 23秒
10021002垢版Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況