X



【Midjourney】AI画像生成技術5【StableDiffusion】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 08:58:08.25ID:7eP1MleX
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/
0003名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 10:06:01.89ID:P+USYJFh
Red ballだとseedによっては白いボールを出す時があるんだよね。わけてみたりまとめてみたりする。
‘’で括ったりしても、あんまり効果見えなかったりこの辺はやっぱ呪文よね。
0004名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 10:13:24.25ID:NiqPjgfP
SDってテキストと物体の関連付けは高いと思うけどUnetの識別能力が微妙だな
似たような色と形状があるだけで誤認識して勝手にそこに描き始める
名状し難きクリーチャーを見るの疲れたわ…
0007名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 10:41:46.53ID:qrbDdxqv
いや,ねんどろいどは二頭身だからだろ

Automatic1111版またスクリプト追加してるな
Pullするたびにアプデあって気持ちいい
0008名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 10:48:22.70ID:/4z4a+7R
clip frontでhiとかのdetail系だけパッとなんとなくで見た感じだけど案外違うんだな…

 hi detail 顔イラスト hi detailed 顔イラスト
 hi-detail 絵画 hi-detailed 顔イラスト

 high detail 建築・絵画 high detailed 雑多
 high-detail 建築・絵画 high-detailed 雑多

 highly detail 描画 highly detailed ミニチュア・フィギュア
 highly-detail 絵画 highly-detailed 雑多

 hyper detail 特定ブランド hyper detailed 細かい描画
 hyper-detail 特定ブランド hyper-detailed 細かい描画
0009名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:01:35.34ID:2OMfWC8V
ねんどろいどは
2等身で512x512におさまりやすい
通販ショップやレビューサイト等の物撮りで品質と構図が安定している
顔が占める面積がデカい
抽象化されていて細部の情報量が少ない

ここらで概念化がスムーズに行ったんだろうな
0010名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:05:45.01ID:LIUiLgPH
1111のスクリプトにあるバッチプロセスとはどういう代物ですか?
現在の生成設定✕指定枚数を児童で作成してくれる便利機能かと思ったけど、全然そういうものではない感じ?
インプットフォルダとアウトプットフォルダ設定だけで頭?状態
0011名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:13:11.09ID:4gjZUmrJ
ねんどろいどはポーズも限られてるし、誰かが絵描くにしてもバランスも似たような物しか描かないだろうし
結果として規格が統一されバランスの良いデータが。

ねんどろいど意外に海外含めもう少し等身高めのメジャーな人形規格ってないかなぁ。
0013名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:31:59.09ID:iu1fiXN8
>>12
前スレ立てた人が2に間違えたって書いてたのに・・
あと前スレが3スレ目で、下に4スレだけポツンとあるのももうちょっと
交換抜いて【】補正したのはいいけどすんごいズボラなスレ立てだね
0015名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:45:03.51ID:untpxQHo
>>1
乙乙

もう次スレ関連スレもてんぷりゃに入れればいいんじゃない?
あとdreamboothのやりかたnpakaさん解説来てたけど
40GBいるとかでかなりまだ無理っぽい
0016名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 11:51:25.08ID:uX3FKjDA
sd upscleようやくコツが掴めてきた
でも今頑張ってテク身に着けてもどうせすぐボタン一発で凄いの出るようんなるんだろ?
と思うと若干むなしさ感じるなw
0018名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 12:11:40.40ID:RCTanb+9
>>1
乙乙

prompt、オブジェクトとスタイルを分けてぶち込めるようにならないかなあ。
学習データでは一応、この二つは別物っぽいんだけど。
贅沢言えばカメラも分離して欲しいが、これはちょっとムリかな……
0020名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 12:28:59.25ID:2OMfWC8V
waifuでどうにか顔ドーンじゃなくて引きの画にならんだろうかと
Negative Promptsに((((portrait))))とぶち込んだら現実の顔成分がごっそり引っこ抜かれて二次元のカクカクとした目とアニメ塗りみたいになった

引きの画にはならなかった
0022名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 12:40:54.91ID:IKLGuAg0
Midjourneyで実在の人物で練習してるんだけど瞳が高確率でロンパったりグチャグチャになったりする……
目の情報入れてみても微妙に上手くいかないし何か良いワードある?
0023名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 12:54:00.11ID:RCTanb+9
ワードの問題と言うよりも、解像度な気がする。
メモリと勝負になるけど、解像度上げてみたらどうかな?
0024名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 12:54:37.86ID:untpxQHo
Craiyon基準だからWaifuで使えるか分からないけど
face portrait ⇒ 顔のみ
upper body portrait ⇒ 顔と上半身
full body portrait ⇒ 顔から腰ぐらい、足元まで行くことも
こんな感じの画像イメージわたしは効果あった
portraitのところを別のものにするとかで行けるかも 
0026名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:06:02.45ID:IKLGuAg0
>>23
初心者で申し訳ない……んだけど解像度上げってアップスケールのこと?
それとも--q 5とかのクオリティ上げるってコマンドの事なのかな
0028名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:08:27.92ID:RCTanb+9
>>26
いや、単純に最初に与える画像の大きさ。
まだ実験してないんで、アレなんだけど、単純に64×64以下の面積のブロックが他のブロックとの連続性が無いと崩れるんじゃないかな? と。
だから、引きだと必然的に顔の面積が少ないので描画がまともに実行出来てないんじゃないかなみたいな。
0029名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:11:18.66ID:nrOUqQyg
googlecolabってどの位の性能持ってるんだろう
高性能ならhdや2k4kの自動生成作らせようと思えばできるのかな
0030名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:13:05.98ID:2OMfWC8V
色々試してはいるんだけど顔に張り付く謎の力が働くプロンプトの時に効き目が途端に無くなるんだよね
どうしたもんだか

それはそれとしてportraitをNegativeにするのはアニメ顔にかなり効き目がいいことが分かった

waifu1.2
素(1girl, aqua_hair twintails, aqua_eyes)
https://i.imgur.com/48FJUuI.jpg
Negative portrait
https://i.imgur.com/BOokcDr.jpg
Negative ((portrait))
https://i.imgur.com/kWRFqpP.jpg
Negative ((((portrait))))
https://i.imgur.com/wWEI915.jpg
0031名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:13:38.55ID:vfH3LsoQ
>>22
何をどう練習してるのか知らんけど
1アニメ調ならMJは向いてないから諦めてDiffusionを使う
2取り敢えず同じPromptでEmma Watsonさんにお願いする
 それで崩れなければ、出したい人物の学習量が少ないせいで整わない可能性がある
3崩れるならPromptが論外なので公式のフィードで検索する https://www.midjourney.com/app/feed/all/
0032名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:15:02.63ID:RCTanb+9
+で
NVIDIA Tesla P100(16GB)
NVIDIA T4(16GB)

Pro+
NVIDIA Tesla V100(16GB)
NVIDIA Tesla A100(40GB)

でガチャらしいw
A100引けたら、結構高解像度いけそう。
0033名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:16:21.33ID:06MV2UCy
久々に来たが852話とかいうクッソ陰湿なゴミはそろそろ用済みになりそうか?
0034名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:18:29.48ID:iu1fiXN8
>>29
そもそも元のモデルが512x512用なんで
2048x2048作っても、同じパターンの繰り返しになるだけだったりする
https://www.reddit.com/r/StableDiffusion/comments/x6dhks/fork_for_automatic_memory_allocation_allows_for/
これとか凄い凄い言われてたけど、そもそもこんな画像作りたいか?って
結局、一発でやるのは意味ないので、過剰なVRAMは「今の技術では」必要ない

img2imgのアップスケールは元の整合性あるを拡大してから部分部分で変換させることで上手くいく
そこそこメモリがあれば実現できるし
0035名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:18:57.21ID:NOLXtzv9
>>33
Waifu使いませんでもTrinARTは使いまーす
やばいすごい!
ちなみにTrinARTでもダンボールのタグ使えまーす💕
0037名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:20:24.60ID:2OMfWC8V
>>32
良いGPU引けるまでインスタンスの破棄繰り返すのは違反行為だから気をつけなよ
なんか怪しまれて下位しか割り当たらなくなった人とか居るみたいだし
0038名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:20:29.74ID:untpxQHo
とりさんまは115000stepモデルでてる
キャラ特化モデルも早くリリースして欲しいけど
流石にまんまなキャラでやすいから著作権的に難しいか
0039名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:22:29.11ID:IKLGuAg0
>>28
正直半分ぐらい何言ってるか理解できてないけどありがとう
とりあえず画像の大きさ変えて色々トライしてみる

>>31
ありがとう
適当にハリウッドの有名人とか入れてなるべく実写に近い形で再現できるか練習してたんだけどとりあえずエマワトソンでやってみる
0043名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:26:06.38ID:RCTanb+9
実写ワードだと、濃くて写真がいっぱいあるトランプが一番効果わかりやすい気がするw
あんなの何枚も走らせたら、メンタルブレイク起こしそうだが
0044名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:27:42.34ID:Oqek9AKh
俺はcolabで回しまくってたら嫌がらせのようにロボット確認してくるようになった
操作止めると10秒後くらいに出てくる
0045名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:30:33.53ID:iu1fiXN8
無料colabってブラウザのそのタブを非アクティブにして一定時間でcaptchaじゃなかったっけ?
生成中の表示を眺めながら正座して待っとけと?イライラするんですぐやめてグラボ買っちゃったよ
0047名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:42:58.53ID:6NoPJtis
>>30
そのpromptだと情報が顔に偏るから、体に関する何かを加えるとよいのでは

1girl, aqua_hair twintails, aqua_eyes , blue one-piece dress, black belt, upper shot とか適当に

ttps://imgur.com/a/2xhgS3D
0048名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:53:43.74ID:nrOUqQyg
正常位騎乗位の命令でキャラクター指定をすれば奇形抜きのエロ大量生産んできるプログラミング誰か組んでください!
0049名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:55:26.78ID:X1bXMZ7N
StableDiffusionだけが目的ならグラボ買うよりcolabの方がお得感はある気もする
ちょっとがんばって30万のグラボを買うとすれば
colabなら同じ値段で25年戦える
0052名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:58:21.03ID:RCTanb+9
in xxxxxxって入れて、さらにlong shotとか入れるとかなり引きになる確率上がるよ。
人物入ってる時点で、それなりにポートレートにも重みかかるみたいだけど。
0053名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 13:59:23.23ID:untpxQHo
backgroundみたいな背景こうだよ指定を補足してみるとか

カメラで引きの撮影みたいな用語とかありそうだけどそう言う撮影用語は使えないのかしら
そもそも撮影用語が分からん
0055名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:04:12.81ID:Jp9s+Lkb
full body よりはstanding 等の状況説明のほうが全身は出やすいと思う
カメラ引いた都市とかはtop of view 、landscapeとか 怪獣映画みたいな低い視点の引きってのが難しいが
0056名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:05:24.34ID:2OMfWC8V
縦長にする、long shotはやったけど効かないのよね
超縦長にしたら見切れ横顔描いてきてブン投げたこともあったり
服装とかも指定してるんだけどどうしても顔に寄る

もちろんseed依存で5%ぐらいは引きの画が出るんだけどこれの収率を上げたい
背景指定するのはあまりやったこと無いからやってみるわ

それでも引きにならないガッチガチのプロンプトで一般にお出しできそうな構文のがあったら今度持ってくるからチャレンジしてみてくれ
0059名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:17:13.70ID:iu1fiXN8
aerial view(俯瞰)のつもりだったけど、検索したらyogaのポーズの意味もあるのか

aerial pose of 1girl, aqua_hair twintails, aqua_eyes

でぐちゃぐちゃの人体が出力される
https://i.imgur.com/11p0HFi.jpg
変わったポーズありながら俯瞰にもなってたり、ダブルで効いて全身入る感じか
0060名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:18:55.14ID:n7szH/NW
俯瞰はバーズビューがやっぱ鉄板
ただし、鳥混入率も上がる

何でやたらと頭とか肩から羽生えてるエンジェル系率上がるんだろうと思ってたら、鳥だった罠
0061名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:19:58.42ID:FCnr3Hbx
Waifuととりんさまでそれぞれ本家SDベースで学習した実写TIとの組み合わせをやってみたけど
とりんさまはいい感じに実写をアニメに落とし込んでくれて使いやすいけど衣装指定とか調整しにくい
Waifuもアニメ調にはなるんだけど実写そのままな中の人が出やすいけど衣装指定とかしやすい

アニメTIもやってみたいけど今ところ全敗なのでノウハウが切実に欲しい
0063名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:30:58.81ID:XBkBKrmq
遠景は別々に作って合成した方が早いような気がする
0065名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:38:33.72ID:iqorF6m9
髪型指定ができないんだけどみんなどうしてる?
4chanではフォトショでコラしてimg2imgって言われた
0066名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 14:46:00.94ID:6NoPJtis
>>65
ショートボブ short bob hairstyle
三つ編み braid hairstyle
おさげ pigtails
ポニテ ponytail hairstyle

ハゲ skinhead

とか書くだけでは。あれこれprompt付け足すうちに薄まって消えるかもだが
0069名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:01:13.80ID:VGMTb1zs
Emadさんインタビュー
https://signal.diamond.jp/articles/-/1407

Emadさんのインタビューなのにタイトルが深津なんてゴミの名前なのはなんなんだ
ダイヤモンド社に深津の同級生でもいるのか?

それはともかく内容はいい

・9月には音声、その後は動画、3D、言語、コードにも対応
 Dream Studioの完全版はアニメーションの作成にも対応する
・すべてをオープンソース化しますが、最新版はまずAPI経由で提供しする
・今は2GB(1.5のモデルサイズ)だが不要なものを取り除くことで100MBにできる
・数週間以内には、Stable Diffusionの独自モデルを構築するためのガイドラインを、クリエイター向けに公表する
 マーケットプレイスも構築していきます。そこでクリエイターは独自モデルで生成したコンテンツや、
 独自モデルの(クリエーターの)特性を他のクリエイターに販売する。
 もしあなたがピクセルアートに特化したモデルを作ったとしたら、ピクセルアートに関するアセットを求めるクリエイターは、
 汎用モデルではなく、あなたのモデルを利用することでしょう。
・StabilityAIが本格的な活動を開始したのは9カ月ほど前
 従業員数は75人で、世界で10番目に速いスーパーコンピューターを保有している
0073名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:08:19.86ID:8HzuZr0r
>>71
真正面顔になったときの鼻の輪郭線がおかしい(縦一直線になる)のは、MMDを学習したみたいな感じがする
0074名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:09:22.93ID:Wp+FQqeu
greg rutkowskiさん(本物)Twitterフォロワー2万2000人しかいないんだけど
こんなにお世話になってるんだからみんなフォローしたれよ・・・😢
0077名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:11:30.83ID:RCTanb+9
Gregさん、近いうちにネットでワシのオリジナル発掘出来んようになるって言ってるみたいね。
0080名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:17:25.87ID:rXESnT+m
他の似たような作風の人でもクオリティは上がるけどなんで皆Gregさんを使ってるんだろう
最初期に上手くいったプロンプトだから慣例的に使われてるのかね
0083名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:21:48.49ID:Jp9s+Lkb
gregさんは癖がなく使いやすい
他にもサンプル数が多い画家の名前が挙がってるけど
まさにその人の作風、みたいのが強く出てしまって使いにくい。
0087名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:32:47.05ID:XBkBKrmq
>>69
倫理とか下らないことを言い出したな
中国勢に負けるぞ
0088名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:35:55.68ID:RCTanb+9
有償で自分の絵に特化したモデルを作りますってのはアリだな。
これは魅力感じる人、多いんじゃないかね。
0090名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 15:58:51.76ID:uX3FKjDA
特定の作家の絵柄をコピーしてモデルを売る人が確実に出てくるよな
流石にいずれ問題になると思う
0092名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:08:22.98ID:b/Q6G26U
通常のプロンプトにanimeやら色んな言葉入れた後にネガティブプロンプトでanimeを指定してやるとイラスト感強く出るな
0093名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:17:02.13ID:T9wkiioe
>>71
それは珠玉の知識だわ
昨日被写界深度が浅くて困ってるって書いた者なんだけど、一撃で回避できる解決策やんありがとう
0094名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:19:45.77ID:untpxQHo
特定絵師の本人以外の販売は流石に炎上する程度には世の中の理性を信じたいが……難しいだろうな
0096名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:34:11.35ID:2OMfWC8V
midjourneyのnoオプションが便利で~って書いてた人居たけど確かにこれがあると無いとじゃ大違いだな
単純に出したくない物書くだけじゃなく画像から質感まで消し去れるとか強力にも程がある
0097名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:34:24.64ID:T9wkiioe
Negativeって「,」で区切った先もマイナスの作用が続く感じなんですかね
それだと長文呪文使ってると呪文の再構築が結構大規模になりますね

もしくはPositiveみたいに言いなおせばそこから従来の呪文を再開できる感じ?
0101名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 16:54:29.80ID:mmyt5ECq
hlky派だったんだけど1111に改宗しちゃった
この強欲なペースはすごいわ
今日もまたなんかimg2imgの改良型?のテスト始まってるし
0103名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:00:08.89ID:n7szH/NW
ネガティヴワードってオプションとかじゃなくて1111のソース書き換えなんかな。だとすると入れるしかないか。

こういうとこでUi系は差がつくなあ
0105名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:07:11.83ID:iqorF6m9
>>66
特定のキャラを写真風にした上で髪型をmessy bunにしたいんだけど無理
キャラの元の髪型に寄せたいだけなんだけど
0106名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:11:11.69ID:6P/fzWU5
何度か検証してみたけどやっぱりWaifuはデフォルメアニメ以外にも実写系アニメ表現に強いね
そのせいで実写を元に作ったTI使うと中の人がわりとそのままアニメ品質で出てくる
0107名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:15:42.89ID:teIeUQKw
>>69
小説とかのシナリオはないのね
0108名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:22:16.00ID:yeYFLqst
Automaticはプルしたら動かなくなってれどめ見に行ったらディレクトリ構成がらっと変わってた
自動インストールのバッチも出来てたけどうまく動かず手動にしたよ
0109名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:23:44.43ID:ojsRai9T
waifuをcolabで使ってるんだけど肌色多いとすぐにNSFWで引っかかって真っ黒になるんだけど
回避方法ってないのかな?
0110名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:30:53.76ID:1cWHX7h4
ぐぐれば回避方法でるけど、colabやめてローカルが無難だよ。相手はgoogleだから何されるかわからない
0111名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:36:29.77ID:T9wkiioe
BAN対策と称してサブ垢でやってる人もいるけど
google先生がサブ垢に気が付いてないはずないし、どう考えてもローカル環境作った方がええと思う
0114名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:45:08.66ID:X1bXMZ7N
同じ回線・端末を家族皆で使ってるというケースだってあるわけだし
サブアカウント判定は難しいとは思うけどな
実際サブアカウントごと全部BANになったという話は聞いたことがない
0118名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 17:59:13.30ID:krp8ICje
>>107,117
AIの言語モデルで、途中までの文をインプットにしてその後の文をAIに書かせるってものがある(というか多い)から
>>69の「言語」が小説を書かせることができるものかもね
0119名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 18:09:23.66ID:UyPcFnlK
>>117
オープンソースで事前学習された言語モデルが配布されたら画像生成とは比較にならないほど革命的だと思う
0120名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 18:20:33.32ID:GfcYn4pW
MJの --creative は2:3、3:3だけなんだな
0122名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 18:57:27.80ID:YzHgQ03t
正直丸投げ小説は当分できないと思うわ
AIが話の筋を構成できない、あらすじレベルでも無理
ただ、文体を真似るのとかは比較的簡単にできるだろうから、関西弁変換の進化系みたいな形で文体変換が出来れば
メチャクチャ雑に書く、AIで文体変換↔推敲、とかで作品を作り上げる補助としては優秀だし、ハードルはかなり下がると思う
でもそれはおそらく英語でされるので、日本人にはあんま関係ないかなあ
0126名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:27:43.50ID:aTGeNfnD
nmkdでimg2imgしようとすると何も生成されないままdone!の表示が出るんだけど原因わかる人いる?
0127名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:33:56.40ID:Xs0SmZoS
ずっとグーグルドライブをAV保管庫にしてるけどBANされてないし大丈夫だと思いたい
ファン唸らないし安いし1111も動くしみんなもcolabつかおう!!
0128名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:36:34.31ID:no0UDyH1
二人並んでる人物のどちらかにカメラを寄せるって出来ますか?
0129名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:53:44.58ID:P0IIaxQm
1111をcolabでやってるからなのかわからないんだけど、表示されてる生成時間と実行してから画像が表示されるまでに5秒くらい差がでるんだけど
何か解決法とかない?ローカルだと起きないんかな
0130名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:55:41.54ID:L0XHxYGe
>>129
colabはよくわからんけど、ローカルで1枚だと100%になった瞬間表示される。
複数枚だとたぶんグリッド生成でいくらか待たされる。
0131名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 19:55:41.86ID:kgAIdVFp
どなたかhuggingfaceのアカウント削除の仕方わかる人います?
delete my account って入力しても、そのしたのチェックボックスが薄いままでクリック不可で
削除できないんだけど…
何か他にやっておかないといけないような事があるんですかね?
0134名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:06:54.31ID:Xs0SmZoS
>>129
colabの1111はgradio.appの転送速度がクソ遅いせいなのか画像表示に時間かかるね
パブリックでやる必要がある以上解決方法はない気がする
こうなると逆にコマンドライン版が欲しくなるな
0135名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:14:09.18ID:uX3FKjDA
進化の速度凄いけど冷静になると特定の条件下でクオリティ高い絵出ますって進化しかしてないんだな
個人的にはプロ並みの萌え立ち絵が出ます!とかよりも自由にあらゆる絵をソコソコクオリティで出せるほうが良かったか
東京都庁に襲い掛かる鎧武者の大軍!とか海面上昇で水没した教室で授業を受けるJk達とかそういうの何でも出して欲しい
0136名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:17:05.13ID:no0UDyH1
そういう絵を全部描いて学習させれば出来るよ
雑コラみたいなやつは学習的にないやつ
0137名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:18:40.97ID:npgiUmEw
需要があれば誰か作ってくれるって。速すぎて感覚麻痺してるけど、SDリリースされてまだ1ヶ月も経ってないんだから。
多分、映画的な需要であり得ない現実の出力ニーズが生まれてくるはず。
今はまだ、既存の何かを綺麗に出す段階
0138名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:23:52.68ID:P0IIaxQm
>>130
>>134
gradioの転送速度遅いのかー、なるほど
グリッド表示するときもファイルは既に出来てるのに表示がメチャクチャ遅かったりしたから
グリッドの画像が重いあたりが原因っぽいかぁ
0139名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:25:32.41ID:DMnEZFCF
>>69
> ・9月には音声、その後は動画、3D、言語、コードにも対応

Emad (Discord)
we are building a better version of copilot announcements soon hiring for that too

コードってのはGithubのcopilotのより良いバージョンらしい
Githubほど学習用コードを持ってる組織はないと思うけど、より良くするための技術がなんかあるんだろうな

soonといいながら、人を雇ってるってのはスピード感がよく分からないw
0142名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:35:46.18ID:2OMfWC8V
waifuの二次元表現において元のSDにある写実的表現部分がかなり邪魔になっていることが分かった
たったこれだけのプロンプトでこれ出すとは

waifu v1.2
standing 1girl, hatsune_miku
Negative prompt: (portrait), (blur)
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 273374107, Size: 448x640
https://i.imgur.com/3qL42ls.png
0146名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:46:23.48ID:QPg5TQkt
無課金colabで上限来た後はローカルのIntelCPUで数分~数十分かけて1連ガチャするようなゆるふわ勢はここにはあんまりいないのか
みんなレベル高くてついていくの難しいわ
0147名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:49:56.38ID:L0XHxYGe
IntelCPUで動かしてたんだけど、タイミング悪くSSDがお亡くなりになって新しいの買いに行ったらなぜか3060も買ってた……
Palitのが5万円だったんだ。
0148名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:50:18.33ID:DMnEZFCF
>>142
クリーンでいいねえ

1111はDocker対応してくれないかな

>>146
どっちにしたって新しいオモチャいじってるだけだからいいんでないw
0149名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:50:30.28ID:oFyVVeq+
1111はtoken制限きつくてなぁ…NMKDの方がいい画を作れる…
NMKDはいちいちModel読み直すのやめてくれんかね…
0152名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:56:59.76ID:L0XHxYGe
>>151
出した画像をPNG Infoで見ると、

Warning: too many input tokens; some (7) have been truncated:
art , smooth , sharp focus illustration

って怒られる。
0154名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 20:57:59.92ID:DMnEZFCF
>>149
token制限はどれも同じだと思う
内部的に77トークン(最初と最後で2トークン使うから実質75トークン)

>>150
がんばりたくない・・・・w
0155名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:00:21.48ID:uX3FKjDA
トークン制限回避しようと思ってandとかbyを省略すると全然結果変わるんだよ
それも大体は呪文の効果下がって劣化するから節約できん
トークンが200とか使えれば革命的に変わるだろうな〜
0159名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:06:53.64ID:L0XHxYGe
何トークンになるのか、長いpromptの最後に入れてPNG Infoでwarning見たらわかりそうやね。

Warning: too many input tokens; some (9) have been truncated:
art , smooth , sharp focus illustration , flying

つーわけでflying入れてみたけど1トークンっぽいぞ。
0160名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:07:56.84ID:T9wkiioe
まじか
過去スレにそんなようなこと書いてあった気がするんだけど、間違いだったみたいならすまん
あと検証ありがとう
0161名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:08:49.88ID:2OMfWC8V
どっかにトークンのリストあったはずだけど
今だとUIのwarningギリギリのプロンプト入れて、そこに加えてあふれた分見るのが一番簡単よ
たまにめっちゃトークン数食う単語とかある
0164名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:11:30.30ID:AJ5S0LHh
自然言語として処理できるようにされてるから、同じ単語でも前後関係で1になったり2になったりすると思う
SDではなく文章関係のAIつかうときの前処理だとそんな感じ
0166名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:17:11.76ID:cmtaQyKF
Q トークン制限は将来解除される見込みはありますか?
A トークンの制限は、CLIPトークン化装置に組み込まれているので、可能性はありますが、あまり期待しないほうがいいと思います。
  また、このモデルでは、プロンプトの冒頭にある単語は、末尾にある単語よりも重視されるので、たとえ長くできたとしても、
  収穫はほとんどないでしょう。しかし、句読点もトークン制限にカウントされることを心に留めておいてください。

https://discord.com/channels/1002292111942635562/1002602742667280404/1008808423724417104

だそうです。
0167名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:19:50.70ID:L0XHxYGe
てことはPNG Infoでwarningが出てなくても実は無視されてるトークンがある場合もあるってことか。
0168名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:29:02.23ID:npgiUmEw
視界いっぱいに広がる小麦畑、冬の早朝

ってやると刈り取った後の小麦畑も出力されるあたり意味連想はやっぱ効いてるんだな。
0169名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:41:01.91ID:QPg5TQkt
>>163のレスみたけど、
「swiming」が「swim」と「ing」に分かれてるのは、単純に「swimming」の打ち間違いをしてるせいで1単語と見なされなかったってことな気がする
「swimming」なら1トークンになるのかな
0170名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:01:04.96ID:L0XHxYGe
文にしてぶち込んでみたけど、PNG Infoだと1トークンに数えられますね。

Warning: too many input tokens; some (5) have been truncated:
art , she is swimming
0171名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:11:40.71ID:44lT3+Qt
promptの書式やwebUIの機能説明とかしている所とか無い?
11111のネガティブワードやステップ数とかなら何となく理解できるけど

それとも書式はhlkyや1111とかフォークごとに違ったりするのか?
トークン制限の話を聞くと単語を区切る為のコンマも駄目という事?
0173名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:16:01.06ID:2OMfWC8V
>>171
カンマは意味がある
文を区切る意味としてちゃんと認識されていてとても有用
でも1文字で1トークン消費する

これはStableDiffusion使ってるところ全て共通
カッコと違って別にフォークごとに動作が異なる訳ではなくAIにそのまま渡される
0174名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:18:09.47ID:IDWlQNbN
>>171
機能説明ならautomaticの別リポジトリに詳しくある
webui-showcaseみたいなとこ

今日追加されたimg2imgaltが何を意図した機能なのかわかる人いる?
変な抽象図形みたいにされるだけで全然意味不明なんだが
0175名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:18:56.56ID:npgiUmEw
しかし、まるで商標のある作品をトレパクしましたと言わんばかりに出てくる謎文字はなんとかならんものか。
ネガティブでstringとかやったら消えるかな
0176名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:22:26.47ID:tMPa6q2s
BERTだとingはsub-wordで別トークンなんだけど、違うのかな
検証すりゃすぐだけど正直どうでもいいw
0177名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:32:27.03ID:YpcqtgNG
1111版の今日の22:00の修正でバリエーション機能ちゃんと動くようになった

1. 気に入ったものが出たらSeedコピーする
2. Seedに張り付け
3. ExtraからVariation strengthを0.1くらいにする
4. Batch countを4などにする
5. 生成すると指定したSeedに近い画像が4種類出る
https://i.imgur.com/ibyfqmA.png
0178名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:37:48.86ID:44lT3+Qt
>>173
意味あったのか
ただカンマはトークンを食う要因にもなるのね

>>174
redmeで起動オプションみたいなのはあったのは見たよ
batファイルにset COMMANDLINE_ARGS=--ckpt a.ckptみたいな追記でモデル使い分けてるのかな?
0179名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:38:58.76ID:ZmDccg6r
automatic1111のインストールめっちゃ難しくて分からない
どこかにインストール方法書いてませんか?
0181名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:44:32.58ID:L0XHxYGe
>>174
READMEの通りにやってみたんだけど、なんか、元絵を微妙に変えてコントラスト強調した感じの絵が出てくるな?
0183名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:47:48.95ID:YpcqtgNG
>>180
CUDA Toolkit入れる手順になってたね。
一時期1111のReadmeに入れろって書いてあったけど、すぐ削除された。
Gigazineは運悪く間違った記述の時に記事化したらしい
0184名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:47:55.85ID:ZmDccg6r
>>182
なるほど。ちょっと見てみます。

以前はminicondaでインストールしてAutomatic1111も動いてたんですが、
いまgit cloneして手順通りにやろうとするとエラーが多発して動きませんでした。

python 3.10じゃないと駄目になったのか・・・

conda、venvとかpython環境ややこしすぎて面倒くさすぎ
0185名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:49:43.54ID:IDWlQNbN
automatic1111のインストールめっちゃ難しいと感じるような人たちが画像生成AIを好き勝手使う時代がすぐそこに来てるんだよな
0186名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:50:09.13ID:/kiqse55
trinart触った人いる?
すげえ絵が出るって話だけど
0187名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:50:44.36ID:L0XHxYGe
>>179
python3.10とgitインストールした後はstable-diffusion-webuiをgit cloneしてダウンロードされたディレクトリにあるバッチファイル実行して別口でダウンロードしたmodel.ckptを入れるだけだぞ。
0188名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:51:26.77ID:QPg5TQkt
IntelCPUのローカルがあまりにも待ち時間長いから、お絵描きばりぐっどくんにも手を出したわ
毎日10連ガチャできるようになったみたいだし、日本語でもちゃんと効いてくれるから、これも気軽に遊ぶ分には楽しめるね
シード値とかはわからないっぽいけど

セーブポイントって書いてみたらちゃんとセーブポイントっぽいものが出てきてくれた
https://i.imgur.com/c1K9xfb.jpg
0189名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:51:44.98ID:ZmDccg6r
最初のインストールは簡単だったんだけどねw
Dockerにして欲しい・・・

minicondaとは別にpythonインストールするとややこしいことになるのかならないのか、とかpython環境の勉強する気がしないw
0190名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 22:54:17.85ID:mmyt5ECq
>>174
元の画像を再構築するノイズを見つけることによって img2img を実行するより良い (?) 方法
https://www.reddit.com/r/StableDiffusion/comments/xboy90/a_better_way_of_doing_img2img_by_finding_the/
まだテスト実装
https://github.com/AUTOMATIC1111/stable-diffusion-webui#img2img-alterantive-test
ここでユーザが良いパラメータを探してる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/314
もうちょっと煮詰められないとサッとは使えなさそう
0193名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:04:56.64ID:TJIF4ZwL
>>175
映画のポスター,ヒーローもので設定した時に下らへんに見覚えのある赤と白のロゴのマークはっきり出てきた時は笑った
0195名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:12:09.24ID:RcmHGeGX
>>189
minicondaのcondaとpythonのvenvは両方あると干渉するかもしれないので
動作を把握しているのでなければminicondaはアンインストールして
クリーンな環境で一から構築しなおしたほうがよさそうな気がします

他にminicondaを使っているモノがあったら安直にアンインストールするのはまずいと思いますけれど
0196名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:13:38.15ID:untpxQHo
1111版のプロンプトの[]と()括りってそれぞれどれくらいの優先度値振られるんだろ
数字で直接指定とか出来なのかな
0197名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:15:07.53ID:ZmDccg6r
>>187,194,195
ありがとうございます。

hlkyがminiconda前提なので、python3.10を新たに入れるのはちょい怖く以下の手順でできました。

---
minicondaをプロンプトを起動して、
conda create --name Auto1111 python=3.10 で新しくpythonを3.10環境を作る
conda activate Auto1111
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
model.ckptとGFPGANv1.3.pthを配置

webui-user.bat →後はそのまま設定完了、起動
---

まあpython3.10を指定すればよかっただけですね。
0200名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:33:06.72ID:L0XHxYGe
img2imgで新しく増えたInterrogateボタンがエラー出るだけだなーと思ったら、インストールするリポジトリが1個増えとったw
0201名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 23:59:50.47ID:L0XHxYGe
img2img alterantive test、確かにoriginal promptに元絵から変わった状態を入れるとそれに応じて絵が変わるんだけど、めっちゃコントラスト高くなって出てくるからどうしようもないw
0203名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 00:09:51.44ID:F+5A822q
何かと思ったらCLIPで入力画像認識させてそれをプロンプトデータとして入力する機能か?
認識と出力の対応付けがまだうまくいってないんじゃ
0204201
垢版 |
2022/09/13(火) 00:16:17.40ID:T243DbtB
あれ……しかも、一個前に入れた内容が反映されるのは何故……
0206名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 00:26:56.75ID:T243DbtB
img2img alterantive test、まずは絵を置いてInterrogateする。
できたPromptを下のOriginal Promptに貼り付ける。
上のPromptを書き換えてGenerateする。

って手順なのか。これで思った通りの動作はする。色がすごいことになってるがw
0210名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 01:37:44.51ID:WnNMyfXj
とりあえず1111とwaifuってのは入れた状態
あとなんか入れたほうが良いものってあるんですか?
0212名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 02:14:15.86ID:Dr02rmhk
初音ミクでちゃんと初音ミクが出てくるあたり調教する方法はあるんだよね
楽してやりたいな
0215名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 02:37:29.94ID:ArTjHPUb
色々考えて単語入れてたけどlexicaから適当にコピペしてワードサラダ的にランダムに入力したほうがいい絵出るな・・・
たまに奇跡の並びが発見できて楽しい
0216名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 02:42:52.96ID:Dr02rmhk
結局手とか足とかが苦手なのかな遠目で見るといいのに近づくと奇形も多い
手直ししたらすぐ使えそうだけど手直しができない
0224名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 04:02:24.53ID:ROvIcxRK
>>223
美乳とか入れても爆乳とそれ以上のものをお出してくるからな…
あえて俺は medium breasts と入れてる
それでも爆乳出して来たりするけど
0228名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 06:10:15.00ID:dYVHKN/X
WaifuとSDオリジナル半々ということはWaifuとはまた違った表現になるんだろうか
だれか試した感想頼む
0229名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 06:39:05.91ID:x3XkC0xO
日本人「背が高い少女お願いします」
アメリケンAI「背が高い、、、195くらいか!?」

日本人とは感覚が違うからね
0230名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 06:50:28.02ID:q9KWOZ+6
指定したポーズを取ると言うのがハードル高いなあ。
何の絵かと言うのは結構サクッと出せるけど、何をしている絵かって言うのが思ったより難しい…
0231名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 07:39:16.55ID:x3XkC0xO
バチッとポーズを指定するっていうのは3DCGで十何年も前から出来る
最近のGANの強みは曖昧な言葉でポーズを指定出来る
もちろん出てくるポーズは曖昧なポーズである
適材適所ということやね
0232名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 07:39:53.41ID:jdYILrRo
Waifuって美少女以外もいい感じに出せるの?
大人の女性とかイケメンとか、あと動物や風景とか
0233名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 08:09:42.41ID:V1LcYxUw
>>232
風景は普通
人間は大体何書いてもアニメ美少女が混ざってる感じでキモくなる
アニメ,漫画あたりをネガティブに入れれば一応普通のSDみたいに使えるな
0237名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 08:34:30.27ID:x3XkC0xO
そんなんじゃまだまだだな
上司の「ドカッって来てバチバチーンからのビュビュビュッって来る妙齢の熟女だよ!」って指示に応えられなきゃ日本の会社では使えない
0238名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 08:39:18.89ID:q5zOkVJh
ドカッっとか、バチバチーン、みたいな言葉が具体的に何のイメージとつながっているかってのは、むしろAIが得意な気がする
SDやMJは学習してないと思うけど
0239名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 08:41:51.86ID:5ot6iVeK
colabの1111ってモデルオリジナルを引っ張ってくるのか。
トークン入れてるし、とっくの昔にアクセプトしてるのになんで403返ってくるってちょっと悩んじゃったw

>>232
waifuは端的に男女の扱いがヒドイw

https://imgur.com/a/hVk9jyA

seedは同じで、promptは"highschool student boy"か"highschool student girl"だけで出力。
他のイメージ系ワードなしだと、ここまで差がつく。
0241名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 09:21:19.84ID:f4HgP/qZ
>>239
waifeでhighschool student girl だけ入れてぶん回したら
seed運次第でとんでもない美少女出てくることがあって呪文の探求の日々は一体?ってなるわ
0242名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 09:33:38.70ID:f4HgP/qZ
余計なプロンプト入れずに運に任せたら低確率でガチな美少女出てくるから
顔だけ、体だけ別々にプロンプト利かせられたら革命が起こるだろうな
現状は体や背景指定するプロンプトのせいで顔が崩れてるわ
0244名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 09:37:50.30ID:x3XkC0xO
プロンプトとseedが同じなら同じ絵が出てくるんだから世界中で似たようなプロンプトでGPU回しまくってるのは資源の無駄だよなー、と思う
0248名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 10:41:25.59ID:f4HgP/qZ
1111版でSEEDやプロンプトその他の数値を全て同じにしても
同じ絵が出ないバグに悩んでるんだけど他の人は問題ないの?
多分このバグのせいでオカルトな意見が出たりしたんじゃないのかな
0251名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 11:27:07.83ID:2kk/h0le
具体的に書くと

「euler_aで」batch count 1 & batch size 3で3つ作る
pngファイル名、png chunkや保存txtのseedが100、101、102になったとする
(chunkとtxtにはbatch countが0、1、2と記載されてる)

で、全く同じ条件で再現しようとすると先頭の100はいけるけど、
seedの101、102はいわば嘘情報で、この2つのseed値はPCの藻屑でもう誰にもわからない

って感じ
とりあえずLMSは問題なかった
DDIMもかな、使わないので他は知らん
0253名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 12:17:19.20ID:dSXCmapC
>>251
なるほど
手元で試してみたけどeuler aでもbat posから一枚目のseed推測して同じbatch sizeで実行したら同じの作れるっぽいね
0254名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 12:20:49.99ID:ZQFiQsYd
1111版で手動で環境構築してるとwebui.py起動時にGFPGANのエラーが出るようになったのでメモ

発生した現象:

Error setting up GFPGAN:
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/gfpgan_model.py", line 66, in setup_gfpgan

解決法:

このissueの修正コミットにある通り
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/347

pipでGFPGANのリポジトリを指定する時に特定バージョンを指定することでエラーは出なくなった
git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379
0260名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 12:53:55.33ID:Xb6kELUV
どっちか忘れたが鼻の下に人中が出たから
顔修整は使わんわ
0261名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 12:57:25.66ID:+nG/qK5K
両方MAXでかけると
GFPGANはなんか極東アジア人っぽい感じ
CodeFormerは欧米人っぽい感じ という個人的な感想
0262名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 13:30:20.72ID:Hgh+fPIe
GFPGANはリアル用だから当たり前だけどアニメ系だと使いにくいというか使えない
Codeの方はどうなんだろ
0264名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 13:37:39.15ID:WnNMyfXj
複数のckptファイルを同じ場所に入れてそれぞれを使い分けながら起動することってできますか?
各所で説明されてる感じだとmodel.ckptに改名しなきゃ行けない感じなんですかね…?
0266名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 13:51:52.09ID:5ot6iVeK
colabでも出来るよ。単にパイプの名前変えて複数読み込めばいいだけだから。
ただし、個別にckpt確保することになるので三つぐらいパイピングするとメモリ足んねーぞって怒られちゃうが。
0268名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 13:59:20.06ID:EQuE6MAE
リアルにしたいとき
unreal engine 5, facegen, true anatomy, screen-space ray tracing, screen-space ambient occlusion, screen-space reflection, depth of field, high detailed face,
0270名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 14:07:20.57ID:5ot6iVeK
1girl kawaii of fantasic knightで魔法少女ちっくな画像を吐くwaifuはちょっと訓練されすぎだと思います。
0275名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 14:59:39.97ID:/SkClZlQ
規制解除後AUTOMATIC1111版の議論が盛り上がる一方でhlky氏がスレに顔出さなくなってしまった
個人的には活発に競争することでお互いを高めあって欲しいんだけど

キャプチャソルバが別リポジトリにあるというだけでヴォルデモート版のURLをBAN対象にしていた4chan運営が悪いんだよね
というかBANされる度に状況説明するから却って広まった
0276名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:05:17.34ID:fi5oJJ1u
最新では変わってるかもだけど
1111のバッチカウント最大16だから、バッチサイズ盛りたくなっちゃうんだよね。ぶん回し環境だと
もしくは簡単に最大カウント直せたりするのかな
0277名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:05:56.23ID:a5vZ4HJ6
>>239
男女格差がヤベェw
別にwaifuの男女に限らずモンスターや怪物みたいな
学習データに無い事をさせようとすると一気に破たんするね
万能学習データとかは流石に無理そうな気がする
0280名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:24:46.11ID:f4HgP/qZ
一度プロンプトやseedが失われてしまうと二度と同じ絵を出せないのまさに呪文って気がする
思い描いていた空想上の未来のAIはいくらでも同じ絵出してくれそうだけど現実は違った
0281名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:31:49.57ID:Ffz4iYKI
お、いいじゃんこのプロンプト
って思ったらワンクリックでテンプレ的に保存出来る機能があれば便利なんだけどなぁ 1111様

あとInterrogateを使わない人達にとって生成ボタンの横にでっかく置かれると
間違って押してプロンプト全消しが頻発したりと邪魔なので、
小さくしたり位置を下の方にして頂けるとありがたいです 1111様


いつもありがとうございます1111様
こんなスレ見てないと思いますけど
0282名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:39:01.84ID:o0tbepg+
>>281
> ワンクリックでテンプレ的に保存出来る機能
Save prompt as styleボタン押すとプルダウンで簡単に選べるようになるよ
保存先はstyles.csv
0283名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:39:22.00ID:2kk/h0le
>>280
昔作ったのがまさにそれになったので1111でpng埋め込みにして
それ参照に慣れるためと管理が楽になるので設定txtはもう出してないわ
ここらがない(のかな?まだ)hlkyは使うに値しない
0284名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:44:01.64ID:Ffz4iYKI
>>282
ありがとうございます
ただのSAVEしか使わず見落としておりました


重ね重ねすみません1111様
Load prompt機能などありましたら助かります
0285名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:45:04.59ID:Ffz4iYKI
と思ったら、セーブしたプロンプトを読むこむ機能がありました
すみません1111様
良いお年を
0286名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:47:01.65ID:hlwlaZFe
生成する際に最初にひとつだけ日時.txtを作ってそこにパラメーターを書き込み、画像ファイル名に日時とパラメーターとプロンプトの一部を入れて、pngにも情報を入れている俺に死角はない
0287名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:48:25.37ID:f4HgP/qZ
ぶっちゃけ呪文の探求に膨大な時間を使うより
そこそこの呪文さえ用意したら後はバッチカウントを500とか1000にして
飯食ってるときとか寝てる間にぶん回す物量作戦が最強だったわ
極めて稀に奇跡の一枚が出てくる
0288名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:50:07.39ID:AOyet4s5
要望とか問題報告は、githubのissueに書けばいいよ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues

あんまりしょうもないことや、問題報告で情報不足(何をやって何のエラーが出たか書いてないとか)だと迷惑だけど、
普通の文章でこうすると便利だと思います、みたいに書けばいい

後、重複してないかのチェックはすべき、ぐらいかな
0289名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 15:59:12.29ID:5ot6iVeK
呪文とCFGとSTEPをハッシュにしてフォルダ名にして、そこに呪文とSTEPとCFGをテキストで書き込んで、ファイル名にはseedをぶっ込む。
これで同じ呪文とCFGとSTEPの画像は全一つのフォルダに追加されて、どんな呪文かはフォルダ内のテキストとファイルのseedで再現可能。

ってCUIでは簡単だけど1111ではどうやればええんやろうか
0290名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 16:01:58.82ID:dSXCmapC
>>287
似たようなこと思ってたけど何百枚ってなると今度は選別が大変になってきた
これもAIにやってほしい()
手が写ってるのは除外するとか
0292名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 16:12:48.61ID:hlwlaZFe
>>289
その辺は主にprocessing.pyとimages.pyを弄れば自由に実装できる
GUI上で動的に設定を変えたいならshared.pyやui.py辺りも弄ることになるけど
0293名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 16:18:36.84ID:o0tbepg+
>>289
再現に関してはデフォルトでPNG内にプロンプトとかの情報が埋め込まれてる
PNG Infoタブで読み取る機能もあるから自分はこれで事足りてるかな
0294名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 16:20:23.86ID:xknwixVp
>>289
1111は出力された画像にシードとか入ってるから、画像ファイルだけあれば再現できる
1111のpng infoで読み取ってコピペ
0296名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 16:53:29.13ID:5ot6iVeK
>>292,293,294
ありがとうございます!

だったら、画像全部一つのフォルダに突っ込んでから別でバッチ処理かけて分類すればいいか。
機能が多すぎて、どこをどうさわればどうなるかのさえ、まだ手探りw
0297名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 17:39:25.51ID:dSXCmapC
やっぱり1111のcuiほしいよな
コード読むのだるいしseleniumでwebui動かすか
なんかバカみたいだけどw
0302名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:09:31.72ID:5ot6iVeK
GUIからエンジンにパラメータ送ってるわけだから、CUIから同じようにパラメータぶん投げるようにして回せるようにしてみようかな。
0303名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:11:44.43ID:5ot6iVeK
けど、毎回ロードしなおしってのはなんとかせんとだなあ。
そこをクリア出来たら、単にパラメータの多いだけのCUIと考えられるのかな? 今日インスコしたばっかりなんで、何がどうなってるか全然だから、ソースとリファ読むところからだな……
読んでるうちに仕様ごとがつっと変わりそうなのがアレだけど
0305名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:23:37.27ID:QqAzS5dp
>>300
起動時に、--allow-codeをつけるとscriptにcustome codeが選択可能になって任意のpythonが書ける

webui.bat --allow-code

・・・・はずだけど、今見たらCUSTOM CODEで何が書けるのかマニュアルが消えてて分からなくなってる
ごめん。今の仕様で何ができるかわからないわ・・・
0309名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:45:29.76ID:5ot6iVeK
>>307
colabの場合は単純明快で

pipe1 = StableDiffusionPipeline.from_pretrained( wifuのデータ読み込み )
pipe2 = StableDiffusionPipeline.from_pretrained( ノーマルのデータ読み込み )

ってそれぞれにパイプつないで、

image = pipe1(prompt, 各種オプション)["images"]
image = pipe2(prompt, 各種オプション)["images"]

って感じで使い分けるだけでおk。
あくまでも、デフォのSDで走らせる場合ね。
0310名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:49:18.10ID:sVUDy3TG
>>307
AUTOMATIC1111版なら

メモ帳を開く
そこにwebui-user.batをドラッグ&ドロップ
set COMMANDLINE_ARGS= の後ろに--ckpt sd-v1-4.ckpt
と指定する
--ckpt (ファイル名).ckpt みたいな感じ
VRAM使用量削減の文もあるならそのまま後ろに繋げる

set COMMANDLINE_ARGS=--ckpt sd-v1-4.ckpt --medvram --opt-split-attention
みたいに
そしてそれを上書き保存する

そして保存したbatの名前を適当にわかりやすいものにしてコピーして
またメモ帳で編集して
set COMMANDLINE_ARGS=--ckpt wd-v1-2-full-ema.ckpt --medvram --opt-split-attention
みたいに書く
それも保存する

どっちのbatを押して起動するかによってモデルが変わるようになる

※ただ、うちの環境だけかもしれないけども、model.ckptというファイルが存在しないとエラー吐くから注意
0311名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 18:49:48.58ID:QqAzS5dp
>>307
試してないけど、起動オプションに--ckptがあるので

webui.bat --ckpt weifu.ckpt

とかすればいい気がする。


shared.pyの中身見れば分かるけど、起動オプションの説明ページも見つからない。どこ言ったんだろうw どっかにあるのかな
0314名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 19:01:26.05ID:2kk/h0le
ID:WnNMyfXj
前スレの609だね

609 :名無しさん@お腹いっぱい。[sage] 投稿日:2022/09/09(金) 20:19:44.68 ID:L3GJdIaT
automatic1111版、最近起動オプション書くファイルが分離されて、
SD、WD、とりんさまの切り替えとかいい感じにできるようになった
https://i.imgur.com/41XCagC.png
0315名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 19:18:19.28ID:zg9YaASo
体の破綻をNGに
body broken up
0318名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 19:44:33.50ID:N+H9Mp9M
手も顔みたいに五指を認識して再描画する様な専用のAIが必要なんだろうな
マトモに出力されるのほぼ見ない
0323名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 19:54:56.13ID:Hgh+fPIe
そういえばここの人らの人に見せれるものになる打率って体感どれぐらいなんだろ
半分も行けば上級者ライン?
0327名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 20:19:16.14ID:kQTaqo/Q
背景画で一番細部まで描写してくれる言葉ってなんなんだろ
0330名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 20:22:23.35ID:j/xx6iwA
waifu版、プロンプトcomicよりmangaの方がクオリティいいな
プロンプトにmanga、ネガティブにcomic入れて調整できるかな
0335名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:09:15.78ID:fi5oJJ1u
正しいプロポーションの画像素材が多いシチュエーションを思いつけるといいんだけどな

背景は後から付ければいいやと思って、「in white background」で画像作ってたことあるんだけど
肉体の造形が顕著によくなった(白背景のスタジオ写真が母集団に大量に入ったんだと思う)
ただ、ちょっとポーズが単調になるきらいがあったからやめちゃったんだけど、こういう発想で何回いい呪文を思いついたら多分劇的によくなる
0342名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:47:33.78ID:a5vZ4HJ6
>>329
どうやらdragonの単語で西洋の竜と東洋の龍が混在してるみたい
蛇状の東洋の龍に引っ張れて破たんする事が多いように感じる
これは学習データの未熟さだろうね
0343名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:48:07.10ID:q9KWOZ+6
一気に作るんじゃなくて、ボーンと構図を設定してそれを元に生成したら結構いい感じになりそうってことか。
腕が複数とか頭が複数も防げそうだし。
引きでの顔の蕩けは防げないけど。
0344名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:49:17.65ID:q9KWOZ+6
>>342
そんな感じだった。ドラゴンに襲われる村ってやったら日本昔ばなしみたいな平和なドラゴンが村から生えていたw
0346名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:53:52.31ID:X3tCSZ1v
ドラゴンじゃなくワイバーンなら西洋竜ぽくなるんだろうか
そのかわり小物感も出そうだけど
0348名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:57:16.93ID:JlwOAvNI
>>339
これ
パース付いてるような構図でもちゃんと認識してくれるかな?
写真だと角度ついて胴体が隠れてるような場合目茶苦茶になるんだよな
0349名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 21:57:33.75ID:q9KWOZ+6
そっちの発想は無かった。ワイバーンとかだけでなく、神話のモンスターなんかもちょっと試して見る。
0351名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:15:48.49ID:fi5oJJ1u
trading card illust of big dragon flying sky, dragon fire attacks village, greg rutkowski

なかなか打率の高い村を襲うドラゴン>>344の呪文を作れたぞ(ただしwaifu版環境)
頭の体操に面白いな
0353名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:25:58.64ID:q9KWOZ+6
>>351
センキュー

なんとなく見えて来た。
ドラゴンじゃ大雑把すぎるっぽい。
もっと具体的にトレーディングカードのドラゴンとかアイルランドのドラゴンとかファフニールとかピンポイントで指定する必要があるっぽい

あとワイバーンって何故か女さんがsan値直葬で登場するんだが…貴婦人とかいう意味あるのかな。
0354名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:29:34.24ID:F+5A822q
Negativeで使えるワード

bad/poorly 質が悪い
asymmetrical 非対称な 揃っていない
emotionless 感情の無い
broken 壊れた
mutated 変異した
extra 余計な

poorly asymmetrical drawn emotionless eyes をNegativeに入れると
質が悪く非対称に描かれた感情の無い目 から遠ざかるので
質が良く対称に描かれた感情のある目 になる
引きの画で目がブッ壊れる時に有効
0355名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:29:42.40ID:fi5oJJ1u
>>353
いえいえ
自分はトレーディングカードって宣言することで、絵のクオリティを上げつつ東洋龍を排除したけど
他の方みたいに種族を指定するいい方法もあるんですね
勉強になりました
0357名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:32:21.22ID:Q7ak/h38
d&d とか mtg 関連はかなり認識するはず
dragon, kamikawa
にすると東洋龍に偏る
ただニコボーとか入れるとカードそのものになりがち
0358名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:41:37.12ID:a5vZ4HJ6
>>350
学習先がビックリするほどMTGだw
ネガティブにカードとか単語入れるとフレーム排除できるのかな?
環境構築が済んだと思ったら学習データに苦労するとは思わなかった
0359名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 22:47:46.33ID:F+5A822q
>>356
試してみたけど輪郭以外ツルッツルなのが相当悪さしてるな
申し訳程度にでも適当な髪の毛と眼球と水着ぐらい着てると認識率上がると思う
0361名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 23:08:52.13ID:+nG/qK5K
しらんまにGFPGANのモデル1.4来てるなぁ
1111版で使うのに1.3にリネームしたら使えるみたいだ
0366名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 01:10:56.90ID:PPRJYMyI
>>362
3D人形をそのまま使うよりもボカシを入れたり
ベタ塗りしてアニメ寄りにした方がいいかもね

ペットの写真にボカシ加工入れてローポリ化した画像とか上げてる人が居た
0367名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 01:15:16.41ID:82aFI8/C
>>353
ファイアードラゴンでドラゴンアクセサリをまとった女の人ばっかり出てきてどうしたことかと思ったら、人物画描く画家さんに引っ張られてたわw
0369名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 01:21:39.89ID:vqnipCc3
このスレの人ってフィギィアにぶっかけとかしてそう
他にやる事ないの?(笑)
0373名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 01:50:00.01ID:1ivR8tsz
あっちで雰囲気に合わせて鬱憤晴らして
こっちで素に返って敬語で虎視眈々と取り組んでるのはシュールw
0375名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 01:55:52.42ID:Ltg/09kC
>>368
モン娘のデザイン考えなくていいなコレ
こういうの大量に出してソコから良いのを元にして自分で描けばいいし
0379名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 06:47:29.73ID:aTjNWWQ0
waifuと呪文研究の進展にcodeformerもあるしでマジでかなりのイラスト出るようになってきたな
顔が駄目とか体が駄目とかどんどん過去のものになってる
0382名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 06:58:10.94ID:aTjNWWQ0
ネガティブプロンプトまじで神だな打率めっちゃ上がる
通常プロンプトとはトークン数別で計算されるし
少ない副作用でプラスの効果だけあるワードが多い
0383名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 07:13:06.04ID:JvjZUPik
>>214これ使って見た感じdanbooruタグ指定可能な要素はWaifu風味になって
そうでなければ元のSD準拠っぽい感じになった
ただdanbooruタグ内容と近そうな要素はWaifuに引っ張られた表現になってるかも
0384名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 07:31:05.44ID:BOj2Pbun
あとは手さえなんとかなればギャルゲの立ち絵とCGくらいなら賄えそう
さすがに全部手隠しポーズは違和感が
0389名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 08:14:39.46ID:PPRJYMyI
>>384
恐らく部位特化型の学習モデルが出てきそう
学習の仕様上、数を覚える事が苦手みたい
握り拳とか状態で指の数が変わってしまうから難しそう

修正したい部位以外をマスクして特化モデルで再出力・・・
プラモにエアブラシをかけるマスキング作業みたいになりそう
0391名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 08:51:18.46ID:2sN3eqXo
>>381
それより共有メモリーでも動くようにしてほしい

ガチャってる時は高速のほうがいいけど
採用した絵を高画質で作る時は遅くていいんだよ
0392名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 11:25:40.20ID:WxNYdbZG
タスクマネージャに堂々と共有メモリー○○GB!って書いてあるけど
あれそもそもCUDAだとまともに使えなかったはず
ゲームする時にドライバがあふれたデータの退避場所にしてるぐらいで

できたとしてもbasujindalとかがやってる
処理を分割してVRAMとRAMの間を行ったりきたりさせる手法とほぼ変わらないし
0393名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 11:44:57.87ID:ZD0gnppH
GeforceもNVLinkで単一GPUとして動作するようにしれくれないかなとは思う
それが欲しけりゃA6000とか買えってことなんだろうけど
0394名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 11:48:47.97ID:18H+xhA2
>>146
楽しくてちょこちょこまわしてる
わいもゆるふわ勢
でも皆の会話のレベルが高すぎて理解できんw

今日Dalle2の招待も来てることに気づいた
そっちも行ってみるわ
0398名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 13:29:39.31ID:AGCrOEPd
>>395,396
こんな感じ?俺は解決の糸口がないように読んじゃったけど自信はない。

・SDは2017年のディープフェイク以来のオープンソースAIブーム
1.タイルベース(512x512制限)、及び顔
 ・ReadESRGANアップスケーリングや、512x512画像のつなぎ合わせ手法が試行されている。GOBIGのtxt2imghdは、メインブランチにまもなく提供される予定
 ・人間は顔に注目するが、AIには顔を特別扱うする仕組みがない。
  現時点では手動で修正が必要。一旦生成した後、顔のみimg2imgで生成し直して合成する、等
  https://www.unite.ai/wp-content/uploads/2022/09/Hendricks_0002.gif
  https://www.unite.ai/wp-content/uploads/2022/09/Hendricks_0003-1.gif
  顔の部分のみフォーカスして再作成・合成もできる
  https://ml8ygptwlcsq.i.optimole.com/fMKjlhs.QRSi~1ce64/w:auto/h:auto/q:mauto/https://www.unite.ai/wp-content/uploads/2022/09/connelly-eye.jpg

2.手足
 ・手足がおかしい問題はモデル1.5でも解消しない。
 ・学習元データには人体、人間行動の多くのラベルがある
  本来はこのような階層であるべき。 body>arm>hand>fingers>[sub digits + thumb]> [digit segment]>Fingernails
  しかしソース画像は「手」などで止まっているものが多い。(なので腕があれば手も高確率で表示される)
 ・この点について自動的なラベル付ができるアルゴリズムはない。更にアニメのように指が4本のキャラクターもいる
  方法1.トレーニングデータのラベル付けを適切に行う(極めて大量の人手がいる)
  方法2.GPT-3とDALLE-Eで行ったように指が3本とか5本とかのコンテンツを描画時にそれを除外してしまうこと
  (注)方法2は多分ホラーみたいな表示にならないように、ということで、要するに解決策は今のところないということ?

3.カスタマイズ
 ・モデルに高品質な画像を追加学習は大きな可能性がある。しかし30GB VRAMが必要なのは一般ユーザーには厳しい。
  また、追加学習はハードフォークになるため、公式モデルの進歩についていけないこともデメリット。
 ・Textual Inversionであればこの点問題はない。ただしどの程度効果的に使えるものかはまだ検証されているところだ。
0399名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 13:45:33.85ID:mvHAlUyA
>>386
resnet(5年以上前の技術)で作られてるのかな
ちょっと古いから残念ながら期待できなさそう
同時期に出たyolo含めてこの数年の進化がヤバイから
0401名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 13:53:45.01ID:aTjNWWQ0
強力な呪文ほど消費トークンが多いことが分かって壁にぶつかりつつある
ガチで可愛い顔とか綺麗な髪出そうとするとシチュエーション指定するトークン数が残らん
0402名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 13:55:47.59ID:GTxoRhEh
中身を理解してるわけじゃなく映像を組み替えて雰囲気出してるだけだからねぇ
人体もそうだけど、ボードゲームとか描かせると知ってる人間の目で見ると酷いどころじゃないよね、チェスでも将棋でも
回路図とか機械図面とか言い出したらきりがないけど
0403名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:00:25.04ID:GTxoRhEh
>>401
スペースやカンマをなくしたら?トークン数減りつつちゃんと認識してるはず
どうしても前後で混ざっちゃう単語だけ避けて、めっちゃ見にくくなるけどw
あったときと結果は変わっちゃうけど、ランダムseed起点でやってるならそれがどうしたって話だし
0404名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:04:00.13ID:+jwpreHM
>>402
> 中身を理解してるわけじゃなく映像を組み替えて

今のところ全く学習が不完全だけどこれは違うよ
特徴を理解して描画してるので、映像を組み替えてるわけじゃない
0405名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:11:25.77ID:tWBKSZJb
>>386
背景のない全身像だと的確なタグが出るね
あとdanbooruにある画像を入れると記入されてないタグが見つけられて便利
0406名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:18:50.83ID:t1atOkIb
danbooruのタグって役に立ちそうであまり役立たないんだよな
少女漫画系だろうがアメリカンな画風だろうが1girlだし
あれ、英語で少女漫画風ってなんで言うんだろ
0407名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:25:55.85ID:8W/y1oSw
質問です。
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/
上のURLを参考にcolabで1111版導入したんだけど、
waifu使いたくて、四苦八苦している

プログラム初心者ながら、
#@title Normal 1.4 modelから始まるところの最後の行を
https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt
から
https://huggingface.co/hakurei/waifu-diffusion
書き換えてみたんだけど

最後のimport sysから始まる行で、
UnpicklingError: invalid load key, '<'.というエラーが出てしまった……

わかる方いたら、教えてください
0408名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:28:03.89ID:I6P2SSmx
ギガジンに聞けよ
0409名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:30:27.44ID:mvHAlUyA
>>407
簡単にやるなら、普通にインストールしてwaifu抜きで動くようにする
で、その中にあるmodel.ckptファイルをwaifuからダウンロードしたやつで上書きする
waifu対応でやることはファイル名変更と上書きだけ
0411名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:32:51.42ID:wOad4Ono
>>407
waifuのcktpを代わりに突っ込まないとダメ。
model.cktpにリネームされてるから、waifuのcktpをリネームして上書きすればとりあえず動くはず
0412名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:35:05.75ID:FgF1ICeE
>>407
waifu-diffusionのページの

Original PyTorch Model Download Link

からwd-v1-2-full-ema.ckptをダウンロードしてmodel.ckptにリネームしてstable-diffusion-webuiディレクトリに置けばいいんやで。
0416名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:46:35.98ID:ZBK6gyg0
というかこれ毎回ckptダウンロードするからめっちゃ時間かかるね
自分のGoogle Driveに保存するバージョンのノートブックとか探したほうがいい気がする
俺はもうGoogle Colab使ってないから調べる気はしないけど

自前でGoogle Driveからコピーするようにしても改造するのも簡単だけど、ちょっとだけColabの勉強はいるね
0417名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:51:39.17ID:wOad4Ono
無料だとGoogledriveの容量15GBだから、なにげにキツいんだよね。
waifuのcktpぐらいだけならいいけど、とりさんまとかも置いておくとあっという間にあふれる。
0418名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 14:52:48.45ID:wOad4Ono
#@title Normal 1.4 model
#get a token from https://huggingface.co/settings/tokens
#user_token = "" #@param {type:"string"}
#user_header = f"\"Authorization: Bearer {user_token}\""
#!wget --header={user_header} https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt -O model.ckpt

!wget https://thisanimedoesnotexist.ai/downloads/wd-v1-2-full-ema.ckpt -O model.ckpt

トークンもなんもいらないので、ヘッダも削っておk。
0420名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:01:17.21ID:tsqH+USA
Tesla T4(15GB) だけど、>>415で、実行すると最後のwebui実行でRAM不足になってクラッシュするね

ローカルでもwaifu版使ったことないけど、RAM必要量多いのかな
0422名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:10:14.26ID:8W/y1oSw
たくさんのアドバイスありがとうございます!
無事、colabでwaifu版を動かすことが出来ました!!
0423名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:14:17.52ID:I6P2SSmx
いやいやクラッシュするのになんで動くんや
まあ動いたならいいよ
0425名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:38:48.60ID:wOad4Ono
やっぱ、ネガティブワードは必須だw
ちょっとでも日本要素があったら、どっからか紛れ込みよる

ラノベの表紙風のってしただけで、五重塔とか富士山がが
0426名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:41:37.13ID:WxNYdbZG
full-emaは不要な学習用データが付いててそれごと一旦RAMに読み込んでから必要なところだけVRAMに送り込んでる
およそ7GBぐらい食うはず
意外とRAMが貧相なColabだと不足で落ちるかもね

単純に要らない部分をカットすればいいだけなんだけど
colabで動かしてる人少ないから解説とかは無い
0427名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:43:57.46ID:04dwwjD+
ネガティブって何個使えるんだろう
段々長大になってきて、トークンで言えば30個ぐらい書いてると思う
0429名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 15:56:04.38ID:WxNYdbZG
>>428
学習をどれだけ進めたかという違い
学習が進んでいるほど数字が大きい
どうも進めた方がいいという訳でもなく全部使ってみて好みで選べということらしい
0433名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 16:14:38.15ID:I6P2SSmx
Colab proの初心者か
0437名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 16:52:14.28ID:BOj2Pbun
colab初心者はまず設定→その他からコーギーモードを選択しとけ
powerレベルを上げるのも忘れるな
0439名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 16:55:59.41ID:48wWYYKP
>>435
もてはやされてるからどんなスーパー言語かと思ったら
インデントがスペース任せとか椅子から転げ落ちたわ、コピペ時にズレるがなって
0440名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 16:56:05.40ID:md6fcuqO
途中送信してしまった
>>310
ありがとうございました!
>>311
これはファイル名を書き換えるということなんですかね…?
拡張子がbatじゃなくなると起動できなくないですか?

あと皆さんってどういう感じでckptファイルを使い分けてる感じですか?
0442名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 16:58:44.52ID:md6fcuqO
>>314
実は前スレでこれ試してたんですが出来ず…
>>310の最後のmodel.ckptが無いとだめというのが原因かもしれません
というかこの場合ちゃんとmodelじゃない方で起動できてるんですかね…?
0444名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:02:40.29ID:wOad4Ono
>>440
フォトリアルか絵画かで分けてる
ダンボールタグ突っ込まなかったら、海外の濃い絵が出てくるのでwaifuでも問題ない感じ
0446名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:05:07.31ID:md6fcuqO
>>443
書いてから思いつきましたがそれでも良いみたいですね
>>444
なるほど…!
フォトリアルってSD標準のってことですかね?
>>445
更新きたんですか?早い
0450名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:25:05.97ID:48wWYYKP
古い1.3のckptが残ってて、メモリ充分あるし7Gあるこっちのがいい場合があるのかも?って考えてたんだけど
https://www.reddit.com/r/StableDiffusion/comments/wv1.4ucan/everyones_drooling_over_14_but_i_find_13_better/
普通に4Gになった1.4の方がいいみたいだね

waifuのとサイズがほとんど同じって中身はどうなってるんだろう
7,525,253KB waifu
7,525,250KB 1.3
4,165,411KB 1.4
0451名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:29:20.44ID:XCoq+uDM
>>440
> これはファイル名を書き換えるということなんですかね…?
> 拡張子がbatじゃなくなると起動できなくないですか?

意味が分からないが、Automatic1111なのに、webui.batが存在しないなら、何か間違ってるよ
0452名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:30:51.02ID:WxNYdbZG
>>450
ニューラルネットワークの大きさが同じで値が変わってるだけだからサイズも変わらない
waifuも1.3もEMAを切り捨てると4GBぐらいになって1.4の一般配布版とほぼ同じファイルサイズになる
半精度に落とすと2GBぐらいで済むはず

EMAは学習を再開するためのセーブデータで画像を作るときには学習はしないので関係がない
0453名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:36:13.86ID:lbWo/Aow
>>435
>>439
普通のテキストエディタとか使うとたしかに苦行かもだけど
各言語専用のエディタとか拡張機能とか使いまくってるせいかあまり気になったことはないかな
PythonならintelliJとかVSCodeとかがおすすめ?
0455名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:41:11.86ID:vCMSN3bb
Python最初見た時型宣言無しなのは草生え散らかしたわ
いまだに慣れない
というかIDE無しだと実質開発不可能だなこんなの
0456名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 17:41:50.80ID:48wWYYKP
>>452
ありがとう
> EMAは学習を再開するためのセーブデータで画像を作るときには学習はしないので関係がない
こういう都合なのか
0458名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 18:16:42.02ID:vCMSN3bb
うん、でそれだと大規模なプロジェクトでは色々困るからということで厳格に型を決める言語がずっと人気だったわけでしょ?
結局Python3から型宣言できるようになったし
0464名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 18:31:48.75ID:md6fcuqO
>>461
分からないことを分からないって言うのってむしろ人間っぽくないですかね
まあそれで言うと回答を持ちながら答えずに嘲笑するのも人間と言ったところでしょうか
0466名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 18:38:02.56ID:npOZRUOT
ごめんね
基礎的な事わからない人が来る可能性を想像できなかったはずないのに
オーバーリアクションしつつ知識マウント取りたいっていう知性とは矛盾した人が居座っててごめんね
0467名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 19:14:42.08ID:mvHAlUyA
真っ赤な嘘かもしれないけど俺の理解だとこうだな

ema(加重平均)が画像生成用で、no-ema(単純平均)が学習用
full_emaはemaとno-emaの両方のウェイトが入っていて
no_emaはemaだけ入ってる(意味不明)

で、SDは利用者がemaだけのmodel(no_ema)を使うこと前提にしてるから
v1-inference.yamlがuse_ema=Falseとなってる(意味不明)
これによりfullだったら自動でemaではない方(単純平均。学習用)を使うし、no_emaだったらema(加重平均。画像生成用)になる(頭がこんがらがる)
(SDのreadme参照)
つまりfullをインストールしたら、画像生成用ではなく学習用のデータでSDが動くことになる
ちなみにfullの方(学習用データでの画像生成の方)がVRAM消費量は少ないみたい

use_ema=True(画像生成用ウエイト使った状態。no_emaを入れた状態に等しいはず)
https://i.imgur.com/DWXPXF1.jpg

use_ema=False(学習用ウエイト使った状態。fullを入れるた状態に等しい)
https://i.imgur.com/OAQa5ZL.jpg
0468名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 19:27:08.64ID:+/8TcnvG
真っ赤な嘘かもしれないなら書かんでくれ
意味不明とか言うならまず自分の中でその疑問を消化してくれ
0470名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 19:37:33.12ID:W0VY9/S/
>>209
それでしたー!!
自分で入力はしてないんですが、アカウント削除を選ぶとすでに入力状態で開いてたので
疑問には思わずそのままやってました

ありがとうございました
0471名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 19:47:59.46ID:04dwwjD+
すごいスピードで知識が上書きされてく世界だから
もしかしたら間違ってるかも知れないことでも、そのことを断って書けばええんや
仮に間違ってたら知ってる人が訂正してくれたり、興味がある人が検証してくれる
そういう姿勢で臨んだ方がみんなの知識のレベルは上がる

知識が固定してたり、停滞してるジャンルとは違う発想を持たないと
0472名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 19:52:01.67ID:WtU7t32O
>>197
私もminiconda環境だったのでこれすごい助かった。

hlky版の--optimized-turboみたいなのどうやるのかと思ったが
shared.py参考に--opt-split-attention付ける感じにした。
あとwebui-user.batに
call C:\ProgramData\miniconda3\Scripts\activate.bat "auto1111"
を追加するとダブルクリックだけで起動できるね。
0474名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:00:41.18ID:ojC+NXoL
>>197は参考にしない方が良いよ・・・
本来はwebui-user.batでPYTHONパスを指定していればそれだけで解決するはずだったものと思う
0475名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:03:41.81ID:HlPwHtrB
>>474
conda環境なんだからcreateして分けるのが普通だよ

そもそもminicondaいらねってならともかくhlkyがminiconda前提なんだからしょうがない
0477名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:10:57.39ID:HlPwHtrB
>>476
まあ今はそうなっていて、Baseのままでも動くとは思うけど、わざわざ切らずにBaseに入れる理由がない
元々はvenvなかったしね
0478名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:20:48.95ID:82aFI8/C
1111版にlinux用のインストーラが付いたけど、READMEのmanual installのセクションは特に変わってないから今まで通りのインストールでええかな……

ちゅーか、通常の更新時はgit pullするだけで大丈夫よね?
0479名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:26:32.65ID:wgHSpbpB
よく見るとmanual installが微妙に変わってたり
requirments.txtの中身変わってることあるから油断できない
テキトーに更新したらtxt2imgは動くけどimg2imgだけエラーになったこともある
0480名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:28:01.35ID:tWBKSZJb
condaとvenvの両用は想定されてないからやめとけってだけでは
というかcondaでも手動でインストールすればpython3.9で動くので、>>197は何かしら入れ忘れていると思われる
0481名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:28:56.13ID:JvjZUPik
割と半日単位で新しい情報でてくるからついていけるだろうか君のいない世界のスピードに(やる夫AA)みたいな状態になること多い
0482名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:31:48.40ID:+lxu3qHH
>>197のやり方はシンプルなんだし、
気に入らなきゃcondaの環境消せばいいんだし。
0484名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:34:50.23ID:ojC+NXoL
初回起動時にpython -m venvの1行を実行するためだけにconda環境切ってるのが無駄に感じるんだよね
2回目の起動からは結局conda環境無視してvenv/Scripts/python.exe使うわけだし

1111版のPythonのバージョンで動かないケースは典型的には2系の古いPythonが立ち上がってvenvが無いというエラー。
なら set PYTHON=C:\Users\XXX\miniconda3\python.exe って書くだけで万事解決させた方がスマートな気がするんだよね
0485名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 20:35:35.95ID:+/8TcnvG
>>478
オートインストールと合わせるためにSD本体の下にwebui入れる構成からwebuiの中にSD本体入れるようにした
っていう割ととんでもない変更が書かれてるけど
それ既に対応してるならgit pullでいいのでは
0488名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:02:22.13ID:biqLXsLF
>>487
大多数は褒めてるが規制が強すぎて使われないサービスになる
透かしもAIで消せる
全員で足引っ張って海外に遅れを取ってサービス終了
0489名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:07:06.02ID:2WsC6UCI
>>487
規制関係なくサービス自体できることがなく、使いようがないからどうでもいい
文句行った奴らは責任もって使えよ、って感じだが、まあスレチ
0490名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:28:44.08ID:I61YbTdQ
mimicってこのスレでいいのかな?
絵描きじゃないとダメ、か・・それじゃ商売にならないと思うが
描ける人は顔だけとか自分で描いた方が早いでしょうに
0492名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:38:26.31ID:GhNhAF5e
SD1.5って、どの辺が賢くなってるのかな。
どうも指やら手やらはまだ無理っぽいが。
顔が増えるのは何とかなってるのかな…
0493名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:41:36.51ID:PPRJYMyI
mimicは技術内容でもないし↓だろ
ttps://mevius.5ch.net/test/read.cgi/illustrator/1662093183/

次スレでは最低でもワッチョイありにしてほしいわ
0494名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:41:45.37ID:5Ra3qY/o
ColabでノーマルSD動かして、生成した画像をGoogleドライブに保存してるんだけど、
その時にGoogleドライブ上のファイル詳細の「説明」部分にプロンプトを入れて一緒に保存しておきたい
Colab上の記述でこの「説明」に書き込む方法とかわかる人いる?
0496名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:46:56.53ID:biqLXsLF
それIPアドレス変えてるやつがスレ伸ばしてるということだぞ
0497名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:51:55.08ID:wgHSpbpB
>>494
メタデータ保存するところで'EXIF:ImageDescription'かな?の行を追加すればいい
場所は前スレにあったはず
ただし'EXIF:ImageDescription'じゃないかもしれない。その場合はexiftoolでメタデータ書き込まれてる画像を開いてみれば名前分かると思う
あと日本語プロンプトは文字化けするかも。explorerの仕様がおかしかった気がする(win7の頃はおかしかった。今はしらない)
0498名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 21:52:26.57ID:NyhFtoaw
開発者
「手の問題は難しい。それは1.5でも全くと言っていいほど解決されていない。
なぜなら漫画やアニメや映画に登場するようなキャラクター達の3本や4本指の手を人間の手と同じ様に捉えている。
『人間の手』を作るのであれば、そういった画像を全てデータから消す必要がある。
また、親指や人差し指、中指といった、手の中でも指が独立して動くという概念の学習が完璧に行えていない。
手という人体の中でも屈指の複雑な動きを行える部位について、AIが自ら完璧に描画出来る将来がいつになるかは未定だ」
0502名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:24:28.78ID:+/8TcnvG
ツイート見てて「waifuにmarisa_kirisameって入れてもまともに出てこない!text encoderがうまく解釈できてないのだ!(ドヤァ」ってのがあったが
kirisame_marisaなんだよなdanbooru式は
みんなも気をつけなよ

>>501
そのツイートの通り、学習させたいものだけをピュアに渡すと成功しやすい印象
背景がくっついてきてたり、あれもこれもと欲張ると謎の概念ができあがる
0503名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:24:30.22ID:GhNhAF5e
3dのモデルデータ使ってポーズ集学習させたら、アシュラマンは回避できるようになるかな。
ついでにこのポーズ取れってpromptで強めに言えるようになるし。
0504名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:26:05.95ID:GhNhAF5e
kawaiiの破壊力はなんなんだろうか。
waifuならこれ突っ込んでおけば問答無用で目が大きくなる。
0505名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:31:03.36ID:5Ra3qY/o
>>497
ありがとう
exifってエクスプローラのプロパティから詳細開いたら見られるやつのことで合ってる?
Googleドライブの「説明」に何か書き込んだやつをDLして、エクスプローラ上でプロパティ開いても、書いてた「説明」はそこに反映されてなかったわ
逆に、エクスプローラ上のプロパティの「コメント」に何か書き込んだやつをGoogleドライブにアップしても「説明」には反映されてない(再度DLしたらプロパティの「コメント」には残ってた)
Googleドライブのファイルの「説明」はEXIFとは別枠のデータな気がしてきた

でもとりあえずどこかにプロンプト保存できればいいわけだから、EXIFとかに書き込むのは参考にできそう
1111版とかは使ってないからメタデータ何も書き込んだりしてない状態だけど、何か試してみるわ
0506名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:33:53.48ID:GhNhAF5e
>>505
Googleドライブの説明はドライブのファイルidに紐付いた別データでファイルとは別の場所に入ってるから落としたら見えないよ。
0507名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:38:03.49ID:5Ra3qY/o
>>506
ありがとう、そもそも画像自体についてるデータじゃなくてGoogleドライブ上限定のデータってことか
とりあえずGoogleドライブから落とさない前提として、その説明部分にColabから書き込むことってできるのかな
さっきからググってみてはいるんだけどうまく探せない
0508名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:38:14.37ID:GhNhAF5e
prompt保存はPNGメタとか色々と試したけど、結局はpromptのMD5のハッシュとって、それを画像とprompt保存したtextファイルに保存が1番楽だった。
同じpromptで作成した画像はハッシュで簡単にフィルタリング出来るし。txtの中に書いてあるから確認も楽だし。
0509名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:39:15.52ID:fE8Fzlyh
質問です
ここ( https://huggingface.co/sd-concepts-library )のColab使って学習させてるんですが、
Train!に
safety_checker=StableDiffusionSafetyChecker.from_pretrained("CompVis/stable-diffusion-safety-checker"), という文があるため
学習データに肌色や血の表現が多いと学習がうまくいかないとかありますか?

文自体をコメントアウトし検証できるかと思いましたが、コメントアウトすると次のaccelerateで学習(3000step)したあとの処理でエラーが発生します。
0510名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:39:17.26ID:ojC+NXoL
>>494 SDと同時に動かしてないけどColabからこれで更新できたのは確認
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials

auth.authenticate_user()
gauth = GoogleAuth()
gauth.credentials = GoogleCredentials.get_application_default()
g_drive = GoogleDrive(gauth)

file = g_drive.ListFile({'q': 'title = "XXXXXXXX.png"'}).GetList()[0]
file['description'] = 'prompt prompt prompt'
file.Upload()
0511名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:39:40.19ID:GhNhAF5e
>>507
colabじゃなくてGASではできるんで、APIは持ってると思ってるけど、ファイル名じゃなくてファイルidがいるんだよあ…
colabからfile id見えるのかな?
0513名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:43:58.58ID:+/8TcnvG
>>509
それ学習した具合を見るときのサンプル作成時にフィルタかかってるだけじゃない?
途中経過のサンプル見れない可能性があってもいいなら何もしなくていいよ

どうしても外したいにしてもコメントアウトしただけじゃダメでバイパスしなきゃいけない
0514名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 22:59:04.02ID:5Ra3qY/o
>>510
ありがとう!!
こういうの自分で組めるようになりたいわ

このまま実行してみたら、file=g_drive.ListFile~の行で、
「auth.py」の「LoadClientConfigFile(self,client_config_file」で「client_secrets.json」が無いってエラー出ちゃった
何かimportできてないとかなのかな…?
わからんけど希望は見えた気がする

>>511もありがとうね
0518名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 00:02:19.30ID:vsPNjS97
>>515
Googleアカウント認証画面は出てきたし、許可を押したはずなんだけど、なんかうまいこといかなかったのか
色々ググってGoogleCloudのAPIの認証情報を作成してjsonファイルをダウンロードしたりもしてみたけど、それを無理やりリネームしてカレントディレクトリに置いてみてもなんか認証エラーが出る…
明日また試してみるわ
0520名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 00:20:48.08ID:NEt3tqB9
Tensorコアに合わせて最適化してくれるnvidiaのツールキット使うって話だから
恩恵受けるのは20xx以降では
0523名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 01:10:19.05ID:g5lMTqhL
完成後1~2週間ぐらいデバックしたりする言ってたやん

>>499
これ試して見たけどまだ今段階だと中学生の落書き以下みたいなクオリティにしかならないので学習進むまで様子見やね
0529名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 04:07:11.12ID:I4J75l0v
doll ←これを状況に応じてネガティブもしくはプロンプトに入れるのもいいな。どうやってもCGっぽいのがネガティブで消せた

現実的に考えると顔アップでキャラ作って、img2imgで表情バリエーション用意し
実写挿入写真とかのimg2imgでポーズ調えて、フォトショで顔をコピペする感じかな
SDへのこだわりある程度捨てないと作業量増えたり、別人どころか化け物になる
0530名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 06:40:52.39ID:IEe6NApw
>>522,523
https://signal.diamond.jp/articles/-/1407
> 私は「無料のものなど何もない」と考えています。
(中略)
> 私たちはすべてをオープンソース化しますが、最新版はまずAPI経由で提供します。
> 8月31日にAPI経由で(クローズドに)提供開始したバージョン1.5は前バージョンよりも優れています。
> それを数週間後に世界に向けてリリースするのです。今後もこのようにして改善を繰り返していきます。

有料サービスとオープンソースの差異化じゃないかな

後、Discordで開発者達にプレッシャーを与えないように調整していると言ってたから、
日本語版とか追加学習モデルを作ってるパートーナーに先行提供して開発期間を確保してる、
とかもひょっとしてあるのかも
0531名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 06:59:36.18ID:KBGJsFLQ
waifuまだまだ奥が深いわ
使い方が分かってきたらさらにいい絵を引きの構図でも出せるようになってきた
もう大半の人間の絵師はキャラ絵でも敵わんわ
0532名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 09:52:07.62ID:XBL1xLID
>>531
いや、まだAIで作ったキャラクターをAIで再現しなおかつそのキャラクターに剣を持たせて戦う構図とかは書けないから絵師の仕事は無くならんやろ 一発書いて終わりの仕事は知らんが
0533名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 09:56:18.31ID:8bjJN7C4
同じキャラや舞台なんかの引き継ぎ生成が出来ないから、今のところはまだまだ使い捨ての画像生成に限られるのがネックかな。
0534名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 09:56:48.86ID:KBGJsFLQ
それは単にそういう用途に特化したAIが研究されてないだけの話で
差し替えとかコラの類は本来AIが物凄く得意としている分野だよ
動画で特定の人物だけ別人に差し替えとか服装チェンジとか簡単に出来るんだから
0535名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 10:02:22.85ID:C3UwT8/L
ガチャって言われるようにわざとランダム性を持たせてるから
同じ服、髪型のキャラを違う角度で描いてくれ、というのに弱い。
0536名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 10:14:45.13ID:XBL1xLID
>>534
まだ出来てもないAIの話だして絵師は敵わない言われてもなあ
その得意分野とか言ってるAI出来てから絵師はオワコンとか言おうや
0537名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 10:32:17.59ID:8bjJN7C4
人間は五本指に決まってるだろう! と学習させようとするとコストが跳ね上がっちゃうのね……
1.5ではせめて顔崩れが無くなってることを祈ろう。
0538名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 11:20:46.32ID:Lv7m9E+b
思ったより大したことないね
手はマトモに描けないし、ポーズは同じようなのばっかり
今後に期待
0539名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 11:25:03.82ID:MIH0nyTw
何より思った通りのポーズや構図にならないのが痛い
やっぱ当分の間おもちゃだわ
i2iでも難しい
0540名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 11:32:27.15ID:8LqRVU00
使えるところから使えばOK...なのだが、今回の件は人類の探究心を必要以上に刺激してしまった
0541名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 11:35:39.71ID:8bjJN7C4
まあ、これからだよ。
肝心のdiffuserだってver1にもなってないんだから。
今はプラグインがポコポコ出来てるので、全部SDってやるんじゃなくて要所要所でSDが仕事してる感じになると思うよ。
3Dだって大昔のPOV-RAYなんかも同じ感じだった。
0542名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 11:41:02.36ID:cbCsXzv+
アニメとかゲームっぽい人間を描かせようとするとwaifuでもなかなか難しいけど風景とか物を描かせると綺麗だし面白い発想の物が出て来たりする
というか多分そっちが想定された主な使い方だよね
人間も顔ドアップなら同人ゲームの顔グラとかには使えそうなのがたまに描けるし悪くない
0544名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 12:27:34.62ID:6NzGzMxl
スペルミスによりうまく伝わらなかったプロンプトで綺麗な画像が生まれるとちょっと悔しいです
0545名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 12:45:37.75ID:19DcYz0g
連続性って点だと3Dモデルの自動生成に期待したい
各部位をパーツごとに生成してくれればという前提条件付きだけどカメラアングル決めてパーツ並べる→既存のimg2imgにぶっこんで整えて貰う手法が取れる
0547名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 12:50:36.15ID:RoCrGH8l
80.lv/articles/a-new-gan-based-system-for-interactive-3d-face-editing/
画像から3Dモデルを作って、髪型、表情、メガネ、服などを編集できる

まあそういうAIをあるよな、と思ったらソースコードも公開されてる

https://github.com/MrTornado24/IDE-3D

動作環境とか書いてないけどコンシューマ用のGeforceでも動くもんなのかな?
0548名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 12:56:26.85ID:hy88/bHT
txt2imgとimg2imgを使うなどしてキャラクターデザインを作り、背景と人物を描いた別の絵の
人間のところにそのキャラクターをポーズを合わせてはめ込むなんかは今でもすぐできそうよね

牛乳を注ぐ女の代わりに初音ミクが牛乳を注いでるみたいなの

Stable Diffusionでもうまくやればできそう?
0549名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 13:05:45.79ID:19DcYz0g
>>529
そのワードwaifuで入れてたけど韓国の整形顔が人形判定されてるのかたまに貫通してきたからネガティブに追加でKorean_faceって入れてる
0551名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 13:37:59.98ID:5H6zgX2u
Stable Diffusion webUIをローカルで使っててRealESRGANも入れたのですが、--tileのオプションてUI上から設定できますか?
0552名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 13:40:33.94ID:I4J75l0v
>>547
うちの環境だとenvironment.ymlにある依存関係解決できなくてインストールできないな
environment.yml編集して
ninja>=1.10.2
pillow=9.2.0
imageio>=2.13.5
でインストール始まった(終わってないから動作は試せてない)
0553名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 14:24:13.05ID:RoCrGH8l
>>552
ありがとう。同じエラーで一旦それで解消しました。
けど、pytorch3dが0.0.1がインストールされてエラーになりますね。
少し調べると解決方法はありそうですが、一旦中断

話変わって
Stable Diffusion Conceptualizer というtextual inversionのギャラリーみたいなものが公開されてますね。

https://huggingface.co/spaces/sd-concepts-library/stable-diffusion-conceptualizer

texual inversionのembeddingがたくさん公開されていて、例えば<poolrooms>というプール背景なら
a girl standing in the <poolrooms>

とかのプロンプトでそれを使った絵が作成されます。

ローカル版でもオンラインのtexutual inversionをブラウズして使う、とか誰か作りそう
0554名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 14:30:45.35ID:S1OKJhyi
>>513

ありがとうございます!
0555名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 14:48:05.26ID:ZOj5KzAv
>>550
>>1
> イラストのアイデア出しはもちろん
みんなそういう使い方するだろうって想定はされてた、人間の思考ってすぐ手癖に陥るからねぇ
0557名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 15:46:51.11ID:46aVkrGi
>>548
AI自体の仕様の問題として顔や手を正確に認識できずぐちゃぐちゃになるから、そう簡単にはできない
おそらく数千枚ガチャ回して微妙にいい感じかな?ってのが出るぐらいだろう
0559名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 16:36:02.91ID:hy88/bHT
>>557
手の問題はStable Diffusionだと次バージョンでも厳しいってインタビューで言ってたね
ディープフェイクの映像は顔だけ差し替えるからうまくいくんだろうな
今は無理でも原理的に解決できない問題ではないだろうからそのうち克服されるといいな
0561名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 16:53:06.11ID:8bjJN7C4
学習深度のコスト問題がネックになってるから、この辺は時間の問題で解決するんじゃないかなあ。
ネガティブプロンプトみたいに、サブプロンプトで人体とかやったら人体構造の学習を呼び出してきて意地でもクリーチャー化を避けるみたいな
0562名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 17:09:40.19ID:ls8A43Pc
背景画を作ってるけど、stablediffusionは絵的にちょっと単調かな
midjourneyのような絵画的表現が強くなってくれないかな
0563名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 17:17:04.37ID:8bjJN7C4
風景画書いてもらってると、なぜかやたらと文字を入れたがったり映画のポスターみたいに顔を空に浮かべたがったりする時があるんだよな。
非現実系はとくにその傾向強いけど、やっぱりポスターとかそういうのを学習してるからだろうか。
0564名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 17:20:51.44ID:RoCrGH8l
Midjourneyはどういう仕組みなのか何も公開してないんだよね(多分)
汎用AI画像生成というより、Midjourneyという作家として今後も活躍するのかもしれないなw

>>563
ラクダを学習すると背景は砂漠に、牛を学習すると背景は草原に

みたいな感じで概念が混線してんだろうね
特にイラストの学習は不完全ってことだろうな。まあ元データに文字入りのものが入ってる時点で雑にも程があるって感じだけど
0565名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 17:21:17.46ID:jpNwDX9Z
SDが単調じゃなく、MJのデフォが--s 2500で勝手に色が付けられてる
具体的に何やってるかは知らんけど、初期出力4枚のうち必ずぶっとんだのが混じるようにして
単純な指定で初心者に早々にガッカリさせず、fastでガチャを回させるのに誘導するうまい商用サービス
もしかしたらdiscord上でガチャ回されてるような他人の有用コードをこっそり混ぜ込んでるまである
指定はできても、指定しなければ結果からはseed見えないしね

dalle2はそこら考えずに生のままお出ししてきたので、簡単操作ではいい絵が出てこず、初心者にすぐ飽きられた
0569名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 18:30:34.39ID:8bjJN7C4
構図だけの学習と絵柄だけの学習をマージしたら、案外現状でもサクッと期待値満たしそうな雰囲気あるな
0570名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 18:34:10.96ID:orG2PjJM
技術難度と話題の少なさからTIとdreamboothは騒がれてないけど
なんかの折で認識広がってmimicみたく燃えるってことにならないといいけど

あとアニメ系TI学習失敗しっぱなしなのでノウハウ欲しい
0571名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 18:52:57.95ID:ZyZW1HNo
mimicが燃えた理由が正にその難度の低さと日本語でわかりやすい且つ簡単に人の絵柄をコピーできるって話題性だったからなあ
そのレベルのWEB上サービスが出てこない限りは騒がれることはないでしょ
twitterにいるのはただでさえ若い女性とか子供ばっかりだし
0573名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 19:13:27.03ID:RoCrGH8l
○ストーリーDALLE-E
https://github.com/adymaharana/storydalle
※事前学習モデルと生成の方法は近日公開予定

・最近特定のテキストから画像生成は可能となったが、これらのモデルは、ストーリーの視覚化などには適していない。
・したがって、ストーリーの継続のタスクを提案する。
 このタスクでは、生成された視覚的なストーリーがソース画像に基づいて調整され、新しいキャラクターによる物語へのより良い一般化が可能になる。
(中略)
・事前トレーニング済みのテキストから画像への合成モデルを、ストーリーの継続などの複雑でリソースの少ないタスクに適応できる
 しかし、事前学習モデルは、複数のキャラクターを含む物語を理解するのに苦労している

---
ストーリー生成とまでは期待しないけど、とりあえず同じキャラクターを継続的に登場させることはできるのかな?
Geforceで動くようなものじゃないかもだけど、StablityAIがGeforceで動くバージョンを作ってくれることに期待。


>>570-572
重要な話だけど、こっちの話題かな
https://mevius.5ch.net/test/read.cgi/cg/1663123507/
0575名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 19:45:11.31ID:JtpHWLcG
>>573
ストーリの視覚化か。すごいな。
複数のキャラの認識を引き継げるようにしたいけど、流石に厳しいのね。

しかし、進捗早えなあ。
まだほんの2ヶ月も経ってないのに。
0578名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 20:02:48.88ID:QB8eY+Zm
pixivもいずれそうなるかもな
しかしAIがAIの絵を学習し続けると収束するのか発散するのかは気になるな
0579名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 20:04:05.83ID:JtpHWLcG
image2imageで2つの絵を似たような感じに寄せていくってのは結構有効だけど、試行回数が半端なくなるな……
画像のキャラと画像のキャラを取り込みつつ、自由な構図ってのはやっぱ随分先なのかな
なんか、今の速さ見てると案外年内にはサクッと出来そうな気もするんだけど
0581名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 20:12:16.75ID:7WQc8bGP
>>573
ストーリーと言うとキャッチ―に聞こえるけど
結局dreambooth辺りとやってることはそう変わらない気もする
0582名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 20:34:17.92ID:orG2PjJM
AIがAIの成果物学習はAIそれぞれが特性違ったら面白いサイクルにはなりそう
自身が吐いたもの再学習だと一定に収束したあと爆散する
0583名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 20:57:27.26ID:oiAkKwyP
オセロAI作るのに、AI同士戦わせたらルール無用でゲームにならないから強くなることもないってのと同じだぞ
ルールをスコアとして埋め込んで人が望む方向に学習させるからオセロAIは強くなるし
画像生成も人が望む方向にやるから爆散しない
学習データが汚染されてAI生成のゴミ画像だらけになってもそんな質の悪いデータセットは使わないと人やAIに判定させて、人が望む方向にもってく
0585名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 21:19:29.52ID:jpNwDX9Z
>>584
512超えサイズの時に、AIの視野的(?)に顔がちょうど見えなくなった瞬間に
そこに顔っぽい何かを見出して、それをまるで雹が核にするように起点にして製造してしまうっぽい?
0586名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 21:23:40.69ID:JtpHWLcG
人体はクリーチャーになるけど、建築物は騙し絵みたいになるな。
柱が自然に壁とか空に溶け込んでたり、壁が気が付いたら廊下になってたりとか
0587名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 21:41:31.07ID:96Xq15wK
promptで顔パーツにめっちゃ制限かけて、CFG Scaleがっつり上げるとすごいクリーチャー率上がるよねw
0588名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 21:43:14.97ID:QB8eY+Zm
>>584
そのシードで類似度が高かった特徴空間が全身図系かバストアップ系かの違いじゃないの?
プロンプトにthighとか入れとけば腰下から顔が生えるのは減らせるんじゃないかな
0591名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 21:51:23.89ID:JtpHWLcG
胸元とか襟の辺りの曲線を髪の生え際とでも思ってるのか、その下に顔が生えることが多い
あと袖口とか。
0593名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 22:33:54.62ID:9ldkoB5t
風景に人を描きたくない場合、
No one's here, て入れたり
ネガティブにhuman, people, て入れてみてるけど微妙
0596名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 22:48:04.95ID:NEt3tqB9
この画像illustrated by greg rutkowskiなんだわ
waifu使った上でネガティブで強力にリアル要素引っこ抜いてるけど
0599名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 22:59:13.31ID:5L5obeAR
昨日か一昨日にこのスレで出た
ドラゴンが村を襲う呪文考えたときもそうなんだけど
何やるんでもとりあえず「by ぐれっぐ」やしな。この界隈は
0601名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 23:05:25.92ID:JtpHWLcG
ほとんど宣言文のノリで使われるグレッグさん。そのうち、!pip install Greg_rutjowski ってなる日も近い。
0603名無しさん@お腹いっぱい。
垢版 |
2022/09/15(木) 23:09:34.52ID:mJZkjAtF
しかもSD産の画像だと画像のメタデータの中にプロンプトテキストが記入されてるからデータとしてgregさんを含んでる画像データが大量に生産されてるという
0607名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 00:24:20.96ID:tklBIHgz
>>594
1000人ぐらいいそうな絵柄だ
0610名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 00:39:06.03ID:G+D7wC5p
絵柄っていうより、3DCGモデルで作ったアニメ絵みたいな感じ
非常にまねされやすいタイプのCG顔
0611名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 00:44:24.76ID:ZdJynPrT
アニメ系厚塗りは言ってみれば違う人間が描いていても破綻しづらく量産しやすい効率特化の果てに生まれてきたわけだから、まあみんな似通ってくるのは当然といえば当然なわけで。
SDさんも厚塗り放り込んどくと結構安定する
0613612
垢版 |
2022/09/16(金) 00:53:00.24ID:7AkfYTUK
ああ…… 'jeremy mann' と 'artstation' もそこそこ人化の原因になってるか?
0614名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 00:59:59.43ID:ATv5OjaU
まさに、「どっかにこの絵柄で描いてる人居るよね」を目標にシンプルで維持されやすいテンプレートプロンプトを作ってるところなんで
その評価は狙い通りではある

本日の収穫 schematics(設計図)
十分に強いプロンプトに隠し味的に混ぜると書き込みの線が細くなり全体的に若干フラットになる
弱いプロンプトだと謎の設計図に化ける

無し https://i.imgur.com/rmpTxXr.png
schematics https://i.imgur.com/n17KN55.png
0617名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 01:06:02.27ID:ZdJynPrT
waifuでは線の細い少女小説のヒーロー系イケメンを出すのがかなりムズイ。
ショタに振れるかオヤジに振れるか、体育会系のイカツイ兄ちゃんになってしまう。
0618名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 01:15:32.46ID:MQAp0p4b
中国のあの画像生成AIなら原神や崩壊3rd食わせまくってるみたいだからイケメンも作りやすいかも
0620名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 01:28:21.08ID:G+D7wC5p
どっかに画像張られてたけど、waifuで男子を召喚しても非モテ眼鏡男子みたいなのが出てくるだけだしな
男女格差が極大の世界やで
0623名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 02:15:19.99ID:8CiemT4/
stepで変えるのは扱い難しそう。ちょっとずつ変化したバリエーション画像をたくさん生成の方がいいな
0624名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 02:27:53.72ID:7AkfYTUK
prompt editingはどこで実行するんだろう。txt2imgのpromptに a [fantasy:cyberpunk:16] landscape って入れるのは違うようだし。
0625名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 02:39:04.27ID:8CiemT4/
exampleの[fantasy:cyberpunk:16]はミスなんじゃないかな(正しくは小数点?)
プロンプトに[fantasy:cyberpunk:0.16]って書いて、step100で回すと1枚出力される
その1枚を出力する過程で100ステップまわるけど
1から16ステップはfantasy、17~100はcyberpunkって入力されたことにして処理するんじゃない?
試してないから実際は知らない
0628627
垢版 |
2022/09/16(金) 02:59:33.00ID:7AkfYTUK
あ、最後のは

a [fantasy:cyberpunk:0.4] landscape

です。
0630名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 03:06:06.57ID:7AkfYTUK
あ、そうか。100ステップだから0から始まったら最後は99なのか。
0633名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 04:53:26.28ID:18wervgK
Emadさんによると新モデルが出るらしいな
0636名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 07:00:40.63ID:u4tc8Ccp
背景がフォトバッシュと称するただのトレスが当たり前になったみたいに
キャラ絵もAIの絵にちょっと加筆して自作主張するAIバッシュが当たり前になっていくんだろうな
今でもツイッターの有名絵師は背景は写真、CG、キャラ絵は3Dトレスな人が大量にいるし
0637名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 07:15:16.01ID:eHAlc869
自分の絵に組み込みたいんだが現状手ごろなオプションがKrita pulginしかないのがな
クリスタとブラウザでいちいち画像やりとりするとか面倒すぎるし
0639名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 07:31:02.99ID:kwnwzZsv
アーティストを複数人入れてて、最後にHokusai入れてるけど
Hokusai感が強すぎ…
ちょっとだけHokusai、というか複数アーティストの比率って決められます?
0641名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 07:42:16.65ID:7AkfYTUK
>>639
あとは画家2人なら、1111版についたばかりのprompt editingで
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.0]
https://imgur.com/RhkT1e7.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.3]
https://imgur.com/tpZ5dQ6.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.6]
https://imgur.com/8NA18FG.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.99]
https://imgur.com/ubkbna1.png
とか
0643名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 08:42:02.58ID:lALpe0Io
>>638
言語―画像に使ってるCLIPが高精度版リリース、は分かるけど、
学習時の精度向上で今後リリースされるモデル2.0とかが良くなるのか、
同梱されてるCLIP更新で現時点のモデル1.4でも画像生成の精度が良くなるのかどっちなのかニワカすぎてわからない

○CLIP Vit-Hリリース
・ViTとは:Vitsion Transformer。それまでの画像認識に多く使われてきたCNNとは違い、Transformerベース。未知の画像(=zero shot)を分類できる。初めてシマウマを見て縞模様の馬の一種と判断するようなこと。
・OpenCLIP(StableDiffusion、DALL-E2に含まれている)のよりよいバージョンがリリースされた。
・L/14=ロスワイトマン氏による学習、H/14,G/14=Romain Beaumnt氏による学習(パラメータ違い)
 (ViT-Gはzero shotではViT-Hより悪いが、学習時間が短く、一部の検索タスクでは非常に上手く機能する)
・一般に利用可能なCLIPはViT L/14 336で、61.6%。今回のViT Hは73.4%で+11.8%もよい

(参考)CLIP以外の方式として最も優れているのは、BASIC、COCA(zero shot 86%程度)

○今後
・CLIPがスケールすることが証明されたので
・多言語で機能するテキストエンコーダーへの変更(multilingual-CLIP等)
・小さいCLIPから大きなCLIPからへの知識抽出による学習時間の短出
・オーディオ(CLAP)

https://github.com/mlfoundations/open_clip
https://laion.ai/blog/large-openclip/
0644名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 08:59:23.57ID:jOFDJ6xl
>>643
CLIPには二種類の役割がある
画像を入力されてそれを特徴分布に分解する機能と
テキストで特徴分布に入出力する機能

StableDiffusionではCLIPを使ってテキストから特徴分布に直してそれを元にdiffusionをかけてるので
精度が良くなるということはプロンプトの理解が良くなるということに等しい
0645名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 09:05:15.05ID:lALpe0Io
>>643
DiscordでEmadさんが答えてた

・新しいCLIP(ViT-H)はV3。プロンプトの理解がより良くなる

Q V3の前にV2はあるの?
A ある。1024ネイティブで2倍の速度になる

Q 今回のCLIPを差し替えるだけでよくなるの?それともモデルの再学習が必要?
A MidjourneyのようにCLIPガイドを使ってないので、再学習が必要
0647名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 09:26:35.32ID:7AkfYTUK
prompt editingの説明をきちんと読んでみたんだが、whenに整数を入れる場合はその数字を1/100した小数を入れた時と同じになるんかね。
a [fantasy:cyberpunk:0] landscape
https://imgur.com/HlMRv7z.png
a [fantasy:cyberpunk:0.99] landscape
https://imgur.com/RbDnbzj.png
a [fantasy:cyberpunk:99] landscape
https://imgur.com/AIK5bfu.png
a [fantasy:cyberpunk:0.24] landscape
https://imgur.com/MxFgThc
a [fantasy:cyberpunk:24] landscape
https://imgur.com/aydopa6.png

1を入れたときに0と同じに見えたのは、実際は0.01を入力したことになってたからか。
0648名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 09:33:50.72ID:j0JunP67
ローカル版1111、1070Tiだとアカンやろ……って敬遠してたけど。
512x512なら、1.6it/sくらいは出るんだな。
0649名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 09:33:56.79ID:3qcZgGrJ
waifuは元データが海賊版だから使いません!って騒いでるやついるけど
そもそもSDに大量の転載画像が含まれてることはどうお考えなんだろうか?

AI画像生成を辞めるなら分かるんだが、SDはOKというのは矛盾してね?
0650647
垢版 |
2022/09/16(金) 09:35:53.72ID:7AkfYTUK
実際の処理が小数=>整数なのか整数=>小数なのかは知らんケド。
0653名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 11:44:30.48ID:8CiemT4/
ざっと見た感じ
整数ならそれを変化するステップ数そのものとして処理
少数ならその値x1回の生成に必要なステップ数を変化するステップ数として処理
だから画像生成が100stepの場合は整数と少数で等しい挙動だけど、それ以外は異なる(場合もある)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/dc769e097c878927fcd222cd855eb794726e922b
0654名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 11:55:29.72ID:jOFDJ6xl
pull requestの例にも示されてるけど
ブロックでできた四角い物体と
ブロックでできた丸い物体は
そもそもとして概念が結構違うので四角いと丸いを入れ替えるとブロックの模様や画角とかも一緒に変わってしまう

それを、ブロックでできた丸い物体を作らせておいて、後半のステップで四角い物体にプロンプトを入れ替えることで
既に作られているブロックの模様とかを引き継いで四角く加工できると

使い方によっては特定のキャラの顔維持とかに使えそうではある
0655名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 12:05:45.92ID:gP4di/cF
textual inversionも似たようなことやってたな
0656名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 12:50:43.87ID:jg7F6bwY
>>653
ああ、このステップ数ってひょっとしてSampling Stepsで設定してる値のことなのか。
俺がたまたま100に設定してたので同じ結果になったんだなぁ……
0664名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 15:40:39.09ID:8CiemT4/
prompt editingは動画用途は無理だ
やり方悪いのかもしれないけど動画にできるほどの数のフレーム生成できないな
0665名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 16:11:33.28ID:lucPjt6t
と思ったらもしかして治った?
Make K-diffusion samplers produce same images in a batch as when making a single image
って項目が設定に追加された
0667名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 16:24:46.64ID:lucPjt6t
そもそもbatch size上げるためにmedvramやらsplit attentionやら有効にした時点で出力が微妙に変わるのか
0669名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 19:04:26.82ID:G+D7wC5p
euler a用で組み立てた呪文だと
他のやつだとかなり出てくる画像の雰囲気が変わっちゃうんだよね。塗りからして違う
主要な何個かのサンプラの中では、突出して違う絵が出てくる
0670名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 19:15:18.70ID:ufW8TO61
バッチサイズで増やした2枚目以降のseedは実装に依る
ということは1111が更新されたらパラメータ再現しても同じ画像できなくなる可能性があるんだろう
完全に罠だわ
0671名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 19:21:31.65ID:08b/PWun
>>667
残念ながら不動小数点演算は計算の順序が変わると結果が変わってしまう
((((a+b)+c)+d)≠((a+b)+(c+d))
普通ならばそれは大きな影響を与えないのだが
拡散モデルの場合には微小な値の差が最終的にはそれなりに大きな影響を与える
0672名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 19:41:32.71ID:LIN+pC0U
euler大好きマンなんでバッチは使わないことにしてる
良くて1.5~2割スピードアップくらいなんで・・いや使いたいんだけど、はよ治して
0673名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 20:21:44.65ID:9eAZoGjK
微妙な呪文でもeular aにするだけで映えちゃったりするからな。厄介な代物だとわかってるけどつい使ってしまう。
0674名無しさん@お腹いっぱい。
垢版 |
2022/09/16(金) 23:34:48.41ID:ATv5OjaU
LAIONが進めてるのがCLIP Guided StableDiffusionってヤツか
普通なら備え付けのCLIPのテキストエンコーダーでプロンプトを一回エンコードして流し込んで終わり(後はサンプラーがそこに近付けていくだけ)なのを
逐次どんな画像になってるかをもっと賢いCLIPに見せて注文通りになってるか確認して補正しつつ進めていく方式

学習やり直し無しでプロンプトの理解と反映が向上するけど
waifuみたいな特殊環境への適応は監督役のCLIPも知ってないといけないので怪しそう
0680sage
垢版 |
2022/09/17(土) 02:21:33.93ID:gisD6INd
1111のローカル環境更新したら、SD upscaleで黒ずんだ画像が出力されるようになっちった……
0681名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 02:25:17.98ID:S+9DsKqG
>>679
元レス見ればわかると思うけどプロンプトに組み込むものだから…
0683名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 02:38:03.79ID:TSNOtRCT
1111で急に眼がダブってうまくいかないようになったなぁってRestore facesにこっそりチェック入ってやがんの・・
0687名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 03:32:28.61ID:temo01D7
おかしな形の手を学習しまくって、ネガティブリストではじくっていうのが現実的な解決策なのかもな
0688名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 04:15:32.26ID:KjrACo7F
Emadのおっさん、新しいモデルがスーンスーンといつも言ってるけど、結局何か出てるの?
0689名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 04:20:58.70ID:VyttaNVF
>>686
プロンプトに加えてimg2とか部分的に加筆してガイドを用意したり
部分指定で再出力すれば5本指行けるのでは?
これってプロンプトのみでこの結果だよね?
0690名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 04:34:31.38ID:5+jy8cuK
nekodrawがぶっちゃけあまり期待できなさそうなんだけど
他にクリスタプラグイン開発してる人いないのかな...海外ではマイナーなのか?
0693名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 07:38:40.79ID:FxoRaI6I
久し振りにwin版のartroom起動したら、ネガティブプロンプト使えるようになってた
これもう、colabとかでも標準になるんじゃ
0695名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 09:48:33.36ID:qZCWMipK
何でトークン数の制限がこんなに厳しいんだろ
トークンが多いと上手く入力元の画像ノイズに変換できないのか?
0696名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 11:36:06.69ID:FxoRaI6I
でっかいキャンバスに下絵の画像を読み込んで、512x512の範囲でimage 2imageを自分で選びながら貼り付けてでっかくするってできたら構図もポーズも解決するんだが…
ダリではそっち系に進んでる感じだけどSDには来ないかな。
0697名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 11:48:13.44ID:TSNOtRCT
>>695
カンマやスペースが数に入る仕組みがよくわからん
まさか(((abc)))
の()で6個とか数えてないよね・・逆に除外されてるならカンマスペースも除外できるのでは?って
0698名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 12:49:10.05ID:iASfaGPL
>>697 トークンってのは用意した辞書に載っている言葉の最小単位だからclipの辞書に(と((と(((が別に用意されていない限り
原理的には()が全部で6個あるなら6トークンなんじゃ?
試してないけど
0701名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 13:12:13.93ID:gisD6INd
たしか、 ( が1個出てくると1回UP調整かけて、 ) が1個出てくると1回DOWN調整かけるとかになってた気がする。
なので、閉じ括弧が足りないと最後までUP調整がかかったまま実行される。
0703名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 13:49:02.20ID:FxoRaI6I
GPU周りでコンフリクト起こしてて、うまいことパッケージングまでもってけないっぽいね。
この辺、やっぱ環境依存が強いというか。
0704名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 13:54:49.04ID:Ugl6jIw0
1111の()[]は事前処理されてるのでトークン数に入らない
簡単な確認は(((((((...((((((girl))))))...)))))みたいに大量に囲んでも長すぎwarningが出ないから大丈夫
後直接sd_hijack.pyも確認した

ただそのソース見てて小さな問題に気が付いたんだけど
制御がかかってるトークンをハッシュ値にして重み制御してたから
例えばこんな画像を
A hen laying eggs, sunny-side-up fried eggs, on the table
https://imgur.com/tVbuh7W

詰まれてる卵だけ強調したくても後ろのeggsにも掛かっちゃうね
A hen laying (((((eggs))))), sunny-side-up fried eggs, on the table
https://imgur.com/A9IJxa3
0706名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 14:29:06.07ID:irljJ+xn
トークンをハッシュ値っていってるから
やるならthree fried egg(単数形などほかの単語にして無理やりトークン変える)
みたいなかんじじゃないのかな
0709名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 14:39:57.24ID:Ugl6jIw0
>>705
やってみた
A hen laying (((((eggs))))), sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/hCERByG
なんか思ってたんと違う

なので今度は後ろだけ減らしてみた
積まれてる卵が減って目玉焼きの上にフライドチキンが現れて面積が減った
A hen laying eggs, sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/yJ7qyLK
この辺はもうCLIPさんに聞くしか制御できないかな

>>706
そのアイデアで後ろの「,」を一緒に囲んでみた
https://imgur.com/undefined
A hen laying (((((eggs, ))))) sunny-side-up fried eggs, on the table
見事期待通りの画像になった!
0716名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 14:56:12.57ID:Ugl6jIw0
>>706
コード見間違ってて
トークン直接じゃなくて括ってる文字列から取得するident値を使ってた
なので一文字でも違えばいいみたい
トークン分割後に同じ文字列になった場合両方に影響が出る
多分覚えてても役に立たない豆知識
0717名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 15:04:53.46ID:TSNOtRCT
SDだけじゃなくMJでもよくあったけど
black hair girl in white bikiniで黒いビキニになりまくるアレなんとかしてほしい
どこがどこに掛かってるのか
0719名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 15:12:28.42ID:FxoRaI6I
そんな構造になってないはずなんだけど、どうも連想ゲームしてる感じはあるんだよなあ。
黒ビキニってのを学習しすぎて、ビキニといえば黒ですね! 白? 間違いでしょう。みたいなw
0721名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 15:40:21.33ID:QYKW/yyp
たぶんだけど、潜在変数に人間が望んだ特徴の分類が入ってなくて、
ビキニ(着る物)と黒(色の名前)で分類されて欲しいのに、両者のベクトル距離が近くなってる
とかじゃないかなって予想
アーティスト名で構図から人間の有無からと絵そのものが変わっちゃうのもたぶん同じ理屈じゃないかな

声質変換とかTTSとかでその辺うまく分類してくれないかって苦労した気がする
でもVQ-VAEの登場で、情報量を大きく制限することによって声質に関係しない発音情報のみを取り出せるようになった
おかげで声質と、発音記号に特徴を分解できるようになった

まぁSDで同じ理屈が通るかというと、わからんけど
あとただでさえモデルでかいから計算コスト高いモデルは採用できないって問題もあるか
0722名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 15:44:02.97ID:FxoRaI6I
-で括ったら一つの意味で他のトークンには関わらないみたいなこともできるようになると助かるね。
0724名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 15:48:30.17ID:irljJ+xn
white bikiniだと「white」と「bikini」ってふたつの単語があると考えちゃうからな
bikini is whiteにしてやると「ビキニは白」ってなってくれる
でもbikini color is whiteだと「ビキニ」と「色が白」のふたつになることある

girl at bearch, bikini is white, hair is black
https://i.imgur.com/ndp7kWL.png
あれ。ビーチはrいらなかったかな。どうでもいいけど
0729名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 16:24:33.65ID:TSYh0sGm
みんな飽きて来てるよなw
0731名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 16:32:34.94ID:TSNOtRCT
ロリ白レオタードをミュシャに合わせるとか禁じ手中の禁じ手だろ・・
というかこんな体綺麗に出るのか、やっぱ体操種目だから全身の学習画像が豊富なのかな
0733名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 16:44:55.77ID:M8rQZk0S
>>728
>686もややあやしかったが性癖についてはどうこう言わない、が>728はプロンプトを知りたい
人体が破綻していなくていいし手もなかなか
筋肉質なのは指定したからじゃなくて、体操選手だから自然にそうなるのかな
0734名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 16:55:19.94ID:gisD6INd
>>733
Prompt: full body of <主題>, (((intricate human hands fingers))), modern style, by greg rutkowski and alphonse mucha, d & d character, gradient white to gold, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers)))), (((portrait)))

ですね。たまたま体操選手を主題に入れただけなんやで……。
modelはtrinart2_step60000.ckptを使用
0737名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 17:18:21.61ID:FxoRaI6I
>>732
早速回してきた! 概ね、期待した感じのUIだったけど、ちょっと意外な落とし穴もあった。
顔の周辺を繋げて貰おうとすると、「肌色成分が多いのはいけないと思います!」って言われて、真っ黒にされるw
これはチェックをはずさんとダメだわw

あとは動画ほど綺麗なつなぎ目にはならない。雑コラっぽい感じだけど、多分、調整でなんとかなりそう。

元画像
https://imgur.com/EBLiADe

拡張しようと頑張った画像
https://imgur.com/SbagXpN

肌色成分が多いところは容赦無く墨塗られるw これは改善可能。
つなぎ目はやっぱりちょっと怪しい。promptとCFGやSTEPで改善出来るかな?

けど、成熟したら、かなり使えそうだわ。
0738名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 17:20:45.07ID:gisD6INd
グレッグさん、アルフォンスさん、ジェレミーさんは入れておけば間違いない。
このプロンプト、<主題>に fire dragon とか入れてもミュシャとD&Dキャラクターの力で人化するから楽しい。
0740名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 17:55:25.83ID:M8rQZk0S
>>737
自分もやってみた

オリジナル https://i.imgur.com/lO5Ea6W.png
800x600に拡張 https://i.imgur.com/yK1W5Zu.png

左下がやや不自然だけど全体的には悪くない…が足を伸ばすところはもうちょっとがんばってほしかった
出てきたのをアンドゥできないのがつらい
あと枠の移動が重いのも(Chrome使用)つらい。「Outpaint」の左にあるキャンバスのアイコンをクリックしてから画像をドラッグすると全体をスクロールできるんだけど、これも動作がきわめて緩慢なので忍耐力が試される
この画像じゃないけどやっと残り1つだ、となってからNSFWで黒塗りにされると悲しい。肌色どころか人体ですらない風景だったのに
0742名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:05:18.68ID:M8rQZk0S
>>741
それなんだけど、UIは確かに拡張したいところを指定して実行、となっているけど
出てきた画像を却下してもう一度お願い、というのができないと1111版のOutpaintingと結局は同じかなと思った

1111版に「Outpainting mk2」が来てる。試してみよう試してみてね
0744名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:10:25.19ID:veIMvaIF
最新版の1111を入れてやるかーと思ったら三分前にまた更新されてて草

モデルが選択できるようになった?
0745名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:14:52.07ID:QxQOngCB
https://lexica.art/で単語検索しても全く関係ない絵しか出ないのなんなんだろ
プロンプト見ても検索した単語が使われてない
0746名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:20:13.95ID:1VWd1k5m
>>745
検索バーの右の調整ボタン押すとプロンプト検索か、意味検索的なやつかで選択できるよ
画像の類似検索ができるようになった都合で新しい検索方法がデフォルトになってる
0748名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:26:22.41ID:QxQOngCB
>>746
そんな変更があったのか!
ありがとうございます
0751名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:52:33.54ID:qZCWMipK
Mark2、ステップ数をやたらでかくしないとまともな結果にならないんだけど
そういうものなのか?
0752名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:58:32.14ID:S+9DsKqG
アウトペインティングはつなぎ目を自動修正できないのかなぁ
0753名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 18:59:08.17ID:temo01D7
>>709
中々面白い検証ありがとう
「,」は文章の意味とか、単語の関連性に断絶を与えるトークンなので、()で強調しまくると断絶がよく効くような感じやね
0755名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 19:02:12.76ID:temo01D7
アウトペインティングすげーって思ったけど
肌色成分が公官庁の開示文書みたく黒塗りになっちゃうのか
1111先生に頑張ってもらうしかないな
0757名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 19:04:48.12ID:gisD6INd
>>754
拡張サイズの入力はできなくて、方向をチェックすると勝手に拡張されるようになってる。
値の設定はscriptからoutpaintink mk2を選ぶと

Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8

と書いてある。
0761名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 19:26:01.31ID:5WCb9Mfb
アウトペインティングは人物をどこまで自然に拡張できるかを最も重視してる
人物がいい感じに拡張できるなら背景はまあどうでもいいわ
0762名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 19:37:47.48ID:gisD6INd
>>757
あれ、ちゃんと拡張するピクセル数とかMask blurを入力する場所あるな?
さっきはなんで見逃してたんだろう。
なので、Poor man'sと変わらない。

↓この2つが増えてるけど、まだ調べてないので何なのかわからぬ。
Fall-off exponent (lower=higher detail)
Color variation
0764名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 19:59:14.67ID:gisD6INd
Fall-off exponent (lower=higher detail)
これは、拡張する部分をどのくらい細かく描き込むかの設定か。1からぐいっと下げたらめっちゃ描き込みされたw
https://imgur.com/LkGesQL.png

Color variation
これは、元の絵の色からどのくらい変化を許すかの設定か。
数値大きくしたら顔が真っ赤になったw
https://imgur.com/gmDvh5Y.png

拡張するサイズが大きすぎると、追加するパーツもでかくなる傾向がある……気がする。
↑顔でかくね?
0765名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 20:24:01.73ID:S+9DsKqG
モデル比較作ったら切り替え早くてびっくりした
0766名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 20:43:40.99ID:b68cdcR2
自分ではまだ試してないけど、OutpaintしたいならKritaのPlugin使うのどうかな
1111から作ってるぽいしレイヤーになるから取り消しもできるような
0767名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 20:47:53.74ID:gisD6INd
>>756
わかった!Settingsで "Apply color correction to img2img results to match original colors." にチェックが入ってるとこんななるんだ(うちの環境では)!
0768名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 20:51:45.69ID:S+9DsKqG
>>728,734
4chanに貼ったらかなり好評だった…
0771名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 20:58:15.89ID:TSNOtRCT
ID:gisD6INd
色々ありがとう、参考になる
mk2デフォで拡張したらノイズしか出なくてなんのことやらだった

>>757
>値の設定はscriptからoutpaintink mk2を選ぶと
>Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8
>と書いてある。

赤字にしてくれたら気づくのに・・
0773名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 21:14:31.97ID:gisD6INd
SD upscaleはプロンプト使って描き直しするから、最初顔とか小さくてつぶれ気味になっててもきれいになるんよ。
0775名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 21:23:47.75ID:S+9DsKqG
モデル切り替え便利すぎる!
0779名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:20:51.14ID:iHoUBdMF
初心者すぎる質問で申し訳ないんだが…
1111のcolab版を使おうと思うんだけど
ckptファイルは毎回ダウンロードが必要なのかな?
0780名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:24:21.41ID:FxoRaI6I
colabは接続解除する度に全部消えちゃう仕様なので原則必要。
ただドライブに放り込んでおいて、そっからcolabのフォルダにコピーするのもあり。
けど、その手間はやっぱ必要。
全部ドライブにインストールするってのもてだとは思うけど。
0782名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:31:56.58ID:HGMxSSYv
ドライブにmodelとnotebookと同じ階層に入れておいてドライブにマウントしてディレクトリ移動じゃ駄目なの
0783名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:36:52.89ID:QxQOngCB
1111のアウトペインティングMK2やってみたけど、やっぱツギハギみたいになるなぁ…
kritaのアウトペインティングもそうだったけど…
この「そうじゃないんだよ…」感を払拭出来るアウトペインティングの実装には結構時間かかるんかな
0784名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:37:55.62ID:ekTauQtw
>>780-782
なるほど、マウントか
調べて試してみます。ありがとう
0785名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 22:37:57.09ID:Oxh2/A3E
ここ2,3日あんまり熱心に見てなかったけど、モデルはこんな感じかな?
(学習枚数=クオリティではないと思うけど一応書いておいた)

○オリジナル モデル 1.4
 LAION-2B-en 23億枚学習 ※詳細は公式参照

○とりんさま: 1.4ベース + アニメ・漫画系 8万枚追加学習(v1) + 1万枚追加学習(v2)
 https://huggingface.co/naclbit/trinart_stable_diffusion_v2
 モデルを入れ替えるだけでOK

○waifu: 1.4ベース + Danbooruイラスト 5.6枚追加学習
 https://huggingface.co/hakurei/waifu-diffusion
 モデルを入れ替えるだけでOK


○日本語版: モデルは1.4とは関係なくゼロから学習されたもの。コードも別のものが必要
 https://github.com/rinnakk/japanese-stable-diffusion

 stable diffusionのコード(ただし日本語のトークナイザ)で1億枚学習

 コードを StableDiffusionPipeline → JapaneseStableDiffusionPipeline に修正すれば動く??
0787名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 23:16:34.95ID:RXPB+LSI
outpainting mk2、同じprompt、同じseed与えてもなんか変

rightだけうまくいってるように見える
https://imgur.com/a/GYANwxm
0788名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 23:22:11.09ID:dVaFNesF
特定の絵師のイラスト6枚でTIしてみた
TIの設定はまだ模索中だけど生成にあたってはプロンプトを目的の絵柄に寄せた上でTIした単語を重ねると良い感じ
この場合プロンプトにloliを入れた上でTIを重ねると絵柄がかなり似た
TIなしとTIあり
https://i.imgur.com/HhEw96m.png
https://i.imgur.com/EdnadSD.png
https://i.imgur.com/YneUHpB.png
https://i.imgur.com/Gqfzj2Z.png
0790名無しさん@お腹いっぱい。
垢版 |
2022/09/17(土) 23:27:42.05ID:gisD6INd
>>787
右がうまくいくseed、左がうまくいくseed、両方がうまくいくseedといろいろあるんじゃね?

>>788
TIもそのうちやってみたい……うちのGPUは3060だけど
0800名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 00:28:37.78ID:+2pQJ5Nn
このスレの魔術師のおかげで4chanも賑わってるよ
0801名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 00:36:04.12ID:+fkiRLHE
以前やったやつ、左手が右手になってたの気が付かなかった
https://i.imgur.com/PI9GWNL.jpg

Glamour body shape, big boobs, huge tits, big breasts, light Brown hair, Wear glasses,
16 years old, kawaii japanese girl, Pink powder is sprayed directly on the naked body
so that it becomes the shape of a one-piece dress,Wearing a pink latex miniskirt,
both Hands behind the neck, show both armpits, stand in future city,
0803名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 00:44:17.78ID:rwK6kaP7
しかし改めてスレ見ると美少女画像率高いな
たまにはイケメンを生成する呪文も研究してあげて
0807名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 01:15:53.11ID:AwBLCkvw
>>802
入れたり出したり、貿易しているのです
まあそもそも4chan自体日本文化と日本の某掲示板をリスペクトしてる人が作った掲示板だしな、日本との繋がりはまあまあ深い
0808名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 01:18:20.61ID:1Obv8XFB
>>806
Waifu

https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb

このcolabを使って学習
what_to_teach=style, Initializer_token=girl, training _rate=7e-04, train_steps=10000
学習元の画像は髪の色とかのバリエーションがついた同じ絵柄の絵を顔付近だけクロップして512x512に揃えて用意するのがコツらしい
今はここから更にステップ数を上げても効果があるか試してる
0809名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 01:44:43.70ID:04hwITED
>>803
face photo of 24 year old japanese good looking actor, (((((((草なぎ剛))))))), SMAP
Negative prompt: korean
Steps: 80, Sampler: Euler, CFG scale: 7, Seed: 2228362882, Size: 512x512

https://imgur.com/a/yAKazy6
0811名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 02:17:28.49ID:+2pQJ5Nn
0816名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 05:04:42.71ID:iy9wmgZ9
機能追加が早すぎてちょっと離れてるとフォローアップめんどくさいな
解説youtuberとかいればいいのに
0818名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 08:13:32.59ID:Qtr57YVi
既出かもしれんが
9月26日にWaifu Diffusion v1.3がリリースされるみたい
(discord情報)

- モデルをどのようにプロンプトするかという点で、はるかに優れた柔軟性を持っています。
- より多様な出力が可能
- 高解像度画像の顔や細かいディテールをよりよく捉えるために、微調整されたVAE。
0820名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 08:58:04.53ID:hONnfc8o
モデル非公開だけどとりんさまキャラクター版は認識キャラ広いからWaifuもそこらへん強くなってるといいけど
0822名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 09:57:45.12ID:qh69b+/S
>>808
placeholderplaceholder_token とか空欄のままなのか?
デフォ3000ステップなのに1万回にするとか念入りだな

これでwaifu用の差分トレデータを作って同時に読み込ませて使うって事だよな?
画像はURLでしか指定できないのか?トレ用の画像や生成トデータは全てclab内だよね?
0826名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:19:47.58ID:pA/Ty5iZ
一般的に言って学習は回数増やせばいいってもんでもない
特にデータ数が少ない場合は過学習になって学習させたデータそのものに寄り過ぎるから
0827名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:29:04.18ID:qh69b+/S
トレーニング時や生成時のステップ数は似た感じだよな
回数増やし過ぎても奇形に化ける事もあるし・・・

要素の少ない数枚のサンプル画像でステップ数抑えるのが一番良さそう
トークン縛りとか一気にアレコレさせるのには不向きだよね
0828名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:31:00.60ID:1Obv8XFB
>>822
画像の枚数増やしたり学習率上げたりすれば上手くいくのかもしれないけど自分の場合は3000だと良い結果が得られなかった
取り敢えず画像はimgurにアップしてurl指定してる
生成データはbinファイルでcolab内に出力されるからダウンロードして1111版で読み込み
0830名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:36:19.32ID:qh69b+/S
>>828
サンクス、3000では足りなかったのか・・・萌えは奥が深い
ローカルの画像を投げられないのが少し不便だね

トレーニングもローカルで出来たら良いのに
・・・と思ったらGPUの消耗が画像生成の比じゃないか
0832名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:41:33.31ID:qh69b+/S
Midjourneyは極端に崩れない様にテンプレみたいなのがあるとは聞いた
SDはオープンソースでトレーニングも大手企業じゃないからジャンク感が出る事があるね

>>828
ネット経由だとエロ目的のピーッのトレーニングは無理か?!
流石に一時的とはいえ無修正をアップロードはなぁ・・・
0833名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:43:10.22ID:1Obv8XFB
>>830
メモリが最低12GBと聞いてcolab pro入っちゃったよ
あとplaceholder_tokenは<絵師の名前-style>でやってる
1111番はプロンプトに<学習済みデータのファイル名>を入れてデータを呼び出せるけどplaceholder_tokenはそれとは別に内部で使われる名称っぽい
同じplaceholder_tokenを持つデータがいるとファイル名が違ってても使用時に混ざる
0834名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:44:56.67ID:kKX8smLc
○SDをPytorchからTensorflow(keras)にコンバートしたバージョン。(モデルもコンバート済)
https://twitter.com/divamgupta/status/1571234504320208897

M1 Macだと4倍高速になり必要メモリも少なくなる、らしい。
Geforceだとどうなのかが気になる(試すの面倒くさい)

○Blender用テクスチャ生成アドオン deam-texutres
https://github.com/carson-katri/dream-textures/tree/0.0.4

開発者はM1 Macで開発/検証したらしいけど、Windowsでも普通に以下の3ステップで使えるようになる
・zipインストール
・プリファレンス>Dream TexturesからInstall dependencies
・model.ckptを配置

シェーダーエディターからダイレクトにプロンプトでテクスチャ追加できる&シームレス化どうかを随時切り替えできるのは便利
512x512のテクスチャ生成で、Max VRAM 3.35Gとかになる。なんでこんな少ないんだろう
https://twitter.com/5chan_nel (5ch newer account)
0835名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 10:54:06.38ID:96DA7HV0
1111版をcolab上で使ってるがweb uiが不調。生成する枚数増やすと反応なくなる
0838名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 12:05:28.87ID:zc8A7EjE
そういえば1111版でmodel切り替えたときに、出力した画像がどのmodel使ってるかの情報はpngファイルに書き込まれてるん?
うちは自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてるんだけど、実行時model切り替えを使うのどうしたものか。
0840名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 12:14:28.10ID:+2pQJ5Nn
SettingsでAdd model hash to generation informationにチェックが入ってれば
Images filename patternをいじればファイル名のモデルのハッシュ値を含めることも可能
0842名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 12:32:58.98ID:zc8A7EjE
通し番号がファイル名の先頭に来るから、tag名でディレクトリ作るわけにはいかないんかなこれは。
まあ、現行の運用でいいか。
0843名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 13:40:32.57ID:bQNGWScl
>>838
> 自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてる

これどうやってますか? 起動時にそういうオプションがあるのかな
起動のたびにsettingsの各欄を書き換えるのは大変だなあと思っていました
0844名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 13:47:43.05ID:zc8A7EjE
>>843
うちはsingularity(dockerと似たようなもの)のイメージを作ってあって、インスタンスを起動するときにインスタンス内にバインドするディレクトリとmodelファイルの組み合わせでシェルスクリプトを複数作ってます。
0845名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 13:52:32.28ID:zc8A7EjE
標準のディレクトリ・modelファイルをシンボリックリンクで作っておいて、起動するたびにシンボリックリンクを作り直せば同じような感じになる……かな?
0846名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 13:54:07.01ID:OrwZma0l
>>825
MJでgirlだのpencilだの「だけ」入れてもやたら絵画的な絵が出るのでわかると思うが
内容に絵に合わせて勝手にあれこれ調整や修飾を付け加えてる疑惑がある
もちろん働きアリとしてのユーザーを引き留める目的で

引きの人物が自動的に後ろ向きの肘曲げポーズになる「潰れた顔&手隠し」実装は有名
https://www.cnn.co.jp/storage/2022/09/07/7d644ce9d7add9ccf5cb25d4d40ae69c/t/768/432/d/thtre-dopra-spatial-ai-generated-art-super-169.jpg
こんな絵ばっかでしょ?お釈迦様の手の上
0847名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 13:57:36.49ID:gUv8HSGB
実行速度最適化のmodule.pyの修正が1111の最新版だとぶつかって
上手く動作しなくなってるっぽい、何か情報ある?
0849名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:13:10.17ID:3Q4OSkCq
>>843
outputsフォルダを、今から使おうとしてるモデル用のoutputsフォルダのショートカットにしちゃえばいいのでは?

: 既存のショートカット削除
rmdir outputs
: ショートカット作成
mklink /j outputs outputs_モデル名

みたいなコマンドをwebui-user.batの最初の方に追記する。
0850名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:15:12.18ID:3Q4OSkCq
無料colabでTextual Inversion学習させたら、数時間でGPU制限に行ってしまった。
このGPU割り当てられない制限ってどういうタイミングで解除されるの?まえになったときはいつの間にか解除されてたけど。
0852名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:25:45.87ID:GULQm3WX
>>850
無料でチマチマやっとるクチで色々見てみたが
無料のcolab制限解除は時間幅が広すぎて何とも言えん
6時間とか言ってる所もあれば12時間と言ってる所も見かける
因みに俺は15日の17時半くらいに制限食らって昨日丸一日は制限で使えなかったわ
0854名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:31:09.19ID:OrwZma0l
無料colabを初心者に勧めてくる奴自身は大抵有料使ってるという齟齬
GPU制限もそうだけど、裏に回しても動くって有料verを際立たせるために
いちいちcaptcha出してくるいやらしさがうざくてやってられん
0855名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:33:41.64ID:YIi8903f
colabのキャプチャは有料版でも出てくるよ。
しかもセルのソース触ってる真っ最中にw

無料の制限解除タイミングは非公開だからいつ解除かはさっぱりわかんない。
どっからでも遊べる利便性があるから、まあ月1000円ぐらいはアリかなって感じ。
流石にpro+まで行く気にはなれないけど。
0856名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:34:32.65ID:1Obv8XFB
>>788
この後更にいくつかの設定で試した
参考にする画像によって最適な設定は変わるかもしれないけど現時点だと
Initializer_token=girl, training _rate=8e-04, train_steps=10000
が1番元絵の特徴を捉えてる
15000ステップは過学習気味でダメ
10000ステップが多過ぎる可能性もなくはない
0857名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:36:05.78ID:fZS1O981
そういえば、有料版colabのGPU総量制?移行はもう来週か。無料版は使いものにならなくなる覚悟をしておいたほうがいいな。
0860名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:45:50.29ID:gFtrZh0V
少なくとも12GB以上のは欲しくなるな
普通に使う分には8GBでもさほど困らなくなったが、新しいことをやろうとすると制限に引っかかることも多い
0861名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:46:27.33ID:SAsm3Obn
>>857
どうなんだろうね
需要が増えて設備を増やすなら、余剰時間も増えるわけで、無料が使いやすくなる可能性もありそうな気がする

単に無料でやりたい人だけ増えたならそうならないけどw
0862名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:48:10.60ID:iy9wmgZ9
4090性能リークによるとcudaコア数は3090の1.5倍だけどメモリは据え置き24GBか
SDユーザーとしてはメモリ欲しかったとこだよな
0863名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:53:10.95ID:OrwZma0l
VRAMはバッチで大量同時生成やるのでもない限りそんな要らんような・・
最底辺512超えは整合性取れてなくて繰り返しになるの明らかなんで
0864名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:53:48.12ID:id8j4srk
>>833
ロードしてる箇所を見た限り、ptファイルに記録されてるplace holder token の情報は推論時には使ってないようにしか見えないんだが
当然だけどロードした時にplace holder tokenが同じだとそこを書き換えてしまうっていう動作もしてない

まぁざっと見ただけだから、ソースの読み間違いもあるかもしれんので
該当箇所のコードがどこか教えてくれ
0865名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 14:58:06.03ID:gUv8HSGB
>>851
全部最新版にしたら直った
それにしてもツールの使い方熟練するといくらでもよい絵出せるな
直したい部分だけガチャするのも簡単だし絵を手で描くのがどんどんアホらしくなっていく…
0869名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 15:10:34.40ID:+2pQJ5Nn
trinart2_step60000.ckpt
https://i.4cdn.org/g/1663481261083231.jpg

trinart2_step95000.ckpt
https://i.4cdn.org/g/1663481189839740.jpg

trinart2_step115000.ckpt
https://i.4cdn.org/g/1663481095051579.jpg

Cardcaptor Sakura, detailed face, beautiful face, by greg rutkowski and alphonse mucha, d & d character, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers))))
Steps: 20, Sampler: Euler a, CFG scale: 12, Seed: 0, Size: 512x512
0870名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 15:20:55.35ID:zc8A7EjE
>>869
ひょっとしてstep違いのモデル間でseed値同じにするとそこそこ似た絵が出てくるんだ?
最初に使った感じで115000はちょっと癖が強いんかなと思ったけど、やっぱりそんな感じがするな。
0872名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 15:58:10.00ID:YIi8903f
ふと思ったんだけど、黒い髪の白いけど黒いビキニ。

black hair girl in [(white bikini)]

ってネガティブとポジティブで括って、無理矢理1つのトークンにしちゃえば混ざらないんじゃないだろうか。
0874名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:06:48.82ID:5XcX3qoD
今PC使えないから検証はしてないけど
black hair (((girl,))) the girl wearing white bikini
こういうのに類する作戦の方が上手く行きそうな感じはする
0875名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:10:35.65ID:EbBxwAbM
こんなのは?
[black:10] hair girl in white bikini
白ビキニが負けやすいなら先にしっかり描いてもらってから黒髪にする感じ
総ステップ数や追加タイミングは色々試さなきゃ駄目だろうけど
0877名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:29:36.42ID:5XcX3qoD
>>869
60000はちょっと弱くて、ミュシャとかにさくらがやや負けしてる感じがするけど下二つの評価は難しいな
115の方がより学習が強化されてるのか、アニメ絵独特の顔の縦横比(目のあたりの高さの横比率に注目)になってるのが印象的
0878名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:30:16.50ID:73Wj9gAM
>>846
MJとSDのプロンプトの出力例を紹介してるAI Artというサイトがあるが
それを見るとMJはまずカラーパレットに強力な補正がかかってる(青緑とオレンジ)
あとMJは人物も西洋人風の綺麗な顔が出るように補正されてる
0879名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:40:01.73ID:OrwZma0l
>>878
MJが加味してくる色はほんと凄いよね、絵画に占めるファクター考えると
MJでAI絵晒して自分の手柄みたいにイキってる人がいかに身の程知らずかわかる
0880名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:41:29.37ID:gUv8HSGB
google colabはいくら何でもコスパ良すぎたから
これからAI関連で乱用されまくってどんどん制限厳しくなっていくでしょ
既にそのあおりでAI使う各種WEBサービスが有料化や使用制限のテスト始めてる
colabに規制してたサービス多すぎだからな
0882名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:55:14.68ID:zc8A7EjE
>>734 のpromptの<主題>に griffin を入れると >>814 のお兄ちゃんが出る(たぶん、griffinが男性名のため)のですが、こんな感じでたまにお姉ちゃんも出るわけですよ。
https://imgur.com/elE8mAM.png

そこでちょっとprompt matrixにかけてみました。
https://imgur.com/DMJbXfq.jpg

やはりミュシャ先生か……
あと、これ作ってて気が付いたのですが、urbanは本来は普通の都市の絵が出ますね。
これが古都風景に変わってるのもミュシャ先生のせい……

そこでミュシャ成分を打ち消すnegative promptを探してみました。
negative promptにこのくらい追加すると、背景が普通の都市になります。
((antique)), ((ancient)), ((former))
https://imgur.com/mWpE4Qf.png

ただまあ、ミュシャ風味がほぼなくなるので、普通に名前を抜くのと同じ……
いや、けっこうまだミュシャ成分残ってるのかしら?
https://imgur.com/RThYTSl.png
0883名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:57:40.02ID:zc8A7EjE
あと、なにげにミュシャ先生とD&Dキャラのコラボがかわいいと思いました。
一番上の力こぶ作ってる子がいいw
0884名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 17:01:33.92ID:5XcX3qoD
ミュシャの扱いのもう一つの難しさって下あごなんですよね
下あごの形見ると、これはミュシャ先生の香りって分かる絵が非常に多い
0885名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 17:01:55.07ID:/OLF1UZ2
ほんとだ、D&Dかわいいなw
呪文にも入れられるAkihiko Yoshidaっぽい

昔アニメみたいな輪郭黒い主線出す方法ない?って聞いてた人に無反応だったけど
まんまミュシャ先生なんだよねぇ
0886名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 17:02:12.36ID:bQNGWScl
>>844
ありがとうございます。なるほど、そういう方法があるんですか
普通にディレクトリ内にセットアップしたのだと無理っぽいですね

>>845
ありがとうございます
Windowsだとリンクのことを勉強しなくても生きていけると思っていましたが…
今回は>840の方法を使うことにします
0890名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:18:16.06ID:NijCaszS
1111って色んな機能実装されてるけど、
複数バッチ生成出来ない低性能グラボ用に1枚生成✕10回とかのバッチ機能はありそうでないんやね
そういう機能あると家おらん時に便利なんやけど
0893名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:27:03.06ID:NijCaszS
>>891>>892
あれそうやったん?!
Colab使ってた時にバッチカウントは一度に横に複数生成、
バッチサイズは一度に縦に複数生成、って機能やと思って
ローカルやとメモリ足らんくて使ってなかった
0895名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:30:50.66ID:NijCaszS
ほんまに連続で生成できた(笑)
灯台下暗しやわ
あんがとみなさん
コンフィギュレーションいじったら上限変えられそうやし安心してスーパー行けます
0896名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:36:44.38ID:+2pQJ5Nn
batch sizeは罠なのでなくてもいいくらいの機能
てかなんだこいつ
0899名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:44:57.57ID:pA/Ty5iZ
学習の際はバッチサイズ上げないと遅くて話にならん
出力の際は元々早いから無くてもあんまり困らないね
0900名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 18:51:59.43ID:/OLF1UZ2
>>898
txtなら画像と一緒に出力されたはず
settingsのチェック入ってないのでは?
> Create a text file next to every image with generation parameters.

PNG内保存もあるからチェック入れとくと後で泣かなくて済む
> Save text information about generation parameters as chunks to png files
0901名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 19:01:23.49ID:gUv8HSGB
一度生成した絵からimg2imgで同じキャラの別ポーズ出そうとしたら
物凄く粘り強く微調整しながらリトライしなきゃ無理だけど
冷静に考えたらそれでも手描きより桁違いに早いから同キャラ動かすのも現時点で可能なんだな
服装大きく変えるとかは顔も一緒に変わるからきついが
0902名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 19:07:56.52ID:/tpFVdmC
>>900
チェック入れてませんでした
別のUI使ってる時に設定してたのですが、1111に移ってから設定し忘れてたようです
0903名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 19:11:14.17ID:pA/Ty5iZ
一つのキャラから差分を作り出すみたいなのはいずれmimicみたいな専用のAIが出るだろうな
SDにはちょっと向いていない作業な気がするし
0905名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 19:31:26.33ID:xbt73biT
Textual Inversionの学習データをシェアします。
https://anonfiles.com/I8986d8cy2/0918_7z
24個ほどbinファイルが含まれます。
研究のために使ってください。
NSFWを含みます。
コンセプトライブラリには上げてません。
0911名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:21:15.38ID:jtYbkl+H
>>909
それはpickleの脆弱性ですね

Automatic1111では(少なくとも直接は)pickleは使ってない
hlkyでは使ってる
コード追ってないけどckptやTexutual Inversionみたいに第3者のデータロードするところで使ってるのかな?
0912名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:25:44.05ID:jtYbkl+H
あ、多分だけどhlkyはTexutual Inversionの処理中に使ってる
なので、悪意があればどんなコードでもTexutual Inversionのbinファイルに入れて、実行させることができる。簡単に。

かなり危険だね
0915名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:33:53.14ID:xbt73biT
訳わからんのですまんかったな
見なかったことにしてくれ
ライブラリがエロ禁止だしこうするしかなかったんや
0917名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:41:29.44ID:jtYbkl+H
ウィルス配布は普通に犯罪なので、こんな簡単にIPアドレスたどれるサイトで配布なんてしないと思うけど
どうだろう

手間を掛けて配布してくれたのをウイルス扱いとか気分が悪いだろうから、安全な方法で配布できるようにならないもんかな
0918名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:46:14.18ID:zc8A7EjE
前半をグレッグ先生とartstation hq、後半をミュシャ先生とD&Dキャラが担当
https://imgur.com/totT2jG.png
前半をミュシャ先生とD&Dキャラ、後半をグレッグ先生とartstation hqが担当
https://imgur.com/tZtodBa.png
ミュシャ先生が強すぎるので、3割までにしていただいた。
https://imgur.com/ulCqM5y.png
2割までにしていただいた。
https://imgur.com/Fjf82md.png
一番最後のプロンプトはこちら
prompt:
full body of griffin, (((intricate human hands fingers))), modern style, [greg rutkowski:0.2], [alphonse mucha::0.2], [d & d character::0.2], [artstation hq:0.2], gradient white to gold, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration
negative prompt: ((((mutated hands and fingers)))), (((portrait)))
prompt editing楽しいな!
0919名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:48:12.38ID:R5jx9mbg
実際のところembeddingsの小さいbinファイルもckptファイルと同じで
中身は圧縮されたpickleファイルなんで、変なのを読み込むとローカルでPythonの何かしらのコードが実行されるようになってる
特にtorch使ってこういうファイルをロードする時に何の対策もない
4chanあたりに無害化か検出かするコードが転がってたはずだけどどっか行った
0920名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:49:00.02ID:YIi8903f
重み付けとネガティブでかなりピンポイントで描いて欲しいところを指示できるようになってきてるね。
1111ありがたや。
0921名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 20:51:38.04ID:RrhFpxY2
ちなみに片山はtorに海外串組み合わせた上でレス代行利用ね
当時の2chの代行スレはtorも海外串も素通しというか、そのための代行だったので
0923名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 21:07:48.65ID:R5jx9mbg
>>911
AUTOMATIC1111でもembeddingsの読み込みのところとかでtorch.load()を使っててコイツがpickleを単純に取り込んでそのまま展開してる
なんで自分で事前に中身を見ないと今のところどのフォーク使ってもやられる
0924名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 21:17:39.66ID:Bs5hqJRM
そろそろウイルス埋め込むバカが現れるかもしれないな
地味にAIを憎んでるやつ多いしな

マイニング専用PC作ったみたいに
AI作業専用PC作ったほうが良さそうか
0925名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 21:23:25.90ID:YIi8903f
まあ、gitとかfaceとかで展開してないのは触らない方が良いかなって感じで
あとはcolabあたりで様子見るか。
0926名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 21:26:57.56ID:R5jx9mbg
現状はモデル配布もTIの学習結果の配布もほぼexeを配布してるに等しい状況
野良配布が危ないのはもちろんだが、huggingfaceでもコードが紛れてるかの確認なんてされてない

なのでどうしても使いたいなら中身をpickletoolsあたりで確認するか、colabで動かすのをおすすめするよ
4chanの昔のスレで案内されてた対策ツールが引っ張ってこれればそれをお勧めできたんだが
0929名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 21:57:23.78ID:jtYbkl+H
>>924
Dockerにするのがシンプルでいい気がする

sandboxieとかサンドボックス化ソフトで、プログラム別にアクセスできるリソースを制限するとかもできるけど
0932名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:02:30.09ID:96DA7HV0
geforceが当たり前な雰囲気だけど、radeonで動かしてる人いる?
使用感知りたい
0933名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:24:58.98ID:FHuRcgpF
M1 MAXがコスパ的にもサイツヨ
0934名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:30:34.99ID:cACGjife
M1 Max桁違いに遅いから使いたくはないけど中古で割と高く売れるからそういう意味じゃコスパいいかも
Web系開発99%、ゲームやらない、3Dやらない、AIやらないならMacがいいかもね
0935名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:33:33.13ID:5XcX3qoD
>>931
AUTOMATIC1111/stable-diffusion-webui/wiki/Features
ここなんだけど低VRAMの人向けの上には
大規模画像を作りたい人用の--optに関して書いてあったけどそれがなくなって
低VRAMの人にも--optをお勧めする項目があったんだけどそれも消えちゃってる。機能自体が消えた疑惑
0936名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:37:26.91ID:+2pQJ5Nn
え?

--opt-split-attentionって書いてあるよね?何か勘違いしてるわけ?
0937名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:37:50.13ID:YIi8903f
colabの1111、連続で出すと出力完了後に走らなくなっちゃうのは何がマズイんだろう。
グリッドが悪さしてるのかな。
0938名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:46:42.21ID:RrhFpxY2
gridはローカルでもめっちゃ重い、4M以上はjpgチェック入れないとpngだし
いっぱい出すときは外した方がいいような
0939名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:51:05.43ID:5XcX3qoD
>>936
昨日更新のトラブルシューティングだとそれあるけど
935の4時間前の一般的説明のページだとなくなってる
自分で入れても今までより最大解像度が下がってるから、昨日かコマンドが変化してるんだと思う
何にしても情報ありがとう
0942名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:54:33.85ID:R5jx9mbg
新しいattention(例の速度2倍のヤツ?)の実装準備しててオプション変わったのかね
前のオプションに-v1を付けろと
0944名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 23:58:36.96ID:/68wjNaM
>>937
colabかな?txt2img動かしたいだけなら結果画像表示させないようにすれば軽くなるよ
ui.pyのtxt2img_gallery周りコメントアウトしてけばとりあえずは表示されなくなる
0946名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 00:47:43.16ID:RvShAdwM
Windows10のDockerでちょっとはまってたので一応共有します。

・ プログラムと機能>Windows機能の有効化または無効化で以下を有効化
・ Linux用Windowsサブシステム
・ 仮想マシンプラットホーム
・ Docker desktopをインストール

基本Dockerが使えるようになります。(手順レベルではなく項目なので詳細はググるなどで)

★Insider previewは不要  Windows10 H21H2でOK(H21H1はNG)
★CUDAドライバも通常のnvidia driverインストールで入っているはずなので特に不要(入れても無害と思われる)

ずっと動かず悩んでいた原因、Windows 10がH21H1のままだったこと。
Windows updateで最新版なので最新だと思いこんでいましたが、H21H2はなぜか出てこなくなることがあるそうです。

後は、以下の2行だけで起動し環境も汚しません。
git clone https://github.com/sd-webui/stable-diffusion-webui.git
.env_docker.example をコピーして、.env_docker に名前を変える。
docker compose up

バグかな?と思ったのが、models\ldm\stable-diffusion-v1\model.ckpt を事前に配置していても、改めてダウンロードします。
★ckptをダウンロードした後、docker image内にモデルを保存し、上記のmodel.ckptはシンボリックリンクにされてしまう(windowsからはただの0バイトファイルになる)
 ので他とmodel.ckptを共有している人は注意です。
0949名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 01:01:14.79ID:WVAGFFoj
>>946
dockerはわりとdocker-compose.ymlのフォルダ指定がバグることあるから
相対パスがダメだったら絶対パスにするといいかも
- .:/sd

- 'D:/_docker/sd:/sd'
0951名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 01:18:25.49ID:RvShAdwM
>>949
ありがとうございます。
ちょっとやり直すと時間がかかるので次回試してみようと思います。

なお書き忘れましたが、Windows/WSL2/Docker と 素のWindowsでのSDの性能はほぼ同等でした。

2080Ti Prompt: girl seed:3107511606 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a
3回実行 
 docker compose up:  5.72秒、5.88秒、5.71秒
 webui.cmd 5.79秒、5.71秒、5.91秒
0953名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 01:26:05.56ID:2kz5YHYT
CG系ツールのインストール手順と考えればCG板でも問題はないかと
ちなみにうちはAUTOMATIC1111用のDockerfileを作ってDockerで動かしてるけど、webui.pyを起動する時の引数に --listen オプションを指定しないとホストPCからのアクセスができないことに気付かなくて一日近く悩んだからみんなも気をつけるんだぞ
0955名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 01:35:48.04ID:WRfYHEBB
こんなスレだっけってテンプレ見に行ったら
充実というかリンク集の分野が広すぎてもう訳が分からなくなってるという
0957名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 04:23:08.13ID:S87M/aqO
>>932
RadeonはLinux実機でしか動かない(仮想も不可)
Stable Diffusionリリース前に買ったから仕方ないけど
GeForceにすればよかったと後悔してる
0958名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 06:11:36.04ID:oMaMftav
新しいモデル試したいけど
DL面倒くさいなぁ
https://rentry.org/yrpvv
0961名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 08:40:49.91ID:c8lcej0A
でかいファイル転送するのにtorrentはうってつけ
0962名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 09:03:00.89ID:Dj8b68Fj
「これからaiやりゅ!だからpc買っちゃうのっ!!だって、ろーかる?でいっぱい画像作りたいんだもん!あとあと、いろんなモデル?とかいうのを試してみたいの!」
って人には性能的にWindowsとMacどちらが良いのでしょう
SDや派生モデル使う分には推薦されるgpuも3060〜3090tiの順に性能の良し悪しが決まってくるのでしょうか?
0963名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 09:07:27.73ID:ERvUXFig
知識がないけど新しい事をしたい!
→シェアがでかい方、つまりwindowsにmac購入と同じ金額を投入しておけ
0964名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 09:07:39.66ID:n9UwKmxB
ありえないMac候補に入れてるのggrksって感じ
0965名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 09:07:43.49ID:DKWWZoBK
どう考えてもWindows。
GPUは今のところはメモリが命なのでRTX30で考えると

RTX 3090 Ti>=RTX 3090>RTX 3080 Ti>=RTX 3080 12GB>RTX 3080>RTX 3060

3070シリーズはVRAMが8GBしかないので、回避が吉。
ゲームには良いんだけどね。
0969名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 09:53:35.19ID:bxZyj+QH
>>962
AIやるなら、Winodws(またはLinux)かつ、nVidia必須と考えていいと思います。(関係ないけど3Dも同じ)

性能はざっくり 3090 4秒> 3080 , 3070Ti , 2080Ti 7~8秒 > 1080 30秒 > 970 80秒 みたいな感じで、

https://rentry.co/zqr4r

Macは性能的に以下のようなレベルですし、セットアップなどの情報もWindowsより少なく苦労が多いと思います。

M1 Pro (2021 Macbook Pro) 150秒
M1 Max 90秒
M2 (2022) 90秒

今後改善されていく可能性はあると思いますが、nVidiaもまだtensorコア最適化されてない状態で性能向上の余地があります。
何か別の用途(iphoneアプリの開発で使うとか)でMac必須ということでなければWindows/nVidiaが無難です。
0971名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 10:13:39.51ID:Ea99rQw/
>>969
出かけてる間とか寝てる間にやるって書き込みの意味がわからなかったけど
Macみたいに時間がかかったら仕方ないわw
0972名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 10:40:53.16ID:QVtN3v8H
ワッチョイあり賛成
最近総合スレ機能してないし、次スレワッチョイにする雰囲気になってた
0973名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 10:43:57.13ID:EtU/jpOk
あっちが先にワッチョイになるとこっちに来るって展開もありそうだしなぁ
0974名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 10:56:33.68ID:aBeRAYMh
ここの奴らがあっちで吠えててうぜーから次からワッチョイIPありで立ててくれ
厄介者押しつけといて自分達はID変えてお楽しみか?陰険な奴しか居ねーのな
CG板の連中は
0977名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 11:01:22.17ID:p2wdyU6Y
ここだけ普段静かで常に荒れずに伸びてるなのがウケる
あっちも荒れてるしそろそろ内部分裂しそうで不安だわ
0978名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 11:05:18.45ID:ozYxEkgC
今残ってるのはアフィ勢力メインじゃないだろうが
はい分かりました、これからみんなで仲良くAI研究して使っていきますじゃつまらないんだろうな
荒れる方が連中としては面白い

まぁあっち荒らされてる時点でもうそういう話も出来なくなるからそれも狙いなんだろうなと思うわ
0979名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 11:15:39.69ID:uknwY6cO
M1 mbpの16G使ってるけど生成で遊べてるよ
Pythonどころかプログラム知識ゼロでもModelの切り替え位は簡単だし、
遅いと言っても無料colabの2倍ちょいの体感速度で走らせられてるので速度も気にならない
ただしネガティブプロンプトやi2i、アップスケーリングなどは今後誰かが分かりやすく解説してくれるのを期待するしかないし、
NSFWフィルター無効にしてるのになぜか黒塗り画像が生成される事があったりもする
AI画像生成のためだけにMacからWinに鞍替えする必要は全く無いと思うよ(もちろん個人の感想)

新規の人ならWindows買っとけ
0982名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 12:08:38.27ID:P4XzybRL
同じツールの上手な使い方を競う様な遊びだったのが徐々に出来上がった絵での評価にシフトしていってるように感じる
0983名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 12:13:21.35ID:P2lYLSRs
>>957
やっぱ標準から外れるとイマイチかぁ
同じVRAMでも2割くらい安く見えるんで調べてたけど難しいね
0984名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 12:36:46.03ID:6p3fZOgO
https://twitter.com/EMostaque/status/1571634871084236801

Greg Rutkowskiその他のアーティスト名が、StableDiffusionで機能しているのは、
LAIONデータセットのせいではなく、言語を教えるCLIPが原因
(CLIPがどういう学習をしているかはクローズドなので分からない)

なので、LAIONからあるアーティストを削除しても、そのスタイルは残ります。

---
よく分からないけど、とりあえずCLIPとDiffusionの学習がなにか俺が理解できていないことがわかったw
https://twitter.com/5chan_nel (5ch newer account)
0985名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:03:47.95ID:BbUmzw+A
>>972
数百レスの間>>493以外誰もワッチョイつけようみたいな話ししてないのに賛成とか言い始めるの怖い

ワッチョイぐらいなら…と思ったけど失速させる意図しか感じないので反対
0986名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:05:52.69ID:LTcrQRpu
例えば学習した文章に「りんごは赤い」、学習した赤いものの画像に「赤色の〇〇」とあればりんごのイラストを要求されたときに形はともかく色が赤くなる、ということ
0989名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:21:03.99ID:BbUmzw+A
>>809
スレ変わる前にせっかくだから記録しとく
SMAPメンバーだと何故か草彅の顔が強いみたいで
5人で顔合成する企画で作られた顔も草彅感が強い
https://i.imgur.com/mL51Rsx.jpg

だからか"草なぎ剛"を指定せずとも"SMAP"と入れるだけで草彅っぽい人が出力される

学習されてるかわからないけどキムタクとかを出したいときにはネガティブに草彅を入れたほうがいいかもしれない

あとsmap単体だと複数人のアー写みたいなのが出がちだから構図だけなにかに使えるかも
0990名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:38:36.73ID:6p3fZOgO
○今日のEmadさん in Discord

Emad SD使う人は数ヶ月で1億人行くと思う。1日10億枚以上画像生成するだろう

そんなアート描きたい人いる?

Emad Canvaは7500万ユーザーいるし。SDはアートのモデルだけじゃないし。PowerPointキラーも来年は考えるし

新しいCLIPになってVRAM必要量は上がる? ※V3でCLIPがViT-LからViT-Hになって言語理解が良くなる

Emad そこは上がるけど他の改善で10倍以上必要量は下がる
Emad 今から100倍以上コストを下げる ※なんの?APIの料金?

(そんなユーザー増えたら)サーバーがすごいことにならない?

Emad 今も学習は4000台のA100クラスタで、生成サーバーは一桁多い。

SD V2は16GB VRAMが必要?

Emad 今より50%以上必要。でも2倍速くて、512x512ではなく1024x1024で学習させるから・・・

24GBもいるってこと?

Emad 今のV1の最小が3.1GBなので、V2は最小が5GBという意味
   V2は1024なので学習が大変で時間がかかる。 CLIP-G次第では768に落とすかもしれない ※CLIP-G?Hではないんだ?

Emad 後、V1ではXかY軸は512にして、アップスケールしてください。それ以上には対応していません。
0991名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:43:56.82ID:DKWWZoBK
需要があるか無いかわかんないもので新スレ汚すのもアレなんで、今のうちに投下。

colabの1111で、ckptを使い分けたい時のためにckpt読込を整理した。
とりあえず、colabでwaifuとかTrin使いたい場合はこれで上書きすれば走る。
変数とセレクタは適当なんで、好みで変えてちょ


#@title CKPT選択
CKPT = 'SD1.4' #@param [ "SD1.4", "Waifu", "Triant60000", "Triant95000", "Triant115000"]
if CKPT == "SD1.4":
#get a token from https://huggingface.co/settings/tokens
#@markdown ##### Normal 1.4 model TokenSet
user_token = "" #@param {type:"string"}
user_header = f"\"Authorization: Bearer {user_token}\""
!wget --header={user_header} https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt -O model.ckpt
elif CKPT == "Waifu":
!wget https://huggingface.co/crumb/pruned-waifu-diffusion/resolve/main/model-pruned.ckpt -O model.ckpt
elif CKPT == "Triant95000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step95000.ckpt -O model.ckpt
elif CKPT == "Triant60000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step60000.ckpt -O model.ckpt
elif CKPT == "Triant115000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step115000.ckpt -O model.ckpt
0993名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 13:50:53.85ID:6p3fZOgO
読んでる人いないかもしれないけど一応訂正というか補足

>>990
> Emad 今も学習は4000台のA100クラスタで、生成サーバーは一桁多い。

この部分は、「多いから大丈夫」ではなく、(サーバーがたくさんいるから)「成長が遅くなっている」という意味でした。

We have monstrous distributed servers
That's why we have slowed down growth.
As a reminder our core training cluster is 4,000 A100s and our inference cloud lined up is an order of magnitude larger
0994名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 14:03:41.09ID:Ea99rQw/
>>990
メモリーが減るのは512x512で
1024x1024でやりたいならメモリー50%マシか

わいの8GBグラボは捨てて、最低でも12GBのやつ買わないとな
0998名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 14:34:03.88ID:6p3fZOgO
>>995
面白そう&便利そうだけど、Docker使ってるところに、Singularityとかlibnvidia-container-toolsとか入れたら
2,3日それで潰れそうだから、試す元気がないw  (問題ないかもしれないけど勉強する気にならない・・・)
0999名無しさん@お腹いっぱい。
垢版 |
2022/09/19(月) 14:39:44.38ID:xOJ14pvO
>>981
スポーツ選手のつもりでathleteと入れると剣士っぽい人がけっこう出てきたよ
2枚目の年齢層でいつものあの人だってわかるの面白いな
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 7日 5時間 43分 35秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況