X



Midjourney】AI画像生成技術交換3【StableDiffusion
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:36:26.27ID:ZNZ0831c
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

前スレ
Midjourney】AI画像生成技術交換2【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661146705/
0002名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:37:42.05ID:ZNZ0831c
■関連リンク
【Midjourney】 https://www.midjourney.com/
【StableDiffusion】https://stability.ai/
【DALL・E2】 https://openai.com/dall-e-2/
【craiyon】(旧DALL・E・mini) https://www.craiyon.com/

英語スキルはあるといいですが、別に今時なくても何とかなります
【Google翻訳】 https://translate.google.co.jp/
【DeepL翻訳】 https://www.deepl.com/translator
0003名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:38:33.20ID:ZNZ0831c
StableDiffusionの人の他社製品比較

https://twitter.com/EMostaque/status/1561349836980584455
・StableDiffusion、DALLE2、midjourneyは全て異なるものだ
・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった
 これにより画像生成のガイドが可能になった

●DALLE2
 ・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。
 ・来年にはコストが10分の1以下になりAPIも公開されると思われる
 ・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう
●MidJorney
 ・VCの資金提供を受けたベンチャー、ではなく研究所
 ・非常に独特な絵画のようなスタイルを持っている
 ・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能
 ・オープンソースとそうでない部分がある。
●StableDiffusion
 ・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる
 ・まもなくDreamStudioプロシューマーサービスを発表する
 ・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない
  これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた
 ・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている
  そのため、誰もがこのモデルを改良し、構築することができる
https://twitter.com/5chan_nel (5ch newer account)
0004名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:39:08.56ID:ZNZ0831c
【ツイッター】
https://twitter.com/hashtag/midjourney
https://twitter.com/hashtag/dalle2
https://twitter.com/hashtag/stablediffusion
こんなのができます

【Midjourneyお役立ち情報】
https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference
調べてみたら使いやすいPrompt wordはここに全部まとまってたわ
https://docs.google.com/spreadsheets/d/10i9Ip8tVSERAuMWbc6-H6BUFCoUGOQ91YzDvX--c4bk/edit#gid=0
各アーティストのまとめ
https://twitter.com/5chan_nel (5ch newer account)
0005名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:40:01.08ID:ZNZ0831c
テンプレはとりあえずそのままにしました
「これ入れて」がいろいろあると思うので>1へ提案しておいてください
0006名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:05:58.48ID:ayWOlSNk
StableDiffusion各種

●ローカル環境用
公式 https://github.com/CompVis/stable-diffusion
basujindal版 https://github.com/basujindal/stable-diffusion (省メモリ・WebUI有・フィルタ解除済み)
hlky版 https://github.com/hlky/stable-diffusion (一番人気・WebUI有・フィルタ解除済み)
GRisk版 https://grisk.itch.io/stable-diffusion-gui (GUI・DL→解凍→実行だけ)

●Google Colab用
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
https://colab.research.google.com/drive/1AfAmwLMd_Vx33O9IwY2TmO9wKZ8ABRRa
フィルタ解除版 https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17

●ウェブサービス
Demo https://huggingface.co/spaces/stabilityai/stable-diffusion
Demo https://huggingface.co/spaces/huggingface/diffuse-the-rest
DreamStudio http://beta.dreamstudio.ai/
0008名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:15:58.49ID:XSEhAwvZ
>>1
乙!

hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・
0009名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:31:54.02ID:zrVIZvjl
たて乙

現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、
最適な方法が流動的すぎて無理だよなぁ
0011名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:43:33.07ID:OshC99AO
まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?

とりあえずファインチューニング(textual inversion)メモ

追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する

・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision

・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
 利用時は例えば"In the style of * , <other text>"となる。
 これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
 https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。

・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
 https://sd-textual-inversion-models.tumblr.com/

・学習方法
 https://github.com/hlky/sd-enable-textual-inversion
 Stable Diffusionをいらすとやでファインチューニングする

まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
0013名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:45:29.98ID:Iew5QnKr
ぶっちゃけ飽きてこないか?
0016名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:51:29.03ID:XSEhAwvZ
NGワードはすぐわかっちゃうと荒らしが対応するから秘密らしく、条件はよくわからない
「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど
微妙に変えたり、2レスに分割するしかない
0018名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:03:55.25ID:ayWOlSNk
Stable Diffusion hlky版の構築手順

1 https://github.com/hlky/stable-diffusion/archive/refs/heads/main.zip をDLして展開する
  Git使える場合更新に追従しやすいcloneの方が良い
  git clone https://github.com/hlky/stable-diffusion.git
2 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
  モデル(sd-v1-4.ckpt)をDLして model.ckp にリネームして models/ldm/stable-diffusion-v1/ に置く
3 minicondaをインストールする
  https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe
4 webui.cmd を実行する
5 http://localhost:7860/ をブラウザで開く

●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth
をDLして src/gfpgan/experiments/pretrained_models/ に置く

2. RealESRGAN(高解像度化)の有効化
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.2.4/RealESRGAN_x4plus_anime_6B.pth
をDLして src/realesrgan/experiments/pretrained_models/ に置く

3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように追記する
python scripts/webui.py

python scripts/webui.py --optimized-turbo

上記の原本(英文)
https://github.com/hlky/stable-diffusion
他の解説(英文)
https://rentry.org/GUItard
0019名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:12:06.94ID:Iew5QnKr
Stable Diffusionの人、Crypto界隈をめっちゃ煽っててワロタ。
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw
https://twitter.com/5chan_nel (5ch newer account)
0021名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:14:11.89ID:OshC99AO
●StableDiffusionの情報ソース等
・Discord https://discord.gg/stablediffusion
・中の人のtwitter https://twitter.com/EMostaque
・海外情報reddit https://www.reddit.com/r/StableDiffusion/
https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので>>18を見たほうが良いが、その他TIPSは有用情報あり

・今後
 ・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
 ・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
 ・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account)
0022名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:18:48.10ID:OshC99AO
StableDiffusion TIPS
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
 サンプラの差は大きい。k_euler_aとk_heunでは2倍差
 k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun

●ハード
・ローカル動作性能 https://i.ibb.co/yd7SZ32/chartthin.png 出典:https://rentry.org/GUItard
・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう
0023名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:24:29.39ID:anj+Z8s0
MJはもう別スレがいい?ここじゃあまり語られないし
0024名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:24:36.38ID:XSEhAwvZ
>>22
>  サンプラの差は大きい。k_euler_aとk_heunでは2倍差
>  k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun

し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと
0025名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:28:27.11ID:Iew5QnKr
>>23
一緒でよくね
スレの流れが早いわけでもないから下手に分散させたら過疎るだけかと
0026名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:30:25.84ID:OshC99AO
>>24
「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti

k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image

l_lms 5.89 it/s 10.08s per image

k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image

進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね
0029名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:36:30.39ID:zP/KY5ha
img2img、バリエーション起こすのにいいわこれ
この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる
0032名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:51:15.79ID:OshC99AO
法律、権利関係の議論は熱くなりそうで別でやって欲しいんだけど、このサービス、技術的にどのぐらいのレベルなのか気になる

https://illustmimic.com/en/
本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!

mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。
0034名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:02:09.48ID:E2pAsSUt
img2imgは構図維持するよりstrengthを大きくして
元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな
例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる
0035名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:04:17.39ID:hJAn0cka
>>34
Loopbackはやってる?
Strengthを0.2~0.3ぐらいにしてLoopback Batchを5回とか10回かけると構図維持したまま細部だけ変形していくよ
0036名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:09:08.05ID:XSEhAwvZ
>>26
ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ
0038名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:14:05.70ID:ckaqNUs2
>>32
今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない
0039名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:21:17.66ID:3oD6d6E1
>>32
waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう
0042名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:28:58.53ID:E2pAsSUt
>>26 >>26
RTX2080でoptimized版に--turboでddim 50step 512×512 1枚あたり7.5秒だな
2080Tiと殆ど変わらないとは思えないんだが --turboで何か処理を間引いてるのか?
0043名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:37:20.43ID:OshC99AO
>>38
9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ

学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった


>>42
1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい

2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる

StableDiffusionもバージョンアップで性能上がっていきそうですが
0044名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:45:10.83ID:d4YOjC0c
初音ミクは前スレのこれがめっちゃ良かった
turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ

https://i.4cdn.org/g/1661704624784564.jpg
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136

1段目 turquoise -> green -> red  色違い
2段目 twintail -> ponytail -> bun 髪型違い
3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ
0045名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:50:05.21ID:3SqGfZxt
SDは既存アニメキャラは意図的に出ないようにしてるみたいでそういう用途ならdalle miniのほうがええね
0046名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:56:04.90ID:XSEhAwvZ
前スレの
> でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい
これ--optimizedだったら1024x1024行けるかな?
0047名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:00:44.38ID:E2pAsSUt
Craiyonのanimeエンハンスモデルが3090のシングルで数時間学習しただけで
あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな
0048名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:01:30.47ID:XY/qzhrx
>>45
そこだけ妙に節操があるのはなんでなんだろうな
著作権なんて便所の糞と一緒に流しちまえとしか思ってない連中なのに
0050名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:14:50.14ID:E2pAsSUt
どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
MJの高解像度出力ってどういう仕組みでやってるんだろう?
あれがSDに降りてくれば凄いんだが
0051名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:18:44.13ID:hJAn0cka
512x512で作ってから
同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい
0052名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:32:53.11ID:1He7nitR
逆に絵から「このテキストで作る絵に近いですー」って出してくれれば
好みの絵つっこみまくったら共通ワード出せるのか
0053名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:32:56.71ID:oTgFwqmv
>>46
3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。

VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
0054名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:36:59.23ID:XSEhAwvZ
>>36勘違い、実験中で-turbo入れ忘れ
0.78it/s=1.27it/s、約10倍差だった
(どうでもいい情報ごめん)

>>51
今それ試してるんだけど、ボケちゃって詳細が生成されるわけでもなくいまいち
ESRGanと変わらないというか・・strを0とか0.01、0.05、0.1とかいろいろやってみたけど
MDでいうlightでないupscaleみたいなのが欲しかったんだけど
大元の生成時の画像とseedと呪文等全部ちゃんと記録しといて、-turbo外して大きいのを作り直しとかがいいんじゃないだろうか
0055名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:37:38.43ID:3SqGfZxt
>>48
むしろ逆だよ
「なんかカッコいいアニメのポスター」で既存のアニメの絵が出てきたら使いにくいじゃん
フォトストックみたいに気軽に使えるものが欲しいんだろう
0057名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:46:10.20ID:XSEhAwvZ
>>53
最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済

> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど
0058名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:47:53.47ID:oTgFwqmv
やっとGoogle ColabでGPUつかめた。

Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd
事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK

起動がかなり遅いのがデメリットだけどWeb UIはやはり便利

こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab
0059名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:53:37.99ID:E2pAsSUt
例の炎上サイト、Tesla P100×1台分程度のリソースしか用意してないな
逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか
0060名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:54:30.29ID:XSEhAwvZ
貧弱なローカルPCでやってたらMJって凄いことしてるよなぁってヒシヒシと・・

①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示
②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加
③さらにupscaleで2048x2048化、これも作り直しで情報増加

②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど
0062名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:04:58.37ID:BGowXRRl
AI勉強するか、と思ってサイト検索して、Python基礎、微分、線形代数、この辺まではまあ高校数学だから、そういうのあったなーでいいけど
行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い

俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事
0064名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:08:34.26ID:E8Z3REee
>>58
ちらっと中身見ただけだけど2個目の方はアクセスするためのパスワードかけられるっぽいね
別にアクセスされたからってそんなに困ることもないだろうけど気になる人はそっち使うといいかもしれない
0066名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:17:21.62ID:hJAn0cka
anatomical chart(人体解剖図)という
入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した
あと真正面向く
0067名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:17:47.43ID:E2pAsSUt
>>60
MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代
0068名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:21:46.52ID:2HTDZ+Ml
>>62
AIの何やってるか知らんけど深層学習の原理は普遍近似定理
フーリエ解析や関数解析を勉強してないと定理の証明は理解できんぞ
0070名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:38:23.03ID:iBMQZq8O
AI、最初はおもろかったけどミミックだっけか、あそこまで露骨なの出てくると完全に無法地帯と化してきて引くわ
イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ
0076名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:06:18.19ID:biZ5LJNt
>>74
規約だと生成マシンのために用意する画像は自筆のものだけってことになってるけど
絶対他人の書いた画像をぶちこむ奴らが湧くから絵描きは普通に警戒すると思う
0077名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:17:14.73ID:E2pAsSUt
どのみちファインチューニングしたファイルがどんどん配られるようになるから反対しても無意味だよな
配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな
0078名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:18:47.75ID:IQAZJxZC
>>64
って書いたけど実際動かしてみたらなぜかパスワード機能しなかった
webui.py書き換えて直接パスワード指定したらできたから結局どっちでもいいかも
0081名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:32:18.72ID:SoyTJ9pR
>>50
> どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど
0082名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:33:31.85ID:l6B+4duJ
賛美がCG板で
愚痴アンチが向こう完走次第イラストレーター板
でいいんじゃないかな
板の特性的にその方が住み分けできる気がする
0084名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:34:35.86ID:SoyTJ9pR
ID:l6B+4duJ

>>1
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
0089名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:48:21.08ID:OhzhbyC+
midjournyはこの先きのこれるのか?
0091名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:49:24.96ID:y65qW5Ek
Google Colabで現在のサンプラーを確認したりサンプラーを指定したりするのはどうやればいいのかしら
0093名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:56:07.08ID:AriPWpHx
midjourneyて適当に単語入れてもなんかいい感じ(雑!)になるけどあれってどの段階でどんな感じに調整してんだろ(あやふや!)
0094名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:58:34.01ID:SoyTJ9pR
MJの勝手にいい感じになるのが面白いし、本来の創作からはかけ離れてるなとも思う
たまたまこんなの出たぞ!って自慢する遊びって感じ
「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの
0095名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:59:06.57ID:Jng3I3Cs
作成した画像だけで指定したプロンプトってわかったりする?
0098名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:10:06.04ID:siAV3f7f
--testで久々に入ってみたけどMJのrelaxモード遅っせぇ!
つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる
ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな
ようはすべての有料キューの後回しにされてる
0099名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:18:27.77ID:5JqWD+FJ
デコーダーもあるから一見出来そうに思えてやっぱり出力→入力への逆変換は不可能なんだよな
逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい
まあそれ用のAI学習すれば出来てしまうんだろうけど
0100名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:22:41.38ID:5JqWD+FJ
ちなソースの中身見ると最初から各自で自由に改変・拡張できるように
滅茶苦茶親切に色んな機能があらかじめ用意されてるのな
短期間に機能追加が進むわけだ
0102名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:29:03.97ID:Ao1XJMlW
ローカルだと、エログロやロリも出力出来るの?
0103名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:39:37.50ID:DnpTt9/H
>>98
SD取り入れたらしきtestモードはパワーが必要らしいからな
test実装で人が増えた+みんなtestモードで遊んでる=リラックスマン死亡
だからローカルで動かせるSDが神すぎる
0104名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:59:18.12ID:5JqWD+FJ
MJのファインスケールの技術がSDに降りてきたら凄いんだけど
MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな
0106名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:15:50.76ID:/Y6pdVi2
>>102
はい、一生懸命プロンプト入れたらできますよ!
え?今日からMJを始めたい?いいですよ、それじゃあDiscordに登録してください
0107名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:17:28.04ID:/Y6pdVi2
ローカルだった、間違えた
まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い
0108名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:17:48.62ID:ucLumWkP
MJのtestでオリジナルねんどろいど試したがクオリティ高いな
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
https://i.imgur.com/V8aG77Y.png

認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい
0109名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:41:36.82ID:/Y6pdVi2
--testで適当にアニメキャラ出したら色使いや絵柄がパンツ先生ってのにやたら似てる気が・・
まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか
0110名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 02:33:57.47ID:5JqWD+FJ
ちょっと間違うと?平気で事故画像になるな
赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか
google driveに画像保存するタイプのnote bookは危なくて使えんわ
img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし
0111名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 03:09:28.94ID:zPkJV8Uj
分かる
メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ
実写の人間の顔が生成されるのも怖いときある
0112名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 03:18:39.40ID:Lr1R2Bus
ツイッターの#midjourneyの外人を何人かミュートしたことある
どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか
数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか
0113名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 05:10:35.62ID:gDEnwbht
110みたいなのはあるな
気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら
ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ
0116名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:08:27.63ID:RPiMnBkh
ロリどころか赤ちゃんから老人まで全裸にできるし、他に倫理的な問題がある表現もワード次第で大抵出せるから、今まで一般流通のなかった特殊性癖な人にとっては供給量が砂漠から海になるくらいの地殻変動が起きてる。
0117名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:14:18.44ID:+BrlyjDS
下手に国内法で規制とかしたら外国AI企業が発展して日本の著作権法で検索エンジン開発できませんでしたの再来になるな
クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺
0119名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:37:44.28ID:DnpTt9/H
huggingfaceとかColabに面白いツール結構あるんだが、一応学術的な用途のサイトをエンタメ乞食目的で拡散していいのかめちゃくちゃ悩むな
0122名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:57:07.37ID:zIEyYU7A
Colab pro使ってるけど512、ステップ数50、5枚一括生成辺りからもうプレビュー読み込めなくなってしまう
やっぱり1枚ずつ生成した方がいいのかな
0124名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 08:41:53.85ID:8qhX8eo3
なぁ今やっとローカルに環境構築できたんだがcmdで一行ずつコピペするの大変だからpythonで①作業ディレクトリの設定、②promptの入力、③保存して次行くかor保存して次行くか、くらいまで人がやる作業減らしたいんだが誰かヒントをくれんか。

俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。
0125名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 08:47:26.10ID:kv64WKVJ
>>124

>>18を試してみては
ブラウザ操作できるのが楽。出力は画面にも出るしoutputディレクトリにも自動保存される
手順2のckptファイルダウンロードは済みで、3のminicondaもインストール済みだと思うけど
0126名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:32:47.09ID:5JqWD+FJ
背景が得意と言ってもちょっとイラスト風に指定すると
いかにもAI君が描きましたって画風になってしまって使いにくいな
最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ
0130名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:46:51.92ID:5JqWD+FJ
環境が汚れるというかソフトによって細かくライブラリのver調整しないといけないから
共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる
condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから
色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな
0131名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:50:59.51ID:kv64WKVJ
単純に複数フォーク使う場合はDockerの方が気分的にいいね
性能が気になるけどまだ動かしてみたって報告見つからないな
0134名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:14:07.66ID:xGJiBerf
>>127
Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね
0135名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:18:11.10ID:TFHgXV2V
>>131
うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う
0136名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:20:25.88ID:kv64WKVJ
>>137
普通の使い方ならそうだけどGPUをdockerから参照させるのが(できるらしいけど)なんかトラブル起こしそうで試してない
問題なく動いてる?
0137名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:23:57.78ID:kv64WKVJ
レス先間違えたw
>>135
情報ありがとう。
手順とかどっかに書いてますかね?
dockerーcompose upする前のnvidiaのdriver設定とかあると思うんですが、そのあたり
0138名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:40:54.58ID:TFHgXV2V
>>137
うちの場合、

・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ

あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった
0139名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:45:27.55ID:TFHgXV2V
一応参考資料

Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48

うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ
0140名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:47:40.85ID:TFHgXV2V
一応念のためだけどVSCodeは拡張が便利だから使ってるだけで別に必須ではないよ
もちろん自分でdockerコマンドを叩いても問題なくいけるはず
0141名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:54:40.02ID:qYpiRjsk
出先でID変わってるけど137です
>>138
なるほど
GPU関係のドライバとか設定とかないんですね。
どういう仕組みなんだろうw

帰ったら試してみます。ありがとう!
0142名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:04:42.27ID:TFHgXV2V
>>141
正直dockerにはあんまり詳しくないんだけど、理屈としては

・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04

・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]

ということだと思う
たぶん
知らんけど
0143名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:05:37.25ID:Ao1XJMlW
ローカルで動かすには大変なんだね
DLしてポンと行けるようになるまで待つしかないか‥
0144名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:06:07.82ID:fvdhM1jP
>>58
これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?…
0145名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:12:21.02ID:qYpiRjsk
>>142
なるほど。ベースイメージがいい感じになってるってことですね(雑理解

>>144
流れないので安心してなんでも入れてOKですw
0146名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:14:40.77ID:fvdhM1jP
>>145
ありがとございます(^o^)/
0147名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:15:05.99ID:8qhX8eo3
>>125
ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。
0150名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:21:12.88ID:TFHgXV2V
ちなみに上の話の確認をする過程で軽くTwitterを検索してたらなんかGPUなしで(CPUで)StableDiffusionを動かせるDockerコンテナを作った人がいるみたいなので興味がある人は試してみてほしい


dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456

[引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法 https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496
0153名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:46:18.62ID:1F0iAG9b
>>151
なんかとんでもねえところに置いてあるなと思ったら
GoogleCloudに置いてるブログの直リンクがgoogleドメインに化けてるだけか
0158名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:18:07.18ID:/28TUU0I
今写真か画像から3DCGにする技術あるって見たけどそういうソフトって知ってる?
組み合わせれば3DCGモデル作れそうなんだけどなぁ
0160名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:23:13.13ID:KijvYrKn
フォトグラメトリーってヤツ、アップルスマホで動くらしいけど
まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい
リトポアプリで家具なんかは割と簡単にモデル化できるよ
0161名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:24:50.21ID:kv64WKVJ
>>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown

また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした

Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
0162名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:44:04.82ID:Ao1XJMlW
macでローカルに試みてみたけどPyTorchのインストールで早くもつまずいた
こんなややこしい事よう出来るなみんな
0163名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:44:11.02ID:Fo+VsDM0
凄いおもろいんだけど呪文周りが大変だねこれ
タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい
0165名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:53:38.35ID:kv64WKVJ
NeRFは複数角度からのイメージが必要で、それをSDが生成できるならその時点で3D生成できてることになる気がする
0166名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:55:19.67ID:kv64WKVJ
>>162
3DとかAIとかをMacでやってる人尊敬するわ
0167名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:00:10.07ID:TFHgXV2V
>>161
うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう……
0168名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:01:30.71ID:pgnjJfpT
>>164
グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも
0169名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:06:12.08ID:31uMl/6n
>>168
ちなみに1650は動かなかった
動くようになるっていうmodifyはやってみたけどcuda out of memoryになった
0170名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:14:48.13ID:fboSUaai
>>169
2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった
0171名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:17:43.86ID:kv64WKVJ
>>167
いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw

多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)

●WSL2(ubuntu20.04)
 ・cuda-toolkit ?

●Dockerコンテナ
・Docker fileをbuildすればOK

cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)

また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw
0172名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:19:24.67ID:ENzpNyMS
マイニング需要減退に4000番前の買い控えとが合わさったうえ
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな

> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。

4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html
> 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。

(ローカルSDのための技術交換です)
0173名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:19:45.81ID:fboSUaai
ZBrushでVroid弄った方が早いかなぁ
たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい
0→1は無理でも手直しできるレベルなら使いこなせそうだし
0174名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:29:15.30ID:31uMl/6n
>>172
今は時期が悪いおじさん「今は時期がいい」
ってこと?
0176名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:37:00.59ID:ENzpNyMS
ローカルSDはゲーマーと視点がずれてるのが面白い
「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか

自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな
ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど
SDで生成されたのは512x512で大抵見向きもされてない
ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度
0178名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:38:12.60ID:fboSUaai
>>175
AI総合スレみたいなのないからじゃない?
一応イラスト1枚から3DCGやアニメに繋がるから全く関係なくもないと思う
素材からの手直しも過程として似てるし
0179名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:45:17.40ID:qYpiRjsk
164までは分かるけどその後のレスの意味は俺も分からないなw
NeRFとかはスレの趣旨としていいと思うけど
0181名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:48:52.99ID:ENzpNyMS
自分で言うのもなんだけどGPUの話題は問題ないでしょ
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ

ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?

>>180
いいGPUがあればね・・
0182名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:50:26.11ID:hEWVLVDt
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

これ3DCGと関係ないじゃん
ここCG板だよ?
0184名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:55:26.65ID:hEWVLVDt
そっちって2D絵描いてるイラストレーター向けってかイラストレーター板に立ってるスレだよね
こちらはCG板に立ってるから3DCGも扱うんじゃないの?
最近のAI話題も大体2D絵の事だと思うし
0185名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:01:37.98ID:QtIBnaoD
一般の使用想定者は2D、いわゆるハンコ絵や背景の生成目的に使うが
ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか
そうした用途で使用する人も想定できるんでないか、CG板だし
0186名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:10:55.21ID:ENzpNyMS
まぁ、AIは3DCGゲームデータをかなり学習してるようで密接ではあるんだよねぇ
MJでレンダリング系呪文使ってる人の多いこと
0187名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:13:50.50ID:0x/KrfJz
>>181
2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね
0188名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:13:51.66ID:/LwOjr1W
猫の人(たかなんとかさん)が紹介してたバイドゥのお絵描きAI動作確認してみたけど
GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった
0189名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:20:08.27ID:fboSUaai
クリエイター目線で雑談質問含めて総合スレにした方が伸びると思うは分かる
技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし
クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな
0190名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:21:14.93ID:5JqWD+FJ
フォトショのプラグインのあのデモ見る限り
ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが
既にリリースされてるんだっけ?
ペイントツールと直接連携できるのはやっぱ強いわ
0191名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:24:46.18ID:fboSUaai
操作方法のマニュアルでなくて絵自体を上手くするテクニックとか?
AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは
自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな
コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする
0192名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:33:18.91ID:hEWVLVDt
3Dプリンタでフィギィア造形とか
AIが完全な絵を描くにはむしろ立体的理解が必要なのか

3DCGがさらなる進化のカギを握るはありそうだ
3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く
実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある
0193名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:42:36.07ID:ENzpNyMS
>>189
別に伸びなくていいです
何だか知らないけど賑わってるからって理由でお客さんが流入するとろくなことない
0194名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:47:53.87ID:fboSUaai
Adobe化せずセットでも安価なサブスクにして欲しいなぁ
全部従来のクリスタみたいにオフラインでも使える感じで
0195名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:48:48.90ID:Q/I/WEL9
途中の生成過程よく見てるとフラフラして面白いよね
腕が出たり消えたり、顔つきがふっと変わったり
0196名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:51:24.00ID:7lE/VvUQ
フォトショもオフラインで使えるけどフォトショ自体少し高いよね
フリー含めたAI普及しそうな今なら尚更
まぁ代替え自体は同じようにあるけど
0198名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:53:49.41ID:5JqWD+FJ
解像度を高めるほうほうが見つからんな
一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから
img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img)
これやってもぼやけたままで細かいパターンが作られたりしないんだよね
img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい
0199名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:58:08.89ID:7lE/VvUQ
ってかこのソフトだけでは何もできないことぐらいCG描いてる人なら知ってるよね
出来たら〇dobe辺りが黙ってないと思うw
結局全員が使い出したら差別化が必要になるから
0200名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:00:13.24ID:Q/I/WEL9
>>198
どうしようもないね・・いきなり最終サイズじゃないと接合部で整合性取れないし
ローカルだと化け物GPU所有するしか活路はないかと

MJは裏でなんかとんでもないことしてると思う、たまたま今貼った>>197をもっと高度にした何か
--ar 1:2 とかにした人間が頭二つになったりするので
間だけじゃなく、ハチの巣状に複数個所描画しながら、ステップ重ねてるとかかも
0201名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:04:18.74ID:0x/KrfJz
従来の才能知識技術必要なのと違って呪文の運用方法のマニュアル覚えれば誰でもできるからね
そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない
0203名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:16:42.22ID:ktt9Dn9w
もともとイラレ板から分離して出来たスレみたいだけど
あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある
そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる
実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど
0205名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:23:53.04ID:Yug2NA1p
いまいち分かりにくいよな
イラレ板は業界の話とか職業とか金絡みの話じゃないのか?
技術や学び全般はこっちな気がするが
0207名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:28:21.59ID:0x/KrfJz
>>198
あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう
0208名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:28:49.66ID:HJJsHPQ+
1人か2人かしらんけどかなりのアホが迷い込んできてるな
悪意はなさそうだがそろそろ黙って
0209名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:31:46.74ID:B4PDTVQw
メジャー紙(?)も続々取り上げてて乱用待ったなし
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ

文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/

「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
0210名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:34:50.31ID:0x/KrfJz
この板に雑談スレないからじゃ?
ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ
単純に立て方の失敗
NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う
イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない
0212名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:37:21.09ID:spMnej94
質問スレと雑談スレに分離するか質問スレをどちらかに含ませるか辺りか
金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか?
0213名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:42:01.90ID:ktt9Dn9w
質問に答えられるような層ってこのスレの住人だろうけど過疎ってたから質問はこっちでいいのでは
次からテンプレート入れてスレタイに組み込めば?
まだその段階ではない気がする
0214名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:47:18.57ID:fIsOyvn6
イラ板のアンチスレについに勢い負けたどころかこっちの3倍w
あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない
0215名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:48:40.14ID:5JqWD+FJ
AIの背景見過ぎて一発でAI背景のおかしなとこ見つけられるようになってしまったw
萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな
もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな
0216名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:49:41.34ID:v7+RMFMP
●CLIP-guidingって何?

Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104
CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。

近日中に公開予定です。
Vit-Hは完成前でも特にロックです。

---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq

プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]

#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]

#Negative prompts for Latent Diffusion
latent_negatives = [""]

image_prompts = []

どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account)
0217名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:50:12.85ID:EbiIO4wi
このスレではMJよりSDの方が人気?
0219名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:55:33.06ID:fIsOyvn6
>>217
人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ

MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる
0227名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:12:45.40ID:arqZR3Jp
【Midjourney】AI関連総合【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1661853927/

分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで
0229名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:15:48.13ID:5JqWD+FJ
仕事の観点からだと実用性のある背景にはMJみたいなアートに振った画風よりも
そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど
平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね
イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな
コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし
0230名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:16:18.20ID:DnpTt9/H
>>176
現状のSDだと1次生産時の画像サイズはまじで重要だからな
MJのアップスケール欲しいわ
似たようなのが発明される流れではあるみたいだが
0232名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:19:52.20ID:80MNGGFZ
>>227
スレタイもうちょっとなんとかならなかったの?
AI関連総合だけでいいでしょ、dalleとかもあるんだし
こっちと誤認するの狙ってるようにしか見えないんだが
0233名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:20:29.85ID:v7+RMFMP
>>226
なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった
0235名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:27:25.32ID:DnpTt9/H
絵文字ってどういう認識なん?
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから>>226
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか
0237名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:35:00.62ID:SEeBbxDW
>>235
💩は絵文字の画像になる
0239名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:17.02ID:B4uVJLlD
>>235
Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる
0240名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:17.72ID:v7+RMFMP
ぼんやり理解だけど、
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
https://i.imgur.com/RZr0oGw.jpg

プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。
0241名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:23.96ID:SEeBbxDW
>>238
更新しろ
みんな文句言ったから今朝には治ってた
0245名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:52:11.73ID:1o6g5FEf
別に絵文字と特別に認識している訳ではない
ただの文字の一つで扱いとしては漢字一文字とほぼ同じ
そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので
絵文字を入れると絵文字の画像が出てくるという話

🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため
0246名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:57:34.61ID:31uMl/6n
画像共有用discodeたててもいい?
0247名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:58:11.27ID:v7+RMFMP
>>245
CLIPの説明読んでるところだけど、”説明文に含まれている”わけじゃなくてもいいらしい。そこがCLIPが革新的な点
>>240みたいに画像自体を認識して英語にする

で、言葉の距離が近いものは近いと解釈する(smileとスマイルマークは近いので同じように機能する)

ついでに、rene magritteという画家をスペルミスして、rene magirtteとすると、似ているけど少し違う画風が得られる、らしい。面白い
0248名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:58:13.30ID:dr5tbs4r
tomieって入れると黒髪美女出る
富江だと風景画になってしまった
0249名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:07:32.63ID:1o6g5FEf
>>247
学習のデータセットのテキスト自体にはCLIPは使われてないからよくよく読み込んでからレスしてくれ
読んでる途中でらしいで否定されても困る
0250名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:07:45.18ID:80MNGGFZ
https://github.com/hlky/stable-diffusion
最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート?
0252名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:20:40.02ID:80MNGGFZ
verup前は俺環の最大解像度で1枚はいけるのに、2枚からバッチ回すとout of memoryなってたのがちゃんと治ってる
自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ
無償で開発してる人たちにほんと頭下がるわ
0253名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:21:21.95ID:Y3qJ/WiJ
前スレで出てた

digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136

のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる?

image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0]
0254名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:23:01.98ID:cJ9kV8hW
日本人女性っぽい名前を入れると日本人が出てくる
akikoとか
0257名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:28:04.74ID:vYyH+zie
>>256
>>251が言ってるのは「学習時点」、あなたが言ってるのは「学習データ」の違いだね

分かってると思うからそう突っかからなくていいのでは。 >>245は間違ってる
0258名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:36:49.67ID:31uMl/6n
>>246
スレチ?それとも誰も興味ないだけか
0259名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:37:14.83ID:DqH2aZi7
>>247
yoshikata amanoとかalphonse muracとかってそういうことなのかな
Lexica見てるとよく出てきて、スペルミスかと思ってたけども。
0260名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:40:58.08ID:qYpiRjsk
>>258
個人的にはめっちゃいいと思うけど人来るかな?って思った
画像に限らず日本人のDiscord欲しいよね
0262名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:53:55.86ID:MpLLHlhW
webuiのimg2imgでsrengthを小さくしてloopbackで回すってのがよくわからん
str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない
0263名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:56:34.34ID:31uMl/6n
>>260
>>261
なるほど、やめときます
まあねらーは馴れ合わないということか
0265名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:02:34.31ID:NlA3TJFF
EmadさんDISCORD情報 2022/8/30
・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど
 → ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない
・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。
 OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。
・V3は1週間以内にできる。多分チェックに2週間かかる
 (注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味?
・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、
 腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。
 → ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。
   @Dango233が対応してます。
・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。
0266名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:12:27.82ID:DyU6uiZ7
この画像からプロンプト出すやつ、実際に作成者が打ち込んだテキストが
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt
画像から推測してるだけっぽいんだけど。
0267名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:12:49.92ID:1o6g5FEf
>>262
プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?

で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる

んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する)
0268名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:18:34.35ID:MpLLHlhW
>>267
なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する
0269名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:03.84ID:fW+GqRKg
>>253
Google Colabでやってる人かな。それだとエラーになるでしょ

import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]

みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど
0270名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:19.56ID:DnpTt9/H
>>266
AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ
0271名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:31.32ID:NlA3TJFF
>>266
画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする

最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど
0272名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:24:22.14ID:MpLLHlhW
> Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエスト
これ欲しい!yamlファイルの山マジ勘弁して
縮小版と並べたら一瞬どっちの隣のかわかんねーよ
0273名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:36:51.60ID:SEeBbxDW
手足とか指がぐちゃぐちゃでも大丈夫なホラーとかダークファンタジーに向いていることに気づいてしまった
0275名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 22:02:03.23ID:1o6g5FEf
>>268
そういう場合元のプロンプトを流用すると不都合の方が多いと思う
思い切ってhighly detailedとかdetailed faceとかの画質指定系に絞るといいかもしれない
0278名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 00:22:07.44ID:HbV0Uggc
テーマだったらsubject(主語)より前のほうがいいと思う
detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない
0281名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 04:51:36.09ID:DcFdWx70
無料colabでファインチューニングする人はコンフィグのbatch_frequencyを2500くらいにしようね😭
batch_frequencyに指定したstep数ごとにプレビューを出力するんだ
2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭
0283名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 06:45:08.15ID:7JXzYhek
>>282
できるね >>11
0284名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 06:56:38.99ID:LMHjjJ7D
ローカル環境でStable Diffusionのimg2imgを動かす
https://self-development.info/%e3%83%ad%e3%83%bc%e3%82%ab%e3%83%ab%e7%92%b0%e5%a2%83%e3%81%a7stable-diffusion%e3%81%aeimg2img%e3%82%92%e5%8b%95%e3%81%8b%e3%81%99/

バカでもわかりやすいように回りくどく説明してくれてるんだけど
バカすぎて途中から全然意味わからん
じゃあどうやってそのコードを実行すんねん
途中まで無駄に回りくどかったのに一番大事なとこはしょんなや
0285名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 07:14:36.78ID:6l/NJAAU
hlkyさんTwitter始めたよ!
@hlky__
0286名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 07:25:20.95ID:7JXzYhek
>>284
めっちゃ分かりにくい、というかpython環境設定方法書いてないね
中身の解説をしてるわけでもなし自分用メモみたいな感じ

>>18でいいのでは
0288名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 08:02:44.06ID:7JXzYhek
●動画での服の着せ替えについて
https://twitter.com/karenxcheng/status/1564626773001719813

・Dalleでマスクすることで服を変更することができる
・しかし一貫性がないためフレーム毎に服が変わってしまう
・これを解決するツールとしてEbSynthがある
 EbSynth https://www.youtube.com/watch?v=eghGQtQhY38 https://ebsynth.com/
 ※以下の手順は私の補足
  1.ビデオをPNG連番ファイルに変更する
  2.キーフレームを他の画像に変更する(1枚。複数も可)
  3.ビデオPNGをマスク(白黒)にする ※自動もできる?
  → 全ビデオがキーフレームの画風になる

・他の方法としてDAINというAIフレーム補間もある
 https://twitter.com/karenxcheng/status/1552348027834118144
 Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。
 https://grisk.itch.io/dain-app
https://twitter.com/5chan_nel (5ch newer account)
0289名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 08:22:27.26ID:UCPx4zKR
デフォで散らかってるwindows側にごちゃごちゃ入れるのは嫌なんでWSLに普通のdockerとdocker composeをインストール
webuiを起動した時に出たエラーメッセージで検索してtoolkit更新
無事docker composeで起動確認
さよならanaconda君のことは好きじゃなかったよ
0293名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:21:18.98ID:7JXzYhek
>289
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・

girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5

デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/LqvrGRM.jpg

tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/OZY3HE1.jpg

基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね
0294名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:21:37.09ID:YwNJW/mv
>>290
早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ
0298名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:36:02.70ID:TGVLwwJu
>>294
単に外国人が作ってるから外国人好みの絵が出るように調整されてるだけでは?
手塚治虫が作れば手塚治虫好みの絵ばかり出力するAIになるだろう
0299名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:37:18.86ID:0+/wzyQN
アニメ調って、日本人が言うアニメじゃなくて
ディズニー系の事か
0300名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:44:19.27ID:7JXzYhek
>>289
追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925

デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg

tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/ShbMRq8.jpg

>>299
プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう
0303名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:14:56.73ID:0+/wzyQN
一部アナ雪感があるね
単品で見れば良い感じだけども
0304名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:22:23.56ID:TWdEygjj
恐らくこのモデルの本領を発揮させるGreg Rutkowski的存在が居るんだろうけれども
それこそ魔術の実験のごとくトライアンドエラーでやるしかない
Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし
0305名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:24:29.88ID:zN1glaQU
彼らの言うアニメ調と我々の求めているアニメ調が違う可能性はある
ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは
0306名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:25:29.13ID:7JXzYhek
SDのDicordでベータ版として、1.5でBOT生成できるようになった。 https://discord.gg/stablediffusion
#gbot-** チャンネルで /dream すれば使える

https://i.imgur.com/j6qyNHi.png
プロンプトは>>300と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。

体がおかしくなる場合があるのが直っているのかが気になる。

後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。
0307名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:40:41.37ID:TWdEygjj
>>305
このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない

それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない
0311名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 11:36:23.28ID:ZEEZAdV1
img2imgのsteps数て例えば20と70で大きく完成度が変わるとかありますか?
ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが
細部の描き込みがアップするとかなら上げまくるのですが
0312名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 11:44:59.08ID:LDGpq/xh
ベータ版がもう使えないのにいつまでも設定にベータが残ってて 新しく画像生成しようとすると「ベータ版がもう終わってるから無効!」って言われて作れん・・・セッティングで見てみても消せないし なんじゃこりゃ
0313名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:04:39.24ID:7JXzYhek
>>311
これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard

このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925

https://i.imgur.com/3bnugiT.gif

デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも
0314名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:08:04.67ID:YwNJW/mv
img2imgにイラストレーターが描いた複雑な背景絵を読ませてstrengthを強めにすると
元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね
人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど
世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな
0317名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:15:50.23ID:ZEEZAdV1
>>313
精細化していくんですか!
サンプラーが選択出来ないColab構築でステップで細部が変わるとも知らず
ずっと20でやっていたのでもったいない時間を過ごしてました…
0318名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:22.65ID:HU9icYfL
基本は低いステップ数でたくさん試行して、良さげなの来たらシード固定して別のステップも試す感じでやってる
0319名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:35.19ID:ZEEZAdV1
>>316
この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます!
0320名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:53.19ID:2CePEBWP
>>284
https://yukishigure.booth.pm/items/4118603
省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。
0321名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:25:17.12ID:ZEEZAdV1
サンプラー選択もシード表示や入力も出来ない環境は止めた方がいいっぽいですね…
めっちゃ不便な気がしてきた…
0323名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:32:50.00ID:7JXzYhek
>>310
質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。

(我が家のゲーミング core i7) 0.31 it/s

(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s
0325名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:38:24.59ID:YRaUvVtm
>>322
ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな
0328名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:46:18.18ID:0Y62Qr9h
>>269
ありがとう〜!!
cmdで直接の叩いてたけど帰ったらそんな感じでやってみる。
0329名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:47:53.96ID:7JXzYhek
>>327
今でも >>11の多分通りできるはず
けど、VRAMが多く必要で環境的にできる人が少ない&GUIもなく使い勝手悪い感じ。マージ面倒とかプレースホルダーが記号だとか。

hlkyさんが試したいけど3060しか持ってないから動作確認できないって言ってるw
0330名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:58:05.95ID:TWdEygjj
Textual-Inversionはメチャクチャに強力なのにTrainできる環境が限られてるからあまり触れられないな
コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか
0333名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 13:13:45.14ID:TWdEygjj
どうしてもローカルで試したい人か
VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない
0334名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 13:23:30.38ID:JOlEfRpH
>>331
これだとColabのノートブックも付いてるから
今一番お手軽にいけるTextual-Inversion環境だな
一応無料で使えるT4でもVRAMギリで足りそう
0335名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:05:24.06ID:7cXyioL3
>>18
この手順が一番簡単&便利だわ。
まとめてくれてありがとう。
0336名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:05:39.14ID:qanyxD9p
数枚のイメージでちゃちゃっと学習して参考にしますよって感じのを
一気にするから20GBなんかな
そのうち便利になって少RAMでいけそうだね
0338名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:12:20.36ID:jSDS99QG
>>18の手順のWebGUIが機能豊富だけど画像複数出したタイミングでコマンドプロンプトが固まってしまう(エラーも何も出ない、optimized-turbo設定は有り)
同じような事象出てるかたいらっしゃいます?

OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion
0339名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:14:37.62ID:jSDS99QG
>>338
固まるのは繰り返しの1回目が100%になったタイミングです
0340名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:15:49.90ID:dBoz9MHm
真面目に聞きたいんだけど
ぺこらとか吉岡里穂のエッチな奴作れますか?
作れるなら30万のPC買って頑張ろうと思う
0343名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:22:07.37ID:FeqUuVXi
今のところ顔は何とかなっても体がぐにゃぐにゃなんで
バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい
0345名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:24:25.49ID:LDGpq/xh
midjourney やっぱベータ版が消えねんだがどうするべこれ・・・分からん
0349名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:47:29.41ID:JOlEfRpH
nightlyどころじゃなくmainからそのまま引っ張ってきてるだけだしなぁ
時間単位で新機能やバグが盛られていくからそこはどうしようもない
0350名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:55:58.96ID:fO/vpwbQ
4ちゃんとかここと比べてツイッターの日本人連中がプロンプト秘匿すんの陰湿だなぁと思ってたけど特定絵師の名前とか入ってたらそら我が身可愛さに秘匿するか
0352名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:58:35.83ID:dBoz9MHm
>>344
な、なんかまだ早そうやな・・・
後一年待つわ
0354名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:02:22.90ID:zUWDSbVs
サイズの大きさと必要VRamの量の関係明らかにおかしいよねバグってんの?
それとも指数関数的に伸びてんのか
0356名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:11:22.54ID:YwNJW/mv
VRAMとメインメモリ間の転送速度はVRAMアクセスに比べたら地獄のように遅いから
仮想メモリって訳にはいかないだろうなぁ
0360名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:28:50.77ID:v+o9JuZK
>>350
匿名と非匿名の違いだと思う
ふたばは4chanと変わらん
0362名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:51:53.74ID:YwNJW/mv
pythonのエラーで出たエラーメッセージをコピペミスで知らない間に貼り付けたら
めっちゃそれらしい絵が出てワロタ
多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな
0363名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:56:23.30ID:7JXzYhek
>>354
VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね

●解像度、オプション別メモリ使用量
https://i.imgur.com/oua3N5o.png

●解像度、オプション別速度
https://i.imgur.com/foHVTGQ.png

やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない

余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw

今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo


測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5

2080Ti
0364名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:58:09.66ID:jIyX+Yoe
プロンプト魔術はまだまだ未開
うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる
アーマードコアにそんなに人間の顔出てないだろと
メカメカしくなるからかわいい絵を出したいときに使えんし
0365名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:01:14.82ID:7cXyioL3
--optimized-turbo付けると画像が変わってしまうのは普通?
0366名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:03:15.36ID:ZhQ0I+2T
やっぱ制限入るのかw既視感のある流れだな
グラボ買うか迷うな今は時期が良いとか聞くけど
0368名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:05:38.42ID:niavZolB
一番安くAI向けのPC組むなら
40xxが出た後に、型落ち処分の3090を買うことだと気が付いた
ゲーミング性能では4070並みらしいのが

>>363
情報ありがとう
0369名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:07:05.62ID:jIyX+Yoe
Proが使用量制になるみたいだな
今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど
これからは使用時間がカッチリ決まっててそれ以上は追加料金

無料は元々完全無保証なんでこれからどんどんキツくなるだろう
0371名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:10:27.80ID:7JXzYhek
>>365
今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5


●オプションなし webui.cmd
https://i.imgur.com/qOxRWQT.png
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%

●python scripts\webui.py --optimized-turbo
https://i.imgur.com/fxpSKJU.png
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988%
0372名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:11:59.42ID:7cXyioL3
>>371
検証してくれてありがとう。
もう一回試してみるね
0373名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:12:37.89ID:7JXzYhek
>>371
よく見ると、肩のところについてる謎の水色の水滴ぽいものの濃さが違いますね。
大きな違いではないけど、絵によっては目立つ違いになり得るのかも
0374名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:19:06.68ID:jIyX+Yoe
optimizedは所々の演算精度を若干落としてるんでバイナリ一致は無い
けれども本当に若干なので出る結果に大きな影響も無い

それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい

後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい
こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる
0375名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:20:34.06ID:niavZolB
>>371
オプションありの方が
細部の描きこみのコントラストが強い、もしくはstepが1,2回多いような絵を吐きますね
(水滴、涙袋、ロゴに違いが出てる)
0378名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:39:03.98ID:7JXzYhek
>>374
ありがとうございます。

python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu

での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。

速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。

https://i.imgur.com/YWiQ5NS.png
https://i.imgur.com/Yrfkp4w.png
0380名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:45:23.35ID:5drfoS0p
Coladはなんかわかりにくいけどこのコンピューティングユニットってやつが来月から導入されるってことらしい

リソースがどれくらいかわからんからまだ待ちでいいかな
0381名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:51:53.04ID:Cm13UlUY
アーマードコア入れたら顔が整うって書いてあるからまたまた~と思って入れたら
本当に顔が整う率上がって笑う
でもアーマーって認識するのかたまに指示してないのに鎧を着だす
0382名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:52:48.40ID:V0edTUl/
>>310
ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ
0383名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:53:35.08ID:7JXzYhek
>>377
流石に流れが早すぎて試す元気ないですけどw

・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
 これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?

良さげな機能多いですね。hlkyか公式にマージされて欲しい
0385名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:11:07.65ID:udNZlD3m
colabは新しく制限が増えるんじゃなくて制限されても追加で買えるようにするって感じじゃないの?
使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし
よくある質問に書いてあることがフワっとしてていまいちわかんないけど
0388名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:36:12.17ID:jSDS99QG
>>351
ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます
0391名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:57:07.30ID:Wk6j/3SY
>>340
二次コンテンツならコイカツで網羅できるしVRで現実にできる
一緒に作ろう!
0392名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:06:52.96ID:7JXzYhek
>>390
> hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw

試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
https://i.imgur.com/jGgRIoI.jpg

これは検証便利!

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5
0395名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:20:25.39ID:HbV0Uggc
urlを貼れないのでAUTOMATIC1111版は4chanでヴォルデモート版と呼ばれている
なぜ貼れないのかは作者の別リポジトリを見ればわかる
0397名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:21:42.46ID:UOiQedJL
>>374
ああ、あなたが神か
どっちもチェック入れたり使うまでは関係ないだろって思ってたわ
少しでも大きいのってoom出しながらギリギリ攻めてるので
0398名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:23:22.99ID:rILdr+fd
Mjのtestは整いすぎて詰め込むと色々反映されないな
0399名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:38:39.36ID:UOiQedJL
知識神と検証神のタッグで捗りまくりだ・・

cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど

あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui
この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
0400名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:44:19.22ID:HU9icYfL
weightについてはhlky版でもMJ風のが使えるらしいんだけど、これで使えてることになってるんだろうか

long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/dsXPJ8K.jpg

long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/Gdy4VRv.jpg

気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど
0401名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:52:23.00ID:YwNJW/mv
中国のERNIE-ViLG、アニメ絵に格段に強いな
違和感ない初音ミクのイラストが余裕で生成されてる
0402名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:58:13.93ID:YqqnkzgM
>>399
> 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?

Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする
アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど

AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽)

●AUTOMATIC1111のインストールメモ
https://github.com/AUTOMATIC1111/stable-diffusion-webui

・minicondaで任意のディレクトリを作って以下を実行
python -m venv auto1111   ※auto1111の名前はなんでもいい
auto1111\scripts\activate

・後は、Instructions:を動かす

以下の2つは別途ダウンロードして配置が必要
models\ldm\stable-diffusion-v1\model.ckpt
table-diffusion-webui\GFPGANv1.3.pth

●起動時
minicondaで、
auto1111\scripts\activate
python stable-diffusion-webui/webui.py
0403名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:58:22.34ID:+U009j/8
>>400
hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる

>>399
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い

ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな
0405名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:04:14.21ID:V0edTUl/
hlkyでマスクペインティング実装あついな
Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change
0406名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:05:14.46ID:1v6mZLS0
この手のサービス海外に持ってかれるとかツイッターじゃ喚いてるけど実際どうなん?
オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが
0408名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:17:13.15ID:HU9icYfL
>>403
> たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる

その通りだった
プロンプト1語の時はウェイト部分パースせずに渡してた
0414名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:59:12.25ID:V0edTUl/
k_euler_aとか cfgの機能の説明ってどこで読める?
0417名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:19:03.24ID:V0edTUl/
>>416
見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど
0419名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:32:12.98ID:kyfXRT5N
>>417
正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、

Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか

という数字なので大きい=プロンプト通りになりやすいということだと思います。

portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。

https://i.imgur.com/7gFaxEZ.jpg

普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。
0421名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:34:36.34ID:kyfXRT5N
>>418
hlkyも自動保存しますよ。

GRiskは基本機能もまだまだ未完成なので使う気はしませんが、
インストールは簡単ですし、GRiskの機能でいいならいいかもしれませんね
0422名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:37:04.74ID:kyfXRT5N
>>420
手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw

とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね
0423名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:40:57.15ID:niavZolB
手は、今のマスク機能がもっといい感じに動くようになったら
手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど
現状は手書きで治すしかないな

そういう意味でも今はちゃんと使うにはある程度の画力が必要
0424名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:41:51.56ID:UOiQedJL
webuiの各種パラメーター情報って保存できないのかな?
ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね
0426名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:49:46.15ID:V0edTUl/
>>419
なるほど…マトリックスでみるとたしかにそうですね
ありがたい
0428名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:58:35.73ID:v+o9JuZK
手は手だけマスクしてStrength下げながら
ちょっと修正→img2img→ちょっと修正...
を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい
0429名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:59:23.92ID:E8xhK8gF
わしプログラミングとかよくわからんから適当にローカルで組んで一から動いて1枚生成されるのを確認して、それを30個分動かすバッチファイル作ってパワー型な生成作業をやってるんだけどみんなスマートやなすごいわ。
0430名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:03:49.25ID:wqoaJrTD
EmadさんDISCORD情報 2022/8/31

・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。
100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか?
 でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?)
 我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる
  ※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味?

・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。
 → パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。

めっちゃ威勢がいいな
0432名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:07:25.35ID:kBmvzRjm
>>422
GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい
0433名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:09:44.24ID:0LAKFU7C
>>429
バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui

AUTOMATIC1111インストールして >>402、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code
0434名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:10:07.84ID:kBmvzRjm
>>430
int8使えるなら4000シリーズ発売まで待つのが良さそう
0436名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:14:23.18ID:ithyLEdb
>>430
15まてばグラボ新調しなくてよくなるんかな
0437名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:20:40.72ID:UOiQedJL
また質問、一応英語で検索したけどわからなかった

img2imgのMaskのヒントに
webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど
マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか?
0438名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:21:28.52ID:kyfXRT5N
1.5は8/29のツイートで6日後=9/4予定なんだよね
予定通りリリースされるのかな

フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど

>>432
へー。ならそこまで時間かからずに実現しそうな気がするね
0444名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:03:09.92ID:UOiQedJL
mask壊れてるしRegenerate選択消えたよね?・・って念のため最新にしたら治ってた
つかAspect Ratio指定が増えてた
0445名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:03:42.39ID:YwNJW/mv
ERNIE-ViLG、裸どころか水着すら規制でアウトかよ!
流石中国だな…やっぱSD以外はどこも規制してくるよな
0446名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:05:47.06ID:v+o9JuZK
https://ommer-lab.com/research/latent-diffusion-models/
最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな
0447名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:07:30.36ID:YwNJW/mv
しかも規制解除とか不可能な作りっぽいな、やっぱ最終的にこうなるのかって感じ
性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも
0449名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:10:24.59ID:ithyLEdb
colaboはdeepfake禁止してるのでcolabo使ってる人はじつはやばいかもしれない
0452名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:14:27.39ID:ithyLEdb
>>450
banですバンデン
0453名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:15:58.75ID:niavZolB
ERNIE-ViLGローカル行けるんか

とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな
GPUメモリがつれえ
0455名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:21:44.68ID:0+/wzyQN
ローカルも終了して防がれるのは時間の問題って感じだな
大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする
0457名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:29:49.51ID:t67CBVSY
初心者ですまん
人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい
0460名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:35:44.01ID:HU9icYfL
>>437
たぶん、
生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけだから
それだけのことならフォトショで手元で合成した方が結果良いよねって事だと思う

>>457
複数形にしてるとちゃんと人数に影響するね
0464名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:39:42.48ID:niavZolB
>>460
何のことだろうって思ったけどそれだな
手は自力で手直しした方が早いよ、が今のところの公式見解

>>462
illustration style by pixiv fanboxに類する呪文はまあまあ使えると思う
0465名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:41:41.32ID:kDPmcmMs
>>457
例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない
0467名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:55:28.97ID:pjP7qJCI
しかしここまで次々出てくると、絵を描くっていうのは機械にとっては簡単な事なんだろうなと認めざるを得んな
その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは
何かしら宇宙の意図みたいなもんを感じる
0468名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:58:17.89ID:YwNJW/mv
無視される確率高いけど「風呂」は一応ありなんだ、水着はアウトなのに中国の検閲基準謎過ぎんよ
色々研究しないと分からんな
0469名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:00:04.40ID:zUWDSbVs
いうてこのまま高度化していったらフェイクポルノとかフェイクニュースの画像作成が容易になって規制まっしぐらな気しかしないけどな
Googleが作ったpartiの記事見てて思った
0471名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:03:10.26ID:UOiQedJL
>>460
あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead.
0472名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:10:27.59ID:kyfXRT5N
>>437,471
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",

とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど
0473名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:11:51.14ID:ithyLEdb
>>460
インペインティングってそんな単純なやつだったんか
じゃあ顔補正もおなじかんじなんだろか
0475名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:14:53.03ID:kyfXRT5N
>>473
> 生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけ

そんなわけはない
そもそも「生成後画像」なんて存在しないものと合成なんて日本語としておかしい
0476名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:25:43.98ID:YwNJW/mv
プロンプト秘匿するぞって言ってた連中がたった数日でERNIE凄すぎて
もう隠す意味ない公開しますって言い出してるの受けるわ
でもこっちはオープンソースと言いながらブラックボックス化されてるから
技術系のオタクの間では流行らんだろうな
0478名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:31:11.14ID:v+o9JuZK
ERNIEの絵なんかそこまで上手くないんだよ
0479名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:33:40.29ID:U489tiLr
>>430
これ学習モデル小さくなると推論してるときのメモリというかVRAMも減るの?
そこは変わらない?
0480名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:33:51.04ID:YwNJW/mv
ERNIEの検閲マジうぜぇな、ワードと生成画像両方に検閲あるみたいだ
やっぱSDがアニメに対応してくれるの待つしかないか
0482名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:41:40.72ID:GLYpgQfF
>>479
分からなくて全くの予想だけど

少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな

それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない
0483名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:42:30.12ID:V0edTUl/
>>363
24gbあれば10241024いけそう
0484名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:45:02.23ID:U489tiLr
>>482
ども、どうなるか1.5出るの楽しみに待つか
0485名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:49:52.56ID:WWZkwmuf
今のimg2imgに入っているマスク機能
→指定した部分を処理後に丸ごと戻して無かったことにする力業

インペインティング
→指定した部分を変えないように処理の中身から変えてしまう
 処理中も指定した部分は多少劣化する以外変わらない
0487名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:57:06.09ID:fdFcVPE4
Discordのウエイトが4GBから100MBになる予定って聞いた人が、
自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある
けど100MBはすごい。どうするんだろう、と言ってた。

何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw
0488名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:00:31.84ID:6M30CA6o
例えば
・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる)
・背景にあるロゴを塗って、ロゴを消す

この2つ混同してた。違う技術なのか
0489名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:13:22.82ID:GThaU77M
ソース見たけど大体一緒じゃない?
本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし
webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで
0491名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:22:57.95ID:6M30CA6o
>>490
MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw

SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど
0492名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:26:44.20ID:TF0w6Xlc
テクスチャ目的の素材が欲しくて最近SD触ってるんだが
いまいち良い感じの物が出ないな
ゆがんでたり細かいところがおかしかったりする
MJと比べたら写真っぽいものが出てくれるだけでありがたいが
0496名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:49:12.37ID:+Su13zNo
シャッターストック
pixaby
Adobeストック
これらのフォトライブラリーもいらなくなってくるんじゃ
0497名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:00:22.46ID:c88dAiP2
中国版触ってみたけど、銀髪ってやっても銀髪にならねーじゃん
でも、絵柄は好み
SDも早くアニメに対応してくれー
0500名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:19:50.23ID:XHkCZM5O
collection of poses(ポーズ集)でバストショットや顔ドアップをほぼ確定的に無くすことができた
(とりんさまモデルで生成)
https://i.imgur.com/iGLSegV.png
https://i.imgur.com/FJsKdqB.png
https://i.imgur.com/goelyjt.png

あとanatomical chartとArmored Coreの悪魔合体とかいう凶悪実験をやらかした時のチェリーピック(オリジナル1.4)
https://i.imgur.com/Sw8Z07C.png
https://i.imgur.com/5tEJTNg.png
0502名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:35:15.50ID:hTQNZtKo
今のところ著作権で問題になるのはプロンプトだけかな?

特定の著作物を指定して画像を作成した場合は問題になりそうだけど
プロンプトがわからない場合はセーフって感じ?

画像からプロンプトがわかるようになったらそれを証拠に
訴えられるケースは増えるような気はする。
0504名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 02:06:23.45ID:QkBe+6Dp
そのうち最適化が進めば4GBや6GBでも解像度2048や4096くらいの生成が可能なんだろか
ファイルサイズは小さくなってるみたいだけど
最適化進んでグラボ買わずに済むなら良いんだけど
0507名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 02:41:45.12ID:Dh/0wfLL
>>506
ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。

買う人いるのかな
0508名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:11:17.95ID:FKOT9Ej7
>>506
ループしねーじゃんと思ったらサブスク限定だったわ
10ドル程度でテクスチャに絞って2k~4k出力可能なら十分有用なんじゃないか
海外はほんまオープンソースからの開発テンポ良くてええな
0511名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:40:08.44ID:GThaU77M
>>509
フォトショプラグインのと同じ感じだね
やっぱ連続性や効率考えるとこういう方法になるんかぁ
切れた頭や足追加したり拡大しても低RAMでリファインできるのは大きいか
0512名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:45:29.40ID:FKOT9Ej7
>>510
SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの https://i.imgur.com/UL5TV6R.png
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな
0513名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:46:47.52ID:QIWR5R19
上手くアルゴリズム組まないと同じ何かが反復してスタンプみたいにあちこちにポンポンできそう
中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ
0514名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:03:47.32ID:I13At7XI
限界を感じてきた
どんなに頑張っても同じようなのばっかり出てくるのは
しょせん学習サンプルを超えられないということなのではないか
真の意味でのクリエティビティや創造はここにない気がする
0515名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:32:17.37ID:nqkYlpXR
複数画像出力して一番いい画像選択+テキストで指示を追加を繰り返す みたいな感じにするとかやりたいな…
0516名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:36:22.00ID:ByM9Ck8F
なんかAIで3Dモデルを起こしてくれるサービスが実は裏で人力を使ってたってニュースなかったっけ
0518名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:21:44.90ID:jmQQ3ISX
DALLE2が進化したってメール来た
0519名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:25:54.45ID:FKOT9Ej7
>>509
これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
https://i.imgur.com/93Kck9t.mp4
0520名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:45:16.16ID:RgmRIZo5
まだ出て一週間だぞw
モデルもデータもまだまだ進化する
我々が死んだ後も進化は止まらないだろう
0521名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:28:58.34ID:8ol9Mp+w
以下私の理解・解釈が入っているので気になる方は原文をお読みください。

●k_eular_aが優れた結果を出す不思議さ

https://twitter.com/iScienceLuvr/status/1564847717066559488
https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png

○前置き
 ・SDは、ディフュージョンモデルの一種。
  ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。
 ・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す
  これにより大幅に計算量を減らすことができる。

○サンプラー
 ・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。
 ・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。
  k_がつくものはキャサリンのk-diffusionリポジトリから来ている。
 ・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。
  なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。
 ・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。

---
k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな?
https://twitter.com/5chan_nel (5ch newer account)
0522名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:33:31.62ID:vKGYRvy5
本当に凄い事を体感できるのはまだ一部の人だけ
大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる
0524名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:53:14.12ID:KXyxb8am
写真でもイラストでも、顔のアップからバストショットくらいまでは造形良いのに、そこから少し離れると途端に崩れ出すのはなぜなのか。
0525名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 07:45:07.26ID:IcIXNUdC
学習データが顔のアップとバストショットばかりだから
0526名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 07:47:15.63ID:heJVIBPh
>>524
顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ

人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う
0529名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 09:16:21.89ID:BtcIwkr3
というより、顔と体の両方を最適化するのがしんどいんだと。
SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。
0530名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 09:39:37.18ID:e4ZLA3Xy
例えるとAIの描画は画像の局所性を利用して主に担当エリア周辺の狭い部分だけを
それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら)
そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする
座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある
0531名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 10:12:36.01ID:xftaGdXs
D2のがSDよりプロンプトに忠実って話
> Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し

MJはさらに低い次元にしてる?
全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて
初心者を喜ばせてハマらせるみたいな戦略に見える
逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い

まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど
0535名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 10:51:49.82ID:tjCsJUxt
ほんとだ回線止めたらエラーになった・・・
ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443)
0536名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 11:02:14.04ID:okjTselo
>>517
創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな
0539名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:02:09.78ID:FKOT9Ej7
>>526
そういや
横たわってるのはimage2imageですら再現が難しい
90度回転で直立させると上手いこと行きやすい
を誰か言ってたわ
0541名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:15:57.37ID:IpZsMc9w
自分が描いた絵の一部だけimg2imgでベクシンスキーに描かせるの面白すぎる
0544名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:22:03.21ID:vKGYRvy5
解説読んで手入れしたらパッと見で普通にありそうな絵になったんだけど
今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも
0545名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:24:25.56ID:jmQQ3ISX
>>543
凄い
試してみるか
0547名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:43:31.79ID:GThaU77M
とくに指定できるポーズを描かせたいなら動作と具体的なポーズ名を使うといい感じに全身が出やすい
nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない
nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch
porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない
clip front で安定した画像群が出るワードなら期待できる
0551名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:00:00.97ID:e4ZLA3Xy
ERNIEはたった一晩の間に呪文の研究がかなり進んで上位の絵描きが描いた絵と
同レベルの絵が出力されるようになってるな
0552名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:00:51.19ID:mRRZbuPO
>>550
Cityscape in Girl = 「少女のいる街の風景」は思いつかないなw
面白い

他の使える単語とかもまとまってて役に立ついいまとめノートですね。ありがとう
0556名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:26:32.07ID:mRRZbuPO
>>553
なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)

ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。

2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ
0557名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:31:23.20ID:+Cs2tqBk
>>553
おお!うちも3060なんで週末に試してみよう。
0558名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:41:22.29ID:mRRZbuPO
>>555
>>519さんが試してますね。かなりすごい。

論文とかソースコードとか公開されてるなら、勢いのあるSDは比較的すぐ実装しそうだけどどうなんだろう
0560名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:59:41.10ID:jmQQ3ISX
>>559
俺もそれ出たわ
もう一度やり直そうと思ったら普通にインストールされてた
まあAMDだったから俺は動かなかったけど‥
0561名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:00:38.80ID:0fj+eXEr
>>559
Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く
0563名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:08:15.35ID:jmQQ3ISX
redditにAMD不可って書いてあった
残念だ
0566名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:19:54.09ID:WpAMJAkO
>>559 は分かりませんが、>>18とか普通にみんなが使ってるものはRyzenで何の問題もないですね
グラボはGeforceでVRAMが6GB以上の必要はあります。 (Radeonはまだ無理)
0568名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:25:57.15ID:jmQQ3ISX
AMDでもワンクリックで使えるようになるのは時間の問題なはず
それまで我慢する
0569名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:31:09.84ID:wMrk29Gv
>>567
調べてみたらMacだとMetal経由でRadeon GPU上で動かせるんですね。知らなかった。
Windowsの話と思っていたので失礼しました。
0573名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:52:13.41ID:jgmbGcOX
VRAM usage at different resolutions is something that needs documenting, larger resolutions require more vram, and from my previous tests it's roughly linear, for example, an image that was 512x512 used around 6gb, and an image that was 512x1024 (double the size), used just under 12gb.
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80
24gbで1024x1024いけそうだけどやってる人おらんかな
0575名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 15:12:29.59ID:0X/vhdIY
GIGAZINEだけでもかなり記事でてんなー
コッチ系好きなライターおるんやろな

画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/

画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/

スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw
0577名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:05:35.52ID:tjCsJUxt
>>576
text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ
0578名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:17:06.59ID:uqhBsT3Q
>>576
>>577さんの通りGUI版の方が速度が単純に速いし、使いやすい

スクリプト操作は、 >>377,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは >>419みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]

https://i.imgur.com/cDhioYS.jpg
0579名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:22:53.17ID:uqhBsT3Q
ついでに、>>578の画像を見ると
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
 seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
 man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
 ※seed=9も同じ

やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw
0581名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:26:37.24ID:uqhBsT3Q
補足
書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。
公式を見ればやり方は多分分かるはず

pというオブジェクトに設定可能な属性は以下の通りです。
'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width'
0583名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 19:11:19.92ID:1wu7LGKi
>>543
Macは?
0584名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 19:59:01.98ID:kbyWGg61
すまん、公式参考にcmd直接叩いて環境構築してtext2imageで吐き出せるようになったんだがimg2imgを利用するためにはgitとやらを用いて環境を再構築しないとできないって認識であってる?

それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。

with autocast("cuda"):
images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0]
0586名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:12:31.93ID:8U9zbhid
エッシャー「ヨッシャー」

fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら
0587名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:13:30.36ID:jgmbGcOX
>>584
使ってるパイプラインが違うので無理
素直にwebuiでやればいい
0589名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:26:08.51ID:4UCSf1A2
>>584
image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ
0591名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:32:32.67ID:kbyWGg61
>>587
このままじゃやっぱり無理か〜。ありがとう。

>>589
よ、よければもう少し詳しく。
0596名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:07:51.50ID:kbyWGg61
>>592
丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。
0598名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:31:07.85ID:0fj+eXEr
初音ミクさん書きたい人向け

https://twitter.com/takei/status/1564990874974445569
「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
https://pbs.twimg.com/media/Fbf25agUsAI1YQv.jpg

ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
https://twitter.com/5chan_nel (5ch newer account)
0599名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:35:07.54ID:HChGsMsJ
Lexica改悪してね?…
画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか…
0600名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:40:14.16ID:3gxS4KDl
>>553
このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな

関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る?
0601名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:51:27.22ID:jgmbGcOX
ERNIEははやらんぞ
0603名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:56:15.01ID:jmQQ3ISX
ここの皆さん凄いね
よくもまあこんな難しい事を試行錯誤出来るものだ
しばらく待ってればワンクリックで動かせるツールが出そうなものなのに
何をそんなに生き急ぎ出力したいのか‥
0606名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:06:29.40ID:VIOIklKY
>>603
GANが騒がれた頃から待ちに待ってもう何年?って感じですし…
使えそうなモノが出てくればいち早く触りたくなるのが人情よ
0608名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:29:36.68ID:zkxvIGo9
>>607
一応学習が効いてはいる感じですね

ちなみに、256*256で学習する場合メモリはいくつ使って
何枚を何時間ぐらいで処理できる感じなんでしょうか?
0611名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:33:13.13ID:jgmbGcOX
>>607
A GPU with at least 20GB of memory
ってかいてあるけどうごくんだ
3090買うべきかなー
0612名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:45:36.03ID:tjCsJUxt
>>608
永遠にトレーニングするので処理完了という概念はなくて、いい具合になったら止めるんだけど、
>>607 で3時間経過くらいだったと思う
設定はあの後 num_workers: 3 に増やしたけど、これが 3060(12GB)の限界っぽい
0614名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:00:07.58ID:zkxvIGo9
>>612
なるほど自分で打ち切るんですね。ありがとうございます

あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか
0617名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:20:14.57ID:0fj+eXEr
>>616
全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。
0618名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:23:12.93ID:tjCsJUxt
>>614
タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ
0621名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:37:45.03ID:xftaGdXs
ESRGan方式じゃなく、ちゃんと情報追加しつつ1024サイズオーバーにupscaleするの来ないかなぁ・・
0623名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 00:11:11.94ID:Dpbs1qas
>>607
おもしれー
0632名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 06:28:08.17ID:BCtn7z/K
新海誠と竹内崇って絵柄全然違くね?
なんで混ぜるの??
0635名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 06:48:56.78ID:lgOdICSU
ファイーンを理解してしまった、これは確かにいい感じになる
どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな

promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした
個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは
0636名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:19:03.50ID:S+FMJdiY
いっさい人が登場しなくなる魔法の言葉教えてください!!!
良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます!
プロンプトの先頭に「Unmanned」って付けても全然効力なかった…
今後こういう「無人」とかを選択出来るようになればいいな…
0637名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:28:17.35ID:RstZ5bp4
MJなら--no human,man,woman,peopleとかで徹底的に潰すとか
SDはわからない、除去の方法あるんだろうか
0638名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:32:27.73ID:nrfoHCdz
無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/

>>624
重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー
0640名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:33:19.32ID:PaosEEpo
風景写真に人がいるかどうかってキャプションには載ってないだろうしなぁ
フォトショとかで消してimg2imgが現実的な気もする
0643名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:37:04.80ID:RstZ5bp4
>>638
重複というか、
技術系の話題だけじゃなく、CG板でAI生成で雑談したいって要望であえて後から建てられた
元々CGの未来スレってのがあったんだけど、スレタイ悪すぎて人が集まらなかったので
0644名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:38:02.29ID:fiS15HNo
ファイーンはどれぐらいの枚数でどれぐらい回したらいいんじゃろね
とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら
0645名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:39:12.15ID:S+FMJdiY
>>637>>639-640
SDです…
プロンプトに従わせる数値をMAXにして先頭に「no human」や「Ghost Town」を持ってきても現れちゃうので、
自分の中で思ってた「先頭に持ってくる言葉が一番強い!」論が崩れました…
0646名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:44:12.76ID:xMVcYvjc
言葉に関連付けられてる参照イメージに人がいるってことだろうから
SDだとマイナスとか「いない」、って指定はできないのかも
liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな
0648名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:10:55.09ID:S+FMJdiY
>>646
帰って再構築してやってみます!
あと単語一つ一つ消してどれが出現させてるのかチェックしてみます!
SDにもマイナス要素入ること願ってます!
0650名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:18:39.63ID:GPcBCrK6
ERNIE-ViLG試してみたけど
フォーカスが体の中心部分になるのが気になる
頭全体が映るように調節ってできるのかな
0651名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:22:42.61ID:NkZJNwdk
hlky版だと一応、マイナスウエイト対応していて、

city street:1.0, human:-1.0

みたいなことが可能です。

ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも?

注1
NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。
city street:0.5, human:0.5

注2
city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや
【city street, human:】が -1.0で処理されます
0652名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:50:22.09ID:6W9bI3rF
日本語対応したernie-vilgでナイスバディ出そうとしてるけど規制に引っかかって中々むずかしい…
乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい
むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな?
0654名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:57:10.17ID:nXijxibM
>>636
今のSDでネガティブな指定は難しいので
キャラが小さいなら inpaint 使えるフォークで inpaint + img2img で頑張って消すのが一番無難

>>650
>【city street, human:】が -1.0で処理されます
reddit でその動作が仕様みたいな話になってたけど俺も違うと思う
0655名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:04:58.30ID:V1m1VTx+
>>651
注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある)
0656名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:12:12.18ID:NkZJNwdk
>>655
あ、例が足してゼロなのでちょっと特異例でしたねw
でも 1.2 と -1.0でNormalizeすると、 6.0と-5.0になり、計算上はそうなんですがそういう挙動を望んでいる人はいないので注意は必要です。
まあマイナス数値入れるのにNormalize付けたい人はいないと思いますがデフォルトがONなので。

>>653
輪郭だけにするなら、Lineartとか入れれば線画になりますがそうじゃないですね・・・
画像加工ソフトで輪郭追加したほうが良さそうな気がします。
0657名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:15:29.71ID:8CMrPdN4
厳密には違うけどこのサイトと同じようなデータを参照してるので、
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/

例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方
0658名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:41:16.54ID:aeo3Gzkm
>>657
これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ
0659名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:02:19.86ID:Dpbs1qas
>>645
()で括ると強調されるらしいけど試した?
何個もいけるらしい(((())))
0660名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:07:22.06ID:swwcNo40
アップスケールテスト
hlky 2022/9/2

オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a

ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B

https://i.imgur.com/IzZ3k7y.jpg

アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが
0661名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:08:24.39ID:4lEisimr
人がいないシーン(廃墟や夜景)の指定や風景画ばかり描く人の名前入れるとかはだめなのかな
0664名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:20:37.10ID:Snqm6sco
何かがsoonらしいけどなんだろ
0665名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:41:18.80ID:sLe2yvaM
そういえば前からGFPGANとRealESRGANのモデル読み込みしない方がVRAM節約できるよって話があったけど試してみた
1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ
この差はわりとでかい気がする
0666名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:01:41.39ID:W2wFSCKV
おっぱいの画像作るのが日課になってしまった
中国のやつローカル環境で早くやらせて欲しいな
0667名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:06:31.70ID:fiS15HNo
グラドルファイーンするとグラドル感が強すぎてそこから応用効かせにくいかもしれない
あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど
0669名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:16:42.18ID:VFjmKM72
いろいろエロいやつ生成して見てたら、服とか下着がズレておっぱいポロンしてるのが性癖だったことに気づいて、AIに新たな扉を開かされてしまった。偶然出た画像だったけど、どんなワード入れると上手くポロンするようになるだろうか。
0674名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:39:47.33ID:lgOdICSU
上の検索サイトのsafe mode外してnip slipped girlで検索
ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ
0675名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:57:28.02ID:KVXfAJFA
tight(タイト)とかskinny(スキニー)ってやると体の線出やすい。ワンピースのドレスとか水着とか。
0680名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:01:44.19ID:VP2sST9f
>>667
人間のファインって顔だけでいける?全身?
0682名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:05:32.39ID:n18luKxL
ブラがめくれてポロリしてるのが好きなワイも通りますよ。こういう半脱ぎみたいなのはどうやればいいのか。
0684名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:13:45.04ID:mlCSxz/I
>>680
入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない
0686名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:22:48.28ID:VP2sST9f
>>684
なるほど、一応全身推奨って感じか
0692名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:44:33.05ID:Snqm6sco
>>691
intel AMD macの俺はいつになったら動かせるのか
0693名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:46:03.01ID:jlYzDRk2
待ってたクセに導入する前から既にAI画像生成に飽きてる
画像生成できたから何?みたいな虚しさを感じてる
0694名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:55:14.16ID:KVXfAJFA
映画や小説やゲームにもなった「ストーカー」ってSFみたいな
現実の時空間に非現実の時空間が紛れ込んできて
既知の物を未知の物にしていくって世界観が好きなので
風景写真とかメインでやってる。出来上がるの楽しみ。
0695名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:58:37.33ID:YHkIMMyi
CG業界の人が使ってるGPUは97%がnVidia
https://cgworld.jp/special-feature/8741e57cbd65aa6af072dfcb88b8d78fdae69a34.png

Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない

ゲームならRadeonでも遜色ないと思うんだけどねえ
0696名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:19:41.60ID:Snqm6sco
>>695
知らなかった‥4割ぐらいは居るんかと思ったわ
こりゃ待ってても来ないな
0698名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:23:38.45ID:l2pQFU4Z
SDやMJは言語処理にCLIP(テキスト―画像の埋め込み)を使ってるけど、
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと

https://i.imgur.com/q7uW8wn.jpg
https://www.youtube.com/watch?v=N6lJvkoku9s

「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」

みたいな言語を人間レベルで理解した画像生成ができるらしい

マイクロビキニを着た~とかも多分正確にできるじゃないかと思う
0699名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:28:10.80ID:Fu/zVfJs
googleはMJやSDとは文字通り桁違いのリソース使って学習してるんだから
そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな
地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな
0701名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:44:26.18ID:CBd8NfsT
woman worriorって入れるとやたらと脱ぎたがる
俺は真面目な戦闘シーンが描きたかっただけなのに
0703名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:50:30.47ID:4lEisimr
胸に鎧を付けてるって指定してもなぜか脱ぎだす
のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ
0704名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:51:52.74ID:CBd8NfsT
脱がしたいときに、nudeって入れると作画が崩壊するから
間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw
0709名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 16:47:46.17ID:eWKwVz6j
colab相当ストレスがかかってるのか、超頻繁にロボットじゃないか聞いてくるし
昨日から突然T4割り当ててくるようになった(pro)
他のクラウドは料金怖いしやっぱローカル環境欲しいな...
0710名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:04:49.97ID:O9BW2y9P
>>703
とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては
0711名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:32:42.17ID:UJ6cE4zz
>>709
ローカルで快適に生成しようと思って調べたけどRTX3000シリーズがほぼ必須みたいだね
やっぱ現状ではまだまだ金持ち専用のおもちゃって感じだな
0712名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:49:45.91ID:VP2sST9f
>>698
破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな
0717名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:21:33.63ID:VP2sST9f
>>716
なんでmuscular face
0718名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:25:22.96ID:KVXfAJFA
>>717
体のラインハッキリクッキリさせたかったからかな?
エッチな写真は自己紹介の口語文を英語に翻訳すると良いっぽい。
0719名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:27:50.58ID:EKdUfSwH
長めの呪文うつとディレクトリが無いって言われたり出力先の画像ファイルが無いとか言われたりしてたけど
Windows側のパスの文字数制限らしいことに気づいた
なんか起こったら怖いが長いprompt入れたいからレジストリ弄った
0720名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:30:40.32ID:YAaH78dh
>>714
captureとcaptcha読み違えたわ
4chanの人間認識システムを自動で回避するツールか
まあクソどうでもいいんだけど
0723名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:39:49.85ID:VP2sST9f
>>721
シンプルな方が化け物はうまれにくい印象
0725名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:46:15.97ID:EKdUfSwH
スク水を学習してないらしいからすぐ上のやつみたいに別の表現でスク水を唱えないと難しいんじゃない
0727名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:46:56.63ID:xMVcYvjc
オッサンがスク水着てる画像の学習度が足りないんだろうな
グラビアなどはまあまあ学習してるみたいだが
0729名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:17:53.14ID:KVXfAJFA
>>724
80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
https://i.imgur.com/kc23EFx.jpg

プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.


私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。

シード
574805382
0730名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:21:34.71ID:jWK87NOF
hlkyのColab版webuiGUIって一度か数回プロンプトのウェイト異常等でバグ画像が出たら延々とバグ画像が生成されちゃうのかな
プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど
画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった
通常運転に見せかけてバグ製造路線に上書きされてる感じ
閉じて構築し直したら直った
hlkyって一番高評価っぽいけどこういうこともあるんだな
0732名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:41:03.13ID:jWK87NOF
>>731
ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも
0733名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:43:39.12ID:MMx8Qi3g
hlkyのは同じ環境を何度も使い回すことで生成時の待ち時間削減してるし
機能は全部実験機能でバギーだから
一度落としてやり直せば改善するのならただのバグだろうね
0734名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:44:41.95ID:fiS15HNo
TIファイーンについてんぱかさんが記事出してたけど3~5枚ぐらいの方がいいて内容でよくやからぬん
とりあえず特定絵師5枚ミクさん絵で追試してみるけど
0735名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:53:02.63ID:MMx8Qi3g
embeddingってのはあくまでもAIのモデル本体にコバンザメみたいに新しい概念をくっつけるもんであって
本体ほどの色々覚えるキャパシティが無い
その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話

特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い

投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという
0737名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:03:11.23ID:fiS15HNo
今時点の手元でーただと実写30枚/10epochとアニメ5枚/8epochで
後者が明らかに特徴抽出失敗してる
ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど
0738名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:08:58.46ID:VP2sST9f
>>737
他を捨象した画像集められるなら多いほうがいいんかね
0739名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:11:47.76ID:v4aIq0zr
734の記事を試してみたけどcolabの知識がなさすぎてembedding_pathの指定で詰まってしまった
自分の環境ってGoogleドライブ等のこと?
0740名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:15:44.69ID:fiS15HNo
>>738
いくつか条件変えてやってみないことには結論でないんで
colab先生の機嫌にもよるけど来週末ぐらいなにかレポート出したい
0741名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:28:38.02ID:MMx8Qi3g
後StableDiffusionの場合AutoEncoder(Diffusionを経た後に実際に出力画像にするところ)はファインチューンではいじられないはずなんで
アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない
0745名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 21:42:36.73ID:U3kYsLmv
hlkyのwebuiのimg2imgの右のadvancedにある
①Variation Amount (0から1)
②Variant Seed (blank to randomize)
って使い方わかる?

loopしたら勝手にseedを足していくのかと思って
①を1にして②にSeed入れて3つバッチやったけど
同じseedの画像が3つ出ただけだった
0750名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 22:37:54.88ID:wmiOd1X2
結局大元のモデルが一番大事なんだよな
週末埋め合わせるとかいってたのは1.5のことでいいのかな?
0751名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 22:46:23.98ID:iIoS9uWJ
>>742
いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。