Midjourney】AI画像生成技術交換3【StableDiffusion
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:36:26.27ID:ZNZ0831c
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

前スレ
Midjourney】AI画像生成技術交換2【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661146705/
0002名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:37:42.05ID:ZNZ0831c
■関連リンク
【Midjourney】 https://www.midjourney.com/
【StableDiffusion】https://stability.ai/
【DALL・E2】 https://openai.com/dall-e-2/
【craiyon】(旧DALL・E・mini) https://www.craiyon.com/

英語スキルはあるといいですが、別に今時なくても何とかなります
【Google翻訳】 https://translate.google.co.jp/
【DeepL翻訳】 https://www.deepl.com/translator
0003名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:38:33.20ID:ZNZ0831c
StableDiffusionの人の他社製品比較

https://twitter.com/EMostaque/status/1561349836980584455
・StableDiffusion、DALLE2、midjourneyは全て異なるものだ
・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった
 これにより画像生成のガイドが可能になった

●DALLE2
 ・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。
 ・来年にはコストが10分の1以下になりAPIも公開されると思われる
 ・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう
●MidJorney
 ・VCの資金提供を受けたベンチャー、ではなく研究所
 ・非常に独特な絵画のようなスタイルを持っている
 ・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能
 ・オープンソースとそうでない部分がある。
●StableDiffusion
 ・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる
 ・まもなくDreamStudioプロシューマーサービスを発表する
 ・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない
  これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた
 ・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている
  そのため、誰もがこのモデルを改良し、構築することができる
https://twitter.com/5chan_nel (5ch newer account)
0004名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:39:08.56ID:ZNZ0831c
【ツイッター】
https://twitter.com/hashtag/midjourney
https://twitter.com/hashtag/dalle2
https://twitter.com/hashtag/stablediffusion
こんなのができます

【Midjourneyお役立ち情報】
https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference
調べてみたら使いやすいPrompt wordはここに全部まとまってたわ
https://docs.google.com/spreadsheets/d/10i9Ip8tVSERAuMWbc6-H6BUFCoUGOQ91YzDvX--c4bk/edit#gid=0
各アーティストのまとめ
https://twitter.com/5chan_nel (5ch newer account)
0005名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 17:40:01.08ID:ZNZ0831c
テンプレはとりあえずそのままにしました
「これ入れて」がいろいろあると思うので>1へ提案しておいてください
0006名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:05:58.48ID:ayWOlSNk
StableDiffusion各種

●ローカル環境用
公式 https://github.com/CompVis/stable-diffusion
basujindal版 https://github.com/basujindal/stable-diffusion (省メモリ・WebUI有・フィルタ解除済み)
hlky版 https://github.com/hlky/stable-diffusion (一番人気・WebUI有・フィルタ解除済み)
GRisk版 https://grisk.itch.io/stable-diffusion-gui (GUI・DL→解凍→実行だけ)

●Google Colab用
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
https://colab.research.google.com/drive/1AfAmwLMd_Vx33O9IwY2TmO9wKZ8ABRRa
フィルタ解除版 https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17

●ウェブサービス
Demo https://huggingface.co/spaces/stabilityai/stable-diffusion
Demo https://huggingface.co/spaces/huggingface/diffuse-the-rest
DreamStudio http://beta.dreamstudio.ai/
0008名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:15:58.49ID:XSEhAwvZ
>>1
乙!

hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・
0009名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:31:54.02ID:zrVIZvjl
たて乙

現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、
最適な方法が流動的すぎて無理だよなぁ
0011名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:43:33.07ID:OshC99AO
まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?

とりあえずファインチューニング(textual inversion)メモ

追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する

・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision

・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
 利用時は例えば"In the style of * , <other text>"となる。
 これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
 https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。

・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
 https://sd-textual-inversion-models.tumblr.com/

・学習方法
 https://github.com/hlky/sd-enable-textual-inversion
 Stable Diffusionをいらすとやでファインチューニングする

まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
0013名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:45:29.98ID:Iew5QnKr
ぶっちゃけ飽きてこないか?
0016名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 18:51:29.03ID:XSEhAwvZ
NGワードはすぐわかっちゃうと荒らしが対応するから秘密らしく、条件はよくわからない
「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど
微妙に変えたり、2レスに分割するしかない
0018名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:03:55.25ID:ayWOlSNk
Stable Diffusion hlky版の構築手順

1 https://github.com/hlky/stable-diffusion/archive/refs/heads/main.zip をDLして展開する
  Git使える場合更新に追従しやすいcloneの方が良い
  git clone https://github.com/hlky/stable-diffusion.git
2 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
  モデル(sd-v1-4.ckpt)をDLして model.ckp にリネームして models/ldm/stable-diffusion-v1/ に置く
3 minicondaをインストールする
  https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe
4 webui.cmd を実行する
5 http://localhost:7860/ をブラウザで開く

●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth
をDLして src/gfpgan/experiments/pretrained_models/ に置く

2. RealESRGAN(高解像度化)の有効化
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.2.4/RealESRGAN_x4plus_anime_6B.pth
をDLして src/realesrgan/experiments/pretrained_models/ に置く

3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように追記する
python scripts/webui.py

python scripts/webui.py --optimized-turbo

上記の原本(英文)
https://github.com/hlky/stable-diffusion
他の解説(英文)
https://rentry.org/GUItard
0019名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:12:06.94ID:Iew5QnKr
Stable Diffusionの人、Crypto界隈をめっちゃ煽っててワロタ。
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw
https://twitter.com/5chan_nel (5ch newer account)
0021名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:14:11.89ID:OshC99AO
●StableDiffusionの情報ソース等
・Discord https://discord.gg/stablediffusion
・中の人のtwitter https://twitter.com/EMostaque
・海外情報reddit https://www.reddit.com/r/StableDiffusion/
https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので>>18を見たほうが良いが、その他TIPSは有用情報あり

・今後
 ・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
 ・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
 ・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account)
0022名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:18:48.10ID:OshC99AO
StableDiffusion TIPS
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
 サンプラの差は大きい。k_euler_aとk_heunでは2倍差
 k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun

●ハード
・ローカル動作性能 https://i.ibb.co/yd7SZ32/chartthin.png 出典:https://rentry.org/GUItard
・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう
0023名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:24:29.39ID:anj+Z8s0
MJはもう別スレがいい?ここじゃあまり語られないし
0024名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:24:36.38ID:XSEhAwvZ
>>22
>  サンプラの差は大きい。k_euler_aとk_heunでは2倍差
>  k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun

し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと
0025名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:28:27.11ID:Iew5QnKr
>>23
一緒でよくね
スレの流れが早いわけでもないから下手に分散させたら過疎るだけかと
0026名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:30:25.84ID:OshC99AO
>>24
「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti

k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image

l_lms 5.89 it/s 10.08s per image

k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image

進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね
0029名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:36:30.39ID:zP/KY5ha
img2img、バリエーション起こすのにいいわこれ
この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる
0032名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 19:51:15.79ID:OshC99AO
法律、権利関係の議論は熱くなりそうで別でやって欲しいんだけど、このサービス、技術的にどのぐらいのレベルなのか気になる

https://illustmimic.com/en/
本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!

mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。
0034名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:02:09.48ID:E2pAsSUt
img2imgは構図維持するよりstrengthを大きくして
元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな
例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる
0035名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:04:17.39ID:hJAn0cka
>>34
Loopbackはやってる?
Strengthを0.2~0.3ぐらいにしてLoopback Batchを5回とか10回かけると構図維持したまま細部だけ変形していくよ
0036名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:09:08.05ID:XSEhAwvZ
>>26
ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ
0038名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:14:05.70ID:ckaqNUs2
>>32
今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない
0039名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:21:17.66ID:3oD6d6E1
>>32
waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう
0042名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:28:58.53ID:E2pAsSUt
>>26 >>26
RTX2080でoptimized版に--turboでddim 50step 512×512 1枚あたり7.5秒だな
2080Tiと殆ど変わらないとは思えないんだが --turboで何か処理を間引いてるのか?
0043名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:37:20.43ID:OshC99AO
>>38
9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ

学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった


>>42
1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい

2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる

StableDiffusionもバージョンアップで性能上がっていきそうですが
0044名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:45:10.83ID:d4YOjC0c
初音ミクは前スレのこれがめっちゃ良かった
turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ

https://i.4cdn.org/g/1661704624784564.jpg
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136

1段目 turquoise -> green -> red  色違い
2段目 twintail -> ponytail -> bun 髪型違い
3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ
0045名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:50:05.21ID:3SqGfZxt
SDは既存アニメキャラは意図的に出ないようにしてるみたいでそういう用途ならdalle miniのほうがええね
0046名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 20:56:04.90ID:XSEhAwvZ
前スレの
> でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい
これ--optimizedだったら1024x1024行けるかな?
0047名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:00:44.38ID:E2pAsSUt
Craiyonのanimeエンハンスモデルが3090のシングルで数時間学習しただけで
あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな
0048名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:01:30.47ID:XY/qzhrx
>>45
そこだけ妙に節操があるのはなんでなんだろうな
著作権なんて便所の糞と一緒に流しちまえとしか思ってない連中なのに
0050名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:14:50.14ID:E2pAsSUt
どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
MJの高解像度出力ってどういう仕組みでやってるんだろう?
あれがSDに降りてくれば凄いんだが
0051名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:18:44.13ID:hJAn0cka
512x512で作ってから
同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい
0052名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:32:53.11ID:1He7nitR
逆に絵から「このテキストで作る絵に近いですー」って出してくれれば
好みの絵つっこみまくったら共通ワード出せるのか
0053名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:32:56.71ID:oTgFwqmv
>>46
3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。

VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
0054名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:36:59.23ID:XSEhAwvZ
>>36勘違い、実験中で-turbo入れ忘れ
0.78it/s=1.27it/s、約10倍差だった
(どうでもいい情報ごめん)

>>51
今それ試してるんだけど、ボケちゃって詳細が生成されるわけでもなくいまいち
ESRGanと変わらないというか・・strを0とか0.01、0.05、0.1とかいろいろやってみたけど
MDでいうlightでないupscaleみたいなのが欲しかったんだけど
大元の生成時の画像とseedと呪文等全部ちゃんと記録しといて、-turbo外して大きいのを作り直しとかがいいんじゃないだろうか
0055名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:37:38.43ID:3SqGfZxt
>>48
むしろ逆だよ
「なんかカッコいいアニメのポスター」で既存のアニメの絵が出てきたら使いにくいじゃん
フォトストックみたいに気軽に使えるものが欲しいんだろう
0057名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:46:10.20ID:XSEhAwvZ
>>53
最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済

> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど
0058名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:47:53.47ID:oTgFwqmv
やっとGoogle ColabでGPUつかめた。

Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd
事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK

起動がかなり遅いのがデメリットだけどWeb UIはやはり便利

こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab
0059名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:53:37.99ID:E2pAsSUt
例の炎上サイト、Tesla P100×1台分程度のリソースしか用意してないな
逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか
0060名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 21:54:30.29ID:XSEhAwvZ
貧弱なローカルPCでやってたらMJって凄いことしてるよなぁってヒシヒシと・・

①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示
②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加
③さらにupscaleで2048x2048化、これも作り直しで情報増加

②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど
0062名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:04:58.37ID:BGowXRRl
AI勉強するか、と思ってサイト検索して、Python基礎、微分、線形代数、この辺まではまあ高校数学だから、そういうのあったなーでいいけど
行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い

俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事
0064名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:08:34.26ID:E8Z3REee
>>58
ちらっと中身見ただけだけど2個目の方はアクセスするためのパスワードかけられるっぽいね
別にアクセスされたからってそんなに困ることもないだろうけど気になる人はそっち使うといいかもしれない
0066名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:17:21.62ID:hJAn0cka
anatomical chart(人体解剖図)という
入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した
あと真正面向く
0067名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:17:47.43ID:E2pAsSUt
>>60
MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代
0068名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:21:46.52ID:2HTDZ+Ml
>>62
AIの何やってるか知らんけど深層学習の原理は普遍近似定理
フーリエ解析や関数解析を勉強してないと定理の証明は理解できんぞ
0070名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 22:38:23.03ID:iBMQZq8O
AI、最初はおもろかったけどミミックだっけか、あそこまで露骨なの出てくると完全に無法地帯と化してきて引くわ
イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ
0076名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:06:18.19ID:biZ5LJNt
>>74
規約だと生成マシンのために用意する画像は自筆のものだけってことになってるけど
絶対他人の書いた画像をぶちこむ奴らが湧くから絵描きは普通に警戒すると思う
0077名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:17:14.73ID:E2pAsSUt
どのみちファインチューニングしたファイルがどんどん配られるようになるから反対しても無意味だよな
配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな
0078名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:18:47.75ID:IQAZJxZC
>>64
って書いたけど実際動かしてみたらなぜかパスワード機能しなかった
webui.py書き換えて直接パスワード指定したらできたから結局どっちでもいいかも
0081名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:32:18.72ID:SoyTJ9pR
>>50
> どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど
0082名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:33:31.85ID:l6B+4duJ
賛美がCG板で
愚痴アンチが向こう完走次第イラストレーター板
でいいんじゃないかな
板の特性的にその方が住み分けできる気がする
0084名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:34:35.86ID:SoyTJ9pR
ID:l6B+4duJ

>>1
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
0089名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:48:21.08ID:OhzhbyC+
midjournyはこの先きのこれるのか?
0091名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:49:24.96ID:y65qW5Ek
Google Colabで現在のサンプラーを確認したりサンプラーを指定したりするのはどうやればいいのかしら
0093名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:56:07.08ID:AriPWpHx
midjourneyて適当に単語入れてもなんかいい感じ(雑!)になるけどあれってどの段階でどんな感じに調整してんだろ(あやふや!)
0094名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:58:34.01ID:SoyTJ9pR
MJの勝手にいい感じになるのが面白いし、本来の創作からはかけ離れてるなとも思う
たまたまこんなの出たぞ!って自慢する遊びって感じ
「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの
0095名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 23:59:06.57ID:Jng3I3Cs
作成した画像だけで指定したプロンプトってわかったりする?
0098名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:10:06.04ID:siAV3f7f
--testで久々に入ってみたけどMJのrelaxモード遅っせぇ!
つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる
ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな
ようはすべての有料キューの後回しにされてる
0099名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:18:27.77ID:5JqWD+FJ
デコーダーもあるから一見出来そうに思えてやっぱり出力→入力への逆変換は不可能なんだよな
逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい
まあそれ用のAI学習すれば出来てしまうんだろうけど
0100名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:22:41.38ID:5JqWD+FJ
ちなソースの中身見ると最初から各自で自由に改変・拡張できるように
滅茶苦茶親切に色んな機能があらかじめ用意されてるのな
短期間に機能追加が進むわけだ
0102名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:29:03.97ID:Ao1XJMlW
ローカルだと、エログロやロリも出力出来るの?
0103名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:39:37.50ID:DnpTt9/H
>>98
SD取り入れたらしきtestモードはパワーが必要らしいからな
test実装で人が増えた+みんなtestモードで遊んでる=リラックスマン死亡
だからローカルで動かせるSDが神すぎる
0104名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 00:59:18.12ID:5JqWD+FJ
MJのファインスケールの技術がSDに降りてきたら凄いんだけど
MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな
0106名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:15:50.76ID:/Y6pdVi2
>>102
はい、一生懸命プロンプト入れたらできますよ!
え?今日からMJを始めたい?いいですよ、それじゃあDiscordに登録してください
0107名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:17:28.04ID:/Y6pdVi2
ローカルだった、間違えた
まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い
0108名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:17:48.62ID:ucLumWkP
MJのtestでオリジナルねんどろいど試したがクオリティ高いな
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
https://i.imgur.com/V8aG77Y.png

認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい
0109名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 01:41:36.82ID:/Y6pdVi2
--testで適当にアニメキャラ出したら色使いや絵柄がパンツ先生ってのにやたら似てる気が・・
まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか
0110名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 02:33:57.47ID:5JqWD+FJ
ちょっと間違うと?平気で事故画像になるな
赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか
google driveに画像保存するタイプのnote bookは危なくて使えんわ
img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし
0111名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 03:09:28.94ID:zPkJV8Uj
分かる
メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ
実写の人間の顔が生成されるのも怖いときある
0112名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 03:18:39.40ID:Lr1R2Bus
ツイッターの#midjourneyの外人を何人かミュートしたことある
どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか
数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか
0113名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 05:10:35.62ID:gDEnwbht
110みたいなのはあるな
気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら
ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ
0116名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:08:27.63ID:RPiMnBkh
ロリどころか赤ちゃんから老人まで全裸にできるし、他に倫理的な問題がある表現もワード次第で大抵出せるから、今まで一般流通のなかった特殊性癖な人にとっては供給量が砂漠から海になるくらいの地殻変動が起きてる。
0117名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:14:18.44ID:+BrlyjDS
下手に国内法で規制とかしたら外国AI企業が発展して日本の著作権法で検索エンジン開発できませんでしたの再来になるな
クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺
0119名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:37:44.28ID:DnpTt9/H
huggingfaceとかColabに面白いツール結構あるんだが、一応学術的な用途のサイトをエンタメ乞食目的で拡散していいのかめちゃくちゃ悩むな
0122名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 07:57:07.37ID:zIEyYU7A
Colab pro使ってるけど512、ステップ数50、5枚一括生成辺りからもうプレビュー読み込めなくなってしまう
やっぱり1枚ずつ生成した方がいいのかな
0124名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 08:41:53.85ID:8qhX8eo3
なぁ今やっとローカルに環境構築できたんだがcmdで一行ずつコピペするの大変だからpythonで①作業ディレクトリの設定、②promptの入力、③保存して次行くかor保存して次行くか、くらいまで人がやる作業減らしたいんだが誰かヒントをくれんか。

俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。
0125名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 08:47:26.10ID:kv64WKVJ
>>124

>>18を試してみては
ブラウザ操作できるのが楽。出力は画面にも出るしoutputディレクトリにも自動保存される
手順2のckptファイルダウンロードは済みで、3のminicondaもインストール済みだと思うけど
0126名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:32:47.09ID:5JqWD+FJ
背景が得意と言ってもちょっとイラスト風に指定すると
いかにもAI君が描きましたって画風になってしまって使いにくいな
最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ
0130名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:46:51.92ID:5JqWD+FJ
環境が汚れるというかソフトによって細かくライブラリのver調整しないといけないから
共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる
condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから
色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな
0131名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 09:50:59.51ID:kv64WKVJ
単純に複数フォーク使う場合はDockerの方が気分的にいいね
性能が気になるけどまだ動かしてみたって報告見つからないな
0134名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:14:07.66ID:xGJiBerf
>>127
Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね
0135名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:18:11.10ID:TFHgXV2V
>>131
うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う
0136名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:20:25.88ID:kv64WKVJ
>>137
普通の使い方ならそうだけどGPUをdockerから参照させるのが(できるらしいけど)なんかトラブル起こしそうで試してない
問題なく動いてる?
0137名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:23:57.78ID:kv64WKVJ
レス先間違えたw
>>135
情報ありがとう。
手順とかどっかに書いてますかね?
dockerーcompose upする前のnvidiaのdriver設定とかあると思うんですが、そのあたり
0138名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:40:54.58ID:TFHgXV2V
>>137
うちの場合、

・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ

あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった
0139名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:45:27.55ID:TFHgXV2V
一応参考資料

Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48

うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ
0140名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:47:40.85ID:TFHgXV2V
一応念のためだけどVSCodeは拡張が便利だから使ってるだけで別に必須ではないよ
もちろん自分でdockerコマンドを叩いても問題なくいけるはず
0141名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 11:54:40.02ID:qYpiRjsk
出先でID変わってるけど137です
>>138
なるほど
GPU関係のドライバとか設定とかないんですね。
どういう仕組みなんだろうw

帰ったら試してみます。ありがとう!
0142名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:04:42.27ID:TFHgXV2V
>>141
正直dockerにはあんまり詳しくないんだけど、理屈としては

・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04

・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]

ということだと思う
たぶん
知らんけど
0143名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:05:37.25ID:Ao1XJMlW
ローカルで動かすには大変なんだね
DLしてポンと行けるようになるまで待つしかないか‥
0144名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:06:07.82ID:fvdhM1jP
>>58
これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?…
0145名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:12:21.02ID:qYpiRjsk
>>142
なるほど。ベースイメージがいい感じになってるってことですね(雑理解

>>144
流れないので安心してなんでも入れてOKですw
0146名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:14:40.77ID:fvdhM1jP
>>145
ありがとございます(^o^)/
0147名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:15:05.99ID:8qhX8eo3
>>125
ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。
0150名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:21:12.88ID:TFHgXV2V
ちなみに上の話の確認をする過程で軽くTwitterを検索してたらなんかGPUなしで(CPUで)StableDiffusionを動かせるDockerコンテナを作った人がいるみたいなので興味がある人は試してみてほしい


dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456

[引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法 https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496
0153名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 12:46:18.62ID:1F0iAG9b
>>151
なんかとんでもねえところに置いてあるなと思ったら
GoogleCloudに置いてるブログの直リンクがgoogleドメインに化けてるだけか
0158名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:18:07.18ID:/28TUU0I
今写真か画像から3DCGにする技術あるって見たけどそういうソフトって知ってる?
組み合わせれば3DCGモデル作れそうなんだけどなぁ
0160名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:23:13.13ID:KijvYrKn
フォトグラメトリーってヤツ、アップルスマホで動くらしいけど
まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい
リトポアプリで家具なんかは割と簡単にモデル化できるよ
0161名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:24:50.21ID:kv64WKVJ
>>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown

また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした

Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
0162名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:44:04.82ID:Ao1XJMlW
macでローカルに試みてみたけどPyTorchのインストールで早くもつまずいた
こんなややこしい事よう出来るなみんな
0163名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:44:11.02ID:Fo+VsDM0
凄いおもろいんだけど呪文周りが大変だねこれ
タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい
0165名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:53:38.35ID:kv64WKVJ
NeRFは複数角度からのイメージが必要で、それをSDが生成できるならその時点で3D生成できてることになる気がする
0166名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 15:55:19.67ID:kv64WKVJ
>>162
3DとかAIとかをMacでやってる人尊敬するわ
0167名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:00:10.07ID:TFHgXV2V
>>161
うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう……
0168名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:01:30.71ID:pgnjJfpT
>>164
グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも
0169名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:06:12.08ID:31uMl/6n
>>168
ちなみに1650は動かなかった
動くようになるっていうmodifyはやってみたけどcuda out of memoryになった
0170名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:14:48.13ID:fboSUaai
>>169
2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった
0171名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:17:43.86ID:kv64WKVJ
>>167
いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw

多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)

●WSL2(ubuntu20.04)
 ・cuda-toolkit ?

●Dockerコンテナ
・Docker fileをbuildすればOK

cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)

また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw
0172名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:19:24.67ID:ENzpNyMS
マイニング需要減退に4000番前の買い控えとが合わさったうえ
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな

> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。

4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html
> 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。

(ローカルSDのための技術交換です)
0173名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:19:45.81ID:fboSUaai
ZBrushでVroid弄った方が早いかなぁ
たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい
0→1は無理でも手直しできるレベルなら使いこなせそうだし
0174名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:29:15.30ID:31uMl/6n
>>172
今は時期が悪いおじさん「今は時期がいい」
ってこと?
0176名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:37:00.59ID:ENzpNyMS
ローカルSDはゲーマーと視点がずれてるのが面白い
「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか

自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな
ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど
SDで生成されたのは512x512で大抵見向きもされてない
ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度
0178名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:38:12.60ID:fboSUaai
>>175
AI総合スレみたいなのないからじゃない?
一応イラスト1枚から3DCGやアニメに繋がるから全く関係なくもないと思う
素材からの手直しも過程として似てるし
0179名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:45:17.40ID:qYpiRjsk
164までは分かるけどその後のレスの意味は俺も分からないなw
NeRFとかはスレの趣旨としていいと思うけど
0181名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:48:52.99ID:ENzpNyMS
自分で言うのもなんだけどGPUの話題は問題ないでしょ
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ

ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?

>>180
いいGPUがあればね・・
0182名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:50:26.11ID:hEWVLVDt
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

これ3DCGと関係ないじゃん
ここCG板だよ?
0184名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 16:55:26.65ID:hEWVLVDt
そっちって2D絵描いてるイラストレーター向けってかイラストレーター板に立ってるスレだよね
こちらはCG板に立ってるから3DCGも扱うんじゃないの?
最近のAI話題も大体2D絵の事だと思うし
0185名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:01:37.98ID:QtIBnaoD
一般の使用想定者は2D、いわゆるハンコ絵や背景の生成目的に使うが
ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか
そうした用途で使用する人も想定できるんでないか、CG板だし
0186名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:10:55.21ID:ENzpNyMS
まぁ、AIは3DCGゲームデータをかなり学習してるようで密接ではあるんだよねぇ
MJでレンダリング系呪文使ってる人の多いこと
0187名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:13:50.50ID:0x/KrfJz
>>181
2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね
0188名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:13:51.66ID:/LwOjr1W
猫の人(たかなんとかさん)が紹介してたバイドゥのお絵描きAI動作確認してみたけど
GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった
0189名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:20:08.27ID:fboSUaai
クリエイター目線で雑談質問含めて総合スレにした方が伸びると思うは分かる
技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし
クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな
0190名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:21:14.93ID:5JqWD+FJ
フォトショのプラグインのあのデモ見る限り
ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが
既にリリースされてるんだっけ?
ペイントツールと直接連携できるのはやっぱ強いわ
0191名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:24:46.18ID:fboSUaai
操作方法のマニュアルでなくて絵自体を上手くするテクニックとか?
AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは
自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな
コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする
0192名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:33:18.91ID:hEWVLVDt
3Dプリンタでフィギィア造形とか
AIが完全な絵を描くにはむしろ立体的理解が必要なのか

3DCGがさらなる進化のカギを握るはありそうだ
3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く
実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある
0193名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:42:36.07ID:ENzpNyMS
>>189
別に伸びなくていいです
何だか知らないけど賑わってるからって理由でお客さんが流入するとろくなことない
0194名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:47:53.87ID:fboSUaai
Adobe化せずセットでも安価なサブスクにして欲しいなぁ
全部従来のクリスタみたいにオフラインでも使える感じで
0195名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:48:48.90ID:Q/I/WEL9
途中の生成過程よく見てるとフラフラして面白いよね
腕が出たり消えたり、顔つきがふっと変わったり
0196名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:51:24.00ID:7lE/VvUQ
フォトショもオフラインで使えるけどフォトショ自体少し高いよね
フリー含めたAI普及しそうな今なら尚更
まぁ代替え自体は同じようにあるけど
0198名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:53:49.41ID:5JqWD+FJ
解像度を高めるほうほうが見つからんな
一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから
img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img)
これやってもぼやけたままで細かいパターンが作られたりしないんだよね
img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい
0199名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 17:58:08.89ID:7lE/VvUQ
ってかこのソフトだけでは何もできないことぐらいCG描いてる人なら知ってるよね
出来たら〇dobe辺りが黙ってないと思うw
結局全員が使い出したら差別化が必要になるから
0200名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:00:13.24ID:Q/I/WEL9
>>198
どうしようもないね・・いきなり最終サイズじゃないと接合部で整合性取れないし
ローカルだと化け物GPU所有するしか活路はないかと

MJは裏でなんかとんでもないことしてると思う、たまたま今貼った>>197をもっと高度にした何か
--ar 1:2 とかにした人間が頭二つになったりするので
間だけじゃなく、ハチの巣状に複数個所描画しながら、ステップ重ねてるとかかも
0201名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:04:18.74ID:0x/KrfJz
従来の才能知識技術必要なのと違って呪文の運用方法のマニュアル覚えれば誰でもできるからね
そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない
0203名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:16:42.22ID:ktt9Dn9w
もともとイラレ板から分離して出来たスレみたいだけど
あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある
そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる
実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど
0205名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:23:53.04ID:Yug2NA1p
いまいち分かりにくいよな
イラレ板は業界の話とか職業とか金絡みの話じゃないのか?
技術や学び全般はこっちな気がするが
0207名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:28:21.59ID:0x/KrfJz
>>198
あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう
0208名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:28:49.66ID:HJJsHPQ+
1人か2人かしらんけどかなりのアホが迷い込んできてるな
悪意はなさそうだがそろそろ黙って
0209名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:31:46.74ID:B4PDTVQw
メジャー紙(?)も続々取り上げてて乱用待ったなし
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ

文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/

「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
0210名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:34:50.31ID:0x/KrfJz
この板に雑談スレないからじゃ?
ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ
単純に立て方の失敗
NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う
イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない
0212名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:37:21.09ID:spMnej94
質問スレと雑談スレに分離するか質問スレをどちらかに含ませるか辺りか
金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか?
0213名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:42:01.90ID:ktt9Dn9w
質問に答えられるような層ってこのスレの住人だろうけど過疎ってたから質問はこっちでいいのでは
次からテンプレート入れてスレタイに組み込めば?
まだその段階ではない気がする
0214名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:47:18.57ID:fIsOyvn6
イラ板のアンチスレについに勢い負けたどころかこっちの3倍w
あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない
0215名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:48:40.14ID:5JqWD+FJ
AIの背景見過ぎて一発でAI背景のおかしなとこ見つけられるようになってしまったw
萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな
もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな
0216名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:49:41.34ID:v7+RMFMP
●CLIP-guidingって何?

Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104
CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。

近日中に公開予定です。
Vit-Hは完成前でも特にロックです。

---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq

プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]

#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]

#Negative prompts for Latent Diffusion
latent_negatives = [""]

image_prompts = []

どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account)
0217名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:50:12.85ID:EbiIO4wi
このスレではMJよりSDの方が人気?
0219名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 18:55:33.06ID:fIsOyvn6
>>217
人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ

MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる
0227名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:12:45.40ID:arqZR3Jp
【Midjourney】AI関連総合【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1661853927/

分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで
0229名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:15:48.13ID:5JqWD+FJ
仕事の観点からだと実用性のある背景にはMJみたいなアートに振った画風よりも
そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど
平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね
イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな
コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし
0230名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:16:18.20ID:DnpTt9/H
>>176
現状のSDだと1次生産時の画像サイズはまじで重要だからな
MJのアップスケール欲しいわ
似たようなのが発明される流れではあるみたいだが
0232名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:19:52.20ID:80MNGGFZ
>>227
スレタイもうちょっとなんとかならなかったの?
AI関連総合だけでいいでしょ、dalleとかもあるんだし
こっちと誤認するの狙ってるようにしか見えないんだが
0233名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:20:29.85ID:v7+RMFMP
>>226
なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった
0235名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:27:25.32ID:DnpTt9/H
絵文字ってどういう認識なん?
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから>>226
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか
0237名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:35:00.62ID:SEeBbxDW
>>235
💩は絵文字の画像になる
0239名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:17.02ID:B4uVJLlD
>>235
Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる
0240名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:17.72ID:v7+RMFMP
ぼんやり理解だけど、
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
https://i.imgur.com/RZr0oGw.jpg

プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。
0241名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:37:23.96ID:SEeBbxDW
>>238
更新しろ
みんな文句言ったから今朝には治ってた
0245名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:52:11.73ID:1o6g5FEf
別に絵文字と特別に認識している訳ではない
ただの文字の一つで扱いとしては漢字一文字とほぼ同じ
そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので
絵文字を入れると絵文字の画像が出てくるという話

🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため
0246名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:57:34.61ID:31uMl/6n
画像共有用discodeたててもいい?
0247名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:58:11.27ID:v7+RMFMP
>>245
CLIPの説明読んでるところだけど、”説明文に含まれている”わけじゃなくてもいいらしい。そこがCLIPが革新的な点
>>240みたいに画像自体を認識して英語にする

で、言葉の距離が近いものは近いと解釈する(smileとスマイルマークは近いので同じように機能する)

ついでに、rene magritteという画家をスペルミスして、rene magirtteとすると、似ているけど少し違う画風が得られる、らしい。面白い
0248名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 19:58:13.30ID:dr5tbs4r
tomieって入れると黒髪美女出る
富江だと風景画になってしまった
0249名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:07:32.63ID:1o6g5FEf
>>247
学習のデータセットのテキスト自体にはCLIPは使われてないからよくよく読み込んでからレスしてくれ
読んでる途中でらしいで否定されても困る
0250名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:07:45.18ID:80MNGGFZ
https://github.com/hlky/stable-diffusion
最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート?
0252名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:20:40.02ID:80MNGGFZ
verup前は俺環の最大解像度で1枚はいけるのに、2枚からバッチ回すとout of memoryなってたのがちゃんと治ってる
自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ
無償で開発してる人たちにほんと頭下がるわ
0253名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:21:21.95ID:Y3qJ/WiJ
前スレで出てた

digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136

のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる?

image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0]
0254名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:23:01.98ID:cJ9kV8hW
日本人女性っぽい名前を入れると日本人が出てくる
akikoとか
0257名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:28:04.74ID:vYyH+zie
>>256
>>251が言ってるのは「学習時点」、あなたが言ってるのは「学習データ」の違いだね

分かってると思うからそう突っかからなくていいのでは。 >>245は間違ってる
0258名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:36:49.67ID:31uMl/6n
>>246
スレチ?それとも誰も興味ないだけか
0259名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:37:14.83ID:DqH2aZi7
>>247
yoshikata amanoとかalphonse muracとかってそういうことなのかな
Lexica見てるとよく出てきて、スペルミスかと思ってたけども。
0260名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:40:58.08ID:qYpiRjsk
>>258
個人的にはめっちゃいいと思うけど人来るかな?って思った
画像に限らず日本人のDiscord欲しいよね
0262名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:53:55.86ID:MpLLHlhW
webuiのimg2imgでsrengthを小さくしてloopbackで回すってのがよくわからん
str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない
0263名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 20:56:34.34ID:31uMl/6n
>>260
>>261
なるほど、やめときます
まあねらーは馴れ合わないということか
0265名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:02:34.31ID:NlA3TJFF
EmadさんDISCORD情報 2022/8/30
・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど
 → ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない
・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。
 OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。
・V3は1週間以内にできる。多分チェックに2週間かかる
 (注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味?
・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、
 腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。
 → ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。
   @Dango233が対応してます。
・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。
0266名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:12:27.82ID:DyU6uiZ7
この画像からプロンプト出すやつ、実際に作成者が打ち込んだテキストが
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt
画像から推測してるだけっぽいんだけど。
0267名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:12:49.92ID:1o6g5FEf
>>262
プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?

で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる

んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する)
0268名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:18:34.35ID:MpLLHlhW
>>267
なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する
0269名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:03.84ID:fW+GqRKg
>>253
Google Colabでやってる人かな。それだとエラーになるでしょ

import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]

みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど
0270名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:19.56ID:DnpTt9/H
>>266
AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ
0271名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:21:31.32ID:NlA3TJFF
>>266
画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする

最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど
0272名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:24:22.14ID:MpLLHlhW
> Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエスト
これ欲しい!yamlファイルの山マジ勘弁して
縮小版と並べたら一瞬どっちの隣のかわかんねーよ
0273名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 21:36:51.60ID:SEeBbxDW
手足とか指がぐちゃぐちゃでも大丈夫なホラーとかダークファンタジーに向いていることに気づいてしまった
0275名無しさん@お腹いっぱい。
垢版 |
2022/08/30(火) 22:02:03.23ID:1o6g5FEf
>>268
そういう場合元のプロンプトを流用すると不都合の方が多いと思う
思い切ってhighly detailedとかdetailed faceとかの画質指定系に絞るといいかもしれない
0278名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 00:22:07.44ID:HbV0Uggc
テーマだったらsubject(主語)より前のほうがいいと思う
detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない
0281名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 04:51:36.09ID:DcFdWx70
無料colabでファインチューニングする人はコンフィグのbatch_frequencyを2500くらいにしようね😭
batch_frequencyに指定したstep数ごとにプレビューを出力するんだ
2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭
0283名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 06:45:08.15ID:7JXzYhek
>>282
できるね >>11
0284名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 06:56:38.99ID:LMHjjJ7D
ローカル環境でStable Diffusionのimg2imgを動かす
https://self-development.info/%e3%83%ad%e3%83%bc%e3%82%ab%e3%83%ab%e7%92%b0%e5%a2%83%e3%81%a7stable-diffusion%e3%81%aeimg2img%e3%82%92%e5%8b%95%e3%81%8b%e3%81%99/

バカでもわかりやすいように回りくどく説明してくれてるんだけど
バカすぎて途中から全然意味わからん
じゃあどうやってそのコードを実行すんねん
途中まで無駄に回りくどかったのに一番大事なとこはしょんなや
0285名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 07:14:36.78ID:6l/NJAAU
hlkyさんTwitter始めたよ!
@hlky__
0286名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 07:25:20.95ID:7JXzYhek
>>284
めっちゃ分かりにくい、というかpython環境設定方法書いてないね
中身の解説をしてるわけでもなし自分用メモみたいな感じ

>>18でいいのでは
0288名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 08:02:44.06ID:7JXzYhek
●動画での服の着せ替えについて
https://twitter.com/karenxcheng/status/1564626773001719813

・Dalleでマスクすることで服を変更することができる
・しかし一貫性がないためフレーム毎に服が変わってしまう
・これを解決するツールとしてEbSynthがある
 EbSynth https://www.youtube.com/watch?v=eghGQtQhY38 https://ebsynth.com/
 ※以下の手順は私の補足
  1.ビデオをPNG連番ファイルに変更する
  2.キーフレームを他の画像に変更する(1枚。複数も可)
  3.ビデオPNGをマスク(白黒)にする ※自動もできる?
  → 全ビデオがキーフレームの画風になる

・他の方法としてDAINというAIフレーム補間もある
 https://twitter.com/karenxcheng/status/1552348027834118144
 Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。
 https://grisk.itch.io/dain-app
https://twitter.com/5chan_nel (5ch newer account)
0289名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 08:22:27.26ID:UCPx4zKR
デフォで散らかってるwindows側にごちゃごちゃ入れるのは嫌なんでWSLに普通のdockerとdocker composeをインストール
webuiを起動した時に出たエラーメッセージで検索してtoolkit更新
無事docker composeで起動確認
さよならanaconda君のことは好きじゃなかったよ
0293名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:21:18.98ID:7JXzYhek
>289
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・

girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5

デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/LqvrGRM.jpg

tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/OZY3HE1.jpg

基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね
0294名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:21:37.09ID:YwNJW/mv
>>290
早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ
0298名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:36:02.70ID:TGVLwwJu
>>294
単に外国人が作ってるから外国人好みの絵が出るように調整されてるだけでは?
手塚治虫が作れば手塚治虫好みの絵ばかり出力するAIになるだろう
0299名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:37:18.86ID:0+/wzyQN
アニメ調って、日本人が言うアニメじゃなくて
ディズニー系の事か
0300名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 09:44:19.27ID:7JXzYhek
>>289
追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925

デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg

tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/ShbMRq8.jpg

>>299
プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう
0303名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:14:56.73ID:0+/wzyQN
一部アナ雪感があるね
単品で見れば良い感じだけども
0304名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:22:23.56ID:TWdEygjj
恐らくこのモデルの本領を発揮させるGreg Rutkowski的存在が居るんだろうけれども
それこそ魔術の実験のごとくトライアンドエラーでやるしかない
Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし
0305名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:24:29.88ID:zN1glaQU
彼らの言うアニメ調と我々の求めているアニメ調が違う可能性はある
ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは
0306名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:25:29.13ID:7JXzYhek
SDのDicordでベータ版として、1.5でBOT生成できるようになった。 https://discord.gg/stablediffusion
#gbot-** チャンネルで /dream すれば使える

https://i.imgur.com/j6qyNHi.png
プロンプトは>>300と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。

体がおかしくなる場合があるのが直っているのかが気になる。

後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。
0307名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 10:40:41.37ID:TWdEygjj
>>305
このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない

それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない
0311名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 11:36:23.28ID:ZEEZAdV1
img2imgのsteps数て例えば20と70で大きく完成度が変わるとかありますか?
ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが
細部の描き込みがアップするとかなら上げまくるのですが
0312名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 11:44:59.08ID:LDGpq/xh
ベータ版がもう使えないのにいつまでも設定にベータが残ってて 新しく画像生成しようとすると「ベータ版がもう終わってるから無効!」って言われて作れん・・・セッティングで見てみても消せないし なんじゃこりゃ
0313名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:04:39.24ID:7JXzYhek
>>311
これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard

このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925

https://i.imgur.com/3bnugiT.gif

デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも
0314名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:08:04.67ID:YwNJW/mv
img2imgにイラストレーターが描いた複雑な背景絵を読ませてstrengthを強めにすると
元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね
人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど
世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな
0317名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:15:50.23ID:ZEEZAdV1
>>313
精細化していくんですか!
サンプラーが選択出来ないColab構築でステップで細部が変わるとも知らず
ずっと20でやっていたのでもったいない時間を過ごしてました…
0318名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:22.65ID:HU9icYfL
基本は低いステップ数でたくさん試行して、良さげなの来たらシード固定して別のステップも試す感じでやってる
0319名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:35.19ID:ZEEZAdV1
>>316
この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます!
0320名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:19:53.19ID:2CePEBWP
>>284
https://yukishigure.booth.pm/items/4118603
省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。
0321名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:25:17.12ID:ZEEZAdV1
サンプラー選択もシード表示や入力も出来ない環境は止めた方がいいっぽいですね…
めっちゃ不便な気がしてきた…
0323名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:32:50.00ID:7JXzYhek
>>310
質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。

(我が家のゲーミング core i7) 0.31 it/s

(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s
0325名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:38:24.59ID:YRaUvVtm
>>322
ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな
0328名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:46:18.18ID:0Y62Qr9h
>>269
ありがとう〜!!
cmdで直接の叩いてたけど帰ったらそんな感じでやってみる。
0329名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:47:53.96ID:7JXzYhek
>>327
今でも >>11の多分通りできるはず
けど、VRAMが多く必要で環境的にできる人が少ない&GUIもなく使い勝手悪い感じ。マージ面倒とかプレースホルダーが記号だとか。

hlkyさんが試したいけど3060しか持ってないから動作確認できないって言ってるw
0330名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 12:58:05.95ID:TWdEygjj
Textual-Inversionはメチャクチャに強力なのにTrainできる環境が限られてるからあまり触れられないな
コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか
0333名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 13:13:45.14ID:TWdEygjj
どうしてもローカルで試したい人か
VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない
0334名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 13:23:30.38ID:JOlEfRpH
>>331
これだとColabのノートブックも付いてるから
今一番お手軽にいけるTextual-Inversion環境だな
一応無料で使えるT4でもVRAMギリで足りそう
0335名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:05:24.06ID:7cXyioL3
>>18
この手順が一番簡単&便利だわ。
まとめてくれてありがとう。
0336名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:05:39.14ID:qanyxD9p
数枚のイメージでちゃちゃっと学習して参考にしますよって感じのを
一気にするから20GBなんかな
そのうち便利になって少RAMでいけそうだね
0338名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:12:20.36ID:jSDS99QG
>>18の手順のWebGUIが機能豊富だけど画像複数出したタイミングでコマンドプロンプトが固まってしまう(エラーも何も出ない、optimized-turbo設定は有り)
同じような事象出てるかたいらっしゃいます?

OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion
0339名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:14:37.62ID:jSDS99QG
>>338
固まるのは繰り返しの1回目が100%になったタイミングです
0340名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:15:49.90ID:dBoz9MHm
真面目に聞きたいんだけど
ぺこらとか吉岡里穂のエッチな奴作れますか?
作れるなら30万のPC買って頑張ろうと思う
0343名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:22:07.37ID:FeqUuVXi
今のところ顔は何とかなっても体がぐにゃぐにゃなんで
バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい
0345名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:24:25.49ID:LDGpq/xh
midjourney やっぱベータ版が消えねんだがどうするべこれ・・・分からん
0349名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:47:29.41ID:JOlEfRpH
nightlyどころじゃなくmainからそのまま引っ張ってきてるだけだしなぁ
時間単位で新機能やバグが盛られていくからそこはどうしようもない
0350名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:55:58.96ID:fO/vpwbQ
4ちゃんとかここと比べてツイッターの日本人連中がプロンプト秘匿すんの陰湿だなぁと思ってたけど特定絵師の名前とか入ってたらそら我が身可愛さに秘匿するか
0352名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 14:58:35.83ID:dBoz9MHm
>>344
な、なんかまだ早そうやな・・・
後一年待つわ
0354名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:02:22.90ID:zUWDSbVs
サイズの大きさと必要VRamの量の関係明らかにおかしいよねバグってんの?
それとも指数関数的に伸びてんのか
0356名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:11:22.54ID:YwNJW/mv
VRAMとメインメモリ間の転送速度はVRAMアクセスに比べたら地獄のように遅いから
仮想メモリって訳にはいかないだろうなぁ
0360名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:28:50.77ID:v+o9JuZK
>>350
匿名と非匿名の違いだと思う
ふたばは4chanと変わらん
0362名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:51:53.74ID:YwNJW/mv
pythonのエラーで出たエラーメッセージをコピペミスで知らない間に貼り付けたら
めっちゃそれらしい絵が出てワロタ
多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな
0363名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:56:23.30ID:7JXzYhek
>>354
VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね

●解像度、オプション別メモリ使用量
https://i.imgur.com/oua3N5o.png

●解像度、オプション別速度
https://i.imgur.com/foHVTGQ.png

やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない

余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw

今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo


測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5

2080Ti
0364名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 15:58:09.66ID:jIyX+Yoe
プロンプト魔術はまだまだ未開
うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる
アーマードコアにそんなに人間の顔出てないだろと
メカメカしくなるからかわいい絵を出したいときに使えんし
0365名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:01:14.82ID:7cXyioL3
--optimized-turbo付けると画像が変わってしまうのは普通?
0366名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:03:15.36ID:ZhQ0I+2T
やっぱ制限入るのかw既視感のある流れだな
グラボ買うか迷うな今は時期が良いとか聞くけど
0368名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:05:38.42ID:niavZolB
一番安くAI向けのPC組むなら
40xxが出た後に、型落ち処分の3090を買うことだと気が付いた
ゲーミング性能では4070並みらしいのが

>>363
情報ありがとう
0369名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:07:05.62ID:jIyX+Yoe
Proが使用量制になるみたいだな
今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど
これからは使用時間がカッチリ決まっててそれ以上は追加料金

無料は元々完全無保証なんでこれからどんどんキツくなるだろう
0371名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:10:27.80ID:7JXzYhek
>>365
今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5


●オプションなし webui.cmd
https://i.imgur.com/qOxRWQT.png
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%

●python scripts\webui.py --optimized-turbo
https://i.imgur.com/fxpSKJU.png
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988%
0372名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:11:59.42ID:7cXyioL3
>>371
検証してくれてありがとう。
もう一回試してみるね
0373名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:12:37.89ID:7JXzYhek
>>371
よく見ると、肩のところについてる謎の水色の水滴ぽいものの濃さが違いますね。
大きな違いではないけど、絵によっては目立つ違いになり得るのかも
0374名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:19:06.68ID:jIyX+Yoe
optimizedは所々の演算精度を若干落としてるんでバイナリ一致は無い
けれども本当に若干なので出る結果に大きな影響も無い

それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい

後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい
こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる
0375名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:20:34.06ID:niavZolB
>>371
オプションありの方が
細部の描きこみのコントラストが強い、もしくはstepが1,2回多いような絵を吐きますね
(水滴、涙袋、ロゴに違いが出てる)
0378名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:39:03.98ID:7JXzYhek
>>374
ありがとうございます。

python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu

での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。

速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。

https://i.imgur.com/YWiQ5NS.png
https://i.imgur.com/Yrfkp4w.png
0380名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:45:23.35ID:5drfoS0p
Coladはなんかわかりにくいけどこのコンピューティングユニットってやつが来月から導入されるってことらしい

リソースがどれくらいかわからんからまだ待ちでいいかな
0381名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:51:53.04ID:Cm13UlUY
アーマードコア入れたら顔が整うって書いてあるからまたまた~と思って入れたら
本当に顔が整う率上がって笑う
でもアーマーって認識するのかたまに指示してないのに鎧を着だす
0382名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:52:48.40ID:V0edTUl/
>>310
ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ
0383名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 16:53:35.08ID:7JXzYhek
>>377
流石に流れが早すぎて試す元気ないですけどw

・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
 これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?

良さげな機能多いですね。hlkyか公式にマージされて欲しい
0385名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:11:07.65ID:udNZlD3m
colabは新しく制限が増えるんじゃなくて制限されても追加で買えるようにするって感じじゃないの?
使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし
よくある質問に書いてあることがフワっとしてていまいちわかんないけど
0388名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:36:12.17ID:jSDS99QG
>>351
ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます
0391名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 17:57:07.30ID:Wk6j/3SY
>>340
二次コンテンツならコイカツで網羅できるしVRで現実にできる
一緒に作ろう!
0392名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:06:52.96ID:7JXzYhek
>>390
> hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw

試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
https://i.imgur.com/jGgRIoI.jpg

これは検証便利!

portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5
0395名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:20:25.39ID:HbV0Uggc
urlを貼れないのでAUTOMATIC1111版は4chanでヴォルデモート版と呼ばれている
なぜ貼れないのかは作者の別リポジトリを見ればわかる
0397名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:21:42.46ID:UOiQedJL
>>374
ああ、あなたが神か
どっちもチェック入れたり使うまでは関係ないだろって思ってたわ
少しでも大きいのってoom出しながらギリギリ攻めてるので
0398名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:23:22.99ID:rILdr+fd
Mjのtestは整いすぎて詰め込むと色々反映されないな
0399名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:38:39.36ID:UOiQedJL
知識神と検証神のタッグで捗りまくりだ・・

cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど

あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui
この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
0400名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:44:19.22ID:HU9icYfL
weightについてはhlky版でもMJ風のが使えるらしいんだけど、これで使えてることになってるんだろうか

long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/dsXPJ8K.jpg

long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/Gdy4VRv.jpg

気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど
0401名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:52:23.00ID:YwNJW/mv
中国のERNIE-ViLG、アニメ絵に格段に強いな
違和感ない初音ミクのイラストが余裕で生成されてる
0402名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:58:13.93ID:YqqnkzgM
>>399
> 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?

Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする
アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど

AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽)

●AUTOMATIC1111のインストールメモ
https://github.com/AUTOMATIC1111/stable-diffusion-webui

・minicondaで任意のディレクトリを作って以下を実行
python -m venv auto1111   ※auto1111の名前はなんでもいい
auto1111\scripts\activate

・後は、Instructions:を動かす

以下の2つは別途ダウンロードして配置が必要
models\ldm\stable-diffusion-v1\model.ckpt
table-diffusion-webui\GFPGANv1.3.pth

●起動時
minicondaで、
auto1111\scripts\activate
python stable-diffusion-webui/webui.py
0403名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 18:58:22.34ID:+U009j/8
>>400
hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる

>>399
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い

ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな
0405名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:04:14.21ID:V0edTUl/
hlkyでマスクペインティング実装あついな
Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change
0406名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:05:14.46ID:1v6mZLS0
この手のサービス海外に持ってかれるとかツイッターじゃ喚いてるけど実際どうなん?
オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが
0408名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:17:13.15ID:HU9icYfL
>>403
> たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる

その通りだった
プロンプト1語の時はウェイト部分パースせずに渡してた
0414名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 19:59:12.25ID:V0edTUl/
k_euler_aとか cfgの機能の説明ってどこで読める?
0417名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:19:03.24ID:V0edTUl/
>>416
見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど
0419名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:32:12.98ID:kyfXRT5N
>>417
正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、

Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか

という数字なので大きい=プロンプト通りになりやすいということだと思います。

portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。

https://i.imgur.com/7gFaxEZ.jpg

普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。
0421名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:34:36.34ID:kyfXRT5N
>>418
hlkyも自動保存しますよ。

GRiskは基本機能もまだまだ未完成なので使う気はしませんが、
インストールは簡単ですし、GRiskの機能でいいならいいかもしれませんね
0422名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:37:04.74ID:kyfXRT5N
>>420
手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw

とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね
0423名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:40:57.15ID:niavZolB
手は、今のマスク機能がもっといい感じに動くようになったら
手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど
現状は手書きで治すしかないな

そういう意味でも今はちゃんと使うにはある程度の画力が必要
0424名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:41:51.56ID:UOiQedJL
webuiの各種パラメーター情報って保存できないのかな?
ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね
0426名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:49:46.15ID:V0edTUl/
>>419
なるほど…マトリックスでみるとたしかにそうですね
ありがたい
0428名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:58:35.73ID:v+o9JuZK
手は手だけマスクしてStrength下げながら
ちょっと修正→img2img→ちょっと修正...
を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい
0429名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 20:59:23.92ID:E8xhK8gF
わしプログラミングとかよくわからんから適当にローカルで組んで一から動いて1枚生成されるのを確認して、それを30個分動かすバッチファイル作ってパワー型な生成作業をやってるんだけどみんなスマートやなすごいわ。
0430名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:03:49.25ID:wqoaJrTD
EmadさんDISCORD情報 2022/8/31

・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。
100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか?
 でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?)
 我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる
  ※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味?

・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。
 → パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。

めっちゃ威勢がいいな
0432名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:07:25.35ID:kBmvzRjm
>>422
GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい
0433名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:09:44.24ID:0LAKFU7C
>>429
バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui

AUTOMATIC1111インストールして >>402、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code
0434名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:10:07.84ID:kBmvzRjm
>>430
int8使えるなら4000シリーズ発売まで待つのが良さそう
0436名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:14:23.18ID:ithyLEdb
>>430
15まてばグラボ新調しなくてよくなるんかな
0437名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:20:40.72ID:UOiQedJL
また質問、一応英語で検索したけどわからなかった

img2imgのMaskのヒントに
webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど
マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか?
0438名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 21:21:28.52ID:kyfXRT5N
1.5は8/29のツイートで6日後=9/4予定なんだよね
予定通りリリースされるのかな

フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど

>>432
へー。ならそこまで時間かからずに実現しそうな気がするね
0444名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:03:09.92ID:UOiQedJL
mask壊れてるしRegenerate選択消えたよね?・・って念のため最新にしたら治ってた
つかAspect Ratio指定が増えてた
0445名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:03:42.39ID:YwNJW/mv
ERNIE-ViLG、裸どころか水着すら規制でアウトかよ!
流石中国だな…やっぱSD以外はどこも規制してくるよな
0446名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:05:47.06ID:v+o9JuZK
https://ommer-lab.com/research/latent-diffusion-models/
最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな
0447名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:07:30.36ID:YwNJW/mv
しかも規制解除とか不可能な作りっぽいな、やっぱ最終的にこうなるのかって感じ
性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも
0449名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:10:24.59ID:ithyLEdb
colaboはdeepfake禁止してるのでcolabo使ってる人はじつはやばいかもしれない
0452名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:14:27.39ID:ithyLEdb
>>450
banですバンデン
0453名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:15:58.75ID:niavZolB
ERNIE-ViLGローカル行けるんか

とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな
GPUメモリがつれえ
0455名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:21:44.68ID:0+/wzyQN
ローカルも終了して防がれるのは時間の問題って感じだな
大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする
0457名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:29:49.51ID:t67CBVSY
初心者ですまん
人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい
0460名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:35:44.01ID:HU9icYfL
>>437
たぶん、
生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけだから
それだけのことならフォトショで手元で合成した方が結果良いよねって事だと思う

>>457
複数形にしてるとちゃんと人数に影響するね
0464名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:39:42.48ID:niavZolB
>>460
何のことだろうって思ったけどそれだな
手は自力で手直しした方が早いよ、が今のところの公式見解

>>462
illustration style by pixiv fanboxに類する呪文はまあまあ使えると思う
0465名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:41:41.32ID:kDPmcmMs
>>457
例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない
0467名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:55:28.97ID:pjP7qJCI
しかしここまで次々出てくると、絵を描くっていうのは機械にとっては簡単な事なんだろうなと認めざるを得んな
その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは
何かしら宇宙の意図みたいなもんを感じる
0468名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 22:58:17.89ID:YwNJW/mv
無視される確率高いけど「風呂」は一応ありなんだ、水着はアウトなのに中国の検閲基準謎過ぎんよ
色々研究しないと分からんな
0469名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:00:04.40ID:zUWDSbVs
いうてこのまま高度化していったらフェイクポルノとかフェイクニュースの画像作成が容易になって規制まっしぐらな気しかしないけどな
Googleが作ったpartiの記事見てて思った
0471名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:03:10.26ID:UOiQedJL
>>460
あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead.
0472名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:10:27.59ID:kyfXRT5N
>>437,471
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",

とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど
0473名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:11:51.14ID:ithyLEdb
>>460
インペインティングってそんな単純なやつだったんか
じゃあ顔補正もおなじかんじなんだろか
0475名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:14:53.03ID:kyfXRT5N
>>473
> 生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけ

そんなわけはない
そもそも「生成後画像」なんて存在しないものと合成なんて日本語としておかしい
0476名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:25:43.98ID:YwNJW/mv
プロンプト秘匿するぞって言ってた連中がたった数日でERNIE凄すぎて
もう隠す意味ない公開しますって言い出してるの受けるわ
でもこっちはオープンソースと言いながらブラックボックス化されてるから
技術系のオタクの間では流行らんだろうな
0478名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:31:11.14ID:v+o9JuZK
ERNIEの絵なんかそこまで上手くないんだよ
0479名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:33:40.29ID:U489tiLr
>>430
これ学習モデル小さくなると推論してるときのメモリというかVRAMも減るの?
そこは変わらない?
0480名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:33:51.04ID:YwNJW/mv
ERNIEの検閲マジうぜぇな、ワードと生成画像両方に検閲あるみたいだ
やっぱSDがアニメに対応してくれるの待つしかないか
0482名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:41:40.72ID:GLYpgQfF
>>479
分からなくて全くの予想だけど

少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな

それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない
0483名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:42:30.12ID:V0edTUl/
>>363
24gbあれば10241024いけそう
0484名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:45:02.23ID:U489tiLr
>>482
ども、どうなるか1.5出るの楽しみに待つか
0485名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:49:52.56ID:WWZkwmuf
今のimg2imgに入っているマスク機能
→指定した部分を処理後に丸ごと戻して無かったことにする力業

インペインティング
→指定した部分を変えないように処理の中身から変えてしまう
 処理中も指定した部分は多少劣化する以外変わらない
0487名無しさん@お腹いっぱい。
垢版 |
2022/08/31(水) 23:57:06.09ID:fdFcVPE4
Discordのウエイトが4GBから100MBになる予定って聞いた人が、
自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある
けど100MBはすごい。どうするんだろう、と言ってた。

何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw
0488名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:00:31.84ID:6M30CA6o
例えば
・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる)
・背景にあるロゴを塗って、ロゴを消す

この2つ混同してた。違う技術なのか
0489名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:13:22.82ID:GThaU77M
ソース見たけど大体一緒じゃない?
本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし
webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで
0491名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:22:57.95ID:6M30CA6o
>>490
MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw

SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど
0492名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:26:44.20ID:TF0w6Xlc
テクスチャ目的の素材が欲しくて最近SD触ってるんだが
いまいち良い感じの物が出ないな
ゆがんでたり細かいところがおかしかったりする
MJと比べたら写真っぽいものが出てくれるだけでありがたいが
0496名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 00:49:12.37ID:+Su13zNo
シャッターストック
pixaby
Adobeストック
これらのフォトライブラリーもいらなくなってくるんじゃ
0497名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:00:22.46ID:c88dAiP2
中国版触ってみたけど、銀髪ってやっても銀髪にならねーじゃん
でも、絵柄は好み
SDも早くアニメに対応してくれー
0500名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:19:50.23ID:XHkCZM5O
collection of poses(ポーズ集)でバストショットや顔ドアップをほぼ確定的に無くすことができた
(とりんさまモデルで生成)
https://i.imgur.com/iGLSegV.png
https://i.imgur.com/FJsKdqB.png
https://i.imgur.com/goelyjt.png

あとanatomical chartとArmored Coreの悪魔合体とかいう凶悪実験をやらかした時のチェリーピック(オリジナル1.4)
https://i.imgur.com/Sw8Z07C.png
https://i.imgur.com/5tEJTNg.png
0502名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 01:35:15.50ID:hTQNZtKo
今のところ著作権で問題になるのはプロンプトだけかな?

特定の著作物を指定して画像を作成した場合は問題になりそうだけど
プロンプトがわからない場合はセーフって感じ?

画像からプロンプトがわかるようになったらそれを証拠に
訴えられるケースは増えるような気はする。
0504名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 02:06:23.45ID:QkBe+6Dp
そのうち最適化が進めば4GBや6GBでも解像度2048や4096くらいの生成が可能なんだろか
ファイルサイズは小さくなってるみたいだけど
最適化進んでグラボ買わずに済むなら良いんだけど
0507名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 02:41:45.12ID:Dh/0wfLL
>>506
ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。

買う人いるのかな
0508名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:11:17.95ID:FKOT9Ej7
>>506
ループしねーじゃんと思ったらサブスク限定だったわ
10ドル程度でテクスチャに絞って2k~4k出力可能なら十分有用なんじゃないか
海外はほんまオープンソースからの開発テンポ良くてええな
0511名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:40:08.44ID:GThaU77M
>>509
フォトショプラグインのと同じ感じだね
やっぱ連続性や効率考えるとこういう方法になるんかぁ
切れた頭や足追加したり拡大しても低RAMでリファインできるのは大きいか
0512名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:45:29.40ID:FKOT9Ej7
>>510
SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの https://i.imgur.com/UL5TV6R.png
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな
0513名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 03:46:47.52ID:QIWR5R19
上手くアルゴリズム組まないと同じ何かが反復してスタンプみたいにあちこちにポンポンできそう
中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ
0514名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:03:47.32ID:I13At7XI
限界を感じてきた
どんなに頑張っても同じようなのばっかり出てくるのは
しょせん学習サンプルを超えられないということなのではないか
真の意味でのクリエティビティや創造はここにない気がする
0515名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:32:17.37ID:nqkYlpXR
複数画像出力して一番いい画像選択+テキストで指示を追加を繰り返す みたいな感じにするとかやりたいな…
0516名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 04:36:22.00ID:ByM9Ck8F
なんかAIで3Dモデルを起こしてくれるサービスが実は裏で人力を使ってたってニュースなかったっけ
0518名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:21:44.90ID:jmQQ3ISX
DALLE2が進化したってメール来た
0519名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:25:54.45ID:FKOT9Ej7
>>509
これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
https://i.imgur.com/93Kck9t.mp4
0520名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 05:45:16.16ID:RgmRIZo5
まだ出て一週間だぞw
モデルもデータもまだまだ進化する
我々が死んだ後も進化は止まらないだろう
0521名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:28:58.34ID:8ol9Mp+w
以下私の理解・解釈が入っているので気になる方は原文をお読みください。

●k_eular_aが優れた結果を出す不思議さ

https://twitter.com/iScienceLuvr/status/1564847717066559488
https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png

○前置き
 ・SDは、ディフュージョンモデルの一種。
  ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。
 ・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す
  これにより大幅に計算量を減らすことができる。

○サンプラー
 ・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。
 ・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。
  k_がつくものはキャサリンのk-diffusionリポジトリから来ている。
 ・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。
  なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。
 ・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。

---
k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな?
https://twitter.com/5chan_nel (5ch newer account)
0522名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:33:31.62ID:vKGYRvy5
本当に凄い事を体感できるのはまだ一部の人だけ
大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる
0524名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 06:53:14.12ID:KXyxb8am
写真でもイラストでも、顔のアップからバストショットくらいまでは造形良いのに、そこから少し離れると途端に崩れ出すのはなぜなのか。
0525名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 07:45:07.26ID:IcIXNUdC
学習データが顔のアップとバストショットばかりだから
0526名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 07:47:15.63ID:heJVIBPh
>>524
顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ

人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う
0529名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 09:16:21.89ID:BtcIwkr3
というより、顔と体の両方を最適化するのがしんどいんだと。
SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。
0530名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 09:39:37.18ID:e4ZLA3Xy
例えるとAIの描画は画像の局所性を利用して主に担当エリア周辺の狭い部分だけを
それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら)
そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする
座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある
0531名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 10:12:36.01ID:xftaGdXs
D2のがSDよりプロンプトに忠実って話
> Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し

MJはさらに低い次元にしてる?
全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて
初心者を喜ばせてハマらせるみたいな戦略に見える
逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い

まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど
0535名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 10:51:49.82ID:tjCsJUxt
ほんとだ回線止めたらエラーになった・・・
ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443)
0536名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 11:02:14.04ID:okjTselo
>>517
創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな
0539名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:02:09.78ID:FKOT9Ej7
>>526
そういや
横たわってるのはimage2imageですら再現が難しい
90度回転で直立させると上手いこと行きやすい
を誰か言ってたわ
0541名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:15:57.37ID:IpZsMc9w
自分が描いた絵の一部だけimg2imgでベクシンスキーに描かせるの面白すぎる
0544名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:22:03.21ID:vKGYRvy5
解説読んで手入れしたらパッと見で普通にありそうな絵になったんだけど
今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも
0545名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:24:25.56ID:jmQQ3ISX
>>543
凄い
試してみるか
0547名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 12:43:31.79ID:GThaU77M
とくに指定できるポーズを描かせたいなら動作と具体的なポーズ名を使うといい感じに全身が出やすい
nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない
nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch
porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない
clip front で安定した画像群が出るワードなら期待できる
0551名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:00:00.97ID:e4ZLA3Xy
ERNIEはたった一晩の間に呪文の研究がかなり進んで上位の絵描きが描いた絵と
同レベルの絵が出力されるようになってるな
0552名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:00:51.19ID:mRRZbuPO
>>550
Cityscape in Girl = 「少女のいる街の風景」は思いつかないなw
面白い

他の使える単語とかもまとまってて役に立ついいまとめノートですね。ありがとう
0556名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:26:32.07ID:mRRZbuPO
>>553
なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)

ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。

2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ
0557名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:31:23.20ID:+Cs2tqBk
>>553
おお!うちも3060なんで週末に試してみよう。
0558名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:41:22.29ID:mRRZbuPO
>>555
>>519さんが試してますね。かなりすごい。

論文とかソースコードとか公開されてるなら、勢いのあるSDは比較的すぐ実装しそうだけどどうなんだろう
0560名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 13:59:41.10ID:jmQQ3ISX
>>559
俺もそれ出たわ
もう一度やり直そうと思ったら普通にインストールされてた
まあAMDだったから俺は動かなかったけど‥
0561名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:00:38.80ID:0fj+eXEr
>>559
Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く
0563名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:08:15.35ID:jmQQ3ISX
redditにAMD不可って書いてあった
残念だ
0566名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:19:54.09ID:WpAMJAkO
>>559 は分かりませんが、>>18とか普通にみんなが使ってるものはRyzenで何の問題もないですね
グラボはGeforceでVRAMが6GB以上の必要はあります。 (Radeonはまだ無理)
0568名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:25:57.15ID:jmQQ3ISX
AMDでもワンクリックで使えるようになるのは時間の問題なはず
それまで我慢する
0569名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:31:09.84ID:wMrk29Gv
>>567
調べてみたらMacだとMetal経由でRadeon GPU上で動かせるんですね。知らなかった。
Windowsの話と思っていたので失礼しました。
0573名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 14:52:13.41ID:jgmbGcOX
VRAM usage at different resolutions is something that needs documenting, larger resolutions require more vram, and from my previous tests it's roughly linear, for example, an image that was 512x512 used around 6gb, and an image that was 512x1024 (double the size), used just under 12gb.
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80
24gbで1024x1024いけそうだけどやってる人おらんかな
0575名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 15:12:29.59ID:0X/vhdIY
GIGAZINEだけでもかなり記事でてんなー
コッチ系好きなライターおるんやろな

画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/

画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/

スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw
0577名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:05:35.52ID:tjCsJUxt
>>576
text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ
0578名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:17:06.59ID:uqhBsT3Q
>>576
>>577さんの通りGUI版の方が速度が単純に速いし、使いやすい

スクリプト操作は、 >>377,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは >>419みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]

https://i.imgur.com/cDhioYS.jpg
0579名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:22:53.17ID:uqhBsT3Q
ついでに、>>578の画像を見ると
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
 seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
 man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
 ※seed=9も同じ

やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw
0581名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 16:26:37.24ID:uqhBsT3Q
補足
書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。
公式を見ればやり方は多分分かるはず

pというオブジェクトに設定可能な属性は以下の通りです。
'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width'
0583名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 19:11:19.92ID:1wu7LGKi
>>543
Macは?
0584名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 19:59:01.98ID:kbyWGg61
すまん、公式参考にcmd直接叩いて環境構築してtext2imageで吐き出せるようになったんだがimg2imgを利用するためにはgitとやらを用いて環境を再構築しないとできないって認識であってる?

それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。

with autocast("cuda"):
images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0]
0586名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:12:31.93ID:8U9zbhid
エッシャー「ヨッシャー」

fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら
0587名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:13:30.36ID:jgmbGcOX
>>584
使ってるパイプラインが違うので無理
素直にwebuiでやればいい
0589名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:26:08.51ID:4UCSf1A2
>>584
image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ
0591名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 20:32:32.67ID:kbyWGg61
>>587
このままじゃやっぱり無理か〜。ありがとう。

>>589
よ、よければもう少し詳しく。
0596名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:07:51.50ID:kbyWGg61
>>592
丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。
0598名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:31:07.85ID:0fj+eXEr
初音ミクさん書きたい人向け

https://twitter.com/takei/status/1564990874974445569
「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
https://pbs.twimg.com/media/Fbf25agUsAI1YQv.jpg

ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
https://twitter.com/5chan_nel (5ch newer account)
0599名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:35:07.54ID:HChGsMsJ
Lexica改悪してね?…
画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか…
0600名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:40:14.16ID:3gxS4KDl
>>553
このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな

関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る?
0601名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:51:27.22ID:jgmbGcOX
ERNIEははやらんぞ
0603名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 21:56:15.01ID:jmQQ3ISX
ここの皆さん凄いね
よくもまあこんな難しい事を試行錯誤出来るものだ
しばらく待ってればワンクリックで動かせるツールが出そうなものなのに
何をそんなに生き急ぎ出力したいのか‥
0606名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:06:29.40ID:VIOIklKY
>>603
GANが騒がれた頃から待ちに待ってもう何年?って感じですし…
使えそうなモノが出てくればいち早く触りたくなるのが人情よ
0608名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:29:36.68ID:zkxvIGo9
>>607
一応学習が効いてはいる感じですね

ちなみに、256*256で学習する場合メモリはいくつ使って
何枚を何時間ぐらいで処理できる感じなんでしょうか?
0611名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:33:13.13ID:jgmbGcOX
>>607
A GPU with at least 20GB of memory
ってかいてあるけどうごくんだ
3090買うべきかなー
0612名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 22:45:36.03ID:tjCsJUxt
>>608
永遠にトレーニングするので処理完了という概念はなくて、いい具合になったら止めるんだけど、
>>607 で3時間経過くらいだったと思う
設定はあの後 num_workers: 3 に増やしたけど、これが 3060(12GB)の限界っぽい
0614名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:00:07.58ID:zkxvIGo9
>>612
なるほど自分で打ち切るんですね。ありがとうございます

あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか
0617名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:20:14.57ID:0fj+eXEr
>>616
全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。
0618名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:23:12.93ID:tjCsJUxt
>>614
タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ
0621名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 23:37:45.03ID:xftaGdXs
ESRGan方式じゃなく、ちゃんと情報追加しつつ1024サイズオーバーにupscaleするの来ないかなぁ・・
0623名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 00:11:11.94ID:Dpbs1qas
>>607
おもしれー
0632名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 06:28:08.17ID:BCtn7z/K
新海誠と竹内崇って絵柄全然違くね?
なんで混ぜるの??
0635名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 06:48:56.78ID:lgOdICSU
ファイーンを理解してしまった、これは確かにいい感じになる
どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな

promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした
個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは
0636名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:19:03.50ID:S+FMJdiY
いっさい人が登場しなくなる魔法の言葉教えてください!!!
良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます!
プロンプトの先頭に「Unmanned」って付けても全然効力なかった…
今後こういう「無人」とかを選択出来るようになればいいな…
0637名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:28:17.35ID:RstZ5bp4
MJなら--no human,man,woman,peopleとかで徹底的に潰すとか
SDはわからない、除去の方法あるんだろうか
0638名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:32:27.73ID:nrfoHCdz
無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/

>>624
重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー
0640名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:33:19.32ID:PaosEEpo
風景写真に人がいるかどうかってキャプションには載ってないだろうしなぁ
フォトショとかで消してimg2imgが現実的な気もする
0643名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:37:04.80ID:RstZ5bp4
>>638
重複というか、
技術系の話題だけじゃなく、CG板でAI生成で雑談したいって要望であえて後から建てられた
元々CGの未来スレってのがあったんだけど、スレタイ悪すぎて人が集まらなかったので
0644名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:38:02.29ID:fiS15HNo
ファイーンはどれぐらいの枚数でどれぐらい回したらいいんじゃろね
とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら
0645名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:39:12.15ID:S+FMJdiY
>>637>>639-640
SDです…
プロンプトに従わせる数値をMAXにして先頭に「no human」や「Ghost Town」を持ってきても現れちゃうので、
自分の中で思ってた「先頭に持ってくる言葉が一番強い!」論が崩れました…
0646名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 07:44:12.76ID:xMVcYvjc
言葉に関連付けられてる参照イメージに人がいるってことだろうから
SDだとマイナスとか「いない」、って指定はできないのかも
liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな
0648名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:10:55.09ID:S+FMJdiY
>>646
帰って再構築してやってみます!
あと単語一つ一つ消してどれが出現させてるのかチェックしてみます!
SDにもマイナス要素入ること願ってます!
0650名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:18:39.63ID:GPcBCrK6
ERNIE-ViLG試してみたけど
フォーカスが体の中心部分になるのが気になる
頭全体が映るように調節ってできるのかな
0651名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:22:42.61ID:NkZJNwdk
hlky版だと一応、マイナスウエイト対応していて、

city street:1.0, human:-1.0

みたいなことが可能です。

ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも?

注1
NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。
city street:0.5, human:0.5

注2
city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや
【city street, human:】が -1.0で処理されます
0652名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:50:22.09ID:6W9bI3rF
日本語対応したernie-vilgでナイスバディ出そうとしてるけど規制に引っかかって中々むずかしい…
乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい
むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな?
0654名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 08:57:10.17ID:nXijxibM
>>636
今のSDでネガティブな指定は難しいので
キャラが小さいなら inpaint 使えるフォークで inpaint + img2img で頑張って消すのが一番無難

>>650
>【city street, human:】が -1.0で処理されます
reddit でその動作が仕様みたいな話になってたけど俺も違うと思う
0655名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:04:58.30ID:V1m1VTx+
>>651
注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある)
0656名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:12:12.18ID:NkZJNwdk
>>655
あ、例が足してゼロなのでちょっと特異例でしたねw
でも 1.2 と -1.0でNormalizeすると、 6.0と-5.0になり、計算上はそうなんですがそういう挙動を望んでいる人はいないので注意は必要です。
まあマイナス数値入れるのにNormalize付けたい人はいないと思いますがデフォルトがONなので。

>>653
輪郭だけにするなら、Lineartとか入れれば線画になりますがそうじゃないですね・・・
画像加工ソフトで輪郭追加したほうが良さそうな気がします。
0657名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:15:29.71ID:8CMrPdN4
厳密には違うけどこのサイトと同じようなデータを参照してるので、
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/

例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方
0658名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 09:41:16.54ID:aeo3Gzkm
>>657
これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ
0659名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:02:19.86ID:Dpbs1qas
>>645
()で括ると強調されるらしいけど試した?
何個もいけるらしい(((())))
0660名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:07:22.06ID:swwcNo40
アップスケールテスト
hlky 2022/9/2

オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a

ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B

https://i.imgur.com/IzZ3k7y.jpg

アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが
0661名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:08:24.39ID:4lEisimr
人がいないシーン(廃墟や夜景)の指定や風景画ばかり描く人の名前入れるとかはだめなのかな
0664名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:20:37.10ID:Snqm6sco
何かがsoonらしいけどなんだろ
0665名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 10:41:18.80ID:sLe2yvaM
そういえば前からGFPGANとRealESRGANのモデル読み込みしない方がVRAM節約できるよって話があったけど試してみた
1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ
この差はわりとでかい気がする
0666名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:01:41.39ID:W2wFSCKV
おっぱいの画像作るのが日課になってしまった
中国のやつローカル環境で早くやらせて欲しいな
0667名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:06:31.70ID:fiS15HNo
グラドルファイーンするとグラドル感が強すぎてそこから応用効かせにくいかもしれない
あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど
0669名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:16:42.18ID:VFjmKM72
いろいろエロいやつ生成して見てたら、服とか下着がズレておっぱいポロンしてるのが性癖だったことに気づいて、AIに新たな扉を開かされてしまった。偶然出た画像だったけど、どんなワード入れると上手くポロンするようになるだろうか。
0674名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:39:47.33ID:lgOdICSU
上の検索サイトのsafe mode外してnip slipped girlで検索
ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ
0675名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 11:57:28.02ID:KVXfAJFA
tight(タイト)とかskinny(スキニー)ってやると体の線出やすい。ワンピースのドレスとか水着とか。
0680名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:01:44.19ID:VP2sST9f
>>667
人間のファインって顔だけでいける?全身?
0682名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:05:32.39ID:n18luKxL
ブラがめくれてポロリしてるのが好きなワイも通りますよ。こういう半脱ぎみたいなのはどうやればいいのか。
0684名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:13:45.04ID:mlCSxz/I
>>680
入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない
0686名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:22:48.28ID:VP2sST9f
>>684
なるほど、一応全身推奨って感じか
0692名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:44:33.05ID:Snqm6sco
>>691
intel AMD macの俺はいつになったら動かせるのか
0693名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:46:03.01ID:jlYzDRk2
待ってたクセに導入する前から既にAI画像生成に飽きてる
画像生成できたから何?みたいな虚しさを感じてる
0694名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:55:14.16ID:KVXfAJFA
映画や小説やゲームにもなった「ストーカー」ってSFみたいな
現実の時空間に非現実の時空間が紛れ込んできて
既知の物を未知の物にしていくって世界観が好きなので
風景写真とかメインでやってる。出来上がるの楽しみ。
0695名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 13:58:37.33ID:YHkIMMyi
CG業界の人が使ってるGPUは97%がnVidia
https://cgworld.jp/special-feature/8741e57cbd65aa6af072dfcb88b8d78fdae69a34.png

Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない

ゲームならRadeonでも遜色ないと思うんだけどねえ
0696名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:19:41.60ID:Snqm6sco
>>695
知らなかった‥4割ぐらいは居るんかと思ったわ
こりゃ待ってても来ないな
0698名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:23:38.45ID:l2pQFU4Z
SDやMJは言語処理にCLIP(テキスト―画像の埋め込み)を使ってるけど、
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと

https://i.imgur.com/q7uW8wn.jpg
https://www.youtube.com/watch?v=N6lJvkoku9s

「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」

みたいな言語を人間レベルで理解した画像生成ができるらしい

マイクロビキニを着た~とかも多分正確にできるじゃないかと思う
0699名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:28:10.80ID:Fu/zVfJs
googleはMJやSDとは文字通り桁違いのリソース使って学習してるんだから
そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな
地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな
0701名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:44:26.18ID:CBd8NfsT
woman worriorって入れるとやたらと脱ぎたがる
俺は真面目な戦闘シーンが描きたかっただけなのに
0703名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:50:30.47ID:4lEisimr
胸に鎧を付けてるって指定してもなぜか脱ぎだす
のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ
0704名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 14:51:52.74ID:CBd8NfsT
脱がしたいときに、nudeって入れると作画が崩壊するから
間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw
0709名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 16:47:46.17ID:eWKwVz6j
colab相当ストレスがかかってるのか、超頻繁にロボットじゃないか聞いてくるし
昨日から突然T4割り当ててくるようになった(pro)
他のクラウドは料金怖いしやっぱローカル環境欲しいな...
0710名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:04:49.97ID:O9BW2y9P
>>703
とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては
0711名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:32:42.17ID:UJ6cE4zz
>>709
ローカルで快適に生成しようと思って調べたけどRTX3000シリーズがほぼ必須みたいだね
やっぱ現状ではまだまだ金持ち専用のおもちゃって感じだな
0712名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 17:49:45.91ID:VP2sST9f
>>698
破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな
0717名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:21:33.63ID:VP2sST9f
>>716
なんでmuscular face
0718名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:25:22.96ID:KVXfAJFA
>>717
体のラインハッキリクッキリさせたかったからかな?
エッチな写真は自己紹介の口語文を英語に翻訳すると良いっぽい。
0719名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:27:50.58ID:EKdUfSwH
長めの呪文うつとディレクトリが無いって言われたり出力先の画像ファイルが無いとか言われたりしてたけど
Windows側のパスの文字数制限らしいことに気づいた
なんか起こったら怖いが長いprompt入れたいからレジストリ弄った
0720名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:30:40.32ID:YAaH78dh
>>714
captureとcaptcha読み違えたわ
4chanの人間認識システムを自動で回避するツールか
まあクソどうでもいいんだけど
0723名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:39:49.85ID:VP2sST9f
>>721
シンプルな方が化け物はうまれにくい印象
0725名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:46:15.97ID:EKdUfSwH
スク水を学習してないらしいからすぐ上のやつみたいに別の表現でスク水を唱えないと難しいんじゃない
0727名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 18:46:56.63ID:xMVcYvjc
オッサンがスク水着てる画像の学習度が足りないんだろうな
グラビアなどはまあまあ学習してるみたいだが
0729名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:17:53.14ID:KVXfAJFA
>>724
80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
https://i.imgur.com/kc23EFx.jpg

プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.


私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。

シード
574805382
0730名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:21:34.71ID:jWK87NOF
hlkyのColab版webuiGUIって一度か数回プロンプトのウェイト異常等でバグ画像が出たら延々とバグ画像が生成されちゃうのかな
プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど
画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった
通常運転に見せかけてバグ製造路線に上書きされてる感じ
閉じて構築し直したら直った
hlkyって一番高評価っぽいけどこういうこともあるんだな
0732名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:41:03.13ID:jWK87NOF
>>731
ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも
0733名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:43:39.12ID:MMx8Qi3g
hlkyのは同じ環境を何度も使い回すことで生成時の待ち時間削減してるし
機能は全部実験機能でバギーだから
一度落としてやり直せば改善するのならただのバグだろうね
0734名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:44:41.95ID:fiS15HNo
TIファイーンについてんぱかさんが記事出してたけど3~5枚ぐらいの方がいいて内容でよくやからぬん
とりあえず特定絵師5枚ミクさん絵で追試してみるけど
0735名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 19:53:02.63ID:MMx8Qi3g
embeddingってのはあくまでもAIのモデル本体にコバンザメみたいに新しい概念をくっつけるもんであって
本体ほどの色々覚えるキャパシティが無い
その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話

特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い

投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという
0737名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:03:11.23ID:fiS15HNo
今時点の手元でーただと実写30枚/10epochとアニメ5枚/8epochで
後者が明らかに特徴抽出失敗してる
ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど
0738名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:08:58.46ID:VP2sST9f
>>737
他を捨象した画像集められるなら多いほうがいいんかね
0739名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:11:47.76ID:v4aIq0zr
734の記事を試してみたけどcolabの知識がなさすぎてembedding_pathの指定で詰まってしまった
自分の環境ってGoogleドライブ等のこと?
0740名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:15:44.69ID:fiS15HNo
>>738
いくつか条件変えてやってみないことには結論でないんで
colab先生の機嫌にもよるけど来週末ぐらいなにかレポート出したい
0741名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 20:28:38.02ID:MMx8Qi3g
後StableDiffusionの場合AutoEncoder(Diffusionを経た後に実際に出力画像にするところ)はファインチューンではいじられないはずなんで
アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない
0745名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 21:42:36.73ID:U3kYsLmv
hlkyのwebuiのimg2imgの右のadvancedにある
①Variation Amount (0から1)
②Variant Seed (blank to randomize)
って使い方わかる?

loopしたら勝手にseedを足していくのかと思って
①を1にして②にSeed入れて3つバッチやったけど
同じseedの画像が3つ出ただけだった
0750名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 22:37:54.88ID:wmiOd1X2
結局大元のモデルが一番大事なんだよな
週末埋め合わせるとかいってたのは1.5のことでいいのかな?
0751名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 22:46:23.98ID:iIoS9uWJ
>>742
いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。
0753名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 23:08:54.28ID:0l/ggawz
>>745
>Variation Amount
元画像にどの程度の影響を与えるか、これが高いほど変化も大きくなる

>Variant Seed
元画像に影響を与える画像のSeed

ざっくり言うと「Seed 1から生まれる画像A」と「Seed 2から生まれる画像B」を「Amountの数値に従ってブレンドする」ようなもんで
Variant Seedを指定するならAmountを変化させないと結果は変わらない
(Variation Amountを 1 にすると画像Aが画像Bの情報に完全に上書きされるんで無意味)

例1)画像Aをちょっと変化させたい時→Variant Seed指定なし、Variation Amount 0.01
例2)画像Aに特定の画像の影響を与えたい時→Variant Seedを指定あり、Variation Amount 0.01~0.99

出力された画像のyaml見ればseed欄がVariant Seedのものになってるんで、何に影響を受けたかは後から確認できる
0755名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 23:22:39.70ID:U3kYsLmv
img2imgじゃなくて、txt2imgだった、ごめん

>>753
ありがとう!ブレンドするのか
mixとかblendとか一言英語で書いてくれてたらいいのに・・
実験のために左側の元Seedを空欄にしてたから変わらなかったのかな

でも>>748(リンクありがと)見る限り、あんま使えそうな機能って感じがしない
特に人体はただでさえぐにゃぐにゃになるのに、風景とかなら遊べそうかな
0756名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 23:39:19.42ID:4ovbDVGE
エロ関連この要素はこれやったら上手くいくぞとか情報交換したいけど
ちょっとスレの趣旨とずれるかなとも思うし成人専用の板じゃないからなぁ
それっぽい場所あったらそっちでスレ立てたらそれなりに人くるかな?
0757名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 23:42:13.69ID:0l/ggawz
>>755
より正確に言うとSeedAの持つ情報とSeedBの持つ情報をブレンドなんで
噛み合えば特定の要素を綺麗に発現させられる可能性はある
https://i.imgur.com/GKZ6p8h.jpg

まぁ人間には見えていない情報も活用されるんで思い通りには行かないが
Promptの重みを弄るののSeed版という感じ
0758名無しさん@お腹いっぱい。
垢版 |
2022/09/02(金) 23:45:40.88ID:Snqm6sco
>>756
むしろ一番盛り上がると思うぞ
0762名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 00:10:03.91ID:PHKlCLGG
>>756
じゃないけどたてるぞ
0763名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 00:14:53.20ID:xqs9lnic
Stable Diffusionのプロンプトで使える記号一覧と効果みたいなものが記載されているサイトなどありますでしょうか?
プロンプト掲載サイトを見ても『,』しか使われていない感じですが、
「実はこの記号はこういう意味で使えます」という裏技ありますでしょうか?

わかる記号
『,』 カンマ 単語や文章を区切る

わからない記号
『.』 ピリオド 意味や効果がわからない カンマの代わりに使っても問題無し??
『A|B』 縦線? Aが有ってBが無い場合と逆の場合の結果を出してくれる??
『(((A)))』 カッコ 効果を弱くする??
『!!!A!!!』 感嘆符 効果を強くする??
『A:数字』 ウェイト 相対的な効果の強弱を数値で指定??
『A +(B-C)』 数式 BからCの要素を引いた分をAに合体させる??
他にもある感じ??

という感じで全然わからないのですが、識者様お助けください!
0769名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 01:07:05.23ID:dcQSKjm4
背景であっても得意/不得意がやっぱり物凄くはっきりしているな
AIが認識しにくいお手本が少ない構図だとimg2imgでヒントを与えてもさっぱりだ
どいつもこいつも描いてるような君の名は構図的なのとか都市見下ろしとかは得意だけど
オリジナリティの強い構図はラフ食わせても全く理解できない
0771名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 01:22:44.79ID:yD9RQZTC
背景だと新海誠はローマ字でも認識してないか全然学習できてないくさかった
ジブリも駄目
男鹿和夫は認識してはいるらしくたまにいいのが命中する
日本人名だと浮世絵というか新版画というかのが荒ぶりやすいけど
0772名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 01:31:37.16ID:hmoxA2H3
>>719
img2img.pyいじった方が早い。
makedirみたいなところのファイル名の後に[:50]つけるとか。
自分はyymmdd_50字みたいにしてる。
0773名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 01:48:18.91ID:V02zKQR9
アニメ画像5枚/10epoch vs 30枚/10epoch
30枚の方はクリーチャーしか生成できない状態で5枚の方は人の形保てるし色合いは元雰囲気あるものの絵柄は再現せず
とりあえず枚数少なめな方がいい傾向があるのは分かった
0775名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 03:20:14.81ID:nVqI7Hr+
”””具体的な”””ってつけなかったらああなっちまうのね
だからdiscodeにしようっていったのにー
0776名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 04:18:44.75ID:3VRHtVkz
discordのことをdiscodeって言うのはなにが目的?
それとも別にdiscodeっていうサービスがあるの?
0777名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 04:28:26.47ID:LqC0C0nC
hlkyのvariation機能試そうとしてアプデしたら
webuiの連続最大生成数が250から50になっとる…
この数値ってどっかでいじれたりする?
0779名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 05:19:02.52ID:fOW+gK8F
ビジュアルプロンプト
https://twitter.com/arankomatsuzaki/status/1565505712494501889

この絵の加工例のように、他の絵も加工して!ができるぽい
輪郭抽出、カラー化、欠落部分の回復(インペインティング)、雪景色化、・・・

データセットとコードが近日公開になってるから、一般的にも使えるようになりそう
https://twitter.com/5chan_nel (5ch newer account)
0782名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 06:42:52.69ID:M8QSP27U
venvも使うようになったしだいぶ簡単になったのでまとめてみた。

Stable Diffusion AUTOMATIC1111版のローカル構築手順

1 https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
  で指定されているものをインストールする
2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip をDLして展開する
  使える人は git clone でも良い
3 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
  モデル(sd-v1-4.ckpt)をDLして model.ckp にファイル名変更して webui.bat と同じ階層に置く
4 webui.bat をダブルクリックで実行する
5 Running on local URL: http://127.0.0.1:7860/ の表記が出たらそのURLをブラウザで開く

●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth をDLして
webui.bat と同じ階層に置く

2. 省メモリ化オプション(VRAM 4GBくらいの人向け)
webui.batファイルの set COMMANDLINE_ARGS= の所に追記して set COMMANDLINE_ARGS=--medvram にする
--lowvram もある
https://github.com/AUTOMATIC1111/stable-diffusion-webui#what-options-to-use-for-low-vram-videocardsd
0784名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 07:25:05.14ID:ifn1BJbW
stable diffusionは58億5千の画像と文章を対応づけたLAION-5Bというデーターセットから学習させたそうだから、自前で同じようなことをするには膨大な計算が必要かも
0786名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 08:16:24.27ID:ifn1BJbW
>>785
参考元の画像を一枚とかは指定出来て、ザックリ下絵を描いてという使い方はされているみたいだけれど、
期待されているのは~風を追加学習させることだとするとまだ見かけ無いような
0790名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 09:56:01.69ID:NQ49L0UI
アニメ3枚/160epochだと過剰適応(過剰学習)でまたクリーチャーになった
epoch回せばいいてものでもないね、やっぱり

epoch26あたりがうまくいってたぽいのでそこら辺のSTEPデータ持ってきたらだいたい雰囲気は取れてたが
やっぱり元絵柄再現とはってないので現状SDのアニメ系のTI fine tuningは難しいぽい
アニメ系SDモデル来たらまた違ってくるかもだが
0791名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 09:56:21.86ID:RmqmTvrG
>>785
やり方は>>789
結果(効果)はtwitterとかで「ファインチューニング」で検索すればいくつかでてくる
0792名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 10:59:17.09ID:PeUhS9iL
>>790
そうかー
AutoEncoderまでアニメ系で訓練されたヤツがあれば小手先の学習でいけるようになるかもな
そうなるとファインチューン要るのかって話でもあるが

ただ、アニメ近日と言ってた例のツイートは、もしかすると動画(アニメーション)生成機能のことだったんじゃないかと思えてきた
0793名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 11:12:10.22ID:sBwsimD4
アニメ系のtextual inversionはバニラSDよりtrinart版の方がよさそう
0794名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 11:29:47.65ID:U2SUwU8f
アニメ絵はやっぱAutoエンコーダ自体がアニメ絵の圧縮・復元ができてないように思えるね
Autoエンコーダは食わせる画像が少なければ元画像は簡単に丸覚え出来るけど中間画像の破綻が酷くなる
食わせる画像が増えると中間画像を上手く合成できるようになるけど学習時間がどんどん増えていく
SDの学習はアニメ絵が少なくて前者になってるんじゃないかって気がする
mimicが元絵師の画像を完コピ出来ているのは食わせる画像がせいぜい30枚程度と少ない上に
元画像と極めて近い画像しか出さないから破綻が見えない、技術的には別に進歩していない
SDは多分著作権への配慮で(内部的には)丸覚え状態の元画像からなるべく離れた中間画像生成しようとしてるから
学習不足の絵では余計に破綻が大きくなるんだと思う
0796名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 12:33:18.03ID:wOO3w8/J
そうか?もうだいぶ飽きてきてる感あるけど
0798名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 12:37:22.95ID:JCLxIAd1
黎明期って感じ
0799名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 12:38:43.22ID:XKLSRNsv
Colab規制前にローカル構築したけど、流石に4GBグラボで640出せるバージョンはまだどこにもない感じですか?…
0800名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 12:44:03.03ID:aYG2OiKt
>>772
呪文の保存別ファイルに出きるし確かになと思ってやってみようとしたら
hlky版だとwebui.pyの、sample_pati_i周りだった

これでレジストリ元に戻せるや
0801名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 12:55:41.82ID:M8QSP27U
hlky側で作るパスは最大195文字くらい
Windowsの上限が260文字なので
設置ディレクトリが75文字以内なら大丈夫という方法もある
0802名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 13:39:54.07ID:eU1PacaK
ようやくバニラSD環境作ったけど既に周回遅れな気がしてきた
冬には皆フルHD画像出力してそうだな
0803名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 13:46:47.57ID:U2SUwU8f
Real-EsRGanはメモリ消費が少なくて極端な高解像度画像でも作れる、でも画質微妙
swin-irは超解像では最高の画質だけどメモリ消費多すぎて高解像度の画像が出力できないという本末転倒
それに比べてMJのファインスケールは高解像度が可能で単なる超解像でなくディテールそのものが増えてる
MJのこの技術だけやっぱ群を抜いて売りになってんな羨ましい
0804名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 13:55:48.73ID:jQmNLvMR
MJ絵はでかくて情報量多いから大人気よね、画像開いた時の見栄えが凄い
同じ土俵でSDの512とか見せられてもなんだそりゃってなるわ、面積1/4かそれ以下という
0805名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:02:52.12ID:7xPwNK+f
MJは--testと画像参照が同時に使えるようになればいいのに
画像参照だけだとまともにキャラを成さないけど--testだけじゃ色々きつい
0806名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:24:00.64ID:Rxz1Imjc
MJとSDの違いって使ってるマシンパワーの違いだけじゃないの
0807名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:34:47.52ID:U2SUwU8f
アーマードコア、めっちゃ効果あって笑うな
人体解剖図もプロンプトに加えてスケールをかなり強めにして数を試したら
結構手も破綻してないのが出てくるぞ
0808名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:44:38.53ID:ifn1BJbW
>>806
MJは味付け調整をしているらしい。
出力サンプルのをユーザーに見せて点数付けてもらうアンケートも取っていた
0809名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:46:45.06ID:zJJWZ2b7
SD一筋の人生だったけどColabに課金するくらいならMJに課金した方が良いんじゃね?…と気づいた
0810名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:57:11.94ID:PeUhS9iL
>>807
アレコレ試してるけどなんでアーマードコアがアニメ絵の顔に効くかは全く分からん
アーマードコアの二次創作で人物画描いてた人の作品でも食ってるんだろうか
これの顔の改善効果だけ抜き出したプロンプトワードがあればいいんだけどなぁ
0811名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 14:58:00.59ID:ifn1BJbW
stable diffusionは、上で教えてもらったファインチューニングや、前や後ろに処理付けたしとかで目まぐるしく変わっていきそう
0812名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 15:03:54.21ID:apLSxaam
automatic1111のcolab版がいつまで経っても来ないから自分で作ったわ
なお構築してるだけで制限された模様
グラボ全然使ってなくてもGPUモードで長く接続してると制限されるんだな、知らなかった
0813名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 15:08:29.45ID:AbY7U37k
SDはサイズ小さいのが個人的に一番辛い
出力後に拡大処理してもぐちゃぐちゃな細部が大きくなるだけだし
全然知らなかったけどMJの拡大と共に細部を生成するらしい技術良いな
MJは課金しないとプロンプトも絵も公開されるらしいから初日使っただけで離れちゃってたけどMJすごいな
0814名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 15:11:29.50ID:PeUhS9iL
>>812
あれお手軽に使えてるけど
実際は大量のコアとRAMを積んだGPUクラスタの1ノードの一部と、そこにぶら下がってるGPU丸ごと1つ接続中ずっと占有してるのよ
なのでGoogleとしては使う使わないは消費電力ぐらいしか関係無い
0817名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 15:40:42.57ID:ifn1BJbW
>>816
midjourney遊びはdiscordで他のユーザーのアイデアを見るのも楽しい。
stable diffusionは、プログラムで同じキーワードから20枚とか連続で生成させてその中から選ぶとかプログラミング出来る人達は色々な使い方を工夫出来そう
0820名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 16:38:35.84ID:apLSxaam
公式か公式に近いものでサンプラーの種類を選べるやつはないのかね
自分が必要とする機能だけを実装したコンパクトなものを作りたいんだよなぁ
0822名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 17:13:25.88ID:tbyQSmnr
midjourneyは色々スレみたいなのあるのも面白いね
毎日変わるお題に沿ったスレとか
ジャンル別やみんな一緒に一つの画像作ったりプロンプト開発スレとかもある
あとは自分の画像から勝手にアップスケールしたりバリエーション作り始められたり色々やり始めるカオスな感じも面白い
普通に勉強にもなるし
0823名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 17:28:00.09ID:8GqPhJ0/
そろそろ生成した画像が5ケタ行くんだけど画像整理に良いソフトない?
Windows11標準アプリに限界を感じてきた
0824名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 17:30:01.75ID:NhWcySXb
abobeのプランに入ってるならabobe bridgeがおすすめ
0827名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 17:55:07.80ID:wS4x0YSm
>>826
初出だと思う。サンキュー

これ例えば、「月ノ美兎」を学習させる → プロンプト:a photo of * でa photo of 月ノ美兎と同じ様になる
みたいなことであってる?

だとして、もう一つ「壱百満天原サロメ」を学習させたものとマージすると、プロンプト: a photo of * はどうなるんだろう?
基本が分かってない・・・
0828名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:09:49.32ID:Rxz1Imjc
>>827
学習データ二つ使うのはいまのところできないと思われる
少なくともhlkyの使い方説明はそれを想定してない
0830名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:12:41.53ID:wS4x0YSm
>>828
なるほど。
やはりそうですね。

TIPSに以下のようにあるからどうなんだろうと思った。

You can train multiple embedding files, then merge them with merge_embeddings.py -sd to reference multiple things.
複数の埋め込みファイルをトレーニングしてから、それらをマージしてmerge_embeddings.py -sd 複数のものを参照できます。

プレースホルダを変えてやればいいのか・・・。まあとりあえず一つでやってみます。
0831名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:15:43.82ID:LFz+VyKe
実写なら破綻が少ないならまず実写を生成させてそこからimg2imgで好きな画風に変換すればいいんじゃないの
0833名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:19:49.88ID:wxDuhNnd
windows11のエクスプローラーはまじでゴミだよなー
俺は閲覧にneeview使ってるけど整理向きではないかも

placeholderはembeddingをモデルにmergeするときに別の単語に置き換えられるってどこかに書いてた気がする
やったことないけど2つ使うこともできるんじゃないか?わざと同じにしたら融合すんのかな
0835名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:34:31.69ID:LFz+VyKe
SD開発者がなんで「オープンソース」でこのソフトを発表したかというと「AIを使うだけ」では搾取される消費者の側でしかないということだよね
つまり「AIを作る側」になれって言ってる
好みの絵が出ないならプロンプトをいじくり回してる間にpythonと機械学習の勉強してSD自体を改造出来る様になったほうが早いぞ
0836名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:38:00.64ID:POVXdLle
オープンソフトなのに日本にはサンプルプログラム説明してるイキリプログラマーしかおらん
本当に終わってるのは絵師じゃなくてプログラマー
0837名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 18:42:40.94ID:ksY6pbSL
github、日本人かどうか分かんないんだよなw
SDじゃないけど、作者含め3人でIssue議論していて全員日本人なのに英語で書いてたりする

hlky、automatic1111、basjindalとかのフォークはどれか一つになんないかなって思う
0838名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 19:27:43.43ID:NQ49L0UI
>>790
とりんさまモデルベースで再挑戦してみたが
謎の縞模様しか生成されなくなったのでもっと酷い結果になった
0839名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 20:04:16.70ID:NhWcySXb
とりんさまモデルって既存のmodel.ckptと置き換えればいいのかな?
0840名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 20:14:03.51ID:Tp6Stlyd
>>839
そうですね。
trinart_stable_diffusion_epoch3.ckpt をmodel.ckpt にすればとりんさま
sd-v1-4.ckpt を model.ckpt にすればオリジナルに戻る

だけですね
0841名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 20:30:36.22ID:NhWcySXb
>>840
ありがとう!
0842名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 20:30:57.72ID:U2SUwU8f
AIの時代に対応すべく俺も次にネットに上げる絵はAIで時短しようと思って作業してるけど
やっばムズイわこれ、構図とか細部がどうしても思い通りにならん
上手く出来た所を貼り貼りしてループバックして〜で下絵レベルに1日かかる
そこから線画、目の描き入れ、髪の修正、背景のブラッシュアップってなると普通に数日かかる
手で描くのと言うほど変わらんわ
0847名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 21:40:53.07ID:M8QSP27U
ファインチューニングについて思ったこと
・アス比無視して正方形にリサイズしてから学習してるっぽいので入力画像は正方形が良さそう
・入力ファイル名を学習中のプロンプトに使うっぽいのである程度正確にした方が良い?
0849名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 21:45:36.84ID:PeUhS9iL
k_euler_aはアルゴリズムとしては標準のよりさらに単純で誤差が大きいのにstepが20ぐらいで一旦見れる結果になるのが不思議がられている
恐らく誤差とかが揺さぶりとなって最適解ではないが局所解ぐらいにはジャンプできてるという話なんだろうけど
0852名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 22:56:09.92ID:NhWcySXb
>>851
ありがとう、上のレス見てなかったわ。
>>553のとおりにしたらとりあえず走った。
ちょっと放置してみる。
0853名無しさん@お腹いっぱい。
垢版 |
2022/09/03(土) 23:28:01.74ID:T+vDrj47
環境依存だけどwebui最新版入れたら動かなくなった
tkinterってのが影響してるみたい
frontend.pyからそれを使ってる行を全部コメントアウトしたら一応動いた
参考までに
0856名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 01:35:10.27ID:D2DXEsF7
DiscordでEmadさんの質問ライブやってて自由に質問できるけど、
質問の英語はわりと聞きやすいのに、Emadさんの回答の英語が俺には全然分からないw
0857名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 01:37:55.11ID:0J0xHnH5
>>18
最新版で scripts/relauncher.py が更新されたから省メモリ化の方法が若干変わってる

3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように変更
optimized_turbo = False

optimized_turbo = True



ちなみに既にGitを使ってインストール&省メモリ化してる場合は git pull する前に
git reset --hard を実行すれば git pull で更新できる
更新後は3の方法で改めて relauncher.py を編集
0858名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 01:47:27.00ID:1jQA52I9
M1Macに入れたら10分かかるから流石に無理だな
いずれもっと早くなるだろうか
Google colabは数十枚出すと規制かかるね
Windows買おうかな
0861名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 03:59:17.27ID:0J0xHnH5
hlky版に追加されたRefreshボタン便利だな
複数の画像を生成してる途中で押すとそれまでに生成完了した画像が表示される
途中で生成を断ち切るStopボタンも追加されてる
0863名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 05:51:17.68ID:2SFlIXQ6
reddit民「k_euler_aはステップ数による予測がわかりにくいので使いにくい」


うむ
0864名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 07:38:29.20ID:qhXXkwdk
hlky版、インストール手順がかなり変わってる気がする。
0867名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 08:24:51.20ID:qLZhpzc7
他人をバカにするためにこの技術に触れてるのか?
分かったらさっさと効率の良いおっぱい生成方法を見つける作業に戻れ
0869名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 08:46:59.24ID:2tWjR/gK
現在のAIがどのように画像を生成しているかはサイコロで解説するとサイコロを回して6を出しているのではなくAI1がサイコロを振って写真を撮りAI2がその写真の中から6の目が出ているのを選ぶというのを繰り返している
似たポーズばかりになるのはAI2が「横になった6」や「逆さまの6」を6と認識できないから
逆にサイコロではない「6と書かれた紙」が紛れ込んでもAI2はokを出す
0870名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 08:54:05.49ID:ryPdOZkl
女性の股間から舌や唇のようなものが出てる画像が結構な割合で出てしまうんだけど
少なくとも日本のエロ画等ではまず見ない表現だな
海外だとそうなのか?
防ぐための呪文があれば知りたい
0871名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 08:55:18.80ID:haWedOot
>>858
GoogleアカウントごとにGoogleColabを使える
一人で複数のGoogleアカウントを取得できる
同じマシン、同じブラウザで異なるアカウントのGoogleColabを利用できる

つまり…?

何百枚も出すとか、1回でGPU制限にかかるような処理はできないけどね
0872名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 08:58:26.48ID:GPG87k/8
普通に口元のアップとか指定してもちょっとしたグロ画像になる
こういうものが苦手なんだろうな
0873名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 09:07:25.82ID:2tWjR/gK
陰唇(英語でもリップス)をくちびると混同しているんだろう
見た目が似てるからかもしれないが
あと単純に学習量が少なければ上手く生成出来ないので真面目に考えれば裸の女性にいろんなポーズを撮らせて全部のポーズで360度から撮影した写真で学習させないといけないかも
0874名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 09:10:19.57ID:5JKyUupt
>>868
VRAM4GBのノートPCで動かしてるよ
GPUの性能次第じゃないかな
俺の環境ではk_euler ステップ20で512x512が1枚/30数秒
アチアチになるからクーラーガンガンにしないといけないけど
0877名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 09:23:50.29ID:qhXXkwdk
hlky版、webui.cmd実行後にブラウザが自動で開くように設定できる。
scripts/relauncher.pyの11行目をTrueにするだけ。
0878名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 09:58:15.80ID:OO+2RJ38
webuiからtkinter消されてた
webアプリケーションからシステムUIを呼び出すとか正気とは思えなかったんだよなぁ…
0883名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 11:47:07.61ID:Pr+AOdIT
絵が高度になりすぎると、コマ割りやセリフが多少変でもトータルで気にならないクオリティになってしまうし、見てる方も差異に気づけないから、ケータイ小説みたいな適当で良い気はする
0885名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:16:00.44ID:Hmj0RGNx
hlky、最新版にしたらimg2imgが動かなくなったわ
どうしてもこういうのがあるよな、この機会に乗り換え考えるか
0886名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:17:33.79ID:pVj2ux7/
https://github.com/basujindal/stable-diffusion/pull/103
Stable Diffusion リポジトリは、VRAM要件をさらに最適化するプルリクエストを取得し、8GBのVRAMで1280x576または1024x704のイメージを生成することが可能になりました。
512x512 の画像は、2.86 GB の VRAM が必要です。
0890名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:30:36.60ID:9RS5pd5h
最適化早いなー
この分だと1月もすれば全部入りツール出てきそうね

試しにpysideでアウトペイントのツール作ってるけど、GUI作るの果てしなくめんどくさい
待ってた方が早そう
0891名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:37:37.68ID:Sp1VTg1Y
>>871
おまえそれ本当にやってる?机上論できるっていってるだけ?
banされるんじゃね、colabやるとき電話認証必要じゃなかったっけ
0892名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:41:57.12ID:Hmj0RGNx
>>889
上書きはしてない、ちゃんと最新版になってた
どのコミットが原因か分からんから結局8/31版まで戻す羽目になったわ
0893名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:45:19.89ID:xR6XgMLo
>>891
いらないよ

何も知らないのに偉そうな人だねw
0894名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:46:07.98ID:NJ3o/DN8
Gigazineとかの馬鹿が広めるからColab複垢使用話はやめてくれ
ただでさえ一気に使用量が増えてグーグルが規制するの決定してんのに
0895名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:54:09.25ID:BA8X8WLf
>>892
> 上書きはしてない、ちゃんと最新版になってた
今回から内容が変わってるので、最新はメモリ最適化系はデフォでfalseになっちゃってるよ?
あと、動かないってのはなんかエラーが出るの?
0896名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:58:02.22ID:npLfRlct
本格的に匿名化とかしないと同一端末でアクセスしてるのモロバレだよ
Googleのサービス永久BANにでもなったら洒落にならん
0897名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:07:37.52ID:xR6XgMLo
まあ複数アカウントとかやらない方がいいけどね
面倒だし俺はやらんけど

同一端末からアクセスしたらダメって訳でもない
嘘は良くない
0899名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:10:11.13ID:Sp1VTg1Y
discordで1.5のBeta trialやってる
五日前から
0900名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:10:23.24ID:BA8X8WLf
> x, mask = x["image"], x["mask"]
> TypeError: string indices must be integers
は自分も出たな
cropをmaskに変えたら動いた
0901名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:22:50.96ID:Hmj0RGNx
>>898
マジか…何しても駄目だから旧版に戻してしまったわ
gradioと直近の何かのコミットがぶつかってたみたいだから
0903名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:46:59.37ID:7D1hfm5z
hlkyのそこら辺はとんでもなくバギーだからなぁ
恐らくモードを切り替えた時に初めて中身が入る変数を一度も切り替えてない時にも呼び出そうとして怒られてる
0906名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 13:55:48.72ID:LnPkFyju
バカはバンバンBANされればいい
0907名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 14:11:34.29ID:af7u80DY
ヴォルデモート版貼ってBANされるのは4chanだけなので…
0910名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 14:30:40.70ID:af7u80DY
普通に貼ってあるって言ってる904のことです
0914名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 14:45:14.06ID:HrkrXWYq
複アカコラボ!?それはひどい!
ま、まさか複数アカウントでGmailを利用してるような奴はいないよな?
0917名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:16:54.25ID:Pr+AOdIT
>>880
この人嫌い
承認欲求が溢れ出てる
AIが凄いんであってあなたが凄いわけではないだろうと
0918名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:20:32.61ID:Ji0ofKdL
>>880
これ見て、意味も分からず「漫画のコマ割りまではできるようになったらしいぞ」とか言って
他スレにURL貼ったりするやつが増えるんだろうな~
未だに大喜利AIを凄いと思ってる奴らと同じ層
0919名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:25:02.09ID:Ji0ofKdL
画像生成AIの衝撃冷めやらぬ今なら
「これもAIがやりました!」って言えば全部信じる奴がいくらでもいるから
そういう奴らを金にしようと模索してる852話氏はある意味実に正しいと言える
0920名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:30:10.92ID:40Skvoko
>>914
使ってるよ。別に規約違反じゃないでしょ
Colabリソース占有を目的として大量に作ったりするのはアウトだろうけどね
0922名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:32:43.40ID:Sp1VTg1Y
ハコニワのはなしはスレチ
0925名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:41:53.28ID:wBVYHSrh
ヴォルデモートのsdアップスケーリング試したけど全く別物になっちまうしこれならギガピクセルでいいわ
0926名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:43:28.90ID:Hz1uO1cn
>>921
それは規約ではなくFAQでは…
しかも複垢の話はなにも書かれておらず「読んでおいた方がいい」もなにもないという

ページ末尾の、29日に導入されるというコンピューティングユニットの話が気になるね
無料ユーザーへのリソースの割り当てが厳しくなるんだろうけど、具体的なことはわからない
0927名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 15:45:18.17ID:pDKGJRy6
>>926
マジか

>Colab のリソースは、インタラクティブなユースケースに優先的に割り当てられます。大量のコンピューティングに関連するアクション、他者に悪影響を与えるアクション、Google のポリシーの回避に関連するアクションは禁止されています。以下は、Colab ランタイムでは許可されていません。
>複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避
0929名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 16:27:35.29ID:HLmDZZfA
無料コースで複数アカウントはバンされると思うけど
有料コースで複数アカウントは見逃されると思うんだけど
0930名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 16:30:20.46ID:5qbX/wCK
>>886
最適化キタ━(゚∀゚)━!!
8GBで1024x704かー

12GBで1024*1024ならなんとか行けそうだなw

RTX3060買う予定なので12GBでなんとか収まってほしいw
0931名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 16:32:54.10ID:pDKGJRy6
>>928
何目的でSD動かしてるかによるが危ない橋渡らなくても他の選択肢は結構あるで

Craiyon(DALL-E mini): www.craiyon.com
ERNIEViLG: huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
とりんさま: twitter trinsama

無料でStable Diffusion: memeplex.app
無料でStable Diffusion: twitter halcky_2025/status/1562777470381617152
LineでStable Diffusion: twitter nishino_0719/status/1563739424617549824

URL貼れなかったから色々抜いたわ
0933名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:02:36.93ID:mOb44s/V
ernie-vilgのColabで良さげなの見つけたhttps://twitter.com/AIGirlsSelfie/status/1565534983967719426?t=YgifLpxlbCmTKP_xuVZtaA&s=19
けどこれ共有用って書いてあるんだけど、打込んだ呪文とかも共有されちゃうのかな?
呪文って客観的にみると恥ずかしい言葉がいくつか混ざってるんだよね…
https://twitter.com/5chan_nel (5ch newer account)
0934名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:03:13.79ID:Sp1VTg1Y
>>930
これ2.86 GB の VRAMで動くってどこに書いてある?
見当たらないんだけど
0935名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:13:29.83ID:MzYcb7UR
最近のイラストレーターはブスや老人が描けないと騒がれていたがAIが出来ても結局みんな美少女しか描かせてないというのは面白い
単に需要がないから描く必要がなかったってだけやな
0936名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:33:18.27ID:zYusn0fZ
hlkyからAutomatic1111に乗り換えだけど、生成時にReal ESRGANのアップスケールはできない?生成枚数はui.py書き換えて問題なかったけど、これだけが気になる。
0937名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:36:47.80ID:haWedOot
>>931
わかりやすいまとめありがとう。自分も3060買ったから届いたらローカルへ移行するつもり
それまで試してみます
0938名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:38:07.37ID:JhjrDCIK
M2 MacBook Proのわい高みの見物(´・ω・`)
0939名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 17:50:29.07ID:cPGt+buE
>>936
生成と同時は無さそうだけど、
Send to extrasボタン、Extrasタブ、Generateと3クリックでできるフローは用意されてるね
0940名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 18:29:14.16ID:JdnrOGRL
>>932
>>22,26,323

統一されてるかも怪しいので目安だけどね
40x0は2倍ほど速くなり、4070でも3090と同等以上らしいと聞くとあんまり今買う気はなくなるw

後、2080Tiで昔は7.3 it/s ~7.7 it/sぐらいだったのが、Automatic11111だと8.1 it/sぐらい出る。なんか変わったのかな
0941名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 18:41:50.10ID:zYusn0fZ
>>939
お、そんなのあったかと思ったら一枚ずつか……まとめてアプコンは外部ツール使わないと無理そうね、ありがとう。
0943名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 19:08:46.58ID:HLmDZZfA
>>940
最新の予想はこんな感じ

4090  24GB 450W超え
4080  16GB 340W
4070ti 12GB 285W
4070  10GB 250W

3060-12Gから乗り換えるとしたら4080(340W)以上か
ぐぬぬケースと電源から変えないと無理かも
0944名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 19:12:32.34ID:HLmDZZfA
ぶっちゃけ今の環境だと呪文考えたり指示画像いじってる時間の方が長い
もちろん出力後に加筆修正する時間もAIさんの待ち時間より長い

だからスピード自体はそんなにいらないけどメモリーだけはほしいんだよなぁ
0946名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 19:31:22.21ID:af7u80DY
Emad曰く3090があればしばらくは大丈夫らしいが
0948名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 20:39:49.77ID:RsdEr7/V
美麗な出力に寄与するワードとその強度のリスト誰かまとめてないかなぁ
アーマードコアとか効果あってホント笑ったけど
ジャパニーズ入れるとぶちゃいくになる悩ましいワード
0949名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 21:04:59.12ID:0wFGm1K9
ここ2週間酷使しすぎたのか、骨董品の1060がコイル泣きするようになってきたw
0950名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 21:16:27.94ID:qhXXkwdk
>>947
prompt例によく出てくる武内崇氏もFGOのイラストレーターだね。
0952名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 21:20:29.18ID:Hmj0RGNx
>>933
ERNIEはWEB-APIでリクエストしてるだけなんだから
露骨にサービス潰して使えなくするための攻撃サイトじゃんそれ
こういうのが横行するとcolabがますます規制されていくんだろうな
0953名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 21:26:36.60ID:SsekaLFV
低解像度と高解像度で同じseed回しても結果は違うのかあ…
低stepと高stepではちょっと違うだけだから低stepで欲しい画像のseed探し頑張るのがいいかな
0954名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 21:42:08.44ID:MzYcb7UR
pixivとか新海誠はpixivにある絵や新海誠監督の映画を直接参照してるというよりアメリカ人の想像した「pixiv」「shinkai makoto」のイメージを反映してると思う
日本人は現実のアメリカ開拓時代を誰一人として見たことないけど「西部劇」を想像できるように
0955名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 22:10:09.20ID:tr3rbsTE
>>940
見てなかったありがとう
3060tiのままでいいか

今ランドセル出力させようとしてるんだけどどうやっても通じる気配がない
0956名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 22:15:04.38ID:t5WHjtPA
Kyoto animation は2次元絵では割と強力に働く感じ。あとはkey visualも強い。京アニぱねえな。
0957名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 23:37:19.18ID:lkPX5/+n
>>956
もしかしてキービジュアルのキーをエロゲ会社のことだと思ってる?
0961名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 00:11:38.69ID:d3oEewjD
自分の顔写真をゴッホとか特定の画家が書いた風にするってやり方ある?
ゴッホとだけ入れるとどう数値変えてもゴッホと自分の顔をモーフィングしたみたいになる
「ポートレートby ゴッホ ペインティング」とか色々試したけどダメだった
0963名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 00:22:42.44ID:GDhLR30+
denoise strengthが高すぎるんだろ
0964名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 00:25:59.92ID:M1wHtjvG
redditに新しい最適化が来てるから試したが
colabの一番遅いGPUで1024x1024作れたわ

でも結果がおかしくなる
今まで可愛い女の子を出力したプロンプトが
頭3つになったりする

https://github.com/neonsecret/stable-diffusion
0967名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:02:35.90ID:M1wHtjvG
768x768は普通だけど
1024x1024からおかしくなる
0969名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:06:49.71ID:M1wHtjvG
512x768
768x512
までだな
人の形をたもてる限界
0970名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:14:34.12ID:v1+0PzR1
あ、頭がふたつ生えたりするのってそこが原因だったんか…
seedで普通に出たり2人になったりトーテムポールになったりするからてっきりpromptで二重に指示が入ってるからなんだろうかと悩んでた。
0971名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:23:20.50ID:wNgqRwHH
>>961
有名所ならSD使う必要ないよ
2020年あたりにメチャクチャ出たから探せば出てくる
「ゴッホ風 変換」で検索してみ
0972名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:25:31.66ID:qiCa8OdK
>>964
つかてみたけどI2Iで送信クリックしたら
RuntimeError: No CUDA GPUs are available
になるぅ…
0974964
垢版 |
2022/09/05(月) 01:28:35.43ID:IhbRYerN
>>972
コラボの設定
「ランタイム」→「ランタイムのタイプ変更」→「GPU」
0975名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:33:50.74ID:qiCa8OdK
>>974
ほんとだ!
いつもGPU設定して使ってたからデフォルトで設定されてるのかとおもたらこれ自分で設定するタイプだたのね!
ありがとございます!
0976名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 01:56:04.46ID:ptGlXiXq
一度画像参照で乳首出させたらNSFW警告くらって、ようやく画像参照なしで乳首生成まで至ったけど難しいなぁ
いつの間にやらbikiniもNGワードだし
0977名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:02:11.66ID:wNgqRwHH
>>973
どの画像も根本的にはプロンプトxサイズxシードxガイダンススケールxサンプラーxステップ数の全てが噛み合って出来た産物
出力サイズが違うならシードは参考にならないんでガチャ回すかプロンプトの調整が必至
0978名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:07:06.11ID:EfKaYxB6
640で良いと思ったプロンプトが1024に変わるとあれ?ってなるな
512と640でもなんか違うなと思ったけどサイズ違うと一から模索しなきゃいけない感じ
しかも1024なんてRAM的に1枚しか作れないから模索の時間かかりそう
サイズアップで単純に喜んでたけど、これは結構だるい道のりだわ
0979名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:15:25.20ID:GDhLR30+
>>977
512に超えると変な画像になるって話だろ…
0980名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:20:17.48ID:wNgqRwHH
>>979
元画像として貼ってるのは512x768で512越えてるやん
んでそもそも512x768で上手くいってんのも偶然の産物で
更にサイズ変えて生成してんだから「今まで可愛い女の子を出力したプロンプト」だのはアテにならんのでガチャ回し直しって話
0981名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:23:12.00ID:GDhLR30+
>>980
公式も片方が512ならセーフって言う理論らしいから
0982名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 02:47:31.79ID:Y6KGmWoY
その1024版てプロンプト最後まで読み込んでるのかな?
アウトプット見たらサンプルと書いてるから一部だけ明記なのかもしれないけどプロンプトの途中までしか出ない
いつも使ってる640で出力してもなんか違う
あと送信ボタンが下にあるの使いづらいなw
0984名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 03:19:46.20ID:aWFhX4Yd
hlkyのStreamlit版だと生成中にステップ毎の画像を表示できるらしく、入れてはみたものの4gbじゃoptimizedにしてもメモリ不足だった…

方法供養
https://rentry.org/GUItardのステップ2aで
webui_streamlit.yamlもconfigs/webuiへ移動する
ステップ7を終えたら、スタートメニューからMiniconda3 Promptを開いて以下を実行
conda activate ldo
cd C:¥Users¥ユーザー名¥stable-diffusion
streamlit run scripts/webui_streamlit.py

Email:が出たら空欄のままenterで起動します
0987名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 05:08:44.70ID:kel2IxsN
>>986
手順がちょっと古いね

> 「name:ldo」に書き換えて
webui.cmdの中で-n ldoとして強制指定してるので書き換え作業不要になってる
> 「All Users」を選択して
webui.cmdの中で %USERPROFILE%\miniconda3 も探索先になってるのでどっちでも良くなってる
0990名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 06:49:17.72ID:gvFojraf
>>964
VRAM8GBだけど普段よりデカい画像作れるね
dockerfile弄ってinpaint触ってるけどまだ使い方がよくわからん
img2imgと何が違うんだろう
0992名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 07:41:18.37ID:aWfqEhq/
>>991
おお!マジでこれで行かない?
荒らし対策にたまにバックアップだけしといて

ずらずらテンプレが続くのも煩雑だし
レス時間制限が面倒って立てたがらない人でも簡単になるし
変えたかったら変えといたよ~で次スレ建てる人頼むとか周知しなくても済むし
0993名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 07:50:00.40ID:ADvJz/z5
>>991
お疲れ様です! 私的メモも作ってみました。面倒だと思うのでテンプレそのままでもいいと思いますが参考まで

○言語ガイドによるAI画像生成の概要
・言葉(文章)を入力する(テキストプロンプティング)と画像が生成できるAI (txt2img)
・ベースになる画像を指定することもできる。 (img2ime)
・インペインティング:一部をマスクして書き直させることもできる
・アウトペインティング:既存画像の外側を追加することもできる
・ファインチューニング(textual inversion):自分独自の画像(自分のペットなど)を追加学習させることもできる。
 <各種例示リンクがないとわけが分からなそう>

○言語ガイドによる自動生成AI各種
 ・Dall-E2 OpenAIの元祖画像自動生成
 ・MidJourney 非常に綺麗な絵画的画像が生成可能
 ・StableDiffusion オープンソースで無料で使える。Webサービスは有料のDreamStudio
 ・Imagen Googleの最強画像生成。最強すぎて悪用懸念で一般公開されていない
 ・Parti 同上(Googleの別チーム)。Parti+Imagenも最近作られた

2021/1 DALLE-E,CLIP これが全ての始まり
2022/4 DALLE-E2 改良版
2022/5 Imagen 言葉を人間レベルで深く理解し絵画化できる
2022/6 Parti 英語→フランス語翻訳と、英語→画像変換を同じ処理(Transfomer)で実行
2022/8 Midjourney 非常に綺麗で絵画的な画像を生成できるサービス
2022/8 StableDiffusion 超低リソース化でPCで動く。オープンソース化

*Crypko(日本)や、ERNIE-ViLG(中国)もAI画像生成だが技術的にGANベースなのでこの流れではない。得意分野は異なる

クオリティランキング
1位 Image、Parti (一般には使えない)
2位 Dalle-E2 有料
3位 StableDiffusion 無料(Webサービスは有料
4位 MidJourney 有料。細部は甘いが絵画的で美しい
0994名無しさん@お腹いっぱい。
垢版 |
2022/09/05(月) 07:50:20.51ID:ADvJz/z5
StableDiffusionの今後
・2022/9/4現在モデル1.4 (4GB)だが、近々1.5(2GB?)がリリースされる予定
・Audioモデル(9月予定。内容不明)、その後3Dモデル、Movieモデル(内容、時期不明)
・2023第1四半期にはモバイル版(100MB?)もリリースされる予定

・今後の技術
ビジュアルプロンプティング 2022/9/1発表。ソースコードも公開予定
https://twitter.com/_akhaliq/status/1565512090823041025

Q&A
・AI画像は人体(特に手足)がおかしい
 → 現時点ではそのレベル。今後ある程度は改善すると思われるが今はインペインティング、img2imgでガイドするなどで対応するしかなさそう。

・AI画像、思い通りにするのが大変で実用的ではないのか?
 → 現時点では用途は限定されると思います。いつ改善されるのか不明

・AIって画像をコラージュしてるの?
→ 画像のツギハギではなく、数千万枚~数億枚の画像を学習して数GBなどの生成方法(=モデル、特徴を圧縮したようなもの)にしています。容量的にもそもそも画像は入りません。
 ロゴや署名のようなものが交じりコラのように見えることはある。学習不足

・権利・法律関連。イラストレーターはどうなるの?
→ 他スレでお願いします。
 参考:画像自動生成AIと著作権 https://storialaw.jp/blog/8820
https://twitter.com/5chan_nel (5ch newer account)
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 6日 15時間 19分 55秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況