【Midjourney】AI画像生成技術5【StableDiffusion】
■ このスレッドは過去ログ倉庫に格納されています
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/ >>705
やってみた
A hen laying (((((eggs))))), sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/hCERByG
なんか思ってたんと違う
なので今度は後ろだけ減らしてみた
積まれてる卵が減って目玉焼きの上にフライドチキンが現れて面積が減った
A hen laying eggs, sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/yJ7qyLK
この辺はもうCLIPさんに聞くしか制御できないかな
>>706
そのアイデアで後ろの「,」を一緒に囲んでみた
https://imgur.com/undefined
A hen laying (((((eggs, ))))) sunny-side-up fried eggs, on the table
見事期待通りの画像になった! 下手に減算とか考えちゃダメなのか。こういう括り方のコツも結構重要だよね… しかしフライドチキンはどっから湧いてきたんだろうか…
卵を強調したら育ったのかな? フライドエッグ…なるほど唐揚げね!
みたいな謎連想ゲーム的なことありそう >>706
コード見間違ってて
トークン直接じゃなくて括ってる文字列から取得するident値を使ってた
なので一文字でも違えばいいみたい
トークン分割後に同じ文字列になった場合両方に影響が出る
多分覚えてても役に立たない豆知識 SDだけじゃなくMJでもよくあったけど
black hair girl in white bikiniで黒いビキニになりまくるアレなんとかしてほしい
どこがどこに掛かってるのか black wingsって書いて黒い翼が出たことない
みんな黒髪になる そんな構造になってないはずなんだけど、どうも連想ゲームしてる感じはあるんだよなあ。
黒ビキニってのを学習しすぎて、ビキニといえば黒ですね! 白? 間違いでしょう。みたいなw たぶんだけど、潜在変数に人間が望んだ特徴の分類が入ってなくて、
ビキニ(着る物)と黒(色の名前)で分類されて欲しいのに、両者のベクトル距離が近くなってる
とかじゃないかなって予想
アーティスト名で構図から人間の有無からと絵そのものが変わっちゃうのもたぶん同じ理屈じゃないかな
声質変換とかTTSとかでその辺うまく分類してくれないかって苦労した気がする
でもVQ-VAEの登場で、情報量を大きく制限することによって声質に関係しない発音情報のみを取り出せるようになった
おかげで声質と、発音記号に特徴を分解できるようになった
まぁSDで同じ理屈が通るかというと、わからんけど
あとただでさえモデルでかいから計算コスト高いモデルは採用できないって問題もあるか -で括ったら一つの意味で他のトークンには関わらないみたいなこともできるようになると助かるね。 white bikiniだと「white」と「bikini」ってふたつの単語があると考えちゃうからな
bikini is whiteにしてやると「ビキニは白」ってなってくれる
でもbikini color is whiteだと「ビキニ」と「色が白」のふたつになることある
girl at bearch, bikini is white, hair is black
https://i.imgur.com/ndp7kWL.png
あれ。ビーチはrいらなかったかな。どうでもいいけど >>724
それは黒髪より前に白ビキニ置いてるからでは?前優先ってやつ
girl at bearch, hair is black, bikini is white
https://i.imgur.com/Ymk4Ke1.png
関係ないけどimgurにchunk付きで上げても消えちゃうんだね
PNGサイズ同じだから再圧縮してないのに 昔、写真のタグとかexifに連絡先乗っける売春が流行ったらしいので、それの影響かもねw >>678の呪文をちゃんと絵を出すつもりのpromptに追加して100回回してみた。
https://imgur.com/undefined.jpg
握りこぶしでごまかされてる感がないでもないが、まあまあの成績ではなかろうか。 ロリ白レオタードをミュシャに合わせるとか禁じ手中の禁じ手だろ・・
というかこんな体綺麗に出るのか、やっぱ体操種目だから全身の学習画像が豊富なのかな >>728
>686もややあやしかったが性癖についてはどうこう言わない、が>728はプロンプトを知りたい
人体が破綻していなくていいし手もなかなか
筋肉質なのは指定したからじゃなくて、体操選手だから自然にそうなるのかな >>733
Prompt: full body of <主題>, (((intricate human hands fingers))), modern style, by greg rutkowski and alphonse mucha, d & d character, gradient white to gold, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers)))), (((portrait)))
ですね。たまたま体操選手を主題に入れただけなんやで……。
modelはtrinart2_step60000.ckptを使用 やっぱ結構凄いことやってるよね・・間単には出ない絵
852なんて目じゃない >>732
早速回してきた! 概ね、期待した感じのUIだったけど、ちょっと意外な落とし穴もあった。
顔の周辺を繋げて貰おうとすると、「肌色成分が多いのはいけないと思います!」って言われて、真っ黒にされるw
これはチェックをはずさんとダメだわw
あとは動画ほど綺麗なつなぎ目にはならない。雑コラっぽい感じだけど、多分、調整でなんとかなりそう。
元画像
https://imgur.com/EBLiADe
拡張しようと頑張った画像
https://imgur.com/SbagXpN
肌色成分が多いところは容赦無く墨塗られるw これは改善可能。
つなぎ目はやっぱりちょっと怪しい。promptとCFGやSTEPで改善出来るかな?
けど、成熟したら、かなり使えそうだわ。 グレッグさん、アルフォンスさん、ジェレミーさんは入れておけば間違いない。
このプロンプト、<主題>に fire dragon とか入れてもミュシャとD&Dキャラクターの力で人化するから楽しい。 >>734
デフォルトのckptでさっそくやってみた。手はひと目見てダメというのはないみたい
主題はteenage witch girl
https://i.imgur.com/P49Pb7w.jpg >>737
自分もやってみた
オリジナル https://i.imgur.com/lO5Ea6W.png
800x600に拡張 https://i.imgur.com/yK1W5Zu.png
左下がやや不自然だけど全体的には悪くない…が足を伸ばすところはもうちょっとがんばってほしかった
出てきたのをアンドゥできないのがつらい
あと枠の移動が重いのも(Chrome使用)つらい。「Outpaint」の左にあるキャンバスのアイコンをクリックしてから画像をドラッグすると全体をスクロールできるんだけど、これも動作がきわめて緩慢なので忍耐力が試される
この画像じゃないけどやっと残り1つだ、となってからNSFWで黒塗りにされると悲しい。肌色どころか人体ですらない風景だったのに 1111のoutpaintingとの違いとかってある感じ? >>741
それなんだけど、UIは確かに拡張したいところを指定して実行、となっているけど
出てきた画像を却下してもう一度お願い、というのができないと1111版のOutpaintingと結局は同じかなと思った
1111版に「Outpainting mk2」が来てる。試してみよう試してみてね 最新版の1111を入れてやるかーと思ったら三分前にまた更新されてて草
モデルが選択できるようになった? https://lexica.art/で単語検索しても全く関係ない絵しか出ないのなんなんだろ
プロンプト見ても検索した単語が使われてない >>745
検索バーの右の調整ボタン押すとプロンプト検索か、意味検索的なやつかで選択できるよ
画像の類似検索ができるようになった都合で新しい検索方法がデフォルトになってる >>742
なるほどな、ありがとう
新しいアウトペインティング試してみるか~ >>746
そんな変更があったのか!
ありがとうございます >>692
MJ]は課金ガチャだから、明らかにおかしい画像をはじく仕組みが強めに働いてるんだろね Mark2、ステップ数をやたらでかくしないとまともな結果にならないんだけど
そういうものなのか? アウトペインティングはつなぎ目を自動修正できないのかなぁ >>709
中々面白い検証ありがとう
「,」は文章の意味とか、単語の関連性に断絶を与えるトークンなので、()で強調しまくると断絶がよく効くような感じやね >>749
おお、いいね。まだ帰れないから試せないけど、やり方は以前と同じ? アウトペインティングすげーって思ったけど
肌色成分が公官庁の開示文書みたく黒塗りになっちゃうのか
1111先生に頑張ってもらうしかないな ときに昨夜から1111版でSD upscaleすると絵が黒ずむんですけどなんなんすかね……
https://imgur.com/S0981wQ.png >>754
拡張サイズの入力はできなくて、方向をチェックすると勝手に拡張されるようになってる。
値の設定はscriptからoutpaintink mk2を選ぶと
Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8
と書いてある。 アウトペインティングは人物をどこまで自然に拡張できるかを最も重視してる
人物がいい感じに拡張できるなら背景はまあどうでもいいわ >>757
あれ、ちゃんと拡張するピクセル数とかMask blurを入力する場所あるな?
さっきはなんで見逃してたんだろう。
なので、Poor man'sと変わらない。
↓この2つが増えてるけど、まだ調べてないので何なのかわからぬ。
Fall-off exponent (lower=higher detail)
Color variation Fall-off exponent (lower=higher detail)
これは、拡張する部分をどのくらい細かく描き込むかの設定か。1からぐいっと下げたらめっちゃ描き込みされたw
https://imgur.com/LkGesQL.png
Color variation
これは、元の絵の色からどのくらい変化を許すかの設定か。
数値大きくしたら顔が真っ赤になったw
https://imgur.com/gmDvh5Y.png
拡張するサイズが大きすぎると、追加するパーツもでかくなる傾向がある……気がする。
↑顔でかくね? 自分ではまだ試してないけど、OutpaintしたいならKritaのPlugin使うのどうかな
1111から作ってるぽいしレイヤーになるから取り消しもできるような >>756
わかった!Settingsで "Apply color correction to img2img results to match original colors." にチェックが入ってるとこんななるんだ(うちの環境では)! >>728,734
4chanに貼ったらかなり好評だった… ID:gisD6INd
色々ありがとう、参考になる
mk2デフォで拡張したらノイズしか出なくてなんのことやらだった
>>757
>値の設定はscriptからoutpaintink mk2を選ぶと
>Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8
>と書いてある。
赤字にしてくれたら気づくのに・・ SD upscaleはプロンプト使って描き直しするから、最初顔とか小さくてつぶれ気味になっててもきれいになるんよ。 使いやすい4chanビューアとかってある?
向こうの情報も追いたいんだけど見にくい >>704 >>709
辺りはテンプレ入りしてもいいレベルだな
Outpaintの進化も早すぎて1スレ消化し終わるころには別物すぎるだろ・・・ 初心者すぎる質問で申し訳ないんだが…
1111のcolab版を使おうと思うんだけど
ckptファイルは毎回ダウンロードが必要なのかな? colabは接続解除する度に全部消えちゃう仕様なので原則必要。
ただドライブに放り込んでおいて、そっからcolabのフォルダにコピーするのもあり。
けど、その手間はやっぱ必要。
全部ドライブにインストールするってのもてだとは思うけど。 ドライブにmodelとnotebookと同じ階層に入れておいてドライブにマウントしてディレクトリ移動じゃ駄目なの 1111のアウトペインティングMK2やってみたけど、やっぱツギハギみたいになるなぁ…
kritaのアウトペインティングもそうだったけど…
この「そうじゃないんだよ…」感を払拭出来るアウトペインティングの実装には結構時間かかるんかな >>780-782
なるほど、マウントか
調べて試してみます。ありがとう ここ2,3日あんまり熱心に見てなかったけど、モデルはこんな感じかな?
(学習枚数=クオリティではないと思うけど一応書いておいた)
○オリジナル モデル 1.4
LAION-2B-en 23億枚学習 ※詳細は公式参照
○とりんさま: 1.4ベース + アニメ・漫画系 8万枚追加学習(v1) + 1万枚追加学習(v2)
https://huggingface.co/naclbit/trinart_stable_diffusion_v2
モデルを入れ替えるだけでOK
○waifu: 1.4ベース + Danbooruイラスト 5.6枚追加学習
https://huggingface.co/hakurei/waifu-diffusion
モデルを入れ替えるだけでOK
○日本語版: モデルは1.4とは関係なくゼロから学習されたもの。コードも別のものが必要
https://github.com/rinnakk/japanese-stable-diffusion
stable diffusionのコード(ただし日本語のトークナイザ)で1億枚学習
コードを StableDiffusionPipeline → JapaneseStableDiffusionPipeline に修正すれば動く?? outpainting mk2、同じprompt、同じseed与えてもなんか変
rightだけうまくいってるように見える
https://imgur.com/a/GYANwxm 特定の絵師のイラスト6枚でTIしてみた
TIの設定はまだ模索中だけど生成にあたってはプロンプトを目的の絵柄に寄せた上でTIした単語を重ねると良い感じ
この場合プロンプトにloliを入れた上でTIを重ねると絵柄がかなり似た
TIなしとTIあり
https://i.imgur.com/HhEw96m.png
https://i.imgur.com/EdnadSD.png
https://i.imgur.com/YneUHpB.png
https://i.imgur.com/Gqfzj2Z.png sdくん、ケモミミに花つめこむのやめて、、
>>785
ここに含めるかは微妙だけどオリジナルとwaifuの合いの子>>214もある >>787
右がうまくいくseed、左がうまくいくseed、両方がうまくいくseedといろいろあるんじゃね?
>>788
TIもそのうちやってみたい……うちのGPUは3060だけど なお、両方がうまくいくことはまれなので、片方ずつseedガチャ回すのが吉 >>728
こういうのlatex(ラテックス素材)とかやると良いよ ×やると良いよ
○できればやってください
×広めてくれ
○是非こちらにいらしてください >>792
女子体操はエロじゃないノデ。健全だよ?
translucent bodysuit とかがいいですヨ。
https://imgur.com/8F4CwYp.png とんりさまはv2は3つあるからそれぞれどう違うかは情報欲しい このスレの魔術師のおかげで4chanも賑わってるよ 以前やったやつ、左手が右手になってたの気が付かなかった
https://i.imgur.com/PI9GWNL.jpg
Glamour body shape, big boobs, huge tits, big breasts, light Brown hair, Wear glasses,
16 years old, kawaii japanese girl, Pink powder is sprayed directly on the naked body
so that it becomes the shape of a one-piece dress,Wearing a pink latex miniskirt,
both Hands behind the neck, show both armpits, stand in future city, あっちから輸入じゃなく、こっちの人が輸出してるの? しかし改めてスレ見ると美少女画像率高いな
たまにはイケメンを生成する呪文も研究してあげて >>788
ベースモデルはWaifu?とりんさま? >>802
入れたり出したり、貿易しているのです
まあそもそも4chan自体日本文化と日本の某掲示板をリスペクトしてる人が作った掲示板だしな、日本との繋がりはまあまあ深い >>806
Waifu
https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
このcolabを使って学習
what_to_teach=style, Initializer_token=girl, training _rate=7e-04, train_steps=10000
学習元の画像は髪の色とかのバリエーションがついた同じ絵柄の絵を顔付近だけクロップして512x512に揃えて用意するのがコツらしい
今はここから更にステップ数を上げても効果があるか試してる ■ このスレッドは過去ログ倉庫に格納されています