【Midjourney】AI画像生成技術5【StableDiffusion】
レス数が900を超えています。1000を超えると表示できなくなるよ。
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/ Textual Inversion でゴンさんを学習させたら、1単語入れるだけで全部ゴンさんのオーラになってしまうようになったが、
hatsune_miku, [background:gonsan:0.4]
みたいなプロンプトなら無理やり抑制できんこともないな。
https://i.imgur.com/3wPh3j4.png
https://i.imgur.com/4k539Md.png
https://i.imgur.com/30iKrPt.png 月って言ってるのに建物のこっち側に出現させるSDちゃんバカかわいい…… 機能追加が早すぎてちょっと離れてるとフォローアップめんどくさいな
解説youtuberとかいればいいのに 既出かもしれんが
9月26日にWaifu Diffusion v1.3がリリースされるみたい
(discord情報)
- モデルをどのようにプロンプトするかという点で、はるかに優れた柔軟性を持っています。
- より多様な出力が可能
- 高解像度画像の顔や細かいディテールをよりよく捉えるために、微調整されたVAE。 >>809,814
やるじゃん
全然見ないだけでちゃんと生成できるんだなあ モデル非公開だけどとりんさまキャラクター版は認識キャラ広いからWaifuもそこらへん強くなってるといいけど >>808
placeholderplaceholder_token とか空欄のままなのか?
デフォ3000ステップなのに1万回にするとか念入りだな
これでwaifu用の差分トレデータを作って同時に読み込ませて使うって事だよな?
画像はURLでしか指定できないのか?トレ用の画像や生成トデータは全てclab内だよね? Docker版のSD-Webui
GitHub - AbdBarho/stable-diffusion-webui-docker: Easy Docker setup for Stable Diffusion with user-friendly UI
https://github.com/AbdBarho/stable-diffusion-webui-docker Midjourneyで三国志の武将に自撮りさせる|あずみの
https://note.com/lectin/n/n1f4a14f80bb4
面白い。MidjourneyはStable Diffusionよりいい絵を出してくる確率が高いのかな ↑Midjourneyはいい絵を出してくる確率がStable Diffusionより高いのかな、という意味です 一般的に言って学習は回数増やせばいいってもんでもない
特にデータ数が少ない場合は過学習になって学習させたデータそのものに寄り過ぎるから トレーニング時や生成時のステップ数は似た感じだよな
回数増やし過ぎても奇形に化ける事もあるし・・・
要素の少ない数枚のサンプル画像でステップ数抑えるのが一番良さそう
トークン縛りとか一気にアレコレさせるのには不向きだよね >>822
画像の枚数増やしたり学習率上げたりすれば上手くいくのかもしれないけど自分の場合は3000だと良い結果が得られなかった
取り敢えず画像はimgurにアップしてurl指定してる
生成データはbinファイルでcolab内に出力されるからダウンロードして1111版で読み込み >>828
サンクス、3000では足りなかったのか・・・萌えは奥が深い
ローカルの画像を投げられないのが少し不便だね
トレーニングもローカルで出来たら良いのに
・・・と思ったらGPUの消耗が画像生成の比じゃないか ネガティブpromptやっぱ良いな。バーズアイの鳥さんも綺麗に消えるしw Midjourneyは極端に崩れない様にテンプレみたいなのがあるとは聞いた
SDはオープンソースでトレーニングも大手企業じゃないからジャンク感が出る事があるね
>>828
ネット経由だとエロ目的のピーッのトレーニングは無理か?!
流石に一時的とはいえ無修正をアップロードはなぁ・・・ >>830
メモリが最低12GBと聞いてcolab pro入っちゃったよ
あとplaceholder_tokenは<絵師の名前-style>でやってる
1111番はプロンプトに<学習済みデータのファイル名>を入れてデータを呼び出せるけどplaceholder_tokenはそれとは別に内部で使われる名称っぽい
同じplaceholder_tokenを持つデータがいるとファイル名が違ってても使用時に混ざる ○SDをPytorchからTensorflow(keras)にコンバートしたバージョン。(モデルもコンバート済)
https://twitter.com/divamgupta/status/1571234504320208897
M1 Macだと4倍高速になり必要メモリも少なくなる、らしい。
Geforceだとどうなのかが気になる(試すの面倒くさい)
○Blender用テクスチャ生成アドオン deam-texutres
https://github.com/carson-katri/dream-textures/tree/0.0.4
開発者はM1 Macで開発/検証したらしいけど、Windowsでも普通に以下の3ステップで使えるようになる
・zipインストール
・プリファレンス>Dream TexturesからInstall dependencies
・model.ckptを配置
シェーダーエディターからダイレクトにプロンプトでテクスチャ追加できる&シームレス化どうかを随時切り替えできるのは便利
512x512のテクスチャ生成で、Max VRAM 3.35Gとかになる。なんでこんな少ないんだろう
https://twitter.com/5chan_nel (5ch newer account) 1111版をcolab上で使ってるがweb uiが不調。生成する枚数増やすと反応なくなる そういえば1111版でmodel切り替えたときに、出力した画像がどのmodel使ってるかの情報はpngファイルに書き込まれてるん?
うちは自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてるんだけど、実行時model切り替えを使うのどうしたものか。 >>838
作ってる人とコンタクト取れるわけだしissueにそういうリクエスト投げるのも手よ SettingsでAdd model hash to generation informationにチェックが入ってれば
Images filename patternをいじればファイル名のモデルのハッシュ値を含めることも可能 >>834
最適化版やろうとしたけど環境構築うまいくかなかった
だるいな 通し番号がファイル名の先頭に来るから、tag名でディレクトリ作るわけにはいかないんかなこれは。
まあ、現行の運用でいいか。 >>838
> 自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてる
これどうやってますか? 起動時にそういうオプションがあるのかな
起動のたびにsettingsの各欄を書き換えるのは大変だなあと思っていました >>843
うちはsingularity(dockerと似たようなもの)のイメージを作ってあって、インスタンスを起動するときにインスタンス内にバインドするディレクトリとmodelファイルの組み合わせでシェルスクリプトを複数作ってます。 標準のディレクトリ・modelファイルをシンボリックリンクで作っておいて、起動するたびにシンボリックリンクを作り直せば同じような感じになる……かな? >>825
MJでgirlだのpencilだの「だけ」入れてもやたら絵画的な絵が出るのでわかると思うが
内容に絵に合わせて勝手にあれこれ調整や修飾を付け加えてる疑惑がある
もちろん働きアリとしてのユーザーを引き留める目的で
引きの人物が自動的に後ろ向きの肘曲げポーズになる「潰れた顔&手隠し」実装は有名
https://www.cnn.co.jp/storage/2022/09/07/7d644ce9d7add9ccf5cb25d4d40ae69c/t/768/432/d/thtre-dopra-spatial-ai-generated-art-super-169.jpg
こんな絵ばっかでしょ?お釈迦様の手の上 実行速度最適化のmodule.pyの修正が1111の最新版だとぶつかって
上手く動作しなくなってるっぽい、何か情報ある? >>843
outputsフォルダを、今から使おうとしてるモデル用のoutputsフォルダのショートカットにしちゃえばいいのでは?
: 既存のショートカット削除
rmdir outputs
: ショートカット作成
mklink /j outputs outputs_モデル名
みたいなコマンドをwebui-user.batの最初の方に追記する。 無料colabでTextual Inversion学習させたら、数時間でGPU制限に行ってしまった。
このGPU割り当てられない制限ってどういうタイミングで解除されるの?まえになったときはいつの間にか解除されてたけど。 >>847
repositories/stable-diffusion/ldm/modules/ を更新するやつなら問題なく動いてるよ
1111のバージョンは今日の13:44版 >>850
無料でチマチマやっとるクチで色々見てみたが
無料のcolab制限解除は時間幅が広すぎて何とも言えん
6時間とか言ってる所もあれば12時間と言ってる所も見かける
因みに俺は15日の17時半くらいに制限食らって昨日丸一日は制限で使えなかったわ >>852に追記すると、今試しに繋いでみたらまだ制限掛かってら… 無料colabを初心者に勧めてくる奴自身は大抵有料使ってるという齟齬
GPU制限もそうだけど、裏に回しても動くって有料verを際立たせるために
いちいちcaptcha出してくるいやらしさがうざくてやってられん colabのキャプチャは有料版でも出てくるよ。
しかもセルのソース触ってる真っ最中にw
無料の制限解除タイミングは非公開だからいつ解除かはさっぱりわかんない。
どっからでも遊べる利便性があるから、まあ月1000円ぐらいはアリかなって感じ。
流石にpro+まで行く気にはなれないけど。 >>788
この後更にいくつかの設定で試した
参考にする画像によって最適な設定は変わるかもしれないけど現時点だと
Initializer_token=girl, training _rate=8e-04, train_steps=10000
が1番元絵の特徴を捉えてる
15000ステップは過学習気味でダメ
10000ステップが多過ぎる可能性もなくはない そういえば、有料版colabのGPU総量制?移行はもう来週か。無料版は使いものにならなくなる覚悟をしておいたほうがいいな。 3090Tiは……って思ったけど、ちょっと前に最安20万切ったのに今はクッソ高いのなw 少なくとも12GB以上のは欲しくなるな
普通に使う分には8GBでもさほど困らなくなったが、新しいことをやろうとすると制限に引っかかることも多い >>857
どうなんだろうね
需要が増えて設備を増やすなら、余剰時間も増えるわけで、無料が使いやすくなる可能性もありそうな気がする
単に無料でやりたい人だけ増えたならそうならないけどw 4090性能リークによるとcudaコア数は3090の1.5倍だけどメモリは据え置き24GBか
SDユーザーとしてはメモリ欲しかったとこだよな VRAMはバッチで大量同時生成やるのでもない限りそんな要らんような・・
最底辺512超えは整合性取れてなくて繰り返しになるの明らかなんで >>833
ロードしてる箇所を見た限り、ptファイルに記録されてるplace holder token の情報は推論時には使ってないようにしか見えないんだが
当然だけどロードした時にplace holder tokenが同じだとそこを書き換えてしまうっていう動作もしてない
まぁざっと見ただけだから、ソースの読み間違いもあるかもしれんので
該当箇所のコードがどこか教えてくれ >>851
全部最新版にしたら直った
それにしてもツールの使い方熟練するといくらでもよい絵出せるな
直したい部分だけガチャするのも簡単だし絵を手で描くのがどんどんアホらしくなっていく… >>863
生成のときはいらんね
バッチサイズ2でtextual inversion回すのに30GBくらい必要 共有メモリーにも対応してくれたら
PCIe5.0+DDR5ならそこそこ動いてくれそうな気もするが 共有メモリだと転送の都合で云々なんだろうけど
それより今日はなにかモデルでた? trinart2_step60000.ckpt
https://i.4cdn.org/g/1663481261083231.jpg
trinart2_step95000.ckpt
https://i.4cdn.org/g/1663481189839740.jpg
trinart2_step115000.ckpt
https://i.4cdn.org/g/1663481095051579.jpg
Cardcaptor Sakura, detailed face, beautiful face, by greg rutkowski and alphonse mucha, d & d character, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers))))
Steps: 20, Sampler: Euler a, CFG scale: 12, Seed: 0, Size: 512x512 >>869
ひょっとしてstep違いのモデル間でseed値同じにするとそこそこ似た絵が出てくるんだ?
最初に使った感じで115000はちょっと癖が強いんかなと思ったけど、やっぱりそんな感じがするな。 ふと思ったんだけど、黒い髪の白いけど黒いビキニ。
black hair girl in [(white bikini)]
ってネガティブとポジティブで括って、無理矢理1つのトークンにしちゃえば混ざらないんじゃないだろうか。 >>869
negativeだけにmutated云々だと、結果として手と指を見せなくなるだけのような・・ 今PC使えないから検証はしてないけど
black hair (((girl,))) the girl wearing white bikini
こういうのに類する作戦の方が上手く行きそうな感じはする こんなのは?
[black:10] hair girl in white bikini
白ビキニが負けやすいなら先にしっかり描いてもらってから黒髪にする感じ
総ステップ数や追加タイミングは色々試さなきゃ駄目だろうけど >>724-725の通り、色は先に書いた方が有利らしい >>869
60000はちょっと弱くて、ミュシャとかにさくらがやや負けしてる感じがするけど下二つの評価は難しいな
115の方がより学習が強化されてるのか、アニメ絵独特の顔の縦横比(目のあたりの高さの横比率に注目)になってるのが印象的 >>846
MJとSDのプロンプトの出力例を紹介してるAI Artというサイトがあるが
それを見るとMJはまずカラーパレットに強力な補正がかかってる(青緑とオレンジ)
あとMJは人物も西洋人風の綺麗な顔が出るように補正されてる >>878
MJが加味してくる色はほんと凄いよね、絵画に占めるファクター考えると
MJでAI絵晒して自分の手柄みたいにイキってる人がいかに身の程知らずかわかる google colabはいくら何でもコスパ良すぎたから
これからAI関連で乱用されまくってどんどん制限厳しくなっていくでしょ
既にそのあおりでAI使う各種WEBサービスが有料化や使用制限のテスト始めてる
colabに規制してたサービス多すぎだからな これからはAIお絵かき用にゲーミングPCが売れるわけだな >>734 のpromptの<主題>に griffin を入れると >>814 のお兄ちゃんが出る(たぶん、griffinが男性名のため)のですが、こんな感じでたまにお姉ちゃんも出るわけですよ。
https://imgur.com/elE8mAM.png
そこでちょっとprompt matrixにかけてみました。
https://imgur.com/DMJbXfq.jpg
やはりミュシャ先生か……
あと、これ作ってて気が付いたのですが、urbanは本来は普通の都市の絵が出ますね。
これが古都風景に変わってるのもミュシャ先生のせい……
そこでミュシャ成分を打ち消すnegative promptを探してみました。
negative promptにこのくらい追加すると、背景が普通の都市になります。
((antique)), ((ancient)), ((former))
https://imgur.com/mWpE4Qf.png
ただまあ、ミュシャ風味がほぼなくなるので、普通に名前を抜くのと同じ……
いや、けっこうまだミュシャ成分残ってるのかしら?
https://imgur.com/RThYTSl.png あと、なにげにミュシャ先生とD&Dキャラのコラボがかわいいと思いました。
一番上の力こぶ作ってる子がいいw ミュシャの扱いのもう一つの難しさって下あごなんですよね
下あごの形見ると、これはミュシャ先生の香りって分かる絵が非常に多い ほんとだ、D&Dかわいいなw
呪文にも入れられるAkihiko Yoshidaっぽい
昔アニメみたいな輪郭黒い主線出す方法ない?って聞いてた人に無反応だったけど
まんまミュシャ先生なんだよねぇ >>844
ありがとうございます。なるほど、そういう方法があるんですか
普通にディレクトリ内にセットアップしたのだと無理っぽいですね
>>845
ありがとうございます
Windowsだとリンクのことを勉強しなくても生きていけると思っていましたが…
今回は>840の方法を使うことにします >>881
使用ツール SD2.0 + AI画像修正サービス
みたいな絵師が出てくるのかな SDで顔だけ作って動画はvtuber御用達のGAN使うのが手っ取り早いな
手軽すぎてcg+img2imgとかばからしくなる
大きく動かすとすぐ破綻するけど
https://i.imgur.com/WiVTbMp.mp4
https://i.imgur.com/OEapXxV.mp4 1111って色んな機能実装されてるけど、
複数バッチ生成出来ない低性能グラボ用に1枚生成✕10回とかのバッチ機能はありそうでないんやね
そういう機能あると家おらん時に便利なんやけど batchcountが生成処理を何回するか
batchsizeが生成処理で同時に何枚作るかでしょ? >>891>>892
あれそうやったん?!
Colab使ってた時にバッチカウントは一度に横に複数生成、
バッチサイズは一度に縦に複数生成、って機能やと思って
ローカルやとメモリ足らんくて使ってなかった 次に、なんで最大たった16枚なの?が来ると予想して先回り>>276 ほんまに連続で生成できた(笑)
灯台下暗しやわ
あんがとみなさん
コンフィギュレーションいじったら上限変えられそうやし安心してスーパー行けます batch sizeは罠なのでなくてもいいくらいの機能
てかなんだこいつ >>896
並列処理でちょっと早くなる
まだeulerの誤seed問題抱えたままなのかな? 1111で生成に使ったpromptの保存先ってどこでしたっけ? 学習の際はバッチサイズ上げないと遅くて話にならん
出力の際は元々早いから無くてもあんまり困らないね >>898
txtなら画像と一緒に出力されたはず
settingsのチェック入ってないのでは?
> Create a text file next to every image with generation parameters.
PNG内保存もあるからチェック入れとくと後で泣かなくて済む
> Save text information about generation parameters as chunks to png files 一度生成した絵からimg2imgで同じキャラの別ポーズ出そうとしたら
物凄く粘り強く微調整しながらリトライしなきゃ無理だけど
冷静に考えたらそれでも手描きより桁違いに早いから同キャラ動かすのも現時点で可能なんだな
服装大きく変えるとかは顔も一緒に変わるからきついが >>900
チェック入れてませんでした
別のUI使ってる時に設定してたのですが、1111に移ってから設定し忘れてたようです 一つのキャラから差分を作り出すみたいなのはいずれmimicみたいな専用のAIが出るだろうな
SDにはちょっと向いていない作業な気がするし Textual Inversionの学習データをシェアします。
https://anonfiles.com/I8986d8cy2/0918_7z
24個ほどbinファイルが含まれます。
研究のために使ってください。
NSFWを含みます。
コンセプトライブラリには上げてません。 学習モデルって言ってウイルス撒くやつ絶対出てくるよね 定期的に蓮コラとかのグロ画像を吐き出すモデルとかw >>909
それはpickleの脆弱性ですね
Automatic1111では(少なくとも直接は)pickleは使ってない
hlkyでは使ってる
コード追ってないけどckptやTexutual Inversionみたいに第3者のデータロードするところで使ってるのかな? レス数が900を超えています。1000を超えると表示できなくなるよ。