【StableDiffusion】画像生成AI質問スレ18
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ17
https://mevius.5ch.net/test/read.cgi/cg/1693401315/ webuiu-user.batにgradioフォルダごと削除する記述入れたらいいだけでは >>134
animatediffの生成物とかバックアップファイル並みに残ってたわ、extentions系で使っているのかな
debug起動している人用に削除コマンドを置いておくわ
```
# launch.py
def clear_gradio_temp():
LOCALAPPDATA = os.environ['LOCALAPPDATA']
GRADIO_TEMP_PATH = LOCALAPPDATA + '\Temp\gradio'
shutil.rmtree(GRADIO_TEMP_PATH)
os.mkdir(GRADIO_TEMP_PATH)
def main():
clear_gradio_temp()
if args.dump_sysinfo:
...
``` >>132
おおっできた!!
まじで助かったありがとう! 半年前くらいのお気に画像(3次元)をpnginfoからt2iにプロンプト入れて
同じseed、同じモデルで生成したら違う画像が出てきた
何か背景の書き込みも手抜き感ある
普段はこの方法で同じ画像を生成してるんだけど半年前だと何か条件がかわるのかな? swimsuitと入れたつもりがswimuitになってたのにいい感じに生成されてキチンと直したら微妙で悲しい 今まさにやったのはnudeと入れたつもりが字の消し忘れがあってnudeiになってた
だけど脱いでくれてた…… モデルをいくつか試してみてますが
基本的に危ない表現が割りと自由に出せるのは
本当に一部のモデルだけだという認識でいいですか? ラフっぽいというか
病み系が好きそうな雰囲気イラスト
を作れそうなモデルってありますか…?
(例)
@ u_u_zzx
@ n4adoe
の絵師様のような系統
結構探したのですが線が綺麗すぎるものがメインなので見当たらず… >>136
簡単なコマンド3行で終わる処理をここまでややこしく出来る才能スゴいね そろそろリアル系のLoRa学習したいんだが
学習に使用する画像って
やっぱり白背景で人物だけにした画像の方が
クオリティ増すかな? サンプラー何使ったらいいか分からなくなってきた、、
あれこっちのほうが何かいいやんの繰り返し、沼ってますわ 断定出来ないぐらいの差ならわざわざ根詰めて選ばんでもええんやぞ >>145
白背景に越した事は無いけれど
ゴチャゴチャしてなければあまり影響は無いと思う個人的には
実写系の場合はむしろ画質が重要かな
解像度の良い 768*768 とか40~50枚揃えられるのが理想 >>149
実写系はそうなのかー
教えて頂きありがとー! loraで構図に影響する部分をカットするやり方ってどうやるか教えてください。 グラボは同一として性能が同じくらいのIntel(core)とAMD(ryzen)のCPUで出力結果変わったりしますか?
現在core iでryzenのものに買い換えようとしてますが目に見えて変わったりしないか気になっています AI分野でRyzenだと使えない機能が出るとか聞いたことはあるな
自分の場合は予算節約と大した使い方じゃないからRyzenだけど >>145
質求めたら画質も良いかつ量もあるに越したことはないけど、五枚とか十枚でもできるからな
背景は強烈でなければ学習時にタグ消しとけばそんな変わらん気もする >>153
最近のcoreシリーズだとEコアのせいでAVX命令の何かで使えないものがあったり AI分野でRyzenだとダメって話は聞いたことないな。というかSD使ってる人むしろRyzen派の方が多そうなイメージ >>152
基本的には変わらん
変わったところで判断ができないレベル >>160
それは遅いけど動くらしい
ただIntelとRyzenだと命令セットが異なっててAI本気でするならIntel使えとAI詳しそうな人に言われたことある >>161
それはDownfallという脆弱性の原因になる命令なので使われなくなった
後々マイクロパッチも出たが処理速度低下の原因になってる
ゲーマーとかはパッチを当てずにゲーム専用機として使ってる猛者もいるほどだ SDで生成した実写画像を
3D化したいのだが良い方法ある? 3D化っていうから立体的な造形にしたいってことかと思ってた 頑張ってモデリングした3DモデルにSDで出した画像をテクスチャとして貼る事になるのかな
やってから3Dプリンタで出力、と 今huggingfaceからcontrol_v11_sd15
をDLしてるのですが
なんでみんなファイルサイズが一緒なんですか?機能別じゃないのでしょうか? RyzenはパフォーマンススコアはIntelより遥かに良いのに変なモッサリ感が出るのがなあ Extensionの全日本語説明してるサイトある? lora作成時に、そのキャラの特徴である部分をキャプションから抜くとありますが、
特徴であるblack eyesを抜くと目が似なくて
キャプションに入れたままのほうが似ていました。これってなんでですかね? やってみてそうなったのならそういうものと思うしかない
明示しないと無視されてしまうんでしょう AI って言っても色々あるし
スティーブルディフュージョンの場合
AMD で何も問題がない >>172
そのblack eyesはどういう形をしているんだ?
円形じゃない目は正しく学習できないかもしれない
円形なら学習のstep数を増やしてみるとか アニメ系のloraがそのまま反映されるようなモデルを探してます。
PixAIのMoonbeemやNeverlandのような高い再現力のあるモデルってありますか?上記のものはダウンロードできませんでしたので代わりになるモデルがほしいです。 同じこと聞いて申し訳ないのですが
img2imgでフォルダ内の画像をまとめて処理するとき、画像ごとにpromptを調整できる方法ってありますか?
例えば
1.jpgには1girl
2.jpgには2girl
みたいに画像ごとにどのプロンプトでやるか設定できるみたいな
taggerでタグ付けしたテキストみたいなのが使えるといいかなと 152です
さまざまなコメントありがとうございました
買い換えたいと思います >>175
普通の人間の目です。目以外は再現できててむしろ髪ガビガビすることが
たまにあるので過学習ぎみなのかと思います。うーん謎。 最近majinAIに連投するアホウいて鬱陶しいわー 背景を森の中の湖みたいなところにすると、背景に生成途中みたいな人外の小人が出てくるんですが、出ないようにするか、まともな人間にするにはどうすれば… region使って背景部分にno humanって入れてみれば? loraのキャプション学習について質問なんですけど、
例えば、
ツインテールの安倍晋三を覚えさせるためにツインテールの安倍晋三の写真を用意して、キャプションでツインテールの安倍晋三の髪型や体を表してるワードを消して、トリガーワードを(ツインテール安倍晋三)にして学習させたとします。
で、生成する際、トリガーワードの(ツインテール安倍晋三)をpromptの先頭に表示させて、生成させてもうまくいきません。
しかし、ツインテールをpromptに入れたらツインテールの安倍晋三が出来上がるんですよね。
これって、学習がうまく行ってないって事であってますかね。
ツインテールがトリガーワードになってる気がするんですよね。 >>177
残念ながらそのモデルが自分が提示したものなんです
ですので代用品としてのモデルを探しているのですがなかなかないですね
個人では限界があるんですか? >>184
ツインテール安倍晋三でノーマル安倍晋三が出るの? >>184
例示が独特で思い浮かべるのに苦労するが理屈はあってる
どううまくいか具体的に教えてくれれば身のあるアドバイスが出来るかも
本当に「ツインテール安倍晋三」がトリガーならトークン数長すぎで今の学習ステップじゃ足りない 日本語だとトークン数そんなに消費するんか
abe-twintailとか安倍Aとかにしないとだめかw >>186
いや、例えなので、安倍晋三ではないですよ。
ただ、そのキャラクターがツインテールのキャラクターで、ツインテールをトリガーワードに決めたわけじゃないのに、
ツインテールをpromptで入れるとその希望したキャラクターが出るんですよね。
ちなみにツインテールのアニメのキャラとかではなく、架空のツインテールキャラです。
>>187
ツインテールの黒髪の巨乳キャラクターのhanako(自分で決めたワード)を独自に作ったんですよ。
で、トリガーワードをhanako
キャプションでツインテールだとか巨乳だとかそのキャラクターを示すものは全部削除。
で、キャプションの先頭にhanakoを追加して学習させました。
エポック数は5、学習回数も5。
で、いざ出来上がったものを試したら、まあまあ似た感じにはなるんですけど、
ツインテールを追加でpromptに入れたら理想のキャラクターになったんですよね。
てことはツインテールがトリガーワードになってるのかなと思ったのです。 トークンを理解できていないが例えばabe-twintailだと一般的なツインテールの情報も参照されるのだろうか
それともabe-twintailで学習した内容だけの新概念として扱われるのだろうか
と横から質問 >>187
ファイル名は
5_sls_hanako
です。 >>189
多分学習の繰り返し回数かStep足りずにトリガーワードの中にキャラの情報が入りきってない
俺ならtwintailsをponytailに置き換えて髪型のバリエーションがつけられるLoRAが出来たなら完成とするとこだが
>>190
昔は他の概念とかぶらないユニークでトークン数の短い単語を探してtokenizerで調べてた今はしないな
他の概念を上書きしてもウェイトやblockWeightで強度でコントロールする
細かいところはtokenizerで単語をtokenIDに変換してSDが解釈してるのか見てみるといい tokenIDにどう変換しているか見ればいいのか
なるほど LLMだと深呼吸しようと呼びかけると正解率が劇的に上昇するとあるけど
SDに対しての魔法のコトバってあるのかな? >>192
回数増やすとガビガビになってしまってこれが一番いい感じなんですよね。
100枚が多いのかな?
追加で質問なんですけど、
ADetailerで100枚連続で作ろうとしてADetailer内のpromptにsmileだとか何かを打ち込むんで生成すると、
一枚目はloraが効くんですけど、二枚目からloraが効かない状態になるんですよね。
これって何か設定が間違ってるんですかね? スレチかも知れませんが質問させてください
ローカル環境でvaeを入れようと思い指定のフォルダにダウンロードしたvaeを入れたのですが設定画面で選択できない状態です(Automatic、noneしか表示されない)
pcの再起動、再度同じvaeをダウンロードして入れてみる、他のvaeを入れてみる、等したのですが状況が改善しません
何か解決策がありますでしょうか? >>196
実際の生成物みてみないとわからんね
自分の環境では問題なくプロンプト内もADetailer内も入れたLoRAはどれだけ生成しても
ちゃんとすべての生成物に影響でるね >>198
出先だから見せられないですよ
やはり普通はちゃんと効くんですね。
ちょっと調べてみます。 >>197
全然スレチじゃないよ
・今どのフォルダにVAEを入れているのか
・VAEはどこから何をダウンロードしたのか
がわかればアドバイスできるかも 別にトリガーワードなくてもキャラ再現できてるloraあるけど過学習気味なだけなのかそういう作成方法があるのかどっちでしょうか >>200
ありがとうございます
帰宅したら確認してみます >>197
models\VAEに入れたら出てくる
Checkpointsの方に入れてるんじゃ? >>201
1girlとかのままで学習しているんじゃない? >>204
教師画像をタグ付けしたときに先頭に何も追加せず出てくる1girlとか残したまま学習して概念上書き→出す時もそのタグ使うから出てくるってことで良いでしょうか
あと延長の話でもし自分でトリガーワード追加する場合ほぼ全部のキャプションファイルに出てくる1girlとかsoloとかのタグって消した方が良かったりましすかね? >>180
black eyesは黒い目ではなくベタ塗りの目として学習されてしまってるかもしれない
black color eyesにしたらどうだろうか? >>205
キャプションから1girlやsoloを消すというのは、そのキャラはぼっちだぞって教えることになる
そうしたいなら削除してもいい blackeyesはblackeyes childで検索すれば出てくるのを見れば、なんとなく理解出来ると思う。 >>197
たぶん設定の場所が間違ってるかも
前のバージョンだとsettingの「stable diffusion」からVAEを選べたが、最新バージョンではsettingの「VAE」項目ができている。そこから選ぶ >>207
なるほどそれは要らないですね
残します ヤンキーの細くて短い眉毛ってどんなプロンプト入れれば出る?
shortとかthinとか入れても全然ダメだ 自分の推しが上手く生成されたときは
うおーすげーってなるね
写真集みたいなの作って自己満で終わるけど
公にはできないが日々の生活で元気が出る >>212
civitaiにあるeyebrows sliderだったかな
そのlora入れれば数値の調整で細くできるよ
短いのはできるかどうかは分からない こんな感じに背景にスタンド能力みたいにダブって出てくることがよくあるんですけど
うまいこと抑えられるネガティブプロンプトって無いですかね?
ttps://i.imgur.com/kos4p2G.png VRAM 8GBで使ってる人いる?
高解像度以外で不足をかんじることはあるかい? 2070の8GBで買い換え先るにも微妙で身動き取れないワイおるで
生成に関しては我慢できるけどSDXLで学習とかしようとすると全然足りない程度 仕事用のノートが4060の8GBなおいら
Lora学習に足りるか不安で手を付けられず SDXLに手を出さなければ8GB有れば何とか
3060Ti だけどLoRA学習くらいなら問題無い >>213
ヤバイよね公にできないけどw
貧乳⇔巨乳してみたり、脱いでもらったり、挿入してもらったり、生やしてもらったり……
同人イラスト集くらいなら作れそう
他にも3次LoRAを2次元モデルに適用してみたりとか 生成だけなら8GBでSDXLいけるよ
8GBでSDXLのLORA学習はnetwork_train_unet_only付ければ768*768でギリッギリ走れるかなくらい みんなありがとう。
生成はSD1.5で満足していて、SDXLは当面俺には必要なさそうだからSD1.5の512x512前提で問題ない。
学習に興味あってとりあえず特定人物の顔を学習させてエロいことさせてみようかなと思ったら、
さすがにmaxwell世代の4GBじゃたった4枚程度の学習でSTEP絞っても最後の最後で落ちちゃって。
顔の再現性を高めるためにいろんな角度表情を数十〜100枚ほど学習させるとしたら、
8GBだと無理かなぁ?って心配になったんだ。
ちな、メインメモリは32GBほどある。
途中で落ちさえしなければ、学習開始したら放置して寝ればいいと思ってるんだけど、
これくらいの規模を想定したとしてもVRAM 8GBでイケっかなぁ?? >>14
>(RTX 40xxの場合) torch: 2.0.1+cu118にする。torch: 1.xはRTX40xx用に最適化されておらず、半分程度の速度しか発揮できないため
とあるwikiに書いてあった。 >>222
FineTuneだったら8GBでイケるよ
ちな俺環
3060Ti
素材画像 768*768
3000ステップで25分くらい 正直SD1.5の時代がいつまで続くか全く分からんから今新規で8GBを買うのは全く断固としてオススメできないけどな… SDXLやるならVRAMは16GB欲しい
そうすると絶対的なパワーが不足してる 4060Ti か
もしくは導入ハードルの高い 4080 , 4090 しか残らない
4070系は12GBだから正直不安 >>222
学習に興味がある、だと沼って最終的に24GBないと満足できなくなる人がいるのが心配だけど
8GBは生成専用で学習はcolabを使うならあり >>209
197です
ご指摘のとおりでした
無事解決です、返信いただいた皆様ありがとうございます ネカフェってSD突っ込んだSSDとか普通に挿せるの? USBなら何でもOKだから、USBTypeのSSDも認識するんじゃね? エロに強いモデルで(cum on body:1.6)とかかなり強めにつけても
ほぼ全てのloraで白い液体が全くぶっかかってくれないんですが
どうしたらいいか対策とか心当たりある方おりませんか・・・?
loraを使わなければちゃんと描写されるのですが ■ このスレッドは過去ログ倉庫に格納されています