【StableDiffusion】画像生成AI質問スレ23
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ22
https://mevius.5ch.net/test/read.cgi/cg/1708834240/ forgeでextraからupscaleするとjpgとpngの2つが出るんだけど
どちらかに設定できる? >>318ですが、バッチだと2つ出る時があって単独では2つ生成されないのでスルーしてください >>317
本気の作品は自分用に
ソコソコな物は表に出す Stable Diffusion AI画像生成ガイドブック
買ったけど早速資源ごみに出しました >>318
Settings → Saving images/grids の Save copy of large images as JPG じゃないの? >>321
この時代になんで紙媒体でPC関連の情報が得られると思ったの? >>322
それっぽいです。
途中でアスペクト比を変えた2サイズが混在するディレクトリがあって
そのディレクトリに対してバッチ処理したところ
768x1024を2xスケールアップ → png(約3.5MB)
768x1280を2xスケールアップ → png(約4.2MB), jpg(約350KB)
と縦の少しの違いでjpgが出来てしまったのは、何を基準なのかなと思いました ComfyUIでanimatediffを使いテキストから動画生成するところまではできたんですが
Hires fixみたく画像の破綻を防ぎつつ高解像度化した動画を生成できるワークフローありませんか?
VideoCombineの直前にUpscaleImageを繋げてみたんですが、小さい動画をそのまま拡大したような品質になってしまうんです >>325
自分も動画制作に挑戦したことあるけどモーションデータを噛ます関係上、通常の画像生成クオリティで動画にするのは無理だと判り諦めたわ。
StableDiffusionのAnimateDiff以外だと上手くいくのかな? 赤か青の本というようなor条件ができたはずなのですが、
上手くいかなくて・・・
(red | blue) book
[red | blue ) book
みたいな パイプを使ってたような気がするのですがどうやるのでしょうか? >>328
ぁぁ、まさかのフニャ括弧でしたか・・
確かに分散されています、ありがとうございます それDynamic Prompts抜きに機能したっけ Animagine派生で塗りの濃淡指定するプロンプトってどういうのがある?
たまに塗りがべったり濃くなる時があるからどうにかしたい AI生成してるときにグラボからコイル鳴きみたいな
「ジーー」とか「チチチ」みたいな音出るんですけど
こういうもんと思ってほっといても大丈夫ですか? うちの4090でも重い処理をさせると音は出るからそんなもんだよ >>332
暑くなったし蝉が鳴き出したら気にならなくなる >>316
1枚1枚丁寧に作ってるわけじゃなくて、ガチャりながら大量に生成してる。
そこからある程度絞るけど枚数多いから、1枚1枚丁寧にLAMAにかけるのが面倒なのだ。
本当に1枚だけの生成なら使うし、手書きで手直しもする。 >>336
気持ちはわかるけどそういう雑さが反AIの人口増やしてそうだから修正してほしいわ
多いっていったってせいぜい15枚くらいでしょpixivじゃなくてCG集で出すとかならもっと多いかもだけどね
AI生成する側だけどpixivでサーフィンしてるとお前さぁ・・・って感情沸く生成絵結構あるよね そんなんないけど同じようなの1枚1枚投稿してるのはムカつく 似たようなの上げてるだけなら、せめてチェリーピッカーしろよと思う程度だわ 元々ちゃんとした絵やら描いてる人のは結構修正してくれてるけどAIから始めたんだな~って人はガバポン出しドバーっと大量投稿って印象
まぁ上のは別に良いけどポン出しガバクオリティのを大量に一枚一枚投稿するハゲは許せん 絵が好きだけど絵心無いから生成する人と
新しいもの好きで生成と言う行為が好きで生成する人の2タイプがいると思う
後者は絵へのこだわりは薄いから粗悪ものを量重視で上げるイメージ
前者は絵を見る事はやってるから気になる所くらいはレタッチして少量上げるイメージ 絵心無いから0から描くと大変なことになる上にロークオリティなんだよね
自分が作りたいものが脳内でしっかり具体化出来ていないか具体化出来ていてもそのとおりに出力出来ないから0から1を作るのが大変
AIは0から1の部分をアシストしてくれる
1から10、100にする部分はまだ人間の作業かな いい加減スレチやろ、質問形式にしたらなんでも語っていいってもんじゃない
> LAMAの存在すら知らない人達なのかな?
人が多いからって勝手に雑談スレにするな 突然キレ出すのこわ
しかもずいぶんと前のレスにキレてるし普段LAMAすら使わない人間か?
LAMA使えばすぐ修正できるのに使わない人が多いのはなぜか?って質問じゃないか >>321
半年前に買ったけど基礎動作を覚えるのには役立った 今は使わないけど 結論面倒だし、344みたいな感じよな
次の質問どうぞ 環境変わってないのに、1週間前は起動出来たけど、急に下記エラーで起動できなくなりました。
分かる方いたらお願いします。jaxlib勝手にインストールされるからのような
RuntimeError: jaxlib version 0.4.28 is newer than and incompatible with jax version 0.4.11. Please update your jax and/or jaxlib packages. >>0353
>>0352
自己解決しました、たしかにエラー文よく見るとjaxと jaxlibはセットだということが分かりますね。
>>0353の方法は自己解決した後に見たレスなのでやってないですが、こんな方法があったんですね。
L:\satable duffusion\stable-diffusion-webui\venv\Lib\site-packages
のディレクトリの「jax」と「jax-0.4.11.dist-info」のフォルダをなんとなく削除して再起動したら
同ディレクトリに「jax」と「jax-0.4.28.dist-info」が勝手に作られエラー出ずに正常に起動出来ました。
ありがとうございました。 forgeで生成したら
A1111の時には
output/txt2image/日付/ の モデル名のディレクトリが作られてたんだけど
forgeではモデル名は作られず、日付直下に保存されるのは仕様? >>355
設定に出力先指定できるからどうにでもなるでしょ >>356
元のA1111が吹っ飛んだけど、ファイル名はカスタマイズできたのは覚えているけど
保存ディレクトリまでカスタマイズできたっけ?
{date}とかやってみたけど、そのままの文字列のディレクトリ名になっちゃった >>357
一時ファイルや圧縮ファイルの解凍用にRAM disk作っててそこを出力ディレクトリにしてるけどちゃんと生成画像出力されているから好きな場所に指定できると思うよ >>358
パス指定はできると思うけど
以前、吹っ飛ぶ前のA1111の時はoutput/yyyy-mm-dd/モデル名のディレクトリ/に保存してくれていたのよ
それができるかなと
コロコロモデル名を変えてテストしてるから以前の環境が助かってたのよね 設定にあるて言われてるのに、
1から100までをご所望なんだろ
誰か赤ちゃんに教えてやれ 設定に記載方法書かれたサイトへのリンクあるからそこ参照しろとしか言えん >>361-362
すまん、いけたわ
>the following information is about the image filename and subdirectory name, not the Paths for saving \ Output directories
って書いてるのに必至にoutput dir触ってたわ CUDA errorでHires出来ない
ググっても意味が分からん 実写系だが、街の看板やショップロゴが中国語っぽくなって生成にがっかりしてるんだけどpromptでどうにかなるものなの? >>364
こっちもそれだけの情報では意味分からん >>365
ネガにchinese入れればほぼ消える
あと背景以外の中国要素をチェックする
背景・人種・服装はぜんぶ国籍リンクするから
japaneseやeuropeanやtokyo入れればふつうは大丈夫だけど
中華系モデルとかはアジア系は全部同じ漢字にしかならんから
ネガchinese入れて日本語も韓国語も巻き添えにぜんぶ消して英語にする lora作ってる時に、自動調節系Optimizerでたまに序盤いきなり失敗するので
一発目のxxx-000005.safetensorの出来をforgeで確認してるんだけど、失敗時にそのsafetensor削除しようとすると
「別のプログラムがこのファイルを開いてるので、操作を完了できません」でforgeを一旦終了しないと消せない
この時のおなじみのやり方として
リソースモニターのCPUの検索窓でxxxとかsafetensorで検索しても、掴んでるプログラムが何故か一切出ない
この状態でズボラかまして同名でloraを再作成すると、上書きの瞬間kohya_ssが書けねぇぞエラー吐いて落ちる
(エラーメッセージは忘れた)
webui終了以外では名前変える、Save every N epochsの値を変えてずらすくらいしか思いつかないんだけど、
面倒なんでなんか回避方法ないかな?a1111では起こらなかった事象
the action can't be completed because the folder or a file in it is open in another program
あたりでforgeのissues検索した限りになかった 追記
同PC上でlora学習+確認やってる場合です
lora共有してサブPCで確認って前まではやってたんだけど、サブPCの起動が面倒なので・・ 学習できるほどのスペックのグラボに手が出なくて、お試しで『クラウドGPU』というサービスで自分のイラストの絵柄学習させてみたいんですけど、このクラウドGPUっていうのは学習の時に使うイラストも生成したイラストも提供側の会社に見られちゃう可能性ってあるんでしょうか?
クラウド経由で送受信されるんだから提供側には誰が何をしてるか筒抜けってことですよね?
自分はエロ絵師ですし、海外のクラウドGPUの会社だとロリぷに系や低頭身系イラストとかだと向こうは例えイラストでも厳しいですよね?
アダルトイラストの学習・出力の場合、クラウドGPUは危険でしょうか? >>371
やりようによっちゃ3060ti8Gでも自作LoRAなら作れるよ >>371
BAN対象は主にGoogleドライブに置いておくとなかみAIに覗かれて検知される
だけど他所にファイルを置いてそのアドレスからデータを引っ張れば問題なし
colabに展開されるデータは画としてにんしきされてない
さらに出来たLoRA等のファイルはそれ単体ではロリでもぷにでもないのでおいておいてOK
安全なやり方はあるけどあなたがそこまでたどり着けるかはしらない。ちなみにpixAIの学習は丸見えです クラウド使う時はCryptomator経由にすれば運営に覗き見されないよ
「お前のファイル、ランサムウェアにやられてないか?」ってOneDriveの個人ユーザー向けはご丁寧に訊いてくる sdxl forgeでtagcompleteが機能しなくなったんですが同じ症状の方います?
Settingを見ると一覧に入ってないんでどうも認識してないっぽいんですが、拡張機能の方から見ると普通に入ってます。
一度消して再インストールしても変わりません。
なぜか1.5 forgeだと機能してます。 forgeだとCUDAエラー出るけど1111だと出ない
不思議 forgeだけど
white(hair, clothes, stockings)
みたいなトークン節約的なプロンプトって効いているような微妙に効かなかったりするけど使い方あってる?
これを丸ごと強調させる方法ってある?
(white(hair, clothes, stockings):1.1)って合ってるのかな 色分け指定しても
その色に引っ張られるから
同じ色で統一したいなら(white)でいいのでは >>380
すまん、ちょっとわからないんだが
(white)これにはどういう意味があるの?
白の何?みたいな感じにならない?
色が引きずられるのはLora使わずにBREAKとネガで対応できてる >>382
実例サンクス、そういう使い方があるのか
よくありがちなのは、例えば dark red eyesなんて入れると色々なものに引きずられてネガを羅列するんだけど
加えて黒い床、紫の壁とか複数の色を組み合わせたいときは、引きずられたく無い強調色は最後尾に持ってくるのがセオリー?
何か一般的な色浸食への対応方法ってある?
そのモデル良いね、XLのモデル?
モデル名良かったら教えて ついでに
[high quality, best quality]、あえて減らすことによるメリットってあるの?
masterpieceはマスピ顔対策? 色も微妙な指定ができるといいんだがな
もう少し濃い青とかちょっと赤みを入れた緑とか
HTMLみたいに(255,255,255)とかで指定できると一番いいんだが >>378
こんなの初めて知ったわ
説明ってa1111やらのどっかにある?
token節約ってbreak導入以前はよくやられてたけど >>386
ないよw
>>378の「使い方合ってる?」という質問に誰もちゃんと「間違ってる」って回答しないからこうなるんだよな w
>>378
そんな使い方はありません
前に強調で全然間違った理屈さもそれらしく言い張る人見たことあるわ・・
(aaa,bbb,ccc:1.2)が
bbb 1.1
aaa 1.1
ccc 1.32
だとか
あまりに自信満々で誰も否定しないので、突っ込んだとたんみんな否定しだして笑った 赤く光ってる378ですw
まぁ当時はこれで上手くいっていた(実際は色が引きずられていた)のもあって
成功体験として覚えてたのよね
なのであまりいじらないでw なんだ、red hairにしたら引きずられて目も赤くなっちゃうっていうのと同じだけか lora作成の勉強して自分なりのルールを決めてるんですが
・なるべく高画質、詳細が分かる画像を用意
・教師画像は20枚を最低ラインに50~100用意する
・画像の大きさは1024×1024.アスペクト比は1:1で統一
・背景や文字をトリミング
・カラーでないものは全てカラー化
これでいいですかね?間違ってる部分があったら指摘お願いします。またみなさんの作り方を教えてほしいです。 LoRAを作ってみたものの納得のいく出来映えでなく作り直そうと思っていたらXL台頭
技術の進化に取り残される…… いつもと同じmodel、LoRA、prompt使っていつも通り生成してもいつも違う生成画像出てGenerateForever使って生成しっぱにしてるとそのうちいつもの生成結果になるけど違う生成画像出すロジックが不明
給湯器から離れたシンクでお湯出そうとしても暫く水しか出ない状態という感じ 直前に実行したのプロンプトの影響があるとかなんとか。
ずっと実行すれば平均的な結果になるよね。 >>393
古いのしか動かないぶっ壊れた拡張入れてない?
loconとかlycoris系の >>391
あんまり細かいこと気にせずポンポン出していきましょう
1:1とか150以上作ってるけど一度もやったことない
XLでカラー生成したいならカラー多い方がいいけど、全部そうである必要はないと思う
タグありならmonochromeとか入ってるだろうし
学習元の解像度は出したいものによるかな、XLで小さいとボケボケになる場合もあるけど
lbwのOUTのケツの方で微調整できることもある
256くらいの大きさだらけでも不思議とそこそこうまく行くことも多い
XLでもあえてMax resolution 512,512でやってもOK
背景切り取りは最初の頃はやってたけど、だんだん面倒くさくなってそのままやるようになった
逆に残せば世界観出せたり、モブも入るようにしとけば学習してモブがみんなそのキャラ自身になるのも抑止できたりも
文字は邪魔なら抜いたほうがいいかも、これは本当にいちいち出てくるので
まぁXLは1.5よりプロンプト制御しやすいのでそんな細かいこと気にしなくてもいいような openposeで元の画像が膝までしか無い場合editで足首の点を増やすにはどうしたら良いの? >>398
編集画面の左下にある「Person1」の「>」をクリックすると、パーツの一覧が出る。
left knee,right knee,の右側にある目玉アイコンに斜線が入って非表示になっているので
それをクリック。
すると、画面の左上へと、対応するバーがびにょーんと伸びるので、その頂点を正しい位置に移動させる。 >>399
ぉぉすごい、できた。
実際にconrolNetをする時は右左の概念まであるの?
裏表まではわからず、顔の向きである程度判断しているという感じ? >>400
試してはいないけど、OpenPoseだけだと裏表は伝わらないので、Depthを併用する必要がある、
とどこかのサイトにあった。
後はプロンプトに、出したい絵に表示されるパーツのものは入れて、出ないものはネガティブに
入れるとか(例:後ろ姿を出したい場合は、目の色や表情のプロンプトは外しておく) >>401
確かに裏表分かってないだろうなぁと思って、ネガやポジで追い込んでいったわ
openposeだけで側面からねじった感じだと意外と難しいもので期待通りは出にくいガチャ感があった
正面や後ろはほぼ確実に出るんだけどね >>402
横からもそうだけど、肩鼻首耳の位置関係でどこ向いてるかある程度は指定できるよ。
ガチャは必要なことに変わりはないが。 >>397
有難うございます、参考になります
アニメは許容範囲なのが出てくるんですが、実写だと妙に気持ちの悪い顔立ちになってでてくるのが悩みのタネですね
素材を多く学習させた結果、多様性いれたのが悪いのかなあ 生成した画像をextrasでアップスケールするとプロンプト消えるの防ぐ方法ある?
生成もアップスケールもjpg使ってます。
いつまでも小さい画像を保存しておく必要があるのよね
プロンプト再埋め込みしてくれる拡張とかあればいいのにな >>30
comfyとかせっかくノードつかってんだから、
そういうコントラストとか、彩度だけ使えるノード
ありそうなんだけど、どうなんだろ?
blenderのアドオンあるけど、それだと実現できるかなあ? うわあ、一ヶ月前にレスしてしまいました。三ヶ月ROMります。 Extrasタブでの拡大では元画像のメタデータを引き継ぐことはできないはず
img2imgのscript内にあるSD upscalerを使えばimg2img時のプロンプトは埋め込まれるし、Hires.fixで最初から大きく生成してもよい
プロンプトの再埋め込みは面倒な方法があるよ
メタデータを残して保存できる画像編集ソフト(ペイントやAffinity Photoなど)で小さい画像を開き、キャンバスサイズを大きい画像に合わせた上で大きい画像を重ね「名前を付けて保存」する。面倒!
回答がないから回答したけど次は本スレで質問してね ttps://mevius.5ch.net/test/read.cgi/cg/1711170980/ こっちは通常スレ
あっちはワッチョイスレ
どっちも本スレ
誘導するのは頭がおかしい 先とか後とか関係ない
通常スレとワッチョイスレは全くの別物
重複削除依頼出しても相手にされない 突然起動時に パッケージ.py が見つからない
というエラーで起動出来なくなった
チェックディスクと入れ直ししてもダメです