【StableDiffusion】画像生成AI質問スレ19
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ18
https://mevius.5ch.net/test/read.cgi/cg/1694882607/ 他の人が出した実写系のプロンプトを真似てみると改善する可能性はある あれ鼻をプロンプトで調整してもあまり変わらんのよなー
仕上げにrefinerでアニメ系のモデル混ぜて調整してる プロンプトテキストファイルで上げてくれたら見るやつがいるかもしれんぞ(投槍) >>303
2.5D系はilya kuvshinov、ross tran、wlopあたりの絵が入ってるからかもね
日本人好きする可愛いらしい童顔(=団子鼻)アニメ絵基準で
鼻をちゃんと描こうとするとちょうどそんな感じになりそう リアル系の実写画像で
綺麗に仕上げるためには
512x512ぐらいがベースで
解像度どれくらいまで上げるのがベストですかね? 抽象的過ぎてわからんぞ
あと解像度は見た目の美的感覚にかかわらんぞ
512x512は画像サイズだから話が違う ワイもMultiDiffusionで2倍とかにすると服とかすげえ雑になるんだけどいい方法があったら知りたい
最初から大きいので作った方が良くなってきたけど1回の生成に時間かかるしつらたん >>298別口で解決していただいたので解決報告と同時に一応の共有をしておきます。
modulesフォルダ内のui_extra_networks.pyを開く。“def register_default_pages():”で検索し、その下に
register_page(ExtraNetworksPageTextualInversion())
register_page(ExtraNetworksPageHypernetworks())
register_page(ExtraNetworksPageCheckpoints())
があるので、消したいタブの名前が書かれた行の行頭へ♯でコメントアウトする。
保存後、次回起動時にコメントアウトした行のタブが消える。
長々とお目汚し失礼しました。 >>321
報告乙・・勉強になります
そんなところいじるのか tiled diffusionとtiled vaeを有効にしても解像度上がらないのは何故なんだろう
t2iじゃ効果無い? ComfyUIがVARM消費小さくて生成も早いって聞いたけど、実際どうなんだろう
>>207あたりで書いてる人いるけど 芸能人の顔でLora自作してるやつ、ほぼほぼバレるね
思いっきり画像に出てる
本人はバレてないと思ってるのかもしれんが、誰も突っ込まないだけでまあバレてると思って良い 芸能人の顔でLora自作してるやつ、ほぼほぼバレるね
思いっきり画像に出てる
本人はバレてないと思ってるのかもしれんが、誰も突っ込まないだけでまあバレてると思って良い Loraで間違えて <lora:asianGirlsFace_v1:0.0.5>って入れたらすごく良い感じに
効いてくれたんだけど、ほかのLoraが影響してくれなくなった・・・
0.0.5ってどれくらいの効き方なんだかわかる人いる?
:のあと入れなくても同じような効果でた Loraで間違えて <lora:asianGirlsFace_v1:0.0.5>って入れたらすごく良い感じに
効いてくれたんだけど、ほかのLoraが影響してくれなくなった・・・
0.0.5ってどれくらいの効き方なんだかわかる人いる?
:のあと入れなくても同じような効果でた 鯖の調子が悪い時の書き込みに失敗しましたは信じてはいけない >>331
同seedでいろいろ書き方変えて試してみるしかなくない?
0.0.5、0.0.1、0.0.9、0、0.5、1とか 多分それがわからないから書き込んでるんだ
あと単純にプロンプトに入れてなくてもなぜか効果があるLoRAとかあるから
結局誰もわからんってことだよ >>331
自分の経験だとそれはLoRA処理部が「そんな数値扱えるか!」ってエラー起こしてるだけだった
だから以降のLoRAが効かない
問題は私も「あれ?いい感じに出力されたぞ?」と勘違いしたことだな > ValueError: could not convert string to float: '0.0.5'
・・・ SDじゃないからスレ違いかもだけど他にAI画像生成の質問スレなかった
niji journeyというスマホアプリを触ってみたけど、「強く・弱く」のボタンはどういう効果なのでしょうか
試してみても単純に再生成をするのと何が違うのかよく分からなくて >>336
小数点に変換できないからどうなったのかが知りたいw
効いてないと思って外すと効いてたからバグってるのはわかるが
そのバグの効き方が・・・
xyzで0.000とか色々やったが同じ効き方が出てこなかったんだよ・・・ Lora外したのにまだ効果が残ってるようなら再起動してみるといい
メモリかキャッシュにゴミが残ってるだけかと
再起動したらプロンプト通りに動いて、
今まで何に悩んでたのかアホらしくなることごある Lora外したのにまだ効果が残ってるようなら再起動してみるといい
メモリかキャッシュにゴミが残ってるだけかと
再起動したらプロンプト通りに動いて、
今まで何に悩んでたのかアホらしくなることごある >>337
スマホアプリで勝つジャーニー系はちょっとすれ違いです セーラー服とか服装を毎回同じデザインで
出力する方法ってないですか?
ユニホーム系はデザイン変わると困るんですけど
顔なら毎回同じにする簡単なんですけどね >>338
何となくだけど、1.0扱いか直前に使ったloraの数値で処理されてそうなもんだが >>338
上のエラーになった場合Loraは完全無視されるけど、
その場合にLora表記自体になんかそれらしいタグになりうる単語があるとかのオチだろう
chunk付きの絵でも貼らない限り、自分で調べるしかないよ、エスパーにも限度がある なんでちちぷいとかでも80%くらいの割合で大きな吊った目のキャラなの?
プロンプトだけだとそうなるモデル使ってんの? ジド目モデルなら知ってるけど
ツリ目モデルとかもあるのかな 4090にしたんだけどX-formersより使える起動オプションであるんだっけ
結局X-formersが良い? >>351
これとか?
```
--opt-split-attention --opt-channelslast
``` Animatediffにadd reverse frameの項目がどこにも見当たらないんだけど理由わかる人いますか?
Animatediffは最新版です >>347
多分、指が崩れにくいモデルとプロンプトを突き詰めた結果そうなってる 指を気にしだすと生産効率大きく落ちるよね
指修正すげぇ時間掛かる
お勧めはDepthLibraryとInPaintで修正して
仕上げはADetailerの手のモデルで修正
ADetailerは顔の修正が凄いね
顔がダメでボツにした絵も綺麗にできてびっくり >>358
これはいいことを聞いた
早速試してみよう >>355
Ver.1.9.4以降Closed loopの1機能として吸収されて、Number of frames <= Context batch size かつ Closed loop == Aの時に従来のadd reverse frame機能が動くみたい
Context batch sizeは16固定で動かすと思うから、実質16フレーム以下の時のみ動作するように変更された感じかな animatediffは
生成時間がかかりすぎてネックだわ LoraをCivitai Helperで入れて Refleshしても何も表示されないからLora適用できないんだけどどうしたらいい?
フォルダ見ると確かにDLはできている。 >>361
何のクラボを使っているのか書いてくれないと Regional Prompterって成功率低いな……
全然上手くいかないしLora複数使うと更に駄目だし >>365
自分も最近使い始めたけど、あれ?ってときは不慣れで大抵なんかミスしてることが多かった
縦横変えてなかったり、いじってるうちにADDCOLとADDROW変えるの忘れてたり
上の生成サイズとRP側のサイズってよくわからんからとりあえず一緒にしてるけど、全然違ったら結構失敗したような
Loraも入れれば入れるほど遅くなるけど薄めたら割とうまくできたよ AnimateDiff
hires MP4投入 CN よし生成!
ファンブォーン!止まる!
メモリ足らんよ!
4090 プロンプトを Nishijima Hidetoshi だけで、仮面ライダーBLACK SUNぽい黒ジャケットの絵が出てきた……凄い…… プロンプトを North Korea だけだと、ハングルが書いてあるミサイル、国旗、王様だった……なぜだ……
JapanやRussiaだと、自然豊かな風景や建物なのにな >>367
H100をどうぞ
…誰か使ってレポートしてくれ
スレに石油王の一人くらい居てもいいだろ!(哀願) 70万円のマックブックプロ128G買ってくれたらやったげる 新しく発売されるMacbookproのM3チップと
4090番のどちらが生成画像作るのに早いかな? >>375
今のAIアニメは背景が変わりまくるから使えないな
Blender勉強したほうが手っ取り早いな
SD使ってイラスト生成したあとに
E-moteかLIVE2D使うのもありかも? >>376
イラスト生成は1分で、レイヤー分けするのに何時間かかんのかねえ まあM3チップで
animatediffを動かすのは厳しいかもね >>372
マカーは過大評価しすぎ
会えていおうカスであると raytrek cloudというドスパラが貸GPU始めるみたいだけど
やっぱnsfwは停止されるのだろうか aiで版権ものとか実在の人物のエロ絵って見ないけど、なんか問題あるの?
そのキャラクターで学習させたとか公開しない限り証拠ないよね >>372
2年ぐらいM1mac使ってて最近4070tiのPCを買った俺から言わせてもらうと、AI用途でmacに何かを望むのはやめたほうがいい
あまりにもコスパが悪すぎる
4090と同等に画像生成できるようなmacはたぶん100万ぐらいすると思う M○チップのMacは普通の用途では(性能以上に高いのに目をつぶれば)必要十分な能力があるけど尖った用途で使うにはグラボ積めないメモリ増やせないでカスタマイズ出来なくてな
2.5D系のモデルでもリアル寄り過ぎるから2Dモデルに3Dモデルを0.05とか0.1マージして2.1D的なモデルを作ろうとしたら、10枚中1枚が3Dで出てくるだけの2Dモデルが爆誕した……なんなん >>381
civitaiとか利用したことないんか? >>381
ちょっと待って意味がわからない
ありすぎて困るんだがどういうこと? >>381
実在の人物が公認しているケースも有るよ。
大部分は許可とらずに勝手にやってるね。
岸田とかゼレンスキーをcivitaiで見たときはやり過ぎと思った。 tensor爆盛したら勝てるだろうけどそんなニッチなもん作らんだろ >>386
公人だから学習自体は問題無し
じゃなきゃ政治風刺漫画全部NGな強権国家 検索したらなんぼでも出てきたわw
けどクオリティ高いのは少ないね 無知な人は自分が無知なことも知らない
半年ROMることの大切さを知るべき クオリティ高いのは訴えられたりして問題になると困るから公開してないだけ クオリティ高いの作って公開してたらロクな事にならない
見たかったら自分で作ればいいの精神 これ漫画にどれくらい使える?
最初から線画できれいに出せる?
表情とか躍動感とかその辺知りたい Loraの選択画面でフォルダの名前がズラーと並ぶの無くす方法教えてください Google Colab版のKohya LoRA Dreamboothを使って1つのLoraに複数の概念を学習させたいんだけど、4.2.3. Custom Caption/Tagを使用すればいいの? animatediffについて、作った動画をhiresするエクステンションとかありませんか? >>397
無能はすぐに聞く有能は自分で試してから聞く >>402
金がないんだよ
ググったけど導入も面倒だし
使えるならグラボ買うけど ■ このスレッドは過去ログ倉庫に格納されています