【StableDiffusion】画像生成AI質問スレ19
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ18
https://mevius.5ch.net/test/read.cgi/cg/1694882607/ 検索したらなんぼでも出てきたわw
けどクオリティ高いのは少ないね 無知な人は自分が無知なことも知らない
半年ROMることの大切さを知るべき クオリティ高いのは訴えられたりして問題になると困るから公開してないだけ クオリティ高いの作って公開してたらロクな事にならない
見たかったら自分で作ればいいの精神 これ漫画にどれくらい使える?
最初から線画できれいに出せる?
表情とか躍動感とかその辺知りたい Loraの選択画面でフォルダの名前がズラーと並ぶの無くす方法教えてください Google Colab版のKohya LoRA Dreamboothを使って1つのLoraに複数の概念を学習させたいんだけど、4.2.3. Custom Caption/Tagを使用すればいいの? animatediffについて、作った動画をhiresするエクステンションとかありませんか? >>397
無能はすぐに聞く有能は自分で試してから聞く >>402
金がないんだよ
ググったけど導入も面倒だし
使えるならグラボ買うけど >>401
全コマをバッチでhiresして、ffmpegや簡単プロンプトアニメで動画につなぎ直すのが手っ取り早いかも
ほかに方法はあるかな >>403
ai lineart で検索したら色々と出てくるよ
自身の求めるものが出せそうかある程度は判断できると思う >>403
質問がざっくりしすぎてて答えようがないよ
最初から線画で出すのはそういうLoRAを探せばいけるかもしれんが、それよりはペイントソフトの線画化フィルタを使えば済みそうだし
ControlNet用にラフを描いたり出力画像を修正したりできる画力があるかにもよるしね
画像生成AIがどんなものか試したいならPixAIのようなオンラインサービスを使ってみては
PixAiについて語るスレ
https://mevius.5ch.net/test/read.cgi/cg/1694322730/ ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
youtubeでanimatediffの解説してる人はhiresやってるって言ってるけど >>407
友達の友達はーみたいな表現で翻弄するのやめや
自分で試したわけでもないのに >>407
> ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
あー確かにそれはありそう >>408
いや、ひとつひとつやるのは自分で試したわ
そしたらひとつひとつのディテールが違うからこりゃ繋げたらわちゃわちゃになるわな…ということで諦めたわけ
ちなみにanimatediffで生成時にhiresfixで1.5倍にするのは自分でも試みたけど、youtubeで解説してた人はやってるって言ってたなぁ
なにかコツがあるのかな?
ということを全部説明したらめちゃくちゃ長くなるからはしょったんだよ!なげーだろ!! 暇なんで、chichi-puiのサイトで児童ポルノ投稿してるやつら
新着順に片っ端から問題報告してるが、数が多すぎてキリがないわ 顔も体も子供なのに、なぜか巨乳だと児童ポルノとして通報しにくい
童顔の大人ですって言い訳できそうで
AIで作った子供は目付きが完全に子供じゃない(知性がある大人の目)だから、なおさら もっとヤバそうなガチロリ3D同人とかずっと生きてるからAIレベルのグラフィックじゃ自主規制でもなければ無理ちゃうか
ディープフェイクとか子役loraとか使い始めたらヤバいだろうが >>410
だからそれでできる保証もないのに発言するなと言いたい >>411
ほんま暇やな
あそこが禁止なのは実写系で胸ペタのロリだけだぞ
二次系はどんだけロリでも性器に修正かかっていればOK
日本の法律に準じてるからな >>416
俺は実写系しか興味ないから、イラスト/アニメはまったく見ない
サイトに通報したら何らかの対処する可能性は高いぞ
実際俺の投稿も勝手に移動させられたし イラストでリアルっぽい記事のパンティーやブルマを履かせたいけど
サテンや水着っぽい感じになる
どの様に呪文をかけば布っぽい感じになりますかね?
ちなみに、(gauze fabric panties:1.5)としても殆ど効果がありませんでした inpaintでリアル系のモデルに描き直させればいいんじゃないですかね
そのモデルにできないことを必死にやらせてもできるようにはならんからな オレは逆に二次絵なのに下着水着肌着の布だけリアル寄り過ぎて困ってるな
下手なコラみたいになる 初心者の質問ですみません
Stable Diffusion Onlineを使っているのですが、何をやっても思い通りの画像が出てきません
自分のマシンにインストールしないとだめですか? >>422
それどうやったらなるんだ
BREAK使ってrealistic pantiesしても顔までリアルになりガチで困ってる
>>421
その手があったか
あと、inpaint挑戦したけどどうにも違和感が出てしまう
またまれにすごく布っぽくなるし何が適切な呪文があればとは思うんだけどね モデルは知ってるけど正しい気ワードではないから呼び出せてないような気もしてる
あと、複数枚あるから可能な限り呪文でやりたい >>423
思い通りの画像の内容がわからない
プロンプトとモデルの組み合わせが大切になる
とりあえず、そこは使ったこと無いが今試した見た
Prompt 2girls,hatsune miku,swimwear,perfect anatomy,best quality
Styles sai-anime
Negative ugly,worst quality,normal quality
あとは全部デフォルト
nsfwも試したけどこのモデルでは効かないっぽい
一応、それっぽい絵は出ると思う
もし、エロイのしたいならpixaiとかかな
ただオンラインは遅いしモデルに制限有りまくる(AOM3とか使えないっぽい)からローカルでできることのほんの一部しか無理だと思う
オンラインは殆ど使ったこと無いから詳しく知らないんで説明間違いならすまん
誰も答えてないから一応レスした >>423
駄目です。ここでSDやってる人はほぼローカル環境でやってますよ ただ勘違いしてもらっちゃ困るのがローカル環境でも学習してないモデルとか使ってると出ないもんは出ない。
つまり、公表するようなオンライン環境で出たらまずいものは当然そんなことはさせないようになってるBingと同じだわな
あきらめてローカルでニッチなものを作るしかない やっぱりローカルでやらないと無理ですか
ところで、以前リバーシなどのゲームのAIを本を読んで作ったのですが、
対戦させては学習させてで、1か月に電気代5000円ぐらい余分にかかってました
画像生成AIの学習もそれぐらいお金かかっちゃいますか?
そもそも学習データとなる画像がたくさんないとだめですよね >>428
ローカルじゃないと駄目なんてものはない
まず知識不足だからモデルやらプロンプトイジって勉強しよう
オリジナル素材で学習したい場合も同様で色々作ってから取り掛からないと何も理解出来ない >>428
モデルガッツリ作るとかは知らない
Loraとかでいいなら10枚くらいでいい感じになる
学習時間は10分くらいだから1キャラ2.5円くらいかと
この場合、いいモデルを探してくるのが重要になる なるほど、モデルを自分で作るんじゃなくて探すわけですね
ちょっとローカルに入れていろいろいじってみます
ありがとうございました chilloutmix_NiPrunedFp32Fixでヌード生成すると乳首が綺麗にでない・・
プロンプトで乳首綺麗にする方法ってあるん? あなたのいう綺麗は誰も分からない
civitaiでも見てあなたが綺麗だと思う絵のプロンプトを見ればいい >>432 >>433
10秒程度のショート動画がおすすめ 自作したLoraの出来が良くないので他の人のLoraを参考にしたりコツを調べたりしたいのですが、どういったサイトを参考にしていますか?
Loraの作り方を記載したページは多数あるのですが、Loraの質を上げる方法を記載したページがあまりなくて…… すみません質問させてください。
VAEファイルを所定のフォルダに入れているはずなのに選択画面に一つも反映されていません。
環境はcolab proでfast_stable_diffusion_AUTOMATIC1111.ipynbでやっています。
/content/gdrive/MyDrive/stablediffusion/sd/stable-diffusion-webui/models/VAE/
上記に保存し起動後、Settingタブ→Stable Diffusion→SD VAEの順で選択して行き
ドロップボックスの箇所にファイルは反映されず、更新ボタンを押しても反映されずです。
関係ないかもしれませんが、Loraは反映されます。
どうしてもVAEを生成画像に反映したいので、どうかお力をお貸しくださいm(_ _)m >>438
自分は○し○きdiffusionの「LoRA/学習用パラメータ解説」と「オプティマイザー」あたりを参考に試行錯誤
> Loraの質を上げる方法を記載したページがあまりなくて
紹介サイトは閲覧数稼ぎがお仕事で大抵触りでしか作ってないし、逆にそこそこ作ってる人は細かいノウハウはバラさないよね
ちなみにloraのファイルをバイナリで開いたら頭に全部パラメーター残ってる(たま〜に消してる人いるけど)
大抵はああそんなもんかってなもんで、学習画像とキャプションの選定が全てってわかる >>439
webuiのバージョン分からんけど1.6だとSD VAEの設定は
setting→Stable Diffusionではなく
setting→VAEの方にない? >>441
バージョン1.6でして、まさにおっしゃる通りVAEのとこにありました!そして無事反映もできましたありがとうございました!!
参考にしていたサイトが情報古かったのかもです
本当にありがとうございましたm(_ _)m >>435
適当にbeautiful nipples? >>442
出来たなら良かった
settingタブ→Stable Diffusionの方にあったのは「SD VAE」ではなく「SD Unet」だったのかな
質問する時は文言は正確にね
setting→User interface→Quicksettings listに「sd_vae」を入れておくと
checkpointと同じように画面上部にVAEのプルダウンメニューが表示されて切り替えが楽になるんで一応 >>438 グラビアなのかアニメなのか、なにをやろうとしているのか知らんけど、
グラビアなら写真の基礎から学んでいく必要があるし、LoRAより先に知るべきことが多い
それぞれのCheckPointの長所短所を把握するのも大事
上げたいのはLoRAの質じゃなくて出来上がったCGの質だよね
そもそもCheckPointごとにLoRAの利き方が違うので、LoRA単品で質は語れないんだよ >>438
キャラlora作成で検索したら普通に役に立つ情報でてくるが
2Dでまともな学習画像がある前提だが、要素ごとに分類してフォルダ分けするのが大事だと思う。
例えば服装1と服装2を分けて、それぞれワードを振っておくとかね
人物なら不変の要素(体形や髪色など)と変化する要素(髪型や服装など)は分けて覚えさせた方がいい、気がする
あとワードを設定する際に普通の言葉を使うと意図しない物が混じることがある
ミカンというキャラがいるとしてmikanをワードに設定すると生成結果に果物のミカンが混じる、みたいな やたら鉄や機械が混じるので何かと思ったら、キャラ名が銃器メーカーだったことがある
以来トリガーワードからは母音抜きするようになった 手っ取り早く漫画作りたいんだけど
キャラ固定とポーズの自由度はどのくらい制御できる?
3Dでポーズ取らせたキャラの画像読み込ませて
理想の構図でキャラ絵描ける? 4ヶ月ぶりに動かしたら1.6になってるのか
今ってみんなどこで情報共有してるの?
Discord? >>449
自作LoraとCN駆使したら簡単にいけるだろうね、サイバーパンク桃太郎の頃とは違う
何もかもAIで完結って考えずに切り貼り工夫もしたらいいし
> 手っ取り早く漫画作りたいんだけど
ネームくらいは切ったことあるの?AIは末端の一道具でしかない >>450
ディスコが多い、細かいのはGitで直接
こことかは相変わらず9割の人が雑談かひとりごとだね >>451
自作って面倒?
ネームは多少はわかるよ
フォトショップで加工もするけど
とにかく絵を描きたくないw
CNとi2iってどっちが精度高い? 誤ってPythonフォルダ消してもうて、すぐ戻したけどwebUIもkohya.guiも起動しなくなってもうた。。。
これまた最初から入れ直しなんでしょうか? >>454
5チャンネルメイトだと文字が小さくなって読めねえんだよ sdxl で乳首ロラ探して好きなの使えばいいんちゃう controlnetで抽出した線画を部分ごとにRGB指定して色塗りする方法ってないですよね…? controlnetで抽出した線画を部分ごとにRGB指定して色塗りする方法ってないですよね…? >>463
言ってる意味がわからない
コントロールネットで線画? 元絵を変えずにメモリエラー出さずに拡大する方法見つけたからここで宣伝しておくわ
メモリ少ないTiled Diffusionですらメモリエラーでるクソスペだったけどこの方法なら使えたわ
https://youtu.be/_hzbqhVkJZE?si=6O_cbseZwsGtPszO
元絵を変えないからメモリに余裕あってもこれおすすめできるぜ PRってないんですけどステマですよね
逮捕案件じゃないんですか?(棒) >ここで宣伝しておくわ
はっきりと宣伝と宣言しているし
ステマじゃなくてダイマだろ pixivで投稿してたらアカウント停止になったんだが規制厳しくなった? 既成LORA使って好きなポーズとらせたいんだが良い方法ないかな?
少し前の海外の動画見てたらカラフルな棒人間を動かしてたんだが、今ってそれより良い方法ってある? 3060-12Gだけど512-768を3倍にアップスケールするために
Tiled Diffusion使ったら「進行度5% 残り10時間」とかなる
でもどうせ途中で急に短縮されて数分で終わるんでしょ?wと思ったら30分待っても全然終わる気配なし
何かがおかしよね??
他のSDアップスケールやアルティメットアップスケールなら10分もかからないのに
Scale Factorを3にする以外デフォルト設定のままなのに何故…… >>473
投稿内容わからんけどアウト判定スレスレのをあげてたんなら仕方ない >>475
Tiled Diffusionとそれのサポート拡張のTiled VAEを使いましょう
自分はTiled VAEを使えば8GB+共有5GB程度だから3060 12GBなら共有1GBくらいになって秒で終わると思う
使わないと共有は11GB使用されてメインメモリ22GBくらいになる
ちなみに他のControlNetを2つ3つ重ねるとクソ遅くなるよ
Referenceとか致命的 >>475
Tiledの設定で一枚あたりの画像サイズの処理にかかる容量がVRAMの容量を超えるような設定になっているとタイル一枚あたりの生成もCPU側のRAMを使うようになって激遅になる
処理中のVRAMを監視して上限を超えていないか確認するかCPU側のRAMを使わないバージョンのGeforceドライバーに変えて落ちるかどうか確認して切り分けるといい >>476
実写のAIで制限された。未だに投稿してる人がいるから何で引っかかったのか分からん。
pixiv卒業して他のサイトに移動するしかないけど良さげなサイトがない。 >>475
Tiled Diffusionの“Latent tile”の“width”“hight”と“batch size”の数値はどうなっていますか?
あくまで私の環境下での経験則になりますが、tileが大きいほど処理も早く負荷も軽く、batch sizeが大きいほど速く重く、小さければ遅く軽くとなっています。
調べればそれらしい情報は出てくるのでお節介かもしれませんが、少しでも助けになれば幸いです。 >>477-478
VAE使って10分以内に終わりますた
でもかかった時間は
SDアップスケール < Ultimateアップスケール < Tiled Diffusion
ですた
あとTiled Diffusionだと同じDenoising strengthでも小人がめっちゃ出てきて困った…
小人問題はCN Tile使ったら直るっぽいけど、
CN Tileを加えると完成予想時間が数時間後になってしまう……
今はUltimateアップスケールをメインで使っていますが、
Tiled Diffusion+VAEの優位性がよくわからないです……
なぜみんなアップスケール時にTiled Diffusion+VAEを使ってるの??… >>480
Tiled Diffusion
“Latent tile”
“width” 96
“hight” 96
“batch size” 4
Noise Inversion オフ
です!!
他に3060-12Gの最速設定はありますでしょうか >>482
512:768であればwidth:hightも同じ比率の数値に変更してみると僅かに節約出来るかと思います。
極端な話であればwidth512のhight768を試した後、品質に問題があれば256:384などに下げて行き、品質と速度の妥協ラインを探すのが良いかと。
batch sizeについても同様に、最大値の8でメモリ不足エラーが出れば順次下げて行けば良いかと思います。 >>481
Denoising strengthは0.1以下にしましょう
そもそも512*768の生成自体は何分かかってんの?w >>483
すみません……Latent tileの数値の上限は256でした。なので171:256くらいから下げて行くのが良いかと。 >>484
バッチサイズ等変更しますた!
512*768のt2i生成自体はCN使っても1分以内で
生成スピード掲載サイトを確認しても3060の妥当な速度でした
しかしよく推奨されてるTiled Diffusion+VAE+CNtileが異常に遅すぎて遅すぎて遅すぎて何故… >>486
img2imgでTiled Diffusion・Tiled VAEを使った拡大は自分も使用するので理解出来るのですが、CNtileも併用するのですか?
試しにCNtileを併用したら普段の40倍ほど予想時間が伸びたので恐らく併用するものでは無いのでは?
CNtileはほぼ使わないので的外れな書き込みでしたらすみません。 >>487
WebuiのVerとControlNetのVerいくつ使ってますか?
自分はWebUI 1.6.0 python: 3.10.6 torch: 2.0.1+cu118 オプション --opt-sdp-attention
ControlNet v1.1.411 ですけどControlNetにTile/Blurってのがあって
tile_resample / control_v11f1e_sd15_tile モデル使っても時間はほぼ変わらないです
記憶がおぼろげで申し訳ないがなんかv1.4.3 torch+cpuだった時の挙動に感じる >>487
環境はversion:v1.6.0•python:3.10.6•torch:2.1.0+cu121•xformers:0.0.22.post4•gradio:3.41.2
--xformers --opt-channelslast --disable-nan-check --no-half-vae
ControlNet v1.1.415です。
>>468を見て試したCNtileとSD upscaleを使用した拡大は常識的な処理時間で書き出されたので、異常に長い処理時間は何かおかしいなと判断した次第です。
Tiled Diffusion・Tiled VAEを使った拡大で特に問題を感じた事が無いのですが、CNtileを併用するとどのような効果があるのでしょうか。 ■ このスレッドは過去ログ倉庫に格納されています