【StableDiffusion】画像生成AI質問スレ19
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ18
https://mevius.5ch.net/test/read.cgi/cg/1694882607/ 4090にしたんだけどX-formersより使える起動オプションであるんだっけ
結局X-formersが良い? >>351
これとか?
```
--opt-split-attention --opt-channelslast
``` Animatediffにadd reverse frameの項目がどこにも見当たらないんだけど理由わかる人いますか?
Animatediffは最新版です >>347
多分、指が崩れにくいモデルとプロンプトを突き詰めた結果そうなってる 指を気にしだすと生産効率大きく落ちるよね
指修正すげぇ時間掛かる
お勧めはDepthLibraryとInPaintで修正して
仕上げはADetailerの手のモデルで修正
ADetailerは顔の修正が凄いね
顔がダメでボツにした絵も綺麗にできてびっくり >>358
これはいいことを聞いた
早速試してみよう >>355
Ver.1.9.4以降Closed loopの1機能として吸収されて、Number of frames <= Context batch size かつ Closed loop == Aの時に従来のadd reverse frame機能が動くみたい
Context batch sizeは16固定で動かすと思うから、実質16フレーム以下の時のみ動作するように変更された感じかな animatediffは
生成時間がかかりすぎてネックだわ LoraをCivitai Helperで入れて Refleshしても何も表示されないからLora適用できないんだけどどうしたらいい?
フォルダ見ると確かにDLはできている。 >>361
何のクラボを使っているのか書いてくれないと Regional Prompterって成功率低いな……
全然上手くいかないしLora複数使うと更に駄目だし >>365
自分も最近使い始めたけど、あれ?ってときは不慣れで大抵なんかミスしてることが多かった
縦横変えてなかったり、いじってるうちにADDCOLとADDROW変えるの忘れてたり
上の生成サイズとRP側のサイズってよくわからんからとりあえず一緒にしてるけど、全然違ったら結構失敗したような
Loraも入れれば入れるほど遅くなるけど薄めたら割とうまくできたよ AnimateDiff
hires MP4投入 CN よし生成!
ファンブォーン!止まる!
メモリ足らんよ!
4090 プロンプトを Nishijima Hidetoshi だけで、仮面ライダーBLACK SUNぽい黒ジャケットの絵が出てきた……凄い…… プロンプトを North Korea だけだと、ハングルが書いてあるミサイル、国旗、王様だった……なぜだ……
JapanやRussiaだと、自然豊かな風景や建物なのにな >>367
H100をどうぞ
…誰か使ってレポートしてくれ
スレに石油王の一人くらい居てもいいだろ!(哀願) 70万円のマックブックプロ128G買ってくれたらやったげる 新しく発売されるMacbookproのM3チップと
4090番のどちらが生成画像作るのに早いかな? >>375
今のAIアニメは背景が変わりまくるから使えないな
Blender勉強したほうが手っ取り早いな
SD使ってイラスト生成したあとに
E-moteかLIVE2D使うのもありかも? >>376
イラスト生成は1分で、レイヤー分けするのに何時間かかんのかねえ まあM3チップで
animatediffを動かすのは厳しいかもね >>372
マカーは過大評価しすぎ
会えていおうカスであると raytrek cloudというドスパラが貸GPU始めるみたいだけど
やっぱnsfwは停止されるのだろうか aiで版権ものとか実在の人物のエロ絵って見ないけど、なんか問題あるの?
そのキャラクターで学習させたとか公開しない限り証拠ないよね >>372
2年ぐらいM1mac使ってて最近4070tiのPCを買った俺から言わせてもらうと、AI用途でmacに何かを望むのはやめたほうがいい
あまりにもコスパが悪すぎる
4090と同等に画像生成できるようなmacはたぶん100万ぐらいすると思う M○チップのMacは普通の用途では(性能以上に高いのに目をつぶれば)必要十分な能力があるけど尖った用途で使うにはグラボ積めないメモリ増やせないでカスタマイズ出来なくてな
2.5D系のモデルでもリアル寄り過ぎるから2Dモデルに3Dモデルを0.05とか0.1マージして2.1D的なモデルを作ろうとしたら、10枚中1枚が3Dで出てくるだけの2Dモデルが爆誕した……なんなん >>381
civitaiとか利用したことないんか? >>381
ちょっと待って意味がわからない
ありすぎて困るんだがどういうこと? >>381
実在の人物が公認しているケースも有るよ。
大部分は許可とらずに勝手にやってるね。
岸田とかゼレンスキーをcivitaiで見たときはやり過ぎと思った。 tensor爆盛したら勝てるだろうけどそんなニッチなもん作らんだろ >>386
公人だから学習自体は問題無し
じゃなきゃ政治風刺漫画全部NGな強権国家 検索したらなんぼでも出てきたわw
けどクオリティ高いのは少ないね 無知な人は自分が無知なことも知らない
半年ROMることの大切さを知るべき クオリティ高いのは訴えられたりして問題になると困るから公開してないだけ クオリティ高いの作って公開してたらロクな事にならない
見たかったら自分で作ればいいの精神 これ漫画にどれくらい使える?
最初から線画できれいに出せる?
表情とか躍動感とかその辺知りたい Loraの選択画面でフォルダの名前がズラーと並ぶの無くす方法教えてください Google Colab版のKohya LoRA Dreamboothを使って1つのLoraに複数の概念を学習させたいんだけど、4.2.3. Custom Caption/Tagを使用すればいいの? animatediffについて、作った動画をhiresするエクステンションとかありませんか? >>397
無能はすぐに聞く有能は自分で試してから聞く >>402
金がないんだよ
ググったけど導入も面倒だし
使えるならグラボ買うけど >>401
全コマをバッチでhiresして、ffmpegや簡単プロンプトアニメで動画につなぎ直すのが手っ取り早いかも
ほかに方法はあるかな >>403
ai lineart で検索したら色々と出てくるよ
自身の求めるものが出せそうかある程度は判断できると思う >>403
質問がざっくりしすぎてて答えようがないよ
最初から線画で出すのはそういうLoRAを探せばいけるかもしれんが、それよりはペイントソフトの線画化フィルタを使えば済みそうだし
ControlNet用にラフを描いたり出力画像を修正したりできる画力があるかにもよるしね
画像生成AIがどんなものか試したいならPixAIのようなオンラインサービスを使ってみては
PixAiについて語るスレ
https://mevius.5ch.net/test/read.cgi/cg/1694322730/ ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
youtubeでanimatediffの解説してる人はhiresやってるって言ってるけど >>407
友達の友達はーみたいな表現で翻弄するのやめや
自分で試したわけでもないのに >>407
> ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
あー確かにそれはありそう >>408
いや、ひとつひとつやるのは自分で試したわ
そしたらひとつひとつのディテールが違うからこりゃ繋げたらわちゃわちゃになるわな…ということで諦めたわけ
ちなみにanimatediffで生成時にhiresfixで1.5倍にするのは自分でも試みたけど、youtubeで解説してた人はやってるって言ってたなぁ
なにかコツがあるのかな?
ということを全部説明したらめちゃくちゃ長くなるからはしょったんだよ!なげーだろ!! 暇なんで、chichi-puiのサイトで児童ポルノ投稿してるやつら
新着順に片っ端から問題報告してるが、数が多すぎてキリがないわ 顔も体も子供なのに、なぜか巨乳だと児童ポルノとして通報しにくい
童顔の大人ですって言い訳できそうで
AIで作った子供は目付きが完全に子供じゃない(知性がある大人の目)だから、なおさら もっとヤバそうなガチロリ3D同人とかずっと生きてるからAIレベルのグラフィックじゃ自主規制でもなければ無理ちゃうか
ディープフェイクとか子役loraとか使い始めたらヤバいだろうが >>410
だからそれでできる保証もないのに発言するなと言いたい >>411
ほんま暇やな
あそこが禁止なのは実写系で胸ペタのロリだけだぞ
二次系はどんだけロリでも性器に修正かかっていればOK
日本の法律に準じてるからな >>416
俺は実写系しか興味ないから、イラスト/アニメはまったく見ない
サイトに通報したら何らかの対処する可能性は高いぞ
実際俺の投稿も勝手に移動させられたし イラストでリアルっぽい記事のパンティーやブルマを履かせたいけど
サテンや水着っぽい感じになる
どの様に呪文をかけば布っぽい感じになりますかね?
ちなみに、(gauze fabric panties:1.5)としても殆ど効果がありませんでした inpaintでリアル系のモデルに描き直させればいいんじゃないですかね
そのモデルにできないことを必死にやらせてもできるようにはならんからな オレは逆に二次絵なのに下着水着肌着の布だけリアル寄り過ぎて困ってるな
下手なコラみたいになる 初心者の質問ですみません
Stable Diffusion Onlineを使っているのですが、何をやっても思い通りの画像が出てきません
自分のマシンにインストールしないとだめですか? >>422
それどうやったらなるんだ
BREAK使ってrealistic pantiesしても顔までリアルになりガチで困ってる
>>421
その手があったか
あと、inpaint挑戦したけどどうにも違和感が出てしまう
またまれにすごく布っぽくなるし何が適切な呪文があればとは思うんだけどね モデルは知ってるけど正しい気ワードではないから呼び出せてないような気もしてる
あと、複数枚あるから可能な限り呪文でやりたい >>423
思い通りの画像の内容がわからない
プロンプトとモデルの組み合わせが大切になる
とりあえず、そこは使ったこと無いが今試した見た
Prompt 2girls,hatsune miku,swimwear,perfect anatomy,best quality
Styles sai-anime
Negative ugly,worst quality,normal quality
あとは全部デフォルト
nsfwも試したけどこのモデルでは効かないっぽい
一応、それっぽい絵は出ると思う
もし、エロイのしたいならpixaiとかかな
ただオンラインは遅いしモデルに制限有りまくる(AOM3とか使えないっぽい)からローカルでできることのほんの一部しか無理だと思う
オンラインは殆ど使ったこと無いから詳しく知らないんで説明間違いならすまん
誰も答えてないから一応レスした >>423
駄目です。ここでSDやってる人はほぼローカル環境でやってますよ ただ勘違いしてもらっちゃ困るのがローカル環境でも学習してないモデルとか使ってると出ないもんは出ない。
つまり、公表するようなオンライン環境で出たらまずいものは当然そんなことはさせないようになってるBingと同じだわな
あきらめてローカルでニッチなものを作るしかない やっぱりローカルでやらないと無理ですか
ところで、以前リバーシなどのゲームのAIを本を読んで作ったのですが、
対戦させては学習させてで、1か月に電気代5000円ぐらい余分にかかってました
画像生成AIの学習もそれぐらいお金かかっちゃいますか?
そもそも学習データとなる画像がたくさんないとだめですよね >>428
ローカルじゃないと駄目なんてものはない
まず知識不足だからモデルやらプロンプトイジって勉強しよう
オリジナル素材で学習したい場合も同様で色々作ってから取り掛からないと何も理解出来ない >>428
モデルガッツリ作るとかは知らない
Loraとかでいいなら10枚くらいでいい感じになる
学習時間は10分くらいだから1キャラ2.5円くらいかと
この場合、いいモデルを探してくるのが重要になる なるほど、モデルを自分で作るんじゃなくて探すわけですね
ちょっとローカルに入れていろいろいじってみます
ありがとうございました chilloutmix_NiPrunedFp32Fixでヌード生成すると乳首が綺麗にでない・・
プロンプトで乳首綺麗にする方法ってあるん? あなたのいう綺麗は誰も分からない
civitaiでも見てあなたが綺麗だと思う絵のプロンプトを見ればいい >>432 >>433
10秒程度のショート動画がおすすめ 自作したLoraの出来が良くないので他の人のLoraを参考にしたりコツを調べたりしたいのですが、どういったサイトを参考にしていますか?
Loraの作り方を記載したページは多数あるのですが、Loraの質を上げる方法を記載したページがあまりなくて…… すみません質問させてください。
VAEファイルを所定のフォルダに入れているはずなのに選択画面に一つも反映されていません。
環境はcolab proでfast_stable_diffusion_AUTOMATIC1111.ipynbでやっています。
/content/gdrive/MyDrive/stablediffusion/sd/stable-diffusion-webui/models/VAE/
上記に保存し起動後、Settingタブ→Stable Diffusion→SD VAEの順で選択して行き
ドロップボックスの箇所にファイルは反映されず、更新ボタンを押しても反映されずです。
関係ないかもしれませんが、Loraは反映されます。
どうしてもVAEを生成画像に反映したいので、どうかお力をお貸しくださいm(_ _)m >>438
自分は○し○きdiffusionの「LoRA/学習用パラメータ解説」と「オプティマイザー」あたりを参考に試行錯誤
> Loraの質を上げる方法を記載したページがあまりなくて
紹介サイトは閲覧数稼ぎがお仕事で大抵触りでしか作ってないし、逆にそこそこ作ってる人は細かいノウハウはバラさないよね
ちなみにloraのファイルをバイナリで開いたら頭に全部パラメーター残ってる(たま〜に消してる人いるけど)
大抵はああそんなもんかってなもんで、学習画像とキャプションの選定が全てってわかる >>439
webuiのバージョン分からんけど1.6だとSD VAEの設定は
setting→Stable Diffusionではなく
setting→VAEの方にない? >>441
バージョン1.6でして、まさにおっしゃる通りVAEのとこにありました!そして無事反映もできましたありがとうございました!!
参考にしていたサイトが情報古かったのかもです
本当にありがとうございましたm(_ _)m >>435
適当にbeautiful nipples? >>442
出来たなら良かった
settingタブ→Stable Diffusionの方にあったのは「SD VAE」ではなく「SD Unet」だったのかな
質問する時は文言は正確にね
setting→User interface→Quicksettings listに「sd_vae」を入れておくと
checkpointと同じように画面上部にVAEのプルダウンメニューが表示されて切り替えが楽になるんで一応 >>438 グラビアなのかアニメなのか、なにをやろうとしているのか知らんけど、
グラビアなら写真の基礎から学んでいく必要があるし、LoRAより先に知るべきことが多い
それぞれのCheckPointの長所短所を把握するのも大事
上げたいのはLoRAの質じゃなくて出来上がったCGの質だよね
そもそもCheckPointごとにLoRAの利き方が違うので、LoRA単品で質は語れないんだよ >>438
キャラlora作成で検索したら普通に役に立つ情報でてくるが
2Dでまともな学習画像がある前提だが、要素ごとに分類してフォルダ分けするのが大事だと思う。
例えば服装1と服装2を分けて、それぞれワードを振っておくとかね
人物なら不変の要素(体形や髪色など)と変化する要素(髪型や服装など)は分けて覚えさせた方がいい、気がする
あとワードを設定する際に普通の言葉を使うと意図しない物が混じることがある
ミカンというキャラがいるとしてmikanをワードに設定すると生成結果に果物のミカンが混じる、みたいな やたら鉄や機械が混じるので何かと思ったら、キャラ名が銃器メーカーだったことがある
以来トリガーワードからは母音抜きするようになった 手っ取り早く漫画作りたいんだけど
キャラ固定とポーズの自由度はどのくらい制御できる?
3Dでポーズ取らせたキャラの画像読み込ませて
理想の構図でキャラ絵描ける? 4ヶ月ぶりに動かしたら1.6になってるのか
今ってみんなどこで情報共有してるの?
Discord? >>449
自作LoraとCN駆使したら簡単にいけるだろうね、サイバーパンク桃太郎の頃とは違う
何もかもAIで完結って考えずに切り貼り工夫もしたらいいし
> 手っ取り早く漫画作りたいんだけど
ネームくらいは切ったことあるの?AIは末端の一道具でしかない ■ このスレッドは過去ログ倉庫に格納されています