【StableDiffusion】画像生成AI質問スレ17
レス数が950を超えています。1000を超えると書き込みができなくなります。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ16
https://mevius.5ch.net/test/read.cgi/cg/1692012289/ さすがに同seedでやってください・・1枚でいいので
同seed同プロンプト同モデル同COMMANDLINE_ARGSで同じのが出たら気のせいです
あとGPU型番はそれぞれ何? 流石に環境による誤差を語るなら同SEEDで語らないと意味がない optimizeなどプロンプト以外の設定いくらでもあるからな
メインで出力した絵をサブに入れたらパラメータ違う分はoverrideに出てこないか 質問というか
コレやってると捗るって機能ある?
気軽にOS入れ替える派なんだけど、よくやるのは
右クリコマンドプロンプトのgit pull
settings>system>Automatically open webui in browser on startup>local 自動起動させる
easy-prompt-selectorを入れる
あとLoraの選択の時の拡張機能も入れたいんだが時間がねぇ プルダウン選択するもの全部ラジオボタン選択にするとかならやってる dataset tag editorのスタンドアロン版使っている人いる?
launch_user.bat起動しても
ImportError: accelerate>=0.20.3 is required for a normal functioning of this module, but found accelerate==0.15.0.
Try: pip install transformers -U or pip install -e '.[dev]' if you're working with git main
と出て、pip install transformers -U or pip install -e '.[dev]' を試してもなおらない >>851,852
まあ確かにそうですね
ただ以前はどちらのマシンでも9割がた後ろ姿になっていたのであまりの変わりようにびっくりして
メインが3080Ti、サブが2070です >>857
DPM2 a KarrasとかEuler aとか「a」がついてるサンプラー使っているならEtaもあわせないとだめだよ 「Error on parsing TOML config file. Please check the format.TOML形式の設定ファイルの読み込みに失敗しました。文法が正
しいか確認してください。」どうしたらいいか調べても見つかりません。 >>857
> メインが3080Ti、サブが2070です
"確定ではない"情報だけど一応こういう話が昔あった
https://economylife.net/best-gpu-for-image-ai/#toc7
> 正確に書くなら1000/1600番台を含む2000番台までのグラボが全てダメです。
> なぜなら生成結果が3000番台以降のグラボと一致しないため。
>>859
「書類に不備があるって怒られたんだけどどうしたらいいですか?」みたいな質問
何やってたのかとか、前後も書かないと無理、cmd上で選択して右クリックでコピー可能 >>860
たった今自己解決しました、お騒がせしました。 解決した。pythonとtensorflowのインストール先が違ってて出来なかったみたい。
プログラミングてんでわからんからbardのちから借りて2日かけて解決できたわ。疲れた。 今2060の12GBで「--xformers --opt-sdp-attention」なのですが、
これ以上に最速生成可能なオプションてありますか?
「--opt-sdp-no-mem-attention」とか似てる文言が色々あるみたいでベストがどれなのか+よくわかりません >>863
その二つは重ねる意味はないと思うよ
RTX20なら--xformersだけでいいと思うが
--opt-sdp-attentionはPyTorch 2系でRTX30やRTX40系で使う感じかな >>864
そうなのですね…
4倍アップスケールに6分以上もかかるので
もっと速くなるオプションがあるのではないかと希望を持ってしまいました… というかその二つは重ねるなって書いてあったような
逆に良く動いてたな 枚数が多いと(10枚以上)生成結果が表示されません outputsには全て出力されており、生成過程の表示はされているのですが、100%の所で少し固まり、生成前の何も出力していない状態にもどります。エラーも吐いていないのですが、対処方法ありますか?グラボは4080です グリッド画像デカすぎ問題ぐらいしか思いつかないけど10枚ぐらいで出るもんなのかな
作ってる画像のサイズもコマンドラインも見てないからよくわからぬね >>868
新規インストールしなおして、拡張未導入の最低限の512×512でもなります。コマンドも生成の進歩以外のエラーは一切無いです。1.3.2から1.6.0までの各ver起動ブラウザもChrome、エッジ、firefoxでためしましたが、変化なしでした。前のpcではならなかったんですけどねぇ 低予算でも生成と学習ができるということで3060 12GBを考えてたのですが
以下の結果を見ると4060のほうが生成と学習のトータルタイムを節約できるように思います
3060の場合、VRAM12GBあってもGPUパワー不足のせいで4060に大きく差をつけることは無いのでしょうか?
LoRA学習速度ベンチマークだと4060との違いがほとんどありません
https://chimolog.co/bto-gpu-sd-lora-specs/
一番最後のテストで100秒差をつけてますが、それ以外は逆転しても誤差程度です
https://chimolog.co/bto-gpu-stable-diffusion-specs/ >>870
入門用というかミドルクラスというか、この辺りのGPU選択は何を重視するかで判断が変わってくるとは思うけど
個人的には画像生成はちょっとおさわりできればいい位の感じではないならVRAM8GBモデルは選外かなと
例えばFHDゲーミングが主でほんとにお遊び程度にAI触れればokって感じなら4060は有りだけど
自作LoRA作ったり高解像度生成したいとかも考えてるなら12GB以上のモデルにしておいた方がいい
3060 12GBが入門向けなのはその辺りカバーしつつ値段も安いからだと思う
AI等が主でゲームはしないとかなら4060Ti 16GB、ゲームもしたいしAIもって感じなら4070系とか AIやる前から持ってる8GBのGPUで頑張ってるけど8GBは本当にギリギリすぎて辛いぞ
ゲームがメインでAIは本当に触りだけできればいいってなら好きにすればいいけど 3060tiと迷ったけど学習やanimediffとかやるようになると8Gじゃ絶対無理だわと分かった AnimateDiffやるならケチらずに4090買った方がいいよ
飽きたらメルカリ行きにすれば、それなりの値段で売れるし RTX3060だけど4倍アップスケールに数分かかるから全然満足出来ないなぁ…
20万以上出して4090買える身分じゃないので我慢するしかないけど…
グラボの生成速度比較はよくあるけどアップスケール速度比較知りたいなぁ…
4090なら数十秒で4kとかにアップスケール出来るんだろうなぁいいなぁ… 4090って25万とかでしょ
patronとかで金儲けでやるんならいいけど
そこまでなぁ
電源も変えないとならんし
今から買って3年も使うとそん時売ってどんくらいになるか メモリ量が絶対正義
12Gはかなりきつい
24G欲しい
8G?ゲームやってろ 4000シリーズは電気バカ食いすぎて最適化不足の欠陥品
今回はスルーして5000シリーズを待った方がいい AMD対応がもう少し進めばNVくんの殿様商売も少しはマシになったりするのかなぁ… 昨日のニュースでGH200が出るって言ってたぞ
帯域幅5TB/s、メモリ141GB
やるならこれだろ そんな金かけて人に見せるようなもん作ってんの?
自分で見るだけでしょ 自分で見るからこそ金を天井知らずで湯水のように掛けるんだよ、決まってるだろ。 金かけたら思い通りの物作れるようになるなら金かけるけどな
スキルとスペックは関係ないしな 「クライシスアクター」「豊島保養所」←画像検索&拡散!!!!!
↑他スレに貼り付けよろ!!!
ネット上でできる反レプティリアン&反イルミ活動です!!!!!
動画サイトのコメ欄もねらいめだぞ!!!!!!!! 以前なら何百万掛けてもできなかった事がたった数十万でできるんだから凄いもんだ >>882
VRAM容量をイジれないとか変わればいいけどね
用途に応じて違うだろうに VRAM多いの追求するならColabでA100-80GBでやればいいのに メリットは
電気代気にならない
数年後型落ちになる懸念も無い
故障無い
どのPCでもスマホでも使える LoRA学習で学習が不十分な所があったら、network_weightsに作ったLoRAを入れて、その不十分だったタグの画像だけで2回目の学習をするとか効果あるのかな Google Colabは課金ユーザーなら今でも1111を使えるんじゃないの よくわからないエラーメッセージが出た時は、チャットAIにそのまま読ませてみると、そのメッセージを解説してくれる
解決法まで提示してくれることはそんなにないけど 例えばAchanってキャラLORA作って、
このAchanがつけている衣装(スカーフの柄)を正確に覚えさせたいって場合、
スカーフだけのアップ画像を多めに混ぜればいいのでしょうか?
このスカーフをAchanだと学習しそうな気もするのですが・・・ >>881
ゲームとか時間あたり消費電力ならそうかもしれんが、生成AIとかの枚数あたり消費電力なら3090より4090の方がいいじゃろ >>881
時間が勿体ない
とりあえず4000で繋いで5000の値段が落ち着いたら購入
その後、4000をヤフオクで売ったら良いんじゃね
その頃SD飽きてたらダウングレードしてもいいだろうし 最近YouTubeのSD関係動画でもColabでやってるのよくいるな
24Gじゃ満足出来ん奴らか >>897
>>898
25万円のグラボ代だけじゃ無く1ヶ月当たり前8000円~の電気代アップも忘れてはならない
5000シリーズが出るのは2年後ということなので24ヶ月×8000円の19万2000円の出費だ
その金があればVRAMも倍に増えてWパフォーマンスが高い5000シリーズを買えるだろう
もちろんPCを使わなければ電気代は0円だ
なんの為に4090を買ったのかは別になるがな >>901
その理屈なら6000シリーズを待てばさらにお得、余命2年で買うのがベストになるじゃろ >>901
PLしてれば電気代はむしろ下がるんじゃないか?
イメージとしては蛍光灯をLED電球に変えるみたいな感じ
電気代はかかるけどトータルでは出費が抑えられる
それに、5000が普通に買える頃、SDが今みたいにほぼ無法状態で使えるという保証もない
2年と言わず50年我慢したら今のスパコン並みのが買える、我慢やでw >>896
アップにしてキャラの特徴が無い絵でキャラ名をタグに入れなければいけるかも? >>870 3060は古いグラボだから中古で安く買える 4060は新製品だからあまり安くならない
低予算で考えるなら3060一択 4060は消費電力が低くて電気代がお得なんだけどね >>902
>>903
4000シリーズはまだAI特需に特化したと言えない洗練されていないイメージだが5000シリーズが出ても進化しないままならそうかもな
VRAMの搭載量は少ないし最適化不足でワッパが著しく悪いし
排熱問題も解決しないといけないし常時使用にエアコン代も馬鹿にならない
家庭用電源のタコ足使用なんて以ての外でコンセントの供給元をわけないといけない(家が古い場合、壁の中で電源配線コードが溶ける)
年々エネルギー問題で電気代も高騰していくのにこんな大飯喰らいを使っていける金持ちが羨ましい
タイム伊豆マネーも分からなくもないけどまだバランス悪いわ 倫理的にダメなプロンプト入れると、一部のモデルではワザと砂嵐画像作ってる? nsfw絵は黒塗りを返すネットサービスは聞いたことがあるが
modelでそんな仕掛けをしてるものは聞かないな
nsfw絵の教師画像がなく脱がないmodelはある
VAEを変えたら改善しないかな? VAEって発色補正って認識だったんだけど生成画像の内容にも影響するの? そんな金を湯水のようにかけたいならこれ買えよ
NVIDIA H100 NVH100-80G [PCIExp 80GB]
最安価格(税込)¥6,255,000~ 砂嵐の度合いが分からないのでVAE辺りぐらいしか思い浮かばなかったが
ダウンロード中にmodel データが破損しても砂嵐になったのを思い出したわ .ckptって.safetensorに作り直すというか変換した方がいいのかな? >>906
普通は2000Wで落ちる遮断器あるから壁の中のケーブルは溶けない 別の原因だな
というかPL70とかならビデオカード交換する程度で増える消費電力は少しだけだからそれが問題になることは普通はない
>>909
anything-v4.0
kl-f8-anime2
をよく使うけど発色も絵柄も想像以上に大きく変わる
他にも使ってたけど全部anything-v4.0と大差なかったから削除した
みんなどんなVAE使ってるのか気になるわ
あと、AVEってPNG INFOに入らないからみんなが何使ってるのかよく分からない 新しいバージョンのStable Diffusionなら、VAEもpnginfoに記録される >>906
4000シリーズのワッパが悪いってどこソースよ
まさかまだ出てもいない5000シリーズと比べてワッパがって言ってるの?
廃熱は4090より3090の方が熱くなるが、それも出てもいない5000シリーズとの比較?? AIイラストとかまだ歴浅いからな
nvidia来年AI生成向けチップを発売か
今後はこういうAI狙ったの出すんじゃねーの そこにAMDが割り込んでビビらせてほしい
一党独裁では進歩が無くてアカンよ たかがグラボで600万とかふざけた値段つけてさ
原価6000円くらいなのにな >>911
途中それっぽい輪郭が出るんだけど、40%越えた辺りで、薄い緑や青色の砂嵐です
同じモデルで穏やかなプロンプトに変えるとちゃんと合った画像で完走します >>920
じゃあ君が6000円で作ればいいじゃんw 設計に関わった人の残業代考えたら600万じゃ済まんな ローカル環境でversion: v1.6.0にしてから
IndexError: index 1 is out of bounds for dimension 0 with size 1
ってでて途中で止まるのですが元のバージョンに戻したほうがいいのでしょうか? >>914
ちょうどAnything V5でvaeいくつか試して、kl-f8-anime2が一番いいと感じてるところだわ >>927
原価厨も屁理屈だと思うよ
原価というのも誤りで正確には原材料費厨なんだろうけど >>921
聞いたことないなぁ・・
初心者?何ヵ月もずーっと普通に生成してたのにいきなりなった? >>920
600万が品薄のボッタ価格なのは全くそうだが6000円は無茶な例えだろ
原材料費のことを言ってるんだろうけど、加工費や加工に必要な製造装置を計算に入れないなら、そもそもの原材料だってどっかから拾ってきた鉱物だからタダって話になるぞ webのNAIでもごく稀にだけど同じプロンプトで砂嵐みたいな出力が頻発することがあったな >>931
https://i.imgur.com/WNky1PR.jpg
左から
kf-f8-anime
orangemix
clearVAE_v2.3
モデルやプロンプトにもよるのかな? えっちな質問で恐れ入りますが……
ブラをずらして上げおっぱいを露出させるには、プロンプトの呪文は何がいいでしょうか?
エロイラストを出力していると、時々そうなるので、狙って出力したいです ネガディブプロンプトなくして、「cat」だけ
モデルはfeaturelesMix_v20202307、seedは492427123
DPM++ 2M Karras・step 20
4x-AnimeSharp・hires step10・Denoise 0.5
512x768 cfg7.0
https://i.imgur.com/MHGkAtQ.jpg
気付いたところだけ赤丸入れてみた
左から、kl-f8-anime・・・orangemix・・・clearVAE_v2.3 >935
bra lift
とかかなあ
shirt liftやらbikini liftやら服装に応じて変更
乳首でない時はboobs and nipplesとか追加
それでも出ない時は強調 >>932
原価厨って販管費とか知らない人なんだろうね
どうやって会社を運営したり営業活動したり研究開発やるんだよっていうw
ボランティアじゃないから営利も乗っけなきゃだし braをプロンプトに入れておきつつnippleとか
nipplesだと両方だけどsを取ればワンチャン片方だけ出るようにしてくれるかも…… >>935
lifted barとlifted clotes入れると打率高いよ >>931,934
ごめん勘違いだった 基本的には変わらない
以前調べた時、ダイナミックプロンプトかSeed値が動いてたんだと思う
今もう一度やってみた メインのお姉さんはLoraで0.95で入力してる
https://i.imgur.com/1IGGSR9.png
Seed変更(天井の模様、目、舌)、襟のギザギザの数が違う
https://i.imgur.com/ijgflyh.png
目のハイライトとかOutlineの太さ、描き込み?コントラスト?が結構変わってて
全体的な雰囲気が結構違う気はしてる
ここではカットしてるけど
汁やパンティーの描き込みも微妙に違ってた
lora:flatを使ってるのかと思う感じ
なんでこんなに変わるのか分からない
結局、VAE変えるとlora:flatやlora:outlineの数字を変える必要が出てくる感じ
ただ、kl-f8だけが特殊かも、他はVAE変えても気づかないと思う
ちなみにチェックポイントはAMO2hard >>942
5個くらいしか試してないけど、kl-f8だけが突出して変わる気がする
と言っても、このくらいだけどな
他に、大きく変わるVAEがあるかは知らない
kl-f8は彩度上げてlora flatを軽く使った時みたいになる >>938
魚は、海に湧いたものを採ってきて調理して食べればタダw
>>941, 939, 937
助言ありがとうございます!引き続き参考にしながら試してみます。 >>929
歴1ヶ月、シベタイ?からモデルダウンロードして、落ちてるプロンプトを少しだけ変えて楽しんでました
モデルが少女系でプロンプトにbikiniが有ると今のところ100%再現します 再現性高いならプロンプト情報わかるものアップすれば検証早そう VAE、彩度が高くなるものは絵柄への影響は大きい気がするな
風景を書かせると変化がわかりやすいかも 電気代金っていうのは
1 kw あたり40円なんだよ
それで計算をすればわかる >>949
それは高い!とりあえず、電力会社を変えるだけで大幅な節約できそうw >>943
xformarsとかの再現性のブレじゃないか…? レス数が950を超えています。1000を超えると書き込みができなくなります。