【StableDiffusion】画像生成AI質問スレ23
レス数が1000を超えています。これ以上書き込みはできません。
forgeでextraからupscaleするとjpgとpngの2つが出るんだけど
どちらかに設定できる? >>318ですが、バッチだと2つ出る時があって単独では2つ生成されないのでスルーしてください >>317
本気の作品は自分用に
ソコソコな物は表に出す Stable Diffusion AI画像生成ガイドブック
買ったけど早速資源ごみに出しました >>318
Settings → Saving images/grids の Save copy of large images as JPG じゃないの? >>321
この時代になんで紙媒体でPC関連の情報が得られると思ったの? >>322
それっぽいです。
途中でアスペクト比を変えた2サイズが混在するディレクトリがあって
そのディレクトリに対してバッチ処理したところ
768x1024を2xスケールアップ → png(約3.5MB)
768x1280を2xスケールアップ → png(約4.2MB), jpg(約350KB)
と縦の少しの違いでjpgが出来てしまったのは、何を基準なのかなと思いました ComfyUIでanimatediffを使いテキストから動画生成するところまではできたんですが
Hires fixみたく画像の破綻を防ぎつつ高解像度化した動画を生成できるワークフローありませんか?
VideoCombineの直前にUpscaleImageを繋げてみたんですが、小さい動画をそのまま拡大したような品質になってしまうんです >>325
自分も動画制作に挑戦したことあるけどモーションデータを噛ます関係上、通常の画像生成クオリティで動画にするのは無理だと判り諦めたわ。
StableDiffusionのAnimateDiff以外だと上手くいくのかな? 赤か青の本というようなor条件ができたはずなのですが、
上手くいかなくて・・・
(red | blue) book
[red | blue ) book
みたいな パイプを使ってたような気がするのですがどうやるのでしょうか? >>328
ぁぁ、まさかのフニャ括弧でしたか・・
確かに分散されています、ありがとうございます それDynamic Prompts抜きに機能したっけ Animagine派生で塗りの濃淡指定するプロンプトってどういうのがある?
たまに塗りがべったり濃くなる時があるからどうにかしたい AI生成してるときにグラボからコイル鳴きみたいな
「ジーー」とか「チチチ」みたいな音出るんですけど
こういうもんと思ってほっといても大丈夫ですか? うちの4090でも重い処理をさせると音は出るからそんなもんだよ >>332
暑くなったし蝉が鳴き出したら気にならなくなる >>316
1枚1枚丁寧に作ってるわけじゃなくて、ガチャりながら大量に生成してる。
そこからある程度絞るけど枚数多いから、1枚1枚丁寧にLAMAにかけるのが面倒なのだ。
本当に1枚だけの生成なら使うし、手書きで手直しもする。 >>336
気持ちはわかるけどそういう雑さが反AIの人口増やしてそうだから修正してほしいわ
多いっていったってせいぜい15枚くらいでしょpixivじゃなくてCG集で出すとかならもっと多いかもだけどね
AI生成する側だけどpixivでサーフィンしてるとお前さぁ・・・って感情沸く生成絵結構あるよね そんなんないけど同じようなの1枚1枚投稿してるのはムカつく 似たようなの上げてるだけなら、せめてチェリーピッカーしろよと思う程度だわ 元々ちゃんとした絵やら描いてる人のは結構修正してくれてるけどAIから始めたんだな~って人はガバポン出しドバーっと大量投稿って印象
まぁ上のは別に良いけどポン出しガバクオリティのを大量に一枚一枚投稿するハゲは許せん 絵が好きだけど絵心無いから生成する人と
新しいもの好きで生成と言う行為が好きで生成する人の2タイプがいると思う
後者は絵へのこだわりは薄いから粗悪ものを量重視で上げるイメージ
前者は絵を見る事はやってるから気になる所くらいはレタッチして少量上げるイメージ 絵心無いから0から描くと大変なことになる上にロークオリティなんだよね
自分が作りたいものが脳内でしっかり具体化出来ていないか具体化出来ていてもそのとおりに出力出来ないから0から1を作るのが大変
AIは0から1の部分をアシストしてくれる
1から10、100にする部分はまだ人間の作業かな いい加減スレチやろ、質問形式にしたらなんでも語っていいってもんじゃない
> LAMAの存在すら知らない人達なのかな?
人が多いからって勝手に雑談スレにするな 突然キレ出すのこわ
しかもずいぶんと前のレスにキレてるし普段LAMAすら使わない人間か?
LAMA使えばすぐ修正できるのに使わない人が多いのはなぜか?って質問じゃないか >>321
半年前に買ったけど基礎動作を覚えるのには役立った 今は使わないけど 結論面倒だし、344みたいな感じよな
次の質問どうぞ 環境変わってないのに、1週間前は起動出来たけど、急に下記エラーで起動できなくなりました。
分かる方いたらお願いします。jaxlib勝手にインストールされるからのような
RuntimeError: jaxlib version 0.4.28 is newer than and incompatible with jax version 0.4.11. Please update your jax and/or jaxlib packages. >>0353
>>0352
自己解決しました、たしかにエラー文よく見るとjaxと jaxlibはセットだということが分かりますね。
>>0353の方法は自己解決した後に見たレスなのでやってないですが、こんな方法があったんですね。
L:\satable duffusion\stable-diffusion-webui\venv\Lib\site-packages
のディレクトリの「jax」と「jax-0.4.11.dist-info」のフォルダをなんとなく削除して再起動したら
同ディレクトリに「jax」と「jax-0.4.28.dist-info」が勝手に作られエラー出ずに正常に起動出来ました。
ありがとうございました。 forgeで生成したら
A1111の時には
output/txt2image/日付/ の モデル名のディレクトリが作られてたんだけど
forgeではモデル名は作られず、日付直下に保存されるのは仕様? >>355
設定に出力先指定できるからどうにでもなるでしょ >>356
元のA1111が吹っ飛んだけど、ファイル名はカスタマイズできたのは覚えているけど
保存ディレクトリまでカスタマイズできたっけ?
{date}とかやってみたけど、そのままの文字列のディレクトリ名になっちゃった >>357
一時ファイルや圧縮ファイルの解凍用にRAM disk作っててそこを出力ディレクトリにしてるけどちゃんと生成画像出力されているから好きな場所に指定できると思うよ >>358
パス指定はできると思うけど
以前、吹っ飛ぶ前のA1111の時はoutput/yyyy-mm-dd/モデル名のディレクトリ/に保存してくれていたのよ
それができるかなと
コロコロモデル名を変えてテストしてるから以前の環境が助かってたのよね 設定にあるて言われてるのに、
1から100までをご所望なんだろ
誰か赤ちゃんに教えてやれ 設定に記載方法書かれたサイトへのリンクあるからそこ参照しろとしか言えん >>361-362
すまん、いけたわ
>the following information is about the image filename and subdirectory name, not the Paths for saving \ Output directories
って書いてるのに必至にoutput dir触ってたわ CUDA errorでHires出来ない
ググっても意味が分からん 実写系だが、街の看板やショップロゴが中国語っぽくなって生成にがっかりしてるんだけどpromptでどうにかなるものなの? >>364
こっちもそれだけの情報では意味分からん >>365
ネガにchinese入れればほぼ消える
あと背景以外の中国要素をチェックする
背景・人種・服装はぜんぶ国籍リンクするから
japaneseやeuropeanやtokyo入れればふつうは大丈夫だけど
中華系モデルとかはアジア系は全部同じ漢字にしかならんから
ネガchinese入れて日本語も韓国語も巻き添えにぜんぶ消して英語にする lora作ってる時に、自動調節系Optimizerでたまに序盤いきなり失敗するので
一発目のxxx-000005.safetensorの出来をforgeで確認してるんだけど、失敗時にそのsafetensor削除しようとすると
「別のプログラムがこのファイルを開いてるので、操作を完了できません」でforgeを一旦終了しないと消せない
この時のおなじみのやり方として
リソースモニターのCPUの検索窓でxxxとかsafetensorで検索しても、掴んでるプログラムが何故か一切出ない
この状態でズボラかまして同名でloraを再作成すると、上書きの瞬間kohya_ssが書けねぇぞエラー吐いて落ちる
(エラーメッセージは忘れた)
webui終了以外では名前変える、Save every N epochsの値を変えてずらすくらいしか思いつかないんだけど、
面倒なんでなんか回避方法ないかな?a1111では起こらなかった事象
the action can't be completed because the folder or a file in it is open in another program
あたりでforgeのissues検索した限りになかった 追記
同PC上でlora学習+確認やってる場合です
lora共有してサブPCで確認って前まではやってたんだけど、サブPCの起動が面倒なので・・ 学習できるほどのスペックのグラボに手が出なくて、お試しで『クラウドGPU』というサービスで自分のイラストの絵柄学習させてみたいんですけど、このクラウドGPUっていうのは学習の時に使うイラストも生成したイラストも提供側の会社に見られちゃう可能性ってあるんでしょうか?
クラウド経由で送受信されるんだから提供側には誰が何をしてるか筒抜けってことですよね?
自分はエロ絵師ですし、海外のクラウドGPUの会社だとロリぷに系や低頭身系イラストとかだと向こうは例えイラストでも厳しいですよね?
アダルトイラストの学習・出力の場合、クラウドGPUは危険でしょうか? >>371
やりようによっちゃ3060ti8Gでも自作LoRAなら作れるよ >>371
BAN対象は主にGoogleドライブに置いておくとなかみAIに覗かれて検知される
だけど他所にファイルを置いてそのアドレスからデータを引っ張れば問題なし
colabに展開されるデータは画としてにんしきされてない
さらに出来たLoRA等のファイルはそれ単体ではロリでもぷにでもないのでおいておいてOK
安全なやり方はあるけどあなたがそこまでたどり着けるかはしらない。ちなみにpixAIの学習は丸見えです クラウド使う時はCryptomator経由にすれば運営に覗き見されないよ
「お前のファイル、ランサムウェアにやられてないか?」ってOneDriveの個人ユーザー向けはご丁寧に訊いてくる sdxl forgeでtagcompleteが機能しなくなったんですが同じ症状の方います?
Settingを見ると一覧に入ってないんでどうも認識してないっぽいんですが、拡張機能の方から見ると普通に入ってます。
一度消して再インストールしても変わりません。
なぜか1.5 forgeだと機能してます。 forgeだとCUDAエラー出るけど1111だと出ない
不思議 forgeだけど
white(hair, clothes, stockings)
みたいなトークン節約的なプロンプトって効いているような微妙に効かなかったりするけど使い方あってる?
これを丸ごと強調させる方法ってある?
(white(hair, clothes, stockings):1.1)って合ってるのかな 色分け指定しても
その色に引っ張られるから
同じ色で統一したいなら(white)でいいのでは >>380
すまん、ちょっとわからないんだが
(white)これにはどういう意味があるの?
白の何?みたいな感じにならない?
色が引きずられるのはLora使わずにBREAKとネガで対応できてる >>382
実例サンクス、そういう使い方があるのか
よくありがちなのは、例えば dark red eyesなんて入れると色々なものに引きずられてネガを羅列するんだけど
加えて黒い床、紫の壁とか複数の色を組み合わせたいときは、引きずられたく無い強調色は最後尾に持ってくるのがセオリー?
何か一般的な色浸食への対応方法ってある?
そのモデル良いね、XLのモデル?
モデル名良かったら教えて ついでに
[high quality, best quality]、あえて減らすことによるメリットってあるの?
masterpieceはマスピ顔対策? 色も微妙な指定ができるといいんだがな
もう少し濃い青とかちょっと赤みを入れた緑とか
HTMLみたいに(255,255,255)とかで指定できると一番いいんだが >>378
こんなの初めて知ったわ
説明ってa1111やらのどっかにある?
token節約ってbreak導入以前はよくやられてたけど >>386
ないよw
>>378の「使い方合ってる?」という質問に誰もちゃんと「間違ってる」って回答しないからこうなるんだよな w
>>378
そんな使い方はありません
前に強調で全然間違った理屈さもそれらしく言い張る人見たことあるわ・・
(aaa,bbb,ccc:1.2)が
bbb 1.1
aaa 1.1
ccc 1.32
だとか
あまりに自信満々で誰も否定しないので、突っ込んだとたんみんな否定しだして笑った 赤く光ってる378ですw
まぁ当時はこれで上手くいっていた(実際は色が引きずられていた)のもあって
成功体験として覚えてたのよね
なのであまりいじらないでw なんだ、red hairにしたら引きずられて目も赤くなっちゃうっていうのと同じだけか lora作成の勉強して自分なりのルールを決めてるんですが
・なるべく高画質、詳細が分かる画像を用意
・教師画像は20枚を最低ラインに50~100用意する
・画像の大きさは1024×1024.アスペクト比は1:1で統一
・背景や文字をトリミング
・カラーでないものは全てカラー化
これでいいですかね?間違ってる部分があったら指摘お願いします。またみなさんの作り方を教えてほしいです。 LoRAを作ってみたものの納得のいく出来映えでなく作り直そうと思っていたらXL台頭
技術の進化に取り残される…… いつもと同じmodel、LoRA、prompt使っていつも通り生成してもいつも違う生成画像出てGenerateForever使って生成しっぱにしてるとそのうちいつもの生成結果になるけど違う生成画像出すロジックが不明
給湯器から離れたシンクでお湯出そうとしても暫く水しか出ない状態という感じ 直前に実行したのプロンプトの影響があるとかなんとか。
ずっと実行すれば平均的な結果になるよね。 >>393
古いのしか動かないぶっ壊れた拡張入れてない?
loconとかlycoris系の >>391
あんまり細かいこと気にせずポンポン出していきましょう
1:1とか150以上作ってるけど一度もやったことない
XLでカラー生成したいならカラー多い方がいいけど、全部そうである必要はないと思う
タグありならmonochromeとか入ってるだろうし
学習元の解像度は出したいものによるかな、XLで小さいとボケボケになる場合もあるけど
lbwのOUTのケツの方で微調整できることもある
256くらいの大きさだらけでも不思議とそこそこうまく行くことも多い
XLでもあえてMax resolution 512,512でやってもOK
背景切り取りは最初の頃はやってたけど、だんだん面倒くさくなってそのままやるようになった
逆に残せば世界観出せたり、モブも入るようにしとけば学習してモブがみんなそのキャラ自身になるのも抑止できたりも
文字は邪魔なら抜いたほうがいいかも、これは本当にいちいち出てくるので
まぁXLは1.5よりプロンプト制御しやすいのでそんな細かいこと気にしなくてもいいような openposeで元の画像が膝までしか無い場合editで足首の点を増やすにはどうしたら良いの? >>398
編集画面の左下にある「Person1」の「>」をクリックすると、パーツの一覧が出る。
left knee,right knee,の右側にある目玉アイコンに斜線が入って非表示になっているので
それをクリック。
すると、画面の左上へと、対応するバーがびにょーんと伸びるので、その頂点を正しい位置に移動させる。 >>399
ぉぉすごい、できた。
実際にconrolNetをする時は右左の概念まであるの?
裏表まではわからず、顔の向きである程度判断しているという感じ? >>400
試してはいないけど、OpenPoseだけだと裏表は伝わらないので、Depthを併用する必要がある、
とどこかのサイトにあった。
後はプロンプトに、出したい絵に表示されるパーツのものは入れて、出ないものはネガティブに
入れるとか(例:後ろ姿を出したい場合は、目の色や表情のプロンプトは外しておく) >>401
確かに裏表分かってないだろうなぁと思って、ネガやポジで追い込んでいったわ
openposeだけで側面からねじった感じだと意外と難しいもので期待通りは出にくいガチャ感があった
正面や後ろはほぼ確実に出るんだけどね >>402
横からもそうだけど、肩鼻首耳の位置関係でどこ向いてるかある程度は指定できるよ。
ガチャは必要なことに変わりはないが。 >>397
有難うございます、参考になります
アニメは許容範囲なのが出てくるんですが、実写だと妙に気持ちの悪い顔立ちになってでてくるのが悩みのタネですね
素材を多く学習させた結果、多様性いれたのが悪いのかなあ 生成した画像をextrasでアップスケールするとプロンプト消えるの防ぐ方法ある?
生成もアップスケールもjpg使ってます。
いつまでも小さい画像を保存しておく必要があるのよね
プロンプト再埋め込みしてくれる拡張とかあればいいのにな >>30
comfyとかせっかくノードつかってんだから、
そういうコントラストとか、彩度だけ使えるノード
ありそうなんだけど、どうなんだろ?
blenderのアドオンあるけど、それだと実現できるかなあ? うわあ、一ヶ月前にレスしてしまいました。三ヶ月ROMります。 Extrasタブでの拡大では元画像のメタデータを引き継ぐことはできないはず
img2imgのscript内にあるSD upscalerを使えばimg2img時のプロンプトは埋め込まれるし、Hires.fixで最初から大きく生成してもよい
プロンプトの再埋め込みは面倒な方法があるよ
メタデータを残して保存できる画像編集ソフト(ペイントやAffinity Photoなど)で小さい画像を開き、キャンバスサイズを大きい画像に合わせた上で大きい画像を重ね「名前を付けて保存」する。面倒!
回答がないから回答したけど次は本スレで質問してね ttps://mevius.5ch.net/test/read.cgi/cg/1711170980/ こっちは通常スレ
あっちはワッチョイスレ
どっちも本スレ
誘導するのは頭がおかしい 先とか後とか関係ない
通常スレとワッチョイスレは全くの別物
重複削除依頼出しても相手にされない 突然起動時に パッケージ.py が見つからない
というエラーで起動出来なくなった
チェックディスクと入れ直ししてもダメです 突然ってことはないだろう
直前にアプデしたとかPCに変調なかったとか
拡張機能入れたとか
あとエラーコード貼るとか
情報くれよ あー、プロンプト埋め込みツールとか作るか
プロンプト埋め込みしたままjpeg化とかpngの圧縮率変えたりとか
Extrasタブのコード修正してプロンプト引き継ぐようにした方がいいかもしれんが。 >>419
> プロンプト埋め込みしたままjpeg化とかpngの圧縮率変えたりとか
メタデータを残したままpngをjpgに変換するツールなら
ttps://github.com/Takenoko3333/png2jpg-for-a1111-and-NAI >>420
中々いいものですな。
やはり、pythonはexifいじれるライブラリあっていいな。 SDXLでマージしてる人ってメモリどれぐらいですか?
16GBでかろうじてマージできてるけど32GBか64GBのどっちに買い替えようか迷ってます
lora学習もするかもしれません CPUとGPUも分からないと答えようが無い
メインメモリの話であれば32GB(16GB*2)で足りるんじゃね?
他だし今ある16GB(たぶん8GB*2だろ)とは入れ替えで
8GB*4とかは止めた方がいい CPUはcore i7-10700
GPUはRTX2070superですけどこれも3060 12GBあたりに替えようと思ってます
メモリはその通りで8GB×2から入れ替えます
forge使って何とかSDXL動かせてるけどマージや画像生成で時々ブルースクリーンになるんで安定して動かしたいです 0からなら最低ラインで3060 12GBは探してありかもしれんが
載せ替える最低ラインは4060ti 16GBだろ 生成時にブルスクって、メモリかGPUがそろそろいっちゃってんじゃない?
あるいはドライバが合ってないか。
エラー停止するかもしれんけど、ブルスクはない。 10700 ならまだ戦えるかー
3060 12GB が約4.5万
4060Ti 16GB が約7.2万
4070S が約9.6万
4070TiS が約13万
(メインメモリは32GBで約1万)
3060でお茶を濁すもアリっちゃアリ
(予算が厳しければ最悪中古も視野)
ただ症状的にOSのクリーンインストールは必要かなー ただなー
2070S からだと3060は生成速度はほとんど変わらないし4060Tiでも少し早くなる程度
ところが4070S以上となると一気に2倍以上速くなるから考えもの (4070S ≒ 3090) >>429
まとめると金がないって言うだけだろ
さっさとRTX 4090をかえ
コスパがいいんだから 自分もブルスクでてたな。
赤のグラボてやってて緑に変えてもブルスク
でてたんで、クリーンインストールしたけど、
win11ならリセットというのがあって、
それでいまだとクリーンインストールっぽく
てきるですね。
ブルスクはいまのとこない。 GeForce RTX 5090が現行のRTX 4090より最大70%高速に
16枚のGDDR7を高密度に搭載
容量は32GBに向上へ
RTX 4090より$400価格上昇
大して高くならんな 仕事用のメーカーのワークステーション電源500wだから
今、3060 12GBだから、4070SあたりをPLで80%ぐらいで使うのが
変化を実感できてマシンにも無理しない感じかな 5090出回ったらNAIとかの定額サービスの生成も早くなったりするの? 自作PC板でも「生成AIで一番コスパの良いGPUは何ですか?」と聞くと4090っていう答えしか返ってこないのは事実だけどな 5090出たらマウント取られるから買い換える金用意しとけw 何目的か知らんが
クラウドソーシングで元とれるから4090がいい
必死にならなくても三ヶ月でとれる Stable Diffusion WebUI 起動時に確定的に以下のエラーが出て
起動できなくなりました。システム復元で動作時までまきもどしてもだめでした。
------------------------------------------------------------------------
__init__.py 1 <module>
from . import augmentation, config, evaluation, external, gns, layers, models, sampling, utils
evaluation.py 6 <module>
import clip
__init__.py 1 <module>
from .clip import *
clip.py 6 <module>
from pkg_resources import packaging
ImportError:
cannot import name 'packaging' from 'pkg_resources' (c:\SD\Data\Packages\Stable Diffusion WebUI\venv\lib\site-packages\pkg_resources\__init__.py)
------------------------------------------------------------------------
以下のソフトは現状、普通に使えています。よろしくお願いします。
Stable Diffusion WebUI Forge
Fooocus
環境 i7 64G Rtx3060-12G win10最新更新 最近始めたんだけど、XでAI画像投稿してる人のモデルとかが何なのかが知りたいけど見当がつかない
なんとなくStableじゃない気がするけど、ここにURL貼って聞いてもいいかな そういうのは大体NAIだよ
知っても真似できるかどうかはまた別問題だけどね アニメキャラでもこれすげぇ再現度だなってのはNAIなんだよな
SDじゃ限界がある >>445
NAIってごく一部の有名キャラしか出せないのに? ちょっとエロいお絵描き目的に10万以上のグラボ買えないよな その人jpgしかあげてないので、版権も上げてるけど再現とかじゃなく基本オリジナル
似た絵を上げてる人がいるので多分にじジャーニーかなんかだと思うけど、そっちは使ってないから全くわかんなくて
@sagawa gawa さがわとか、@eatsleep1111 えーあいって人
NAIも全く使ってないけど、それでもこういうのできるの? 最近Xにやたら流れてくるヤツらだな
SDも使ってるってプロフに書かれてるし一部はSDやろ >>449
10万円以下のグラボを買えばいい
俺は4060Ti/16GBを6.9万円で買った
ちょっとやるならこの程度で十分 俺はAIイラストで金稼いでるのに3060だわ
放置でいいから速さはそこまでいらんだろ 既存PCに入れようと何も考えず買うと筐体に入らないとか電源が足りないとかあるからな VRAM12GBの早いGPUは考えなくていいだろ
3060 12GB/ 4060ti16GB/ 4070ris/ 4090
予算に対するこの4種以外を選ぶなら相当明確な理由付けがいる 気に入った絵が作成できたら
ポーズとアングルはそのままで服だけ変えるにはどうすれば良いでしょうか? >>437
本当だ・・・chatgptでも同じ回答してるわw
2024年時点で生成AI(特にディープラーニングや機械学習)においてコストパフォーマンスの良いGPUとして多くの専門家が推奨するのは、NVIDIA RTX 4090です。以下に理由を挙げます:
性能:RTX 4090は強力な計算能力を持ち、多数のCUDAコアと高いメモリ帯域幅を備えています。これにより、大規模なAIモデルのトレーニングや推論において優れたパフォーマンスを発揮します。
メモリ容量:24GBのGDDR6Xメモリを搭載しており、大規模なデータセットや複雑なモデルを扱う際にも十分なメモリを提供します。
価格:RTX 4090はハイエンドGPUとしては比較的手頃な価格帯に位置しており、同等の性能を持つ他のGPUと比べてコストパフォーマンスが高いと評価されています。
ソフトウェアサポート:NVIDIAのGPUはCUDAやcuDNNなどの広範なソフトウェアエコシステムを持っており、生成AIの開発において非常に便利です。
汎用性:RTX 4090は、ゲーム用途だけでなく、クリエイティブなワークフローやAI開発にも適しているため、多目的に使用できます。
もちろん、特定のニーズや予算に応じて他のGPUも検討する価値がありますが、現在の市場においてはRTX 4090がバランスの取れた選択肢として多くのユーザーに支持されています。 生成AIはトライ&エラーの繰り返しだからね
4090はGPUパワーが突き抜けてるから他とは時間効率が違いすぎる
だから次点が4080Sでその次が4070TiSになる
でも4060Tiと4070Sの比較はちょっと違う
大サイズの画像を一発生成するならVRAMが多い方が有利だけど
アップスケーリング込みだとGPUパワーも重要
4060Ti-16GBと4070Sではパワー差が有りすぎるから困るのよ >>456
あいまにクラウドソーシングの
生成AI案件うけたら10万くらいなら
副業としてのんびりでも三ヶ月あればいける 利益出るなら高いの買ってもいいけど趣味だと飽きるわな 利益出す気本当にあるなら
4090でも3ヶ月あればペイできないことはない 手頃な値段とか言われても
風俗1回分とか言われても
具体的な数字を出してくれよ
風俗 だって1000円から3000万ぐらいまであるわけだし 大衆ソープなら1万くらいとしても、
一生ヌけるんだから4090でいい SDXLのLoRA学習と生成を同時並行する場合、4090を一枚でwebuiを二重起動するか、4080を2台でやるかどっちか効率いいでしょうか? x/y/zを使って
loraの効き具合を0.2, 0.4, 0.6,0.8, 1で 出したい場合
xにどう入力すれば良いの? >>473
文字列の重複がなければ「0.2, 0.4, 0.6, 0.8, 1」とか省略してもOKです
フルネームで「lora名:0.2, lora名:0.4, lora名:0.6, lora名:0.8, lora名:1」と書いた方が間違いがない これからStable Diffusionを始めたいと思っているんですが、今からならどのバージョンやプラットフォームの組み合わせがメジャーでしょう?
SDXLが高画質が生成できるとこまではわかったんですが、教えていただけるとありがたいです
手持ちのPCスペックはwin11pro、Ryzen 9 3900X、RAM64GB、NVIDIA GeForceRTX2080Ti(VRAM12GB)です >>474-475
お二方サンクス、S/Rも使えるのか
search&Replaceね、なるほど 3060 12GB最近中古で出てくるようになった。
26000円で買えたけど、綺麗なのきてびびった。 >>476
2080ti持ちか・・4090PC買っちゃいなよ
まぁ普通にforgeでしょうか
「stable-diffusion-webui-forge」(github url貼れない)
インストールも超簡単
StabilityMatrixやEasySdxlWebui(あれこれ全部入りのやつ)は個人的にお勧めしない
エラーが出たときの切り分けしにくいので・・ >>476
VRAM 24GB~
PC RAM 128GB~
SD専用SSD 512GB~
保存用HDD 4TB~
あとはどうでもよい >>481
生成するジャンル、方法で要求VRAMが違うから自分が何を生成するかで要求スペックが変わる
だから低VRAMで動くforgeが薦められる >>479,480
回答ありがとうございます!
目的はある程度はっきりしてるけど、まずはそれに応じたSDやツールの機能を把握して、
それぞれが生成画像へどう影響するか全体像を掴みたいので、forgeというのが切り分けしやすいのは有り難いかもです
しかしやはりスペックが全体的にちょいアレなんですねえ
そういや「SD専用SSD 512GB〜」ということは、やはりNVMeとかのほうがレスポンスいいのかな
高負荷ぽいのでCドラに入れるのは避けたほうが良さそうと言うのはなんとなく察せられますが…
あ、481は自分の質問じゃないですけどauto1111ってのも上のテンプレやネット情報などによく出てたので、forgeとの違いが聞けたのは良かったです
今の自分の環境的にはforgeのほうが合ってそうですね
今後全体的な流れを掴んできて、高クオリティ画像大量に生成したいということになったら、
マシンの刷新とともにプラットホームも再考の余地ありって感じでしょうかね パソコンのスペックについては
【StableDiffusion】AIパソコンスレ 質問・雑談2
https://medaka.5ch.net/test/read.cgi/pc/1698406162/
過疎ってるようでも、書き込みがあれば人がわらわら来るから大丈夫 >>483
そのPCスペックならForgeなら当面は困らないと思うよ
ただSSDは100GBは余裕欲しいので足りなそうなら入れ替えなり差し替えは必要かと
このスレを少しさかのほれば分かると思うけど生成AIやるとコスパ最良は4090としかならないので真に受けないように >>480
いやいや
VRAM24GBのRadeon買わせちゃいかんでしょ >>485,
ありがとうございます
まぁ理想だけは果てしないので、ゆくゆくは自分で自分の絵柄専用のLoRAなり構築して活用できたらとか考えてますけど、
その時はその時として、まずは当面、練習や趣味の範囲なら今の環境で行けそうってことなら助かりますね…
確かPC買った時にDドラにするつもりで買ってた1TBのM.2が一本、付け忘れたままどっかに放置されてた気が…まだ動くかなぁアレ
>>486
3DCGやってたので、グラボは一応安全のためにGeForce一択ってことにしてます。
ただ今ポンと4090に30万はちょいキツイですねぇ… >>487
2080Ti-12GB ならLoRA生成もほとんどの場合は問題ないよ
というか生成AIを機にGPUを買い換えた人も予算的に大半は 3060-12GB なのでGPUパワー的にも2080Tiの方が上 >>488
ありがとです!それは心強いレスで助かりますね☺ 今4090買うくらいなら5090待つわ
あと半年くらいだろ 秋まで待てばモンスタースペックらしい5090が出るけど30万どころの騒ぎじゃないしなぁw
それより60と70を標準16GBにしてくれればいいのだが…
16GB以上の4000シリーズは低価格帯の選択肢として4060ti16GBのみ
高中価格帯4070tisuperで後は全部高いみたいな感じを受ける
4070が16GBならなぁ…と何度思ったことか ROCm使えばRadeonでも普通に生成できるから、Windowsにこだわらなければ有りだろ 入門なら8ギガ積んでれば普通に動くよ
量産には向かないが ぶったぎって申し訳ないんですが
レトロアニメの色トレス乳首とか黒いドットだけの乳首とか
出力したいんですがどなたか方法ご存じないですか? ドラゴンボールとかポケモンとかその他2000年代アニメ物のローラも試したんですが
どのモデルでも普通の乳首出ちゃうんですよね。ジットQとかデフォルメ系のモデルでもだめだったので。
インペイントでこの部分だけcolored skin , pink skinだ!って塗りつぶそうとしても
乳首があるべき場所には乳首が出てきてしまって 内容的にこっちがいいような
【StableDiffusion】AIエロ画像情報交換41
何故かリンク貼れん
でもまぁこだわりあるみたいなんで回答は得られないと思う
結局自分でlora作れってことになる ちょっと話ズレちゃうかもだけど、
自作LoRAって例えば自分の描きたいキャラのいろんな角度や身体のパーツの線画を描くとか線画の設定資料を読み込んで作ったとして、
その線画LORAをアニメ調の基礎モデルに掛け合わせる事で、好みの線画で塗りまで完成した生成画像ができますかね?
あとすいません、アニメ調から2.5次元ぐらいの基礎モデルで今アツい人気のあるオススメがあれば知りたいです まず再現ってんのは素材の精度と学習量で同じものは出る
描写できないものをCheck Pointで補うから妙に小綺麗にカバーされてるのは
学習が足りてないというだけだ。そしてCheck Pointにないものは濃い学習はできない StabilityMatrixはComfyUIだけ入れて付属のInference使うと軽くて良いよ
checkpointにTurboとかLightning版使うとi7 7700 16GB GTX1050でも
動いてビックリした >>500
たまに質問であるけど、線画がレイヤーのごとくカッチリそのままで色だけ塗られるみたいなのは
厳密には無理、ほぼほぼなら普通にできる、特に1.5のNAI派生モデルが得意とするところ
白黒原作漫画がそのままアニメ絵(アニメのキャラデザではない)や2.5D絵になったりする
1年前の古いloraだけど、原作絵学習させてる(チェンソーマン2部はまだアニメ化してない)
ttps://civitai.com/models/18425/chainsaw-man-mitaka-asa
作例が面白い >>504
なるほど、原作絵を学習させて出力がそれって言うことは、確かに「かっちり線画を再現してる」ってわけじゃないみたいですね。
「LoRAの線画を参照しつつ、ベースモデルの絵柄で再解釈して描き直す」ようなイメージでしょうかね
そしておそらく参照度合いの重みぐらいは数値入力で変えられる、と。
作例の最初二枚がモノクロなのはLoRAの重みが強くしてるとかかな
しかし、LLMの方にもLoRA次作について質問を投げていたんですが、CGアニメモデリングのモーフセットの作成に似てるところあるみたいですね
深い深い沼が待っている気配がする… >>497
もはや自分で上から塗ってしまったほうが早いかもしれないw AIが普及することで人間に求められるのは専用LoRAのように一芸特化の技術になってくるのかもしれない
乳首絵師応援しています AI生成を鍛錬するにつれレタッチソフトの技術も上がったわ
1日30枚修正して数ヶ月、目とか乳なんて完全に綺麗で魅力的な絵に修正できるようになった 既に生成してある画像のメタデータを一括で削除できる方法って何かありませんか?
SNS等にアップロードする際に今は1枚1枚画像編集ソフトで編集やってて中々手間がかかってしまうのですが >>510
Photoshopで自動アクション組めば全自動だよ 誘導すみません
こっちは画像生成AI本体の技術のスレだったようで
プロンプトの質問や共有などは情報交換スレですね
SD1.5なら乳首消しローラの強度を弱めて使うと乳頭無し乳輪になるんですけど
XLとかponyだとどうもうまくいかなくて。 https://github.com/Takenoko3333/remove-meta-alpha
>>510
remove-meta-alphaというメタデータを削除するツールがあります
つぎは本スレでどうぞ ttps://mevius.5ch.net/test/read.cgi/cg/1711170980/ 目をできるだけ同じようにするプロンプトってどうしたら良い? プロンプトで形を指定するのももちろんだけど、ネガティブの方でなって欲しくない形を入れて行けば大体同じようになると思うよ。 >>518
目の形状は気にならないけど、どちらかと言えば虹彩が揃った方がいいかなと >>519
虹彩も同じ要領で指定できるよ。
虹彩というか目の中に関するプロンプトを集めて試すのじゃ。
まぁ特殊なもんだったらLORA作った方がいいかもね >>520
おけ、虹彩に関する色々やってみてダメだったら相談するわ
色々増やすと75トークン以内に収まらないけど
SDXLの1024ならあまり気にせず超えてもいいの? WebUIの拡張機能更新して再起動したらインペイントでAdetailer使うとマスク範囲外まで修正されるようになっちゃったんだけど元に戻す方法ないでしょうか……v1.9.3でADtailerはv24.5です うつ伏せで膝から下をぷらぷらしてるようなのってどういう呪文が適切でしょうか?
raise one legとかone leg upだと反応しなかったり骨折してることが多くて >>521
ネガティブプロンプトもBREAK使えばいくらでも書けるよ noteで詳しく触れてるのがあるんだけど、文章も画像もきつすぎて読む気にならん・・
要らん事ばかり水増してるわりに日本語が下手すぎて全く内容が頭に入ってこない
ああいうのもほんと才能だな BREAKをほぼ改行記号として大量に使ってるけどあんまり悪影響ない気はしてる 大文字というのは知ってるけど、小文字のbreakでも意外と効いている感じがするんだよな、トークンも1つしか増えないし AnimagineでやってるんですがAIが光の当たり方を判断しているのか
from belowの様な角度だと顔がいつも陰で暗くなってしまいます
影なしで明るく描写出来る方法ってありますか? 小文字のは普通に英文としてのbreakになると思うよ。
ANDとandも同じ動作だと思われ。 github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/prompt_parser.py
↑
このコードを調べると、大文字と小文字の判定はちゃんとやってると思われる 素人で申し訳ないのですがforge版では1.5用、XL用とされているmodelは正常に動作しないんでしょうか? >>526
1年前見たワイ「noteの記事すげぇ」
いまのワイ「嘘ばっかり書いてるやないか」 forgeのone click packageを使用して導入しているのですが、
機能拡張機能のアップデートを行ってからjax,jaxlibのバージョン不一致が発生して起動出来なくなりました。
バージョンアップを行いたいのですが、venvファイルがどこにあるか分かりません
無印版A1111使ってた時はホームディレクトリにあったと思うのですが、venvはどこに作成されていますでしょうか ADetailerに要する時間が画像本体を生成する時間と同等なんですがこんなもんなんでしょうか?
faceのみなんですが
設定を変更すれば時間短縮できるとかないですかね ADに使ってる使用モデルや
自分の余力メモリにもよる >>541
venvはpythonの仮想環境だからforgeは多分wevuiとは別にあるsystemてフォルダにあるpythonフォルダかと >>541
forgeで全く同じことになったけど、>>354読んでeverythingでjax探したら、
D:\webui_forge_cu121_torch21\system\python\Lib\site-packages
にjaxとjaxlibがあったので、真似してとりあえずjaxフォルダだけ消してforge起動してみたら
なにやらDLしだして一発で動いた
で、jaxはそこからは消えちゃって
C:\Users\***\AppData\Local\Programs\Python\Python310\Lib\site-packages
の中のが新しく更新されたみたい?jaxlibもかな?
ここら挙動が全く分からんけど、動いたからなんかヨシw >>544
>>545
system/pythonが代わりしてるんですね…
ありがとうございます、解決しました! SDで連続生成開始してしばらくすると
有線ネットワークが繋がってませんと出るようになったが
流石におまかんか
Pv再起動したら治るんだけど forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけどならないようにする方法ないですかね Forge+XLなんだけど
black eyesがADetailer通すと色指定が無効になって色々な色が出るんだけど何か良い方法無い?
Adetailerのプロンプトにblack eyesを入れると目が少し崩れて誰?みたいになるし、Adetailerは使わないとそれなりになるし悩む >>547
聞いたこともない症状
ネットワーク切れてからPC再起動しなかったらそのままずっと切れたままなの?
その状態で他のPC用途は普通に使えるの?
少な目メモリ+forgeあたりのメモリリークがガッチャンしてPC不安定になってるとか?
断線しかけのLANケーブル踏んでない?
>>548
変な拡張入れてない?
その手の質問の9割はKohakuBlueleafってやつのいい加減消せって糞拡張
lycoris使おうとした人が1年以上前の解説サイト見て入れて対応済みのデフォとバッティングしてぶっ壊れる
ちょうどワッチョイスレの質問者(491)がまんまこれ
>>549
なったことないなぁ
adetailer側に黒目だけいれたらそれだけで部分生成しようとするのでそりゃそうなる
基本何も入れないか、ネガ含めて全部入れてちょっとだけ変えるのが筋 >>550
sd_forge_kohya_hrfix
なら内蔵で入ってるけどそれと同じ名前のものはないです… ローカル版です
いろいろ調べてインストールが終わり、1度目は起動成功したのですが、2回目から起動しようとしてwebui-usea.batを叩くと以下のエラーが出て起動できなくなりました。
対策等知ってる方いたら教えていただきたい
AttributeError: 'NoneType' object has no attribute '_id' >>551
試しに拡張を一時的に停止して動かしたらどうだろう?
extensionsのDisable all extensionsをallにすると全部停止する
これで連続生成で同じようになるなら、拡張のどれかが悪さをしてるという切り分け
>>552
できればエラーの前後も貼ってください
そこで「続行するには何かキーを押してください」で終わっちゃうの?
あと、2回目の前にsetting内の設定とかあれこれ触った?
参考サイトとか見てると結構一気に設定変えてどれかわからない場合があるので・・ >>553
おっしゃるとおりこのあとは何かキーを押してくださいで終わりです
設定は変えてないけど、強いて言うなら画像を食わせようとしてた→そういえばコマンドプロンプト開きっぱなしだなー閉じていいのかなー→☓押したら落ちちゃったー
からの2回目起動失敗ですね
画像貼れないのですが
いめーじゃー
の
X0jZO5G
です >>553
とりあえずはやってみますが…
AnimateDiffを有効にして生成しても前の1枚絵から変わらないですがそこから何か分かったりします?生成時間はしっかりとAnimateDiffの時間取られてます >>554
https://github.com/Mikubill/sd-webui-controlnet/issues/2136
・ui-config.jsonとconfig.jsonを一旦消して起動してみる
・全く別のフォルダに新規にもう一度入れなおす
くらいかな、controlnetとかsettingsのタブあたりは触ってないだろうし
>>555
animatediffの話か・・触ったことないのでわからないw
そこらさすがにちゃんと書かないと
> forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけど
普通のt2iのバッチ生成の話かと >>550
基本的にAdetailerには何も入れないんだけど
ポジプロンプトの目の色がadetailerで消えるのは、他のモデルでは発生しないかもしれないので、
そこ検証してみます。 x/y/zを使うと思うけど
例えばなら、smilingプロンプトがあると無いを出したい場合どうしたら良い?
置き換えならS/Rなんだろうけど、有る無しってやり方わからんです >>547
自分は学習の最中に何度か発生したけど原因不明だわ
Windows11のせいにしてるけど >>559
なるほど、指定して無指定なのですね
ありがとうやってみます >>547
今のマザボNICの制御はメインCPU使ってるからじゃね >>563
いい学習素材を用意できればLoRAを作れると思いますよ >>563
civitaiに丁度良いのがあるからsaitoで検索してみな ワイの時代は同級生のアイコラなんて作れたら神だから今の子はオナ猿神と化すやろ >>567
好きな子のツイやインスタ漁って数十枚用意すれば脱がし放題、仮想でやりたい放題やぞ
最近のチー牛キッズは凄いな、犯罪一直線やん >>568
SNSで集めるんだろうな
こんな場所でキモいこと言ってる学生が直接撮影なんて無理無理w 謎のマウントおじさん
何に対してマウント取ってるのかすらよく分からん >>547
だが
ルーターの場所を変えてLANケーブルがPC裏の排熱をあまり被らないようにしたら治った
治ったが
それなら連続生成終了したら冷えるだろと思ったので釈然としない 笑った
ケーブルじゃなくLANボードの口が熱の跳ね返りで高温になってデバイス自体がハングするとかだろうか
ハングなので冷えても再起動しないと戻らない Q このイラストのモデルわかりますか?
A わかりません、本人が本当のことを教えてくれるか画像にメタデータが残っている場合だけわかります
これテンプレに置きたいレベル >>577
すみません、本人に聞いても教えて貰えなかったので…自分で試行錯誤します
スレ汚し失礼しました 上手い人は基本隠すと思っていい、見せた時点で誰でも作れちゃうようになるので努力が水泡
下手はほいほいバラす >>578
キャラものかどうか知らないけど
まぁそんなに大したものでは無いと思うよ
本当に想像もつかないようなプロンプトで作る人もいるし たまにキャラ名だけ入れると似たような顔で似たような色合いの画像出てくることあるから
それに耳だとか尻尾生やすと結構再現できる場合もあるよね。
モデルに入ってる場合は名前だけで固有の特徴やアクセサリーも完備した
キャラそのものが出てくるけど Animagineぽいけれどね
VTuberキャラは中身がいる以上、変な画像やLoRAは公開しづらい
プロンプトのキャラ名指定で出せるモデルを使ったと考えるのが妥当 本人にしか見えない顔が(Adetailer使用ではあるが)安定して出力される有名人Lora作りの名人みたいなのがcivitaiに居るけど
何が違うんだろうなぁ
俺の自作有名人Loraは何度も生成してやっと1枚似てるかな?ぐらいなのが出るようなのしか作れない
名人にどっかで講座みたいなの開いてほしい 似通った構図5枚くらいでadamw使って過学習
汎用性はなくなるけどね 汎用性があって似ているLoRAは凄いよな
学習画像が厳選されているのか枚数勝負なのか… ttps://news.yahoo.co.jp/articles/9088f0425e4ecca9adf7f7f85c37a43053d283b3
こういう生徒は平気で好きな子盗撮してるだろうな 前使ってたグラボは排熱がイマイチだったんで水冷化したんだけど最近のはちゃんと冷えるしね
ケースの排熱に難があるなら効果はあるかも 何万円もするスピーカーケーブルと鉄ハンガーで
音に違いがわからなかったとかあるもんな やっぱり高圧受電でH100だと繊細さと力強さを兼ね備えたいい絵が出てくる やっぱ家の前に電柱とバケツ(柱上変圧器)用意して
ダイレクトに引き込むと良い絵が出るんやろうなぁ
もちろんコンセントやタップはホスピタルグレードなのは鉄板 でもPCの消費電力が増えると200Vは必要になるかもね >>576
3枚目pony系な気がする
T-ponynai3 v4.1〜v5 ベースモデル探求してるけど
ebaraのエロに対する応答性能に誰も勝てない SDXLでturbo loraとかlightning loraとかの低ステップ系loraを使うと1girlにしても大量の人間が生成されるんだけど
私以外にもこういう症状の人いますか?
こういうもの? そういうものではないからプロンプトの問題じゃないかな だからなんでサンプルを出さないんだよおかしなプロンプトがあるとか
解像度がやたらでかいとか見れば一発な原因かもしれないだろ ちょっと触ってみたいんだけどryzen 7 8845Hsじゃやっぱり無理かねぇ。VRAMの最低値をクリア出来てない希ガス 画像もあげずに質問してすまんかった
でも自己解決したありがとう
pony系のクオリティータグ(score_9とか)に含まれてる数字が人間の数として認識されてるみたいだ
CFGスケール下げないといけない弊害っぽい >>612
ちょっと触るくらいならfastsdcpuっていうのがあるけど >>615
調べてみたけど、高速化するツールってことか?
ちなVRAM4Gだった pony系のスコアって説明にあるアンダーバーの_要らないよね
…要らないよね? >>617
VRAM未使用で動かせたはず
CPUだけでOpenVINO+TAESDで数秒で生成できた時はびっくりしたが品質はあまり良くない さすがにもう3060 12GBを買取りに出して新しいのを買ったほうが良い?
最近のGPU事情がよく分からん >>612 >>617
ちょっと調べたら内臓GPUやんか
VRAMの最低値というか4GBはメインメモリ共有の予約メモリでここでいうVRAMではない
メインメモリがDDR5-5600Hzだからそこそこ処理が速いみたいだけどVRAMと比較にはならんです
ちなみにちちぷいってとこで一日に何回か無料で生成できるからAI画像生成がどういうものかのお試し程度ならそこでいいと思う
環境構築って意味ならpipでインストールくらいやって一日放置して生成するのもいいかも >>617
ありがとう。今色々読んで勉強してる。お手数お掛けしました。
>>622
わしは論外だったのか(´・ω・`)
わざわざ調べてくれてありがとう。ネットで調べたvramの確認の仕方で見たんだけど勘違いしたんだな(システムとかで確認するやつ)
言われてみれば基礎スペックに予約メモリって記載があった気がする。そこに疑問を持つべきだった…。下手すればパソコン壊すところだったよ本当にありがとう。ちちぷい試してる
出来れば追加で聞きたいんだけど>>615の方法はやっても大丈夫そ?パソコン壊れない? スペック不足でエラー出て動ないはあっても
PC壊れるは流石に無いやろ
やってみなはれ >>618
「説明」だからやっぱいるんじゃね?外してる人みたことない
score_9, ponyでキャラ学習しても上手いことキャラが学習されないんやけど設定どんな感じがええんやろか? VRAM勘違い野郎です。
皆さんありがとうございました。そろそろ場違いなので離れます。次は挑戦できるスペックのパソコンを手に入れたら質問に来ます、お世話になりましたノシ >>628
質問が曖昧過ぎる、lora自作はどのくらいやってきたの?
初めて?or XLでは初めて? >>618
本家ponyで気づかずに_なしで何枚か生成してたことあって
有りと比較すると効果半減て感じだた
アラフォー爺なのに毎日しこっちまうSDの破壊力ぇ… >>630
1.5では出来てたけどponyだと全く再現出来ない感じ >>632
ponyとはいってもstart this oneはピーキーなんでやめた方がいい
有名なebara、chacoleあたりがいいかと、score_とかsource_furryとかは理解してる?
あとは、optimizerとかの設定になるけど、1.5とXLでは細かいチェックとかが全然違うので
civitaiにそのまま貼られてるの利用してみる、prodigyって爆速の自動系ならこれが有名
https://civitai.com/models/351583/sdxl-pony-fast-training-guide
show moreにある、
kohya_ss preset(zunko_pony_prodigy_v1.json)をDLしてそのままkohya_ssに読み込んで使ってみる
あとは自分に合わせてカスタマイズ
非ponyのanimagineも使って原因切り分けてみるのもいいかも お金がないなら RTX 4090
お金があるなら H100 >>627>>631
うーむ、マージモデルによっては_がメタデータに入れられてないように見えなくも無いし無くても普通にいいの出る気がするんだけどまあ入れた方がいいか ebaraはebaraでなんかクセがあるので
eponaMIXをRefier0.8で入れて
さらに
全身ADerailerかけてクリンナップしてるな 本日ADetailerを導入したのですが、
今まで問題なく生成できていたキャラの顔がADetailerをオフにしても妙に崩れた感じになってしまいました。
PNGinfoからtxt2imgで適応しても同じ顔にならなくなってしまいました。
エクステンションからADetailerを無効にしても直りません。
チェックポイントを変更しても顔だけ直りません。
色々試したのですが、原因が分からず困っています。 >>636
マージモデルならscoreの影響減って当然 途中で送ってしまいました。
環境はSD WEBUI Forge
バージョンは f0.0.17v1.8.0rc-latest-276-g29be1da7となってます。
ローカル環境でRTX3080、RAM32G、RYZAN5800X
顔だけ変になってしまったのですが、
具体的には以前より顔だけ明らかに掠れている。
顔以外はADetailerを導入する前と変わらない。
色々試したのですが、
キャラを片目だけ閉じさせると問題ないですが、両眼を開けると顔が掠れてしまうようです。 >>640
(forgeフォルダ)\webui\extensionsのAdetailerフォルダを削除して起動してどうなるか
これでも掠れるというのなら勘違いで、別に原因がある可能性が高い
(お化けじゃないんだから存在しない物が動くわけがない) >>612
8600Gで、xlはしんどいけど1.5なら遅いけどいけたからいけそう。 forge開発終わりだって
ここから先は完全な実験になるから間違ってもアプデするなよ >>644
PNG見ると
Face restoration?を設定してるみたい ライセンスRun on services that generate images for moneyがいまいちよくわからない
意味調べてもサイトによって解釈ちがったり深く解説してないから困る
どうしても自力で再現できない構図のLoRAがこれ系しかなくて悩んでるんだけどSDをローカルでやる分には気にしなくていいやつ? >>646
Google翻訳「お金を払って画像を生成するサービスを実行する」
ぐぐって上位5個の説明を見た限りでは、
1) 有料画像生成サービスに使用できるか
2) 生成した画像を有料サービスに使用できるか
※有料は広告による収入を含む。
に分かれていそうだけど、2)なら「generated images」になりそうだし、
1)じゃないかね? それであればローカル生成なら問題ないかと。
※法律の専門家でない者の意見です。 >>645
ありがとうございます。
settingのFace restorationのチェックを外したら正常に顔が生成されました。
まだ数枚しか試してないですが解決した感じです。
何回か試してみて様子を見ておきます。
皆さんありがとうございました。 さっそく意見が分かれてるなあ
>>649
それならSell image they generateがあるから尚更なんのこっちゃかわからなくなるんだよね >>650
そっちは生成した画像を売ることがNG
Run on services that generate images for moneyは該当ファイル使っての商用利用がNG
生成云々に関わらず該当ファイル使った商材利用等で金銭を得る行為がNG >>652
ややこしいな〜残念だけど使わない方がいいってことね
ありがとう >>654
現状は個人的な利用だけど将来的には商用も視野に入れてるからなるべく商用不可なものは取り入れないよう厳選してる 最初からマネタイズ目的って書けば早く結論えられると思うよ Run on services that generate images for money
画像を生成するサービス上で利用して収益を得ること
だからpixaiとかmageみたいな、有料プランがある画像生成サービスで利用していいかの話であって、
個人での利用は「Sell image they generate」とか別の話だと思うんだけどどうなの? NovelAIのWEBサイトが3周年更新から異常に重くなった気がするのは俺だけ?
不具合情報とか見ても特段言及されていないのだが… 別にここでもいいかと
> Stable Diffusionをはじめとする
NAI使ってないけど、3周年のなんか+日曜でみんなが覗いて鯖が耐えられなくなってる感じかな
こういう時はX検索するとだいたいわかる
https://search.yahoo.co.jp/realtime/search?p=NovelAI >>660
解決しました
旧twitterで公式が紙フブキオフを案内してました RTX4070 12GBでWEBUIで13GBのSDXLモデルを使ってみたんですが
別の6GBモデル使用中からの該当の13GBモデル読み込みは正常に可能、生成も普通にできるのですが
一旦終了して再起動すると、WEBUIブラウザ立ち上がりからのモデル読み込みに26GB要求されてメモリエラーが起こるんですが
起動時に読み込まれるってモデルは容量が2倍要求されるものなんですか? settingsのstable diffusionの
> Maximum number of checkpoints loaded at the same time 1
> Only keep one model on device
> (will keep models other than the currently used one in RAM rather than VRAM)
> Checkpoints to cache in RAM (obsolete; set to 0 and use the two settings above instead) 0
あたりを変な設定にしてない? レスありです
モデルをいくつGPUに保持するかって設定ですよね
Maximum number of checkpoints loaded at the same timeは1
Only keep one model on deviceは〆済み
にしてあるので1つしか読み込まないはずなんですよね
終了するとき別の6GBモデルに切り替えておけば平気なんですけど
今までこんなこと無かったんだけどなー我慢するしかないか >>664
13GBってあんま見たことないけど、SDXL Turboの大きい奴?
https://huggingface.co/stabilityai/sdxl-turbo/tree/main
(そうなら小さい方でよくね?)
エラーメッセージも(少し前まで含めて)貼ってもらえるとなんかわかるかも ADetailerを使ってる時に、2ndタブにhand_yolov8nを設定すると稀に手ではなく胸をhandと検出してしまうことがあるのですが、
なにか解決策をご存じの方おりませんか? >>665
ちょっとごちゃっとしてしまいますが
File "C:\stable-diffusion-webui\venv\Lib\site-packages\torch\nn\modules\module.py", line 1527, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\stable-diffusion-webui\extensions-builtin\Lora\networks.py", line 503, in network_Linear_forward
return originals.Linear_forward(self, input)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\stable-diffusion-webui\venv\Lib\site-packages\torch\nn\modules\linear.py", line 114, in forward
return F.linear(input, self.weight, self.bias)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`
と出てきたあとに、最終的に
torch.cuda.OutOfMemoryError: CUDA out of memory.
Tried to allocate 26.00 MiB. GPU 0 has a total capacty of 11.99 GiB of which 0 bytes is free.
Of the allocated memory 10.84 GiB is allocated by PyTorch, and 365.11 MiB is reserved by PyTorch but unallocated.
If reserved but unallocated memory is large try setting max_split_size_mb to avoid fragmentation.
というのがcmdに出てきてブラウザは立ち上がりはするものの、生成等が機能しなくなってる、って感じですね。
使ってるモデルは、Civitaiで拾った、Combina8XL 12.75GBの新しいやつで、COmbinaXL10 12.92GBです。
copilotに丸投げして聞いてみたんですが、メモリ不足で割り当てに失敗してる的な事しかわからなくて。
まあどうしてもこのモデルじゃなきゃ出来ない!って訳でもないので我慢します。
終了前に別モデルに切り替えておけば正常に起動できるので。 >>666
Detectionのthresholdを上げて出し直せばいいと思う マジか
そしたらうちのチンコを手と誤認識するのも治るかな ADetailerについて質問があります
ベースのcheckpointをmajicmix、顔のみrealisticなど異なるmodelを使用するといちいちロードし直すため生成時間が伸びるんですが何かいい方法はないでしょうか? >>620
3060 12GBだったけど、そのレス見てポチった4070に今交換したわ
めちゃ早くなったわ、forge+SDXL 毎回35秒ぐらいかかってたものが15秒ぐらい
2.5倍ぐらい高速化した感じ、ありがとサンクスやで
https://i.imgur.com/H6ypks7.png 3060 12GB はとにかく安価にSD環境を構築したいユーザー向けだから
ある程度の予算を捻出できるのであれば
最初から 4070(S) できれば 4070TiS が望ましい 低予算4060ti16gb、中予算4070(S)、高寄り4070Tis、超ハイエンド4090、モンスター(噂)5090 4070Tis(128,000)
4080S(164,000)
差額36,000円
4080S(164,000)
4090(280,000)
差額116,000円
この差額を見ると4090の差額はキツイなーって見えるんだけど
ちゃんと差額分の性能上がってる感じなのかな? >>673
671やが、本当は4070 SUPERが欲しかったんやが
メーカー製のPCで500W電源なので1系統8ピンしかなかったのよ
なので4070しか選択肢が無かったのよね 新しいCopilot +PCというNPUのパソコンは、既存GPUのどの程度の性能なんだろうな?
NPUはAI専用らしいけど、それならAI画像生成はでいるんだろうか? >>675
残念な子だった4080と違って4080 SUPERはまともだけど、
ガンガン使うのであれば4090の代わりにはならない。 そもそもケースに入らないので値段と考慮すると自然に絞れる >>679
そして兼用でなくsd専用でケースも新しくしたほうがいいのか?と悩み始める >>681
排熱でエアコンが効かなくなるからもうワンランク上のエアコンが欲しくなるかも 4090を25.5万で売ったわ
売った秋葉の店でも夏には5090発売日決まるだろうからそれ以降落ちるかもしれんって
5090が39万前後って言われてるから差額十数万なら欲しいし ゲーム目的で高いグラボ買った人がついでに生成AIも触ってみるか!からのどハマりしてる人そこそこいるだろうけどグラボ選ぶ基準がもう生成AIよりになっちゃうよな 高くはない方だけどまさしく生成AI触ってなかったら4070で良かったと思う
触ってたから60ti16GBの方選んでしまったが後悔はしてない >>675
以前調べたときは4090未満は価格と性能が比例してる感じだけど4090だけはプレミアが乗ってる感じだった 今の身の丈に合うものを買えばいい
nvidiaは金持ち相手にぶんどる商売だから割高なのは知ってるはず
一般人が背伸びして手に入れるものじゃない
夏になったらエアコンの電気代も購入後のコストアップになることを忘れてはならない ハイスペックPCはエアコンをガンガンを効かせておかないとすぐに80度を超える
そして毎月の電気代8000円前後アップを払い続ける収入があるのかもポイントの一つ
年間で96,000円は毎年ミドルクラスのグラボを買い換えるのに等しい もちろんパワーセーブして使うことも可能だがF1マシンを買って制限速度60キロの道路を走り続けるのは賢い選択なのか?
答えは国産カーで十分である
そういう人はスポーツカーを買って自分は古アパートに住んで雨ざらしの駐車場でマシンを痛める人だ タバコのヤニまみれ
掃除しないホコリまみれ
家の電気ブレーカーが低アンペア契約で瞬停を繰り返し精密機器の寿命が縮む
よく聞く話だ プロンプトオールインワンを使っていて、お気に入りリストの単語を消すにはどうしたらいい? >>674
H100と比べたら5090も安物に感じるだろうな
Hires2 1024×1536 5t
RTX-4090
27.9s
RTX-5090
8.4s
これは買うしかないわ 4090は23万の時があったんだよね・・中国需要で変なことに 価格comの一番安い奴だけど
https://i.imgur.com/EgLmDbK.png
7月〜10月のわりと長い期間、24万で買えた
というかこの頃はこの価格が続くんだろうってみんな思ってたという 3倍以上はやくなるんか
こりゃ争奪戦で血の雨が降るぞ RTX 5090が RTX 4090の2倍のスピードだったとしても
2倍の値段だったら安い 既出の質問だったらすまない
Forgeの件でA1111に戻ってみたんだが
省メモリ化はうまくいったんだけどTiled VAEの最後の「Executing Decoder Task Queue」という処理でメモリが11GBまで膨れ上がって激重なんだけど、これは回避しようがないですか forgeの方もメモリ見てると同じような処理してて画像が出る時にメモリ使用量上がるけど実際のところ何が違うんだろうね >>697
23万で買えた時ここに書いた事があるな >>701
--no-half-vae付けてたりしない? >>705
女はどんなに頭良くても美人でも
おっぱいデカいだけで
ただの巨乳扱いになる
うちの学校にも居たわ
頭良くて部活スポーツもやってるのに巨乳症わずらってた女
京大医学部に進学して医者になったみたいだけど まじかよ
ttps://gigazine.net/news/20240611-comfyui-llmvision-malware/ 検索しても無かったw
良かった
c.txt chromeのクレカ情報やログインパスワード
f.txt firefoxのクレカ情報やログインパスワード それc.txtはいっぱいあるので一瞬ビビる
あらゆるやつの\gradio\test_data\flagged_no_log内に、abcが3つある ブラウザにクレジットカード情報保管するもんじゃないな >>704
ついてます でも外すと黒い生成画像が出てきちゃうやつでしたよね
どっちを選ぶかって感じでしょうか kohya_ssの学習 モデルはpony系
画像枚数20枚
Train batch size 3
Epoch 30
繰り返し回数10
これで中々キャラの学習上手くいかないんだけどキャラ学習する場合STEP数どれくらい目安にしたらいいかな?
Learning Rateも色々試してるけどどれくらいが最適か分からん >>716
学習素材とかOptimizerとかその他諸々で変わるので試行錯誤して自分なりの設定煮詰めるしかないと思うけど
自分は細かい設定するのが面倒なのでMax train stepsで1000~2000位でやってるかな
PONY系はCaptionの付け方で結構変わるイメージなので
色々試してみるしかないと思うけど
因みにその設定で学習どれ位時間かかってるの?上の設定では30分~1時間位で終わる感じにしてるけど >>717
OptimizerはAdamW
学習自体は30分くらいで終わってる >>718
時間的にはそんなもんで済んでるなら環境なら数こなすしか
上手くいかないってのがどのレベルかにも依るしな
元絵に忠実な絵が出なきゃ失敗レベルだとかなり詰めなきゃいけないだろうし
ぱっと見そのキャラに見えるレベルならそれ位の学習でも問題ないとは思うけど 出来をどこまで追及するかも人それぞれだしね・・
1.5の頃、全く似てないのを山ほどcivitaiに上げてランキングあげてドヤ顔してる外人とかいたし
自分はAdamWでSTEP数は1.5の頃の4倍目安にやってる
XLでこれだとグラボによっては時間がとんでもないことになると思う
なおprodigyは合わないのでやめた
学習画像によって破綻することが多々あって、それを試行錯誤する時間がむしろ無駄すぎるので >>715
Decoder Tile Sizeを64か48あたりまで下げてみたら? stable diffusionを最新版に更新したらi2iで通知音(notification.mp3)が鳴らなくなっちゃったんですが……解決法ってありますか?(t2iは鳴る) ForgeはA1111より画像生成が早くて使いやすいけど、逆にA1111が優れてる点はありますか?
Forgeが開発終了したらしいですが、正直生成早いからこれからもForgeを使いたいけど・・・・ 少なくともForgeは今日公開されるSD3に対応しないよね >>723
サポートの切れたOSみたいなものだから
問題がおきないうちは使いつづけていいと思うよ forge はこれからゴリゴリ機能追加入れるからプラグインも壊れるし、ライトユーザーは出てってくれということかと。 4080も結構電力使うね。750W電源で粘ってたけど画像生成回すと落ちるんよね。10年前のANTECの電源やが1000Wぐらい積んだ方がええんかね。 >>728
俺550Wに4080S載せる愚行やっとるけど落ちたりしたことないぞ
まぁ80%に抑えて使ってるけど >>725
誰も使ってみたと言わないのがさみしいよね
ぼくも使ってないけど >>730
SD3のことならまだモデルが公開されていないから… >>716
Train batch size 3→1
ちゃんと1枚1枚丁寧に学習しろ Automatic1111はまだ未対応か
なんか複数ファイル必要っぽいな 全然追いついて行けず1.5のまま
3 は互換性どうなってるの? アニメ調は1.5がいいと聞くけど3はどうなんだろ? ここは本スレではないので本スレのほうでお願いします。
現にこっちは過疎ってるでしょ。 限定的でも良いから後方互換性はほしいよね……
バッサリ切り捨てていかないと新しいことはできないのかもしれないけど WEBUI1.9.4でADetailer24.5.1の状態で使っているのですが
img2img inpaintで人物の顔の一部を修正をしようとすると
以前まではマスク範囲内、例えば目だけなら目だけを描きなおしてくれていたものが
何故か今では、顔の検出された範囲全体を描きかえるようになってしまって
突然顎の下からペニスが生えたり眼球の隅にペニスが生えたりして困っています。
瞳が割れてしまっている場合などに瞳だけ塗りつぶせば修正できていたのでとても不便です。
自分で何か変な事をしたかもしれないという可能性に関しては
先月拡張機能更新を行った結果、jaxとjaxlibのバージョンに互換性がない
という内容のエラーが出て起動しなくなっため、そのバージョン合わせを
pipコマンドで実行、protobuf 3.20.3とprotobuf 4.25.3のバージョンに互換性が無いと言われ
バージョンを合わせたり戻したりしたくらいです。
そのせいか、起動時にcmdに
Installing collected packages: protobuf
Attempting uninstall: protobuf
Found existing installation: protobuf 3.20.3
Uninstalling protobuf-3.20.3:
Successfully uninstalled protobuf-3.20.3
Successfully installed protobuf-4.25.3
などと長々と出てくる状態になっています。
大変不便なんですが、設定でどうにか以前のような仕様に戻せないでしょうか
inpaintでマスクした範囲内だけを再描画できるようにしたいです。
使用モデルはポニーマージのリアル系のXL、
ADetailerの修正モデルはface_yolov8n.ptまたはface_yolov8s.ptを選択しています。
Eyes.ptは非常に精度が悪く、眼球に人物やペニスが生えるので使っていません。 paperspaceを使ってる人に聞きたいんですが、左ペインのFilesでファイルを削除しても
ストレージ使用量が全然減らないんですがなぜなんでしょうか 客引きすると何かいいことあんの?
お金もらえるの? このスレ
2024/06/05(水) 2
2024/06/06(木) 10
2024/06/07(金) 9
2024/06/08(土) 28
2024/06/09(日) 40
2024/06/10(月) 23
2024/06/11(火) 24
2024/06/12(水) 15
2024/06/13(木) 15
客引きスレ
2024/06/05(水) 8
2024/06/06(木) 7
2024/06/07(金) 4
2024/06/08(土) 3
2024/06/09(日) 3
2024/06/10(月) 2
2024/06/11(火) 13
2024/06/12(水) 35
2024/06/13(木) 16
土日過疎で自演分かりやすい >>746
パソコン一つとっても消えた規格なんていくらでもあるんだしこういう新しい技術の出初めはお祭り気分で何でものっかればええんよ civitaiの使い方の質問は、このスレでいいですか?スレ違い? Lora上げてる者なんですが、なんかへんな所さわっちゃったらしく、Hidden by your tag preferences:FEMALE SWIMWEAR OR UNDERWEAR って表示が出て、幾つかの画像が表示されなくなったんです。もとに戻したいんですが、どうすりゃいいのか教えて下さい。 ありゃSAGEてない。久方ぶりに書き込んだんで失礼しました。 そのまんま答え書いてあるじゃろ…設定画面くらい見なさいよ >>758
英語はグーグルだよりでして…設定画面の味方がいまいち不自由なんですよ。お手数かけてすいません。 Adetailer関連の質問。
例えば兄魔人モデルを使用していて、きちんと兄魔人対応Loraを使用しているのに、Adetailerを使用すると顔面が乱れるのはどうして?
Adetailerを使用しないと顔面は乱れない。中には乱れないLoraもある。
Denoising Strengthは色々いじくったけどどうも関係ないみたい。どなたかわかる方教えて下さい。m_ _m >>758
やっとわかった。自力解決しました。お騒がせしました。 >>760
LoRAとMODELで効きが違う
だから原因はかけ過ぎまたはかけなさ過ぎ
1から引いたり足したりしてみ
-1にするのもあり >>762
ご返信ありがとうございます。
Impaintingのところですよね。違ったら失礼します。
とりあえずデフォルト設定で使っていたので、もう少し調べたり試行錯誤して見ようかと思います。感謝いたします。 >>760
Adetailerのプロンプトかネガプロに余計なこと書いてるとか
まず空欄(つまり生成時と同じ)だとどうなる? >>764
本当にありがとうございます!
試しに掠れていた画像をPNG infoで取り込んでみたところ、Adetailerのポジプロに書かれていましたね、ブランクにしているつもりでしたが・・・
原因特定できたので大変助かりました。本当にありがとうございます!
Dynamic Promptで複数キャラで出力してるのでもしかしたらそれが原因かもしれないですね・・・ いままでsdはハードウェア要求レベルが高いので放置してたけど
sd3 mediumリリースってニュースみた。
ローカル環境で無修正エロ作れるの?
できるならやってみたい >>765
良かったね
ちなみに[PROMPT]と書いても元のプロンプトと同じだけど、[PROMPT], smileのように元のプロンプトに書き足すことができるのでAdetailer使うなら覚えておくといいかと思う
これと[SEP](Adetailerの検出順に別のプロンプトを割り当てる)も組み合わせて複数キャラの表情を指定ってこともできる([PROMPT], smile[SEP][PROMPT], ungly)
https://github.com/Bing-su/adetailer/wiki/Advanced あれこれプロンプトいじりに疲れたときは
マスピだけ入れて回したランダム画像に癒されている 本当に初歩的な質問なんですけど
例えば新しいパソコンを買ってきたとします。
そこでpinokioというAIツールをインストールしたら
Stable Diffusionもインストールされたことになるんでしょうか?
それともStable Diffusionをインストールしてからpinokioというツールを
インストールしなきゃいけないんでしょうか?
何言ってんだこいつってレベルの質問ですがご容赦ください >>768
タグまで丸投げ出来るRuined Fooocusも面白いよ Stability Matrixで色々入れて遊んでます
Pinokio知らなかったけど画像生成以外のツールも入れられるんだな
楽しそうだけど英語か〜 >>762
亀ですいません。Denoising Strengthをデフォルトの0.4から0.1に調整したら、
キャラ名だけでいけるキャラはもちろん、Lora要るキャラも(特に後者)ワイルドカードにいれて顔面崩れないようになりました。ありがとうございます。
----------------------------------------------------------------------------------------------------------------------------------------
その代わり、まつげブーストがそこまでなくなったので、"hyper detailed eyelashes"ってプロを入れたら、
Denoising Strength 0.4のまつげに限りなく近くなりました。(Ultra, extremely, superあたりは試行錯誤)
恐らく修正度合いが少なくなったせいか、出力も早くなっていいことづくめです。お礼がてら他の方に情報共有。(Animagine V3.1) 手持ちのPCがSurface Pro9しかなくて外付けのGPD考えてるんだけどこれ付けとけばAIの画像生成は問題なくいける?
https://imgur.com/rNsJ7X5.png AI生成できるかできないかが知りたい
出費は気にしないけど今あるsurfaceはできれば活かしたい できる(かかる時間を無視すれば)
グラボもそうだけどメインメモリも足りないから省エネで生成できる環境を自分で整えないといけない
それならオンラインの生成サービスに課金した方がマシ
いつ飽きてやめるかもわからんのにいきなり大金ぶっこんだらアカン あーやっぱスペック足りてないのか・・・
ちょっと考え直すわ、教えてくれてありがとう >>780
メインメモリ16GBは足りないな
64GBは欲しいね
GPU 4090 24GB
PC Mem 128GB
これだと非常に快適です😉 メモリは最低32で64とか積めばなお良し
GPUは最低3060 12GB
sd用にSSDを最低でも512GB、出力用に適当なHDDとか
これで安く専用機を組んだほうがsurfaceで下手にお金を出してどうのこうのより快適だと思う SD1.5ならメインメモリ16GBでも余裕だけどSDXLだとかつかつ
Windowsでやるならグラボはnvidia一択 マネタイズじゃないなら安いので十分だよ
実写がゴミだから飽きるだろ SDでの限界が分かってきたから飽きるのはあるな
面白そうなLora出たら使うくらいか そもそも自分でLora作らないなら
糞スペックでいいだろ 今月電気代が上がるんで
AIイラストのみで先月15000としたら
今月は22000円近くなるのか
関西電力 >>787
職場でAIに詳しいの俺しか居ないから
「AIでこんなことできる?」
って気軽に挑戦をさせられてるけど
やっぱ個人用エロ画像作ってるのとはわけが違う要求を満たすので、勉強になる >>791
元ネタが無いと無理なんすよなんでも出来る訳じゃないんすよジジイって言えよ >>793
言ったらタスクが終わるなら苦労しないんだよ坊や なんでもデータがあれば機械学習やらAIで何か出来ると勘違いしている人はいる
ゴミを入れてもゴミしか出てきませんよ、データのフォーマットくらいは揃えましょうよと言った事はある ForgeでしかXL生成できなかった環境だったけど最新1111ならXL生成できるようになったのありがたい >>794
じゃあ愚痴書いてないで馬車馬のように働け社畜 AIイラスト職場で使うんか
何に使うんだ
そんなもん他の奴にも教えりゃいいだけだろ
馬鹿でも出来るんだし >>796
ん?A1111のVRAM効率forge並みに良くなったの?そんな感じしないけど… Forge作者の投稿見る限りは本家WebUIのdevブランチに性能に関わる更新の多くを取り込んだ
でもメモリ管理周りはコスト掛かりすぎるんで無理っす宣言してたけど
真実は如何に?
本当なら朗報なんだけどね 実際にforge利用続けるって人が多いのが真実だよ
ただ今後の開発で必須になるような拡張やらがa1111にでたら
また乗り換えるしかないだろうね
いまでもリージョナルプロンプト使う場面ならa1111 ForgeはSD3に対応しない一方、1111は1週間くらいでSD3に対応する予定とも聞くから、SD3でいいモデルが出てきたら1111を使う人が増えるかもね 元々A1111でもTiledVAEとKohya HRFix使えばXLの生成はVRAM8GBでも出来てた
ただ遅かったのとそれでもForgeに比べればVRAM消費多くて、遅いのは今dev版で改善されたという状態
あとfp8だとnegpipでエラーが出る >>805
>同条件ではないものの
というのが怪しいかもしれん
ぼくのGeForce RTX 4060 Ti 16GBだと1枚平均4秒かからないし pixiv巡回してると、ここ半年くらいでAIエロのクオリティが爆上がりしているんですが、技術的に何かブレイクスルーってあったんですか? pony使っとるんやろ
XL使えねえなってところからこいつでほぼ全て終わるエロモデルが出た >>808
知らぬ間にこんなの出てたんかー
ありがとうございます! civitai にあるパラメータってまったく同じのを入力してるつもりなのに違う絵になるのはなぜなのでしょうか?例えばですが
https://civitai.com/images/15844350
とまったく同じ絵を再現したいのですが実際は
https://ibb.co/m4XzSzS
こうなってしまいます。
画像サイズはいちおう元絵のサイズを調べて同じのにしました。
他はなにを調整すべきなのでしょうか? まあ似た感じになってるんじゃない?
このサンプル出した人とPC環境同じにしたり
このデータに書かれていないような所まで一緒の環境にできたらさらに近づけると思う 単純にすべてのパラメーターを公開してるかわからないだけ
control netとかipadapterとか使ってたらわからんし
もしかするとLoraを使っているけど載せていないかもしれない
要するにアテにならない A1111のXLでEXTRASでバッチ処理で複数ファイルを処理していたが、ここ数日、ファイルドロップ欄に複数ファイルを入れても無視される事象が起きている。
1つや2つだと正常に動く。
どうも4つ以上のファイルが貼り付けられると無視するようだが、何が原因だろうか? >>799
GPU:4070Ti(VRAM:12GB)
version: v1.9.4
python: 3.10.11
torch: 2.1.2+cu121
xformers: 0.0.23.post1
この環境でSDXLのponyで生成できてるよ >>818
同じく4070Tiだけどマジ?
それならa1111に移行しようかな
12GBグラボはマジでforgeのありがたみヤバかった >>813
settingのstable diffusionのRandom number generator source.
をNV(NVIDIA)にしとけばNVIDIAのグラボならみんな同じなるとかなんとか、真偽不明
相手さんがデフォのGPUのままだと、GPU種で変わっちゃうとか聞いた
>>817
特に報告もなさげなんで、おま環(ブラウザ側の何か)臭いけど・・
D&Dじゃなくクリックして選択アップロードで4つ以上だとどうなるかな? VRAM12Gあれば少し前からXL出力可能なのに何をいまさら… VRAM12Gあれば少し前からXL学習可能なのに何をいまさら… VRAM12Gあれば少し前からXL学習可能なのに何をいまさら… VRMA12Gあばれ少し前らかXL出可力能なにの何いをさらま… 紹介してないとこの値段にならないから、普通に行っても無駄 以下の画像を見てほしいです。※エロです
https://i.imgur.com/XkETQYm.jpeg
https://i.imgur.com/YWRxW5i.jpeg
こういうのってどうやって作っているんでしょうか?
自分は全くこんなレベルに到達できていません
こういう2人が絡み合う複雑なポーズがそもそも作れないですし、体も、指、性器も奇形になるものばかりです
上記の絵はもちろん、どうやって作ったかは作った人でないと分からないとは思うのですが、皆さんの推測で教えてほしいです
まず、これはStable Diffusionで作ってるんでしょうか
そうだとして、そこからどうしてるんでしょうか?loraで作っているんでしょうか
自分は色々既存のloraを使い、loraの強度も変えて試してるんですが、思い通りのがでないか、画質が劣化するかで、だいたいうまくいきません。 >>828
何時間かクーポンやら駆使してiPhoneやらグラボやら色々格安になってた >>831
pony系だとこのくらいloraなしで普通に出せるかなぁ
上はAIで出した後に手を加えてる感じがするけど正確にはわからない
>>833
これはいいmicrosoft 基本ディスプレイアダプターですね・・ >>831
pony派生のモデルならLoRAいらんレベルだと思うしYouがどんな環境とモデルで作ってるか分からん
1枚目なら体位とhug、kiss、side view調整するだけで普通に出るだろうし2枚目も同様
まあmotion lineやdrool、モンスなんかのデティールは指定してるだろうけど >>834
>>835
なんと、まず、ponyというのがなにか分からなかったのですが、もう、Stable Diffusionの後継?のXLというのが出ているのですが。そのXLというのにしてpony系のモデルを入れればよいのですね。
やってみます。
知らない間にStable Diffusionも色々進化しているのですね。
ありがとうございます! >>820
Edgeの履歴クリアと設定をいじったら直ったっぽい。
しばらく様子見るわ。
3X。 >>819
1.6.0から生成自体は出来てたけど時間かかったからForge使ってた
1.9.4で生成速度がかなり改善されたからForgeから卒業できた >>831
奇形ばかりの中から選抜された画像かもしれんぞ XLの実行自体はGPUメモリ8GBでも出来る。
問題はメインメモリと合わせた共有GPUメモリ。これが足りないと最後の出力部分でこける。 XLで最近Loraを作り始めたのだけど出力されるファイル容量が指定値の大体八倍になっちゃう
1.5系ならRank32と指定したらそのままのファイル容量なのだけど、XLはこういう仕様なの?
落ちてるXL用Lora見る限りなんとなく何かの設定間違えた気がして >>831
二枚目のはonArmorのLoRAで作りやすいと思う >>839
その可能性もあるんですが、高クオリティなのを大量生産してる人なので、根本が違うのかな、と
>>842
え、そのローラ使ってみます
ありがとうございます。 さっそくSDXLというのを導入してみました。
しかし、全くうまくいきません
生成時間は今までの3倍くらいかかるのに、クオリティは低いのです
いろんなモデルを入れて、設定も色々変えたのですが、きれいな仕上がりがひとつもないです
例えば試しにと、AAM XL (Anime Mix)というモデルでやってみたのですが、以下のような低クオリティの画像しかできません
https://i.imgur.com/mahIEq6.jpeg
他のモデルだとこんなのが出たり
https://i.imgur.com/Td3ohCB.png
なぜなのでしょうか
設定は以下です
Steps: 13,
Sampler: DPM2 Karras,
CFG scale: 7,
Size: 1024x1024,
Model: aamXLAnimeMix_v10,
VAE: sdxl_vae.safetensors,
Clip skip: 2,
Refiner: sd_xl_refiner_1.0 [7440042bbd],
Refiner switch at: 0.8,
version: v1.8.0
python: 3.10.10
torch: 2.1.2+cu121
xformers: 0.0.23.post1
gradio: 3.41.2
グラボのメモリは12G 本体メモリ32G >>844
ステップ数低い
リファイナーいらない
VAEも変えたほうがいい
モデルもできれば安定した画像が生成しやすいpony系(ebaraとか)で試したほうがいい 低クオリティというかもはやグロじゃないか
ビビったぞw >>844
2枚目はvaeがあってない
sdxlはsdxlのvaeじゃないとダメだよ 指定のvaeか内蔵の場合があるのでちゃんと読んでステップも上げれ >>844
起動オプションでmedvramいれてる?
12Gなら入ってるかな ebara2.1の塗りとか絵柄がだめなんだけど、そうなってくるとモデルを変えるべき?
抜きゲーみたいな塗りが欲しい 皆様、ありがとうございます。非常に助かります。
アドバイスいただき色々分かってきました。
リファイナーを外し、ステップを上げ、vaeも変えました。
pony系(ebaraとか)というのは多分これのことでしょうか
https://civitai.com/models/466637/ebaramfcgponymix
プロンプトも何だか見慣れないのがたくさん出てくるのですね。
ちょっと頑張ってみます。 nai使ってるんだけどリアルフィギュア系の画像出すときにいつも髪だけ絵の塗りっぽくなるんだよなぁ
プラスチックの良い感じの質感出すパワーワード無いものか プラスチックといっても艶やかなものもつや消しもあるからなぁ
glossy hairとかどう?知らんけど どっちかと言うとつや消し系かな
matte hair試してもずっとツヤツヤして絵の質感になってるんだよなぁ
立体系のワードで攻めたらフィギュアの髪質になるかな 黒髪以外は結構良い感じの質感になるんよ
黒髪だけが絵のままだわ ハッサクは独自の絵が強すぎてLoRA乗らん事がある a1111今や12GBでいいぞって今朝聞いたから改めて導入したけどvaeで止まるじゃん… SD3がNew Branchで来てるのにまだそんなこといってんのか >>864
自分の環境だとno-half-vae入れないと真っ黒になることが多いので入れてるけどvae処理でかなり遅くなるね
止まりはしないけど tiled vae使わないと糞遅いぞ
no-half-vaeの場合はdecoder tile sizeさらに半分位にする必要あり 現状1111の精度と手間が悪いからNovelAIv3に移行した人爆増したんだろうけど、1111は精度の上方は暫く起こらないと見ていいのかな?
SD3はもう来てるけど、どこまで変わるか分からない&諸々の機能の対応に時間かかるんだよね
良くある話Novelだと理想の絵柄に離れるよね
AOMモデルの絵柄が好きなんだけどNovelだとどうしても再現できそうに無いね…。いいとこ取りはまだ先かなぁ XLのvaeには一番普及してるバージョンにバグが有るとか最近見かけたね >>867
最近のpony系は知ってる?あれ以降はNAI3の絵でスゲーって思ったことないなぁ
今時AOMなんかの話してる時点で生成から相当離れてない?
そもそもNAIは自分でlora作れないからマイナーキャラは出せないし
まぁdalle3には完敗、でもあれはエロほぼ出せんしね
なお1.5限定のスペックならすまん pixivでも大抵凄いのはNAIだけどな
SDのLoraなんてろくなの無いじゃん
再現度が段違い
マイナーキャラは確かに弱いがそのLoraも大したもん無いしな >>862だけど激遅になるって意味で流石に止まりはしなかったが>>869のvae入れるだけで解決したわありがとう
-xformers -medvram使ってまぁforgeと同等だが一枚当たり1秒以上違うからforgeはまだ消せそうにないな pony信者ってよく湧くけど扱い切れてなくてAnimagineでやった方がましってのが多い ponyってキャラもんは向いてないだろ
エロ用モデル キャラもの強いモデルはポーズにパターン少ない感じがしてponyて好みを練ってる >>875
んなこたーないw
適切に作ればちゃんと出るよ
ただpony派生モデルでも顔つきが体が勝手に低年齢に寄っちゃうのはあるので
原作通りにしたいなら選択は慎重に arms up behind以外で「手を後ろに」回して手が動かせないように見えるシチュエーションに使えそうなプロンプトはありますか?
restrainedとshacklesのセット、shibari、手枷などは拘束されてるけど不安定な手の位置や手の自由が残ってるときがあって使いにくいというか
arms behind backが効果ないのが解せない >>877
例えばなんのキャラが忠実に出せるの?
見せて欲しい >>878
【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/
プロンプトの内容はこっちがいいかも
こっちでもいいけど盛んなんで、自分もいるがw
>>879
とりあえずワッチョイの方で語ろうか 自分の絵柄Loraで一次創作しかしない俺高みの見物 そりゃStable Diffusionはローカル内だけでの情報のみなんで膨大なサーバー通して処理するのとは全然違うよ
GPTで数GBのローカルで使えるアプリとサーバー通すのとでは訳が違うように 1つのモデルやLoraくらいじゃ表現広げるには足らんって事? A1111 1.9.4で起動時に毎回以下のメッセージが出ます
D:\stable-diffusion-webui\venv\lib\site-packages\huggingface_hub\file_download.py:1132: FutureWarning: `resume_download` is deprecated and will be removed in version 1.0.0. Downloads always resume when possible. If you want to force a new download, use `force_download=True`.
warnings.warn(
Issue見てもいまいち解決方法がわからなかったんですが、解決方法わかる方いらっしゃいますか? >>888
近い将来に起こる問題だから無視していい 和訳すれば分ける内容だなw
将来的にresume_downloadがversion1.0.0で削除され、常に可能ならレジュームが効くようになる
どうしても新しくダウンロードしたい場合はforce_download=Trueとしろと 日本語訳でトンチンカンになってる気もするが
まずそのメッセージそのものは警告だから今すぐ動作に不具合なければ無視していい
※ログにはただのメッセージ、警告、エラー、致命などのレベルがあって警告は動くけど(将来含め)不具合の原因かもという情報だから普段は無視していい
以下は興味あれば
警告の内容はそのうち削除する予定の関数使ってるから早めに直してねというもの
さらに補足として何かをダウンロードするためのresume_download関数にしかなかったレジューム機能はdownloadのデフォルト機能として統合されたから不用になったのと、もしレジューム機能使いたくなかったらそれもできるよと書いてあるだけ >>890‐891
メッセージに出ているファイルの内容を書き換えましたがメッセージは出続けます
どのファイルを修正すればいいのでしょうか? >>892
コードにそれほど詳しくない一般ピーポーであるならば修正は諦めてください。
A1111の開発者が修正するのを待ってください。
↑で言われてる通りただの警告であってエラーではないので無視して大丈夫です。
こういうメッセージは大抵の言語で以下のようになってて、error以外は一応動く。
error (動かない)
warning (警告)
notice (お知らせ)
debug (デバッグメッセージ) >>894
詳しそうなので質問させてください
メッセージに出てくるバージョン1.0.0というのはどのモジュール(機能?)のバージョンでしょうか? ここにいる人たちはGUIで操作する範囲のことしかわからないから、そんな高度なこと聞いちゃ駄目だよ これは今バージョンではこういうことですよって開発からのメッセージだから
修正したら消えるってもんじゃないだろう
それでも消したいとなるとプログラム弄るような話になりそうだし
この板じゃなくてもっと専門的なことがわかる人がいるところに行かんとキツイと思う その労力を掛けて消す意味があるのかどうか
そんな潔癖だとハゲるぞ Copilot +PCが発売されたようだけど、搭載してるNPUでStableDiffusionがそこそこ動くなら欲しいな >>895
> メッセージに出ているファイルの内容を書き換えましたがメッセージは出続けます
> どのファイルを修正すればいいのでしょうか?
なら「メッセージに出てないファイルを修正すればいい」と考るべきでは?
なお具体的にどのファイルなのか知らんから俺に質問しないでよね! >>895
(前提として私はpythonに詳しいわけではない)
ちょっとそのメッセージからだけだと分からんな。
file_download.pyの1132行目でこのresume_downloadなる機能を使ってるから出ている警告で「ver1.0.0で resume_dowonlad削除するよ」って意味だから、おそらくダウンロード関連のpythonライブラリなんじゃないかな。
このメッセージはA1111の開発者からのメッセージではなく、python側からのメッセージ。
このメッセージを出ないようにする人はA1111の開発者であって、あなたや私たちユーザではない。 ↑書いてからちょっと調べてみた。
>>895
https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/file_download.py#L685-L691
バージョン違いがあるから、行数はちょっと変わる。
python本体じゃなくて、huggingface_hubってパッケージが出してるメッセージでした。
A1111はこのパッケージを使用してるようで、その中でresume_dowonload機能(オプション?)を使った際にhuggingface_hub側が「このオプション将来的に(ver1.0.0になったら)消すからね」ってメッセージを出しているものです。
重ねて言うけど、ユーザ側は何もしなくていい。 もしメッセージ出なくなっても「ネガティブで強調しても何故しつこく出てくるの?」とか言い始めるとエスパー >>901
Lunar LakeはStable Diffusionで画像を生成するというAIタスクでSnapdragon X Eliteの1.4倍の性能を示した
コア性能もSnapdragon X EliteやRyzen 7 8840Uと比べて高速 >>904
こういったものに初めて遭遇したので興味がわいて、折角なので少しでも知識が蓄えれればと思って聞いてみました
ありがとうございました webui-tagcompleteがtaggerとdatabase tag editerで効かないんだが、何かチェックする方法ある?
設定でサードパーティの拡張で使用するってとこにはチェックが入ってるんだが。
Forge では効いてたんだけど、A1111で使おうとしたら効かなくて不便してる。 もう半年くらい離れてて最近の情報知らないんだけど、VRAMは少なくても大丈夫になったの?
一応A2000 12GB使ってるんだけど、グラボも新製品が出てるようだし、予備PCにRTX3050 6GB載せようかなと思案中 >>911
省VRAMはForgeが道を開いた。6GBでもSDXLで画像生成できるはずだけど、Forgeは今後実験的な開発に向かうそうなので未来はない
SD3 mediumはa1111では今のところ最低16GB必要みたい(まだ正式リリースはされていない)。ComfyUIなら12GBでも大丈夫、6GBではさすがに無理じゃなかったかな
ただしSD3 mediumは人体の表現が苦手なほか、ライセンスが不明瞭という理由でCivitaiが扱いを一時停止したりして将来性に不安がある 無理だと思ってたが4070TiとA1111でSDXLが吐き出せるようになってびっくりした(1.9.4)
いいか起動オプションにno-halfは使うな(黒画面対策に入れてたがこれが原因で遅かった) 速度に目を瞑ればGPUメモリが6GBだろうとSDXLは行ける。メインメモリとGPUメモリ間での転送処理が遅いだけで、メインメモリをたくさん積めば動くことは動く。
最終出力がFullHDとかなら64GBくらいあれば行けるよ。多分。 1070TiでもComfyでSDXL出るんだから、30以降なら余裕じゃね? 革ジャン氏 遂に時価総額世界一の企業のボスになったよ 人それぞれ「できる」のラインが違うんだよな
設定にもよるけど4070Tiではやっぱまだforgeが強い
大体のことがvramで足りてるけどA1111はramどころかストレージまで使い始める時ある 4090買うような連中はほとんどの奴が買い替えるだろうし、言うほど争いは起きない気がする SDXD揃えたんだけど魔神さんの身体の描写、アップだとすげえと感動したのに引くと
胸板薄くね?足、ほそっ!となってしまった
単にアイマスか直近のキャラ造形にになってるようだ
もう少し現実的に肩幅もあり足もしっかりひたようなプロンプト、モデルはない?
SFWなんだけど
サンプルがアップの画像ばっかで比較しようもなくて困ってる XLで生成した画像をping infoに持っていってその情報を確認しようとしたら、waitingがけっこう長くて(20秒くらい?)、情報の表示までに時間がかかります。
1.5系統の画像ではこんなことなかったんですが、なぜでしょうか? >>923
殆どは言い過ぎ
この円安続くと5090は40万超えるだろう
4090は24~26万で買った奴多いだろ 今なら25万で売れて手数料で228000
販売前とか殺到したら値崩れする前に売っとけ ちゃんと対応した技術で必要性が確立されてから購入は検討するよ
出る前に皮算用してもしょうがないし、4090発火みたいな問題がないとも限らんし
一番高い時に人柱は多いほどいいから こういう言い訳するのもやはりいるからみんな買い換えとか無いよ
値段で躊躇する
25万ならまだな 5090なんて値段は上がってそれでも激戦で手に入らないに決まってるから、
4090を使い続ける。 一番の心配はPCケースに収まるかどうかではなかろうか 他に競合できるメーカーがないから、革ジャンぼったくるんだろうなぁ
円安も拍車をかけるだろうから余計に手が出ない AMD・Intelはもっと頑張って欲しいよな
アーキテクチャやチップの性能もあるだろうが、コードの最適化も課題だと思うんだよね。
AMD・Intel側が積極的に今のAI関連のソフトに自社のGPU最適化コードとか広めていかないとNvidiaには勝てんだろうな。 seaart関連が見当たらなかったのでこちらで失礼します
seaartの月間プランを解除する方法をご存知の方いらっしゃれば教えていただきたいです
「購読管理」から解除できるらしいのですが、それを押しても「カスタマーサポートに」と出て進みません…
どなたかご教授いただけないでしょうか。 automatic1111をv1.9.4に更新したら
Loraとかcheckpointsが全部表示されてフォルダ分けしたソートが効かない感じなんですが
おま環ですかね? Forgeが使えないとなると少なめのVRAMでも快適な生成をしたかったらComfyUI使うしかないのかな? RTX 4070SP 12GじゃRTX3060とあんまり変わらんですか? >>943
全然違うけど、そもそもVRAM溢れたら4070spの性能が無駄になって目糞鼻くそになる可能性がある
12GBで収まる処理なら断然早い >>940
全然知らんのだけど
https://tinypc.jp/seaart-v1-3-5/
> SeaArt – V1.3.5 アップデート
> 2023年12月4日 20:04:30
> システムの更新により、VIPサブスクリプションは有効期限満了時に自動更新されなくなりました。
> サブスクリプションを更新するには、手動で再アクティブ化してください。
元々買い切りなんで、払い戻しはないんだよね
更新されないんだから解除も何もないってことじゃないのかな?
放置しとけば引き落としもなくなって使えなくなって終わるだけでは ことAIに関しちゃチップというかcudaなんだよなあ ん?
ComfyUI の開発に SwarmUI の開発が合流したって事!? Nforumで見て更新したらマジだった
SDXLでも速い 大きくなって消費電力増えて「処理性能が上がりました!」じゃ
進歩とは言えんし >>950
4070Tiでも5〜8秒速くなった
PhyXシステムなんちゃらのアップデートが効いてるのかな 今使ってるCPUが3600なんだけどこれにRTX4090組み合わせたらCPUがボトルネックになる?
4090ってAM4環境とAM5環境で生成の時間変わるんだろうか?
長い目で見ればAM5にしていくほうがいいんだろうけどAM4でも十分なら価格落ち着くまではそれで頑張りたいんだけどそのあたり知ってる人いたら教えてください 多分ストレージが1番のボトルネックになる。
SSDでもSATAだとアップスケールかけてる時にここでつっかかってるなって実感する 何で読んだ文章を理解できないのに、
見当違いの質問したがるの? 今どきSATAなんて10年前の話してるなあって思ったから 話の流れも見ないで直近1レスに脊髄反射してるからそうなる CPUボトルネックになったとしても下位グレードのグラボの性能まで落ちるわけじゃないんだから買えるなら買えばいいのよ
アプスケ時にストレージアクセスするってメモリあふれてるんじゃ? AIやるならボトルネックは常にGPU側だろ
Aシリーズx2積んだAIワークステーションでもふつうにインテル14世代で売ってるし一般人レベルがボトルネックでCPUの事考える方がおかしい いきなり話し変えてすみませんが
PonyやAnimagine以外でSDXLでLora学習におすすめなチェックポイントはありますか
やっぱりAnyLoraあたりですかね ストレージが影響してるのは、メモリ溢れてるんだろうな
ワイの場合仮想メモリ少ないからメインメモリ溢れた時点でエラー起こすけど
SATAのSSDの利点は圧倒的な低消費電力、設置場所がある程度自由。そんだけ。 >>965
無いよ今流行ってるのは全部どっちかの派生
口悪いかもだけど今どきブルーペンシルとか勧めてもどうせ満足出来なくて他に~って言い出すだけだから素直に参考例の多い皆と同じもの使っときなよ すまんよく読んでなかったけどlora作成でも同じ
作成したモデル系統じゃなきゃ満足に効かないから元モデルで作るのが知見も多いから手っ取り早い
魔神あたりはSDbaseやらで作っても効いたりするけどそれで良くなる訳じゃないしな ストレージが効いてくるのはcheckpointの読み込み時くらいかと なんのことかと辿ったら>>957か、まぁかなりトンチンカンだな・・
VRAM溢れをメインメモリで受ける設定→めちゃくちゃメモリ少ない→仮想メモリに足突っ込んでる
くらいか、こんな環境だとそもそも普段まともに生成できてないはず >>973
質問でなくグラボ談義がしたいなら↓のスレへどうぞ
【StableDiffusion】AIパソコンスレ 質問・雑談2
https://medaka.5ch.net/test/read.cgi/pc/1698406162/ 4090持ちなのにWindowsで生成してるアタオカな人ばっかりだし その理屈だと3060だろうが4070だろうがwindowsで生成してる奴はみんなアタオカになるが Stable Diffusionのだいぶ前のバージョンだと、生成の途中でinterruptボタンで中断すると、とりあえずその段階まででできている画像を出力してくれてた
最近それがなくなって、画像が生成されないんですが、前みたいに途中でもいいから画像を出す方法ってないでしょうか 普通に途中出力してくれるけど、もしかしてワイのver古いんかな… >>970
乙
忘れてた
>>981
forgeは
> Save incomplete images
> (save images that has been interrupted in mid-generation; even if not saved, they will still show up in webui output.)
のチェックがデフォで外れてるのでsaveされない
1111にもあったっけ? >>983
ありがとうございます。
その項目が1111にもありました、そして、チェックが外れていました。
Stable Diffusionのバージョンが上がって新しくこういう選択肢ができて、かつデフォでは外れる仕様になったのかもしれません。
助かりました
ありがとうございました! >>980
マジで!?
WSLのUbuntuで1111のサーバーを動かしてWindowsのブラウザからアクセスしに行く感じ?
出力ディレクトリがWSL内になるんか 使うオプションが変更されないように
uiのjsonは保存しとくといい
そうでないとupdateで初期値になるはずだ >>985
WSL2ではそんな早くならんよ
ぶっちゃけ誤差レベルなんで意味ない ハッサクのXL版があると聞いて、大喜びで落としてみました
しかし、絵柄が全然ハッサクじゃないんですけど、自分なんか間違ってますでしょうか?
それとも設定値にコツとかあるんですか?
1.5の時は↓のハッサクを使ってて
hassakuHentaiModel_v13
XLでは↓を使っています
hassakuXLHentai_v13 生成は1〜2割ぐらいだけど学習が2倍速いという話があったね そらそうよ
作者が同じってだけでベースから全く異なるモデルだもの
絵柄すら全く同じに寄せるように作りましたなんてどこにも書いてないと思うし >>990
そういうことですか!
勝手に思い込んでましたが元のハッサク要素は入ってないのですね、残念です
ハッサクの絵柄に近いXLがあればなあ
ありがとうございました >>989
それたまに言ってる人みるけど、ちゃんとしたソースあるんかね
データとして 生成AIではないけどディープラーニングの学習でWinとWSL2で比較したことある
そのときは速度まったく同じだった
処理によって違いはでるとは思う WSL2ってオーバーヘッドが無いかのような速さで時代は変わったよな
元がLinux向けでWindowsに最適化出来てないと逆転する事すらあるからな
昔はvmwareだったのに…… ponyで使える書き込み増やすflat的なloraって何があるか教えてください civitaiをponyでフィルタして、detailとかsliderで検索するんだ・・ デュアルブートでUbuntuでA1111環境構築してみたら生成速度10秒ぐらい速くなったけどナニコレ 「10秒早くなった」
1000秒かかるのが10秒早くなって990秒になった=誤差
11秒かかるのが10秒早くなって1秒になった=めっちゃすごいね
数字ってすごいだろ? >>998
0.01秒かかるところが10倍速くなって0.001秒で描画できるようになった=誤差 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 66日 13時間 45分 48秒 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login レス数が1000を超えています。これ以上書き込みはできません。