【StableDiffusion】画像生成AI質問スレ19
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像。出力画像はimgurではなく、catboxなどアップ時に出力パラメータが消されないサービスへ
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ18
https://mevius.5ch.net/test/read.cgi/cg/1694882607/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで 失礼!間違えました
テンプレは https://rentry.co/aiimggenqa に
>>950 が次スレを立てて下さい
不可能な場合は他のスレ民に依頼して下さい
前スレみたいに議論のヒートアップで埋めないで下さい 両手を壁につけさせたいんだけど、片方の手をついたら片方の腕がどっか行ったりして困ってる
片腕下がったり上がったりしてもまぁそれっぽく見えなくもないけどさ…
両手を壁につけてとかドギースタイルとかやってもいうこと聞いてくんない
i2i以外で良い方法あるかな 両手を壁につけさせたいんだけど、片方の手をついたら片方の腕がどっか行ったりして困ってる
片腕下がったり上がったりしてもまぁそれっぽく見えなくもないけどさ…
両手を壁につけてとかドギースタイルとかやってもいうこと聞いてくんない
i2i以外で良い方法あるかな あと無駄な壁が増えてそっちに手をつきたがるも追加で 自分自身のドギースタイルでlora作れば早い
著作権もクリアできる 漫画家とかやってるやつやな
自分自身でエロいポーズになって撮影会ってアレやけど
素材にした画像もニーズあるかもよw >>978
ごめん
気づかなかった
>>1
スレ立てありがとう
■テンプレはここにまとめてあるから長々とコピペする必要はないんやで
https://rentry.co/aiimggenqa
これとりあえず俺が付けたんだけど、そろそろどうするか考えても良いと思う
ただ、個人サイトで個人管理っぽいからいつまで管理してくれるかとかそういう話もあるからなかなか難しそう
>>971
そこまでの原作忠実じゃなくって良いんだよ
でも、SD登場するまでは俺が作ったレベルすら大量に欲しい場合は無理だったじゃん
あと、これは個人的にな感性なんだけど、原作に超忠実なのは良いんだけど、そういう絵って何度か見てると意外と早く飽きてしまわないか?
anylora当たり使うとかなり忠実に出てるよな
ただ最近はちょっと異なる画風(同人誌だと作者によって画風やアレンジが加味されてるものが多い)とかのほうが個人的には飽きずに長く見られたりする
まぁどっちも好きですけどね
あとSDがあると勝ち気な感じにしたいとか一部変えたり、何より人力では不可能なレベルでたくさん作れるのが良いわ
何年間も画像掲示板を巡回してたけど今は数人の作者さんとAI関連だけで一切しなくなった、SDは恐ろしく革命的だと思うけどなぁー >>10
ID変わってるな
散々コロコロして暴れてたんだな >>10
ID変わってるな
散々コロコロして暴れてたんだな >>4
あんなん狙ってくだらないレスバしてんでしょ 電気の使用量が前年同期比で100kWh増えてた……
GPUでなく暑さのせいだと思いたい >>4
950取ってるのにスレ立てもせず延々喧嘩してんだから荒らしだよ あいつ言ってた内容考えるとテンプレちゃんと見てないだとかSD導入できてないレベルとしか考えられない
作れないんだろ?って言われても使ったモデルからプロンプトまでほぼ公開してくれてる人いるんですけど・・・としか言えない 500w x 24h として12KWh/日だから10日で届く
8hなら30日で十分有り得そう >>17
じゃあ作って貼ればいいのになんでしないの? >>10
こいつはまだまし
技術は別としてちゃんと自分の貼って話してるからな
貼りもしないで人の貼ったの叩くだけの奴が一番達悪い 一応技術的には可能ですを示すためにガチギレしながら尻とエレクチオンtntnから○液まき散らせるのんのんびよりのほたるちゃんは作ってある 蛍ちゃんのLoraはけっこう優秀だよな
結構いろい酷いことしてもお顔が崩れない
何個かあるからどれのことか知りませんが アニメのぶっこぬきloraでエロ画像作って同人誌レベルはすぐできるとかさんざん侮辱行為しながらAI術師叩くやつは許さないとか言い張られるの地獄で笑う アニメのぶっこぬきloraでエロ画像作って同人誌レベルはすぐできるとかさんざん侮辱行為しながらAI術師叩くやつは許さないとか言い張られるの地獄で笑う 他人のlora使う無能言われてんぞ前スレ>>971 画像生成の残り数% ETA:数秒になってから、やたらと時間がかかるのはPCのスペック不足ですか? コマンドラインとPCのパフォーマンス見たらいい
大体グラボがカスか他の作業し過ぎ >>28
まあそだね
たぶん潜在空間から画像に変換する処理(VAE使ってる処理)の処理が重いんだと思ってる
たまに真っ黒画像になってもいいなら--no-half-vaeはずして--disable-nan-checkつければ多少は速くなるかな まだ他人のlora使っても見せるレベルにならない奴が暴れてるのか
可哀想に i7-13700
メモリ32GB
RTX4070Ti
壁紙用にアップスケール込みで1920x1080で残り2秒から10秒くらいかかる
縦か横を倍にすると、最後に1分くらいかかってる気がする
画像が大き過ぎですか? >>33
最後VRAM使い果たしてメインRAMまで食い込んでるだろ
VAE使ってるところは生成で一番VRAM食うぞ civitaiのLora使ってもほぼ公式絵にはならんよ
せめて自分で学習したのも組み合わせないと
そのLora作った人の紹介画像で公式絵になってるのまず無いでしょ 欠けてる分の追加とか環境ごとの調整はいるとは思うんだけど自前のloraが必須になる意味がわからない
三店方式で公開してるところとかわらんくね? >>33
タスクモニターVRAMどれぐらい使っているのかチェックしてくれ 別にLORAを作るときにそういう画像を入れてない状態でタンクトップで胸ポチがでやすいキャラと出にくいキャラの違いってある? >>38
自分で学習したものでも合わせないとならないって事
せめてって書いてるでしょ >>36
Lora職人みたいな人って美的感覚ちょっと変なの多いよね
そんな一般寄りデザインのキャラをバシバシの萌え絵にして何がしたいねんみたいな
ほかに作ってるのも全部同じ顔
個人的に公式寄せが大正義だと思うんだが
>>40
成人女性により近い巨乳寄り+ガタイがいい感じだとエロ要素が勝手に混ざってくる気がする
プロンプトにnsfw(強度・ネガポジ等要工夫)入れると割と柔軟に変えてくれる 美的感覚?よっしゃ黄金比やな
Golden Ratioやな
To Be Continued >Lora職人みたいな人って美的感覚ちょっと変なの多いよね
やっぱりこういうヘイト発言て想像力の無さからくるものなんだろうな
他人のおこぼれに与りながら態度がでかい > そのLora作った人の紹介画像で公式絵になってるのまず無いでしょ
おっと、これはそんなこともない
できるだけそのまんまにしてる人も少数ながらいる
https://civitai.com/user/supar1 まぁpixivでも人気あるのは公式に近い絵だからな
公式から離れてるのは誰でも作れるから >>46
AOM系とかなんでもかんでもエロに寄せてくるよね
しかもLoraの強度少しでも落とそうものなら成人を3頭身くらいの幼児体系にしてくるから使いにくい 1111を使い始めて基本的な機能が使えるようになってきたのでモデルをあれこれ入れてみました
モデルごとにサンプルを作って必要なモデルのみ厳選しようと思っていますが自動的にモデルを切り替えて出力していくという拡張機能はありますか? 似通ったの出るのは単なる能力不足でためらいなく公式イラスト利用してlora作って公開してるやつがおかしいのは美的感覚じゃなくて社会通念だ
>>41
順番かわっただけで自作lora通す意味は一向に不明である >>10
>■テンプレはここにまとめてあるから長々とコピペする必要はないんやで
>https://rentry.co/aiimggenqa
このページを管理している者です
テンプレを長々とコピペしたり、関連スレを更新チェックしたりする必要がないようにと作ったページで、当面は更新を続けるつもりです
編集キーを公開して誰でも編集できるようにしてもいいんですが、rentry.coだと履歴が記録されず荒らし耐性ゼロなのでほかのフリーwikiサービスへ移行したいところです >>49
「スクリプト」の「X/Y/Zプロット」で、指定したモデルを切り替えながら出力できます
「Checkpoint name」はモデル名を入力しなくても、右の黄色い本アイコンをクリックすると認識しているモデル名が全部入力されます(不要なモデル名をクリックすると一覧から除去されます) >>52
スクリプト部分はあまりにも難しそうで触っていませんでした
早速試したところ期待通りのことが出来ました!これで同一プロンプトでの比較作業が楽になりました
ありがとうございます! 複数の理由で自作噛ますのは理解できるが必要性の点では皆無
ってかcivitaiにないって言い張る理由がわからない 複数の理由で自作噛ますのは理解できるが必要性の点では皆無
ってかcivitaiにないって言い張る理由がわからない i2iで画像サイズ上げられるMultiDiffusionをインストール→web ui再起動をしたのですが
Tiled Diffusionのタブが表示されません…。
他の拡張機能は正常に使えてます。
原因分かる方おりますでしょうか? >>56
そこまで言うなら作って見せろよ
出来ないなら黙ってろ pixivだかのやつで同じ手法でできるってのは認めてるのにciviaiのやつらは無理って逆張り張ってるからおかしなことになる
civiaiの情報量をまず捌けてるわけないだろ ことの発端前スレのpixivのあれならどうせこいつも大したことない civitaiに公式絵そっくりのを上げたら消されるんじゃね?
前スレもそうだけど、消されるようなものをピンポイントで要求してくるんだよな
悪魔の証明だと知っていてやってるのか? どこみて消される言ってるんだってレベル
リアル寄りロリくらいしか消されるの見たことねえわ、芸能人loraすら普通に残ってるのにアニメが消えるわけねえだろ 日本のアニメ漫画作品なんか目じゃないくらいヤバいゲームオブスローンズとか転がってるのに流石にこの逆張りはアホでは? Loraの学習をする時にAとBという人がいて制服が違う時、「A, school uniform」「B, school uniform」で別々に学習できるのかな? 単発IDコロコロしながらなんで何が何だかわかんない
ずっと移動中ですか? 偉そうに御託ばかりで結局自分では何度言っても出来ず見せられない
それが証明になってるという
馬鹿を晒すだけだな >>61
そのciviaiとやらの使ってやってみろよ
見せてから言えよ口だけおじさん
civiaiなんて聞いた事無いけどなお前が作ったんか? 口で勝てる見込みなくなると最終手段で上げろって言い始めるのわかりやすくていい
達が悪い 達悪い、達が悪いとか書いてるジジイ、
バカそうだからやめて欲しい
低学歴がイキってるようにしか見えなくて悲しい >>58
そういうときは自分なら、Extensionsフォルダのmultidiffusion-upscaler-for-automatic1111フォルダをいったん削除して、改めて拡張機能タブからインストールし直すかなあ
タブとあるけど念のため、「Tiled Diffusion」が表示されるのは「シード」欄の下で、「txt2img」や「img2img」タブの並びではないよ。それは大丈夫かな? >>70
馬鹿か
出来るってんだから証明するのは見せるしかないだろ
結局出来ないんだから初めから大口叩くんじゃねーよ
見せてから言え こうやって誤魔化すしかない
可能なら見せりゃ黙るのにな
なんでかな >>66
正解があるなら知りたい
A, uniformA B, uniformBってやってるけどしっくりしない >>72
回答あざっす、正常だとSeed欄とscriptの間辺りにでるんですよね。
フォルダ削除して再インストールしたけどダメそうでした…とりあえず拡大化はextrasの方でやることにします。 ここほど質問しづらい質問スレが他にあるだろうか
いや無い >>79
導入するだけで生成時間だけが早くなるイメージだけど
実際そうじゃないからなあそれ すいません質問です。
AIでエロ絵出力するのに男もちゃんと出したいんですけど、ほぼ絶対に女だけになります。
色々調べたりやけくそで入力しまくっても女二人かバグった男女か女単品になります。
モデルは初期に入れたままのhassakuなんですけどこれだとほぼ女しか出ないとかありますかね?
あったらちゃんと男女二人出るモデルを教えていただきたいです。 すいません質問です。
AIでエロ絵出力するのに男もちゃんと出したいんですけど、ほぼ絶対に女だけになります。
色々調べたりやけくそで入力しまくっても女二人かバグった男女か女単品になります。
モデルは初期に入れたままのhassakuなんですけどこれだとほぼ女しか出ないとかありますかね?
あったらちゃんと男女二人出るモデルを教えていただきたいです。 すいません質問です。
AIでエロ絵出力するのに男もちゃんと出したいんですけど、ほぼ絶対に女だけになります。
色々調べたりやけくそで入力しまくっても女二人かバグった男女か女単品になります。
モデルは初期に入れたままのhassakuなんですけどこれだとほぼ女しか出ないとかありますかね?
あったらちゃんと男女二人出るモデルを教えていただきたいです。 すいません質問です。
AIでエロ絵出力するのに男もちゃんと出したいんですけど、ほぼ絶対に女だけになります。
色々調べたりやけくそで入力しまくっても女二人かバグった男女か女単品になります。
モデルは初期に入れたままのhassakuなんですけどこれだとほぼ女しか出ないとかありますかね?
あったらちゃんと男女二人出るモデルを教えていただきたいです。 すみません……
なんか異様に通信悪くて三連投になってました……
送信できてないの確認したうえでやり直したつもりだったんですが、めちゃくちゃ失敗してました。 >>81
全然早くならないどころか遅くなったまであるわ
原因は知らんけど… あ、設定ミスってたわw
めちゃくちゃ爆速すぎるww
これはもう手放せねえわ… あ、設定ミスってたわw
めちゃくちゃ爆速すぎるww
これはもう手放せねえわ… >>85
同じことで悩んでたけど、単語じゃなくて文章で入力すると男女が出ることに一昨日気づいた
初歩的なことなのに解説してるサイトが見つからないな >>93
ありがとうございます。
確かにちゃんと男も映り込むようになりました。
ちょっと融合してたりしますがその辺の調整は頑張ってみます。 >>95
よほど特殊なシチュエーションじゃなければlora導入するのもいいかも
civitaiでpovって検索すると色々出てくるよ >>95
よほど特殊なシチュエーションじゃなければlora導入するのもいいかも
civitaiでpovって検索すると色々出てくるよ >>92
どうせ似てないだとか同じ通りにやって出ないとかお前が上げろってはぐらかすだけだわ グラボのドライバ545.84にしてTensorRTでタブ導入してやってみたけど
起動時にcudnn_adv__infer64_8.dllから見つからないってエラーでたので色々調べてみるも未解決、一先ず拡張機能のチェック外した >>101だけど指定の場所にcudnn_adv__infer64_8.dllはある 事の発端画像持参でアドバイス求めてきたやつへの対応に転載画像出してそれ以下言ったら苦言言われて逆切れし始めたの普通にクソやな >>101
同じ状況だけどgithubのissue♯27の方法で直るらしい
俺はもう寝るわ・・・ 画像を出す
版権Lora使っただけだ!
配付loraでサンプル出してくれてるやつと環境そろえてプロンプトを適当にテンプレエロワードに変えるだけキリッ
じゃあお前やって見せて?
シーン
見せられんの?
あ、煽られるだけだし!似てないとか言うんでしょ!しょ! 結論
口だけの奴と晒され逆ギレ
他人の作品を出してくる意味不明なキチ >>88
これって3060 12GBでも効果あるの? >>109
ある
RTX 4000シリーズほどではないと思うけどRTX3000シリーズの第3世代Tensorコアでも違いが判るくらいには速度でるよ 数ヶ月ぶりにcivitaiに投稿してみようとしたらtos違反とか出てきて何の利用規約だよと思ったら
要は前からの児ポとか疑われるようなpromptが厳しくなったのか? TensorRT
Loraを適用するのが面倒になる
CN等が使えなくなる
モデル毎に変換の作業が必要になる
使い物にならん そもそも533以降のドライバってグラボ破壊の危険性があるやろ
怖すぎで入れられんわ TensorRT対応loraって区別が必要になるのか? 破壊はともかく本業で使うアプリがバグるからドライバ放置してたけど案の定そっちがバグるな TensorRTは
LoraやCNが使えなくなるのがデメリット過ぎて
現状では使い物にならない
速くなるだけでは意味がない マジで?Lora使えないなら意味ないな
入れるのやめとこう ものによるんじゃね?
昨日試した限りでは問題なかったが Loraをmodelにbakeしないと……的な情報は見かけたが古い情報かもしれん >>124
スレチでもない
Create Optical Image Illusions with Stable Diffusion
https://www.youtube.com/watch?v=W9F6SSC7QGY
アプリは知らん イラスト系のモデルで手や変わったポーズが一番上手く出るのってどれれすか?? ControlNetの今までの開発スピードを考えると、一か月後ぐらいには、
TensorRTに対応しました、となりそうな気がする。 545.84入れてるがsdも問題ないし市松模様やブラックアウト問題も特にない
ただ他の人が入れて問題出ても知らんけどな
使いたい機能が追加されてるとかじゃないなら安定してるのを使い続けるのが基本 >>93
ありがとうございます。
確かにちゃんと男も映り込むようになりました。
ちょっと融合してたりしますがその辺の調整は頑張ってみます。 TensorRTがどの程度まで使えるか試したいがドライバとか色々面倒だな 長文失礼。
Stable Diffusion webuiをcolabで使っていた者ですが、昨日から画像が生成されなくなりました。
ノートブックからwebuiの画面に行くまではいつも通りなんですが、生成ボタン押してもキューがすぐ消えます。それまでは問題なく生成できていました
別のグーグル垢に移行するため、そっちの垢で旧垢と同じようにcolabにwebui導入したタイミングでこうなったので、それが原因と思われます。旧垢も新垢も同じエラーが出ます
ノートブック起動時とwebuiでの画像生成時のエラーの表示内容は以下の通りです
https://i.imgur.com/uemrp1C.png
https://i.imgur.com/TdTHfnJ.png
エラー内容にpythonとpytouchのバージョンが合ってない?的なことが書かれてるので記載されてるバージョンをインストールし再起動後webuiを試してみましたが同じエラーが出ます。
解決方法をご存じの方いましたら教えていただきたいです。 長文失礼。
Stable Diffusion webuiをcolabで使っていた者ですが、昨日から画像が生成されなくなりました。
ノートブックからwebuiの画面に行くまではいつも通りなんですが、生成ボタン押してもキューがすぐ消えます。それまでは問題なく生成できていました
別のグーグル垢に移行するため、そっちの垢で旧垢と同じようにcolabにwebui導入したタイミングでこうなったので、それが原因と思われます。旧垢も新垢も同じエラーが出ます
ノートブック起動時とwebuiでの画像生成時のエラーの表示内容は以下の通りです
https://i.imgur.com/uemrp1C.png
https://i.imgur.com/TdTHfnJ.png
エラー内容にpythonとpytouchのバージョンが合ってない?的なことが書かれてるので記載されてるバージョンをインストールし再起動後webuiを試してみましたが同じエラーが出ます。
解決方法をご存じの方いましたら教えていただきたいです。 ワイもColabでfast_stable_diffusion_AUTOMATIC1111使ってるけど出てないよ
スクリプトは最新のにしてる?
xformersがコケてるならtorchとバージョン確認して入れ直してみるか起動オプションから外せば ultimate SD upscalerで4x-UltraSharpを選びアップスケールすると、下記の記事のように画像が破綻するのですが、これどうすればいいかご存知の方おられますか?
https://github.com/vladmandic/automatic/issues/264
「解決しました!」って言ってるんだけど何を言ってるんだか分からんww ドライバスレだと最新版はAI生成で不具合出るとか言ってるやついるけど内容言ってないから結局なんもわからんな >>136
すまんさっき起動したら出たわ
Pytorchのバージョン合わせてlmdbねーよって言われたからインストールしたらちゃんと生成まで動いた
とりあえずコンソールかスクリプトから↓実行
pip install torch==2.0.1 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
pip install lmdb 久し振りにスレ降臨。皆はローカルを弄っててお目当ての画像生成は何割ぐらいで成功してる?
逆に言えば何割ぐらい心霊写真になってる?最近はやたらと心霊写真ばかりで心が折れそうなんで質問。 >>138
Disabling the model keyword extension and using kohya-additional-networks has solved the issue.
って書いてあるな >>141
bingくらいにローカルにも大きな進化が来ないとな~ これからはローカル環境はだんだん遅れていくかもしれんけど
最新に近いオンライン環境はほぼエロ系は規制だろうからその辺棲み分けになるかも >>144
そこに「どういうことですか!?意味が分かりません!」ってレスがついてるから、翻訳を通さなくても読める外人でも意味分からん話なんだなぁと nvidiaの新ドライバ出たからいい機会なので質問なんだけど
VRAMオフロード(溢れたらメインメモリに逃がす奴)ってなんかパフォーマンス改善されたりとかしましたかね
まあそもそも帯域10倍違うからあんまり期待はできないんだけども
あとVRAMオフロードって何かの設定で無効化できたりするかな
最近のトラブル関連もあったし531のままずっと使ってるんだけども いきなりすいません!
iPhone15でdraw things使用しているのですが、インペインティングを使い水着を小さくしたりしたいのですが
コントロールに、インペインティングを入れてあれこれしてもアプリが落ちてしまいます。やり方が間違っていると思いますがどうしたらいいのか分かりません。
ここだけが頼りです、、どなたかiPhone draw thingsを使用してる方はいらっしゃらないでしょうか? >>149
え? そのまま
lora の適用に model keyword という機能拡張の使用をやめて kohya-ss /sd-webui-additional-networks でやるようにしたら出なくなった と言ってるんだけど… >>150
VRAMオフロードは537.58+RTX4060でかなり役立っているように見える
例えば768*512をHires. fixで2倍にすると進捗95%くらいでVRAM使用量が急激に増え
8GB使い切るがメインメモリが代替され、そこから処理は数秒で終わる
メインメモリのDDR4-3200 (PC4-25600)の帯域は25.6 GB/s、デュアルチャネルで51.2 GB/s
4060のVRAM帯域は272GB/sなので5.31倍程度の差 VRAMオフロードはパフォーマンス改善というより、VRAMから溢れてもエラーで止まらなくするための方法やな
RAM ↔ VRAMはCPUがPCIe経由でアクセスしてるから、メモリの帯域差以上に性能低下すると思った方がいい
hires.fixみたいな後処理で溢れる程度なら問題ないけど、高解像度や動画なんかで最初から溢れてる場合はマジで遅くなるよ >>154
そうだね
私の4090の場合、PCIe3.0で使うと1008GB/s→16GB/s で1/64になる
batch size 増やすと溢れる分が分割され遅くなってるのが分かるよ >>153-155
ああVRAMオフロードの基本的な仕組みはわかってるけど、
どっかのgithubのissueで以前より挙動がマシになったみたいなコメントがあったんでその辺どうなんかなーと思った次第です
最初の頃はオフの場合より溢れる判定のマージン大き目で使い勝手悪いから
531にロールバックして使っておけみたいなアレがあってそうしてたんだけど
最近のドライバはどうなんかなと
あるいは設定でon/off切り替えられるようになったりしてないかなと inpaintdで微乳にしたいのに偽乳みたいになってしまう
プロンプトにflat breastsとか入れてもそこそこ小さいだけのくっきり偽乳になる
なだらかに膨らんだ感じにできないものか >>156
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/11063
ぱっと見た感じ修正されてないみたいだから、VRAMオフロード使わないなら前のverに戻したほうがいいかもね
VRAMオフロード自体はドライバの機能でユーザーやソフトからは制御できないみたい 実写系だと
RealESRGANx4+ と 4xUltraSharpって
どっちがいいの? >>158
ありがとう、ざっと読んできた
もうしばらく531で様子見しときます >>160
例えば絨毯の目みたいな細かい模様をくっきりさせたいなら4xUltraSharp
消えてもいいならRealESRGANx4+ ドライバ545.84は安定バージョンなのか今のところ不具合ない
GPUファームもあがってた >>147
もうちょっと詳しく語ってほしい
どうしてローカル環境は時代遅れになるの? >>147
もうちょっと詳しく語ってほしい
どうしてローカル環境は時代遅れになるの? 人物に目を閉じさせることができません。
色々プロンプトを試したのですが、「片目を閉じる」のがほとんどで、両目を閉じるのが2割位しかありません。
eyes closed
both eyes closed
closed eyes
のようなワードで強度を2くらいまで上げて、プロンプトの一番上に持って行ってもだめです。
かつ、Negativeに
wink,
open eyes
のようなワードを強度を強くして記述しても、やはりダメです。
使っているModelは2D系の以下です。
hassakuHentaiModel_v13
AbyssOrangeMix2_nsfw
どうやれば、目をきっちり閉じさせられるでしょうか? >>167
今やってみたけどどれも先頭に(closed eyes:1.5)とかで普通に閉じるような・・
hassakuはAOM[よりやや閉じにくい感じがするけど、回してるとまぁ出る
どっちも強度なしだとウインクになるね、普通のモデルだとone eyes closedでやっと出るのに
Loraの影響か、なんか対抗しちゃうようなプロンプトを入れちゃってるってことはない?
最悪negpip導入してclosed eyes,(eyes:-1.5)を先頭に入れるとhassakuでも9割方両目閉じた
open eyesじゃ駄目でeyesってのに気づいて笑った(目がなくなったりはしない) ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう ローカルだと将来的にもコンテンツ認証を付けられないから廃れそう >>137-143
解決しました!!sd入れ直してもダメでとても困ってたのでほんと助かります
githubのsdノートブックのページにこういう不具合質問の場所あることも初めて知りました プロンプトかadに目の色とか入れてると閉じないこと多いね ハッサクはノータッチだからわからんけどアビスの方でclose eyes:1.2で100%閉じてるな まずは基本モデル作って試してみたら
masterpiese,1girl,sleeping >>167
閉じるんだけども
まずは一旦全部プロンプトを消して
ゼロからやってみてはどうか プロンプトの中にコメントを残す方法ってあるかな?
// 品質系
みたいに、スラッシュ2つでその行が無視されるようなのとか >>177
<lora:とりあえず動かしてみたテスト版:0> >>177
#コメント
(💩:1.2) #数値で💩量変更
一時的に消したい行の先頭に「#」を付けるだけ
行の途中に加えると#以降の文字がプロンプトには反映されず記述だけ出来る DW-OpenPoseで、指をハートマークにしたのですが、生成すると、ハートマーク内部が
その先の服の柄にならず、別の模様や物体になってしまいます。
パラメータを上手く設定すれば、指の外の服の柄と連続するようになりますか? 気づいたらInpaint Anythingのたぶが表情されなくなってた(´・ω・`)
直しかたわかる方教えてください ゲーム用のポートレート(具体的には5つの試練)を作りたいんですが
背景だけを最初から生成しないようにするのは今のところAI画像生成では不可能なんですかね?
ABG Remover等の、背景を後から消すものならありますが、これだとやっぱり人物の周辺がモヤッと残ってしまうので。
やったことある人ならわかると思いますが、
手作業で地道に消してもゲーム内に反映させると境界が気になります。
ドットのプロなら綺麗に消せるかもですが… no background,blue background,white background,black background,
ネガに background
完全な単色にはならないしgreenは葉っぱになるからkラーバリエーションがどれくらいあるかは不明 >>185
そのあたりも試してはみたんですが
>完全な単色にはならないし
上記の通りで、その後GIMPやらで背景透過しようとしても
元のABG Remover等でやるのと毛色は少し変わりますが、残るという点では大差ないんですよね…
仮に完全な単色にできたとしても
ファジー選択ではどうしても微細な縁取りが残ってしまいますし。
フォトショならキレイなんですかね。 >>186
よくわからんけど単純なプロンプトに変えるとか
LoRA使えばいい話ではないかと
ttps://civitai.com/models/113542
ttps://civitai.com/models/119388 Reactorで前髪もスワップさせる方法ってあるかな >>187
ありがとうございます。
使ってみましたが、一部緑の光沢のようなものが特に髪の毛周辺に表示されたり
設定していても背景が真っ白になるときと、真っ白どころか普通の背景出たりと安定しませんでした。
色々教えてもらった内容からすると、透過背景で生成するといったシステム自体がなさそうな印象なので
ひとまずは現状の生成後に背景透過でしのごうと思います。 >>189
Lora素材作りしかやったことがないので基準が甘いかもしれないけど、人物と背景の教会のモヤモヤはlamaできれいにとれることが多い
髪の毛(特に毛先)の合間に残るのは無理だけど、それ以外は顔に残った効果戦とか光の演出みたいなのも元を知らなければ気づかないくらいになってると思う
あと背景除外はtransparent-backgroundでやってるけど、これだけでほぼ完ぺきと思える位取れることもあるので未利用なら試してみる価値があると思おう プロンプトわからんからアレだけど2Dでにじんだり色移りする可能性のあるスタイル定義してるとそうなる可能性高いし、3Dなら点描か超高精細のどっちかの描写以外認めないようにしないと周りに影響するからなあ RTX 4090の24gb が24万円ではなくて
26万円まで値段 上がってきているから
早く買えばよかったのに ゲーム側のアンチエイリアスでごまかし効かないレベルなのかな i2iでlineartとかかけた時に出る白黒ネガ画像みたいなのを別途保存しようと思って選んで↓ボタン押すと
ダイアログもなしにブラウザのデフォのダウンロードフォルダに保存されてしまう
最終画像はちゃんとoutputのimg2imgフォルダに生成されてるので、そこでいいのに・・
settingsの設定になさそうなんだけど、これってどこで変えられるんだろう? 一日中やってる訳じゃないんで高いのはいらん
週1くらいだし 生成した絵をi2iに送ってスケッチ修正した後に絵がガビガビ状態になるのってLora外す以外で解決策有りますか? batファイル起ち上げたら途中までは普通なんですが、しばらくするといろいろエラーが出て最後に
AttributeError: partially initialized module 'modules.sysinfo' has no attribute 'format_exception' (most likely due to a
circular import)
続行するには何かキーを押してください . . .
となり起ち上がりません、誰か助けてもらえないでしょうか?普通に使えててextensionの整理してreloadUIしたら急になりました。 >>198
整頓したときに追加したかアプデされた拡張機能が悪さしてるんじゃないかな
検索ではどれか1つ特定の拡張機能だけが原因ではないみたいだけど >>198
上の数行も貼らないと・・そこだけだと何が出してるかわかんないよ >>188知ってる人いないかな
薄い顔の人は前髪が違うと似ないんだよね 知らんけど、顔swapであって髪swapではない感じだね
色んな人の凡例で髪まで変えられてるのは一つもないからそういうことかと
みんなまじめな感じで例出してるからわからなかったけど、ようは昔のアイコラ用途か >>136
>>143
また更新かかってた
上記掲示板参照のこと オタ恋の広告みたいに、可愛い女の子とデブメガネのオタが肩を組んだりしてるのって出来ます?
っていうかオタ恋のパロディをやりたいんだけど なんでも出来る訳じゃないよ
クンニが中々成功しないのだ ComfyUIの生成スピードを
さらに速くする方法ないかな?
パフォーマンス見るとVRAM消費量が半分以下なんだが
余ってるなら消費量多くするとかできないのこれ? ADetailerで手のモデルを指定して0.8以上で認識もできてるんだけど全くきれいにならないんですが
何かコツとかあるんでしょうか…周りまで巻き込んでぐちゃぐちゃになります
Adetailerのプロンプト
five fingers,open hand
ネガティブ
badhandv4,deformed hand オタ恋やってるやつはみたからできないことはないと思うんだけどな
オタ恋自体は後からいじってるらしいが pnginfoからmov2movに設定を送る方法はありますか? pnginfoからmov2movに設定を送る方法はありますか? >>207
既出かもだけどSD1.5ならTome Patch ModelかHyperTileのNodeはどうかな。
もしSDXLの高速化方法が何かあるなら私も知りたい。 >>212
そのノード知らなかった
UIからカスタムノードで検索したけど
検索に引っかからない
Hypertileのテキストファイルは見つけたけど
どうやって入れるの? >>208
手が肉塊みたいになってたらadetailerを使おうともダメなもんはダメと悟るしかない
FreeUを有効にすると手が破綻しなくなる場合が多いのでそっちに頼ったほうが現実的かな 皆さん、lora作る時に、タグでsmileとかの表情ってどうしてます?
除外して覚えさせてますか? それともそのままにしますか?
教えてもらえるとありがたいです 追記
やっぱり、タグを除去してしないと、その表情を学習しない事になっちゃうんですか? >>213
1.ComfyUI_windows_portable\update\update_comfyui.bat を実行してComfyUIを最新にする。
2.ComfyUIを起動してワークスペースをダブルクリック
3.Searchの入力欄に Tome か Hyper を入力して下の検索結果のノードをクリック >>215-216
たとえば抜作先生を学習させてsmileを入れたままにしておくと、
closed mouthで口を閉じた抜作先生が出せるようになる(と思う)
smileを全部抜いて学習させると、抜け作先生ってのはそういう顔が張り付いたキャラだと学習して
angryだろうがcryingだろうがずっと口が笑った顔のままになる(はず)
プロンプトである程度はそれっぽくしてるくかもだけど >>218
ありがとうございます。
なるほど、やはりそういうことですか。では、表情だけでなく、目を瞑っているものや、口を開いているとか
その辺りも消さないと固有の表情を覚えてくれないのですね
もしかすると、full bodyとかのタグも単なる全身が見える構図という意味だけではなく、
そのキャラ固有の体型を覚えている場合もあるのかな?
また、逆に集めた参考画像が笑っているものばかりだと、そのキャラの通常状態が笑っているものと
学習するから、その場合はsmileを学習させない方がよいとか使えるかもしれませんね 4060ti 16Gあんまり評判良くないみたいですけど数万上乗せして4070か4070ti買った方が良いのでしょうか? >>220
それぐらいの知識しかないなら安い方買った方が良さげ stable-diffusion-webuiのイントールでwebui.batを実行して途中まで進んでたんですがhuggingfaceからのダウンロードが途中で
止まって約1時間進まない状態になってしまいました。このまま待った方のがいいのか、cmd閉じてフォルダ削除して最初からやり直したほうがいいのでしょうか? Stable difussionのWebUI1.5.2でStyle Editor入れたら
エラーがボロボロでるんだが >>223
もう見てないかもしれないけど、最初からやり直すのがいい
あとたまにcmd窓をクリックかなんかしたせいで止まってることがある、この場合はenterで動きだしたり
条件がよくわからない、pauseキーやctrl+sじゃなくてもなるような loraでキャラを出す時に、SD本体やモデルで学習データに無い情報をどこまで補完してくれるんだろ?
前・斜め前の顔しか学習させてなくて、横顔を補完したり
学習させてない表情とかもある程度は補完してくれるんでしょうか?
後、Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか?
普通のショートヘアなのに、勝手にツインテールやポニーテールにして困っています
ご教授いただければ幸いです >>226
何回かやり直したんですがやっぱり途中でダウンロード止まってしまうのでブラウザからhuggingfaceのサイトから直ダウンロードしてフォルダに入れたら無事起動できました
ありがとうございます >>226
横顔までしか学習させてないLoraで、(from behind:1.6)とかやっても
だいたい横顔〜やや後ろが強い横顔くらいにされるけど、完全な真後ろがたま〜にでる、確率10%くらいか
一応そのモデル(checkpoint)に含まれてる何かで補完されてるんだと思う
さすがに横顔学習なしとかはやったことないので、自分で実験してみてw
> Lora作る時にネガティブプロンプトの様な物を仕込む事はできるんでしょうか?
無理かと
> 勝手にツインテールやポニーテールにして困っています
あんまこういうの食らったことないなぁ・・タグ付けのキャプションに問題ない?
あるいはAIを誤解させるような別のプロンプトが混ざっちゃってる可能性、1girl,<lora:xxxxx:1>だけでもテールになる?
あと、適当につけたつもりのトリガーワードが実は有名ななんかだったりで影響することがたまにある
最悪negpipで殺せばいいけど、根本的解決ではないかと >>228
学習データなしだと確率10%ですか…一応は補完してくれるんですね
ショートヘアがツインテやポニーになる現象ですが、
生成された画像が目のハイライトが無かったり、今一にてなかったりしたので、
controlnetのreferenceやip-adapterに公式絵や公式に近い絵を掘り込んでやっていた時に
起きた現象ですね
ちゃんと目のハイライトが出たり、顔つきがかなり似てくるんですが、ネガティブにツインテやポニーを
放り込んでもかなりの確率でツインテやポニーになり始めたんですよ
横顔や後ろ姿を学習させてツインテやポニーじゃない事を学習させないとダメなようですね…
結局、良い横顔が見当たらなかったので、自分で描く破目になりましたw >>220
普通の使い方なら70, 70tiの方が早く生成できるのでそっちのがおすすめ i2iバッチで1920*1080の画像2000枚くらい処理する場合、4060ti 16GBと4070 12GBではどっちが早いのかな 単品の処理なら性能差は1.4倍くらいだから4070のほうが30%短くなりそうな気がする
2枚づつとか3枚づつとかやるとVRAMの量が影響してひっくり返るかも 512×1024 10枚
RTX4090 24GB 26.3秒 258000円
RTX4060ti16GB 68.5秒 速度差2.6倍 72800円 価格差3.54倍
RTX3060 12GB 105.6秒 速度差4倍 37980円 価格差6.79倍 自作キモオタ君ならフルタワーケースに電源850wとか積んでるんだろうけど
メーカーPCでグラボ交換するなら4060tiあたりまでしか無理 そういえばロープロ対応の4060ってあったな
3060ではできないことができるんだからこれはもう少し評価されてもいい AIスレ民なのに高いPC持ちやたら妬んでる奴いるのは何なんだ 1000wプラチナすら買えないのは流石になぁ
AIで遊んでる場合ちゃうやろ 前スレラストも何も関係ない4090持ちを殴り始めてたなw 呪文が噛み合ってランダム生成繰り返すとどんどんキャラがエロく淫乱になっていくのはなんでなん? 4070でめっちゃ快適になった
2080で粘ってたけど変えてよかった ソフト的な部分は基本ガチャだからハードの話になりがち 分かりやすく説明すると
RTX 4060 TI の 16GB が有利なことは
ロラを作成する時とか
VRAM 8GB で間に合う画像サイズに調節して
それを2枚同時に作成すると大幅にパフォーマンスは上がる わりぃ教えてくれ
kohya_ss GUIのインストールで
インストールするTorchのバージョンを選ぶことを聞かれないけど
理由わかるやついますか? 検索してもひっとしない わりぃ教えてくれ
kohya_ss GUIのインストールで
インストールするTorchのバージョンを選ぶことを聞かれないけど
理由わかるやついますか? 検索してもひっとしない 間違えてウインドウ閉じちゃうのを防ぐ方法ないかな
フォーム入力画面の途中で閉じようとすると出る確認ダイアログみたいのがあればいいんだけど ウィンドウにロックかけられないかなぁ
程度のことなら探せばフリーソフトでありそうだな
人が考えることは大体他の人がやってるからね >>251
Loraでbatch数増やすと顔が似なくなる・・
大雑把な大量学習にはいいんだろうけど
>>252
> 2023/10/10 (v22.1.0)
> Remove support for torch 1 to align with kohya_ss sd-scripts code base.
>>254
大昔のfirefoxにPermaTabsってあったけど
最近のブラウザで何やっても閉じれなくするのって見たことない、いい拡張ないかなぁ 画像生成するスピードを上げたいんだったら
RTX 4090の40万円のパソコン1台用意する
ちょっと高いと思うんだったら
RTX 3060のパソコンを8万円で買って
お金に余裕が出たら追加していく >>254
extensionの一覧にclose confirmation dialogみたいな名前の拡張ない?
うっかりリロードには効く
あとChromeならタブ右クリック→タブの固定でタブ誤削除は軽減できる >>254
vivaldiならウィンドウ閉じるときに確認出すようにできるし、ピン留めでタブ閉じられないようになる
ピン留めするとタブがアイコンだけになっちゃうけど >>251
GPUコアがフル回転していたら2枚同時生成しても速度は上がらない
VRAM16GBのメリットはあえて言えば、学習と生成のwebuiを同時起動できることくらい
一方をクラウドサービスにすることでも代用はできるが >>258
まさにこれ!ありがとう
単一ウインドウで使いたいからChromeアプリ化してるんだけど、ちゃんと効いた https://github.com/w-e-w/sdwebui-close-confirmation-dialogue
これか!早速入れた、ブラウザ側ばっか探してたよ
自分はなかの拍子にリロードして空になっちゃうのが多くて困ってた
あとアプリ化って知識も増えた >>262
ついでにwebui-stateって拡張探すといい
リロード時前回の入力を再現?してくれる ↙︎ボタンで前回のプロンプト呼び出せばいいだけなのでは Webui起動時にAdetailerをデフォルトでEnableのままに出来ませんか? Adetailerオン作成はたまに良い表情消し去っちゃうからオフ作成にしてるなぁ macでwebui使ってた時は起動するとadetailer最初っからenabledだったな
どっかに設定があるのかもしれん >>265
ui-config.jsonの
customscript/!adetailer.py/txt2img/Enable ADetailer/value
をtrueにしたら起動時オンになったんじゃないかな いつからか「このloraが見つからないよ」がコンソールに出なくなったんだけど設定にある? >>263
ありがとう
でもなんかこれ動作が独特だね・・settingsでとりあえず全部チェック付けたら
選んでたタブの最後が普通メインにしてるであろうtxt2imgってのは絶対覚えてくれない?
そのひとつ前にいたi2iとかpng infoに飛ばされる(しかたないのでタブのチェックは外した)
あと、プロンプト欄内はそのまま覚えてくれるんじゃなく、最後に必ずタッチしとく必要があるのかな
ping infoから送信してリロードしても残ってくれない(他は全部覚えてくれてる感じだけど)
コピペでポジに貼り付けたところまでは記憶してくれるけど
斜め矢印で分割貼り付けも無視される
ネガのうしろにaaとかつけて読み込みなおしたら、ネガはそこまで記憶、ポジは貼り付けたり付けた状態ってなった
一応右上にボタンあるけど手動save&loadはさすがに使う気しない
更新数か月前で俺環webui1.6だからかもしれないけど
>>270
自分もまったく同じ、1.6入れてじゃなく、入れて「しばらくしてから」いつの間にかなってたような・・
俺環で変なことしたかなって放置してたけど web-ui上なら生成した画像の下にプロンプトとかモデルとかが出て
使用できないloraがあると、さらに下にNetworks not found: 〇〇って出るんだけど
コンソールで出す設定はどこかにあるんかね 普段colab proでやっているのだけど最近の更新でloraタブが消えてしまったんだけど
と言うよりは新規ではあるんだけどloraフォルダに何十個か入れるとタブ自体消えてしまう…
いくつかのノートブックで試したけどどれも同じ症状で
lora_script.py scripts.py lora.pyあたりでエラー吐いてるみたいなんだけど、解消法分かる方いるかな 3D Thick coatedと言うモデルがありますが
https://civitai.com/models/13747/3d-thick-coated
以前2D Thick coatedと言うモデルもあった覚えがあります
今も入手可能でしょうか? >>273
2、3個位なら問題なくて増やすとダメ?
事象は違うがうちの環境でこんなことがあった
1.3.x時代のloraフォルダを新規構築した1.6.0環境に全部移したらlora表示がエラー
切り分けた結果、1.3.x時代のcivitai helperが作ったファイルに中身が「""」だけ(計2バイト)のファイルがあって、消したら回復 手を修正する効率的な方法ないですか?
この方法だと時間が掛かり過ぎるんですけど
自分のやり方はこんな感じです
気に入った画像をDepth Library
(900以上の追加モデル)で手を追加
inpaintとControl Netで大量生成
その中からましなものをadetailerで大量生成 4070ti買おうと思ってたけどもうすぐ16Gの4070SUPER出る噂があって迷う
なるべく長く使いたいし将来性考えたら12Gより16Gが良いよな? 欲しいときが買い時だぞ
4070Ti買いたいけどSUPER出るかもなーで来年になって、もう少し待てば5000シリーズ出るしなーとなって
一生買う時期が来ないやつ
長く使いたいなら4090買うのが一番いいし、中古で売るときも売りやすい
中途半端スペックを買うと中古も値崩れするしで結局一番いいの買っとくのがいいと個人的には思ってる >>276
よく分からんけど手に関するLoRA入れるのはその中に入ってんのかね チップの性能から70tiのチップに16Gを積むのは不可能(60tiみたいにメモリ帯域を通常の半分にすればできるが)
だから出るとしても80と同じチップを使うと言われている。
でもそれって80のcuda回路を何個か殺して安くなった80やん。
それなら今80買って早く遊ぶのも一つの考え方だ。 待つんじゃなくてさっさと買って
新しいの欲しいんだったら
売ってから買えばいい 4070のGDDR6版の噂があるからそれが24GBになれば生成AI的にはベストなんだけどな >>283
そんな出るかどうかも分からない
値段もわからないもん待って何になる >>279
そういやLoRA入れるの忘れてました
普段遣いだと悪影響与えるので
手修正のときだけ使うようにします
これでガチャ回数が減ることを祈ります >>269
オンで起動しました!ありがとうございます エロAIでゴリゴリにマネタイズしてやるって気概があるならハイエンド環境組んだ方がええよ ちなみに俺はHiresもrealesrgan-x4plus-animeで6K拡大もそれぞれクリック1回で5000-50000枚くらい一括処理させてる
プロンプトテキストだけで300GBいってる
所謂玄人ってやつ?
https://i.imgur.com/9PTe5WD.jpg すいません、質問というかアドバイスというか教えてください。
先日、SD1.4で使っている拡張プログラムの更新があったので更新したらエラーになり1.4が動作おかしくなり画像生成できなくなりました。
1から再構築しようとインストールし直しましたら、SD1.6となっていました。1.4と変わっている所もありましたが、そのまま画像生成するとかなり崩れた画像が生成されるようになりました。普通に立っている人物でも足3本とかになりました。
1.4の時のプロンプト使用しても、同じにはならないと思うのですが、かなり崩れています。
1.4または1.5に落とした方がいいのでしょうか? >>293
SDだのWDだのは検索して正確な意味を調べてね、ようは
@webuiを1.4->1.6したら、同プロンプトでも画像が崩れるようになった
Awebui1.4の時点で拡張を一括更新した時点でもおかしくなってた
まずは拡張全部チェック外してapplyしてついでにバッチから全部再起動して画像生成してどうなるか
更新終わって作者本人が「使うな、フォルダごと消せ」って言ってるような変な古い拡張入ってないか、とか 説明不足に知識不足すいませんでした。
返答ありがとうございます。
Automatic1111のver1.6です。
295さんの指摘通りです。
教えてもらった事やってみます。
ありがとうございました。 アドオンドカ盛りアプリの宿命
更新不具合怖くてver変えできない ローカル版Automatic1111の1.6.0です。
頻繁に行き来するGenerationタブとLoraタブが左右の端にある所為でマウスの移動が面倒なのですが、タブを並び替えたりあまり使わないHypernetworksタブやCheckpointsタブを非表示にする方法は有りますか? enable checkerが1.6向けに更新されてるの今気づいた、うれしい
hires.fixのON/OFFが分かりにくくて辛かった
>>298
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/7812
触ったことないけど、設定あるから今もできるでしょう >>297
いっぺん不具合に当たると、安定したら変えたくなくなるな 新バージョンは一旦別に新規インストールしたらええやん 自分だけかも知れないんだふど
リアル系の美女イラスト作ろうとするとアユっぽい獅子鼻のブスが高確率で登場するのはなぜなんだ
モデルもローラも獅子鼻要素ないのに
直せなくてイライラするー 他の人が出した実写系のプロンプトを真似てみると改善する可能性はある あれ鼻をプロンプトで調整してもあまり変わらんのよなー
仕上げにrefinerでアニメ系のモデル混ぜて調整してる プロンプトテキストファイルで上げてくれたら見るやつがいるかもしれんぞ(投槍) >>303
2.5D系はilya kuvshinov、ross tran、wlopあたりの絵が入ってるからかもね
日本人好きする可愛いらしい童顔(=団子鼻)アニメ絵基準で
鼻をちゃんと描こうとするとちょうどそんな感じになりそう リアル系の実写画像で
綺麗に仕上げるためには
512x512ぐらいがベースで
解像度どれくらいまで上げるのがベストですかね? 抽象的過ぎてわからんぞ
あと解像度は見た目の美的感覚にかかわらんぞ
512x512は画像サイズだから話が違う ワイもMultiDiffusionで2倍とかにすると服とかすげえ雑になるんだけどいい方法があったら知りたい
最初から大きいので作った方が良くなってきたけど1回の生成に時間かかるしつらたん >>298別口で解決していただいたので解決報告と同時に一応の共有をしておきます。
modulesフォルダ内のui_extra_networks.pyを開く。“def register_default_pages():”で検索し、その下に
register_page(ExtraNetworksPageTextualInversion())
register_page(ExtraNetworksPageHypernetworks())
register_page(ExtraNetworksPageCheckpoints())
があるので、消したいタブの名前が書かれた行の行頭へ♯でコメントアウトする。
保存後、次回起動時にコメントアウトした行のタブが消える。
長々とお目汚し失礼しました。 >>321
報告乙・・勉強になります
そんなところいじるのか tiled diffusionとtiled vaeを有効にしても解像度上がらないのは何故なんだろう
t2iじゃ効果無い? ComfyUIがVARM消費小さくて生成も早いって聞いたけど、実際どうなんだろう
>>207あたりで書いてる人いるけど 芸能人の顔でLora自作してるやつ、ほぼほぼバレるね
思いっきり画像に出てる
本人はバレてないと思ってるのかもしれんが、誰も突っ込まないだけでまあバレてると思って良い 芸能人の顔でLora自作してるやつ、ほぼほぼバレるね
思いっきり画像に出てる
本人はバレてないと思ってるのかもしれんが、誰も突っ込まないだけでまあバレてると思って良い Loraで間違えて <lora:asianGirlsFace_v1:0.0.5>って入れたらすごく良い感じに
効いてくれたんだけど、ほかのLoraが影響してくれなくなった・・・
0.0.5ってどれくらいの効き方なんだかわかる人いる?
:のあと入れなくても同じような効果でた Loraで間違えて <lora:asianGirlsFace_v1:0.0.5>って入れたらすごく良い感じに
効いてくれたんだけど、ほかのLoraが影響してくれなくなった・・・
0.0.5ってどれくらいの効き方なんだかわかる人いる?
:のあと入れなくても同じような効果でた 鯖の調子が悪い時の書き込みに失敗しましたは信じてはいけない >>331
同seedでいろいろ書き方変えて試してみるしかなくない?
0.0.5、0.0.1、0.0.9、0、0.5、1とか 多分それがわからないから書き込んでるんだ
あと単純にプロンプトに入れてなくてもなぜか効果があるLoRAとかあるから
結局誰もわからんってことだよ >>331
自分の経験だとそれはLoRA処理部が「そんな数値扱えるか!」ってエラー起こしてるだけだった
だから以降のLoRAが効かない
問題は私も「あれ?いい感じに出力されたぞ?」と勘違いしたことだな > ValueError: could not convert string to float: '0.0.5'
・・・ SDじゃないからスレ違いかもだけど他にAI画像生成の質問スレなかった
niji journeyというスマホアプリを触ってみたけど、「強く・弱く」のボタンはどういう効果なのでしょうか
試してみても単純に再生成をするのと何が違うのかよく分からなくて >>336
小数点に変換できないからどうなったのかが知りたいw
効いてないと思って外すと効いてたからバグってるのはわかるが
そのバグの効き方が・・・
xyzで0.000とか色々やったが同じ効き方が出てこなかったんだよ・・・ Lora外したのにまだ効果が残ってるようなら再起動してみるといい
メモリかキャッシュにゴミが残ってるだけかと
再起動したらプロンプト通りに動いて、
今まで何に悩んでたのかアホらしくなることごある Lora外したのにまだ効果が残ってるようなら再起動してみるといい
メモリかキャッシュにゴミが残ってるだけかと
再起動したらプロンプト通りに動いて、
今まで何に悩んでたのかアホらしくなることごある >>337
スマホアプリで勝つジャーニー系はちょっとすれ違いです セーラー服とか服装を毎回同じデザインで
出力する方法ってないですか?
ユニホーム系はデザイン変わると困るんですけど
顔なら毎回同じにする簡単なんですけどね >>338
何となくだけど、1.0扱いか直前に使ったloraの数値で処理されてそうなもんだが >>338
上のエラーになった場合Loraは完全無視されるけど、
その場合にLora表記自体になんかそれらしいタグになりうる単語があるとかのオチだろう
chunk付きの絵でも貼らない限り、自分で調べるしかないよ、エスパーにも限度がある なんでちちぷいとかでも80%くらいの割合で大きな吊った目のキャラなの?
プロンプトだけだとそうなるモデル使ってんの? ジド目モデルなら知ってるけど
ツリ目モデルとかもあるのかな 4090にしたんだけどX-formersより使える起動オプションであるんだっけ
結局X-formersが良い? >>351
これとか?
```
--opt-split-attention --opt-channelslast
``` Animatediffにadd reverse frameの項目がどこにも見当たらないんだけど理由わかる人いますか?
Animatediffは最新版です >>347
多分、指が崩れにくいモデルとプロンプトを突き詰めた結果そうなってる 指を気にしだすと生産効率大きく落ちるよね
指修正すげぇ時間掛かる
お勧めはDepthLibraryとInPaintで修正して
仕上げはADetailerの手のモデルで修正
ADetailerは顔の修正が凄いね
顔がダメでボツにした絵も綺麗にできてびっくり >>358
これはいいことを聞いた
早速試してみよう >>355
Ver.1.9.4以降Closed loopの1機能として吸収されて、Number of frames <= Context batch size かつ Closed loop == Aの時に従来のadd reverse frame機能が動くみたい
Context batch sizeは16固定で動かすと思うから、実質16フレーム以下の時のみ動作するように変更された感じかな animatediffは
生成時間がかかりすぎてネックだわ LoraをCivitai Helperで入れて Refleshしても何も表示されないからLora適用できないんだけどどうしたらいい?
フォルダ見ると確かにDLはできている。 >>361
何のクラボを使っているのか書いてくれないと Regional Prompterって成功率低いな……
全然上手くいかないしLora複数使うと更に駄目だし >>365
自分も最近使い始めたけど、あれ?ってときは不慣れで大抵なんかミスしてることが多かった
縦横変えてなかったり、いじってるうちにADDCOLとADDROW変えるの忘れてたり
上の生成サイズとRP側のサイズってよくわからんからとりあえず一緒にしてるけど、全然違ったら結構失敗したような
Loraも入れれば入れるほど遅くなるけど薄めたら割とうまくできたよ AnimateDiff
hires MP4投入 CN よし生成!
ファンブォーン!止まる!
メモリ足らんよ!
4090 プロンプトを Nishijima Hidetoshi だけで、仮面ライダーBLACK SUNぽい黒ジャケットの絵が出てきた……凄い…… プロンプトを North Korea だけだと、ハングルが書いてあるミサイル、国旗、王様だった……なぜだ……
JapanやRussiaだと、自然豊かな風景や建物なのにな >>367
H100をどうぞ
…誰か使ってレポートしてくれ
スレに石油王の一人くらい居てもいいだろ!(哀願) 70万円のマックブックプロ128G買ってくれたらやったげる 新しく発売されるMacbookproのM3チップと
4090番のどちらが生成画像作るのに早いかな? >>375
今のAIアニメは背景が変わりまくるから使えないな
Blender勉強したほうが手っ取り早いな
SD使ってイラスト生成したあとに
E-moteかLIVE2D使うのもありかも? >>376
イラスト生成は1分で、レイヤー分けするのに何時間かかんのかねえ まあM3チップで
animatediffを動かすのは厳しいかもね >>372
マカーは過大評価しすぎ
会えていおうカスであると raytrek cloudというドスパラが貸GPU始めるみたいだけど
やっぱnsfwは停止されるのだろうか aiで版権ものとか実在の人物のエロ絵って見ないけど、なんか問題あるの?
そのキャラクターで学習させたとか公開しない限り証拠ないよね >>372
2年ぐらいM1mac使ってて最近4070tiのPCを買った俺から言わせてもらうと、AI用途でmacに何かを望むのはやめたほうがいい
あまりにもコスパが悪すぎる
4090と同等に画像生成できるようなmacはたぶん100万ぐらいすると思う M○チップのMacは普通の用途では(性能以上に高いのに目をつぶれば)必要十分な能力があるけど尖った用途で使うにはグラボ積めないメモリ増やせないでカスタマイズ出来なくてな
2.5D系のモデルでもリアル寄り過ぎるから2Dモデルに3Dモデルを0.05とか0.1マージして2.1D的なモデルを作ろうとしたら、10枚中1枚が3Dで出てくるだけの2Dモデルが爆誕した……なんなん >>381
civitaiとか利用したことないんか? >>381
ちょっと待って意味がわからない
ありすぎて困るんだがどういうこと? >>381
実在の人物が公認しているケースも有るよ。
大部分は許可とらずに勝手にやってるね。
岸田とかゼレンスキーをcivitaiで見たときはやり過ぎと思った。 tensor爆盛したら勝てるだろうけどそんなニッチなもん作らんだろ >>386
公人だから学習自体は問題無し
じゃなきゃ政治風刺漫画全部NGな強権国家 検索したらなんぼでも出てきたわw
けどクオリティ高いのは少ないね 無知な人は自分が無知なことも知らない
半年ROMることの大切さを知るべき クオリティ高いのは訴えられたりして問題になると困るから公開してないだけ クオリティ高いの作って公開してたらロクな事にならない
見たかったら自分で作ればいいの精神 これ漫画にどれくらい使える?
最初から線画できれいに出せる?
表情とか躍動感とかその辺知りたい Loraの選択画面でフォルダの名前がズラーと並ぶの無くす方法教えてください Google Colab版のKohya LoRA Dreamboothを使って1つのLoraに複数の概念を学習させたいんだけど、4.2.3. Custom Caption/Tagを使用すればいいの? animatediffについて、作った動画をhiresするエクステンションとかありませんか? >>397
無能はすぐに聞く有能は自分で試してから聞く >>402
金がないんだよ
ググったけど導入も面倒だし
使えるならグラボ買うけど >>401
全コマをバッチでhiresして、ffmpegや簡単プロンプトアニメで動画につなぎ直すのが手っ取り早いかも
ほかに方法はあるかな >>403
ai lineart で検索したら色々と出てくるよ
自身の求めるものが出せそうかある程度は判断できると思う >>403
質問がざっくりしすぎてて答えようがないよ
最初から線画で出すのはそういうLoRAを探せばいけるかもしれんが、それよりはペイントソフトの線画化フィルタを使えば済みそうだし
ControlNet用にラフを描いたり出力画像を修正したりできる画力があるかにもよるしね
画像生成AIがどんなものか試したいならPixAIのようなオンラインサービスを使ってみては
PixAiについて語るスレ
https://mevius.5ch.net/test/read.cgi/cg/1694322730/ ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
youtubeでanimatediffの解説してる人はhiresやってるって言ってるけど >>407
友達の友達はーみたいな表現で翻弄するのやめや
自分で試したわけでもないのに >>407
> ひとつひとつhiresすると個々の画像のディテールが異なってくるから、動画だとわちゃわちゃになっちゃうと思うよ
あー確かにそれはありそう >>408
いや、ひとつひとつやるのは自分で試したわ
そしたらひとつひとつのディテールが違うからこりゃ繋げたらわちゃわちゃになるわな…ということで諦めたわけ
ちなみにanimatediffで生成時にhiresfixで1.5倍にするのは自分でも試みたけど、youtubeで解説してた人はやってるって言ってたなぁ
なにかコツがあるのかな?
ということを全部説明したらめちゃくちゃ長くなるからはしょったんだよ!なげーだろ!! 暇なんで、chichi-puiのサイトで児童ポルノ投稿してるやつら
新着順に片っ端から問題報告してるが、数が多すぎてキリがないわ 顔も体も子供なのに、なぜか巨乳だと児童ポルノとして通報しにくい
童顔の大人ですって言い訳できそうで
AIで作った子供は目付きが完全に子供じゃない(知性がある大人の目)だから、なおさら もっとヤバそうなガチロリ3D同人とかずっと生きてるからAIレベルのグラフィックじゃ自主規制でもなければ無理ちゃうか
ディープフェイクとか子役loraとか使い始めたらヤバいだろうが >>410
だからそれでできる保証もないのに発言するなと言いたい >>411
ほんま暇やな
あそこが禁止なのは実写系で胸ペタのロリだけだぞ
二次系はどんだけロリでも性器に修正かかっていればOK
日本の法律に準じてるからな >>416
俺は実写系しか興味ないから、イラスト/アニメはまったく見ない
サイトに通報したら何らかの対処する可能性は高いぞ
実際俺の投稿も勝手に移動させられたし イラストでリアルっぽい記事のパンティーやブルマを履かせたいけど
サテンや水着っぽい感じになる
どの様に呪文をかけば布っぽい感じになりますかね?
ちなみに、(gauze fabric panties:1.5)としても殆ど効果がありませんでした inpaintでリアル系のモデルに描き直させればいいんじゃないですかね
そのモデルにできないことを必死にやらせてもできるようにはならんからな オレは逆に二次絵なのに下着水着肌着の布だけリアル寄り過ぎて困ってるな
下手なコラみたいになる 初心者の質問ですみません
Stable Diffusion Onlineを使っているのですが、何をやっても思い通りの画像が出てきません
自分のマシンにインストールしないとだめですか? >>422
それどうやったらなるんだ
BREAK使ってrealistic pantiesしても顔までリアルになりガチで困ってる
>>421
その手があったか
あと、inpaint挑戦したけどどうにも違和感が出てしまう
またまれにすごく布っぽくなるし何が適切な呪文があればとは思うんだけどね モデルは知ってるけど正しい気ワードではないから呼び出せてないような気もしてる
あと、複数枚あるから可能な限り呪文でやりたい >>423
思い通りの画像の内容がわからない
プロンプトとモデルの組み合わせが大切になる
とりあえず、そこは使ったこと無いが今試した見た
Prompt 2girls,hatsune miku,swimwear,perfect anatomy,best quality
Styles sai-anime
Negative ugly,worst quality,normal quality
あとは全部デフォルト
nsfwも試したけどこのモデルでは効かないっぽい
一応、それっぽい絵は出ると思う
もし、エロイのしたいならpixaiとかかな
ただオンラインは遅いしモデルに制限有りまくる(AOM3とか使えないっぽい)からローカルでできることのほんの一部しか無理だと思う
オンラインは殆ど使ったこと無いから詳しく知らないんで説明間違いならすまん
誰も答えてないから一応レスした >>423
駄目です。ここでSDやってる人はほぼローカル環境でやってますよ ただ勘違いしてもらっちゃ困るのがローカル環境でも学習してないモデルとか使ってると出ないもんは出ない。
つまり、公表するようなオンライン環境で出たらまずいものは当然そんなことはさせないようになってるBingと同じだわな
あきらめてローカルでニッチなものを作るしかない やっぱりローカルでやらないと無理ですか
ところで、以前リバーシなどのゲームのAIを本を読んで作ったのですが、
対戦させては学習させてで、1か月に電気代5000円ぐらい余分にかかってました
画像生成AIの学習もそれぐらいお金かかっちゃいますか?
そもそも学習データとなる画像がたくさんないとだめですよね >>428
ローカルじゃないと駄目なんてものはない
まず知識不足だからモデルやらプロンプトイジって勉強しよう
オリジナル素材で学習したい場合も同様で色々作ってから取り掛からないと何も理解出来ない >>428
モデルガッツリ作るとかは知らない
Loraとかでいいなら10枚くらいでいい感じになる
学習時間は10分くらいだから1キャラ2.5円くらいかと
この場合、いいモデルを探してくるのが重要になる なるほど、モデルを自分で作るんじゃなくて探すわけですね
ちょっとローカルに入れていろいろいじってみます
ありがとうございました chilloutmix_NiPrunedFp32Fixでヌード生成すると乳首が綺麗にでない・・
プロンプトで乳首綺麗にする方法ってあるん? あなたのいう綺麗は誰も分からない
civitaiでも見てあなたが綺麗だと思う絵のプロンプトを見ればいい >>432 >>433
10秒程度のショート動画がおすすめ 自作したLoraの出来が良くないので他の人のLoraを参考にしたりコツを調べたりしたいのですが、どういったサイトを参考にしていますか?
Loraの作り方を記載したページは多数あるのですが、Loraの質を上げる方法を記載したページがあまりなくて…… すみません質問させてください。
VAEファイルを所定のフォルダに入れているはずなのに選択画面に一つも反映されていません。
環境はcolab proでfast_stable_diffusion_AUTOMATIC1111.ipynbでやっています。
/content/gdrive/MyDrive/stablediffusion/sd/stable-diffusion-webui/models/VAE/
上記に保存し起動後、Settingタブ→Stable Diffusion→SD VAEの順で選択して行き
ドロップボックスの箇所にファイルは反映されず、更新ボタンを押しても反映されずです。
関係ないかもしれませんが、Loraは反映されます。
どうしてもVAEを生成画像に反映したいので、どうかお力をお貸しくださいm(_ _)m >>438
自分は○し○きdiffusionの「LoRA/学習用パラメータ解説」と「オプティマイザー」あたりを参考に試行錯誤
> Loraの質を上げる方法を記載したページがあまりなくて
紹介サイトは閲覧数稼ぎがお仕事で大抵触りでしか作ってないし、逆にそこそこ作ってる人は細かいノウハウはバラさないよね
ちなみにloraのファイルをバイナリで開いたら頭に全部パラメーター残ってる(たま〜に消してる人いるけど)
大抵はああそんなもんかってなもんで、学習画像とキャプションの選定が全てってわかる >>439
webuiのバージョン分からんけど1.6だとSD VAEの設定は
setting→Stable Diffusionではなく
setting→VAEの方にない? >>441
バージョン1.6でして、まさにおっしゃる通りVAEのとこにありました!そして無事反映もできましたありがとうございました!!
参考にしていたサイトが情報古かったのかもです
本当にありがとうございましたm(_ _)m >>435
適当にbeautiful nipples? >>442
出来たなら良かった
settingタブ→Stable Diffusionの方にあったのは「SD VAE」ではなく「SD Unet」だったのかな
質問する時は文言は正確にね
setting→User interface→Quicksettings listに「sd_vae」を入れておくと
checkpointと同じように画面上部にVAEのプルダウンメニューが表示されて切り替えが楽になるんで一応 >>438 グラビアなのかアニメなのか、なにをやろうとしているのか知らんけど、
グラビアなら写真の基礎から学んでいく必要があるし、LoRAより先に知るべきことが多い
それぞれのCheckPointの長所短所を把握するのも大事
上げたいのはLoRAの質じゃなくて出来上がったCGの質だよね
そもそもCheckPointごとにLoRAの利き方が違うので、LoRA単品で質は語れないんだよ >>438
キャラlora作成で検索したら普通に役に立つ情報でてくるが
2Dでまともな学習画像がある前提だが、要素ごとに分類してフォルダ分けするのが大事だと思う。
例えば服装1と服装2を分けて、それぞれワードを振っておくとかね
人物なら不変の要素(体形や髪色など)と変化する要素(髪型や服装など)は分けて覚えさせた方がいい、気がする
あとワードを設定する際に普通の言葉を使うと意図しない物が混じることがある
ミカンというキャラがいるとしてmikanをワードに設定すると生成結果に果物のミカンが混じる、みたいな やたら鉄や機械が混じるので何かと思ったら、キャラ名が銃器メーカーだったことがある
以来トリガーワードからは母音抜きするようになった 手っ取り早く漫画作りたいんだけど
キャラ固定とポーズの自由度はどのくらい制御できる?
3Dでポーズ取らせたキャラの画像読み込ませて
理想の構図でキャラ絵描ける? 4ヶ月ぶりに動かしたら1.6になってるのか
今ってみんなどこで情報共有してるの?
Discord? >>449
自作LoraとCN駆使したら簡単にいけるだろうね、サイバーパンク桃太郎の頃とは違う
何もかもAIで完結って考えずに切り貼り工夫もしたらいいし
> 手っ取り早く漫画作りたいんだけど
ネームくらいは切ったことあるの?AIは末端の一道具でしかない >>450
ディスコが多い、細かいのはGitで直接
こことかは相変わらず9割の人が雑談かひとりごとだね >>451
自作って面倒?
ネームは多少はわかるよ
フォトショップで加工もするけど
とにかく絵を描きたくないw
CNとi2iってどっちが精度高い? 誤ってPythonフォルダ消してもうて、すぐ戻したけどwebUIもkohya.guiも起動しなくなってもうた。。。
これまた最初から入れ直しなんでしょうか? >>454
5チャンネルメイトだと文字が小さくなって読めねえんだよ sdxl で乳首ロラ探して好きなの使えばいいんちゃう controlnetで抽出した線画を部分ごとにRGB指定して色塗りする方法ってないですよね…? controlnetで抽出した線画を部分ごとにRGB指定して色塗りする方法ってないですよね…? >>463
言ってる意味がわからない
コントロールネットで線画? 元絵を変えずにメモリエラー出さずに拡大する方法見つけたからここで宣伝しておくわ
メモリ少ないTiled Diffusionですらメモリエラーでるクソスペだったけどこの方法なら使えたわ
https://youtu.be/_hzbqhVkJZE?si=6O_cbseZwsGtPszO
元絵を変えないからメモリに余裕あってもこれおすすめできるぜ PRってないんですけどステマですよね
逮捕案件じゃないんですか?(棒) >ここで宣伝しておくわ
はっきりと宣伝と宣言しているし
ステマじゃなくてダイマだろ pixivで投稿してたらアカウント停止になったんだが規制厳しくなった? 既成LORA使って好きなポーズとらせたいんだが良い方法ないかな?
少し前の海外の動画見てたらカラフルな棒人間を動かしてたんだが、今ってそれより良い方法ってある? 3060-12Gだけど512-768を3倍にアップスケールするために
Tiled Diffusion使ったら「進行度5% 残り10時間」とかなる
でもどうせ途中で急に短縮されて数分で終わるんでしょ?wと思ったら30分待っても全然終わる気配なし
何かがおかしよね??
他のSDアップスケールやアルティメットアップスケールなら10分もかからないのに
Scale Factorを3にする以外デフォルト設定のままなのに何故…… >>473
投稿内容わからんけどアウト判定スレスレのをあげてたんなら仕方ない >>475
Tiled Diffusionとそれのサポート拡張のTiled VAEを使いましょう
自分はTiled VAEを使えば8GB+共有5GB程度だから3060 12GBなら共有1GBくらいになって秒で終わると思う
使わないと共有は11GB使用されてメインメモリ22GBくらいになる
ちなみに他のControlNetを2つ3つ重ねるとクソ遅くなるよ
Referenceとか致命的 >>475
Tiledの設定で一枚あたりの画像サイズの処理にかかる容量がVRAMの容量を超えるような設定になっているとタイル一枚あたりの生成もCPU側のRAMを使うようになって激遅になる
処理中のVRAMを監視して上限を超えていないか確認するかCPU側のRAMを使わないバージョンのGeforceドライバーに変えて落ちるかどうか確認して切り分けるといい >>476
実写のAIで制限された。未だに投稿してる人がいるから何で引っかかったのか分からん。
pixiv卒業して他のサイトに移動するしかないけど良さげなサイトがない。 >>475
Tiled Diffusionの“Latent tile”の“width”“hight”と“batch size”の数値はどうなっていますか?
あくまで私の環境下での経験則になりますが、tileが大きいほど処理も早く負荷も軽く、batch sizeが大きいほど速く重く、小さければ遅く軽くとなっています。
調べればそれらしい情報は出てくるのでお節介かもしれませんが、少しでも助けになれば幸いです。 >>477-478
VAE使って10分以内に終わりますた
でもかかった時間は
SDアップスケール < Ultimateアップスケール < Tiled Diffusion
ですた
あとTiled Diffusionだと同じDenoising strengthでも小人がめっちゃ出てきて困った…
小人問題はCN Tile使ったら直るっぽいけど、
CN Tileを加えると完成予想時間が数時間後になってしまう……
今はUltimateアップスケールをメインで使っていますが、
Tiled Diffusion+VAEの優位性がよくわからないです……
なぜみんなアップスケール時にTiled Diffusion+VAEを使ってるの??… >>480
Tiled Diffusion
“Latent tile”
“width” 96
“hight” 96
“batch size” 4
Noise Inversion オフ
です!!
他に3060-12Gの最速設定はありますでしょうか >>482
512:768であればwidth:hightも同じ比率の数値に変更してみると僅かに節約出来るかと思います。
極端な話であればwidth512のhight768を試した後、品質に問題があれば256:384などに下げて行き、品質と速度の妥協ラインを探すのが良いかと。
batch sizeについても同様に、最大値の8でメモリ不足エラーが出れば順次下げて行けば良いかと思います。 >>481
Denoising strengthは0.1以下にしましょう
そもそも512*768の生成自体は何分かかってんの?w >>483
すみません……Latent tileの数値の上限は256でした。なので171:256くらいから下げて行くのが良いかと。 >>484
バッチサイズ等変更しますた!
512*768のt2i生成自体はCN使っても1分以内で
生成スピード掲載サイトを確認しても3060の妥当な速度でした
しかしよく推奨されてるTiled Diffusion+VAE+CNtileが異常に遅すぎて遅すぎて遅すぎて何故… >>486
img2imgでTiled Diffusion・Tiled VAEを使った拡大は自分も使用するので理解出来るのですが、CNtileも併用するのですか?
試しにCNtileを併用したら普段の40倍ほど予想時間が伸びたので恐らく併用するものでは無いのでは?
CNtileはほぼ使わないので的外れな書き込みでしたらすみません。 >>487
WebuiのVerとControlNetのVerいくつ使ってますか?
自分はWebUI 1.6.0 python: 3.10.6 torch: 2.0.1+cu118 オプション --opt-sdp-attention
ControlNet v1.1.411 ですけどControlNetにTile/Blurってのがあって
tile_resample / control_v11f1e_sd15_tile モデル使っても時間はほぼ変わらないです
記憶がおぼろげで申し訳ないがなんかv1.4.3 torch+cpuだった時の挙動に感じる >>487
環境はversion:v1.6.0•python:3.10.6•torch:2.1.0+cu121•xformers:0.0.22.post4•gradio:3.41.2
--xformers --opt-channelslast --disable-nan-check --no-half-vae
ControlNet v1.1.415です。
>>468を見て試したCNtileとSD upscaleを使用した拡大は常識的な処理時間で書き出されたので、異常に長い処理時間は何かおかしいなと判断した次第です。
Tiled Diffusion・Tiled VAEを使った拡大で特に問題を感じた事が無いのですが、CNtileを併用するとどのような効果があるのでしょうか。 追って読んでないけど異常な時間ってのはOOMでVRAMで足りない分をメインメモリが代行する奴に掛かってるってことはないの? >>489-490
今確認しようと試してみたところ異常な処理時間の再現が出来ず、正常に書き出せてしまいました……
どの設定が原因かも試してみたのですが特定出来なかったので本当にただお騒がせしただけで申し訳ない。
Tiled Diffusion・Tiled VAEとCNtileの併用は初めて試しましたが、品質も確かに上がり処理時間への影響も少ない良いものですね。 >>481
Tiled Diffusion+VAEが人気なのは
メモリエラーで止まらないってこと
それでもメモリエラーでるクソ環境は
>>468を使うのが良い
タイルサイズは自由に設定できるから
メモリエラーは必ず回避できる スレ開いて1年前にタイムスリップしたんじゃないかと勘違いしたわ >>491
再現性がないってことは
条件次第ではまた発生するよ
発生条件はメモリを大きく消費すること
低速化の原因はメモリスワップだろ
VRAMでは足りない場合は
メインメモリ(SDRAM)を使う
メインメモリでも足りない場合は
ストレージ(HDDやSSD)を使う
速度順はこれ
VRAM>SDRAM>>>SSD>>>>>HDD だからVRAMの容量が大きいグラボを帰ってあれほど Radeonで生成やってる人いますか?
DirectMLで生成はできてもkohyaを使ったLora学習はどうしてもうまくいかないです。
出来てる人がいたらお話聞きたいです 二人のキャラクタをそれぞれ別のloraを適用して
同じ一枚に生成(対峙させる)には
今どんな方法が一番いいんでしょう?
Regional Prompterはアップデートの影響なのかうまく分割できてない気がしまして… UbuntuでいけるならWSL上のUbuntuという手もあるかも >>498
> Regional Prompterはアップデートの影響なのかうまく分割できてない気がしまして…
普通にいけたよ(webui1.6)
githubの下の方の説明の通り、ちょっと工夫しないと駄目だけど、Lora3つでも時間掛かるけど出せた
ちょっと前に動かない不具合あってみんな疑心暗鬼なのかな?
あれならLoraとモデル適当に言ってもらえれば、実験して差し上げましょう >>501
どうもです。
今外なので今晩家帰ったらちとお願いさせていただきます。 >>494
メモリスワップでしたか……SDRAMを超えた事が無かったのでそれで見た事の無い予想時間が出てきたようです。
丁寧に教えていただきありがとうございます。 >>497
linux使いですが、ubuntu+ROCmで出来るよ。
pythonのライブラリでROCm用のライブラリを入れる必要があるよ。 1年後に5090
4090の倍の速さで35万円
レートの問題で40万行くかもな ヤフオク見ても半年前より良いGPUは値上がりしてるな
5090来ても満足行くスピードには程遠いのが悲しいな なんでgeforce限定なの?
NVIDIAにはRTXとかQuadroとか上位機種あるでしょ >>499
>>504
やはりそうでしたか…
ここ1週間の疑問が晴れました、ありがとうございます
最初は仮想環境にUbuntu入れてやってたんですけどGPUが2つ必要かもしれない可能性に行き当たってDirectMLに逃げたんですよね。。。らでェ quadroって今となっては上位じゃなくて旧機種では
RTXは結局4090がA6000より上だし だから GeForce RTX 4090は安いからここでよく言われてる
それ H 100とか欲しいわい >>474 DesignDollでポーズ作って、img2imgする
カメラアングルとか自由に変えられるから、棒人間エディタよりよっぽど便利 1枚の画像をマルチGPUで作れなくても、複数枚をマルチプロセスで別のGPUで処理することはできないでしょうか >>517
メモリは食うけど
単純にsdを複数起動したらいい 複数起動だとそれぞれ設定しなきゃいけないのがきついですね 50xxはGDDR7になるだろうから生成AIに関しては性能アップがそれなりにあるんじゃないかな
ゲームだと値段が高い割にはになりそうだけど ドライバを別にしてそれぞれに特化させてるとかいう話なかったっけ? 動画ガンガンやりたいんで来年5090出してくれよ
40万でもいいから >>522
nvidia の売上はゲーミングとデータセンター向けで同じ程度(2023はゲーミング不調で落ちたが)
両方の製品を共通の技術で作っているので今のお値段だけどそれぞれ別に作ったらそれぞれ研究開発製造しないといけなくなり結果単価倍になるから今のままで良いんだ
ttps://media.rakuten-sec.net/articles/-/38637 >>521
来年は生成AIじゃなくてエージェントAIに代わってるらしいからまた違う >>526
そこら欲しければそれなりの高いの買えてスタンス
H100なんて半年待ちなるくほどバカ売れしてるからこそ
似たようなもんでゲフォを安く売れる >>501
すんません、今最新化した環境でやってみたらうまくいきやした。
今までのlatentでやるとエラーor画像破綻してたからAttentionでやってうまくいかなかったけど
今やったらAttentionですんなり行った… すいません質問させてください
colab proのwebui automatic1111でやってて、立ち上げ時にプロンプトの読み込み処理がすごく時間が掛かるようになってしまったのですが、何か解決策ありますか? アップスケールは3060なんかじゃ全然満足出来ん速度だ
9060が出るまで3060で耐えるけど >>530
プラグイン削除したら早くなるよ
使わないのは積極的に削除しろ アップスケール苦手なSDでわざわざやらなくてもいいじゃん アップスケールのソフトはただの塗り絵にするだけだからやらない方がマシまである ソフトでやるアップスケールはピクセル間を補完するだけだからね
SDのように生成し直すアップスケールとは意味が全然違う >>535,536
その「ソフト」が具体的になんなのか書かないと文章にまったく意味がない 画像生成でないアップスケールソフトなんか一つの例外もなく塗り絵だろ 最近のアップスケールソフトは内部でAI使ってるからやってることはSDと同じだと思ってたけど違うのか? まずアップスケールの意味を正しく理解しないと会話が成り立たない >>540
waifu2xとか2015年からあるけどGPU使うAIだよ
逆にバイキュービック法とかバイリニア法のが昔ながらのただの拡大
だから正確にソフト名書かないと意味がない そもそもSDはアップスケールじゃなくて生成な
外部のAIアップスケールは所詮拡大なので生成ではない AI画像生成を始めて、これはもっと早く気付くべきだったってことはありますか? >>541
SDはプロンプトあり、AIベースのアップスケールソフトはプロンプトなし、つまりそういうこと >>545
金の許す限り最新のVRAMの多い物を買っとけ
ただそれだけ >>545
VRAM 24GB
SDRAM 128GB
これは、必要って事かな
キャッシュモリモリだとSD立ち上げただけで54GBとか使ってる
AI + αとかだと特にそう 学習機能使ってないのにVRAM必要とか言ってるアホ >>552
キャッシュってモデル切替のキャッシュのこと?それ以外に何かキャッシュ機能あったっけ? 最近のwinてメモリ大量に積んでるとファイルキャッシュするのがデフォだよな?
意味あるのか? >>544
>>547
それが首絞めてんだよ
tps://i.imgur.com/57GL4xL.jpg
上 512x512
下 Hires x 2 1024x1024
Hires使った結果
目は小さくなり二重も薄くなり
歯は見られたもんじゃない程ガタガタになってる
こんなゴミ有難がって使うのはアホだわ
画質以前に絵が崩れちゃ本末転倒だ Hiresは自動i2iだからアプスケとは違うけどな 元絵を変にされるより素直にアップスケールした方がましだわな
>>549みたいなので 時間かけて崩して何がしたいのか分からん
そういう趣味なのか 今はCNのTileでやるのが一番しっくりきてる
HiresとかMultiDiffusionは使ってみたけどうーんって感じで違和感凄かったわ controlnet tileとmulti diffusionの併用とか色々あるけど
試した結果、リアル系ではultimate SD upscaleが一番早くて手軽でクオリティも高いかなと
二次系はi2i標準の2倍アップスケールで十分綺麗にできるよ Hiresも調整次第だよな?発動タイミング調整したり
使い方がおかしいんじゃないの refinerは切替ステップ数変更できるけどHiresもできたっけ
あと上の比較画像はHiresとMultiと元を比較してるサイトのだな この2つが全く同じとは言わんがこの違いが神経に障るのは生き辛そうで煽り抜きにちょっと同情する
正道(2次)に回帰して幸せになろうぜ
…は半分冗談だが、2次では(sketch:1.5)して細部を粗くするようになったわ
ラフの方が完成画像より良く見える現象 >>557
未だにHires使っている人いるんだ
CNとTile使えよ Hiresとかもう無くしていいのにな
tileでいいよ 間違えて技術板の方で聞いてしまった・・・
ビキニとか着せた時にもっこりするのなくす方法plz!
flat crotchとネガにswollen crotch入れても効果でない・・・ >>570
まず男か女か書きたまえ
そして男なのか男の娘なのか女なのかはっきりしろ
基本中の基本で学習させてないものはプロンプトでも効果はないぞ
その辺大丈夫か?
認識するなら極小にするとかプロテクターつけているとか考えたまえ
なお、さっきも書いたけど学習させてないものは出ないぞ >>571
女の股間、学習か・・・やりかたが分からないのでぐぐってみる! もっこりは男や男の股間周りをNGに入れろとどこかで読んだ気はする
試してないんで本当かは知らんが
male, boy, bulge crotch, penis, testiclesあたり? CNとTileあればSDXLいらないのでは?
ついでに学習しない限りVRAMもいらないな 1.4から1.5にしたらアプスケ複数枚でメモリがたらんと言われるようになってしもた
あとx-formersで結果がブレるのをつかって手の修正ガチャしてたんだけど、torch2にしたらガチャらなくなってしもた
なんか原因あるのかね・・・ 手の修正ならDepthLibraryとCNで
ガチャして仕上げはADetailerで良い
ADetailer元がダメだとどうにもならんな
ADetailerは手より顔の修正が高性能すぎる ADetailerは2次が全然ダメだからなぁ
2次専は辛いぜ >>577
俺はアニメ風イラストでバリバリ
使っているんだがモデルとの相性かな?
使っているモデルはsakura、iris、himawari
ajisai、momiji、anzu、あと忘れた
全部同じ作者だな
まあたまに変な画像出されるけど
俺が使ってるモデルでは高い確率でよくなる もはや最近のやり方の主流がよく分からん…
生成ばかりやってたら置いてけぼりをくらってるなw このスレの人は未だにHiresとか
Anythingモデル使ってそうだな😅
YouTubeとかXで新しい情報集めると良いぞ >>575
原因も何もtorch2用のxformers(ver 0.0.2ぐらいだっけ)はぶれにくくなったっだけ
びみょーに変更かけたいならバッチサイズ増やして(増やさんでもいいけど)
Extraにチェック入れてVariation strengthで強度調整 >>578
そうなのか
面倒くさいからお気に入りモデルに特化して色々使ったり設定したりしてたから知らなかったわ
せっかくだし挙げてくれたモデルに触れてみる
サンキュー 久しぶりにAnything V4.5使ったら
不安定過ぎて使いにくいな
最近のモデルの進化はやばすぎる 最近のモデルはネガティブいれんでも綺麗にでるのでびっくりする >>580
盛り上がってる話題が3ヶ月から半年ほど遅いよな どこでもこういう絵だらけになってるのはなんなの
モデルそのまま使うだけの無能なの
http://i.imgur.com/QQrRftl.jpg >>586
働きアリの法則と働き蜂の法則と
ユーザーのニーズ、満足度の結果がそうなってるだけだぞ
ニッチなもの(プロンプトの中身も)を使うと一気に最適解から外れるからな
ユニークかつ独立的な発想が生まれんっていうのが社会上の問題となってる 単に使い手の能力不足でマスピ顔しか出せないだけだろ >>588
だからそれを法則だといってるだろ馬鹿者が >>586
アートスタイル変更するだけで
モデルが変わったと錯覚するくらい
激変するんだけどな
アートスタイルの複合をするともっと面白い Anything系なんてどんだけニチアサ食わせてんだってくらいアニメ絵吐いてくるぞ?
そいつらはモデルの実力の1%も引き出せてないのよ 気に入らんなら自分で自分のためのオカズ作ればいいし自分以外には需要があるのかもしれないし
他人の出力がマスピだらけだからってそんなの気にしててもハゲるだけ >>586
書き込みが多いほうが大好き?な中華系の影響かな
これにflat:0.5くらい掛けたい 無料サイト利用してるだけなんだけどいい感じの絵がポンポン出せたプロンプトがあったんだけど
後日それをまた試したら全然違う感じの崩れた絵ばかり出るんだけどなんで? 元々不安定なモデルなだけでは
最新のモデル使うと当たりばっか出るぞ アニメ塗り原理主義者だから、こういうのはマジで受け付けない
というか5ちゃんに貼られる画像の大半がこんなんよな モデルとかアートスタイルとかツールとか色々宣伝するぞー
ステマじゃなくてダイマだから間違えるなよ
モデルは全部AnzuMix-v2B
アートスタイルなし
https://i.imgur.com/uArDoJ2.jpg
アートスタイル:(watercolor:1.5),(pastel color:1.5),
https://i.imgur.com/ysWVg74.jpg
アートスタイル:(Redshift render:1.5),
https://i.imgur.com/vltT57R.jpg
アートスタイル:(realistic illustration:1.5),
https://i.imgur.com/thQiztR.jpg
ADetailerで顔修正
https://i.imgur.com/jSmTZSt.jpg
XZYプロット使いたかったけどメモリエラーでた
同じモデルでもアートスタイル次第で絵柄がかなり変わったとわかると思う
ADetailerはわかりつらかったな。本当はボツレベルの酷い顔も直せるすごいツール おじさん目がバカだから全部そっくりにしか見えなかったよ... プロンプト使いこなさないと
毎回似たような構図とか背景になるよね
光源(ライティング)とかポージング
極めるだけでも全然違ってくるよ
というかモデル作者でも使いこなすのは無理 もっとモデルの宣伝して良いの教えて
もうSSDの容量なくなったんで良さそうなモデルあっても気軽にダウンロード出来ない俺のために >>601
AnzuMix-v2Bの作者が8つくらいモデル作ってるな
Civitaiに行けばあるけどHuggingFaceには古いモデルがある
作者の名前をクリックしたら他のモデルも見れる
JitQってモデルも好きだな。この作者も
CivitaiとHuggingFaceで配っている
こっちは4モデル作ってる作者
まだ使ったこと無いけどRabbitってモデルも良さそう
これはCivitaiのみで配られているな
この作者もいくつもモデル作っているな
最近のモデル作者はCivitaiがメインになってるね 2TBで1.5万切ってるから買え
それが天国への道だ(沼へのハイウェイとも言う) WebUIをWSL2やLinuxで使うとLoRAのパネルにメモ書きしかなくてアクティベートテキストやウェイトを設定出来なくない? アニメ絵しか興味ないけど
AingDiffusion,CofeeNSFWのミックス使ってる
もっと良いの無いか探してるんだけど、アニメ絵のモデルって極端に少ないんだよな
上記だとロリが出ずらいのだが、ロリ出るモデルって無駄にデフォルメされてて気持ち悪い
こんなにモデル溢れてるのに自分の好みに合うものって見つからんものだな なんかずーっと親の仇みたいにHires叩きしてる御仁が出没してるが
GPU、欲しい画像の大きさ、出すものの種類、ガチャの仕方、でそれぞれが取捨選択するんだよ
古いも新しいもないし、HiresがTile系に劣ってるなんてことはない >>605
ロリが絶対に出ないモデルで強引に
ロリを出す魔法の言葉を教えよう
ポジティブ(ultra cute female child:1.5)
ネガティブ(adult:1.5)
デフォルメ絵が嫌いならこれを入れる
ネガティブ(chibi:1.2)
これ逆にロリが出るモデルで使うなよ
ロリが出るモデルで使うと破綻してんのか?
ってレベルで幼すぎる絵が出る
俺もお勧めアニメ系のモデルが知りたい
ロリ系だとより嬉しい スレチだけど、岸田とか安倍とかの偽動画ってどうやって作ったんだ?
画像1枚作るのにこんなに苦労してるのに、動画に音声まで作れるなんてすごくないか? >>606
Hiresの方がTileより破綻が大きいし重い
だから古いと言われてるんだよ >>608
静止画に書き出してi2iのバッチまわすだけだから誰でも簡単に出来ますよ
reactorと顔画像一枚あればできるから学習も不要 口より上が微動だにしないポンコツ品質だから簡単
常人にはモラルの壁を越えるほうが難しいわな >>610
破綻って何のこと?
小さい絵を大量に出していい絵を選択する手法ならtilesなんだろうけど
それってGPUの都合だろ? Hiresだとたった2倍で終わっちゃうじゃん
そこから次はアップスケールとか面倒だろ 512 x 512から1024 x 1024
512 x 768 1024 x 1536
この程度のサイズを引き伸ばしするだけになるし tileってanimate diffusionで使えるの?
使えないなら論外だが つまりhiresがーと言ってる人は、未だに動画も手を出せてない奴って事? つまり動画がーと言ってる人は、未だにH100も手を出せてない奴って事? 4090でもギブアップする動画はまだまだPCのスペックが追いついてない >>620
AnimateDiffでHiresだけしか使ってないの? 質問を質問で返されても
animatediffでhires以外の高解像度化の方法があんの? AnimateDiffでもCNのTile使ったりしてたんだがな >>625
ADをcomfyuiで使ってない時点で
automaticのHiresなんて時間かかり過ぎだわ
それに作った後じゃアップスケール出来ないだろ Hiresしか使えない人にノードベースはちょっとな 未だに動画も手を出せてない奴って事?キリッ
出て来れなくなりました >>625
グラボ何使ってるのか知らんけどHiresで何倍行ってんの 今の主流の作り方のフローはどうなってんの?
少し見ない間に取り残されていく… >>618
こいつがいきなり関係ない動画の話出して無知で自爆しただけじゃん >>633
今は二通りかな
その1 手は無視して速度重視
512~768で小さい画像を大量生成
↓
気に入った画像をCN+Tileで拡大
その2 こだわり派
512~768で小さい画像を大量生成
↓
顔をよくできるかADetailerで顔修正
↓
DepthLibraryとCNのインペイントでガチャ
↓
ADetailerで手を仕上げ修正
↓
最終仕上げとしてCN+Tileで拡大
Hiresは元絵と変わるから使われなくなった
代わりにCN+Tileが使われている
使い方は>>468
それと古いモデルは廃れていってる
古いモデルは100枚に1枚当たりだすが
新しいモデルは100枚に30枚以上当たり
でるので効率が段違い >>635
>DepthLibraryとCNのインペイントでガチャ
これ手の修正ね
手の修正はDepthLibraryとCNでガチャするのが1番早い 良く効率の話でハードの話ばっかされるけどモデル選びは重要だよ
モデルが違うだけで効率が何十倍も変わる
高価なハードに変えてもせいぜい数倍程度だろ >>636
そう不貞腐れるなよ
動きはおまかせの上時間かかるガチャじゃ解像度上げてもしょーもないだけだぞ >>635
……隔世の感があるw
512x512→1024x1024がSDXLと同じような作り方だから良いんかと思ってたら全然違うやり方になってるんだな モデルの作者にも課金してあげなよ
グラボより安いだろ >>640
CN+Tileあるから正直SDXLもいらないかなーとは思う またHiresおじさんが古い説教してんのか
少しは進歩しろよ 512x960をHiresで1024*1920
↓
加筆・inpaint等で顔や手や崩れを軽く修正
↓
CN Tiledで2倍に拡張(2048*3840)
↓
不満点を加筆修正
こんな流れで作ってるんだが少数派? Hiresで元絵と変わるって言っても、元絵悪くてもHiresしたらいい絵になるパターンもあれば、その逆もあるんだからどうとも言えなくね?
Hires使わない派が悪いって言ってるわけじゃなくて、道具なんて使いようだってこと CN+Tile万能厨の声がデカいだけな気もするのだが 実写の修正は難しい
単純なわいぜつ2d画像しか作らないような人はチンケな解像度でも問題ないと思う Hiresだけで満足出来る解像度になるのならまだ分かるけどな
その後更に違う方法でただの拡大するとか意味が分からん 絵変えて次は劣化させてな
馬鹿なんだろ
だから取り残される VRAMに収まる容量ならHires.fixやi2iのリサイズでお手軽アップスケールでもいいんじゃないかな
2Dは崩れてもいいし、なんなら崩したいまである、実写は崩れると欠損に見えるから崩したくないもわかる
使う人の用途で好きに選べばいいのよ tile使うとたまに境界筋が入るのなんとかならんのか Tileってt2iでいきなり使えないの?いちいちi2iに送るのが面倒なんだが・・
t2i側にScale Factorがないけど、こっちで単独で何に使うのこれ? X/Y/Z plotにHires. fixのDenoising strengthを設定する方法ない? sex:1.9とかにすると表情がヤク中みたいになって乳首とか奇形になるのはなんでだろうなんでだろう
2.5にするとケツの1部とか花瓶とか訳の分からん絵になるのはなんでだろう プロンプトを極端に強調しすぎた時の挙動はどこかで調べられてたりするんだろうかね civitaiのサンプル画像通りに出力されない時って何を疑った方がいいかな?
プロンプト、モデル以下の数値は全て画像の生成データに揃えているんだが、、 >>662
chunk付をPNG Infoに突っ込んでる?
あとどれかここにurl貼れば誰かが検証してくれる 3は流石に無茶だがClip skip上げれば2.3くらいまでは常用できる
描写のまとまりがほしい時はCFG上げてウエイト調整してからCFG下げるとまとまりやすい >>663
手作業でコピーしてます
これです
https://civitai.com/images/2006787
エロを作りたいわけではなく、本物に忠実に作りたい あれを忠実に再現できるのは作った本人だけでしょ
試してみたけどloraの強度も元の出力サイズも不明でなんか似たものしか出てこなかった 上の方でdesigndollの話が出てましたが、キャラにさせたいポーズを自撮りしてそれ取り込むってありですか?
ありだとしたら、やり方知りたいです。
i2i?
>>666
それ入れると、何かいいことあるのでしょうか? >>669
そうやって抽象的な質問すると誰も意味が分からんから答えられんよ
良いって何の話なんだよ
モデルの学習数か?女の子か?それとも男か?使い勝手か?誰も訳わからんだろ >>669
俺は6かな
6は他のバージョンよりも画像の色味が薄くて本物っぽさがある
人体の破綻しづらさなら7のほうが優れてるかもしれんが >>670
ごめんお
>>672
まだStableDiffusion歴一ヶ月未満なんだけど、確かに6が自然なフォトリアル感があると思う。
だけどネットで6はプロンプトの指定が難しいってのも見て、他の世代と比べてそこどうなんだろね。 >>673
実写寄りリアル系は基本的にプロンプトの効きが良くないのでrefinerを使うといいよ
2次元系のモデルを最初に設定しておいてrefiner欄で0.2あたりからbra6に切り替えるようにする BRA6はEasynegativeとの相性が良くなればなあ・・・ >>675
有益な情報ありがとうございます!試してみます!! >>668
> それ入れると、何かいいことあるのでしょうか?
思い出した
大昔(つっても半年強くらいだけど)のLora使うための拡張だった、今は標準で入ったから無用になったやつ
追加であるLora領域色分けの実験機能って今使えたかなあ・・8月のLoraだしかなり昔のwebuiで作ってるかも
X/Y plot使ってるかとか後からわかるのかは知らん
> エロを作りたいわけではなく、本物に忠実に作りたい
同レベルでだいたい出てりゃ正直どうでもいいかと・・物は同じなんだから本物超えていこう
Lora職人にはあくまで見本提示であって細かい最後の詰めのテクニックを隠してる人も昔から結構いて
たまに全部非公開(prompt、画像chunkどっちもなし)の謎な人までいる noteとかでai美女として無料で公開されてる実写系の中に、最近妙に本物っぽく見えるのがあるけれど、そういったものはSDXL使ってるのだろうか。質感が数ヶ月前と次元が違う。最新の実写系modelでも出た? その書き方ではどのレベルで驚いてるのかわかんない
BRAV6とかああいうの? 手以外最高の画像ができた
手だけ再生成するのってSDではどの機能使うんだっけか multiple viewsで一人を色んな角度の絵を生成しようとしても、それぞれ別人になって、もやもやしています。 キャラクターのLora使えばだいぶマシになる
えっちな絵の生成とmultiple viewは相性抜群よな 一人でいろいろな服装をさせようとすると
名前, 服装1, ...
名前, 服装2, ...
でLoraの学習をやるより
a名前, ...
b名前, ...
のほうが上手く行きやすいのかな
別キャラの服を着せたりするのが難しくなりそうなのはデメリットだけど プロンプト一発で反しないエロい体位やプロンプトってどんな物がある?
正直、騎乗位以外では結構な確率で破綻画像ができあがる
騎乗位以外でおすすめがあれば教えて欲しい >>688
色々な体位で作ってみたんだけど、騎乗位以外だとガチャ率がやたらと高くなってしまった
騎乗位がおそらく最も簡単、その次とかその次くらいに容易に作れる体位ってどんなのがあるかって質問 >>682を使うと顔までhand判定されて変わってしまうんだが、手だけ再生成させるにはどうすればいいのかな?
hand〜8n.pt使用、five fingerをプロンプト、bad fingerをネガティブに入れている フレイザードみたいな左右非対称のキャラは別アングルやりにくいのかな AIピクターズでの生成に関する質問はどこでしたらいい? バックは手の奇形率高い
あと結合部でチンボが押しつぶされてたり
グロい固まりになってたり、アナルに入ってたりと、とにかくイライラする アナルは面白いくらい入るよなあ
めんどくさいからアナルものとして出しちゃうけど >>694
ありがとう けど確かに過疎ってるなぁ
ピクターズの、顔に出来るヘンな青や真っ黒の模様なんとかしたい…
特に目周りで好発する ホラー級のグロ
ネガティブプロンプトに
ugly face, ugly eyes, ugly mouth, bruise around eyes, deformed eyes, black eyes, blue on face, any melted face especially mouth or around eyes
つってくどいくらい指定してるのに思いっ切り無視しやがる
週明けてアルゴリズムかなんか変えたのか知らんけど
更にメタリック調で硬そーなテカりが全体的に出やすくなってるしさぁ 誰得だよもう >>700
ちょっと書いてるプロンプトみても初心者っぽいのがわかるので触らないようにしてるんだよ LCMってSD WebUIで使えるようになるのかな
既存モデルのコンバートできないとしんどそうだけど >>695
>>686です。レスありがとうございます。体位Loraは使ってみたのですが別のキャラでも構図が完璧に一致して
ハンコ押したみたいになって物足りなくなり敢えてプロンプトでする方法がないか気になっています
>>696
バックはガチャになりがちです
あと腰も180度回転した感じになったりすることが多いです
プロンプトだと騎乗位以外は難しいのでしょうかね? >>699
40万出してもVRAMが24Gしかないのか・・・ >>705
ちょっと何言ってるかわからない
基本中の基本でモデルが学習していないものは認識しないOK?
プロンプトでーじゃないぞ、まったく。
モデルとLoRAがそのプロンプトを認識するかのレベルだぞ
個人の性癖暴露とかいい迷惑だ。いい加減にしろ >>707
nsfw系の色々なモデルで試してるけど、騎乗位は破綻なく出力される
しかし、それ以外だとガチャ率が異様に高くなるんだよ
だから、騎乗位以外でも問題なく出力されるプロンプト、モデルに依存するというならそういうモデルを探してる
ネットで見てもここの情報がなくてな
上でもバックだと失敗しやすいとかあるように、騎乗位以外の難易度が極端に高いと思うんだよ >>708
あのさあ、NSFWでも暴力、R-18、R-18Gとかいろいろある
だいたい普通のR-18ならどのモデルも入ってるしっていう話だろ
R-18Gとかcivitaiとかの普通の配布サイトだと多分NGだろ
POVとかもっと調べたまえ
ポーズが足りない・探し方わからないなら自分で鏡を使ってスマホでとる。
i2iで出来上がりな。
勉強不足だよまったく。 >>709
色々やても騎乗位くらいしかうまく行かないって話
POVにしても上で他の人も書いてるようにガチャになるんだよ
逆に騎乗位だとほぼガチャ無し
あとi2iやインペイントなどで頑張らなくても、単純なプロンプトt2iで気軽(ガチャにならない)に作れるエロい体位を探してる
もし知ってるなら教えて欲しいわ >>710
基本中の基本でモデルが学習していないものは認識しないって前にも書いたけどわかってないだろ?
体位も覚えてなきゃ出ないに決まってるだろ
だからポーズ専門のモデルとかLoRA使えって言ってんだけどな
実際のところどういう体位か知らんけど
まあ知りたくもないわ ”体幹が直立かそれに近い”以外は基本全部ガチャ
現状Loraとかなしには上下逆の顔もまともに出せない、90度横くらいから崩れだす世界なので
> バックはガチャになりがちです
> あと腰も180度回転した感じになったりすることが多いです
この程度をガチャって言ってるなら
> 単純なプロンプトt2iで気軽(ガチャにならない)に作れるエロい体位を探してる
SDに限っては、ない、ない、ありません
あるなら誰かがあるよ、これだよってすぐ出せるだろうから断言しとくよ(悪魔の証明の逆)
DALLE3とかがエロだせたなら結構いけるのかもね・・ アナル用のLora入れているが正常位以外は破綻しやすいな
ポージングが固定されてつまらないから色んな表情させている
次は衣装でも拘ろうかな 実写の顔が全然学習させられねんだがモデルが悪いんか バックからのエッチでDogStyleと入れると
稀に成功するが犬耳が付きがちなのが笑える
ネガティヴに獣耳と入れれば消えるだろうけど
可愛いからそのままにしている >>711
nsfw系だと同じ様なデータで学習してるからそれなりには出るぞ
あとlora言ってるけど結局はガチャになる
また、しっかり適用すると判子絵みたいになるから今は敢えて使わないようにしてる
>>712
普通の騎乗位だとほぼ全部キレイに出るから凄いと思ってた
だから、外の体位もうまく出るかと思ってたけど、今のSDだと無理なのか・・・
DALLE3凄いよな、エロが無いのが残念すぎる
>>715
やったわ、時々犬耳入ってるなw https://ul.h3z.jp/9hDW87wk.jpg
すみませんこのkoloとかいうモデルお持ちの方いらっしゃいましたらください!
あとでダウンロードしようと思っていま見たら消えてたんです
リアルで自然な幼女が生成できるらしいんですごくほしいです!! >>717
だからなんでそれなりに出るのかわかってないのか? >>712
一応DALLE3のエロチャレンジしてるところもある
いたちごっこ状態だけど
カーテーシーと、たまごから生まれたてのっていうので半分っていけてるところかな
完全に2プレイヤーのやつはアカンけど ID:UVXZp3Ohはなんでそんなに上から目線で攻撃的なの?
鬱陶しいから消えろよ >>717
騎乗位と似たような構図だがAV正常位なら出せるよな >>722
お前が来なければ問題ない話だろ
ID:bg86ZdJIが一番ごみなような気がするな
生産性のある発言しろや 荒れそうになった時はお勧めのモデルの話をしようぜ
ロリ系で頼むロリ系ならアニメでも実写でもかまわん AI関係を潰そうときな臭くなってきてるしな
日本の優位性を失わせたい人たちが動いてそう >>706
L40sなら48GBあるしH100みたいな激高ではないしどう? >>724=ID:UVXZp3Oh
ゴミがいっちょ前にID変えてがんばってんじゃねーよカス
エロ画像生成でそこまで偉そうにできろのがすごいわw >>723
だね
このレベルの絵なんて自分では描けないから十分ありがたいんだけど
SD触った頃は結構万能だと思ってたけど
ガチャ無しで一発で出そうとすると正面から以外は難しいと最近気づいた
それもベッドに寝たり騎乗位になったりうまく指定ができないわ
あと最近はいい絵の分類が面倒でImageRewardでperfect anatomy指定して
スコア出してある程度選んだりもするけどそれでもうまく分類できない
>>727
200万円は高すぎる、どんなに高くても4090の2倍位までだわ
というかそういうの見てると4090でも高いと思ってたけど安く見えてくるから怖い
でもそのレベルのGPUがアホみたいに企業には売れてるらしいな
5000系それなりのスペックで売り出してくれるか不安になるわ >>728
そうやって人をあおったりしかできない教育を受けてきたのは悲しいねホント
開示請求していいよね? >>730
出たウンコの宝刀 開示請求wwww
じゃあ僕もあなたの>>724と730について
根拠のない誹謗中傷かつ排除的な発言について
かいじせいきゅうしますねw どうでもいいが相手の発言を封じたりする目的で開示請求すると言って実際にせんかった場合、強要罪や脅迫罪になる場合あるから気をつけるんやで
「相手に不利益を与えることをほのめかして、自分の望む行為をさせることを目的としている」と判断されるからな >>731
そもそも人違いしておいてそれはひどいな お勧めモデル聞いといてなんだけど
自分で良さそうなの見つけたわ
シビタイでCuteYukiMixってのだが
作者は中国人かな?中々いい趣味してるな >>725
ロリじゃないエロ虹だけど以前は
AOM2NSFW
最近はこのあたり使ってる
絵もいいけど何より破綻なくでる所が良い
kizukiAnimeHentai_animeHentaiV2
kizukiAnimeHentai_animeHentaiV3
richyrichmix_V2Fp16
donutholemix_v10
Loraによって得意不得意があるからS/Rで回してチェックして使う
アニメとかのLoraでオリジナルに近づけたい時は
anyloraCheckpoint_bakedvaeFtmseFp16NOT >>735
AOM以外は初めて知ったなありがとう
今から探してみるよ
最近のモデルは良いよね
ネガティヴ最小限でも破綻は少ないし
手がきれいなのが多くてガチャ回数が少なくて助かる
モデル比較とかググっても未だにAnythingとか古いモデルの
記事ばっか出てくるんだよね >>736
CuteYukiMix(Civitai見ただけ)とだいぶ違ってて
ざっくりだけど全部AOMを洗練したような感じだからAOMが好きならかなりいいけどCuteYukiMixが好きだと微妙かも
特にvaginaが破綻することなく綺麗に出力されるのが長所だと思ってる
手はbadhandv4とかはするけどどのモデルでも難しい、諦めて見せない構図にしてる
実際どのモデルが良いかわからないから、CiviでLora見つける時にモデルも同時に見つけて良さげなものをダウンロード
ある程度溜まったら、よく使う構図で全てのS/Rで全てのモデルを回して良いのを普段使いしてる
そういえば、可愛い系だとFuwaFuwaMixとか友達から高評価貰えた、
手は隠した構図だけど以下プロンプトあたりを追加すると手描きっぽく見えるかも
<lora:flat2:1.5>(bigger face,child--face,kantoku-style,smile,(wide-eyed:1.1):1.1) 界隈がある程度こなれてきてポコポコマージモデルが生まれるようになったからな
常人じゃ追っかけるの無理すぎて元から情報のあるものをパクってくるしかない 久しぶりに三次元に手を出してみたけど凄いな
絶句したわw
体の性徴具合が反映されるんだな
逆にアンバランスなのが出来ない マージといえば一切のmixがないオリジナルモデルっていったいいくつあるんだ? >>740
それなら、具体的に、どのモデルを使ってるの?列挙して欲しいわ ウイスキーみたいなもんだろ
シングルモルがーとかシングルカスクがーって言ってるだけ https://www.liblib.ai/modelinfo/0553cdb40cb64293b62226ad6e76c9ad
これのkolo-realisticバージョンが>>718のやつだと思うんですけどダウンロードしようとしたらliblibaiへの登録を要求されました
でも+86とか頭についててどうも中国電話番号じゃないとだめっぽいんですがどうすればいいでしょうか??! ブラウザ起動時にControlNetの折りたたみがされていない状態にすることって可能でしょうか?
ControlNetの折りたたみを解除するために毎回マウスに手を伸ばすのが結構手間で… >>749
あらかじめenableチェックはui-configでできるけど開いてるのはないはず
https://github.com/ilian6806/stable-diffusion-webui-state
こういうのあるけど、もう更新してなくてwebui1.6じゃ中途半端にしか動かなかった
もしかしたらまだ望みの動きするかも?
しかしワンクリックが面倒とか・・
webuiなんてそんなしょっちゅう起動するもんじゃないでしょw
立ち上げたまま裏でずっと放置してるわ(メモリ充分だからかもだけど) >>750
thx こっちの環境でも無理だった。
普段使いchromeなんだが、ずっと起動してると重くなるから定期的にブラウザ再起動してるんよね。
難しそうだし、FirefoxをStable Diffusion専用みたいな状態にして運用するかな。 XLてなんであんなにLora含めモデルサイズでかいの?
Loraだけで300とか800メガとかいっぱいダウンロードするの無理すぎやん
将来的に数十メガに圧縮出来る予定とかないの? >>749
ソースをいじれるなら以下のような感じでopen属性の変更とSD再起動で可能だけど
```
#stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py
with gr.Accordion(f"ControlNet {controlnet_version.version_flag}", open = False, elem_id="controlnet"):
#↓
with gr.Accordion(f"ControlNet {controlnet_version.version_flag}", open = True, elem_id="controlnet"):
``` >>744
持ってるけど容量多いからアプロダとか探してアップするの面倒だわ
他に方法はSDカード送るくらいしか無いだろ >>754
thx 出来た
にしても他のパラメータも気になってきた
これを機にpythonの基本くらいは抑えておこうかな sdに限らず、生成aiで既存の画像を加工するサービスってある?
竿役をデブにしたい日もあればマッチョにしたい日もある 超サイヤ人のオーラを可愛い女の子から
出したいんですけど良い方法無いですか?
https://i.imgur.com/kQ67T2Q.png
試したこと
プロンプトで超サイヤ人とか
イエローオーラとか入れても出ませんでした
悟空LoRAを使うと筋肉質のDB風の絵になり
女の子どころか筋肉質の男になりました
マウスで書いた手書きの下手な絵を食わせても
でないどころかブサイクな女の子にしかなりました サイヤ人の女いないから学習できなくて無理
しらんけど Dragon Ball KI Charge (Aura) | Concept LoRA snakajima(@Satoshi Nakajima @NounsDAO 🇺🇦)さんがポストしました:
AIの開発には、これまでGPUを搭載したLinuxマシンが良いとされて来たけど、LLMの推論にはメモリ容量が何よりも重要。
パソコン向けのGPUだと24GBが最大。サーバー向けだと50GB搭載したものがあるけどやたらと高いし入手が困難。そうなると、Unifiedメモリを96GBまで搭載できるMacBookのコスパが最強。
https://x.com/snakajima/status/1711867924858953958?s=51&t=v_xy-gl7y1zQf182MLmXWg
え?そうなん?NVIDIA搭載WinよりMacBook Proが上なん? macの共有メモリってそんな速度や帯域性能あるんか 生成処理が完了した時って完了ログみたいなものがどこかのテキストファイルに吐かれてたりしますか?
もしそういうのがあれば、それをトリガーにして自動で別タブの生成を開始するスクリプト書こうかと考えています。 Apple「ウチの8GBはヨソの16GB並みの効果」(公式・意訳)
だからあるんじゃね(適当) 耳が出てるボーイッシュなショートヘアにしたいんだけどvery short hairでもボブになる
モデルやLoRAが対応してないんかな
適切なプロンプトがあったら教えて bare earとearringとかで耳を描かせるように指示しておけば
大体の髪型で耳だししてくれる >>767
1girl,(shaved sides,very short hair,tomboy:1.4),
とかでそこそこの確率でベリショになる気が >>764
MacののユニファイドはGPUにも割り当てられるみたいやからそうなると割りかし最強候補?だったりするんかなあ
コスパ的にもMacは有り得んと思ってただけに、、、はてさて困ったぞい >>772
M1MacUltraのユニファイドメモリーの帯域800GB/s 128GB
4090の帯域 1008GB/s 24GB
ただしAIはCUDAライブラリに最適化されてるnVIDIAが今の所有利
https://www.apple.com/jp/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/
メモリ帯域幅は、最新のWindowsデスクトップパソコンのチップの10倍以上となる800GB/sまで増加し、M1 Ultraは128GBのユニファイドメモリで構成 >>762
こんなのあったんだ!これが欲しかったんです!
ありがとうございました 西洋人モデルに挑戦してるんだけどどうも足が太ましいと言うか肉肉しい感じになるんだよね。グラマーって言った方が良いのかな。息子に聞いたら「このみじゃない。」言ってるからスクリプトで工夫出来ないか試行錯誤を試みてるけど上手く行かん。誰か良いモデル知らない? >>771
リンクありがとうございます
モデルの相性悪いのか顔が酷く崩れたんですけど
ADetailerの顔修正使ったらモデル
本来の可愛い絵に戻せました
オーラもちゃんと出ています
ありがとうございました >>715
view of birds eye これは部屋の中でも鳥さんがいるし、
cowboy shot そこそこの確率でカウボーイの帽子、稀に牛の角w
pussy 猫耳が付く
〜shot 銃らしい鉄の塊が落ちてる >>773
そういえば画像や編集って昔からMac強いよな
美術の先生とか昔からMac使ってたわ ブッサイクな顔を強引に綺麗にする
ADetailer凄いなこれ神では
手の補正はおまけ程度だけど 顔は雰囲気変わりすぎるからあまり使わないな
手はガチャの回数激減するから重宝してる ADetailerの手って質感を足すだけで形に影響なくない? 手の形変えるならDepthLibrary+CNが1番良いよ
手修正のガチャ回数激減するからお勧め
使い方解説はYouTubeにたくさんある >>779
Adobeのソフトがマック向けに作られてたから昔はデザイン界隈はマック一択だったその名残り フォルダの画像を見に行って、髪の色が緑じゃないキャラ画像は別フォルダに飛ばす(もしくは削除)みたいなことってできますか?
目的としては、大量生産したAI画像フォルダで目的の色じゃなかった場合の画像処理を何とかしたいからです
Dataset Tag Editorではキャラ画像の髪の色を検出できているみたいなので… adobeっていうか出版関連(DTP)がMac以外ありえんって時代があった >757
アップロードとかさせるなよ。
登録画面の下に微信登録、つまりwechatで登録できるアイコンあるやろ。
押したらQRコードが表示される。
スマホでwechatアプリ落として電話番号で登録してwechatのアカウント作って
アプリの右上の+押してスキャンで読み込めばPC側でliblibaiのアカウント登録画面に
入れてダウンロードできたわ windowsは色に無頓着だったので、DTP系はMacしか選択肢がなかった
印刷すると色が変わったら仕事にならないので、それもあってソフトもやたら充実してたとか
>>785
Dataset Tag Editorで
・Negative Filterで「green hair」を選択(一覧画像がgreen hair”じゃない”やつだけになる)
・Move or Delete FilesタブにしてAll Displayed OnesにしてTargetにチェック付けてMoveかDelete押す
(tag付けにミスあるかもなので、一応別のフォルダ指定してMoveにしといたほうが安全) >>773
まぁAI画像生成に限ってはGTX3060搭載マシンにも勝てないだろうね
Macも持ってる俺が強く言いたいのは、AI用途も考えてるならMacは絶対にやめとけということだ
デザイナーとかの仕事でMac使ってる人が「これでAI画像も作れるかな~家のPC古いからなぁ~」ぐらいのノリでしか使えないよ マックとかいうゴミの話は
すれが無駄になるので勘弁して欲しい 人間の歯が混入している人肉ハンバーガーの話はやめろ macでもDirectMLのSDで動くのでできないわけではない
優位な点は特にないのでわざわざ話題にするほどでもないだけで 右クリックがないインターフェースは嫌い
SDでハード絡みといえば、webuiローカル環境でLoraとかモデルを取っ替え引っ替え長時間生成してると生成が遅くなったりOS巻き込んでフリーズしたりするんだけどこれっておま環かな
エスパーとか心当たりがもしあればご教示願いたい
win11メモリ32GBで4060使用 >>797
イベントビューアーみればまれに解決する
あとは電源が足りてないとかGPUが壊れかけてるとか室温が高すぎるとか
win10 128 4090でやってるけど偶に落ちる
個人的にはそもそもOSの処理に限界があるんじゃないかと思ってる
これってとんでもない量の演算させてるわけで・・・ >>788
ありがとうございます神!!感謝感激!!!
WeChatもQQも登録できなくて数時間苦闘してたんですがいまなぜかひょっと行けましたやったぜ!!!!!!! >>799
そこら辺を登録したくない奴のための配慮はするんやろな? >>789
ありがとう!
Dataset Tag Editorにあったのね。ほんと優秀な拡張機能だ >>799
liblibaiせっかく登録してみたから見てみたがwfchildの方がかわいくないか?
まあ、AI顔なのかもしれんけど
アジア人モデルが多いのは良いけど目につく限り、美人は同じ顔のモデルばっかだな
あと18禁の画像でも露出の多い服なだけで乳首も出てないw >>797
settingsでLoraを複数(5つ)メモリ許可して一度なったわ
マウス移動に合わせてPCのどこからかピーとか変な音がして、もう完全にぶっ壊れ状態
イベントビューアには警告すら上がってなかった
webui全部終わらせてもリソースモニタに上がらないメモリ大量に消費されてて明らかにリークしてたと思う
結局戻したけど、今でも
Maximum number of checkpoints loaded at the same time 0
Only keep one model on device チェック
Checkpoints to cache in RAM 0
なのに使用12GB(普段はせいぜい6GB)とか行ってる時があってたまにwebui再起動かけてる >>773
なるほど
Macは昨今のAIブームのPCとしては選択肢から外してたけど割と最適解だったりするんだな >>798
電源が不安定説はありえそう
あとはオーバークロックの設定がきつ過ぎるとか
Windows10で64GBで3060だけど追加学習で1日とか回してみても落ちないな 2年に1回できれば1年に1回は
クリーンインストールした方が良いよ
3年ぶりにクリーンインストールしたら
安定感上がった上に爆速になったよ >>798
WLS2 REG ECC 128GB 4090だけど落ちないな
PL MAX 71℃にしてるので割と静かだよ お試しでCPUでやってた頃は落ちまくったな
電源オプションでCPU99%にしたら落ちなくなったけど
webuiは全体的にメインメモリ不足で不安定になる感じ
GPUはtensorRT変換時のVRAM不足ブラックアウトくらいでド安定だな comfy Uiなら落ちないとか有るのかな?
より安定してるなら乗り換えてみようかと 今まではオリキャラしか生成してなかったけど
版権キャラをLoRA使って脱がすのは背徳感あってええな🥰🥰 >>800
アップロードダメって神に釘刺されたんでムリですねぇ… >>814
人にアップさせようとしといてそれは無いだろ アナルセックスLoRA使っていたけど
オリキャラでは問題なしだったけど
キャラLoRA使った途端にセックスすらしなくなった
別のアナルLoRA使ったらアナルセックスしまくり
こんなことってあるんだな参考までに
ちなみに使っているアナルLoRAはこれな
POV Missionary Anal + Creampie LoRA
Close Up Anal Creampie LoRA >>805
帯域幅だけあって何をすんねん
帯域幅だけあってできるんだったら苦労しねえわ >>797
>右クリックがないインターフェースは嫌い
これがもしMacのことだとしたら、一体いつの話をしているのか >>817
一応言っておくけどここpinkの方じゃないからな >>817
上でも出てたけど、騎乗位とAV正常位以外は難しくガチャ回すしか無いと思う
あとは枚数が少ないならインペイント >>805
Microsoft、AI半導体を自社開発 ChatGPTの性能向上も
https://www.nikkei.com/article/DGXZQOGN14DXQ0U3A111C2000000/
ビッグテック各社がAI半導体自社開発に移行してるけど、アップルはとっくにやってて先頭走ってるからね
そう遠くないうちにNVIDIA一強状態は崩れると思ふ >814
wechatで迂回登録できるのに手間をかけさせるな、程度の意味で、
どうしても中華登録したくない人のためにアップロードするのは好きにすればいいのでは。
マージと生成画像販売は禁止されてるけど再配布禁止は無かったはず。 久しぶりにピング板見てきたけど
やっぱあいつらレベル高いわ
情熱で動くやつは探究心が違う PINK板は正確には5chではない
最上位の階層はここ
https:www.bbspink.com すみません、先駆者の皆様に質問させてください。
画像生成用の環境にRTX4080 搭載のPCを買おうとしてます。
以下のリストからどれにしようか迷っているのですが、
仮に皆様が買う立場であるなら、どれを買うか(可能であれば理由込みで)コメントいただけないでしょうか?
よろしくお願いします。
https://www.pc-koubou.jp/pc/geforce_rtx4080_level_desk.php >>833
ありがとうございます。
自分の中での最有力はそれです(一番安い)
ただ、オプションによって冷却方式とか違うので
その辺りも気にした方が良いのか…とかで迷ってます、、(その辺り有識者からのコメントを参考にしたい >>832
CPUはi5でいいしメモリは後から足せばいいしストレージも足りなくなったら外付け足せばいいんで一番上でいいんじゃない?
ただ個人的にOSは外出先から触りたいのでリモートデスクトップができるようにプロにしたいところ。 自分なら画像生成で4080買うくらいなら
もう少し頑張って4090買うか3060で我慢する
なのでどーしてもその中なら安い一番上
OSはうちもリモート接続でプロにしてる >>834
一番安いのでいいんじゃないかな
そのページにある冷却方式はcpuに対してなんで
gpuに負荷をかける画像生成には関係ないから
冷却方式は通常の空冷で問題ないよ
メモリはもう少し欲しいかなと思うけど
マザボの情報からメモリスロットに空きはあるみたいだし
実際に使ってみて足りなければ買い足せばでいいんじゃないかな >>835-837
ご助言頂きありがとうございます!
自分も出来ればrtx4090が良いのですが、懐事情に問題がありまして…(無念
冷却方式はあまり関係ないんですね…メモリなどは後で拡張可能とのことなので、今回は一番上のを購入しようと思います。
リモート接続もできたら便利ですね…pro版へのアプグレを視野に入れておきます! すぐに飽きる人が多いから4060買って
不満ならもっと良いのかって4060売れば良いだけでは
いきなり高学商品買っても無駄になることは多いよ
俺も長い事やってなくて久しぶりにここに来たし 自分は元々持ってた2070SUPER1枚から始めて、ノってきたから4070tiを追加で1枚、
さらにノってきたからひとつ前のPCを引っ張り出して4070tiをさらに1枚購入って感じだった。
今になって思えば最初から4090買うべきだったって思うけど、まあ未来のことなんてわからんよな 絵描き入門でペンタブ買うときは安物の板で良い
いきなり高級液タブとか買うとそれで満足して終わる
入門は敢えて最低ランクにしておけ imminent penetrationって呪文見つけてシチュエーション自体はめっちゃツボだからいろいろ試してるけど、
完全に行為が始まってるか全く関係ないかの画像しか出力されない…
もしうまく使いこなせてる人がいたらコツとか教えてほしいです。 道具にお金かけるのはお金かけてでもやり続けたいと思ってからでも遅くない 2017年に買ったFire7で絵作ってるのでWebUIとか高嶺の花 >>846
一応言っておくけどここpinkの方じゃないからな bingでまあまあの確率でパンツ描かせることができるようにはなった このスレで何度も言われていることだけど
RTX 4090 か
RTX 3060の12gb
結局これしかないんですわ >>720
カーテーシーはなんとなくわかったけどたまごから生まれたてのってのについて詳しく教えてほしい >>854
厳しいよ
プロンプトで弾かれやすいし通っても生成画像に対するAIでのエロチェックも通過しないといけない
直球表現はまず駄目、回避できる文言を探していく感じ
成功しても今のところ微エロが限界
モロ乳首とかは当然無理 飽きたら売ればいいやとおもって4090買ったけど買って良かったわ bingは自然言語で色々試せるのが楽しいスマホでポチポチするだけだし bingは一定期間中にNG判定の画像が多く生成されると即座に永久使用禁止処分になるらしい 生成画像の判定はいくらNGくらっても大丈夫、プロンプトNGしまくるとアク禁、初回1時間→2回目24時間→3回でBAN 以前スレに書き込んだ賞与が出たら自機をメカ絵師に描いてもらうと言っていたレイヴンの人、結局絵師に断られたうえにメカ絵師お決まりの「AIに描いてもらえよw」発言で鍵垢になっちゃった
なんつーか萌絵師とメカ絵師と背景絵師でAIに対する姿勢がかなり違うよな >>862
結局時間無駄にしただけだっていうね
グラボもそうだけど RTX 4090を買うのが一番なんだよ
結局遠回りして同じ結論にしか達しない
もし不満があれば売ればいいし >>854
NGのはずなんだけど、プロンプトを工夫すると乳首も出ることがある
なんJNVA部にはbingで出たエロ絵がよく投稿されているよ…なんだけど、昨日からみんなNovelAI v3に夢中なので今は探すのが大変だと思う >>852
マジこれ
ぶっちゃけエンジニアでもクリエイターでもない奴が生成AIを始めるなら3060からでいいと思う
ハマったら4090買えばええし マジでそれな 興味本位でやってみたいなら3060でいい 金が余ってしょうがない奴は4090でもいいが bingで剣を何とか(忘れた)ってプロンプト書いたら引っかかったのに、剣をナイフに替えたら通ったことが
NGのラインが分かりません 箇条書きでプロンプト書いてるとして、書き順でもNGされなくなったりするんよな 画像も動画もComfyUIの方がやっぱいいな
速度が結構違う chichi-pui画像生成地味に保存画像数が大幅パワーアップして過去に生成した画像も見れる
ローカルの生成するよりかわいく出来るのと背景もプロンプト通りに反映されやすいから地味に好き NAIv3の盛り上がりってLoraなしでも版権キャラがそこそこ出るとかそういうレベルの話?
もっとなんかあるの?指めっちゃ綺麗とか? V3は版権絵ほぼまんま出るぞ
版権絵作りたいならV3だな SDXL 1.6でi2iをすると以下のエラーが表示されます。
Stability Matrix 2.6.0 内の、Stable Diffusion 1.6
RTX3060 12GB (ドライバはStudio 564.01とGame Ready 546.17 両方試しました。)
生成設定は、
checkpointはsdxlbase_1.0 / SA VAEはsdxl_vae / Refiner checkpointはsdxl_refiner_1.0 /
バッチカウント3 / 1024x1024 / 他は何も変えず、Extensionsも何も入れてないです。
上記の設定でt2tは綺麗に動作しました(ETA約3分)
次にi2iで生成すると、ETA約3分と表示され動いていたのですが、1枚目が綺麗に出力された後に、
RuntimeError: Tensor on device meta is not on the expected device cuda:0!
と表示され生成が止まってしまいます。
一度再起動してからi2i生成してみたところ、今度は生成開始直後に、
NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture,or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
というエラーが表示されました。
settingsから「Upcast cross attention layer to float32」にチェックを入れてみても同じエラーが表示され、
追加で、起動オプションに「--disable-non-check」を入れてみても同じエラーが表示され、
更に追加で、起動オプションに「--no-half」を入れてみたところ、i2iが動くようになったのですが、
上記のRuntimeErrorの時の1枚目ですと画像1枚出るのは1分はかからなかったのに、
こちらはETA表記が15分くらいになっており、かつ絵もあまり良くないように見えました。
「--disable-non-check」単体でも動いたのですが、同じく生成に15分くらいかかってしまい、クオリティも高くない様な?
どうすればまともに動きますでしょうか。宜しくお願いします・・・。 >>877
SDのLoRAから再輸入してたら笑うな 出やすいのはいいんだけど
素材の絵そのまま?って例もあるようだから
もっと検証が必要だね 有名オタ向け作品のLoraやエロポーズLoraとかを内部でコツコツ製作して、キーワードに対応させて呼び出してると予想
このやり方の場合、
・ドマイナー作品、普通の作品
・超有名昭和作品のLora作り抜け
とかは綺麗に出ないから切り分けられる
ネット上にはいくらでもあるので、学習させたのなら出ないとおかしい
誰かやってみて、巨人の星とか、美味しんぼとか >>879
なんかグラボが途中から全然効いてないような・・
> 一度再起動してから
これはwebuiの話?PC再起動はした? >>868
RTX 4090が23万円で買えたのに
今RTX4090が29万円までしている
メルカリで買った値段よりも高くなっちまう >>883
再起動も試してみたのですが、同じ症状でした。 >>885
Stability Matrixはよく知らないんだけど、2.6にしたらなったってことでいいの?
ずっとやっててSDXL使おうとしてなった?何もかも初めて? CPUにGPU内蔵されてるアレで、なんかの拍子に3060からそっちに命令送ってるように見える TensorつかうならTensor用のモデル作れって話
みんなめんどくさいからそんなことしねえ NAIv3のプロンプトで高画質・良質出るのない?
v2はとりあえず{{{best quality, very aesthetic}}}これ貼っておけばいけるけど >>888
ああ、NVidiaの早くなるあれかw
使ってないからわからなかった
ということです>>885 tileにチェック入れるだけで分身したりタコ足になるんだが何が問題なんや >>892
分割された画像それぞれに1girlを反映しようとするから分身する
Tileで何をするつもりだ?拡大するつもりならCNと組み合わせろ >>886
4ヵ月くらい前まで従来?の手動でwebUIを使用していて問題なく動作してました。
SDXL周りが固まってきたようで、久しぶりに0からMatrixでSDを導入しました。
>>888 >>890
MatrixのSD1.6をアンインストールして再インストールしました。
試しにSDXLのt2iで作成した画像をi2iに持って行くと、batch count 3 でも問題なく動作しました。
i2iの読み込ませた画像は以前自分が描いた512x512だったので、そこら辺がおかしかったのでしょうか。
と思ってSD1.6を再起動してもう一度i2iをしてみたところ、また>>879と同じ症状が・・・。
webUIの初回起動時と2回目以降だと、何もいじってないのですが、何かが違う様子でしょうか。
i2iでもbatch countを1にすればエラーなしに1枚出力されるのでこれで我慢するしかなさそうでしょうか。
すみません。Tensor用モデルというのは、なんでしょうか?
chackpointやvaeやrefinerの「.safetensors」拡張子のtensorとは別でしょうか。 質問です。
Google colab環境で画像生成しています。拡張機能のdynamic promptsを入れてみたんですが、{A|B}と入力してバッチカウントを10にして生成したところ、Aの画像が10枚生成されます。AABABBBAとランダム生成されるのかと思っていたんですが、こういう仕様なんでしょうか?
combinatorial generationにチェックを入れても、AかBどちらかを選んだあとで複数の画像が生成されてしまいます。 >>894
正式名称はTensorRT
早くなるけどなんかそれぞれにいちいち構築しないといけないとか聞いてるので手は出してない
そういえばExtension入れてないって書いてたね、関係ないか
> i2iでもbatch countを1にすればエラーなしに1枚出力されるので
そもそもi2iでbatch countってなにするんだっけ・・そういう使い方したことないので
batchタブでフォルダを一括i2iとかは使ったことあるけど >>894
StabilityMatrix\Data\Packages\stable-diffusion-webuiの中のwebui.pyをimport osとimport timeの間を変更してやれば回避できると思う。
import os
os.environ['PYTORCH_CUDA_ALLOC_CONF'] = 'garbage_collection_threshold:0.6, max_split_size_mb:128'
os.environ['CUDA_LAUNCH_BLOCKING'] = '1'
import time 1111についてディレクトリを変更しても拡張機能なども問題なく使えますか? Loraの出来にそんなに不満はないんだけど、俺がsd1.5でLora作ると9MBくらいになるんだよね、civitaiとかに置かれてるやつは最低でも36MBとかもっと容量が大きいんだ
何か欠落してるのではないかと不安になってしまう >>896
batch countの数だけi2iの画像が出力されるので候補が複数枚一度に出て楽だなと思い使っていました
別方法で1度に複数枚を模索した方が良いかもしれませんね・・・
TensorRT対応のドライバかとは思いますが設定はしておりません
教えて頂きありがとうございます
>>897
webui.pyに追記しましたが、やはり cuda 0 のエラーが出てしまいました
PC再起動もしてみたのですが ぐぬぬ
コードまで添えて頂きありがとうございます 既出の質問だったら申し訳ありません。
kohya-LoRA-dreambooth.ipynbでlolaの学習してるんですが、
ファインチューニングというか保存したモデルを使って追加学習するやり方が分かりません。
network_weightに設定しても下記のエラーが出てしまいます。どのようにすればよいのでしょうか?
〜〜〜
(前略)
KeyError: 'time_embed.0.weight'
(中略)
CalledProcessError: Command '['/usr/bin/python3', 'train_network.py',
'--sample_prompts=/content/LoRA/config/sample_prompt.txt',
'--dataset_config=/content/LoRA/config/dataset_config.toml',
'--config_file=/content/LoRA/config/config_file.toml']' returned non-zero exit status 1.
〜〜〜 >>900
> batch countの数だけi2iの画像が出力されるので候補が複数枚一度に出て楽だなと思い使っていました
なるほど
seedランダムのinpaint修正ガチャで一気にやるのもアリか・・考えたことなかった
勉強になります >>899
network dimensionの値を8とかにするとそれくらいのファイルサイズになると思う
network dimensionの値を大きくすればファイルサイズも大きくなるけど、
LoRA作成時のメモリ使用量も大きくなるので大きくしすぎるとエラーで落ちるので注意
network dimensionの説明は検索してください >>895
それはおかしいね
念のため、「Dynamic Prompts enabled」はオンにしてるかな >>898
1111をどうやってインストールしたかによるんじゃなかったかなー
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
からsd.webui.zipをダウンロードして、update.bat→run.batと実行してインストールした場合は1111をインストールしたフォルダを移動できたはず
git cloneからとか1.6.0をインストールした場合は1111をインストールしたフォルダを移動するとなにかが起きたような気がする
不安なら移動したい先に1111を改めてインストールして、modelsやembeddings、extensions、log、outputsフォルダと、styles.csvをもとの場所からコピーしてくるといいよ
config.jsonとui-config.jsonは新しいのと古いのをWinMergeで見比べながら、必要な項目だけ新しい方へ転記する 3060のBTOでおおすめある?
相場どれくらいなんやろか picobyteのtagger使ってるんですけどAdditional tagsにワード2つ入れるとtxt毎に先頭のワードが入れ替わるのはどうにかできないですかね? 指の破綻を減らすのに、グーとが手刀のように、指がまとまるようなプロンプトないですか?
結局、指を隠すほうが良いんだろうけど --precision full入れたら
RuntimeError: mat1 and mat2 must have the same dtype
ってエラー出て動かないんだけど、誰か分かる人いますか >>912
必要情報書いてなくてすみません
webui SDXL1.6
お恥ずかしながらグラボ1660です…黒画像とNansExceptionエラーがひどくて、
wiki見て--precision fullが必要って書かれてたので導入したんですけど今度はmat1 and mat2 must have the same dtypeで動かなくなりました。
issue見ると解決してない人はいるみたいなんですが具体的な回避方法がわかりません… >>805
解決しました!
dynamic promptsをダウンロードするのにごちゃごちゃやりすぎて、extensions-builtinのフォルダにもダウンロードしてしまっていたのが原因のようでした >>913
どのタイミングで出るの?起動?生成?Loraは使ってる? >>915
ありがとうございます。起動は問題なくできます。生成ボタンを押すと出ます。
Lora使用無し、起動して何も設定をいじらずサイズ512x512で生成ボタン押しただけで出ます。
32upcastも関係ないようでした… 全て916です
今の起動構成ですが
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--xformers --disable-nan-check --no-half-vae --medvram --precision full
call webui.bat
です。 モデル(checkpoint)とVAEは何?extensionはなんか入れてる? >>918
モデルはmeinamix_V11です。VAEはautomaticになってます。extensionは何も入れてません。
一昨日最新をインストールし直したばかりなのでほとんど手付かずの状態です。 >>920
--no-half入れたら改善しました!嘘みたいだ、ありがとうございます…
--precision full抜くと黒画像になって困ってたのですごく助かりました。本当にありがとうございます。
>>921
確認してませんでした。申し訳ない…
一応CounterfeitXLでも再現しました。
エラー出たり出なかったりで不安定みたいんですが、ちょっと起動構成いじったりしてなんとかしてみます。
また分からなくなったら来ます。今度はもっと詳しく書きます、申し訳ありませんでした NAIv3で1万枚ほど生成してみたが出来栄えは良いがつまらないな
生成AIって何なんだってなってる 最近t2t, i2iで画像生成しても、それがoutputのtxt2img-imagesフォルダに保存されません。
(条件は不明ですが、保存されるときもあります) txt2img-gridsやdetected_mapsだけは保存されます。
理由がよくわかりません。中国語のLoraを入れ、
画像生成してからおかしくなった気がします。改善方法はありますでしょうか? t2tではなく、t2iでした。すみません。
txt2img-imagesフォルダの中に生成した日付のフォルダ自体が生成されません。 質問です
Dataset tag editorとpicobyte/wd14-tagger で1girlとかプロンプト1個しか返してくれない現象が発生しています。setting内のtaggerのMaximum number of tags~のスライダーが1になっていたので100にしましたが変わらずです。
閾値0.35とかの設定はデフォルトのままだし、他の拡張機能を全部外して単独でWebUIを起動したり、venvやpythonを入れ直したりしても変わりません。
別のフォルダでgit cloneした環境ではその問題が起きてないので、そこからextentionsを上書きしましたが駄目でした。
他に確認する事項はありますでしょうか? PCを再起動したら直りました
スレ汚し失礼しました >>925
設定のフォルダ指定する場所付近にサブフォルダ作成するかチェック入れるやつあるからまずはそこを確認 >>924
画像がどこに生成されたかわからないときはEverythingをインストールして「ext:png|jpg」で検索して日付順に並べ替えてみるといいよ
「表示」-「大アイコン」でサムネイル表示も可能 >>908
そうなん?ただどのパーツ買い揃えていけばいいのかイマイチよく分からんのよなあ
ずっとMac使ってたからwでもこの際だから自作に挑戦してみるのも有りかもしれん
誰かコスパ重視で各自作パーツを全て教えてケロ(´・ω・`) >>0928
ご返信ありがとうございます。
>設定のフォルダ指定する場所付近にサブフォルダ作成するかチェック入れるやつ
saving to a directoryのことでしょうか?
その中にある項目
・Save images to a subdirectory
・Save grids to a subdirectory
にチェックし、Reload UIをしてから画像生成しても同じ結果でした。
paths for savingの値もそれぞれ、見本のサイトと見比べて同じでした。 >>0928
ご返信ありがとうございます。
>設定のフォルダ指定する場所付近にサブフォルダ作成するかチェック入れるやつ
saving to a directoryのことでしょうか?
その中にある項目
・Save images to a subdirectory
・Save grids to a subdirectory
にチェックし、Reload UIをしてから画像生成しても同じ結果でした。
paths for savingの値もそれぞれ、見本のサイトと見比べて同じでした。 >>904
情報ありがてぇ
調べて色々試してみます >>930
RTX 3060 の 12 GB
後は適当に >>929
情報ありがとうございます。
教えていただいた方法でファイル場所を特定できました!
パス: C:\Users\ユーザ名\AppData\Local\Temp\gradio\3cdde4b31c23da35f921ceaf6e12a1f175d3198b
なぜこの場所になってるのか、ここが何か不明です・・・。
元の保存場所に戻したいですが、画像保存場所のパス指定はデフォルトのままでよくわからない状況です。 >>930
「コスパ重視」だと価格に対して一番パフォーマンスがいいのは4090だという話になっちゃう
「なるべく安くかつ必要最低限の性能」なら3060/12GBがいいよ(3060は8GBモデルもあるので気をつけて) >>935
1111を日本語化しちゃえば、画面の言葉を理解しやすくなりそう
日英併記もできるから、ほかの人の説明が英語版でもわからなくはならないし
で、原因不明の不具合があるときは下の順で試してみるといいかも
1. ブラウザのタブをリロードする
2. 画面最下部の「API・Github・…」から「Reload UI」をクリック
3. 1111を再起動する
4. パソコンを再起動する
5. 1111を別のフォルダにインストールし直してそちらで試す
6. OSをインストールし直す >>935
>>937を書いてから気がついた
Settingsの一番上、「Saving images/grids」の最初の項目「Always save all generated images(生成された画像をすべて保存する)」がオフになってたりして? ブルアカのコハルちゃんみたいに片方だけ服をずらして肩だすのってどうやればいいの?
それっぽいLoraもないしプロンプトでもぜんぜんうまくいかない
肩出し服になるんじゃなくずらした方はたるんだ感じになるようにしたいんだけど >>936
今27万超え位でしょ
3060が4万切るから7倍近く速くないとコスパ的にはどうなんとなる >>940
https://mercury.bbspink.com/test/read.cgi/erocg/1697419936/721
によると直近の価格とコスパはこんな感じ
https://i.imgur.com/1JNdtf2.png
4090は31万近くに値上がりしてコスパ最低になってた、ゴメンゴメン
今コスパがいいのは4070ti>4070>3060 12GB>4060ti>4080>4090だって tempフォルダって一時データなんでも保存してるからね・・
だんだん肥大化するのって最新ではもう改善されてるのかな?
もう一年以上前にgradio側の問題って作者は言ってたけど >>934
それ買うのは分かってんだよ阿保たれが(´・ω・`) 誤爆かと思ったら低速スクリプトきたか
次スレ考えた方がいいかも >>939
いったん出力した画像をinpaint sketchへ送って、肩のあたりを肌色に塗って生成するのはどうかな もうすぐ950で次スレの季節なんだけど、>1の「テンプレは>2以降に」を「テンプレは https://rentry.co/aiimggenqa に」にしてはと思うんだけどどうかな
「>2以降」だとテンプレの更新をスレ立て人に頼ることになって負担だし、 https://rentry.co/aiimggenqa は当面はメンテナンスを続ける予定です うおっ950
じゃああと、「次スレは950」ももう少し遅らせて970くらいにするのはどうかな
950になったのは荒れ気味で進行が早かったころの名残なので
スレはもう少しあとに立てるので>>950とあわせて意見がほしい いやもう950踏んだ特権でいいと思う方向にしてください・・
たまにテンプレが10レス分くらい続く酷いスレとかあるよね >>938
ありがとうございます!!!!無事解決できました!!!
「Saving images/grids」の最初の項目「Always save all generated images(生成された画像をすべて保存する)」がオフになってたりしました。
とても助かりました。
>>942
一時的に保存するフォルダなのですね。
ひとつ勉強になりました!ありがとうございます。 >>777
ありがとう。ただ自分にはちょっと合わんかった…
一旦はprompt form file or textboxの最後の行に生成完了って入れてフォルダ監視しつつそれをトリガーに動かすことにした。 1111を起動する時に、随分前に使ったプロンプトと設定が必ず立ち上がってしまうんですが
終了時のものを出す方法はないですか? 結構SDXLでて時間たったけど
一般的なグラボでLORA以外の学習ってできるようになった?
DBみたいにモデルをいじりたいんだが >>930
RTX3060-12GBは確定として
価格重視ならRyzen5000番台
OS込みで12万くらいあればそれなりのPCが組める
ある程度の将来性も考えるなら
Ryzen7000番台 or Intel環境
日常的に使えるのは15万~ アニメキャラ専門ならもうV3には追いつけない
SDの価値が下がった
悔しい >>956
1111をインストールしたフォルダにある「params.txt」をリネームか削除してみてはどうか
最後の生成情報はparams.txtに記録されていて、1111の起動直後に↙ボタンをクリックすると読み込まれたりする
>>956はparams.txtの中が「ずいぶん前に使ったプロンプトと設定」のまま書き換えられずにいるのかもしれない >>952に甘えてとりあえずスレ立てました
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721
>1は>>950-951に従って書き換え、書き込み全体も細かく修正しました NovelAI進化したとはいえSDには到底及ばないな
NovelAIは手がまだまだだな
SDの最近のモデルは手が無茶苦茶安定していて
ガチャ回数が少ないのが良い
まあSDが凄いというよりはモデル製作者が凄い novelaianimev3leak
もうリークしてるぞw SDで使える
190GBあるけど >>963
>>602
取り敢えず種類別に最新の使っておけば間違いない >>930
新品5万円のAI自作ゲーミングパソコン
調べたらいくらでもあるがな また、関連フォルダまるごとごっそりとtorenntかw スレンダー巨乳が打率低い
slender body,petite,collarbonesやらを強調や1.5とかにしても
large breastsの体格も大きくなるのに引っ張られるか、細くなりすぎて骨骨しくなったり幼くなったり
スレンダー体格のまま巨乳にしたい場合どうしたらいいかわかる人いませんか
画像拾いだけど例えばこんな感じに胸だけ大きくとか
https://files.catbox.moe/5e8unr.png スレンダー巨乳が打率低い
slender body,petite,collarbonesやらを強調や1.5とかにしても
large breastsの体格も大きくなるのに引っ張られるか、細くなりすぎて骨骨しくなったり幼くなったり
スレンダー体格のまま巨乳にしたい場合どうしたらいいかわかる人いませんか
画像拾いだけど例えばこんな感じに胸だけ大きくとか
https://files.catbox.moe/5e8unr.png >>973
inpaint sketchで胸だけ描き足すのはどうかな >>973
そういうのってflat chestでしか出ないから相反してるってわかって質問してるでしょ?
半分プロンプト書きつつ「拾い物」とかw
関係ないけどslenderって単独では汚染されてるんだな
いきなりマスク被るから何事かと ロリ出そうとしたらペチャパイお姉さんしばっか出てイラッとすることはある スレンダー巨乳の二次元絵の例を出してくれないと、拾い物でいいから
「これの胸だけでかいやつ」ではなく
気持ち悪いロリグラマーはよくあるけど、腰は小さくて胸ボーンってあんま見たことない気が
富永一朗とか?
スレンダー巨乳で検索したらリアルは出るけど、明らかな成人女性だし これ使えばお姉さんしか出ない
モデルでも強引にロリを出せるぞ
ポジティブ(ultra cute female child:1.5)
ネガティブ(adult:1.5)
ロリモデルに使うと破綻するほど幼くなるけどな OpenPose時に既に作成済みのpose.jsonをスムーズにアップロードする方法について知りたいです。
自分は下記のような手順でpose.jsonをアップロードしているのですが、2~3などの部分を省いてjsonをSDにアップロードすることは可能でしょうか?
1.OpenPose選択→2.画像をアップロード→3.PreprocessorとModelの間の赤いトゲトゲのボタンをクリック(ここの工程で待たされたり作業中の生成が止まったりするため特に省きたい)→
4.PreprocessorPreviewのJSONボタンをクリック→5.JSONをアップロードをクリック >>978
そういや三次でロリ巨乳って出せない印象
胸の大きさの指定が体格に反映されてる気が >>976
知らんかった
胸と体格は比例してるんだね
AIだからけっこう融通効くと思ってたけど学習元がなければ難しいか
>>978
あんま多くないから絵も探したけどなかなか見つからなかった
華奢な体にでかい胸だけついてるみたいなの生成してみたかったんだ
>>975
ありがとう、それでやってみます >>974
とりあえずテストで作ってみた
全体的にノイズっぽい画像になるネガティブプロンプトの病気にかかってるので粗いのはご容赦
https://ul.h3z.jp/FltpZ1f7.png >>984-985
ありがとう!
この肉感ってやっぱ消えないんかな
大きくするとどうしても肉感もある程度ついちゃうよな
>>973みたいに脂肪率低い感じが出せたらめっちゃいいんだけどな SDでv3使って4時間
版権キャラ物ならLoraいらんな ガリガリとか肥満とか体形を学習してないとまず無理
学習してなくてSDが認識できる言葉なら一般的なものから引っ張ってくる可能性が非常に高い
例:顔よりでかい乳 去年もリークされてたよな
そのお陰でStable Diffusion組も恩恵あったけどな これが犯罪ならanythingやらaom使う奴も犯罪になるな なーに
アダムとイブの子孫はもれなく罪人だと世界一のベストセラーファンタジーに書いてある リークしてたらなんJや4chanが大騒ぎになって伝わってくるのでバレバレ
そもそも学習じゃなく人海戦術?で作った組み込みLora臭いので
前みたいなモデル単体では再現不可だろう
次
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/ NovelAIのリークモデル問題
現在出回っている高品質のAIは、このNovelAIのckpt等データセットとソースがクラックされてリークされたものです。NovelAIも無断転載サイトのDanbooruを元に作成されたものですが、その初期の学習すら行わず、リークしたモデルを追加学習させている状態です。
ControlNetやLoraもリークモデルを前提に利用されています。AI界隈でも初期はリークモデルの取り扱いを慎重にしていましたが、今はアングラ化が止まらない状態です。 >>996
組み込みLora(〃゚艸゚)プッ
無知が知ったかして恥かく このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 34日 4時間 23分 39秒 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login レス数が1000を超えています。これ以上書き込みはできません。