【StableDiffusion】画像生成AI質問スレ18
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ17
https://mevius.5ch.net/test/read.cgi/cg/1693401315/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで スレ立ておつ
>1の「テンプレは>>2以降に」を「テンプレは https://rentry.co/aiimggenqa に」にしてくれたら最高だった 無料着せ替えゲームとかで自作した人物(画像)もAIで変換作成できるの? >>4
テンプレ見ないで同じ質問するやつは必ずいるから無くてもいいかもな
でもスレを建てたら落ちないように>>20まで書き込む手間を考えたらかさ増ししてもいい気がす >>8
CG板は20まで伸ばさなくても即死しないし、書き込みがなくても全然落ちないから大丈夫 >>4
リンク先の安定性や品質がよく分からないのと
前スレで議論がまったく進んでいないが消すのも勿体なく感じたのでテンプレの下におまけで追加してみた
次立てる人なり議論で結論付けたら良い
なお、個人的にはよく分からないリンクは踏まないから、テンプレはあったほうが良いと思うに1票だな テンプレをまとめたページ https://rentry.co/aiimggenqa は自分が管理してる
関連スレや過去スレ一覧は適宜アップデートしてます
【StableDiffusion】AIエロ画像情報交換31
https://mercury.bbspink.com/test/read.cgi/erocg/1694071226/
も同じようにテンプレをrentry.toにまとめていて、編集コードも公開されている
ただ向こうと違ってこっちは運営方針をめぐって荒れることがあるので、編集コードを公開すると荒らされそうで踏み切れないのよね
テンプレがあった方がいいという意見もわかる。その場合でも今の>>2>>3はもっと短くしたい 9.9倍になっても3060の5倍時間がかかるとかネタにもならないな rtx3060(12gb)からウキウキでrtx4060ti(16gb)にしたんだけど何か遅くなってるような気が…
7万近くしたんだけどさ
気のせいだよな? ID変わっちゃったけれど>>11です
>>2>>3は1つにまとめてこのくらいでいいと思う
■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases から最新のzipを解凍→webui-user.batを実行するとインストールされる。学習モデルは「models」-「stableDiffusion」フォルダにSD1.5が自動でダウンロードされる
■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 2023年5月15日以降はエロ画像の投稿禁止。画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://ul.h3z.jp/ メタデータが削除されるアップローダー。「選択する」ボタンがあるがドラッグ&ドロップでアップロードできる。エロ可だが児童ポルノは禁止
https://catbox.moe メタデータが削除されないアップローダー。エロ可だが児童ポルノ、未成年者の性的描写、性的暴力の画像は禁止
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
過去スレや関連スレを含む追加情報の有志まとめは https://rentry.co/aiimggenqa に >>12
記事、4000と比べてどの程度になるのかそれも書いて欲しいな
Radeonの基本性能が全く分かんね
あとVRAM、景気よく64Gとか付けてくれれば良いのに
VRAM単体の原価って安いだろうに難しいのかねぇー
生成系ユーザーかなりRadeonに流れるだろうに >>14
基本的な性能は上がっていても、バス幅が192bitから128bitに減っているのが影響しているのかねえ?
もちろんドライバは新しくしてるよね? >>14
ちもろぐ検証だと4割増しくらいの速度のはずだよね・・
nvidiaの最新ドライバ入れて16GBってことででかいの作ってて
OOM回避でメインメモリ使って生成してる分が入っちゃってない?
https://github.com/vladmandic/automatic/discussions/1285
> 新しい動作は、GPU vram が使い果たされると実際に共有メモリを使用するため、
> 大幅な速度低下 (ゆうに 10 倍) が発生することです。
> OOM の可能性ははるかに低いため、良い面もあります (その点も考慮する必要があります)。
> ただし、パフォーマンスが 10 倍低下するという代償を払って、その可能性はありません。 cuDNN入れ替えって最新だと要らなくなったんだっけ? >>14
バス幅狭くなってるんだから、あらゆる使い方で必ず早くなるというのもおかしな話じゃろ
メモリーバスがボトルネックになるような使い方なら遅くなる方が自然 >>14
VRAM使い切って共有メモリ使ってるオチでは?
4060tiってVRAM垂れ流しverしか対応ドライバしかないし 14です
IPV6に引っかかってレス返せてなかった
色々とアドバイスありがたいです
グラボが認識しなかったので最新版のドライバをいれたら認識したのだが
これがいけなかったのかもしれん
ドライバを戻して試します >>14
4060系はメモリ帯域が狭すぎて通常の生成速度だけなら3060系を上回るがハイレゾ化等重い処理をすると
場合によっては3060系と同等以下まで落ち込むぞ。
勝手な想像でスマンが、エロ目的1.5系メインなら現状16Gのメリットなんてほぼ無い
8→12Gだと高画質化等で4K程度までエラー出なくなるから恩恵デカいが
12→16Gで、そもそも4060系は旧式GDDR6低速メモリだから余計に恩恵が無い。
今なら1万ちょっと足してGDDR6Xの4070無印買ってれば60系とは別次元のサクサク感だったのにな。 >>24
電源が450wなのだよ(メーカー製)
現状最強の選択肢が4060ti16gbだった
無理して306012gbから変えること無かったな~
でも明らかにファンの爆音は無くなったぞ サブ機が4070で電源500W運用だよ。更にパワーリミット掛けてるからフルロードでカード消費電力160W程度(3060以下)
んで速度は100%時と比較で95~6%と程度
ただ自作用のそれなりの電源なら450~500でも行けるけど
メーカー製PCの電源とかだと12Vめっちゃ弱そうだし、確かに電源的には4070は厳しいな。
ちな、ファンの騒音とかは経年劣化以外だとメーカーによる差が大半。
2ファン系とかは安いけどZotacのTwin系とか冷えがクソ悪くて負荷掛けると超うるさい
ASUSのDUALなどはファンでかくて凄い冷えるから負荷掛けてもかなり静かでお勧め。 5090でたらシステム全部変える予定
それまではhp+4060ti16gbで耐える
それまでにはAI動画が作れるようになってると予想 AIはなんだかんだで自作有利よな
電源余裕持って積んどけばなんとかなるからな txt2imgからimg2imgに転送するときに、画像だけ送ってプロンプトは送らない方法はありますか? 16日土曜日の晩、おっぱいについて質問した者です
できました!残念ながら成果はお見せできませんが… ただ運任せの要素が多い段階で、うまく描写されないこともよくあります
(bra lift, nipples:1.x) でOKでした。
(bra shiftdown, nipples:1.y) これだと下着の方を下にずらし、乳房が歪むのも描かれます 単数形のnippleだと片方だけ露出することもありました。
ありがとうございました。 手の破綻直そうとしてADdetailer使ったりControlNetのdepth使って再生成やinpaintをしてるのですが、どれも上手くいかないことが多いです
できるだけ自然に修正できたものから手描き(ツールはあるが絵心は無い)で直してアップスケール、が1番早いでしょうか? あと、モデルによってできたりできなかったりするようです
当方は AstreaPixie Radiance Hentai を使ってます。 2060でも作れるけど
関わってる奴が少ないな
まだ大したもん作れんしな model作るのは大変だとかいうレスをたまに見かけるけど自分で試してみての話なんだろうか
ツールの話すら出てこないから知ったかなんだろうなあ >>31
AIイラストで月5~6万稼いでいて売り物イラストは全て破綻など完全修正してるが
超試行錯誤した結果、Stable Diffusion上では一切修正せず、
生成→アプスケで完成させたイラストを最後にフォトショやaffinity photo2で修正が一番綺麗に素早くできる。
俺はアドビ税絶対払いたくないマンだからaffinity photo2薦めてるけど、
例えば指の修正なら高精度な選択ツールで、破綻してない指を選択、左右反転とかもできるから、右左どちらでも可。
(素材用として指とか手が綺麗なイラスト用意しておくと楽)
その指は色修正や角度 大きさ 太さとか自由に変更できるので、破綻した指に合うように変形させて貼り付け
上のレイヤー扱いになるので下のレイヤー(元絵)を選択して邪魔な指などをインペイントで削除。
背景が体とか衣装に被ってい複雑でもインペイントツールの微調整や傷修正ツール上手く使えば綺麗に指だけ削除とかも可
傷修復ツールやぼかし、シャープツールで輪郭修正して絵に馴染ませて終了。作業時間4~5分。
俺も絵心0で書く事は一切出来んが、慣れてくると足が3本とか手が無いとか指が溶けてるとかでも
簡単に要はコピペ要領で破綻修正出来るようになるから、
絵はイイけど破綻してて使えね~ってのが無くなって作品クオリティがかなり上がるぞ。 1行目とAdobe税云々の自分語りが無ければ良レスだった
あと出来る出来るやれるばっかりで⚪︎造お前は 質問ですが、生成ボタンの下にフロッピーのマークでプロンプトの保存ができるみたいなのですが、私の画面ではプロンプト削除とネガティブプロンプト削除のボタンしかなくて保存できません。
保存はなにかの拡張機能ですか?調べても最初からある感じっぽいのですが。 >>41
フロッピーディスクのアイコンは1.6.0で削除された
じゃあどうやってプロンプトをスタイルに保存するかというと、鉛筆アイコンをクリックして今のプロンプトを何度かコピペしなけりゃならないみたいなんだよね
最新版でなぜか不便になってる kohya_ss GUIでSDXLのLoRA学習を試しているんですが、1024×768、バッチ数1の学習でVRAMを22GBも消費しています
ネットで調べてみるとVRAM16GBでギリギリみたいな話を聞いたので、やけに消費が大きい気がするのですかこんなものでしょうか?
それとも設定をミスってる可能性大? 1024 / 768 = 1.33
16 * 1.333 = 21.33 すみませんど素人の質問なのですが教えて欲しいです。
lora block weightを導入しようとするとエラーになり導入できません。
色々調べてみると、識別子を変えるとか出てるのですが、どこの設定をいじればいいのでしょうか?
web-ui1.5です。 lbwの記述変えないと使えない話は過去ログでさんざん見かけた気がするけどそれじゃね? × <lora:aaaaa:1:ALL>
○ <lora:aaaaa:1:lbw=ALL>
ね
自分もこれかなと思ったけど、「導入しようとすると」って書いてるからインストール段階と判断 これがエラー原因でしょうか?
ファイル "C:\stable-diffusion-webui-master\extensions\sd-webui-lora-block-weight\scripts\lora_block_weight.py"、<module> の 19 行目
モジュールからデバイス、sd_models、イメージ、cmd_args、extra_networks をインポートします
ImportError: 名前 'cmd_args' を 'モジュール' からインポートできません (場所が不明) >>48
ってかそれも違う
<lora:×××:1:1:lbw=プリセット名または数値>
:1が一つ足りない >>50
ごめん、わからん!
>>51
そこの:1は省略しても動いてるが・・webui1.5.1で止めてるから? ああ違うや
<lora:aaaaa:0.8:0.9:lbw=ALL>
0.8 Unet
0.9 TextEncorder
それぞれのstrengthか
省略ってことは自分はTextの方もしかして0でずっとやってた!? 今確認したら省略した場合は、そのまま全てに適用になる模様、良かった
<lora:aaaaa:0.9:lbw=ALL>
<lora:aaaaa:0.9:0.9:lbw=ALL>
が全く同じ画像だった >>50
あんま詳しくないが
stable-diffusion-webui\modulesにcmd_args.pyがないからそのエラーになってるのでは?
ちゃんとインストールできてない?
(連レスすまん) すみません、昨日始めた初心者なのですが解決法のわからない状態となってしまったので助けてください
現在AUTOMATIC1111/Stable Diffusion WebUIを利用しており、civitaiにて新しいLoRAをダウンロードして使用したところ、LoRAの変更ができなくなってしまいました
プルダウンから他のLoRAに変更してもすぐに新しいものに切り替わってしまい、画像の生成自体ができない状態となっています
誰か解決法を教えてください... >>56
> プルダウンから他のLoRAに変更してもすぐに新しいものに切り替わってしまい
モデル(checkpoint)の間違いでは?
cmd窓(白黒テキストのやつね)の方になんらかのメッセージが出てると思う
戻されるのは大抵DL途中で失敗してて壊れてることが多い >>55
多分それですよね…
全くわからず、他は問題なく動くんですけどね…
返信ありがとうございました。 >>59
存在してなかったのでぶち込みました。
何とか読み込みしたみたいですが、
ファイル「C:\stable-diffusion-webui-master\modules\cmd_args.py」、<module> の 4 行目
modules.paths_internal から import models_path、script_path、data_path、extensions_dir、extensions_builtin_dir、sd_default_config、sd_model_file # noqa: F401
ModuleNotFoundError: 「modules.paths_internal」という名前のモジュールがありません
と表示されます。
調べたら同じ症状の人もいるみたいです・・・ cmd_args.pyが無かったとかそもそもwebuiの導入ミスってるんじゃ? そうなんですかね・・・。
今までどれ入れてもエラーにならなくて、lora block weightだけこんな感じになってるんですよね。 >>63
> ModuleNotFoundError: 「modules.paths_internal」という名前のモジュールがありません
次は
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/v1.5.0/modules/paths_internal.py
をブチこむんだ、module内で足りないのを延々繰り返すんだ
・・単にwebui入れ直した方がいいのでは
lbwだけなんで?ってのはよくわからないけど、他はたまたま使ってないだけかもしれんし
あと勝手に消えてるとかHDD(SSD)壊れかけてない?
crystal disk infoで確認したほうがいいかも >>53
webui内に組み込まれたらしいa1111-sd-webui-lycorisのgithubを見てきたけど、
省略するとTextEncorderはデフォルト値の1になるとのこと
lycorisを前提に説明されたから、LORAだと関係ないのかも でました!!!!
あーすごくありがたいです。
SSDは異常なかったです。
凄く嬉しい無知の自分が恥ずかしい・・・。
本当にありがとうございました!!! (hat:-1) とプロンプトに付けてnegpipを使うとADetailerのタイミングでエラーが出まくるのですが
何を直すといいでしょうか
webUIは1.6.0 negpipは最新版 248cb5b3 2023-09-19 01:08:52 です
https://i.imgur.com/toN2cIh.png LoRAでもTEncとUNetの指定はあった
本体にビルトインされるまで主流だったadditional networksの拡張では個別指定が出来て色々模索してた
lycorisはLoRA(LierLa)を拡張したもので、アルゴリズムの種類が増えたものだから基本は同じ
単に省略して記述できてたものがlycorisでDyLORAのサポートがされた頃に記述パターンが増えてしまい
最終的にLBWは :1:1:lbw= の記述に統一された
(DyLoRAだと :1:1:0:lbw= になるけど使ってるlycorisを見た事がないレベルで使われてない) >>67,70
情報ありがとう
>>68
えがった
>>69
> negpip
答えじゃないけどこんなのあるのか・・ 試行錯誤しながらkohya lora学習で自作していて
loraの強さ0.4くらいにするとやっとそこそこ自由度が出て良い感じになるんですが
0.7から1くらいで適正になるようにしたい場合、学習パラメーターのどこらへんを弄れば良いかわかる方いたら教えてくれれませんか・・・?
パラメーターはかなり色々な設定があるのは承知なのですが
どこが一番作用してるのか分からなくて・・・
"learning_rate": 0.95,
"network_dim": 64, "network_alpha": 32,
特に関係ありそうなところはこんな感じです >>72
> "learning_rate": 0.95,
いくらなんでも高すぎない?
学習画像20、「5_」で5回リピート、エポック20として、2000ステップなら
1/2000=0.0005(5e-4)とかだよ
過学習に足突っ込んでるんで0.4とかになってるのかと
・・・って、わかったw
某サイトに書いてある目標学習度0.95をそのまま入れちゃったんだな
あそこの情報有用だけど一部の書き手が大仰に書きたい自己満足に陥ってて分かりにくすぎる >>73
回答ありがとうございます 指定の仕方間違えてたんですね・・・すみません
恥ずかしいですが気付いて良かったです floatとfloodを間違えた古傷が痛むぜ
けどほぼ意図した絵が生成されたという謎 https://youtu.be/NQyBvKlvB5c?si=cRWLAYUq0u6A_Zfl
をみてまるっきり同じLECO作ったんですが、ちょっと大きいかも?
くらいで巨乳化しません。
環境によって同じに作っても効き方かわるのでしょうか? 元◯ロライブの緑髪の人に巨乳プロンプト付けても全然巨乳にならなかったの思い出した >>77
スペルミスしてたのにいい絵が出来てしまい、どうしたものかと悩むことはよくある 気のせいでなければありがちなtypoも多少学んでると思うんだ
light handとかやったときに光ってる手と右手それなりに混ざって出るよな? public hairはもうそっちが正解ってことにしてほしいレベル でもお前らのpublic hairは永久にnpになってるよな 例えば、黒ポニテと金髪ボブと白ロングの3人を一度に書くのはプロンプトだけでは難しいですか?
領域指定しない方法があれば… >>85
(5 girls:1.6), break (3 people with white hair and 3 people with long hair and One people on different papers), break black ponytail, break blonde bob cut,
こんなで頑張ったみたけど制御不能
こんなことするならi2iのinpaintで一人づつ変えた方が建設的 呪文一つでポン出しすることより
今のSDにできることをどう組み合わせたら理想に近いものができるのかを考えた方がええんやで
呪文制御だけで何でもできるんなら大量にある拡張機能なんて存在する必要がないんだ 誤字で翻訳されちまってるな
ペーパーとか書いてあんじゃんw 領域使わずガチャでどうにかなるのはせいぜい二人まで 誰かがLoraが消えるとかゆってたけどそれがおこったわ
再DLしたら同じファイルがあるから上書きするか聞かれるよくわからん現象がおこった
間違えてGenerate押したからそれが原因かもしれん 自分の目にはパッと見DPM++ 3M Karrasの方がよく見えるんですが2Mの方がまだ主流なんでしょうか? 苦労してinpaintで調整できても、一発偶然できた傑作には敵わない不思議 >>95
個人的には自分のいいと思ったものを使えばいいと思うけど 主流の方を使いたいという理由は?
あと何が流行っているかとかの統計とかあるの? XYZでサンプラー全比較して気に入ったやつ選ぶ以外にないわ
ブログでは○○がおすすめになってた!と言っても自分の好みに合うかわからんからね 収束せずにさっさと出してくれてかつ速いDDIMは正義
別に他の正義を否定するものではないが img2imgでフォルダ内の画像をまとめて処理するとき、画像ごとにpromptを調整できる方法ってありますか?
例えば
1.jpgには1girl
2.jpgには2girl
みたいに画像ごとにどのプロンプトでやるか設定できるみたいな まだSDXLのモデルを調整できるようにはならないか
DB学習とかでモデル自体を調整したいんだけどなー animatediffでMP4にチェック入れてもサイズが1KBになってて再生できないんだがおま環かな?
GIFはしっかりと再生されるんだが 女の子がカメラマンに取り囲まれる画像を作りたいのだけどプロンプトってなんて入れればいい? >>106
パスが通ってるディレクトリにffmpegを置くのじゃ >>109
アドバイスサンキュー
しかし言う通りやったができない
Path通したディレクトリにffmpeg.exeをおくだけで再生されるようになるってことでいいのかな? もしかしてffmpegが何をするファイルなのかご存知ない? >>111
stable-diffusion-webuiフォルダの位置からffmpegコマンドが使えるようになっているかな?
https://i.imgur.com/7VTtsjR.png >>110
これ、左記をNGに入れてもすぐ違う文字列に変えてくるから
少しひねらないとNGしきれないヤツ WEBUIで実写系とかアニメ系とか色々作っててモデルもコロコロ変えてたら途中でなんか生成物が汚いというかぐちゃっとしたぼやけたような感じになるなと思って
以前作ったものと全く同じプロンプトとシード使ってみたら結果がとんでもなく劣化してるってことが起きたんですけどこれって普通ですか?
再起動したら直ったんですが、何時間とか何生成ごとに再起動したほうがいいとか目安あるんでしょうか? >>116
そういうのあるよね
Loraを切ったのにしばらく効果が消えなくて沼にハマったりとか
次回の生成時間を速くするために何らかのキャッシュを残してるんどろうけど、
(再起動でキャッシュが消える)
その辺のはっきりした仕様が分からない たまにある
急にカラーのブツブツ画像が出たり
Loraが反映されてるんだけど違う絵柄が出たり
再起動しても直らない時があったがモデルを変えたら直ったりよく分からんわ >>114
早速ありがとう
同じ文言がでるので問題ないと思われる
これってffmpegでなにか後工程として作業しないといけないってことなの?
gifとmp4が同時に生成されるからそのまま再生されるもので出力されるとおもってたんだが tiledとかControlnetが何か残してる気がするわ
うちは色調が変にモッタリし始める
プロンプト空にして何回か回すと戻る >>120
確かに8バイトのmp4が出来てるな
パスは通ってるのに
まだanimatediffは人口少ないから新しいバージョンの情報さえ余り無い
なんか更新してイラスト生成もおかしくなったんだよな lora作成時のseedってあとから何だったかわかる? >>116-118
画像が意味不明な感じにだんだんグジャったり戻ったりは
拡張のlocon(半年前に使用禁止)でなったことあるな
https://github.com/KohakuBlueleaf/a1111-sd-webui-locon
チェック外すだけでは駄目でフォルダごと消さないといつまでも悪さする
>>123
バイナリ(テキストでもいい)エディタで開けて
seedで検索したら書いてあるやつでいいのかな?(ss_seed) >>117
そんなことあるのか?
だとしたら同じ設定とSeed値で同じ画像が生成できなくない? たまに長時間回してるとメモリリークでちゃんと生成されなくなったりする
ドライバが原因のことが多いので、おかしいなと思ったら再起動がオススメ >>125
それで見れるんですね!ありがとうございます! 自作loraを使うと肌がひび割れのようなシワのような
汚い感じなるのは何が原因でしょうか?
https://majinai.art/i/sML6L-f >>104
これどうにもできないですかね?
>>129
学習元画像が単にきれいにそろえれてないとかかも。
この場合だと例えば白人と黒人と日陰の白人と日光に当たった黒人みたいな様々な肌質や見え方を混ぜてしまってるとか >>107
プロンプトじゃ無理だな女がカメラもちやがるから
exhibitionismV_Conv2DってLycorisがあるpublic, photographers,がトリガーだけど群衆を出すのにcrowd,は必要かも
Loraファイルはここ
https://civitai.com/models/22123/in-public-photographers >>120
MP4作成時に自動的にFFmpegが使われていると思う
後は.\venv\Scripts\activateを起動して仮想環境を立ち上げて、pipでimageio-ffmpegをインストールかな
その後`pip list`でimageio-ffmpegが表示されればOK X Y Z Plotで1万枚くらい連続で作ると
恐らくだけど全部の画像を結合したと思われるファイルが作られる
これを作らなくする方法ないだろうか?
また、SSDの空き容量が減ってておかしいと思って調べた
AppData\Local\Temp\gradio
ってところにGB単位のPNGファイルが生成されてるわ あと、
C:\Users\ *** \AppData\Local\Temp\gradio
だけどうまく削除されないのか40GBもSDのキャッシュっぽいもので埋まってたわ
一応、キャッシュクリアにはチェック入れてるんだけどなぁー
SSDの容量がなぜか減ってる人がいればチェクしてみると良いかも
自動削除させたいな webuiu-user.batにgradioフォルダごと削除する記述入れたらいいだけでは >>134
animatediffの生成物とかバックアップファイル並みに残ってたわ、extentions系で使っているのかな
debug起動している人用に削除コマンドを置いておくわ
```
# launch.py
def clear_gradio_temp():
LOCALAPPDATA = os.environ['LOCALAPPDATA']
GRADIO_TEMP_PATH = LOCALAPPDATA + '\Temp\gradio'
shutil.rmtree(GRADIO_TEMP_PATH)
os.mkdir(GRADIO_TEMP_PATH)
def main():
clear_gradio_temp()
if args.dump_sysinfo:
...
``` >>132
おおっできた!!
まじで助かったありがとう! 半年前くらいのお気に画像(3次元)をpnginfoからt2iにプロンプト入れて
同じseed、同じモデルで生成したら違う画像が出てきた
何か背景の書き込みも手抜き感ある
普段はこの方法で同じ画像を生成してるんだけど半年前だと何か条件がかわるのかな? swimsuitと入れたつもりがswimuitになってたのにいい感じに生成されてキチンと直したら微妙で悲しい 今まさにやったのはnudeと入れたつもりが字の消し忘れがあってnudeiになってた
だけど脱いでくれてた…… モデルをいくつか試してみてますが
基本的に危ない表現が割りと自由に出せるのは
本当に一部のモデルだけだという認識でいいですか? ラフっぽいというか
病み系が好きそうな雰囲気イラスト
を作れそうなモデルってありますか…?
(例)
@ u_u_zzx
@ n4adoe
の絵師様のような系統
結構探したのですが線が綺麗すぎるものがメインなので見当たらず… >>136
簡単なコマンド3行で終わる処理をここまでややこしく出来る才能スゴいね そろそろリアル系のLoRa学習したいんだが
学習に使用する画像って
やっぱり白背景で人物だけにした画像の方が
クオリティ増すかな? サンプラー何使ったらいいか分からなくなってきた、、
あれこっちのほうが何かいいやんの繰り返し、沼ってますわ 断定出来ないぐらいの差ならわざわざ根詰めて選ばんでもええんやぞ >>145
白背景に越した事は無いけれど
ゴチャゴチャしてなければあまり影響は無いと思う個人的には
実写系の場合はむしろ画質が重要かな
解像度の良い 768*768 とか40~50枚揃えられるのが理想 >>149
実写系はそうなのかー
教えて頂きありがとー! loraで構図に影響する部分をカットするやり方ってどうやるか教えてください。 グラボは同一として性能が同じくらいのIntel(core)とAMD(ryzen)のCPUで出力結果変わったりしますか?
現在core iでryzenのものに買い換えようとしてますが目に見えて変わったりしないか気になっています AI分野でRyzenだと使えない機能が出るとか聞いたことはあるな
自分の場合は予算節約と大した使い方じゃないからRyzenだけど >>145
質求めたら画質も良いかつ量もあるに越したことはないけど、五枚とか十枚でもできるからな
背景は強烈でなければ学習時にタグ消しとけばそんな変わらん気もする >>153
最近のcoreシリーズだとEコアのせいでAVX命令の何かで使えないものがあったり AI分野でRyzenだとダメって話は聞いたことないな。というかSD使ってる人むしろRyzen派の方が多そうなイメージ >>152
基本的には変わらん
変わったところで判断ができないレベル >>160
それは遅いけど動くらしい
ただIntelとRyzenだと命令セットが異なっててAI本気でするならIntel使えとAI詳しそうな人に言われたことある >>161
それはDownfallという脆弱性の原因になる命令なので使われなくなった
後々マイクロパッチも出たが処理速度低下の原因になってる
ゲーマーとかはパッチを当てずにゲーム専用機として使ってる猛者もいるほどだ SDで生成した実写画像を
3D化したいのだが良い方法ある? 3D化っていうから立体的な造形にしたいってことかと思ってた 頑張ってモデリングした3DモデルにSDで出した画像をテクスチャとして貼る事になるのかな
やってから3Dプリンタで出力、と 今huggingfaceからcontrol_v11_sd15
をDLしてるのですが
なんでみんなファイルサイズが一緒なんですか?機能別じゃないのでしょうか? RyzenはパフォーマンススコアはIntelより遥かに良いのに変なモッサリ感が出るのがなあ Extensionの全日本語説明してるサイトある? lora作成時に、そのキャラの特徴である部分をキャプションから抜くとありますが、
特徴であるblack eyesを抜くと目が似なくて
キャプションに入れたままのほうが似ていました。これってなんでですかね? やってみてそうなったのならそういうものと思うしかない
明示しないと無視されてしまうんでしょう AI って言っても色々あるし
スティーブルディフュージョンの場合
AMD で何も問題がない >>172
そのblack eyesはどういう形をしているんだ?
円形じゃない目は正しく学習できないかもしれない
円形なら学習のstep数を増やしてみるとか アニメ系のloraがそのまま反映されるようなモデルを探してます。
PixAIのMoonbeemやNeverlandのような高い再現力のあるモデルってありますか?上記のものはダウンロードできませんでしたので代わりになるモデルがほしいです。 同じこと聞いて申し訳ないのですが
img2imgでフォルダ内の画像をまとめて処理するとき、画像ごとにpromptを調整できる方法ってありますか?
例えば
1.jpgには1girl
2.jpgには2girl
みたいに画像ごとにどのプロンプトでやるか設定できるみたいな
taggerでタグ付けしたテキストみたいなのが使えるといいかなと 152です
さまざまなコメントありがとうございました
買い換えたいと思います >>175
普通の人間の目です。目以外は再現できててむしろ髪ガビガビすることが
たまにあるので過学習ぎみなのかと思います。うーん謎。 最近majinAIに連投するアホウいて鬱陶しいわー 背景を森の中の湖みたいなところにすると、背景に生成途中みたいな人外の小人が出てくるんですが、出ないようにするか、まともな人間にするにはどうすれば… region使って背景部分にno humanって入れてみれば? loraのキャプション学習について質問なんですけど、
例えば、
ツインテールの安倍晋三を覚えさせるためにツインテールの安倍晋三の写真を用意して、キャプションでツインテールの安倍晋三の髪型や体を表してるワードを消して、トリガーワードを(ツインテール安倍晋三)にして学習させたとします。
で、生成する際、トリガーワードの(ツインテール安倍晋三)をpromptの先頭に表示させて、生成させてもうまくいきません。
しかし、ツインテールをpromptに入れたらツインテールの安倍晋三が出来上がるんですよね。
これって、学習がうまく行ってないって事であってますかね。
ツインテールがトリガーワードになってる気がするんですよね。 >>177
残念ながらそのモデルが自分が提示したものなんです
ですので代用品としてのモデルを探しているのですがなかなかないですね
個人では限界があるんですか? >>184
ツインテール安倍晋三でノーマル安倍晋三が出るの? >>184
例示が独特で思い浮かべるのに苦労するが理屈はあってる
どううまくいか具体的に教えてくれれば身のあるアドバイスが出来るかも
本当に「ツインテール安倍晋三」がトリガーならトークン数長すぎで今の学習ステップじゃ足りない 日本語だとトークン数そんなに消費するんか
abe-twintailとか安倍Aとかにしないとだめかw >>186
いや、例えなので、安倍晋三ではないですよ。
ただ、そのキャラクターがツインテールのキャラクターで、ツインテールをトリガーワードに決めたわけじゃないのに、
ツインテールをpromptで入れるとその希望したキャラクターが出るんですよね。
ちなみにツインテールのアニメのキャラとかではなく、架空のツインテールキャラです。
>>187
ツインテールの黒髪の巨乳キャラクターのhanako(自分で決めたワード)を独自に作ったんですよ。
で、トリガーワードをhanako
キャプションでツインテールだとか巨乳だとかそのキャラクターを示すものは全部削除。
で、キャプションの先頭にhanakoを追加して学習させました。
エポック数は5、学習回数も5。
で、いざ出来上がったものを試したら、まあまあ似た感じにはなるんですけど、
ツインテールを追加でpromptに入れたら理想のキャラクターになったんですよね。
てことはツインテールがトリガーワードになってるのかなと思ったのです。 トークンを理解できていないが例えばabe-twintailだと一般的なツインテールの情報も参照されるのだろうか
それともabe-twintailで学習した内容だけの新概念として扱われるのだろうか
と横から質問 >>187
ファイル名は
5_sls_hanako
です。 >>189
多分学習の繰り返し回数かStep足りずにトリガーワードの中にキャラの情報が入りきってない
俺ならtwintailsをponytailに置き換えて髪型のバリエーションがつけられるLoRAが出来たなら完成とするとこだが
>>190
昔は他の概念とかぶらないユニークでトークン数の短い単語を探してtokenizerで調べてた今はしないな
他の概念を上書きしてもウェイトやblockWeightで強度でコントロールする
細かいところはtokenizerで単語をtokenIDに変換してSDが解釈してるのか見てみるといい tokenIDにどう変換しているか見ればいいのか
なるほど LLMだと深呼吸しようと呼びかけると正解率が劇的に上昇するとあるけど
SDに対しての魔法のコトバってあるのかな? >>192
回数増やすとガビガビになってしまってこれが一番いい感じなんですよね。
100枚が多いのかな?
追加で質問なんですけど、
ADetailerで100枚連続で作ろうとしてADetailer内のpromptにsmileだとか何かを打ち込むんで生成すると、
一枚目はloraが効くんですけど、二枚目からloraが効かない状態になるんですよね。
これって何か設定が間違ってるんですかね? スレチかも知れませんが質問させてください
ローカル環境でvaeを入れようと思い指定のフォルダにダウンロードしたvaeを入れたのですが設定画面で選択できない状態です(Automatic、noneしか表示されない)
pcの再起動、再度同じvaeをダウンロードして入れてみる、他のvaeを入れてみる、等したのですが状況が改善しません
何か解決策がありますでしょうか? >>196
実際の生成物みてみないとわからんね
自分の環境では問題なくプロンプト内もADetailer内も入れたLoRAはどれだけ生成しても
ちゃんとすべての生成物に影響でるね >>198
出先だから見せられないですよ
やはり普通はちゃんと効くんですね。
ちょっと調べてみます。 >>197
全然スレチじゃないよ
・今どのフォルダにVAEを入れているのか
・VAEはどこから何をダウンロードしたのか
がわかればアドバイスできるかも 別にトリガーワードなくてもキャラ再現できてるloraあるけど過学習気味なだけなのかそういう作成方法があるのかどっちでしょうか >>200
ありがとうございます
帰宅したら確認してみます >>197
models\VAEに入れたら出てくる
Checkpointsの方に入れてるんじゃ? >>201
1girlとかのままで学習しているんじゃない? >>204
教師画像をタグ付けしたときに先頭に何も追加せず出てくる1girlとか残したまま学習して概念上書き→出す時もそのタグ使うから出てくるってことで良いでしょうか
あと延長の話でもし自分でトリガーワード追加する場合ほぼ全部のキャプションファイルに出てくる1girlとかsoloとかのタグって消した方が良かったりましすかね? >>180
black eyesは黒い目ではなくベタ塗りの目として学習されてしまってるかもしれない
black color eyesにしたらどうだろうか? >>205
キャプションから1girlやsoloを消すというのは、そのキャラはぼっちだぞって教えることになる
そうしたいなら削除してもいい blackeyesはblackeyes childで検索すれば出てくるのを見れば、なんとなく理解出来ると思う。 >>197
たぶん設定の場所が間違ってるかも
前のバージョンだとsettingの「stable diffusion」からVAEを選べたが、最新バージョンではsettingの「VAE」項目ができている。そこから選ぶ >>207
なるほどそれは要らないですね
残します ヤンキーの細くて短い眉毛ってどんなプロンプト入れれば出る?
shortとかthinとか入れても全然ダメだ 自分の推しが上手く生成されたときは
うおーすげーってなるね
写真集みたいなの作って自己満で終わるけど
公にはできないが日々の生活で元気が出る >>212
civitaiにあるeyebrows sliderだったかな
そのlora入れれば数値の調整で細くできるよ
短いのはできるかどうかは分からない こんな感じに背景にスタンド能力みたいにダブって出てくることがよくあるんですけど
うまいこと抑えられるネガティブプロンプトって無いですかね?
ttps://i.imgur.com/kos4p2G.png VRAM 8GBで使ってる人いる?
高解像度以外で不足をかんじることはあるかい? 2070の8GBで買い換え先るにも微妙で身動き取れないワイおるで
生成に関しては我慢できるけどSDXLで学習とかしようとすると全然足りない程度 仕事用のノートが4060の8GBなおいら
Lora学習に足りるか不安で手を付けられず SDXLに手を出さなければ8GB有れば何とか
3060Ti だけどLoRA学習くらいなら問題無い >>213
ヤバイよね公にできないけどw
貧乳⇔巨乳してみたり、脱いでもらったり、挿入してもらったり、生やしてもらったり……
同人イラスト集くらいなら作れそう
他にも3次LoRAを2次元モデルに適用してみたりとか 生成だけなら8GBでSDXLいけるよ
8GBでSDXLのLORA学習はnetwork_train_unet_only付ければ768*768でギリッギリ走れるかなくらい みんなありがとう。
生成はSD1.5で満足していて、SDXLは当面俺には必要なさそうだからSD1.5の512x512前提で問題ない。
学習に興味あってとりあえず特定人物の顔を学習させてエロいことさせてみようかなと思ったら、
さすがにmaxwell世代の4GBじゃたった4枚程度の学習でSTEP絞っても最後の最後で落ちちゃって。
顔の再現性を高めるためにいろんな角度表情を数十〜100枚ほど学習させるとしたら、
8GBだと無理かなぁ?って心配になったんだ。
ちな、メインメモリは32GBほどある。
途中で落ちさえしなければ、学習開始したら放置して寝ればいいと思ってるんだけど、
これくらいの規模を想定したとしてもVRAM 8GBでイケっかなぁ?? >>14
>(RTX 40xxの場合) torch: 2.0.1+cu118にする。torch: 1.xはRTX40xx用に最適化されておらず、半分程度の速度しか発揮できないため
とあるwikiに書いてあった。 >>222
FineTuneだったら8GBでイケるよ
ちな俺環
3060Ti
素材画像 768*768
3000ステップで25分くらい 正直SD1.5の時代がいつまで続くか全く分からんから今新規で8GBを買うのは全く断固としてオススメできないけどな… SDXLやるならVRAMは16GB欲しい
そうすると絶対的なパワーが不足してる 4060Ti か
もしくは導入ハードルの高い 4080 , 4090 しか残らない
4070系は12GBだから正直不安 >>222
学習に興味がある、だと沼って最終的に24GBないと満足できなくなる人がいるのが心配だけど
8GBは生成専用で学習はcolabを使うならあり >>209
197です
ご指摘のとおりでした
無事解決です、返信いただいた皆様ありがとうございます ネカフェってSD突っ込んだSSDとか普通に挿せるの? USBなら何でもOKだから、USBTypeのSSDも認識するんじゃね? エロに強いモデルで(cum on body:1.6)とかかなり強めにつけても
ほぼ全てのloraで白い液体が全くぶっかかってくれないんですが
どうしたらいいか対策とか心当たりある方おりませんか・・・?
loraを使わなければちゃんと描写されるのですが 最終?手段だけど、構図まで決まったら画像をDLして
自前のペイントで少し濁った白を好きに散らしてdiagnostic3~4ぐらいでInpaintするんだ kohya_ssでLoRA作成しているんだが
画像10枚、くり返し10回、エポック30、dim128、alpha1で
Learning rateとText EncoderとUnetを変化させて学習させたらこうなった
https://i.imgur.com/HrkINPP.jpeg
これを見ると、Learning rateとText Encoderは0でよくて
Unetだけで学習出来るんじゃないかと 好みの問題かもしれんがLora10コ以上作成している身からするとなんでkohyaなんて使いにくいの使ってるのか不思議 >>206,209
なるほど〜!ありがとう。見てみます! >>206,209
なるほど〜!ありがとう。見てみます! >>239
10個も使うと何のLoraかにもよるけど絵柄がクチャクチャにならないか?BlockWeightで厳選済み? FreeU使った人いますか?
まだ導入してないけど
生成のクオリティ上がってますかね? >>239
まあtrain toolのほうがお手軽だな まずは RTX 3060の12gb を買えばいいじゃないか
それで足りるか足りないか判断すれば >>223
速くなったよ!
でもアップデートしたら
練に練ったプロンプトで同じ絵が生成されなくなった
LORAの効きが変わるみたい(強くなった) >>245
普段作ってるものによる感じがする
イラスト系は色鉛筆でザクザク書いたみたいな線になってイマイチだった
loraのflatをマイナスしまくったような 同じような症状の人がいれば教えて欲しいのですが、プロンプトやモデルを変えていないのですが、急に絵柄がリアル寄りに変わってしまい元に戻りません。思い当たるとすれば、VAEを入れたぐらいですが、使用しない状態に戻しても元に戻らない状態です。 >>239
ほんとそれというかkohya使いこなせる人は使いこなしたら良い(俺はConfigで挫折した)
1111 1.5.1 と sd-webui-train-toolsの組み合わせで十分だな
ツール作れるくらいの人のデフォルト設定は神ってる
とりあえず60キャラくらいLoRA作った
晒したらどうせゴミとか言われそうだけど、
同人誌にもならないようなマイナーキャラが男性出現すること無く一人称視点で汗だくになりながら騎乗位で色々な表情と服装で応援してくれる ありがたい
一部作家さんの絵にはまだ惹かれるけど、9割位の薄くて高い本は買わなくなった >>245
それは俺も気になってる
どのくらい変わるんやろね >>250
個人的には面倒だから、原因追求せずにバックアップから復元するかも
日常的にSDフォルダー(画像生成フォルダとか重たいフォルダは別にしておく)バックアップしてると楽だよ
ありがちなのは、モデルが変わってたりかな とりえず再起動してここをチェック
あとは、うまく生成された画像のPNGInfoと失敗した画像のInfoを取り出して比較したら何か分かるかも lora初めて作りたいのですが学習画像は572×704で学習させたいです
この解像度で学習させる場合、変更したほうがいい設定はありますか
グラボは4070、パソコンのメモリが32Gです >>248
7万円の性能が発揮できて良かった。
メモリアクセス重視で計算のいらない特殊なゲームならともかくAI系の計算重視で3060より遅いとは思えないからね >>254
短辺が 512px 以上なので問題ないと思いますよ
ちなみに
LoRA学習の基本は 512*512 の正方形です
そして一般的には
512*512
768*768
1024*1024
あたりが良いとされていますので参考までに 1万円ぐらいで売ってる中古 PC に
4万円の RTX 3060を追加すればいいじゃない 4090のGPUボックスを買えばいいな
パソコン乗り換えても使い続けられる RTX 4090の外付け GP ボックス 40万円で
RTX 4090 そのものが24万円からあるんだから
ちょっと高くね? 外付けGPUボックスはそれなりの長さのケーブルに超高速の信号流さなきゃいけないせいか昔から箱そのものが高いんだよな… 外付けキットはアマゾンで裸の奴は3万円、箱型のは電源付きで5万円で売ってるもんな。 RTX 4090の BTO が44万円ぐらいからあるみたいだけど
1万円の中古 PC… ComfuUI触るようになって分かったけど、VAEで画像に戻すときの時間が結構バカになってない。
デカい画像の場合は特に顕著。 >>265
VAEは高速化のためで、それでも画像をそのまま生成するより一旦VAE潜在空間上で生成してVAEで戻した方が早いってことだからそこはしゃーなしじゃろ 1.6にしたらとてつもなく重いのですがどうにかなりませんか >>267
説明がざっくり過ぎるのはどうにかなりませんか
微妙にエスパーすると>>223 の対応で解決しない? 特に露出多くするようなプロンプト入れてないのに基本肩出しだったりで露出多めになってしまいます。ネガティブにnsfw入れたり露出の少なそうな衣装を指定したりしたのですが効果なしです
全体的に露出を抑える方法はないでしょうか? pythonでメモリが常時異常に食うようになってたんだけど自分の環境だけみたいだから
インストールし直したら快適になった。自己解決 肩出しはネガにbare shouldersを強めに入れておけばだいたい防げる まずはclothedを1.3~1.5ぐらいで放り込んでみろ いつまでthin tornやsee throughで生成される溶けた服に付き合わないといけないのか
いい加減少しは賢くなって欲しいもんだが
個人PCのリソースで動くAIなんて賢く成りようが無いのかもしれない RTX 4090の電源はどれくらい必要ですか?
850wでは無理ですか? >>276
AMD の CPU だと 850 W
インテルだと1000 W 以上だね >>276
CPUによる
AMDは3700X~5700Xでも800~850Wくらいで動くみたいだが
Intelはi5 12400 メモリ2枚刺しでギリギリっぽい従来のTDP65WのCPUなら動くはず そんな金かけるなよ
1円にもならん糞落書き作るだけだろw だなw
落書き(同人誌)ここ数ヶ月1冊も買わなくなってる
自給自足できてるw Pixaiの、pixai内で学習したLoraを3つ落としてローカルで使ってみたけど3つともウェイト0.2とか0.1まで落とさないと絵がクチャクチャになってしまう代物だった(ウェイト落とせばちゃんと効果は出た)
これが過学習ってやつ…? RTX6000ada2連装のPCがまた出てるな
スペック好きにはたまらん 最近周りでも RTX 4090で稼いだお金で
H100に移行するやつが増えてきているね
そうなるとアニメの仕事とかもできるし >>280
自分の作った落書きで抜けるとか
おかずは何でもいいんじゃねw
お前なら犬の肛門見ても抜けるだろw H100って
スタンダードな512x768ぐらいで
生成スピード何秒?
瞬間に出てくる感じ? >>280
ヌケないイラスト集のレベルは超えたかもしれん >>290
H100単品でそんな軽い生成なら4090と誤差レベルだけど、多少重くてもVRAM80GBでゴリ押せるし、MVLinkで×18、MVSwitchと併用で×256連装が可能 そのうちRTX4090を見るだけで抜けるようになるぜ >>291
じゃあお前の渾身の1作をUPしてみようかw loraの学習について質問です。
lora brock weightで使用した設定を毎回読み込むのは面倒なので、
lora自体にその設定を組み込んで新たなloraをつくることってできますか? 大抵、渾身の一作レベルは誰にも見せたくないだろう
あと抜けるレベルなら藻消し技術も必要になるだろうw 局部モロ出しとか日本ではどうしようもない
海外だと絵は別の規制もあるけど ID:GXJ0LI4V
煽ってるつもりだろうけど恥ずかしすぎだろw
そこらの拾い絵でシコって寝ろ >>291
怯えてUP出来ないのかw
評価は厳しいぞ!
はよUPしろよチンカス野郎w stable diffusion open vinoがインストールできません
「pipは内部が外部がなんとかこんとかそうさできません」みたいなのが出てくるわ python入れたときにパス通してないとそんなエラーが出るとかなんとか >>305
1回アンインストールしてパス入れる欄にチェック入れて再インストールしてみたんですけどね
pipがインストールされてるか念のため確認してもう一度試してみます
一度Pythonをインストールしたあとだとパスを入れるのが難しかったですね
結局pipのパスは入れないでアンインストールしました
ディレクトリフォルダのスクリプトのフォルダがどうのこうのと聞いたのですがディレクトリが隠しフォルダの中にあると知りませんでした 先輩方はじめまして
mage.space のプロに課金してるんですがcivitaiにあるLoRaを使うのは無理なんでしょうか?mageにあるものだけ? >>307
それに手間取ったのです
環境変数という言葉を初めて聞きました
またスクリプトの環境変数を定義しようにもスクリプトのフォルダがどこにあるか分かりませんでした
隠しフォルダの中にあるというオチでした
今はその問題は解決して、WindowsかPythonを管理者モードでやらないといけないみたいです
また調べておきます >>308
そのハゲ スペースっていうのがわからないんだけど
ステーブルディフュージョンとなんか関係あんの? >>293
4090でも早いんだね
重い画像を連続で作る時に
H100が発揮される感じか >>310
ステーブルデフュージョンが使えるオンラインプラットフォームです >>309
python3.10と仮想環境を使いながら特に環境変数は修正せずに実施できたから参考にどうぞ
7800X3DのCPU実施で速度は平均1.27s/itの40sでまあまあ?
https://i.imgur.com/IgeqdmA.png
・以下powershellで実施
python: 3.10.6 (python -V)
pip: 22.2.1 (python 3.10) (pip -V)
D:\***\stable_diffusion.openvino> python -m venv venv
D:\***\stable_diffusion.openvino> .\venv\Scripts\activate
(venv) PS D:\***\stable_diffusion.openvino> pip install openvino-dev[onnx,pytorch]==2022.3.0
・requirements.txtファイルの全モジュールのバージョン指定表記部分を削除(python 3.10に一部が対応していないため)
D:\***\stable_diffusion.openvino> pip install -r requirements.txt
・diffusersが新しすぎてとあるクラスの__init__で落ちるので、一部モジュールを元の指定のVer.でインストール
(venv) PS D:\***\stable_diffusion.openvino> pip uninstall diffusers
(venv) PS D:\***\stable_diffusion.openvino> pip install diffusers==v0.2.4
(venv) PS D:\***\stable_diffusion.openvino> python demo.py --prompt "1girl, blonde hair, blue eyes" >>311
連装して規模を大きくできるのが最大のメリット(H100を1本だけで使う人って居るんだろうか?)
定価1本500万だけどな! 実写系の肌の質感向上は
SDXLじゃないともう限界かな
SD今までありがとー >>308
まったく知らないけど
ジョークなのか無知なのか、動かないのにどっかから流用したプロンプトに入れてる人がいて
それを見た人がどうやって使うの?って混乱きたしてるみたいな話があるな
pro課金で何ができるかも知らないけど
モデルが用意されたもの以外アップロードして使えないなら、loraも当然そうだろう
物によってはそこそこ容量(147Mとか)食うものなので、容量に対する使用ポイントでも設けられてなかったら
皆がアップロードし放題になってパンクする >>316
そんなに質感良いんだ
SDXLでエッチなの早く使えるようになって欲しい >>318
現状はSDも良いんだけど
将来性や伸び代はSDXLかな
モデルやLoRa開発者はSDXLに移っていくだろうし こういうその辺の日本人のJKみたいなの出せるモデル無いよね?
pixaiにしか無いんだよ
あったらどれか教えて欲しい
http://i.imgur.com/RZqmce8.jpg 正直なところXLの質感を知ると旧SDは厳しく感じるね
アニメ系はしつこく旧SDが続く気もする アニメ系はXL向けのLoRAが充実したときにどうなるか エロが充実しない限り棲み分けすると勝手に確信している >>296
extensionのsuper marger→
最上段loraタブ→
lora一覧から目的のloraにチェック→
中段のボックスに選んだloraが表示されるので
lora:1:lbw=1,0,1,0.., とかプリセット使ってlora:1:lbw=char
とか層別データ指定してmarge lorasボタン
昨日やり方覚えた✌😄✌ 実写系のSDXLで生成する時
やっぱりLoRaもSDXLじゃないと効かないの? >>317
ありがとうございます!
勉強になりました。 てかLORAにしろなんにしろモデルに関するものは全部バージョンに合わせたものがいる >>327
やっぱSDのLoRaはSDXLで効かないか
さっき色々弄ってたらcheckpointがバグって
バックアップからコピーしてwebUI再起動しないとダメになったから焦った >>324
ありがとうございます!!!!!!試してみます!!!!!! 実写系SDXLで目に光入れたいんだけど
プロンプトでlight in the eyes入れてもイマイチ
どうも目が死んでるのが多い
何か良い方法ありますかね? アニメ系は1.5で十分
軽いぶんだけLoRAも作りやすいし、XL使う理由は文字入れられる程度しかない >>330
シイタケLORA使ったら?
実写にも効く >>313は***のところにモデルを入れればいいのでしょうか? >>334
モデルは入れずに適当なフォルダで以下のコマンドを打って上記の参考につながる感じですね
モデル自体は上記のインストール中にどこかで勝手に入るのではないかと
git clone https://github.com/bes-dev/stable_diffusion.openvino python入門サイトを見て環境構築するのが早いよ
pythonでhello world!できないレベルだとSDの環境値いじるのも難しいだろ アニメ絵についてXL気になってdeepblueXL_v010使ってみたけどnudeまでは簡単にできる
ただ、エロいのは難し過ぎる
もっとnsfw得意なcheckpointないだろうか? break domainXLはどうなんだろ?もともとのやつはエロが得意だしXLでもいけるんじゃないかな
自分ではまだXL自体試してないけど XLはオマンコを描いてくれなくて股間に何か変なものが描かれてしまうけど、胸ぺったんこの裸のロリは普通に出てくるぞ >>338
今試してみたけどdeepblueXL_v010と同じ程度かな
>>340
タイポってるけどxformersの代わりのおすすめあるの? >>340
色々違うの出てるけど
xformerはまだまだ現役で使えると思うが googleドライブに同人誌入れてたアカウントが
アカウントごと削除されたとツイートされたけど
SSD以外でのバックアップは危険だな 今はxformersによる生成結果の微妙な変化もわずかになってるというしね adはxformers対応してないから遅い
40と30はxformersじゃ無くてもいいんじゃね >>335
ありがとうございます
>>336
やっぱり知識ないとダメなのかな?
もっと簡単にできるものだと思ってたけど >>346
知識なんてあとから付いてくる
とりあえず、試行錯誤した方が早い
年配者とかスマホとか説明書全部読んで始めようとするから失敗する
ちなみに最近はAI使えば初心者が書く程度のPythonコードくらいは書いてくれる lora学習でタグ編集する時に鼻とか眉毛とか輪郭とかのタグ無いんだけどこれらは勝手に学習するって事なんか? LoRA学習でタグ編集する時に小学生とか中学生とか女の子とかこれらは勝手にロリって学習するって事なんか?と同じ意味やろ
promptってなんやねんw >>347
ありがとうございます
そうですね、とりあえずやってみます SDXLはかなり文法を理解出来るようになってるから、これまでみたいなpromptはめっちゃ効きが弱くなる
普通に翻訳サイトで翻訳したのぶち込んだ方が有効なレベル Stablity AiがSDとかSDXL用の翻訳アプリなりサイトなり出してくれればいいのにな SDXLは実写だとアジア系の人体素材が圧倒的に足らん。欧米は何とか我慢できる 日本のAVメーカーが参入すれば爆益を生み出せるかもな SDXLってSDみたいに単語をポンポン並べるより
文章の方がAIが理解してクオリティが上がるもんなの?
確かめてみないとわからんが SDXLもSD同様に
モデルがどれだけ学習したか?によると思うんだが open vinoのノートブックいじったせいでエラー起こしたわ
こっからいける225のやつ
https://github.com/openvinotoolkit/openvino_notebooks/wiki/Windows
一応それで画像を(まったく望んでない画像だが)生成するところとモデルを変えるところまではいったけど変えてはいけないところを変えたらしい
昨日教えてもらったやり方もやってみますがノートブックの初期化の仕方も知ってる人がいたら教えてください
軽くググってみましたがそれらしき情報は出ません
新しいbingというAIに聞いたところkernelをリスタートしろとのことでしたがやっても無理でした SDXLはアート寄りというか、どこかイラストちっくで
求めてる絵じゃない StableLMという言語モデルも開発してるみたいだからそれでプロンプトを文章を理解する?
でも、品質の部分に関しては単語並べるのが簡単だよね ざっくり、品質系のプロンプトって実写系とアニメ系でどこか大きく変わります?
初心者ですがネットのやつ見てても今ひとつ法則がわかりません。 実写系のSDXLは
まだ人形っぽい感じが抜け出せてない
肌質は良い感じ
しかし圧倒的にアジア系の学習データが足りてないせいか
生成される顔は丸顔が多く体に対して顔がでかい
アジア系はこんな丸くないし
顔のデカさがいつも気になる >>365
実写系オンリーで使ってるけど、そんなキモイCG顔まず出ないぞ
どうしたら出るんだよw >>363
モデルによって全部違うんや
気に入ったモデルを研究するしかない >>369
ありがとうございます
と言うことは、アニメ系でもphoto realisticとか入れたりすることもあるってことですか? あ、でも俺の場合XLで小さく出して1.5で拡大してるからかもな
12GBじゃでかいの出せない >>369 すみません
聞くより試してみた方が早いですね
ありがとうございました 早くBRAのSDXLバージョン来てくれ
BRAじゃないとダメなんだ >>365
sdxl は プロンプト凝ってない状態だと
こういう風になるよね
プロンプトにこると全然違くなる sdxl のプロンプトこったやつにすると
肌の質感が非常に細くて人間に見える
ただ vram をたくさん使う 実写系は実写っていう基準があるからまだしも、
アニメ系はこれといって基準がないから個人の感想でしかない SDXLは背景がぼやける、SD1.5は背景の細かい部分が歪んだり崩れたりするが根気強くガチャればましなのが出てくる
この差でSDXLは限界を感じている SDXLは背景がぼやける、SD1.5は背景の細かい部分が歪んだり崩れたりするが根気強くガチャればましなのが出てくる
この差でSDXLは限界を感じている それってボクSDXLちゃんと使えませんって暴露してるだけじゃねえかw それってボクSDXLちゃんと使えませんって暴露してるだけじゃねえかw SDXL で背景がぼやけないプロンプトを書けばいいだけで
sdxl のあるモデルこれすごいね
本物に近すぎて何と言えないけれども SDXLでこれからはハイエンド層とミドル層で別れていくからミドル層の中ではハイエンド層を妬ましく思い、自分はミドルでいいと言い聞かせながらハイエンド層の足を引っ張りたいという人間が出てくるだろうなと考えてるおじさんの背景がぼやけてない画像作れますか? SDXLの方がどう見ても背景綺麗なんだが
ただSDより良い絵を生成するためのプロンプトや設定が
難しくなってる印象はある >>383
サンプルを見せてくれ、どんな感じなんだ?
プロンプトまではいいから、サクッと画像だけアップしてくれ
ネット上でよく見るSDXL画像は、うすボンヤリした画像ばかり >>386
vrm が4gb とか 8GB クラスの人は SD で
16GB 以上の人が SDXL とかになるかもね
SDXL は 写真の作り込みがすごい >>388
なんで背景をわざと薄くぼんやりしない
SDXL になると実写と変わらんのよ SDXLって、まだ「思い通りのポーズ・状況の絵」っていうよりは「結果として良い絵(単体として見栄えの良い絵)が出る」っていういんしょう強いな >>390
388は世に出てる商業ポートレートの多くは背景がぼやけるレンズを使って撮影されいていると知らないんだろう
ここには毛穴や皺が見えないと品質低いと思ってそうなエロ画像しか見れなさそうなのもいるし
商業ポートレート写真集とかは敢えてフォトショ等で肌のキメの粗さや毛穴等けしてるからな >>392
プロンプトに被写界深度のプロンプトを打てばいいんだよ >>391
sdxl になったらコントロールネットはロラになっちゃったからね コントロールネットの作者が
SDXL の簡単インストーラーの
Fooocusフォーカスっていうのを
作ってくれたのでそれを調べて
入れてみるといいよ
ダウンロードして回答して
バッチファイル実行するだけだから この連投はどこのLLMが書いてるんだ?
説得力があるようで微妙にずれたことを書いたり、LoRAをロラと表記するあたりAI臭がするんだが 背景の話じゃねぇよ、人物の話に決まってるだろ
なんとなく解像感があるにはあるが、ボヤーっとした絵柄ばっかり 胸がデカくならんと思ったらhugeでなくhige breastsになっていた AUTOMATIC1.6でNSFWチェックは緩和されたとの話だがそれでも規制されていてしかし1.6は前のやり方では無効化出来ず有志によるGitHubにあるNSFW拡張で有効にしつつ数値をマイナスや0でチェックはなくなるようだが
1.6でのNSFWチェックって今どうなってるの?
みんなは無効化してる感じ? Automatic1111=元のSDにあるNSFWチェックははずされてる
むしろチェックが必要ならextension入れるんじゃなかったかね いや自分の体感ではAUTOMATICにNSFWチェックは入っていて拡張でそれを辞めれば規制はなくなる感じかな
まあでもおま環かもしれんから一般的でなければスルーでOKで情報として onsen girl で100枚生成したときの
裸と水着姿の割合を指標にすれば統計的に分かるかも automatic1.6ってnfswがデフォで入ってるから
エロが出にくいってことですか? いや1.6はNSFWがかなり緩和されたけどそれでも規制されてるって感じかな ただ間違ってるかも知らんからNSFWの調整や無効の拡張を使っても結果が変わらない意味ないよというのならこちらの気のせいだということですまない
なんだか明らかに違うなと思ったから情報乏しく聞いてみたんだが完全間違いならスルーで 実写系のSDXLって
不自然な巨乳が出にくいし
どちらかと言うとリアルな大きさなんだよ
だからnsfwがデフォで入って規制されてるのかと思った automatic1111 1.6.0を導入導入してみよくわからない現象に出会った
同じSD1.5モデル使ってるのになんか品質悪いと思って
前の環境で作った画像と同一シード同一設定で生成してみたら
全く違う画像が生成されるようになったんだけど同じ症状で解決できた人いないかな
pnginfoから設定転写してるからサンプラーから何まで同じはずなんだけど SDXLのファインチューンってまだ気楽にできるようにはなってない? stable diffusion open vinoが無事に動きつつあります
モデルも入れられそうです
相談に乗ってくださった方々ありがとう XLのcontrolnetって
現状canny一択なわけ?
openposeXL使ってもイマイチなんだよ SDXL用のLoRa作る時の教師画像って
やっぱりSDで生成したもの使うより
XLで生成したもの使った方が
LoRaの仕上がり良いの? >>411
clip skipかな?
webuiを入れ直したり色々やっていると気付いたら1になってて2に直してる >>410
胸のサイズの定義がおかしいのはdanbooruタグ由来だから、danbooruから学習していなければ自然になるかと
nsfwというのは、色っぽいポーズをするかどうかに影響する
脱ぎやすさはモデル依存 AMDがソフトウェア軽視でいつまでたってもクソドライバしか作らんから売れないだけなんだがなあ nvidiaも物理破損疑惑ドライバ以降は怪しいままだし選択肢が無いぜ… nvidiaのドライバがAMDよりまともなどと思っているユーザーが現存するのか疑問なレベルでnvidiaもクソなんだが…… nvidiaも大概クソだけどAMD使ったら間違いなくnvidiaはマシに思える
ドライバだけならIntelが一番しっかり作ってるんだがヤツはハードがががが >>422
omegaドライバーなんてのあったくらいだし今もそのイメージだろ
未だに使いづらいよなRadeonの方 まじかよ
nvidia以下とかもう商売するレベルじゃねぇぞ…… >>417
>>413
embedding移し忘れてただけだった・・・くだらないこと質問してすまん なんか更新したら起動しなくなっちゃった…
スクリプトで「python -m bitsandbytesを使え」ってめっちゃ言ってくるんだけどこれ使っていいやつなんかな 緑青の感覚でポン付けドライバ入れはまず不具合に悩まされる(DDU関係無し)
未だにROCm win対応すら不完全
6800無印が赤初デビューだがソフト周りは口が裂けても緑よりマシなんて言えん
不具合乗り越えた先でゲーム用途は満足度得られたけど、
スレ的には…うん >>427
まずググるなり調べてから書き込めよカス >>429
ググっても出てこねーから書き込んでんだよハゲ 前スレにもそんなメッセージ出てる人いたな
質問者がその後どうなったのかはわからんから解決してるのか不明だし
同じエラーかどうかもわからんけど
まあ使っていいかどうかっていうなら使っていいよ
問題が解決するかどうかは前後の文章もエラー内容もわからんからそこは別 AMDはドライバがクソっていうか自社APIを普及させる努力をしなさすぎてやばい
「オープン規格にしますた!あとはOSSの皆さんよろしくニキーw」←毎回これ
他の会社は基本的に必要なソフトはまず全部自社で作った上で作ったものを公開するんだけどAMDは規格だけ公開して自社ではほんと最低限しかソース書かない >>426
SDXL専用と言える1.6.0ってことだよな?
1.5以前のembeddingで使ってたTextual Inversion(.pt)はもう使えない
1.6.0のTextual Inversionは専用で作られた.safetensorsだけになってる
ネガにいくら〇〇.ptと書き込んでも効かんよ >>416
SDXLは4倍の画像数で学習できるところがミソなんで、細部まで描写された画像使わないと無意味
1.5系の画像で学習するならそのままSD1.5系までを使っておけってことになる >>398
SDXLはなんも考えずにやるとそうなるのよ。対策すればシャープになる pixaiのMoonbeamかこれに近いモデルってどこかで入手できないかな? Moonbeamいいよね
MoonbeamのためだけにPixAIやってもいいレベル あれってライセンス的に大丈夫なモデルなんだろうか… Windows+5600G/5700GのiGPUでやってる人いますか?
ただ遅いだけなら問題ないのだが、
AMDだと出力される画像がおかしくなるとかそんな事はない?
RTX2060 12GBから乗り換えようと思っている
いかんせん発熱と消費電力がやばい >>440
え?iGPUからdGPUに乗り換えじゃなくて、逆?
同じCUDA系でもRTX20以前と以降じゃ生成結果は変わるし
変わるのは避けられないとは思うけど見れない程おかしくはならないとは思うよ
AMD系なら遅いの上等でDirectMLでやるかLinuxでROCm使える環境構築できればそれなりなんじゃない?
まあ、個人的には全く勧めないし発熱とか電力がとか言うならWebサービス系に移行する方がいいんじゃないか web ui 1.6に変えたら、起動時のGPUメモリ使用率が4.5GBくらいから6.5GBになってしまった
そのせいなのかtiled diffusionのかなり設定下げないと落ちるになっちゃってこれ改善方法わかる? web ui 1.6に変えたら、起動時のGPUメモリ使用率が4.5GBくらいから6.5GBになってしまった
そのせいなのかtiled diffusionのかなり設定下げないと落ちるになっちゃってこれ改善方法わかる? >>443
1.6にはRefinerあるからTiled Diffusionは意味ないような・・・Tiled VAE使いたいから入れてるのかな?
そもそも1.6はそういう代物なんだよね。サイズの大きいSDXLモデル使用だとまだ増えて8Gくらい使って立ち上がってるよ
12GBからとは言うけど最低16GBは必要な感じ
4090でも1024×1024Hires. fix2倍生成からさらにi2iで2倍なら、VRAM溢れないドライバー使用時ならout of memory
最新のドライバーならメインメモリも使って計40GB以上のメモリ消費で生成してくる。当然時間はかかる
1.6.0からは全く違うから4080か4090が無いと厳しいよ >>440
グラボで絵が変わる理由の多くは乱数生成器で、今の1111だとrandom seed NVの設定でNvidiaに近い絵になる
しかしながらWindows+APUの成功例は聞いたことない
APU例だとLinuxで専用環境作ってメモリ32GB載せて512*512一枚あたり90秒
これ作る意味あるか? 実写系は知らんけど二次元系モデルでpregnantにするとソコソコの確率でヘソが2つになるのはなんでだろう…
下手したらへそが乳輪+乳首になるし >>443
バックアップ取ってるならconfig.jsonを比較してみて差異の中からメモリに関連しそうなオプションを弄ると効果あるかもしれないよ 最近CivitaiのキャラRoraで〇〇.safetensorsと〇〇.pt両方ダウンロードしptファイルは、「テクスチャ反転埋め込みとして使用し」とか書いてあるのよく見るんだけど、
これどうやって使うの?Vaeの所に突っ込んでみたけど動作しないし、さっぱり分からん・・・ embeddingsフォルダにぶち込むヤツじゃなかったっけ >>445
webui1.6がSDXL専用だとかいう思い込みでレスつけるのをやめてくれないか?
そもそも>>443はSDXLモデルを使うなんてことは言っていない >>1を読んで質問しないから違う回答が返ってくるんだろ もしかして自分の○ンコ写真を使ってLoRAを作成すれば好きなキャラや人と……
と考えたがそこに時間を掛けるのは無駄だなw でかい乳と勘違いして乳首になるっぽい。でかい乳をネガると出にくくなるが、とうぜんでかい乳も出にくくなる
ヘソが複数は普通の体形のヘソとボテ腹のヘソを両方描写しようとしている気がする。ヘソをネガると出にくくなるが、とうぜんヘソが出にくくなる
片方だけ禁止する方法はいまだにわからん >>456
なるほどそういうことなのか
乳と臨月の腹が合体してるときもあるわ negativeにextra nippleと入れたいが流石に効果無いだろうな MacBook Proだけど、アップスケールせずにネイティブで2048x1024が普通に出力できるんだね。(STEP30で2分30秒)
よく高解像度だと破綻しやすいって聞くけど、特に問題は感じないな。 >>460
マックユーザーは MacBook Pro としか書かないから何も参考になら MacでSDXL動かしてる人います?
拡張機能を有効して
生成するのにどれくらい時間かかる? >>461
調べたことあるけどMacbook airでも画像生成は普通にできるみたいだよ
ただRTX3060 12GBに比べたら格段に劣る
Macbook Proはairより上だからできるだろう
Mac製品は画像生成では総じてRTX3060 12GBに劣る 軽い切り傷、擦り傷を追加したいんだけど良い呪文無いかな?
scarredは怪我の度合いがキツすぎて除外した 軽い切り傷、擦り傷を追加したいんだけど良い呪文無いかな?
scarredは怪我の度合いがキツすぎて除外した >>463
いやそうじゃなくて MacBook Pro 言われても
6万5000種類ぐらいあってどれ?
逆に RTX 3060の12GBって64種類しかないから
特定はできるんだけど >>467
そんなに種類あるの?
知らなかったわ
たとえばm2proとかm2maxとか書き方あるよね
チップの種類は書いて欲しい >>468
まあその書き方だとまだ数百種類しかないから >>468
まあその書き方だとまだ数百種類しかないからね >>469
それでも数百種類か
あとメモリもものによって違うからね
Macのm1チップとかm2チップとかはcpuとgpu兼ねてるわけだからメモリは重要だ
たしか96GBとかの中二病みたいなメモリもあったぞ
メモリがvramと兼用で96GBなら相当性能いいわな
m2maxで96GBならRTX3060超えるかな?
MacProならm2ultraで192GBとかできるから金があればそれも試してみたい
俺の財力だと無理だけどな
Macでハローアスカベンチマークやってくれる人とかいないかな
参考にしたい ごめんごめん、M1 2021で10core RAM16GBのやつだよ。 ごめんごめん、M1 2021で10core RAM16GBのやつだよ。 >>475
stable diffusion以外の理由があってMac使ってるとかならありだと思う
stable diffusionなら中古パソコンに3060 12GBがコスパいいだろうけどな
ただメインメモリとvram兼用で192GBというのは画像生成してる最中に他のことをやらなければ凄まじい量のメモリが画像生成に使われてるわけだ
実質180GB以上のメモリがな
ロマンだよ 5chが全体的にDDos攻撃食らってて不安定なのさ 今までM1mac使ってて最近4070tiのWindowsPCに買い換えたよ
まぁAI画像生成のためだけに使ってるんじゃないだろうけど、画像生成に限って言えばMacは本当にコスパ最悪だということが分かった
ざっくり言えば普通のM1macの倍の金出してWindowsPC買えば40倍の速度で画像が生成できる LoraによってHires.fixすると前後でまったく別の画像になってしまう(ポーズが変わる、人数が増える等)事があるのですが、解決法をご存知ないですか? 皆、画像の良し悪し選別って最終的には気合(人力)でやってるんですか?
調子のって生成しまくってたら
積んどいた夏休みの宿題みたいな気分になってきました…… OutOfMemoryError: CUDA out of memory. Tried to allocate 5.91 GiB (GPU 0; 23.99 GiB total capacity; 8.28 GiB already allocated; 11.36 GiB free; 8.87 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
今まで普通にできてたのですが 8.87gibの予約されてるとかエラーでてしまってるのですがどうすれば良いでしょうか? >>485
VRAM足らないことだけ書かれても判断付きかねるからもっと情報欲しいな
・OutOfMemoryが出るようになった前に何かしたか
SDバージョンやグラボドライバー変えた等
・どんな作業をしてエラーが出たか
Hires. fixやi2iでのアップスケール等 >>485
その RTX 4090 で 8 GB すでに使われているので それが何で使われているのか調べる すべての場合でマックを使っているのは
デメリットしかない
画像生成をしたりゲームをしたりインターネットをしたり
ワードエクセルを使ったりデメリットしかない 一ヶ月ほどお試しで画像生成してます
動作環境はLenovoのリース落ち?のThinkCentre M720s Small
i5-8400でメモリ32GBのWindows10
グラボは補助電源が無理そうなのでCPUオンリーで生成してます
1111はCPUオンリーでは無理だったので
しばらくEasy Diffusionを使ってましたが慣れる頃には生成失敗が多発するため
ComfyUIに変更すると失敗しなくなりしばらく使っています
SD1.5だとスワップファイルはなしでも生成できてましたが
SDXLは30GB超のスワップファイルが発生しますがSTEP25で30分ほど
アップスケールすると2時間程度、、、
時短したいのですがあと32GBはメモリを増設できそうですが効果自体あまりなさそうなので
余っているP8H77-M PROに3060 12GB買って付けるかどっちがいいでしょうか
(cpu:i5-3470,mem:16GB) 再起動してもだめで
>>487
v1.5.2でhires.fix+Controlnet2つ使うと落ちるようになりました
今までは3つ使っても大丈夫だったのに
8月にローカルにstableコピーしたくらいで
二週間前にng deepnegative入れてとadditional networksにlora入れたくらいです
でも入れてない8月にコピーしたstable起動しても同じエラー出ました
>>488
検索したりchatgpt使ったりしてますがわからず8GB使われてるの調べ方ありますか? >>490
エラー出た時はSDXLモデル読み込んでいたとかない?SDXLモデル6〜7GB近くあるから 上アンカ間違ってた>>490 じゃなくて>>491です >>491
8GB アロケートされている
ゲームしてたりブラウザ開いてたりしてないか? stable Diffusion で画像生成してるとユーチューブがグルグルフォーエバーになったりするのも
それが原因? それは単にマシンスペックの限界まで酷使されてて再生出来なくなってるだけ >>494
SDXLは使ってないな…
>>495
Limbus companyってゲームよくやってたけどデータ入れ直したが駄目だった
どこで8gbされてるのか特定できない… LoRa職人に質問なんだけど
切れ長美人のLoRaを作りたい場合
顔全体が見える画像か
目の切れ長部分だけ(長方形)の画像か
どちらの方が良い仕上がりになるの >>496
YouTubeの再生にGPUが使われてリソースが足りなくなっているんじゃない ぶっちゃけ今SDXLの二次元モデルで一番マシそうなのってどれだろ
とりあえず非エロでいいので 二次なら、まあ順当にカウンターかブルペンかじゃないかと思うけど
ただ、1.5のpromptではかえって画質が低下しまくるのはSDXL系の特徴で、これは両方とも共通してると思う >>498
分からないんだったら何も
プログラムを起動していない状態で
ステーブル ディフュージョンを起動してはどうか
それか BTO みたいなクソ PC でやっているのか知らんけど >>498
それとシスモンの GPU VRAM 使用量はいくつ? >>498
試しに実験してみたんだけれど
GPU を使ってそうなプログラムを
全部削除して状態で vram 1GB 使用
そこからステーブルディフュージョン XL を起動すると
10.6 GB VLAM を使用
さらにそこからステーブル ディフュージョンを実行すると
13.3 GB VRAM 使ってるね
うちでは
1
9.6
2.7
改めて画像作成 sd で画像作成するのに
4GB vメモリーが必要っていうのは
そうなんだねって納得した >>498
試しに実験してみたんだけれど
GPU を使ってそうなプログラムを
全部削除して状態で vram 1GB 使用
そこからステーブルディフュージョン XL を起動すると
10.6 GB VLAM を使用
さらにそこからステーブル ディフュージョンを実行すると
13.3 GB VRAM 使ってるね
うちでは
1
9.6
2.7
改めて画像作成 sd で画像作成するのに
4GB vメモリーが必要っていうのは
そうなんだねって納得した >>482
解決しました!ご親切にありがとうございます! SDXLの学習ってLORA以外
まだ一般ピープルにはできないのか SDXLの学習ってLORA以外
まだ一般ピープルにはできないのか >>510
8GB VRAM 使ってるって書いてあるからね
それを潰さないとお手上げだよ
これ見てもわからんし 剣を持たせるような構図が全く上手く行かないのですがなにかいい方法はありますでしょうか?
刀身が途中で切れていたり、曲がっていたり空中に生えていたり、柄がありえない長さだったりという感じです
色々とプロンプトも変えてみたのですが一向に改善されません
オススメのlora等もありましたら教えてください
メインで使っているモデルはmeinamixです 剣を持たせるような構図が全く上手く行かないのですがなにかいい方法はありますでしょうか?
刀身が途中で切れていたり、曲がっていたり空中に生えていたり、柄がありえない長さだったりという感じです
色々とプロンプトも変えてみたのですが一向に改善されません
オススメのlora等もありましたら教えてください
メインで使っているモデルはmeinamixです >>515
ちょっと興味持ったけれど
その持っている県は何の県でしょうか
エキスカリバーでしょうか
剣道の市内でしょうか? SDXLのLoRAを無料で学習させてくれる優秀なサービスはよ スクリーンショットも知らない勢が押し寄せているんだな…… controlnetがインストールされてるのに表示されない時の対処法教えて下さい civitaiで今下の方にあるwater samuraiは刀を握っているな ここは何事も無かったように会話してるなーとか思ったけど
よく見たら重くて連投しちゃってる人も多いな
やっぱまだまだおかしいんだな 複数のGPUを付けているのですが、マルチGPUとしてVRAMを合算することはできないのでしょうか 今フルHDでRTX2070なんですが
近く4kモニタ購入予定でゲームもするAIも学習もする予定で
4070ポチッたんですが間違っませんよね? >>525
それができたらいいんだけどねえ、非対応なので無理です SLIって結局、鳴かず飛ばずで終わったなあ
まあ、電源容量的に非現実的になってるっていうのは確かだけど >>520
XLとか元々無機物や風景に特化した学習で人物生成には全然向いてない
特に二次系はクソすぎて二次特化の優秀なLora職人とかほとんど撤退しちゃってるし今後増える事は無いと思う。
個人的な予想だが、XLもVer2系同様、そのうち誰も見向きもしなくなると思う。
現状エロ特化で稼いでる奴とかも誰もXLなんて使ってないし
Stable DiffusionもVer1.41最強のまま、全然進歩してねぇ~しなぁ XLはエロすらまともにだせ無い劣化版なん? って見方もあるわけだしなあ そう言いたくなるのはわからんではないが、かなりその辺は今後は厳しくなるだろうな
建前としちゃ、AI学習データとしてアクセス出来る領域にそういうもんが存在していてはいかんわけだからして XLはまだ出たばっかりだから半年後1年後はどうなるか ゆうてSD1.5だってNAIリークあってのものだしSDXLで100万個200万個と二次絵食わせる富豪が出てくれば違ってくるんじゃないかな
というかそうでないとSDXLでLora作ってみようという機運にならないのでまずスタートラインがそこだと思う
エロ絵自給用途はともかくビジネス用途などを考えるとNAIリーク前提のSD1.5にみんなが定住してる状態は本来良くないのも確かだし
個人的にはSDXLもっと盛り上がって欲しいんだけどな
とか言ってると一年もせんうちに公式が「SDXL2(SDXL非互換)出したよ!またみんな1から学習よろしくニキー!」とか言い出して
いよいよユーザー全員が「知らねえよもう一生SD1.5でいいよ」ってならないか懸念してるの俺だけですかね… >>527
高すぎて買えない人もいるだろ
たとえば俺は大きな買い物のための貯蓄は基本的に月7000円でそれに加えて予備費の中から余った金を蓄える、パソコン以外にも大きな買い物ののための貯蓄は使う、という感じだ
これだとRTX3060 12GBを買うのにも苦労する
今のところは13万6000円で今月は1万3000円から1万4000円ほど使う
ゲームにも使うからi5 13世代がいいし1TBにしたいし壊れたらダメージが非常にでかいので保証もいいのにしたい
だから楽観的に見積もってもあと半年待たないといけない
まあ大きな買い物のための貯蓄以外に月2万円貯蓄してるからそれを放出したらどうにでもなるけどな
それはガンになったときとか交通事故に巻き込まれたときとか緊急用の貯蓄だからよほどのことにならないと手をつけない >>535
ぶっちゃけローカルにstable diffusionをインストールしたあとそのパソコンは絶対にインターネットにつなげない、ということをすればi2i使って相当とんでもないことができるからな
nsfw,nakedのプロンプトでi2iしたらとんでもないことができる
それらのプロンプトを二次元のモデルで入れたら裸の画像が出てくるからな
みんなに一応言っておくが実在する女性・女児の写真を元画像にしてそれをやるのはその女性・女児の尊厳を破壊することなので絶対にやっちゃダメだ
あくまでも二次元のイラストか、実写風のイラストでも実在しない女性・女児でやろう
そういうことも含めて規制はされないといけないだろうね
モデルは人間が描いたイラストや実際の写真を元にしてつくられたものだから著作権や肖像権の侵害の問題もある でも間違ってないんだよ。
4070のターゲットはWQHDで画素数はFHDの1.8倍。
一応、最新のゲームを高画質レイトレーシングで遊べる目標。
4Kの画素数はFHDで4倍。4070のターゲットの2倍以上。
4070で最新ゲームを遊ぶぞ、という時は画質オプションを下げたりレイトレーシングを切らないとfpsを維持できない可能性がある。
まあゲームによるけど。 SDXLですら8G民が足切り寸前なのでSDXL2とか出してもみんなハード的に付いてこられないと思うぞ
なのでSDXL2が出るとしてもGF RTX5050の16GB版が3万切りで買えますくらいの時代じゃないと無理じゃないか SDXLの実写系なら
脱がせることはできるが
SDのような下品なことは難しい印象だな
XL対応のLoRaが少ないんだよ
ポージングのLoRaってほぼSD対応だし >>540
それでも貧乏人からしたら難しいわ
また、最高画質じゃなくても別にいいって人もいるしね 4KでもSDXLでも4倍の画素を処理するのは甘くない どういうエロを目指すかにもよるけどSDXLは奇形率は低いがエロくは無いので、SDXLで着衣ベースで画像作ってi2iでSD1.5でエロくするという手も無くは無い
くんずほぐれつ前後左右から汁まみれを目指すとこれではさすがに厳しいだろうけど 髪の内側がハイライトされちゃう現象NAIのせいとか言われてたけどBluePencilXLとかでも起こるのお排泄物ですわ SDXLで生成した画像を
SDのi2i経由のcontrolnetでポージングいける?
それだとSDのモデルに変更しないとダメだから
SDXLの元モデルと似たようなの選ばないと
雰囲気大きく変わるでしょ sdXL でエロ出せないって十分出てるんだが
これ以上どうしたいんだよ すいません。MacBook Air M1で16GBです。先日osをSonomaにアップデートしたら生成時にエラーが出るようになりました。 could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.ググってsettingのUpcast cross attention layer to float32にチェックを入れる方法やwebui-user.batのファイルのset COMMANDLINE_ARGS=に--no-halfや--disable-nan-checkを入れてみましたがだめでした。何か良い方法があったら教えてください。 >>538
高い安いはおいといてもし「4kでゲームも楽しむ」を想定してるなら4070は間違ってるわな
4070ti持ってるけど、それでも4kゲームはモノによってはキツい
わざわざ画面のエフェクトとか切ってFPS稼いでまで4kプレイとか本末転倒だしな
4kゲームなら最低でも4080は要る
>>543
画質下げて4kって…‥まぁ好みだろうけど……
実際は2.5kに解像度下げてプレイするとは思うけどな 真面目に4kでゲームするより
低解像度をAIに補間させたほうが軽いってのが答えだと思うけど RuntimeError: self.size(-1) must be divisible by 4 to view Byte as Float (different element sizes), but got~
このエラーが急に出てきてlora作れなくなったよ...........
モデルも破損してないはずだし何がなんだか
誰か解決策教えてくれる人いるかな? Ray Reconstruction使えばネイティブよりキレイになるからな
ネイティブが絶対正義とは限らん
そのうち画期的な画像のアップスケーラーも出てくるんじゃね?
ちょっと崩れた低解像度の画像でも、変な部分を補正しつつ高解像度化してくれるやつとか
そうすればVRAM少なくても大丈夫だしな
知らんけど >>548
え、出せるようになったの?
出せないという噂だけでヤル気が削がれていたけどw
出せないならsdに時間割いたほうが良いし SDXLで出せないことはないけどアニメ系R18Gはパーツが少ないからかなり苦労する
というかモデルがかなり少ないし、リアル系で出すとアニメじゃなくなる
まあ上半身とかのR15相当なら簡単に出せる
あとリアルと写真はそれなりにある SXLは Fooocus っていうやつで簡単にインストールできるのと
このスレでまるまるっていうエラーが出てるんですけどどうしたらいいですか っていう風に書いてる人多いんだけど
SDXLエラーが出たことない SDXLで騎乗位のエロ画像生成試してそれっぽいのが出来たけど、今のところは1.5で解像度上げる方がいい感じ
モデルによってはエロ画像も作れるので、時間が経てば良くなりそう 自分だけかもだが
プロンプト(呪文)は強調より複数ちりばめた方が画面に反映されやすいかもね
強調すると崩れたり全く反映されなかったりもあるがプロンプトを複数箇所にちりばめると狙いに近い画像が出るね >>558
sdxl の一番いいところは
環境設定が簡単ということだよね
設定してしまえば 安定している
それとシステムが分かりやすい
SD の場合 コントロール ネットのインストールとか
URL がどうのこうのとかっていうのがあったけど
SDXL はファイルをロラフォルダに放り込めばいいだけだし >>556
civitaiとか行くと XL のローラとか大量にあるんだけどこれでも足りないんか? >>561
アニメ系は足りんね
量産型キマイラ製造してしまう
、 >>562
そうかもしれないけれども結局自分で作るしかないじゃん? だからパーツが足りねえって言ってるじゃないか
千日手かよ >>564
マニアックなアニメロラそんなにたくさんあるわけねえだろ >>565
SD1.5のバージョンはあるだろ
いい加減にしろ >>566
だからSDであってSDXLでないアニメを上げてみろって
いい加減にしろって カタカナでロラと書く奴は例のアレだから相手しない方がいいぜ ガチャをチョースピード!?にしたくてRTX4070無印→RTX4080に買い換えるのはありかな?
あんまメリットないかな
rtx4090は流石に手が出せない ガチャをチョースピード!?にしたくてRTX4070無印→RTX4080に買い換えるのはありかな?
あんまメリットないかな
rtx4090は流石に手が出せない >>570
メルカリに流せるのを考えれば4090を使う実質の負担ってそんなに無いぞ
沼ったら絶対欲しくなるし、4080こそ半端
4070で十分 >>570
AI画像作成スピードでググってみると
そんなに早くならないので
安いPCをもう1台作るほう方も検討した方がいいかも 髪の内側が変に着色される現象(金髪の襟元内側が黄色く塗られる等)って何か対処法あります?
SDからSDXLまで何でも起こるのでネガティブプロンプトに「(髪の内側の変な着色:10.0)」とか書けるものなら書きたい… >>574
BREAKやCUTOFFなんかでこまめに分離するぐらいしか色移りは対処の方法が無いのが現状
しかも、それでも完全とは言いがたい >>577
いや色移りじゃなくてBREAKやCUTOFFどころか、例えば髪も目も服も全部青でそれ以外の色を一切指定しないキャラでも
髪の内側(つまり手書きなら影にするであろう部分)が水色に発光したりしません?
こういう表現にも需要があるというのは分からないではないんですが、やめて欲しくても制御できずガチャ頼みなので非常に歩留まりが悪くなるというか… ? そんなのは全く経験がないから想像したこともなかったんでてっきり色移りかと思った。逆にどうやったらそうなるか知りたい。 マントの裏地みたいになるのはたまーにあるね
根気よくガチャガチャするしか無いと思ってる
逆手に取って裏地出るようなもの着させてそっちに吸い込ませて後で消すってのも有るよ >>579
今ぱっとあげられるのだとCounterfeitXLの作者本人がサンプルとして上げてる
https://civitai.com/images/2170431
https://civitai.com/images/2170432
とかどうですかね
前者はまだ目が黄色なので色移りの線もあるんですが、後者なんかこの黄色どっから来たんだよっていう
XLじゃなくてもAnythingとかでも結構同じような描き方してこないですか? 一枚目のは単に全体的に黄色のトーンなんで単に環境光の表現だと思ってたわw
二枚目の黄色はセーラー服のタイから来てる気がするなあ。色指定してない部分の色が移る、一番イヤなパターン
あと、ネガティブワードに油絵と印象派を突っ込むと軽減される可能性は少し感じた genshinとかhonkaiとかネガティブにすれば減らせそう(偏見) >>572
ありがとう、なんかスッキリしたわ
>>573
そっかぁ、専用でサブPC(RTX3060@12g)あたりくんで放置プレイもありっすねぇ
4080とは縁がなかったってことで そういえばSDXLってcutoffまだ対応してなかった気がするんだけどいけるの? 需要からしたらそうしようとする人が居ても不思議じゃないんだけど原理的に不可能な気が
XL側で1.5のLoraを自動でアプコンして適用してくれる技術出てこないかな SDXLのCutoff使いたいよなー
開発者アプデしてくれないんだけど
使える拡張機能がXL未対応なの多いんだよ i2iで正面を向いた女性をポーズ変えることってできますか。顔が同じ女性のままで右斜め45ど向いた画像が生成したいんですがプロンプト効かないし、reference onlyでもかわりません i2iで正面を向いた女性を同じ女性のまま右斜め45度に向かせる方法ありますか。プロンプト効かないし、reference onlyでも出ません 書き込めてないと思ってまた書いてしまいましたすみません kohya_ss付属のwd14 captioningなんだけど
prefixにaaaってやったときに、captionが
aaa 1girl, solo, long hair, ....
ってなるんだけど、これは正常というか、これでキーワードaaa扱いいいの?
aaa, 1girl, solo, long hair, ....
じゃなく 髪の内側は和製英語ではインナーカラーというけど
英語の表現は色々あるから、ネガ効くか試すしかないね 今日学んだこと
underwearはパンツだけを指す場合が多い
ブラジャーもほしい時はbraを追加 Bingイメージクリエイターで日本語で適当に書いたら、頭に描いていたイメージはまさにこれですっていう絵が出てきてビビった。
SDの強みって自分好みにAIを育てることができるっていうか、個別にピンポイントで学習させて突き詰めることができる点なのかな? pantiesはloraでずらしHができたけどburumaも同じ様にしたいけどできないものだろうか? SDはloraとCNがやっぱ強いわ
この二つのおかげである程度の連続性を確保できるから、アニメまで持ってける
DALL-E3は文章読解力がクソ強いのでpromptエンジニアなんかいらんかったんやっていうのがすげえ
けど、連続性はやっぱり確保するのはすっごい困難
DALLのモデルとSDの柔軟性が組み合わさったら最強なんだが…… 初心者なのですが質問させてください。
いろいろな解説を見て導入したのですが、localにautomatic1111(v1.6.0)を入れたのですが、generateボタンの下に矢印アイコンとゴミ箱アイコンしか出てきません。
花札アイコン以下のアイコンが出ていないのですが、これは仕様変更になっているのでしょうか。
プロンプトのセーブロードはどうするのか分かりませんでした。 初心者なのですが質問させてください。
いろいろな解説を見て導入したのですが、localにautomatic1111(v1.6.0)を入れたのですが、generateボタンの下に矢印アイコンとゴミ箱アイコンしか出てきません。
花札アイコン以下のアイコンが出ていないのですが、これは仕様変更になっているのでしょうか。
プロンプトのセーブロードはどうするのか分かりませんでした。 初心者なのですが質問させてください。
いろいろな解説を見て導入したのですが、localにautomatic1111(v1.6.0)を入れたのですが、generateボタンの下に矢印アイコンとゴミ箱アイコンしか出てきません。
花札アイコン以下のアイコンが出ていないのですが、これは仕様変更になっているのでしょうか。
プロンプトのセーブロードはどうするのか分かりませんでした。 >>598
まだ少し触っただけだけどdalle3やばいね凄いわ
stable diffusionとも相性良いから専スレ欲しいな
スマホでアイディア出し
かなり複雑なイメージで欲しい絵にかなり近いのdalle3で簡単に出せる
それをSDで最新CNのopenposeとかpreference onlyが相性良い
欲しいイメージ作るのdalle3使うと早い…
後ローカルSDはやっぱ🔞最強 学習の過程で「この絵には何が描かれているか」を教えてやる必要があるけど
資本力のあるとこはアフリカで英語が読み書きできればOKレベルのバイトを大量に雇って「絵の言語化」を人海戦術でやってるのが強いんだよね
金のないSDではあくまでdanbooruタグ単位の情報しかないので「言語化」と呼ぶにはほど遠くただ単語が近いか遠いかしか見てない
例えばSDに「屋根のない家の前で呆然とする老人」みたいに言っても「屋根!家!呆然!老人!…了解!」にしかならいけど
DALL-E3は「屋根がない」という言葉を理解出来るので台風か何かで吹っ飛んだ家を描いてくれる(描いてくれた)
これは技術の問題以上に高品質の教師データをどれだけ集められるかというカネの問題なのが辛い >>503
ほえ〜なるほど
欲しいイメージが頭にあればプロンプトじゃなくて文章で細かく書いてかなり近いの出せるのしゅごい
ここはSDで出すよりとても早い…
後スマホだけで転がりながらイメージ出せるのもありがたいw
後はこれをSDの機能とかCNで調整する感じ
dalle3で出した構図だけ貰って連続性ある絵に変えたりはやっぱSD強い
まだ触って短いからこれくらいのしか思いつかないけど
専スレ欲しい Windows Defenderを完全に切ったら生成速度上がった
設定で停止しても復活するから駄目
msmpeng.exeが動作してる限り停止出来ていない
セーフモードで権限奪って削除する
Windows Defender\Platform
これでしょっちゅう保存用のHDDがスキャンでガリガリ言うのも無くなる一石二鳥 そこまでせんでもSD配置先と保存先とキャッシュの類のフォルダを除外設定すればええんちゃうの? >>601
プロンプトのセーブロードは鉛筆アイコンからやるようになった
automatic1111のissue見るとこれを改悪だと思ってる人は割といるようで次のバージョンでは改善入りそうな予感
花札の方はプロンプトの下にタブとしてLoRAとか並ぶようになったのでそこをクリック 金の問題かぁ…また流出してくれないかな
なし崩しでオープン化して欲しい >>606
Defender消したら速度上がったから俺はこのまま行くけどね 消してわざわざPC丸ごとリスクに晒さなくても、SDに対してのみDefenderが働かないようにすればいいんじゃない?ってこと。
まぁ、、、どうでもいいけど。 いや、生成が本当に早くなるならどうでもよくなくはないw
どういうスペックでどのくらい早くなったのか言ってくれないと
低スぺで早くなるなら朗報だ
自分の環境では今除外してやってみたけど生成時間は誤差範囲すら変わらなかった
そもそもMsMpEng.exeのCPU負荷が生成中と普段と大して変わらない(0.1〜0.4%)
画像が保存される瞬間だけちょっと上がる感じか >>611
常に常駐してるのにどういう事?
意味不明
>>610
4080だがSDXLで違いが分かる プロンプト貼り付けボタン↙︎バグり散らかしてるのやだ >>612
xl-base-1.0 1024x1024 DPM++ SDE Karass S30
4枚で Time taken: 52.1 sec. python3.12がエラー読みやすくなったりパフォーマンス向上するみたいだから
SDのpyファイルいじくり倒して動くようにしてみたら自環境比1.5倍の性能向上
暇な人はお試しあれ defenderはSDやる前から消してる
exeだけじゃなくdllとか滅茶苦茶連動してるからな
だから速くなってるかは分からんがパフォーマンスが上がるのはそりゃ当たり前だろ Defenderはプロセスの除外じゃ駄目なんか?
鉛筆ボタンは使いづらい以前に保存してもロードできないから使ってねーわ Chromeやbraveでいちいちファイル保存するのにウイルスチェックするからウザ過ぎる
あとタスクスケジュール無効にしようがしょっちゅうスキャン SSDだったりそれなりのスペックのPCでみんなやってると思うけど体感分かる程度の差が出るものなのか?
Defender削除はそれよりもデータ消失とかそっちのリスクがデカくならないか? >>618
レジストリ書き換えてもPC再起動したら戻る最悪仕様
セーフモードで消すしかない >>620
なんともない寧ろ
ウィルススキャンに失敗しましたでChromeやブラウザ全てでファイルダウンロード出来ない報告が沢山あるから検索してみ >>616
方法を書いてくれないとデマか冷やかしじゃないか 久々にバージョン上げたら長いエラーがいくつも出て何ともしがたいのでvenv消したった
上手く行くといいなあ…… >>615
4090、live preview -1
set COMMANDLINE_ARGS=--xformers --no-half-vae
cat
Steps: 30, Sampler: DPM++ SDE Karras, CFG scale: 7, Seed: 1784384672,
Size: 1024x1024, Model hash: 31e35c80fc, Model: [XL]sd_xl_base_1.0, Clip skip: 2,
Eta: 0.67, Version: v1.6.0
Batch count 4
リアルタイム保護あり、他全部ON
39.6 sec. 39.5 sec. 39.8 sec. 39.7 sec. 39.4 sec. ・・・平均39.6
リアルタイム保護なし、他全部ON
39.3 sec. 39.3 sec. 39.8 sec. 39.6 sec. 39.5 sec. ・・・平均39.5
全部OFF(リアルタイム保護)・(クラウド提供)・(サンプル送信)・(改ざん防止)
(webui立ち上げ直ししないとなぜかめちゃくちゃ遅くなる、混乱した)
39.9 sec. 39.5 sec. 39.9 sec. 39.2 sec. 40.0 sec. ・・・平均39.7
さすがにセーフモードから止めるのはアレなんでやってないけど、ウチの環境では誤差かなぁ
defenderはタスクマネージャー見てても0.1%とかなんで しかし今のxformers(0.0.20)って同条件で何枚出しても画像まったく同じで変わらないのか・・
コロコロ変わる昔の知識のままだったので、嫌って外してたわ
XL初挑戦+時間計測したおかげで気づいてよかった、2割くらい早く作れるようになったよ LoRA 1の画風で LoRA2のキャラクターを出したい。
そんなことって可能?
流石にちょっと難しいかな LoRA 1の画風で LoRA2のキャラクターを出したい。
そんなことって可能?
流石にちょっと難しいかな LoRA 1の画風で LoRA2のキャラクターを出したい。
そんなことって可能?
流石にちょっと難しいかな >>631
supermergerで?
階層マージってやつ?
むずくね? >>625
だから設定からじゃ同じなのは当然よ
常駐したままなんだから止めた事にならんって
普通にやってもtaskkillさえ出来ないでしょ
他の人も言ってるように1つのexeだけじゃないし
exeだけでも3つ消したし defenderのせいで色々とパフォーマンス落ちる報告もされてる
http://i.imgur.com/mi5PJsg.jpg >>625
4090で4080とたった12秒差ってそんなもんなのか >>635
で、具体的に何秒が何秒になったのさ?
4080でその時間ってほぼそのまんまじゃねーの?
>>636
某サイトの計測データにあったけどそんなもんよ、速さ2割増し程度 絵柄とポーズを指定したくてopenposeとreferense_onlyを併用してt2i出力しているのですが顔がぼやけてしまいます
何か良い方法は無いでしょうか・・・ >>607
ありがとうございます。もうちょい勉強します。
win defは除外設定出来るから、それで除外したらダメなのかな? kohyaに手を出してみたんだけどAttributeError: module 'tensorflow' has no attribute 'Tensor'出る場合はどうしたらいい? animatediffがエラーで全然動かなくてネット上の情報に従ってxformersやめてopt-sdp-attentionにしたら生成速いなanimatediffは依然動かないけどw
Index put requires the source and destination dtypes matah……なエラーでIssueに上がってるからバグなんだろうな >>634
変な時間に起きちゃったんで「defender完全無効」でやってみたよ
https://www.pasoble.jp/windows/11/defender-mukouka.html
証拠スクショ
https://i.imgur.com/QV3Kf6U.png
アクセス拒否3つ並んでるから間違いないよね?
cat
Steps: 30, Sampler: DPM++ SDE Karras, CFG scale: 7, Seed: 1608989298,
Size: 1024x1024, Model hash: 31e35c80fc, Model: [XL]sd_xl_base_1.0, Clip skip: 2,
Eta: 0.67, Version: v1.6.0
Batch count 4
38.9 sec. 39.1 sec. 39.8 sec. 39.4 sec. 39.5 sec.
39.3 sec. 39.4 sec. 39.7 sec. 39.4 sec. 39.4 sec.
10回試行、平均39.49
上の>>625で一番遅かった39.7と比較しても0.53%UP
・・誤差でしょう、やる価値ないと判断し戻しました >>641
環境によってはサンプラーをDDIM等からDPM++ 2M Karras等に変更して動く事もあるようだ >>642
Windows Defender内のフォルダ全て空になってるか見せてみてよ platformとscansとfeaturesは空にしないと Vtuberデビューしたく色々試していたのですが、
イメージ図をimg2imgでControlNetのreference_onlyでやっても似たように生成されません。
具体的には頭の変わった形状のアクセサリーが正しく認識されない状態です。
イメージ図に似せた出力を得るコツなどはあるのでしょうか。
よろしくお願いします。 画風とキャラの特徴はぶつかり合うか変に溶けあうかしかしないんじゃない?
特定の絵師に版権キャラのイラスト頼むようなことをAIにさせようってイメージだとすると
どっちも働きかける場所が近くてうまくいかない気がする
モデルそのものにどっちかを学ばせた状態ならいけると思うけど >>647
<lola:画風:1.0><lora:キャラ:1.0>て書けばいいんじゃないのと思ってたけどそれじゃダメなの? >>649
LoRAによってそれで行ける場合とアカン場合があるな
あかん場合キャラの方のOUT4〜6あたり弱めれば行けそうな気もするが それぞれのLoRAが何学んでるかわからんので何とも言えん >>647
要はこういうことがやりたいんちゃうんか? 違うんか?
めぐみんLoRA+クイックドロースタイルLoRA
https://imgur.com/J2rNgdn いっぺんにやるより、一度キャラLoRAだけで出してから
ControlNetのtile系で強めに固定しつつimg2imgで画風LoRAだけ適用する二段階のが打率高いよ
LoRAの学習精度が相当高くないと一発出しは無謀 いっぺんにやるより、一度キャラLoRAだけで出してから
ControlNetのtile系で強めに固定しつつimg2imgで画風LoRAだけ適用する二段階のが打率高いよ
LoRAの学習精度が相当高くないと一発出しは無謀 両方混ぜた状態でそれっぽく出たらseed固定して比率変えて試して見るなぁ
まぁ、無駄に終わることも多いんだけど まあ、元のキャラを最大限生かすならi2iが一番確実なのは確かだと思う
元画像は別にあるわけだから、スタイルだけ何度もガチャれるし 今朝方からColabで起動すると504タイムアウトするようになったんだけど待つしかない? XLの実写系が深度の浅いボケボケ写真ばかりで困る
どうにかならないかな
pan-focusとdeep focusは効かなかった stable diffusion comfyuiは最新のSDXLが使えるのでしょうか?
git hubのどこかで確認できたりしますでしょうか?
教えていただけると嬉しいです。 stable diffusion comfyuiは最新のSDXLが使えるのでしょうか?
git hubのどこかで確認できたりしますでしょうか?
教えていただけると嬉しいです。 すみません。
git hubにSD1.x、SD2.x、SDXLを完全にサポートって書いてありました すみません。
git hubにSD1.x、SD2.x、SDXLを完全にサポートって書いてありました すみません。
git hubにSD1.x、SD2.x、SDXLを完全にサポートって書いてありました 空き容量が大分圧迫されてきたんだけど、どこのファイルが圧迫してるのかわかりますか?
生成したファイルはほとんど削除したけど、まだ100ギガほど余分に増えてる… 一番容量のでかいフォルダ確認したらええだけやん…… Windows ウイルス対策ソフトを消したければ消せばいいと思うよ
ウイルスに感染する可能性と天秤にかけてね
前によくこのスレでも出てたcolabで作成したいっていう
質問もうなくなったでしょ
あの人たちみんなアメリカに出張しているから supermergerの階層マージで画風とキャラを分けたらいけるんちゃうか?
画風:1:NF , キャラ:1:NG
NF:画風のやつ わかる人教えて
NG: 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1,1,0,0,0,0,0 それがしたかったらローカルを構築したらネットから切り離して不要なものを全部消せば良いのよね >>644-645
名前変えたから同じことだよ
つかお前、突っかかる暇で何秒が何秒になったのかいい加減答えなよ
どう見てもなんかの勘違いだから >>671
やっぱり消せてないのか
そりゃそうだよな、起動中で消せませんになるわなそのサイトのやり方じゃ
名前変えた?そのフォルダ見せてみろよ
以前
xl-base-1.0 1024x1024 DPM++ SDE Karass S30
4枚で Time taken: 69.8 sec.
xl-base-1.0 1024x1024 DPM++ SDE Karass S30
4枚で Time taken: 52.1 sec. >>673
嘘ついてねーってw
なんでそんなことする意味があるんだよ
またdefender削除やんのかよw俺ばっかり そのやり方で名前変更出来る訳無いんだよ
嘘じゃないならやってみろよ
セーフモードなんてすぐ出来るだろ
ファイルが心配ならコピーしとけよ
ホラでないならやってみて > 69.8 sec.
つかこれがまず遅すぎだろ
俺はdefender入ってて39.8sとかなんだから
4080->4090が43%増しってことになるんだぞ?ありえないってわかれ >>676
まずこれが嘘だからな
>>637
2割?
ps://chimolog.co/wp-content/uploads/2023/08/stable-diffusion-gpu-benchmark-14.jpg
SDXL1.0
1600x1024
Batch count 4
4090 24.3sec
4080 58.7sec
これだと倍以上だな そのデータが嘘だと言うならちゃんと証明してみろ
いいから早くフォルダ見せろよ
嘘じゃないならな
ここじゃスレ違いだからどっか移動するか? >>678
https://i.imgur.com/thpcuOy.png
よろしいか?
危ない作業何度もやらせやがって・・
お前がまずやることは「defender入れなおしてもう一度計測」しなおせ!
他人にばっかりケチつけて何がしたいのか
これも画像編集だ!とか言い出すんだろうかこいつは 喧嘩すんなよ
可愛い子猫のイラストでも生成して落ち着け >>667
難しく考えないで、ますは>>649。それで上手くいかなかったらi2i。 >>681
テストやるとき必ずcatにしてしまうのはなんでなんだろう 今サイズが768×512でHires.fixで2倍、Batch size1って設定でやってるんですが3070だとこの辺が限界です
生成に時間が係るので買い替え検討なんですが↑の設定でBatch size増やせるVRAM目安教えてください
例えば12GならBatch size2、16GならBatch size3みたいな事です 今サイズが768×512でHires.fixで2倍、Batch size1って設定でやってるんですが3070だとこの辺が限界です
生成に時間が係るので買い替え検討なんですが↑の設定でBatch size増やせるVRAM目安教えてください
例えば12GならBatch size2、16GならBatch size3みたいな事です とりあえずtiled vae使えばバッチサイズは増やせるだろう
あとは速さ求めるならとにかく予算上限突っ込め そういえばSDXLってTiledはまだつかえんかんじ? 大量に生成したエロ画像にモザイク一気にかけるツールないかなぁ
Pixivに投稿してるんだけど毎回モザイク処理だけですごい時間かかる…。 大量に生成したエロ画像にモザイク一気にかけるツールないかなぁ
Pixivに投稿してるんだけど毎回モザイク処理だけですごい時間かかる…。 大量に生成したエロ画像にモザイク一気にかけるツールないかなぁ
Pixivに投稿してるんだけど毎回モザイク処理だけですごい時間かかる…。 モザイクかける場所は人の目で一個一個判断しないと無理だろ そもそも大量にアップする意義があるのかな?数だけ多いとホントウザい
良いやつだけちゃんと選別してほしい まあ一個一個の質に自信がないから
数で誤魔化そうとしてるんだろうけど 生成したloraの修正について教えてください
基本的に教師画像を増やしたりなどの試行錯誤の繰り返しだと思いますが、
ネット上には下記質問のベストアンサーのように、「追加学習」という言葉を
使って、まるで作成したloraに追加で画像を覚えさせるみたいな言い方をしているのが
散見されます。
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q14280616889
10枚で学習して作ったloraに追加で10枚を覚えさせる、みたいなことができるのでしょうか?
私は20枚で最初からやり直す方法しか知らないので。 >>686
高解像度でBatch sizeを増やしても時間短縮にはならないぞ
効果があるのは512x512の画像を量産する時と、あとLoRAの学習
3070からの買い替えなら4090以外は割に合わないと思う >>703
Hires2倍 512*768、SamplingSteps50、HiresSteps30だと1分に2.42枚くらいだな
暖房代わりに動かしてるけどGPUだけでは寒すぎる >>641
opt-sdp-attention速いな
xformersで1分ちょっと掛かっていた生成が30秒になった >>700
画風として捉える特徴によるのでは。
彩りが画風と言ったり、線の太さの癖とかになるから安易な言葉では括れないと思う。
最近つべで原神の墨汁画みたいな絵をみれば、色ではないと感じる。(キララの絵が別人の仕上がり。あんな表情なのに、配達した箱を床に投げつけるキャラ) >>692
AIイラストで月5~6万稼いでいて1作品毎にかなり高度なモザイク掛けてるが
1本(50枚前後のイラスト集)仕上げるのに6~7時間、うちモザイク処理だけで1時間以上使ってるよ・・・
精度にもよるけどクオリティ上げて陰部のみとかキッチリやろうとすると高度なレタッチソフト必須で時間もかかる
逆に適当でいいなら無料ソフトで□で囲って適当のボンとするだけだから短時間で済む。
俺はクオリティ重視できっちりギリギリモザイクかけてるけど、かける部分の複雑な形の抽出は熟練すれば10秒程度で行けるようになる。
んで10ボタンぐらいのマクロ設定できるゲーミングマウスでそのうち一つのボタンにモザイク処理フィルター設定して
ボタン一つでモザイクかけられるように設定、これだけでかなりの時短になるよ。 30枚とか生成して全て保存する時
zipで保存出来た気がするけど出来なくなってる
1枚ずつ保存するの面倒だ
画面に20枚くらいしか出ないし
設定で生成したの全部保存するのはしたくないんだが
なんか方法ありますか? >>706
ポケモンみたいな画風を学習させて、
ポケモン風の悟空を生成したいんやけど。
お前らならどうする? >>709
学習させるまでもなく、fooocusでそういうスタイルを使う
あとbingはもっと得意そう >>708
大昔あったけど、こんなん誰が使うんや?って消されたやつだな・・
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2101
自分も意味不明に感じるけど、まぁ人それぞれなんか理由があるんだろう
https://github.com/vladmandic/automatic/pull/577
vladmandicのやつのなんか
black-orangeテーマって書いてるけど、なんか知らん
あとは自分で調べて >>707
基本は似たような感じでやってるんだけど、やっぱりキツイよね。
今はPixivに趣味投稿してるくらいだけど、数千枚単位で生成とかしたいから、
生成後にモザイク処理→そこから厳選して〜みたいにやりたいのが本音 そういやモザイク処理はおま国だな……
絵なのに要るのか?? 別にモザイクかけるものを描かなきゃよいのでは?
エロ絵作ってるけど下書いてないよ もうわいせつ物に関する法律も形骸化してきてるからなあ わいせつ物を公然と陳列するのは罪に問われても仕方がないかもしれないが欲しい人への頒布を罪にするのは違憲だと思う
しかもインターネットで海外の情報が入ってくるのに今更だし モザイクじゃなくて
春画みたいにタコでも置いとけば楽だろ
あれはモロ写ってるからダメかw 某メーカーのエロゲは全員ツルツルペタペタ仕様でモザイク描く事自体やめてたな
まぁ今時のユーザー視点だと微妙か >>717
作る数は結構あるけど、投稿自体は1日1作品程度かなー。まとめて投稿する場合もあるけど、モザイク処理が結局めんどくさい。
自分でモデル作って陰部抽出→自動モザイク処理みたいなことはできるっぽいけど相当数学習させないと無理っぽいし、
知識もないからなんかいい方法あればなー的な。
>>715
そもそもモザイクがあればセーフで、無いければわいせつ物判定とか意味わからないよね。
FC2で同人AV売ってた撮影者だかが捕まって、納得いかないからって徹底的に争うみたいな記事みた気がするけどどうなったろー それこそAIに学習させれば何とかなりそう
個人用なのに生成画像に最初から修正入れてくるモデルとかLoraなんかは学習素材がそうなってたんかな セマンティックセグメンテーションで普通の可能じゃろ、もちろん学習済モデルないから自分でアノテーションして学習させる手間を惜しまなければだが
ちなみになんJにはtkbを自分でアノテーションしてYOLOに学習させたニキおったで 手書きだと1枚に数日から人によっては月単位でかかる人もいると考えたら1日1枚でも凄まじい生産性の高さ >>723
なるほど
インスタント・イラストレイターだと思って質の低さには目をつぶって量産してきたけれど
丁寧に仕上げてクオリティの高い物を目指したくなってきました
1日1枚でも月30枚
二度と見返すことがない何千枚よりずっと価値がありそう pixivでも手描きとAIじゃPV数の桁が違うもんな >>725
pixivはアニメーション生成して
#おねショタ #うごイラ
のタグ付けるだけで一日でブックマーク100いくからな。 ずらし上げ下げブラの打率低すぎて辛い
開ける感じならちょいちょい出るんだけども
up braもbra liftも全然効かんよな
最終的には出た画像i2iしてるんだけど、t2iで出しやすくなる方法無いかな >>393
被写界深度のプロンプトなんて全く効果ないぞ
1.5は試してないけどXLには>>658の通り全く効かない
効くプロンプトがあるなら教えてほしい そうだったのか
顔以外ボケる時にpan focusとか書いてもイマイチだったが効かないのね 具体的なレンズ名書くと効くことがある。ズバリ、そのレンズで撮影した写真とレンズ名でワンセットのタグ付けされてることが多いから。
逆に200mm f1.8とかやっても、f値とか焦点距離を知っているわけじゃないのでほとんど効かない >>717
最近はサブクス用は、月10~15作品ぐらいかな。他単品販売用も出してて こっち月1本ペース。
モザイクは見る側からするとおかしなおま国仕様なのは理解できるけど
公開する側からすると日本で公開する以上避けれないクソ仕様として割り切るしかない。
特に金銭が発生するサブスクや単品販売などやってる場合、下手したら売上金没収などトラブルになりかねないからな
Pixivでも以前モザイクの掛け方が足りないからと強制非公開にされた上、他の作品も一部そういった物があるから直せ、
しっかり修正しないと垢版するぞって警告きた事がある。
ただクソ害人どもの中にはモザイクまったく掛けず公開しまくってる奴もいて放置されてるのみるとクソ理不尽に感じるわ。
まぁ~AIは投稿者増えすぎて全部に監視が回ってないだろう・・・ >>720
ただ、日本っておかしな法律があるけど、その御蔭で二次元ロリが許容されてる気がする
最近アキバ行ってないけど先進国だと大問題になりそうなポスターが当たり前のように大通りの巨大看板広告にあったりして驚いた
あれどう考えてもヤバイと思う
その一方で何故かモザイクは必須みたいな、変な国だわ iPhoneから操作してる時に、Generate foreverする方法はありますか?長押しやマウス接続して右クリックしても出来ませんでした。 >>730
そもそもパンフォーカスを誤って意味で使っている >>735
バッチカウントの数値を上げれば疑似的にはGenerate foreverになる >>734
先進国なら実写ポルノが街に出てるよ
ロリ規制は容姿が幼いアジア人締め付けでしょ タグ付けするとdepth_fieldって出てくるけどアレは背景ボケてると出てくるのかな
被写界深度ってタグつけられても深いのか浅いのか…… >>739
あれ、がどれだか明確じゃないが
話の流れ的にバッチカウントのことならui-config.jsonを編集すりゃ変えられる >>738
EUと北米には行ったことがあるけどアキバみたいなのは無い
フランスではアニメのポスターとか街中でデカデカとあったけど超健全
アキバのあのポスターは多分先進国で一番変だし
二次元でも年齢的なものが問題になる
日本以外だと二次元と三次元の区別がいうほどされていない印象ある >>738
30くらいでもお酒やカジノだとIDチェック入ったし、言わなければ入場料とか子供料金で案内されてた
逆にホストマザーに25くらいだと思ってた白人女性がいたけど15歳だと知った時にはびっくりした
締め付けというよりも、本当に分からない モザイクを盾にして限界までやれるのが日本ってことなんじゃないか? 猿から人間に進化した時、我々は体毛の多くを失った
それは猿の胎児に近い形
我々が人間から日本人に進化した時、高い知能を得るかわりに幼い外観になった
ヤモリがウーパールーパーを見て児童ポルノと言っているような物
私達は見た目は幼いけど立派な大人です
幼形成熟した大人の性を認めないのは彼らが言う多様性に反します 5chで時々出てくる広告エロ画像はAI生成だと思う
ゾーニングもヘッタクレもなく乳首丸出しw なるべく自分で調べるようにしてるんだが教えてくれ
チェックポイントを自作したいんだが、検索しても
既存のチェックポイント同士をマージする方法^^!からの いかがでしたか?
ってブログで埋め尽くされて肝心の自作に辿り着けん
どこか参考になるところないか 何度もくる質問だけど
日本語で解説してるところはないよ
個人で簡単に自作できるようなものじゃない >>748
たまにその質問あるけど、個人の敷居はものすごく高くて
こんなところで軽く聞いて答えが返ってくるようなものじゃない
checkpoint trainedとかでcivitai検索して出てくるモデルのコメントとか確認してみれば大体わかるかと ってcivitai見てたけど、trainedも大半がかなり怪しいな
ただのmergeを勝手に言い張ってる(あるいは勘違いしてる)人が多い印象
本当に自分でゼロから作ってるのは学習枚数書いてる人だけだと思う
画像数千とか用意して何日もGPUブン回して必死こいてつくったのにコメントほぼなしとか心情的にあり得ない そこまでの高難度だったか
ならタイプのモデルを探して作者に敬意を持って使わせてもらう事にするよ マージの話で思い出したけど
最近マージしようとしてもエラーが出るモデルがあるのはなぜ?
realistic visionの最新版とかダメだった 今のSuper MergerでマージするとUnetの一部がBrokenになるからかな SDのサンプルについてるモデルで23億枚の画像を学習に使ってるとかだっけか
個人でやるには難易度高すぎる ver違い混ぜようとしてたりしてね? 極端な話、SDXLとSD1.5でマージとか 作る方法分かってたとしても億単位の画像用意して20万以上のGPU積んだ専用PCで1日中読ませて月単位かかるとなると確かに一般人じゃ手が出ないな。ブルジョワかつ熱意がないと無理そうだ 背景のみのloraを作成した人はいますか?
教師画像30枚くらいで、キャプションにno humans,sceneryを入れて3000ステップと6000ステップで
作ったのですが、loraを使用すると人が出てこなくなります
default LoRA multiplierを0.1でチェックポイントにマージしたりもしてみましたが、やはり人が出てこなくなりました
何か背景loraを作るコツみたいなものがあれば教えてください 1.6にアップデートしてからUI回りが色々変な気がするんだけど、
一番困ってるのがpng情報からt2iにしてi2iにしろ送るとネガティブプロンプトだけ送れないんだけどおま環? うーむ日本人の普通顔チェックポイント無さそうだ
全部がグラビア+整形+アニメ10%追加みたいになってる
ちょっと苦労しそうだけど頑張って作る方向でいくか… >>759
negativeをstyleに登録しちゃってない?
一字一句同じだとstyleが自動的に選ばれた状態になって、メイン側が空欄になる
1.5あたりですでに入ってたかなりおせっかいな機能 >>751 はいつの時代の話をしてるんだ?
タグ付けの煩雑さは変わらんが必要なGPUスペックと学習枚数のハードルは格段に下がってる
想像・推測でしか語っていないゴミクズなら仕方がないが >>751
だからそのマージした相手が自作のLoRAなんだろう?
DreamBoothよりLoRAのほうが簡単に学習できると散々書かれているが >>765
よく見るAI顔じゃん
指が破綻するから手を後ろに回すポーズが多いし部屋の背景がAIルーム >>765
耳が変形しているからAIだよ
まあ広告だし、変に人間に拘って不細工なのを貼られるよりはまし >>754
拡張機能でマージしたモデルは基本のマージでは扱えないということでしょうか
あんまり不安定にはしたくないけどsuper merger入れてみるべきか… ベースモデルにLORAをマージするとそのLORAに合わせた用途以外は過学習で破綻したモデルになりがちだから
そんなことするくらいならベースモデルはベースモデル、LORAはLORAで別配布して欲しいわ >>766,767
マジか……
チェック柄とかこんなに上手く出せるものなの? pyファイルのカスタマイズすらままならない奴らしか集まらない僻地スレにcheckpoint作れるやつなんか居るわけなかろう 自分で作る系の日本語の情報が少ないよね
使う側の情報ばかり
英語のよく分からんサイトを見ながらここをイジればいいのか?ってやるしかない 色々調べてLoraのみからcheckpoint作る方法で行くことにした
最初は日本語の解説Noteで情報収取してたんだけど5行で済む内容が200行くらいに増幅してて返って分かりにくいからReddit読み漁ってる inpaintスケッチにスポイトが見当たらないんだがこれってどうしたらええの?
色変更の小窓クリックしたりショートカットキーのQを押してもwindows基準の色の情報ってのしか出てこなくてスポイト出来ないんだが…
ちなみに起動オプションに--gradio-img2img-tool color-sketchと拡張機能のCanvas Zoomいれてみたけど効果なしだった LINEのAIイラストくんにMajinAIのプロンプトをテキトーにコピペしたら乳首まるだしの画像が降ってきた
同じプロンプトをもう一回投げたら黒画像だった
流石に下がまるだしなのは見たこと無いが
AI的にはあれはセーフなんだろうか >>774
ひょっとしてFirefoxを使ってる? Chromeだと違うパレットが出てきてスポイトのアイコンもあるよ
ブラウザを替えるのが面倒なら、拡張機能のCanvasZoomでショートカット「A」が使えるはず
Aキーを押してマウスを動かすとマウスポインタが+になってるよ >>776
うおお、火狐からクロームにブラウザ変えたらスポイト出てきたわ
あとショートカットの存在も教えてくれてありがとう
自分は火狐のが使いやすいからこっち使ってくことにするわ 初歩的な質問かもしれんが、
同じ顔で背景やポーズだけコロコロ変えたい場合、
controlnetのreferenceonlyしか手段無いのかな?
これだと元画像に引っ張られて、背景やポーズの変化が限定的なんだよな 初歩的な質問かもしれんが、
同じ顔で背景やポーズだけコロコロ変えたい場合、
controlnetのreferenceonlyしか手段無いのかな?
これだと元画像に引っ張られて、背景やポーズの変化が限定的なんだよな 初歩的な質問かもしれんが、
同じ顔で背景やポーズだけコロコロ変えたい場合、
controlnetのreferenceonlyしか手段無いのかな?
これだと元画像に引っ張られて、背景やポーズの変化が限定的なんだよな 初歩的な質問かもしれんが、
同じ顔で背景やポーズだけコロコロ変えたい場合、
controlnetのreferenceonlyしか手段無いのかな?
これだと元画像に引っ張られて、背景やポーズの変化が限定的なんだよな 今拡張機能をアップデートしたら TypeError: Textbox.update() got an unexpected keyword argument 'info'
が出てSetting画面とかError!表示が出まくってるんだが同じ現象になった人いる?
知恵袋にも同じ現象の人間いたが解決方法が出ないままで困った・・・
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q12286794497
拡張機能が入ってるフォルダを空にしてみたが変わらずエラーが出たままなんだなあ >>783 原因わかった アップデートされたCivitai Helperが原因だった
拡張機能フォルダを空にした〜とは言ったけどReload UIを押しただけだったから変化がなかったがWebUI.batを開きなおしたら変化があった感じ
あとはアプデされた拡張機能を1つずつ入れなおして原因見つける感じ
報告は以上です 良い絵が出来たと思ってseedを固定してanimatediffをやるとゼンセンベツモノナ絵になるんだけど何が起きてる?
同seed使っているけど生成条件が違う? 雑すぎて草
片方の人だけでも複数のモデル使ってるぞ
あとほとんど流通してるモデルのほとんどがmergeしてるのからどのモデルと言われても困る
merge前のやつでわかりやすいのだとNovelAIとMeinaっていう名前のやつは確実に入ってる 他人が作ったAI作品なんて
何をマージしてるかわからないから
どのモデルを使ってますか?と質問されても
答えられないが常です
しかも時間が経つにつれ
どんどんマージされてくので永久にわかりません 本人に聞くかinfo見れなきゃ他人からはまずわからんだろうな
そも知ってどうするつもりなのかって話 多分キャラloraの強度とか階層調整次第で画風もズレるし、まぁ知ってどうするレベルだよな
もっとも、ぱっと見ありがちなマスピ系だとは思うが モデル自体はどうせNAIリークの末裔なのは確実だし極論言えばどれも似たり寄ったりだとは思うがどうせ自作LORAも使ってるだろ 1人のキャラにマージしたLoraと4つのLora
5つ使ってようやく原作に近いのが出た
調合するのが時間かかるけど 1111で、openposeについて質問です。
出力される画像の縦横のサイズを、openposeの元画像のサイズに自動で
合わせたり、画面上の操作で、元画像のサイズをgenerateの縦横の数値欄に
転送することは可能でしょうか。
エクスプローラで元画像のサイズを調べて手入力してるのですが、
自動化したいです。 1111で、openposeについて質問です。
出力される画像の縦横のサイズを、openposeの元画像のサイズに自動で
合わせたり、画面上の操作で、元画像のサイズをgenerateの縦横の数値欄に
転送することは可能でしょうか。
エクスプローラで元画像のサイズを調べて手入力してるのですが、
自動化したいです。 >>786
設定を見るとxformersを使っている時はAnimateDiffでxformersを使うのかsdpを使うのか何も使わないか選択できるみたいだけど
sdp使っているとAnimateDiffでどうするか制御ができんみたいだね…… >>786
設定を見るとxformersを使っている時はAnimateDiffでxformersを使うのかsdpを使うのか何も使わないか選択できるみたいだけど
sdp使っているとAnimateDiffでどうするか制御ができんみたいだね…… 望む背景、望むシチュエーション、望むキャラで画像を作ろうと思った時、3つのloraを適用する必要があったとします
普通に3つのloraを同時に適用した場合、思うような絵にならない上に、画質も悪くなります
それぞれの重みも抑えなくてはいけないので、再現性も乏しいです
皆さんはこのような時、どうされているのでしょうか?
regional prompterでの領域指定、チェックポイントとloraのマージ、loraとloraのマージ、inpaint、openposeと
色々試してきましたが、中々思うような結果が得られません animediffってxformers対応して無いんじゃなかったか loraにも入れる順序とか位置みたいなものがあるって勝手に勘違いしてずっとやっててなんとなくうまくいってる >>800
設定にこんなのがあったぞ
When you have --xformers in your command line args, you want AnimateDiff to
Optimize attention layers with xformers
Optimize attention layers with sdp (torch >=2.0.0 required)
Do not optimize attention layers >>799
lora block waightを使ってそれぞれのloraごとに効く階層の数値を入れてみたらどうだろう
ますます沼にはまると思うけど・・・ おとなしくマスクして、それぞれの領域毎にloraかけるのが結局は早いんじゃね? i2iでの拡大時に顔修復使うとかえって顔破綻しやすくなる? 顔の修復にはadetailerが一番
顔を生成する時のノイズ除去強度も解像度も選べるから調整次第で最終的な解像度に合った感じの顔にできる 背景は最悪個別出しして合成かなぁ
ただ浮きやすいんだよね adetailer は顔を綺麗にも可愛くもしてくれるけど
光の加減が入り組んだうるさい感じになったり
めっちゃ画一的な量産顔に成らない?
ま、でも手放せなくなってるけどさ マスクといえば、女の子二人の画像を
Photoshopでマスクをかけて一人だけにして、かけた画像をPNG書き出ししたら当然女の子ひとりで背景は透過の画像になるけど、それをi2iのダンボール分析かけたら2girlsって出るのよね
背景と女の子の画像で女の子を切り抜いても同じで背景のタグが出る
切り抜いた画像を単色背景と合成して透過じゃ無くせば出なくはなるんだが、もしかして透過PKGを学習素材にしたら意図しない情報も拾って学習しているんじゃないだろうか >>808
顔が変わりすぎる時はadetailerのinpainting欄にあるinpaint denoising strength(ノイズ除去強度)を下げる、
顔がパリッパリにくどくなりすぎる時は顔の解像度が無駄に高くなりすぎているのでuse separate width/heightで512×512とかにしとくといい感じになるで >>809
それは画像とタグは違うものですから
お寿司お寿司 サブでノートPCを買うことになったのですが、どうせならそっちでも生成できるようにしたいと思ってます。
中古ワークステーションでNVIDIA Quadro P4000(8GB GDDR5)というのを搭載したのを考えているのですが、実際につかえてる人とか聞いたこと有りますか?
スペック的にはいけるんじゃないかと踏んでいるのですが・・・
情報頂ければ助かります。 サブでノートPCを買うことになったのですが、どうせならそっちでも生成できるようにしたいと思ってます。
中古ワークステーションでNVIDIA Quadro P4000(8GB GDDR5)というのを搭載したのを考えているのですが、
実際につかえてる人とか聞いたこと有りますか?
スペック的にはいけるんじゃないかと踏んでいるのですが・・・情報頂ければ助かります。 >>815
最近 5ちゃん サーバー移転に伴う障害だとか
山下スクリプトによる攻撃とか色々言われて重いみたいなのでドンマイ ノートpcを買って、リモートで生成するためのワークステーションも買うん?
ワークステーションがいくらのか分からんけど
p4000て1660程度の性能だしワークステーション買う金で今使ってるpcのグラボ買い替えるか、ノートのランク上げたほうがよくね? >>761
遅レスだけどありがとう。スタイル削除したら治りました。
でもスタイルの使い方がわからなくなった。
前はGenerateの下のプルダウンから選べばすぐ挿入されたのに、選んでも何も起こらんくて、Editから選んで貼り付け押せば挿入されるけど手間増えただけでゴミなんだがそういうもん? animatediffが進化してmp4ぶち込んだりCNやら解像度アップや色々やってると
4090でもメモリ足りなくて止まったわw
動画はヤバいな あ、ノートのワークステーションを買うという意味です。
メインはデスクトップがあるんですがノートも買わないといけなくなったのでどうせならと・・・
>>817
性能はともかくそもそも動くんかなぁという疑問でした、この世代のNvidia製なら大丈夫ですかね >>821
まずノートパソコンはやめとき
クワドラはやめとけ
おまけにそれ性能低 >>821
まずノートパソコンはやめとき
クワドラはやめとけ
おまけにそれ性能低 ヤンキーの極細獄短眉毛をi2iしたらどうやっても太く描き直されるんだけど何が問題なんだろ? >>814
クアドロを使うのは3D-CADを使う建築家とか
正確な色の指定をするデザイナーとかなので
生成AIには不要だし普通にGeForceを買うべき >>824
RTX 4090の24gbがどれだけ安いかっていう話だよね >>821
質問の意図が分かってなかった
【StableDiffusion】AI画像生成技術19【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1681973770/800
> ガチャにQuadro RTX 4000ではキビシいのでグラボ買い換えたい
これくらいかな、ノートじゃなさげだが
後発上位のRTX A4000(VRAM16GB)は結構ネット上に報告あるけど
2014年秋発売のGTX970(4GB)とかでギリ生成してた人もいたので、動かない理由がない
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/11301
> but still it can be used for it.. i can generate images 768x768 just fine >>829
Quadro RTX 4000とQuadro P4000は全く別物だよ
P4000はPascal世代(GTX10系)だからまあ、動かないことはないだろうってのは間違いじゃないけど >>819
スタイルはメニューから選んでおけば、プロンプト欄に移さなくても反映されるのよ
(生成後に画像の下の生成情報を見てみよう) >>692
adetailerのvaginaを活用すると良いかも! 生成画像だけだと月10万ちょっとしか売上なくなってきたからエロゲにしたら画像より売上あがってきた
買い手の心理が全くわからん ConceptのLoraについて、ダウンロードしたファイル名が微妙な場合、それを編集しても大丈夫?
例えば、ダウンロード時のファイルはAAA.safetensorsでInfoみると "ss_output_name": "AAA",
この場合、1111の花札ですると<lora:AAA:1>で記述すべきっぽいんだけど
XXX.safetensorsにファイル名を変更したら
<lora:XXX:1>でも正常に動く?
キャラクターのLoraはこれで動いてる気がするんだがファイル名の変更って基本的にNGだったりする? >>813
生成だけならイケます、ただしかなり時間がかかります 3080のVRAM16GBで12秒動画作ったけど
エラーやメモリ不足で止まったことないよ
一応アップスケールも挟んだけど問題なかったが >>836
大丈夫だよ、というか一回試してみればわかるのでは >>805だけどadetailer教えてくれてありがとう
今試し中だけど、手と顔やると時間かかりすぎなので手だけでバッチしてる >>838
YouTubeでも1000x1000で4090止まったみたいだぞ
controlnetとmotion入れてやったらどうなるか試してみて >>841
motionは入れてるが、CNはまだ試してないな
CN入れたら多分止まるだろうね アダルト特化バージョン1.X
風景特化バージョン2.X
ってことかい? >>845
アダルトでも風景でも
1でも2でも大して変わらねえよ flatとoutlineのlora、あと、キャラloraの強度設定を正しくすれば配布されてるレベルのloraならほぼ確実にまともな絵ができるようになった
できるようになって思うのが、大量に連続生成してるといちいちPlot s/rを止めてから修正するのが面倒な事
やる作業はかなり単純だしこういった部分ってAIで代行できないんやろか?
強度設定など簡単な試行錯誤はAIがすごく得意だと思うんだがどうなんだろ? >>850
本当に優秀だよな
失敗Lora(線が太くなったり、汗がほくろみたいになるような一見すると失敗Loraみたいなやつ)ダウンロードしたと思う人が居たら
<lora:flat:-0.4><lora:outline:-0.9>
こんな感じでやって
<lora:キャラLora:1>→<lora:キャラLora:0.5> ここはなるべく強めのLoraにしたいが0.5でも同人誌レベルにはなる
くらいにするとほぼ全部使えるわ
ただ、個々の数字調整って単純だけど作りたいキャラLora大量にあると調整に時間がかかりすぎる
あと、プロンプトによってちょっとおかしな絵になったりするけど、flatとoutlineでなんとかなることも多い
この部分、定形作業だからAIに代行してもらいたくてい仕方がない
ついでに言えば、キャラLoraも自動で集めてきてほしい
ダウンロードしたり作ったりで1000キャラ超えた flatのマイナス適用は有名だけど、outlineのマイナス適用なんて初めて見た
何の意味があるの? >>852
線がやたらと太くなったり、汗がほくろみたいになるような一見すると失敗Loraでもoutline マイナスで目立たなくなる
で、ディテールが無くなるっぽい?からflatやflat2をマイナスで強調
flatで強調するとOutlineも強調されるから 更に outlineマイナスを強くして更に細くする感じ
正しい使い方かどうかわからないけど、だいたいこの2つのloraで失敗っぽいloraでもかなりいい感じなるかな
キュビズムみたいなメチャクチャな出力しかされないLoraはプロンプトで頑張るか自分で作り直すしか無いと思うけど
Negativeとかもそうだけど、SDって何もしなければ酷い出力だけど、色々調整してやるとすごく使える絵になるしAIってそういうものなのかなと最近思い始めてるわ
というか、Negativeの指定とかそうだけど、こんな酷い絵がはじめに出るのに色々な事やったら完璧になるとか意味分からん
はじめからベスト尽くせと言いたくなる >>849
そしてGANみたいな感じで自己進化を始めて… 久しぶりにreagional prompterを使ってみたけど複数人生成しようとしているのに大概1人しか生成されずしかも3人分のLoraがまとめて掛かっているような絵しかできない…… 肛門に突っ込まれてる画像の修正がうまくいかないんだけど何かコツってありますかね
tnkごと消して無かった事にすることはできるんだけど、やっぱちゃんとしかるべき場所に挿入されててほしい
>>855
1,1,2;1,2.1
これで
□■■
■□□
になるということを思い出せればいけるんじゃね?
単純に呪文のどこか抜けてるとかあるいはくっついてるかとか >>856
書き方ミスってんのかなあ……
脱アナルはvaginal penisじゃない?
それでも駄目なときは駄目だけど >>853
border Loraも主線制御かなりいい感じで走るで
割と構図に影響出るからアップスケールの時にかけるのが吉って感じ 写真からアイコラが簡単に作れるソフトおしえてください! >>861
こっそり教えてやろう
Stable Diffusionっていうツールを使うんだ foocusでinpaint使ってアイコラ作っているんですが
乳首がグロくなったり変なとこにつくこと多くて困ってます
おすすめのpromptとかlora modelとかあれば教えて頂きたいです
chilloutがsdxlで無いのでパチもんぽいloraを使ってはいます
promptはnaked/natural nipple/natural skin とか位しか入れてないのでおすすめ知りたいです foocusでinpaint使ってアイコラ作っているんですが
乳首がグロくなったり変なとこにつくこと多くて困ってます
おすすめのpromptとかlora modelとかあれば教えて頂きたいです
chilloutがsdxlで無いのでパチもんぽいloraを使ってはいます
promptはnaked/natural nipple/natural skin とか位しか入れてないのでおすすめ知りたいです ピンク板が復活したみたいだが次スレが無い
誰か立てれる? >>863
ちょっと待って
どういう使い方してんの? >>862
1111のローカル使ってると思うんだけど全然うまいこといかんのだよね
写真から生成したら全然違う絵になるし、部分的に生成とかしても意味わからんくなる >>869
もしかすると画像サイズが512×512よりも変わってるとか? >>868
ちょっとログインしないと見れないようだけれども
これ使わないでやってみたらどうなの? SD1.5なんだけど拡張設定でCivitai-Helperにチェックしてると
設定とかにもエラー付くから残念だけど外してしまった SD1.5なんだけど拡張設定でCivitai-Helperにチェックしてると
設定とかにもエラー付くから残念だけど外してしまった 起動時に一部のextensionで
> GradioDeprecationWarning: The `style` method is deprecated. Please set these arguments in the constructor instead.
みたいなのがズラーって出るの鬱陶しい・・
https://www.reddit.com/r/StableDiffusion/comments/1672boq/unusual_error_message_when_loading_automatic_1111/
実害はないみたいだけど
> you can disable gradio warinings in settings - system and uncheck - Show gradio deprecation warnings in console.
このsettingsってどこからやるんだろう・・ negpipを有効にするとIp-adapterが全く働かなくなるみたいなんだけど
同じ症状の人いる?
エラーは出ないんだけど
どっちもプロンプトに影響与える拡張だからどっかの段階でipadapterのプロンプトをかき消しちゃうんかな negpipを有効にするとIp-adapterが全く働かなくなるみたいなんだけど
同じ症状の人いる?
エラーは出ないんだけど
どっちもプロンプトに影響与える拡張だからどっかの段階でipadapterのプロンプトをかき消しちゃうんかな >>871
ありがとうございます、弱くしたらマシになりました! >>871
ありがとうございます、弱くしたらマシになりました! 新品2万円の自作ゲーミングPC
RTX3060の12GBを4万円でつければ
6万円で返しできる 元のモデル(Checkpoint?)の絵柄や質感を崩さずにLoraを作りたいのですが、コツありますか?
また、キャラやポーズLora作成のコツとかも知りたいです 電源850W 15000
RAM32GB 10000
SSD 1TB 10000
3060 40000
CPU 15000~30000
ケース
諸々
やっぱ自作でも10万は行きますわ
BTOだとあと5万はぼる BTOなんて買うのはレゴブロックも組めない赤ちゃんだけよ >>883
贅沢すんじゃねえよ
RTX3060 850Wの電源が必要なんだよ
何でそんなに高いCPUをつけなくちゃいけないんで
Celeron で十分 >>885
電源は後の事を考えるんだよ
ノータリン 金どこまで抑えれるかっぽいレスの割にアップデート前提の電源選んで「金掛かるわツレーわー」はなんか違うと思うぞ……
あとからアップデート前提の思考なら、10万乗っても納得できるだろう
どうせグラボ買い換えでどう転んでも、3060からのアップデートなら追加で7万越える(というか10万ぐらい行く)
でも「celeronで十分」発言はさすがにノータリンだと同意する
ケチるにしてもモノには限度がある セレロンとか極端なこと言って予防線張ってるやつはクソ
ただ一年以内に即中身変えるとかじゃなければ850Wクラスが必要になったその時変えてもいい気はする 600wでも信用出来るのは1万するしどうせなら上買った方が良い どうせ数年後には飽きるんだからw
画像でこれ以上進化すんのか
もう解像度くらいだろ
animeは4090でもVRAM足らんし 半端な繋ぎ買うぐらいなら最初から相応のモン積んでおきゃ良いのに 拘るんならcloudで80GBとかの金出して借りろよ 色分け指定に
Cutoffっていうの使ってたんだけど
開発者がアプデしないので
他に代替できる拡張機能ってありますか?
みんなどうしてる? >>894
気になるアニメの全キャラの同人イラストが好きなだけ生成できる
同人誌を大量に買うことを考えればコスパ的には数十万は余裕で元取れてるわ
また、4090は人気だから飽きれば売れば良い(実質はその差額だから10万ちょっとになる)
あと新しいアニメがどんどん放映されるし、過去アニメもきになるから、まだ当分飽きそうもない >>898
PCパーツって昔はそれ意識してたけど実際には出たらすぐに下がるって感じでもない印象だわ
それよりも需給バランスで凄い上下するから読めないわ 売れるから問題ないって理屈はいつ聞いてもよくわからんな AIイラストが流行ってる今と数年前じゃな
俺みたいに5090?出たら4090売って足しにしようと考えてる奴多いだろうから発売日出る前に売らんと
買い控えされるかもしれんし animatediffとか凝ったらもう4090じゃ駄目なんでしょ?
動画が流行ると入れ替わり多くなるだろうな >>886
何で次のことを考える前提なんだよ
それだったら初めからもっといいグラボ変えよ
これは金のないやつ用の話な クラウドがどうのこうの言う一番の問題は
強制的にアメリカ旅行に行かなければならないことだよ >>900
GPUは所有ではなくレンタルやサブスクみたいなイメージやね
>>901
それ昔は思ってたけど実際にはそんな動きになってない
多分それを見込んで5000ではなく中古の4090を狙う人も相当数いるんだと思う >>903
金ない奴の話だろ?
だったら今高いの買える訳無いじゃん
安くなった頃に買うんだよ
でもその時電源足らないってなると困るだろ >>905
でも再来年4090の中古値がかなり落ちないと
この差くらいなら5000シリーズ買った方がいいわってなるだろ >>907
でもヤフオク価格を見ると実際にはそういう動きになってないんだわ
どこかで需給バランスがうまく調整されているように見える
ただ5000が発売される頃には中古で4090を書いたいなぁーと思う程度には値下がりすると思う
ただ、4090を普通に買う人から見れば十分に使い切ってるしそこそこ高値で売れるからOK
もしそう思わず4090が安いと思うなら、むしろ逆に5000の代わりに4090を買い足しても良いかもな
ただそういう人は今4090ではなく別の型番を買ってると思う
いずれにしても今4090をかってるひとはそれに価値を見出してると思うけど
価値がない場合には、さっさと売り他のGPUに乗り換えれば大した差額なく交換できる
所有というよりもサブスクみたいな感覚で使ってるわ そしてその時流れてくる4090はマイニングに使用したグラボ並みに使い込まれた地雷になってる、と…… 中古で問題ないということは、そもそもその程度しかGPUを回さない人だから問題ないかと
ガッツリ使う人は5000買うだろうし 金がないのに無理をして金がある人の遊びをやりたがる理由がわからん 進化したad使ってみたがマジでHiresたった2倍で4090でもoutofmemoryなったわw
5000が32GBだっけ
再来年までどうすんだよ >>915
以前のPCパーツの話だよ
だから、今回も4090でも再現するという話 ワイみたいに6090までひっぱる予定の4090もちもいると思うで
4年かけて減価償却していくイメージや 5090が発売されるぐらいに
AGIの片鱗が出てきて
世の中変なことがたくさん起きそうだわ AGIの片鱗?今のはダメなんか?
AlphaGo(自分で勝手にルール覚えてプロに勝ってしまった)が出てきた当たりから
シンギュラリティ始まり掛けてるんじゃないかと思ってるんだが
AIの会話とか知らない人が見たら裏に人間がいると全員が答えそう
SDにしてもこのレベルのフルカラーの絵はどう考えても人間が描いてると言いそうだし chatgptのDALLI触ったけど、モデルさえしっかりしてくれたらLORAとcontrol netはやっぱ異様に強いわ
DALLIは1番新しいだけあって破綻はすっげえ少ないけど、細かい制御は効きそうで効かないし絵柄のバリエーションもあんまり無い
SDもいうほど無いが、ブレンドとLORAでその辺は個人でどうとでもなるのが強い
まあ、DALLIとかでベース作ってSDで弱めのi2i何回かかけるのが最強じゃね? とか言うたらそれまでなんだろうが…
エロは抜きで 逆に言うと RTX 5090
AD に合わせて VRAM 調整してくると思う >>896
同人誌が出ないようなマイナー過去作品の場合は自分でLora作って唯一無二な叡智な絵が作れるしな ググったらここが検索上位で出てきたんだけど他に質問受け付けてくれるスレない?
ここレベル低いみたいだからちゃんとわかってる人が多いところが良いです なんjいくといい
相手してくれるかどうかはしらんけど ディスコ言っても適当に調べて入れるコミュティでまともなとこ見たことねえな
SNSで実績稼いで声かけるorかかるみたいな本末転倒なことせなアカンで >>924
自分で調べたり作ったりすればええんちゃうか >>925
向こうはステージで踊る輩に拍手送る場所って感じで質問はお門違いみたいな雰囲気あるな
レスをコピペしてこっちに質問書いてる奴がたまにいる 同人誌レベル作ってるとか言う奴ってそれ見せられるの?
自信あるなら見せてみろよ
>>896こいつとか >>932
だから同人誌レベルのエロ絵を量産できるのがメリットだと言ってる
エロ規制を突破するためのデバイスと考えろ >>933
その絵を1枚見せてくれ
本当にメリットレベルなのか >>858
それといろいろ組み合わせたらだいぶマシにはなった
相変わらずそこに入ってていいんかって位置だけどガッツリおケツinよりは断然いいw
ありがとう pixivで3万以上フォロワー並じゃないと同人誌代わりにならん >>932
自分が欲しいかどうかで判断してるから人がどうとかは関係ない
超人気キャラならスゲースキル無いとダメだけど
ちょっと似てる程度でも超高評価つけるタイプ
あと、アニメ見てすごく気に入ったキャラで同人誌が全くないレベルだったり見て次のコミケまで待つのではなく
視聴数時間後には見られるこの幸せ分からんかなぁー 何ヶ月もたなくてもいいんだよ!
公開だけど正直やりたい すごくやりたい
ただどこからどう見てもアニメのトレースだからできない
Lora学習元データは思いっきりアニメからだし・・・
レベルだけどこの人よりも数段下くらい
https://www.pixiv.net/users/48449956 >>935
コピー本とか誰かが評価しないと価値がないと思いそうだな
https://www.fsight.jp/articles/-/48408
とか見て思うけど、本人が好きでやってるならそれでいいって思うわ
というか、同人誌数が少なく高すぎ、もうそういう時代じゃないと思う
舶来品だったガラス製品が100円ショップで買える時代 切子ですら売ってる
これを嫌だと感じる人もいるけど私はそうは思わない 自分で好きなように作れる
素晴らしいことだ
上手く絵が描けないから具現化出来なかった人たちが作り始めている訳だ
初音ミクみたいなもんでしょ >>943
そのPUDっての配布Lora使ってるけどアニメに似せる技術までは無いようだな
難しいからな原作に似せるのは >>946
このくらいできる人なら、原作に似せたいと思えばcheckpointをanyloraとかにして、他のLoraで微調整すればすごく似ると思う もしくは原作で画像を集めてLora作り直すとか
ただ原作忠実でもエロいかどうかは難しいところだと思う
個人的にはこのレベルならもう十二分で、それよか枚数欲しくてSDやってるわ
エロゲとかも神絵は存在する、でも枚数が2桁足りないとか思ってしまう
あと同人ってそもそも原作トレースはすくなくそこも好きで、自分でSDするときはsmirkとかmatureとか敢えて追加してる なんでAIイラストのアニメの女ってこういうのが多いの
anythingそのまま使いましたみたいなの
http://i.imgur.com/qiQaGov.jpg 画像生成AIは顔を自由に描けるような技術ではなく選ぶしかないため あと935みてて思い出したけど、
盲目の音楽家が実は目が見えているということが判明したら
なぜかその人が過去に発表していた作品まで評価を下げるひと多かった様に思う
ワインも芸術も全部匿名で発表すればいいのにと思う
商業活動的にはNGだろうけど、私個人としてはシンプルに良いものは良いと言いたいぜ ×生成した画像を販売する となってるモデルが含まれるマージモデルが
〇生成した画像を販売 として配布されてるんですが
マージしてしまえば問題無い? >>948
まぁ文句言うだけならお前のようなチー牛でも言えるわなw >>948
リアルでもとりあえず可愛い二次元の女の子描いてと言ったら、その時流行ってる絵に惹かれるみたいなものじゃないの
他にも同じ作者さんの絵だと何を描いてもよく似てるとか
そういうのが嫌なら別のモデルとかプロンプトガッツリ書き込んだから大幅に変わるな
ただ、余計なことをせずそのモデルが描きたい絵をそのまま出力させるのが破綻も少なく手間もなくきれいな絵になると思う >>948
むしろ純anything系の絵とか最近見慣れなくて懐かしいわ
lora色々ぶっ込んでたら画風が純anyから自然とズレる >>948
Lora使わなけりゃ自由が効くから
つまり手抜き 中華方面がこういうゴテゴテした絵が好きなんだっけ? SD 1.6なんですが立ち上げただけでビデオメモリ4GBぐらい使われてるんですが普通ですかね? SDに1.6なんかあったか? 1.5の次は2.0だろ? >>948
一時期AOMのような露出の多い絵が流行ったがそっちを見かけなくなったな
エロ方面が弱い=規制されにくい、でany絵が生存競争に勝ったのかもな
imgurで消されていないのがそれを証明している >>957
なのでグラボのVRAMは4gb は欲しいと言われている
もちろんあればあるほど良い 生成系AIって4090でもかなり遅いけど
ChatGPTとかBingChat、Bardってすごく早く回答がくる
あれってどんな仕組みなの? >>963
RTX 4090性能なものを複数使っている >>936
最近アニメ16bit見てて、ちょっと当時の作風が気になり初めてやってみた
もっとしっかりと90’スタイル使ったほうが良い気がしてるけど、とりあえず今回はキャラLora使ってないから晒してみた
というか当時のキャラLora作成難しく1キャラしか成功してない
https://i.imgur.com/ElPH6JM.jpeg
https://i.imgur.com/k05s1iC.jpeg
どうせダメ出しされるんやろうけど、個人的にはこのくらいで十分に満足できる
checkpointはs/rで良さげなのを探してプロンプトの調整は3回(flatとoutline)のみだから5分程度
もし、同人を出す人がいるなら、このレベルで十分だから、色々な差分ありの体位で100枚くらい描いて欲しかった
でも、SDがでるまでこのレベルのフルカラー同人100枚ですら気軽ではなかったと思う
このレベルでもSD前なら100枚で1000円くらいは出したと思う
SDのある現在だと自分で作れるから100円以上は出せないわ、あとモザ無しが良いし、もう少し90’に寄せたタイプも欲しいしとか思ったら結局自分で作った方がよくなる
今なら、汎用性の高いエロい体位と汁差分構図呪文なら初回だけは5000円くらいは出すかも >>964
SDだと4090でもHires2倍の絵だと1分に2-3枚しか作れないのに
Bingとか世界中の人がアクセスしてるのによくリクエスト捌ききれるな
個人でもH100とかではなく4090とかGPU束ねて速度アップとかできればいいのにな >>963
Chat系はTransformaerで単語予想するだけだからパラメータの数はアホほど多いけど計算量自体はdiffusionモデルより少ないんじゃね、知らんけど >>965
アレ見て16bitの塗りにできるLora無いかな?って考えちゃった http://imgur.com/t9pkaxD.jpg
これくらいになりゃ同人誌とか言えるけど
そんなんじゃ無理 こんな雑コラレベルは正直AI普及前でも厳しくない? >>971
版権Lora使っただけにしか見えないぞ……
結局は「版権キャラでエロしたら雑でも認められる」っていう典型例だな…‥ 質のいい画像が貼られたら貼られたでそれを勝手に引用して売るような奴だからケチ付けられるくらいでいい >>973
配布loraで上手く出来るんならやって見せてくれよ
配布のなんてゴミだぞ ゴタゴタでなかなか立てられなかった
ピンクちゃんねるの方のスレがやっと立ちましたので
一応、ご報告させてください
こちらもそろそろ次スレっぽいけど5chの方はもう問題ないみたいですか?
【StableDiffusion】AIエロ画像情報交換32
http://mercury.bbspink.com/test/read.cgi/erocg/1697419936/ ID:9mIdSUOj
次スレ立てて
>>882
遅レスだけど、まずLora Block Weightを使いこなせるようになろう
それができたらLora作りの方の視界も開けるかと
kohya_ssなら学習時にweight入れる設定がある
なおポーズLoraはcivitai上がってるやつは
9割くらいは超適当な作り方(画像読み込ませてポン出し)しててコツも糞もなかったり
自分がやるならポーズに関わる以外のweightは切るか小さめに設定するだろうなぁ civiにあるloraでまともに作れるならみんな差が無くなってるわ >>971からの流れで配布ゴミって言われても>>971はこれ全部配付loraだしな
そもそもアニメから抜いてる奴なんて手間の問題で自作だろうが差が出ないしな >>982
むしろ配付loraでサンプル出してくれてるやつと環境そろえてプロンプトを適当にテンプレエロワードに変えるだけなのにお前がこんなにごねてる意味が解らない >>984
お前は自分で言うそんな簡単な事が出来ないんだろ?
ゴミ未満だな ビュー数が万行ってる奴になんも作れない奴がケチつけてもな こんなところのこんな状況で絵出したところで粗探しで煽られるだけだし、
ここで見せるためのものをちゃんと作ったところでノーコメントでスルーだろ
そもそも掲示板で相手の主張を曲げさせるまで頑張っても何の特にもならんし、「適当に罵倒しあってお互いが飽きたら次の話題」ぐらいの気しかないわ 自分は人に見せられる物なんて作れないのに逃げてるだけ
PC捨てろよ こ、ここで俺の凄い絵出してもスルーされるしぃ!し! >>971これレベルのでいいじゃん
配布で誰でも作れるんだろ? 見せられない糞みたいなのしか作れない奴に限って4090とか宝の持ち腐れしてんだろうな この急に出てきてID:Iyw+zm+lのレスの間に罵倒だけして消えてった単発たち戻ってくんのかなw このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 29日 13時間 48分 43秒 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login レス数が1000を超えています。これ以上書き込みはできません。