【StableDiffusion】画像生成AI質問スレ11【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
↑次スレ立てる時は行頭にこれいっぱい置いとけ
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んで
インストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。
どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://mevius.5ch.net/test/read.cgi/cg/1683421154/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→
run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。
サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで ■FAQ
Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい?
A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像
(特に幼児)の生成でBANされる可能性がある
Q2:ローカル環境でパソコンの性能はどのくらいがいい?
A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。
ストレージはNVMe SSDのような早いものにすると
モデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい
Q3:NMKDと1111、どちらをインストールしたらいい?
A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q4:画像を出力したら色が薄い、または彩度が低い
A4:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-
クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの 切り換えが楽になる ■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい
A4:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。
止めるには生成ボタンを再度右クリックして止める
Q5:アニメ顔を出力したら目鼻がなんか気持ち悪い
A5:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q6:設定を変更したのに反映されない
A6:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても
「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q7:消去したプロンプトがまだ効いている気がする
A7:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や
まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている 【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという
Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり
SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で
処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり
この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを
源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが
混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりも
CLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので
両方試しつつ好みの絵柄を探ってみるのが良いと思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である 起きた
前スレのVRAM6GBの話だけど、G1660 6GBで
1024x1024画像でリアルな人間つくれてます
基本512で作ったあと、拡大描画のときリアルにする
その方法は1つではなく、5つくらいあるんじゃないですかね
メモリよりも、AI画像やるようになってCドライブのSSD 256GBを圧迫するようになった
生成済画像や動画はHDD1TBに退避しててもこれ
次は512GBクラスを買ったほうがよさげ こっちはワッチョイありで人が少ないから↓のがいいよ
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/ >>9
安いけど一度に100枚とか作らなければ1TBでも十分だわ xformersを使うとVRAM 6GBでいけるらしいけど、そのかわり少し画質が落ちるらしいぞ?
というかxformersオンでは12GB積んでても6GBしか使わなくなるようだ
高速化のメリットと画質が落ちるデメリットの両天秤 YouTuberがタスクマネージャーの画面見せながら言ってたんだから確かだろ
RTX4070Ti使用で12GB中5.9GBしか食ってなかった xformersは6GB以下で使うためのものなんだろうな
4070持ってる奴は今すぐ試してみろ 間違いないと思うぞ YouTuberが言ったんだから確かだろ
…なんて世の中になったんだなw >>15
ほんとにそれしか食わないのか
3840x2160にサイズ指定して生成してみてよ >>17
今の若い世代にとってyoutuberの言葉は神の言葉みたいなもので、youtuberが間違ったことを言っても「本やウェブサイトの情報の方が間違ってる」という認識になるらしい xformers入れる前はプレビューの出力でも12GBマックスまで食っていたけど、入れてからは5~6GBくらいしか使わなくなったな。
てっきり速度とメモリ効率の最適化だと思ってたんだけど、なんか違ってるの? Hires. fix使うと768x512の2倍でバッチサイズ2でも12GB使い切るから
みんながやりたいサイズと枚数だと48GBでも足りないだろうな >>20
ざっくりいうと再現性捨てて高速化、メモリの開放とfp32→fp16ってくらいかな
最近黒画像の悲鳴を聞かなくなったけど、昔は副作用でVAEがらみで黒画像出やすくなってたからオプション指定必須だった チビタイ以外に生成サンプル見れるモデル置き場ってないの? サンプル偽装が多くて評価が付くcivitaiにみんな流れたわけでな あそこキモオタの巣窟感があってなるべく見たくないんだよな
ここもだけどなw 例えば幅600高さ800で出したイラストの帽子部分が見切れていて、全部出したいとき、
i2iで幅600高さ1200とかで指定すると、書き足してくれるのですが、帽子がめちゃくちゃ長くなったりします。
Denoisingとかの設定とかのせいなんでしょうか、上手く書き足してもらうにはどうすればいいでしょうか。 >>26
Poor man’s outpainting クラウド利用してるんですけど
普通に出力する分には問題ないんですけど
ワイルドカード利用しようとすると、止まってしまうのですが
なにか仕様が変わったりとかしました?
というかどうすりゃ直るんでしょう・・・ v1.3.0でメモリの管理方法変わった?
同じ設定でやってるのにメモリが足らんて言い出したよ 1111のTrainToolsでBeginTrainを押した後、Error caught was:No module name "triton"とコマンドプロンプトに出るけど、このモジュール何者か分かります?としあきwikiだとエラーではなく警告と書いてあるけど定かではないそうな Linux環境じゃないと使われないオプティマイザー、じゃなかったっけ
Windows環境だから無視して大丈夫 そもそも Lion を使ってるなら Triton はいらないし すみません超初心者です、昨日まで動いていたStableDiffusionが急に最後の実行で
エラーでとまってしまいます長いエラー文の最後は`ModuleNotFoundError: No module named 'tomus'
という内容です。環境はグーグルコラボでfast_stable_diffusion_AUTOMATIC1111.ipynb ラストベンというバージョンを使用しています。
少し前にも同じ様に動かなくなったことがあり、その時は訳も分からず削除して再インストールしたのですが
モデルやLORA等が全て消えたため元に戻すのにとても時間が掛かりました、なので簡単に上書きインストールとか
出来ないのでしょうか? 宜しくお願いします 自分で答え書いてるやん
tomusという名前のモジュールがありません i2iでタイルドデフージョン使って拡大すると小さな顔が変なところに出てくるという厄介な副作用があるね >>37
Denoising strength強すぎ問題
3~4位でいいと思う >>37
>>38
違うわw
0.3-0.4だわwww >>39
それが0.4なのよ
今度顔出たら0.2にしてみっかな また別の画像で小さな顔が出たので0.2にしてみたところ顔出なくなって全体的にもディティール描き込み過ぎの問題も解決したわ
ちなみに0.3だとまだ顔出たし、0.1だと粗い絵になってダメだった
他の画像でも同様かはわからんけど エラーメッセージについて質問です。
Stable Diffusionのimg2imgなんですが、出力ボタンを押すと'NoneType' object has no attribute 'cond_stage_key'というエラーが出てしまいます。検索しても前例が見当たらず…オブジェクトにcond_stage_keyがないとは、どういう状態なのか判断できる方がいましたら教えていただけないでしょうか。 >>35
colabで新しいセルを開いて、次のコードを入力、
!python -m pip install tomesd
そんでそのセルを実行してから、webUIを起動してみ プログラム知識もないのに色々弄ってしまいエラーが増えたので削除して再インストールしました
ご迷惑おかけしましたすみません >>45
俺もLastBenのノートブック使ってて同じように通った道だから分かるけど再インストしてもしょっちゅう動かなくなるんだよ
LastBenのじゃなくても自動アプデを組み込んだノートブック使ってる以上、
自分が何も変えてなくても、gitで自動でアプデされて必要なモジュールが数日ごとにしょっちゅう見つからないって言われて、マジでウンザリする事になる
あと、本体は動いても、extensionをインストールしてはあれが無い、これがないってエラーが出てextensionが使えなくなる
結局、見つからないって言われるモジュールをインストールするセルを自分で作っておく方法を覚えないと
しょっちゅうエラーでまともに使えない なるほど、とは言ってもあまり理解できてないかもですが
少しでも理解できるようにこのような場所の話題も1から読んでみようみまねで出来るように頑張ります… >>47
そんなに難しかぁないよ
colabの画面の適当な真ん中あたりにカーソル持ってくとコード・テキストって言うボタンが出てくるから、コードをクリックして
上で言ったようなコードを入力して、左の三角ボタンをクリックすれば実行されてモジュールがインストールされる。
モジュール名のところを変更すればどんなモジュールもこの一行でインストール出来る
!python -m pip install モジュール名
まぁ、詳しくなったら君も誰かに何か教えてやってくれ ありがとう、今度同じ様なエラーがでるの待ち遠しくなった(笑)
メモ帳にコピペして待機しておきます >>17 >>19
自分も「〇〇さんってニコ生配信者が言ってた」と反論されて唖然とした事あるわ。誰やそれ?って。
Githubや英語サイトの資料見せても読もうとしない。
自分もそうだが、相手も40過ぎたおっさん。世代は関係ないと思うな。
ネットはスマホの普及で大量に人が増えて、自分で調べていくタイプの人と、
手取り足取りコピペして教えて貰わないと覚えない人の二種類に分かれたと思う。
後者は「もっと丁寧に教えろ!」と逆ギレするだけで、関わるだけ時間の無駄だと思ってる。 >>41
そもそもtiled diffusionはRegion Prompt Controlに何も入力してない状態だと
普段生成するときに使ってるプロンプトとネガティブプロンプトのボックスに書き込んだ要素を
分割したすべてのタイル一つ一つに無理やりねじ込もうとする→結果、小人さんが大量発生する。
単純にVRAM限界以上の画像サイズに拡大したいだけの場合、プロンプトから画風や品質の要素以外を全部消して
『細かい要素の集まりではない、こういう模様をした何か』として最低限の補整と拡大だけしてもらう感じになる。
解像度相応にめっちゃ頑張って描画してもらう場合、これに加えて
i2iする画像をRegion Prompt Controlの方にも放り込んでEnableとDraw full canvas backgroundをどっちも有効化、
Region 1はこの範囲でこのプロンプトが入って、Region 2はこんなので〜って細かく注文する。
ここまでやっておくといつものi2iみたいにDenoising strengthを上げてもちゃんと出してくれるようになるけど、
正直毎回これやるのはすごい大変だからこっちはお気に入りの一枚が出た時だけでいいと思うよ… any4.5でマスピ標準なつり目じゃなくてアーニャとかそういう感じのまんまるおめめにするにはどうすればいいんだろ >>51
うーん?
そこまで酷くなかったような・・・
最近は常にCNのtile併用してるから素のTiled Diffusionの状態忘れてるなあ
ちな4kサイズでDenoising0.7とか0.8で妖精さん皆無(な事が多い)
CN tileすげえ
ただし手足の先が怪しかったりするけど・・・ 昨日から突然、生成中に止まってしまうようになりました。
100%|??????????????????????????????????????????????????????????????????????????????????| 30/30 [00:10<00:00, 2.93it/s]
100%|??????????????????????????????????????????????????????????????????????????????????| 10/10 [00:52<00:00, 5.29s/it]
Total progress: 1%|? | 40/4000 [05:26<8:05:35, 7.36s/it]
この状態でずっと止まってしまいます。webui-user.batを起動し直してもだめで、PCを再起動すると直りますが、またちょっと使っていると何かのタイミングでこの状態になってしまいます。
特にこの数日アップデートしたり新しいソフトを入れたりはしていません。何が原因でしょうか? Disk fullとかじゃないよね?
appdata\local\tempにいっぱいファイルできるけど、みんなどうしてるんだろう? フェラうまくいってる方いますか?
どうしても顔が崩れます
LORAつかっても・・ 意外なプロンプトが影響してる可能性があるから最小のプロンプトで試す
あとモデルでも出やすさ変わる >>58
シンプルな呪文で崩れ続けるならモデルの問題じゃないかな
エロに強いモデルで試してみてそれでもダメなら別のところに問題がある事になる
もしくはAIにとって難しい体位を要求してるか
念のために確認するけど、呪文が長すぎたりScaleが高すぎたり画像サイズが縦に長すぎたりしないよね?
75トークン以内、Scale7、縦が832以下
呪文内で複数の要素の顔の指定や2種類以上の行動を指定してると矛盾して崩れやすくなる
真横や逆さまの構図はSDにとって鬼門なので我慢する 最近興味を持った初心者です
このスレを読んでいると時々トークンという言葉が出てきますけど、サイトークンでしょうかイトークンでしょうかそれともカトークンはたまたゴトークンでしょうか >>62
そのトークンをどこで使ったのか
そもそも トークン使うっていうことは
コラボとかだろ automatic1111 token limit
とかで検索したら出る ChatGPT先生や5chwiki としあきwikiでもどうにもならなくなってきたので
Loraについて質問させてください!
2月頃に導入したsd-scriptsは上手く動かせて学習もできてたのですが、
lora_train_command_line.py への手入力がめんどくさいなと思い
昨日から最新のkohya_ssとsd-scriptsを入れたら、以下の状況になりました。
■現状1
Loraで何も学習されてないように見える
web UI でトリガー入れて画像生成しても再現度合いに何も変化なし
拾ってきたLoraや古いsd-scriptsで今日作ったLoraは普通に効く
学習に使っている新しいsd-scriptsは sd-scripts+ としあきwikiにあった LoRA_UI_0522
これでしか動かなくなった。動くと言っても学習できてないけど
元々2月頃から今まで(古いバージョンのまま)Lora出来てたので、Loraが分からなすぎて学習できていない訳では無いと思います。
■現状2
いくつかのgitなどを入れてあるが軒並みエラーで学習実行できなくなった
色々やってるうちに以下の状態に
kohya_ss → web uiから操作、caching latents で 0%で実行が止まる
ちなみに起動時に、気になるエラーっぽい表示があります
・WARNING Torch reports CUDA not available
・Info headless: False
最新のsd-scripts → datasetconfig.toml が見つからないとエラー出て止まる
(当然所定の位置に正しく制作して配置している。何度も確認した)
2月頃に入れた古いsd-scripts →学習出来る
2月頃から浦島太郎状態で、全くわからないです。。。
ヒントだけでも頂けると嬉しいです 何もLORA入れなくても割と完成されたキャラが出てくるのってどんなのがありますか?
例えば初音ミクや博麗霊夢などはLORAがなくてもプロンプトだけでいい感じのが出る
そういう情報が乗ってるページとかでもいいんだけどあったら教えて欲しい
ちなみに使用モデルはany aom cf にbraを少しだけ混ぜたマージモデルを使ってます >>67
「いくつかのgitなどを入れてあるが軒並みエラーで学習実行できなくなった」ってあるけど
もしこれがいろいろやってるうちに関係ないものも動かなくなったということなら各ツール毎にvenvつくろう、そうすればお互いに干渉しない
あと、手抜き回答で悪いがkohya_ssが動かないということなら、とりあえず、なんJにいるニキのGUI使ってみたらどうだろう
フォルダ構成とかの間違いチェックもある程度してくれるみたいだし、kohya_ssのコマンドラインも吐いてくれるので
もし嫌なら一度動いたらあとはGUI使わずにkohya_ssだけ使えばいい
Kohya_lora_param_gui で検索すればGitにあるのがヒットするはず、もちろん自己責任でだけどね >>69
回答ありがとうございます!
いやほんとおっしゃるとおりです。
venv作るのが一番だと身をもって感じてます。
中途半端な知識で色々やってあとで爆弾抱えてる感じありますよね。。。
自動でvenv作って仮想環境用意までしてくれるツールはほんと神
Kohya_lora_param_gui ちょっと試してみます
目に入ってるようで入ってなかったので改めて見てみて、試す価値ありそうでありがたいです
ありがとうございます!! >>68
danbooruに行ってキャラ名のタグで検索、件数が数万以上あれば出る。ウマ娘ていどの件数では出ない。かなあ。二次元限定 >>54
Combinatorial generation 切るべし asunaはSAOとブルアカの特徴持ったのがランダムだったり混じったりで出る気がする AUTOMATIC1111のckptデータを外付けSSDに保存して使うことってできますか? >>74
可能
mklink使うか、webui側の設定で指定する >>75
ありがとうございます。
ですが、うまくいきませんでした。
mklinkは認知されませんでした。
webuiの場合はどこを触れば良いのでしょうか?
Settingsではそれらしいのがわかりませんでした。 hires.fixを使うとフェラ顔が濃い別顔になるのですが、対策方法ないでしょうか
フェラ用のアップスケーラー >>78
顔を変えない方法はある
ただまずそっちの生成方法を把握してないと助言しようがない >>78
denoising strengthを0.3とか小さめにする
その際アップスケーラーをLatentシリーズ以外にする 実写系でビキニや裸にするとアバラが浮くのですが、出ないようにするうまい呪文ないでしょうか?ribsをネガティブに入れても駄目でした >>81
ファットとかビッグブリースとか
そういうの入れてみたらどうだろうか どうしても浮き出るならLamaCleanerで消す >>82
でもfatとかthickを入れたら本当にデブになるし >>81
cfgを3~4ぐらいにするとましになることがある 自分は二次だけど
fleshy, meaty (肉質、肉感)
これをネガに入れて軽減させてます ドリームブースで学習やってたら
exception training model winError 5
でるようになって困った >>56
これ本当に邪魔なんだけど生成されなくする方法ないの? >>89
https://mevius.5ch.net/test/read.cgi/cg/1681973770/956
このあたりだね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3278
の「webui-user-temp-delete.zip」を上げてる人のが使える
user部分は自分の名前に変更
sd起動時にtemp内をフォルダ含めて全消去することになる
自分は似たのをタスクスケジューラでPCをロックとかログアウトする瞬間に実行するようにしてる
sd起動時だと、次の起動までそのままってことになるので >>89
自分はwebui-user.batの頭でTEMPの中にSD専用のTEMPを再設定してそのフォルダを削除&作成で消してる
set TEMP=元のTEMPの絶対パス\SD
if exist "%TEMP%" (rd /s /q "%TEMP%")
md "%TEMP%" temp消してもダメでした
Exception training model [winError5]アクセスが拒否されました
local\\temp\\tmpjatrag4x\\text_encoder\\model.safetensors 2人以上の絡みってどうすればいいか誰か教えてくだせえ
Region Prompt Controlとかじゃ無理よね? >>96
初心者で申し訳ない。
チチプイを参考にしろってこと?
プロンプトで解決すんのか、RoLA次第でできるのか、それとも拡張機能でどうにかすんのか教えてほしい >>97
秩父にある2人一緒のやつを探してそれを真似すれば良い >>95
Region Prompt Controlで人物枠を重ねると人と人がくっつきやすいみたいなことはどこかで読んだ気がするよ
出したい構図が決まっているならプロンプト一発で出すことにこだわらず、雑コラをimg2imgやControlNetにかけるとか
>>98
civitaiを見ろってのはプロンプト欄に書く内容でできる=img2imgやControlNet、Region Prompt Controlの類は使わない、と言っていることに等しいんだけどそれで正しいの? >>99
2人は 簡単に出せるよ 3人までぐらいなら
あとは 画像の大きさを調整するだけ ■ このスレッドは過去ログ倉庫に格納されています