X

【StableDiffusion】画像生成AI質問スレ5【NovelAI】

■ このスレッドは過去ログ倉庫に格納されています
2023/04/01(土) 17:55:24.71ID:AcCGNP/H
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。

テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ4【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1678970566/

【StableDiffusion】画像生成AI質問スレ5【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1679654631/
2023/04/04(火) 20:04:39.73ID:itIf39tl
>>254
そもそも1日1000枚作ると電気代どうなると言われても答えようがねえっす
1枚何秒かかるかは解像度諸々の設定によるので
2023/04/04(火) 20:09:26.87ID:U6NNAweY
ソーラー発電機買うしか無いな
2023/04/04(火) 20:17:42.40ID:xR2FYOQI
昔のグラボならいいけど保証期間が残ってるグラボに外部ツールでクロックの上げ下げしたら保証なくなるから注意
2023/04/04(火) 20:25:15.34ID:xR2FYOQI
>>255
俺はガチャるよりも自分の所有してるエロゲやネットの画像、情報からキャラデザや構図、要素を研究して
それをLoraやDB、controlnet、LatentCoupleに落とし込めないか試行錯誤してる
奇跡の一枚より意図した一枚に重きを置くようになった。再現性を高めていきたい
2023/04/04(火) 20:28:35.12ID:jqpVoVR0
>>259
俺は逆
呪文緩め { | } を活用して
1晩かけて当たりというか
ヌケる画像引くガチャのほうが楽しい
2023/04/04(火) 20:36:21.60ID:xR2FYOQI
将来に向けてAIを使いこなせる能力もつけていきたいからね、GPTも含めて
今やってることの意味と構造も確認しながら進めていきたいんよ
2023/04/04(火) 20:46:22.50ID:gw9NkvXb
>>250 もっかい調べた。アフターバーナー自体はDLしてちょこっとメーター触るだけの簡単なものなんだな。やってみるよ。
もっと難しいものだと勝手にイメージしてたわ
>>251 消費電力てどうやって調べてんの
2023/04/04(火) 20:47:45.72ID:vKwMGTb2
>>223
パーツショップのにーちゃんでも画像生成aiについてはよく知らん奴多いからここで聞くのもありだぞ
2023/04/04(火) 20:51:29.23ID:vKwMGTb2
そもそもグラボの消費電力はモニターするツールあるだろ
2023/04/04(火) 20:52:52.86ID:w97K+bqq
>>239
代わりに↓の使おう。細かくメンテされてるのでおすすめ。
ttps://github.com/camenduru/stable-diffusion-webui-colab

モデルごとにそれぞれ stable と lite があって、stable はControlNetとか全部盛りだけど、
その分起動までに時間がかかるので、サクッと使うなら liteがおすすめ。

perfect_world_v2 のノートも用意されてるよ。
ttps://colab.research.google.com/github/camenduru/stable-diffusion-webui-colab/blob/main/lite/perfect_world_v2_webui_colab.ipynb
266名無しさん@お腹いっぱい。
垢版 |
2023/04/04(火) 21:08:05.89ID:qSKAVSDD
>>243
横からですがxformerの切り方教えてください
2023/04/04(火) 21:37:24.93ID:44kUDlxr
今の生成画像が実写と変わらない描写にするにはVRAM800GBと人体工学を学ばせたアルゴリズムファイルが不可欠とある
2023/04/04(火) 21:39:07.60ID:av6zgCRp
https://www.pixiv.net/users/91527524
この人みたいなアニメそっくりに生成できるモデル教えていただけませんか?
2023/04/04(火) 21:50:36.52ID:6PAVafqQ
>>265
うおー
あきらめかけていたずりネタディフュージョンライフが帰って来た!
とりあえず貼ってくれたパーフェクトワールドのコードで起動できたよ
本当にありがとう!
なんでこのコードだと起動できるのかさっぱりわからんが
前使ってたのより動作も安定している気がするよ
感謝!
聞いて見るもんだな、5ch民あったけえ…
270名無しさん@お腹いっぱい。
垢版 |
2023/04/04(火) 21:51:24.30ID:rSp/ItNq
lora学習の過学習の症状って ノイズが乗る で合ってますか?
全然似てないのにノイズが走るって設定が悪いんですね…
2023/04/04(火) 22:02:26.19ID:w97K+bqq
>>269
ColabはGoogleが用意した環境なので、動作に必要なパッケージが放っておくと最新版に更新されちゃうんだけど、
SDを動かす場合には必ずしも最新がいいわけではないので、「正常に動くバージョンのパッケージ」をノートの
先頭の方で指定していたりするみたいよ。
272名無しさん@お腹いっぱい。
垢版 |
2023/04/04(火) 22:13:39.17ID:iUIi/wxk
StableDiffusion起動時の画像サイズやプロンプトを設定する方法ないでしょうか?
2023/04/04(火) 22:21:30.94ID:eobUoUMR
>>272
Generateボタンの近くにある「↙」ボタンを押すと、
最後に生成した時の内容が自動的に呼び出される。
「その一手間が面倒くさい」ってんならui-config.jsonを編集することになるが…
274名無しさん@お腹いっぱい。
垢版 |
2023/04/04(火) 22:41:09.58ID:qSKAVSDD
>>266ですがググったらxformer切り方わかりましたありがとうございます。
無事に起動もできました
自分も>>269さんみたいにコード分からないので、えぬの備忘録で紹介されてたやつが便利だから使ってたんですが
やっぱ今回みたいなエラー出たとき弱いですね
2023/04/04(火) 22:47:30.69ID:tGj1Letl
>>274
エラーでたらchatGPTにそのままコピペして解決するコード書いてもらえばよい
2023/04/04(火) 23:10:39.53ID:S2qQ9lQV
Gptが2023年に対応すればSDのあれこれも聞けるようになるな
277名無しさん@お腹いっぱい。
垢版 |
2023/04/04(火) 23:34:01.73ID:zRVQSLcy
キャラクターのLora作る時に、キャラ全体/顔のパーツ(鼻)/衣装を3つに分けて覚えさせたいんですけど、keep tokenで先頭3つを保持して、キャラの特徴をこの3つのタグに振りあてればうまく行きそうですか?
2023/04/05(水) 00:38:34.89ID:lMB9pUEi
>>262
無停電電源に繋いでるから
液晶に表示されるんよ
マイニングと違って
AIは電力70%まで絞っても
生成速度10%も落ちないよう
279名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 00:53:51.00ID:cDxGdufi
majinaiにある画像開くとimpressionsってあるけどこれは何の値?
まさかガチャ回数とか?
2023/04/05(水) 01:01:46.94ID:WC8Dg6N2
「Eta noise seed delta」(1111ではsampler palameters)に
「31337」を入れてる画像を結構見るんですが
具体的にどういう意味があるんでしょうか?検索しても

「みんな入れてるから」
「入れてる人と同じ画像出したいから」
「NovelAIの例のアスカが31337にしてたから」

くらいしか出てきません
誰かのプロンプトと同じ画像出すわけじゃなかったら別に12345でも空欄でもいいですよね?
2023/04/05(水) 01:02:30.01ID:WC8Dg6N2
ああ、乱数のseedがらみってのは当然理解してます
2023/04/05(水) 01:03:21.21ID:c6B7bAsS
>>279
表示回数
てか、majinaiって日本語表示できるよ
2023/04/05(水) 01:16:38.81ID:WC8Dg6N2
もう一つ

例えばAOM3A3モデルで1 girlだけで背景指定して出すと
もうこれでもかって美麗な背景によくある萌え少女顔で出るんですが
いわゆる本当のアニメ絵(グレンラガンとかああいうセルルック?)のLoraで出すと同プロンプトでも背景がいきなりショボくなります
Lora比率を下げていくと0.3~0.4あたり以下でやっと美麗な背景になりますが、当然元キャラからは乖離しまくります

アニメ絵に合った絵でもそれなりに複雑にできそうな気がするんですが、
太い線の落書きみたいな背景になる上、いわゆる引きの絵が全くでなくなります(これは学習元に引きの絵がなかった?)
Civitalとか見てもみんなそんな感じになってますが、これはもうどうしようもないのでしょうか?
284名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 01:39:36.31ID:cDxGdufi
>>282
検索して表示される回数ってことか
viewとは別の意味なのかなと思ってしまった
viewはクリックして詳細表示された回数かな
ありがと
2023/04/05(水) 02:20:12.96ID:P+kmWmSh
最終的にLIVE2Dに使いたいです。
AIで書いたものを手直ししてそれをコントロールネットのopenposeを使って
いろいろな恰好をさせて差分を作りたいのですが、うまくいきません。

今までやったことはi2iでDenoising strengthを0.01~0.2くらいまでで書き直させて
PNG infoでseed値(一式もためした)をとってi2iにseed値いれてopenposeで
ポーズ変更差分を作ろうとしてるんだけど、うまくいかない、
Denoising strengthを0.9とかにするとうまく行くんだけど、それだとまったく別の
絵になる。
PNG infoの段階のseed値がt2iで作ったものじゃないから適当なものになっている
のが原因かなとおもうのですが、私がやりたいことをできそうな方法ご存じの方が
いらっしゃれば教えていただきたいです。
https://www.youtube.com/watch?v=oq4DssXBlpU
こことか参考にしてます。

またレイヤー分けも自動でやる方法(レイヤーディバイダーはあまり使い物になりません
でした)などありましたら教えていただきたいです。
よろしくお願いします。
286名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 02:51:19.69ID:9xdhWmph
ポーズはデザインドールとかMagicposer使っては
CharTurnerLoRAは‥違うか
287名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 02:51:55.90ID:cDxGdufi
初音ミク指定して何枚も生成してたら飽きたから違うキャラ指定してもミクになるんだけどなんでだ?
俺が入力したもの覚えてるのか?にしても指定してるキャラにならないのはマイナーキャラだからか...?
288名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 02:58:56.92ID:MmlvF0F0
なんかprompt変えても以前の画像の構図を引きずってる時あるよね
2023/04/05(水) 03:39:33.44ID:V/4cYifa
>>287
勝手に学習してると思う
同じようなモデルが続くのはみんな体験してると思うよ
2023/04/05(水) 05:38:17.63ID:o/brDS2+
エロ画じゃないのにAV女優の深田なんとかに似た女が続くのも勘弁して欲しい、萎えるわ
2023/04/05(水) 06:26:33.29ID:P+kmWmSh
>>286
ドールはないので、Magicposer使ってみましたが、同じでした。
やってほしいポーズの他画像をコントロールネットにいれてもおなじでした。
Denoising strengthを7とかまであげるとポーズ変わるのですが、まったく違う画像に
なります。

i2iでポーズを変える解説や動画が先ほどの参考のくらいしか見当たらず、難しい
のかなとはおもうのですが、openposeなどでもi2iに飛ばす設定とかあるのでできる
とはおもうのですが。
SEED値は結構ネックだとおもうのですが、i2iで作った画像のSEED値が意味ないのか
使い方が違うのかもさっぱりわからない状態です。
2023/04/05(水) 06:44:08.57ID:FUdxd9ve
そりゃseedでしょ
i2iガチャって気に入らない部分をインペイントガチャ、合間に自分で修整
この沼を避けたいからt2i prompt拘り勢もいるのだから
ワークフロー固めるにはまだ時期が早いと思う
そもそもi2i promptもまともでなかったら凶悪な時間泥棒でしかない
2023/04/05(水) 07:12:19.19ID:tMlRBM8F
>>280
NovelAIのサンプラーのシード値の設定
なのでNovelAIを完璧に再現したいわけじゃないならなんでもいい

>>283
仕様
基本的にキャラも背景もセット
もしかすると階層適用でLoRAの適用範囲を詳細に指定すれば改善出来るかもしれないが…
難易度は高い
https://seesaawiki.jp/nai_ch/d/LoRA%B3%AC%C1%D8

>>287
いわゆるバグ

>>289
勝手に学習はしない
そういうシステムではない
2023/04/05(水) 07:25:18.14ID:CZ2Ubj3r
まず同一モデル同一promptで再現できるか?
成果先走りで自分の味付けが阻害している可能性
YouTube投稿者にありがちな万能吹聴、どれも拭えない
2023/04/05(水) 07:51:39.25ID:WC8Dg6N2
>>293
ありがとうございます、理解できました
2023/04/05(水) 08:04:25.29ID:Yn5xV6d3
各プロンプトの重さやパラメータをランダムに変えることってできない?
一生懸命追い込んでいくより偶然に任せたほうが良いと思えてきた
2023/04/05(水) 08:15:04.51ID:tMlRBM8F
>>296
extensionにdynamic promptというのがあるので導入
使い方はぐぐればすぐ出る
298名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 08:34:37.47ID:52gGXj9g
>>293
バグ...なのか
再起動したら治るかな?
2023/04/05(水) 08:37:07.09ID:pBKnGDr/
hiresfixのノイズ除去強度ってコントロールネット使う場合は高くしないとなかなか顔が綺麗にならないですよね?でもちょっと数値上げるだけで乳首増えたりするんですけどなんかいい方法ないですか
300名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 08:57:47.91ID:d+KIUPuI
もうみんなLoRA学習はsd-webui-train-toolsに移行してる?
つい先週やり始めたkohya版Loraを直接sd-scriptsで動かす学習方法がもう過去のものになっててびっくりした
2023/04/05(水) 09:08:15.04ID:pOfnv8yD
>>297
ありがとう
2023/04/05(水) 09:38:56.06ID:WC8Dg6N2
またもや質問です

高速化が期待できそうなのでpytorchを2.0.0にしてみようと
https://economylife.net/spda-pytorch2-cuda118-install/
あたりを参考に古いvenvフォルダを退避して新しい「venv」に入れたつもりなんですが
1111のwebuiの下の表示が
「torch: 1.13.1+cu117」のままでどうも更新が認識されてないようです
NovelAI 5ch Wikiでは
> 一番下に"torch: 2.0.0+cu118"と記載があれば成功
とのことで失敗してるようです

CUDAは11.8を入れて(ついでにcudnnも突っ込んでpath通し)
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
をvenvで叩いて、「Successfully installed torch-2.0.0+cu118 torchvision-0.15.1+cu118」で完了
pip listではちゃんと「torch 2.0.0+cu118」になっています

ただ入れただけでwebuiから認識されてないような・・
何か原因考えられますでしょうか?Pythonは3.10.6です
2023/04/05(水) 09:56:42.77ID:Sg+2y834
>>268
ぱっと見た感じAnimelike_2D_Pruend_fp16を使っているんだと思う
作者が生成した画像を売るな!と言ってcivitaiから消した
今はhttps://arca.live/b/aiart/72288379からリンクしている(一番上)
QW5pbWVsaWtlXzJEX1BydWVuZF9mcDE2をbase64デコードするとファイル名が出てくるよ
2023/04/05(水) 10:25:55.59ID:2Ke9ADXk
sd_vaeを設定から追加したのですが、SD VAEの右側に重さの数字を設定する方法があったはずなのですが、設定のどこになりますか?
2023/04/05(水) 10:37:16.33ID:UZu/xTdy
kohya ss webuiでloconはどう使うんですか?
2023/04/05(水) 10:55:38.47ID:JZe/Mhtz
>>304
Quicksettingsの話だろう? 君が旧環境でVAEの右側に
何を設定していたかなんて、エスパーでもなきゃわかるわけない。
「重さの数字」じゃわからん。もっとよく思い出せ。
CLIP_stop_at_last_layers,か、sd_hypernetwork_strengths,か…
後者はもう死んでextra_networks_default_multipliers,になったけどな。
2023/04/05(水) 11:00:28.31ID:JZe/Mhtz
>>305
学習の話じゃなくて画像生成にLoConを使いたいってことか?
もうちっとまともに質問できないのか?
https://github.com/kohya-ss/sd-webui-additional-networks
このページ内を「LoCon」で検索してみたか?
2023/04/05(水) 11:07:06.26ID:JZe/Mhtz
>>305
こっちの可能性もあるから
変な書き方はやめて正式名称やURLを添えて質問しろ
https://github.com/ddPn08/kohya-sd-scripts-webui
2023/04/05(水) 11:13:47.73ID:5ZlGRApx
controlnetの生成の発色が暗かったので調べてみたら
ダウンロードしたCounterfeit-V2.5.vae.ptをconvert_vae_pt_to_diffusers.pyで変換するとあったのですが
普通のvaeみたいにCounterfeit-V2.5.vae.ptをそのままvaeフォルダに突っ込むだけでは効果を発揮しないんでしょうか
2023/04/05(水) 11:16:13.28ID:UZu/xTdy
>>307 >>308
すみません言葉足らずでした 使用方法では無くkohya ss webuiでlocon学習のやり方が分からないと言う話です
2023/04/05(水) 11:16:29.34ID:MKEEFp02
>>289
やっぱり
何で前のプロンプトの指示が出るんだ!
と思ってたらそういうことか
2023/04/05(水) 11:19:22.11ID:ezptzP/i
sweatって書いたのになんでcum on bodyと同じ描写やねん!っていうのはある
2023/04/05(水) 11:22:43.61ID:JZe/Mhtz
>>311
そんなわけねーだろオカルト主張やめろ >>293で言われてる通りだ
PC再起動後にPNG InfoからSend toして
同一seed同一プロンプトで再現できるかどうかで検証できる
何ならメタデータ込みでmajinaiにでもアップロードしてみろ
2023/04/05(水) 11:33:41.56ID:JZe/Mhtz
>>309
まず、そういう質問の際はURLを貼れ。
そしてその質問は、そのブログのコメント欄に書け。
それとよく読め。その人は1111ユーザーじゃなくてDiffusers民だから、その必要があってそうしている。
1111民はCounterfeit-V2.5の配布元で公開されてるVAEを普通に利用すればいい。
でもあれリネームされてるだけで、中身は要するにアレなんだよなあ…。容量もハッシュ値もまんま。
2023/04/05(水) 11:44:03.78ID:5ZlGRApx
>>314
そもそも前提から勘違いしてたのか
すいませんでした
例のあれ使っても背景暗いがしたけど設定が悪いだけだったか
2023/04/05(水) 12:00:39.72ID:JZe/Mhtz
>>315
VAEを指定してもなお背景が淡い色合いのモデル…という印象は俺も抱いてる。
でもそれは空気遠近法的なもので、遠くのものほど淡くなってるし、配布元のサンプル画像を見てもやはりそう思う。
ただ好みの問題はあるだろうから、もう少し彩度が強めの、他のVAEを利用してもいい。
具体的にはkl-f8-animeとか。ほんとに「お好みで」としか言いようがないけどね。
2023/04/05(水) 12:23:02.28ID:2Ke9ADXk
>>306
ありがとうございます!
clipのことです!
おかげで思い出せました!
2023/04/05(水) 12:47:48.82ID:TDtATKpO
垂直に脚を上げる呪文を教えて頂けるでしょうか
vertical split poseでは全然反応してくれませんでした
2023/04/05(水) 12:51:14.48ID:0qNP6Z3j
バレエみたいな片足上げるやつ?それとも仰向けの状態から両足上げる感じ?
2023/04/05(水) 12:55:22.44ID:TDtATKpO
>>319
バレエの方です
321名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 12:56:04.74ID:vn3xaw6j
足上げる系は現状txtだけじゃ難しそう
Image2imageとcontrol netならできないポーズないと思うけど
マングリ返しもi2i controlnetで余裕
2023/04/05(水) 12:56:13.56ID:JZe/Mhtz
>>318
split, standing split, leg lift, leg up,とかいくつかあるので、
強調したり併用したりしながら試してください。
プロンプト内の位置にもよるので先頭近くにすると効きが良くなります。
1111ユーザーならCivitaiにあるsplitのLoRAを利用すると、安定性がより増します。
ただし画風への影響が強いLoRAなので、0.5とか0.3みたいな軽めの強度で利用することをおすすめします。
2023/04/05(水) 13:07:50.54ID:6ujSqiwg
衣装再現loraは、服着てるキャラを学習元にしたときは、
1girl消してdressとかをクラスプロンプトにしたほうがいいんでしょうか?
2023/04/05(水) 13:56:55.90ID:WC8Dg6N2
>>302
報告ですが
ネットで検索して出てきたよくわからないコマンドで「torch: 1.13.1+cu117」のアンインストールが何やら成功して
下に「2.0.0+cu118」と出るようになりました
ただしVAE有効時にHires.Fixやると高確率(100%ではない謎)で真っ黒な画像が出る不具合に遭遇して格闘中です
--no-half-vae入れても真っ黒になりますが、VAEの種類によるかもしれません
どうもorangemix.vaeと相性が悪いようです

なお、速度はtorch1.13かつ--xformersと全然変わりませんでした・・
使えなくなった--xformersと相殺ですね
325318
垢版 |
2023/04/05(水) 14:00:58.83ID:TDtATKpO
>>322
アドバイスありがとうございました
自分環境ではleg upが一番効果がありそうな感じでした
少しずつ強度を調整して最適なところを探してみます。
2023/04/05(水) 14:19:25.74ID:JZe/Mhtz
>>324
orangemix.vaeもCounterfeit-V2.5のVAEと全く同じで
>でもあれリネームされてるだけで、中身は要するにアレなんだよなあ…。容量もハッシュ値もまんま。
あと君が睨んでる通り、そのVAEは黒画像を誘発しやすい。
2023/04/05(水) 14:24:05.34ID:gDZftlg+
>>324
xformeesは生成のたびに細部に違いが出てしまうので、無しで高速化出来るならそのほうがいい
2023/04/05(水) 14:32:28.52ID:hFryunRP
数日前に神レベルが生成出来たけどプロンプト登録し忘れたんだけど所持してる画像を使ってほぼ全く同じような画像(プロンプト登録)を抽出って出来る?
329名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 14:34:17.81ID:FHdnLrPd
>>328
Pig info使いんしゃい
330名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 14:34:32.48ID:FHdnLrPd
PNGね
2023/04/05(水) 14:40:44.78ID:bBpm1bcF
orangemix.vaeが黒画像出やすいの気のせいじゃなかったんか
一番好みなんだけど似たよう代替品探すか~
2023/04/05(水) 14:41:12.03ID:hFryunRP
>>329-330 ありがとう!編集で反転させたかもでワンチャン無理かもだけど帰ったら試してみるよ
333名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 14:43:46.13ID:dyvkfE8R
外部ツールで反転させてるなら無理じゃないかw
2023/04/05(水) 14:52:04.63ID:WC8Dg6N2
すいません、速度ですが、torch1の頃とごちゃまぜで
set COMMANDLINE_ARGS=--opt-sdp-attention --no-half-vae --medvram --opt-split-attention
としてたのがいけなかったようです

set COMMANDLINE_ARGS=--opt-sdp-no-mem-attention --no-half-vae
で速度19%もアップかつ(3060なんで知れてますが)
VAEありでも黒もでなくなり安定してきました・・かな(またなんかの拍子におかしくなりそうで断定したくない)
「--opt-sdp-attention」は自分の環境ではあまり早くならないようです

>>326
やっぱそうなんですかw

>>327
速さと引き換えなのか、全く同じseedで結構変わるんですよね
2023/04/05(水) 14:57:02.90ID:PvzCCquH
>>333 案の定反転してたみたいだったけど無事再生成出来た!
2023/04/05(水) 15:29:33.13ID:6RIvQLmu
orangemixで黒画像出るの俺だけじゃなかったんだなw
おま環かと思って諦めてたわ
2023/04/05(水) 16:23:27.57ID:VC0yK5cH
SD
横長サイズで画像生成するとどうしても女の子が2人出てきてしまう
1girl,soloを強調、mulipule girlsなどとネガティブにしても変わらないです

生成ガチャが当たるまでどうしようもないんですかね?
338名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 16:25:41.07ID:hXa88vyt
どうにも自分の力量ではエラーを解決させることができないので質問させてください。
Loraの学習の実行時にこういったエラーが出て先に進めません。
解決方法を教えてください。よろしくお願いします。
http://iup.2ch-library.com/i/i022954944915874411294.png
2023/04/05(水) 16:27:40.42ID:LSSFS2Gl
>>337
構図を工夫するとかで少しは減らせる
ducth angleで斜めにして一人の占める画面面積を増やすとか、
sceneryやlandscape、cityscape等の背景を主役にする構図でキャラへの注目度を下げるとか

それでも分裂中の単細胞生物みたいのが湧いて出ることはあるが…
描画人数を完璧にコントロールするのはまだ無理やね
2023/04/05(水) 16:28:59.91ID:Pezgr+i2
ファン頑張って回ってる原因わかったわ
高画質画像を生成完了するタイミングでGPUの使用率100%になって温度上昇、作り終わったタイミングで冷ますためにファンが回転
これはグラボ性能が高ければ100%にならないんだろうか
2023/04/05(水) 16:30:23.47ID:VC0yK5cH
>>339
ありがとう
なるほど構図と注目度か
「1人だけ」という考えに囚われてて目からウロコ
試してみます
342名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 16:31:07.49ID:svu2pz1c
Txtじゃ限界ありそう
I2iでcontrol NETも使って
横長のキャンパスに適当に人間1人描いてぶん回せば1人しか出てこないゾ
343名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 16:48:14.45ID:UyGiEVZf
やはり、AI生成でグラボぶん回すのは負担かかって寿命減るのかな?
今使ってる3660tiが高リフレッシュレート、高いスペックでゲームやっている間コイル鳴きするんだけど、画像生成すると同じくらい鳴く。
344名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 16:50:32.56ID:UyGiEVZf
3060tiだった
2023/04/05(水) 16:58:05.05ID:Z+kb1DBC
>>343
マイニングみたいに酷使すればそりゃな
ひとまずafterburner入れてクロック落とせ
ていうかその前にファンの掃除ぐらいしろよ
2023/04/05(水) 17:03:11.24ID:jB9K6AdA
>>338
4GBは流石にグラボがカス過ぎるんじゃないの?
2023/04/05(水) 17:06:17.36ID:1zwgk6mz
微妙な差分でもいいからt2iで同じキャラを複数枚作る
→LoraじゃなくてDreamBoothでそのキャラを学習させる
→作ったDBのモデルでcontrolnetで差分を作る
、じゃダメか
2023/04/05(水) 17:09:43.44ID:1zwgk6mz
>>343
4K144でAPEXやってるけどそれとAI生成してるときの電力は同じくらいだったわ
俺もコイル鳴きしてたけど、グラボを外して付けたりして共鳴しないポジション見つけたら鳴らなくったわ
2023/04/05(水) 17:20:33.07ID:JZe/Mhtz
>>337
横長というのはアス比だけの話です。
768x432も1920x1080も16:9という点ではですが、
AI絵の生成過程においては天地の違いがあります。
そこは質問の際に数値を具体的に言及してください。
「1girl,soloを強調」についても同様、数値を具体的に。
その上でsoloを強調するのと、ducth angleが有効なのには俺も同意します。
2023/04/05(水) 17:21:58.74ID:JZe/Mhtz
>>338
>>346の言う通り
351名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 17:24:15.77ID:zsRcguVu
loraでタグ付け学習する時ってそのキャラを特徴づける衣装も全部削除
でOKでしょうか?1girlやnipple,vaginaなどは残しておいてもいいですか?
タグ付け学習をすると衣装を着ている時は良いんですが、裸化や
エロを出すととんでもない奇形になり困っています
2023/04/05(水) 17:40:05.21ID:v4IFPmg0
>>338
4G のGPUで学習ってそもそもできるの?
2023/04/05(水) 17:56:04.80ID:/m0sq1qQ
>>351
衣装着てて欲しいなら裸要素はキーワードに含めないようにしよう
裸体にも対応したいならキーワードを分けて学習データも分別するといい
裸の画像なんかないぞということなら、頭部だけのLoRA作って裸体画像たくさん生成してそれを学習データにする
2023/04/05(水) 18:30:18.30ID:PpIxbsnG
>>338
雑魚扱いのRTXの8GBは最低でも拾ってこないと(金出すなら12GB以上じゃないとこの世界辛いよ)
財布がきついなら新品RTX3060-12GBが5万切ってるからそのあたりがおすすめだよ
355名無しさん@お腹いっぱい。
垢版 |
2023/04/05(水) 18:39:19.57ID:QR6oGUfG
RTX3050でスケール上げると
torch.cuda.OutOfMemoryError: CUDA out of memory.とか出て生成が止まる
ネットで言われていることは試したが改善せず、グラボ変えるしかないですか?
RTX4070TI 12GBだとスケール6くらいまで上げれる?
2023/04/05(水) 18:46:07.93ID:MBWU0XoT
コラボでimg2imgを出力すると、画像二枚程度で
次からボタン押しても出力してくれなくなるんだけど、
無料だから制限がかかっているってことなんかな?
テキストのほうは問題ないみたいなんだけどね
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況