X



【StableDiffusion】画像生成AI質問スレ20
レス数が950を超えています。1000を超えると書き込みができなくなります。
0001名無しさん@お腹いっぱい。
垢版 |
2023/11/18(土) 22:55:21.57ID:EizTB15I
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。

質問する人はなるべく情報開示してください

・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く

テンプレは https://rentry.co/aiimggenqa

※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/
0874名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 00:39:57.59ID:lp8GWM0k
イラストで口が開いてるけど中が肌色になるのは何なんだろう……
学習画像にそんなのがあるんだろうか
open mouthとか明示すれば大抵大丈夫なんだけどね
0875名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 06:36:54.25ID:8SLe1li8
次からワッチョイつけようぜ
0877名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 08:11:36.92ID:YVyNYcri
>>875
ぜひそうしたいんだけど、その話をすると毎回単発IDで騒ぐ人がいるからね…
人が多いスレでもないのに突然単発が何度も同じことを言ってくるからああまたこいつかとわかっちゃうレベル
0880名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 11:08:34.08ID:4dgMOSCf
まさに自己紹介レスになってて草
0882名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 12:29:04.50ID:YVyNYcri
しないよ。自演が必要なほど無理筋な主張とは思っていないからね
自分が自演していると他人も自演してるって思い込むんだね
idを変えると元に戻せないと聞いたことがあるけど本当?
0885名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 13:30:38.17ID:Tk8Iwzy5
初心者でAI使って画像生成始めようと思っています
ローカルでやるのとNovelAI使うのはどっちのほうが作りたい画像を作れますか
0887名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 13:50:48.38ID:YVyNYcri
>>885
作りたい画像によるかな
ローカルはLoRAやControlNetを使った細かいコントロールができる
NovelAI v3はプロンプトの解釈が上手で、指定した構図や人体のポーズが出やすい
0888名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 15:57:58.45ID:TmokZ11F
エラー吐いたSDのコマンドプロンプトの最後の文章が
「torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 768.00 MiB
(GPU 0; 12.00 GiB total capacity; 4.10 GiB already allocated; 5.97 GiB free; 4.97 GiB reserved in total by PyTorch)
If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.
See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF」

となってて、翻訳掛けると

「予約されたメモリ >> 割り当てられたメモリの場合、断片化を避けるために max_split_size_mb を設定してみてください。 メモリ管理と PYTORCH_CUDA_ALLOC_CONF のドキュメントを参照してください。」

ってあるから書いてある通りの事をしたいんですが
ここにある『max_split_size_mbを設定』ってどうやってやるんでしょうか
PYTORCH_CUDA_ALLOC_CONFとエクスプローラーで検索しても出てこなくて
0889名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 16:08:15.81ID:MD+WjuWW
修正連打してて気づいたらノイズのブツブツと焼けたような変色出てたんだがこれ除去するの無理?
0890名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 16:15:50.28ID:TmokZ11F
>>888ですが
webui.batに「max_split_size_mb:128」を書き足すことでGPUのメモリの断片化を防ぐ効果があるという記事を発見して試したので
エラーが収まるかどうかは分かりませんが一応自己解決しました
0892名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 19:01:43.78ID:Tk8Iwzy5
>>886
>>887
答えていただきありがとうございます。
特定のキャラを出すにはローカルのNovelAIとNovelAIv3のどっちがいいですか
0893名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 19:15:41.65ID:SWGoCEJ+
>>892
私が stable を入れる前に調べた時は
Novel は、学習済み以外のキャラ再現が難しいので
初心者向けでは無いと書かれてて
stable にしました、今はわからないので
ちょっと調べて見てください
参考まで
0895名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 19:19:09.10ID:YVyNYcri
>>892
知られたキャラの出しやすさならNovelAI v3じゃないかな
ローカルが全然ダメということはなく、そのキャラのLoRAがあるならローカルでも出せます。その場合使うモデルはNovelAIでなくてもよく、アニメ系に強いモデルで試せばよいでしょう
0896名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 19:39:21.04ID:+BSR2T3X
>>890
断片化が原因なら再起動しちゃうのがベストな気はするけどね
0898名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 22:24:17.51ID:pLG+irSW
>>885
いちおう比較
NovelAI
・導入が簡単、企業製の優秀モデルが使える、PCスペック要らない
・有料、一定レベル以上の非倫理的なエログロは出せない、カスタマイズは一定範囲内
SD
・無料、ユーザー製の色々なモデルが使える、どんなエログロも出せる、カスタマイズはユーザーモデルで無制限
・導入がやや難しい、ハイスペックPCが必要、現時点で使えるユーザーモデルはNAI最新モデルと比べると見劣りする
0899名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 22:47:49.47ID:EmZXZFS2
web uiが急に起動しなくなったというか永遠にロードが続くようになったんだが誰か解決方法知ってたら教えてほしい
以下症状
・起動自体はするがcheckpointやvaeの読み込みがずっと続いてまともに動かない
・メモリを消費してるわけでもないのにブラウザの動作が重くなってフリーズする
・controlnetをextentionから排除すると問題なく起動する
・controlnetを戻すor再導入すると上記症状が再発生
・venvの削除と再構築を行ってもだめ
・pythonやwebuiを再インストールしてもcontrolnetを導入した段階で上記症状が再発生
・症状発生前に拡張機能は導入しておらずwebuiのアップデートもしていない


環境は Core(TM) i7-13700KF メモリ32GB RTX4090 
0901名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 23:04:58.61ID:jE02wjJk
永遠にロードが続くって虎舞竜かよ。延々とだろw
まあそれはさておきRTX4090ならあり得る話だよ
12VHPWRを確認するとか
0903名無しさん@お腹いっぱい。
垢版 |
2023/12/18(月) 23:32:09.71ID:EmZXZFS2
>>901
コネクタを差し直してみたけどだめだった

>>902
こんなエラーメッセージが
Error executing callback app_started_callback for G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py
Traceback (most recent call last):
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\modules\script_callbacks.py", line 139, in app_started_callback
c.callback(demo, app)
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py", line 60, in controlnet_api
controlnet_input_images: List[str] = Body([], title='Controlnet Input Images'),
NameError: name 'List' is not defined
0906名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 00:17:28.79ID:7jOcc+WF
>>904
ググってみたけど似たような問題が見つからなかった

>>905
3.10.6
0909名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 01:10:26.18ID:JxS15IYR
>>899
この手順で言うところのコントロール ネットを戻すというのと
再導入するっていうのは違う手順でやっているということ?
0910名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 03:03:54.46ID:6wWclErJ
最近初めました、すみませんが質問です。
2次が好きで色々と好きなポーズや、loraの使い方までは解って来たのですが
「悔しい、でも感じちゃう!ビクンビクン」こんな画像の時に体にでる
1:体の一部がちょっとトゲトゲする効果
2:体の外にギザギザの波線みたいなのが出る効果
みたいなのを出せるloraをご存じ無いでしょうか?
ご存じの方居ましたら宜しくお願いします
0913名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 07:56:21.26ID:7jOcc+WF
>>907
今日の夜にでもやってみるわ

>>908
新しいやつを入れ直したつもりではあるが、もう一度やってみよう

>>909
説明が足りなくてすまん
戻す→extentionから移動させた元のcontrolnetを再度extentionに戻す
再導入→controlnetをインストールし直す
と読んでもらえたら
0915sage
垢版 |
2023/12/19(火) 14:43:50.36ID:ITu+s93Z
automatic1111でhires.fixを使うと、60%くらいまで生成が進んだところでそれまでの絵から突然変化して
変な絵ばっかり(腕が複数生えたり、胴体が異常に長くなったり)生成されるようになってしまいました。
upscaleするときに何かおかしなことになってるんだというのはわかるんですが、何したら回復するでしょうか。
0917名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 15:31:21.67ID:1V6koRfw
>>915
1111をどう設定しているか知りたいので、操作画面のキャプチャを見せてください
操作画面を全部キャプチャできなくてもかまいませんので、generationタブのhires.fixのあたりを見たいです
win+shift+Sから範囲を指定してのキャプチャができます
ちなみにプログレスバーの半分くらいまでは拡大する前の画像を生成する様子が出ていますので、間違いなくhires.fixでなにかやらかしているでしょう

>>916
単発IDの人でしょ? そういう書き込みはやめてね
同じIDで書き込める? たぶん無理だと思う
0918915
垢版 |
2023/12/19(火) 16:20:38.66ID:ITu+s93Z
すいません、自己解決しました。
Denoising strengthを下げたら安定しました。
お詫びのえっちな画像です
https://imgur.com/a/utZI8mA
0923名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 20:35:34.36ID:7jOcc+WF
899です、言われたようにチャットGPTに入れてみたけど解決できなかった
チャットGPTの回答---------------------------------
このエラーメッセージは、NameError: name 'List' is not definedが発生していることを示しています。これは、Listという名前の型が定義されていないために発生するエラーです。このエラーは通常、Listが含まれるtypingモジュールが正しくインポートされていないか、型ヒントが適切に指定されていない場合に発生します。

以下は、解決するための手順です:

Listを正しくインポートする:
Listは通常、typingモジュールからインポートされます。スクリプトの冒頭で、Listを以下のようにインポートしていることを確認してください。

python
Copy code
from typing import List
これにより、Listが未定義のまま使用されるエラーが解消されるはずです。

適切な型ヒントに変更する:
もしtypingモジュールが使用できない場合、代わりにリスト型としてlistを使用することができます。

python
Copy code
controlnet_input_images = Body([], title='Controlnet Input Images') # List型ではなくlist型を使用
ただし、この方法は型ヒントが弱くなる可能性があります。可能であれば、typingモジュールを使用して型ヒントを正確に指定することが望ましいです。

これらの手順を試して、問題が解決できるか確認してください。
---------------------------------ここまで

本体:1.7.0 controlnet:1.1.423 が最新verであってるよね?
0924名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 23:04:47.98ID:dGc7UiyB
あってるね
同ファイルの別の場所もListの型ヒント使っているから、エラーログを見ながらが必要に応じて修正する感じかな
0925名無しさん@お腹いっぱい。
垢版 |
2023/12/19(火) 23:26:56.48ID:7jOcc+WF
899です解決しました
chrome拡張機能「はちまバスター」が原因だったっぽい、12月16日に入ったアップデートで何かしら競合するようになったんだろう
お騒がせしました
0926名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 07:46:03.96ID:BddvcC6m
どっちも最新で起こるなら騒ぎになってるだろうから、おま環だろうとは思ってたけどブラウザ拡張か
しかしCNだけピンポイントとかわかるわけがない、よく見つけたなぁ
Manifest V3移行ってなってるね

問題起きても別ブラウザで試そうとはなかなかならないんだよな
0927名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 08:23:34.50ID:w6YAXEpP
Stability Matrix便利だけど、SMのアプデミスでエラー吐いたりしちゃうとお手上げになっちゃうので、一長一短だなあ
0928名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 21:00:47.53ID:+gwbjvDR
アニメキャラのLORA学習に手を出してみたけどなんかピカソみたいな絵になったりぐちゃぐちゃになるのは素材の画像が少ないからなん?15枚くらいでやったけど
0930名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 21:38:20.17ID:09PBVoil
パズドラ見てる人少ないんよな女キャラ可愛いのに
0931名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 21:51:48.16ID:mdslqLwF
>>928
画像なんか数枚でも判別可能な物は作れる
学習が弱すぎるか強すぎるか、ベースモデル間違ってるかあたり
あと素材が微妙すぎると変になることもある
0932名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 21:52:38.13ID:dGFnVISw
>>928
アニメ系ってもう先駆者大量にいて簡単に作れるよ
生成されるのみると艦これとハルヒっぽいのがちょいちょい出てきてこの辺のが学習元なのかな…とか思う

stable duffusion モデル アニメ。で検索してダウンロード
0933名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 22:56:34.11ID:+gwbjvDR
>>929
アニメ系のモデルで学習させてるんだけどな…呪文を工夫しても小学生の書いたような絵になる
kohya GUIがなぜかインストールできないからsd-webui-train-tools使ってるせいかな
0934名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 23:23:38.58ID:mdslqLwF
単に設定を間違っているだけ
どんなツールを使おうが最低限判別の出来るものは作れる
まあ入れるプロンプトを間違うと目的の物が出ないことはあるが
0935名無しさん@お腹いっぱい。
垢版 |
2023/12/20(水) 23:35:21.20ID:83J18hwS
小学生が描いたような絵ってレアじゃん
0938名無しさん@お腹いっぱい。
垢版 |
2023/12/21(木) 09:22:13.15ID:dzb/toM9
プレバトは7割くらい写真トレスやろ
爆発の瞬間とか水に落ちた水面のうなりとか重なる訳がないのに
形状が見事に合致してる、それともすっごい動体視力の持ち主なんか
0939名無しさん@お腹いっぱい。
垢版 |
2023/12/21(木) 09:33:22.61ID:mnHdPZ6E
重要なのは素材たと思う
ゲームのキャラスクショ撮って学習させたら
輪郭がドットぽい画しか吐かなくなったし
素材に背景入れた絵が多いと背景引っ張り出すし
顔だけなら白抜きで高解像度が重要だと思った
初心者だけど…更にコツあったらフォローお願いします
0940名無しさん@お腹いっぱい。
垢版 |
2023/12/21(木) 11:37:20.71ID:mnHdPZ6E
prompt matrix と x/y/zプロットを同時に使うことはできませんか?
例えば犬というloraと猫のloraを
犬だけ、猫だけ、犬猫同時、両方無しの4パターンと
更にそれぞれの重みを変えて複数の画像を一気に出したいのです
よろしくお願いします
0942名無しさん@お腹いっぱい。
垢版 |
2023/12/21(木) 13:20:33.72ID:gBR366j5
モデルの切り替えができない…切り替えの窓は読み込んで切り替わってるように見えるけど生成するとcalicomixから動かない…
0943名無しさん@お腹いっぱい。
垢版 |
2023/12/21(木) 15:47:46.80ID:z29iwbvN
model-toolkitって拡張機能で持ってるモデルを確認したらそれぞれジャンクデータがうんGBもあるって分かったんだけど
これ全部軽量化しちゃって大丈夫なの?
不具合出た人とかいる?
0945名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 00:40:28.24ID:uW2AnqA6
>>943
model-toolkitが何か月前からあると思ってんのさ
0946名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 09:19:23.65ID:RusG/4Yq
なんかstable diffusion1.6.1に更新したら、謎に複雑な画像?うまく言えないが書き込みが多すぎてグロくなった画像とかを出力しやすくなった気がするけど、何か変わったんだろうか
0947名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 09:21:16.62ID:x46FrkEl
>>941
ありがとうございます
プロンプト打ちまくれば何とかなりました
ただ、横長のマトリクスになるので
何とか複合技で処理したいですね
0948名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 09:51:28.28ID:D6xM6ftG
>>946
そういうのはぜひ画像を見せてほしいところだけど
(catboxのようなメタデータが残るところに上げてね)
バージョンが変わると結果が変わることはあるからその影響かも?
0950名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 10:35:02.04ID:v7F80Sqi
【質問】t2iとi2iの関係について

AUTOMATIC1111を使っている初心者です。
イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。

@ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。

Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。

しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか?
例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね?

皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか?
t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか?
実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。
0951名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 10:35:02.12ID:v7F80Sqi
【質問】t2iとi2iの関係について

AUTOMATIC1111を使っている初心者です。
イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。

@ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。

Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。

しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか?
例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね?

皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか?
t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか?
実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。
0952名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 10:36:12.40ID:v7F80Sqi
2重書き込み失礼しました(-_-;)
0953名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 12:41:33.55ID:O26rB53f
クオリティアップがどういう作業を指すのか判らないけど、i2iのinpaintで領域指定してプロンプトをそれ用に書くとかの作業は出来る
Tiled Diffusion+ControlNetのTileで高解像度の書き込みアップも出来る
i2iでの作業に入ったらt2iに戻る必要はないと思うけどな
0954名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 13:38:41.56ID:v7F80Sqi
>>953
ご回答ありがとうございます。
失礼しました。クオリティアップ=画像を段階的に修正していく の意です。
一度i2iでの作業に移行したらt2iに戻るのは無理は正しくて、皆さんi2iでの作業に移行したらi2iで完結させる(それで困らない)ということですね。
大体の構図が決まった時点で早々にi2iに移行していくものでしょうか?
0956名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 13:50:05.30ID:gNR2fTxU
>>951
質問者との意図は違うけども
Stable Reactorで顔をはめ込むという方法もある
個人人的にはインペイントって
あんまり成功しない気がするんだよね
0958名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 14:32:58.52ID:09X7vT3r
>>949
ついでにプロンプト全体的に強調倍率高すぎる
この場合は全倍率1に下げたほうがマシな絵が出るからあとから必要な分だけ盛る
ネガティブはそのままでも多分問題ない
あとNSFW使ってるならPINK板池
0959名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 14:35:47.64ID:WCuIa5Ix
>>949
1111のバージョンとcheckpoint(anything-v4.0-pruned)、LoRA(SelfBreastGrab)、TI(easynegative)を揃えようとしたけど再現はできんかった
画像を見る感じではバージョンアップしたから崩れたのではなくそう感じるのはたまたまたで、原因はほかにあるんじゃないかなー
0960名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 14:41:26.94ID:WCuIa5Ix
>>955
それぞれダウンロードしてmodel hashを比べればわかります
checkpointを選べばmodel hashが計算されてモデル名のあとに[69528490df]みたいに出ますし、入れているモデル名が少なくて1.7.0~なら設定の「Actions」に「Calculate hash for all checkpoint(すべてのcheckpointのハッシュを算出)」ボタンを使う方法もあります
0961名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 14:46:03.35ID:WCuIa5Ix
>>954
いったんi2iへ移行したあと画像を拡大したいときは、i2iでアップスケールすればいいんでは
Tiled diffusionとControlNetのTileで拡大するとか
0962名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 15:56:58.87ID:RusG/4Yq
>>958
ありがとう、変えたら直りました
nsfwはすまない、該当するものを適当にピックアップしたらついてしまっていた、気を付けます
0963名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 15:59:23.16ID:nkHTfkuM
>>949
ほぼそうなったよ
Latent(bicubic)が駄目っぽい(4x-AnimeSharpにしたら改善された)
なぜ1.6からかは不明

あと上の人も書いてるけど全体に強調の値が全部大きすぎるかな
ネガに同じのが2つずつあったりもうちょっと綺麗にしないと切り分けが大変だ
https://i.imgur.com/tE3PUBi.png

>>962
って治った?数値全部小さくしてもダメだったけどな・・はて
0964名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 16:26:22.89ID:v7F80Sqi
>>956,961
ありがとうございます。
Stable Reactorいいですね。顔がいい画像はとっておいて、後ではめ込むってことですね。
0965名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 18:27:50.16ID:lktnpTDj
>>963
元プロンプトと設定のままでもそのLoRA抜けばまともな絵が出てくるし、そこから別のLoRA適用してもまともなままだからLoRA相性と強度による歪みが重なったせいだと思う
0967名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 20:01:22.85ID:kMbGYmL4
作った画像全体にプロンプト反映させるのはどうやるの?
例えば全身汗まみれにするとか
0968名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 20:09:57.24ID:WCuIa5Ix
>>947
こんな感じでどうでしょう
マトリックスを作りたい2つのLoRAをflat2とlitとした場合です

プロンプトに「<lora:flat2:0.0><lora:lit:0.0>」と書く
X/Y/Z plotでXとYをともに「Prompt S/R」にする
Xの値には「lit:0.0,lit:0.5,lit:1.0」、Yの値には「flat2:0.0,flat2:0.5,flat2:1.0」を入力

↓結果(この画像ではプロンプトに1girl, smileを追加してます)
https://files.catbox.moe/02uewg.jpg
画像をダウンロードしてPNG Infoに入れるとプロンプトや生成情報がわかります
0971名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 20:17:26.35ID:WCuIa5Ix
970か、スレ立てます
もうワッチョイありでいいよね
反対してるのは1人くらいだし、その1人の荒らしを防げるんだから
0973名無しさん@お腹いっぱい。
垢版 |
2023/12/22(金) 20:24:02.14ID:WCuIa5Ix
たぶんこのあとワッチョイについてワーワー言ってくる人がいると思うけど、単発IDならいつもの暴言で荒らす人なのでよろしく
だいたい30分おきにIDを変えて書き込んできます
レス数が950を超えています。1000を超えると書き込みができなくなります。

ニューススポーツなんでも実況