【StableDiffusion】画像生成AI質問スレ17
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ16
https://mevius.5ch.net/test/read.cgi/cg/1692012289/ >>600
そこはCPUとGPUがタッグ組んでFPS維持しながら
バシバシキャッチボールするようなゲーム比較なので参考にならない
(SDはそこまで頻繁にやらないので)
4070くらい以降だと確実にボトルネックになるとは聞いた
なおウチのi7-6700(2015年頃?)+3060は
他人様のアスカベンチ結果と比べても生成時間変わらなかった
そのサイトで40% >>602
プロンプトが少ないほうが各モデルごとの得意な絵を描いてくれそうなので好き みなさんありがとうございます!!
Netで調べてみたところ、2015年だと数%くらいだけど
2012年のCPUだと25%ほど遅くなるという衝撃結果を見てしまいました!…
かなりのでかい数字でショックを隠しきれません…
それでも元気に前を向いて生きようと思います… >>606
自分も最小限のプロンプトで生成してる。盛ったからといって良くなるわ
けでもないし
特に実写系でよく見かける実際のカメラ撮影で使われる用語系
checkpointモデルの出来が最も影響するので、出来の良いモデル使えばそんなの全く必要ない 導入したので早速Controlnetから簡素な落書きでからlineartとscribbleを試して見たんだけど
VAE入のモデル使ってるのにどうしても暗いし、塗も絵もTHE!AIみたいな綺麗なのが出ない
何が問題なんだろうPythonのバージョンで変わるとかある?
元絵
https://i.imgur.com/tSwfxTe.jpg
プロンプトはgirl,red skirt,blonde
・scribble
https://i.imgur.com/XZDXpO0.png
・lineart
デフォルト https://i.imgur.com/mDprQsQ.png
Control weight弄くり https://i.imgur.com/HbIP6Bh.png >>609
SD自体初挑戦?
他人のネガティブをパクろう、見違えるよ
easynegativeとかで検索しても幸せになれる >>610
ネガティブが重要なのか
プロンプト無修正だとみんなこんなもの?塗りが雑な油絵っぽいというか
自分の組み方が悪いのかと思ってるんだけど >>610
質問に答えてなかったSD初挑戦です
あとアドバイスありがとです モデルとプロンプトの組み合わせで色んな絵出せるから いやもう、やってみてください
ネガに
lowres,blurry,(worst quality,low quality:1.2)
だけでかなり変わる、さらにeasynegativeその他入れると・・
課金系からSDに移ってきた人が最初に何だこりゃってなるんだけど
アッチは隠しプロンプトが最初から組み込まれてて初心者向けにチューニングされてたり >>614
ありがとう!試してみる!
動画とか解説記事見てるとみんなポンポンきれいな絵出してるから
Controlnet使えばあんまりプロンプト意識しなくていいのかなって思ったけどやっぱり重要なんだね >>609
線画を変えずに塗りじゃなくて、ラフな線画を元に色付けて書き換えられたAI絵にしたいけど、
彩度が低かったりクオリティーは低いということなんだろうか?
以下は>>609の線画から生成してみたけど、元々Controlnetは他の拡張と併用すると彩度が落ちることもあるし、
ポジ、ネガ両方のプロンプトやその他もろもろの設定でも変わってくる。他のVAEやモデルも試してみる必要もある。
絵面はいいけど彩度が低いだけのときは別アプリで色味修正かけた方が楽な場合もある。
https://i.imgur.com/Y0qsx1k.jpg
https://i.imgur.com/zOGhmO5.jpg
https://i.imgur.com/YqEUJA8.jpg
https://i.imgur.com/etwkjt9.jpg ネガティブプロンプト頑張って打ってるけどやっぱ指がきつい
これ打ったら劇的に改善されるワードとかありますか? ないよ
そんなんあったら指がどうのといつまでもディスられてない
CFG Scaleを+0.1で回してましなの探してペイントで部位コピペ
低解像度の時にペイントで修正してTiled DiffusionでDenoisingしてそれをさらに修正したら元サイズに縮小してまたTiled Diffusion
ちなみにControlNetでDepthLibraryってのがあるけどそれでもそこそこ修正はせなあかん >>617
worst quality, low quality,記載だけでもある程度変わるけど、
埋め込み使えば楽でいいよ。civitaiあたりでembeddingと検索したらいくつもあるから
良さそうなの一つか二つ使えばいいと思う。後は自分で試してとしか・・・ 顔が四角くなってしまうのですがほほあたりをシャープにする呪文かloraてありますか?
modelはanyloraです
ほっぺたあたりをシャープにかっこよくしたいです 1.3.2から1.6.0にアプデしてtxt2imgで画像生成してたんだけど
長時間バッチ処理してたら下のエラーが起きて落ちるようになった
File "/cc_160_SageMaker/stable-diffusion-webui/modules/images.py", line 563, in save_image_with_geninfo
piexif.insert(exif_bytes, filename)
File "/.conda/envs/python3_10_6/lib/python3.10/site-packages/piexif/_insert.py", line 43, in insert
exif = b"\xff\xe1" + struct.pack(">H", len(exif) + 2) + exif
struct.error: 'H' format requires 0 <= number <= 65535
画像の情報を見たら1.3.2の時にはなかったTI hashesという項目でバッチ処理が加算される度に何故か増えていってた
1週目TI hashes: "EasyNegative: c74b4e810b03, negative_hand-neg: 73b524a2da12"
2週目TI hashes: "EasyNegative: c74b4e810b03, negative_hand-neg: 73b524a2da12, EasyNegative: c74b4e810b03, negative_hand-neg: 73b524a2da12, EasyNegative: c74b4e810b03, negative_hand-neg: 73b524a2da12"
何百週かしてるとうんざりする長さになる
増殖を抑制するか、個人的にはTI hashesの情報自体が必要ないからこの項目自体を削除するかで対応したいんだけど
具体的にどこを修正したらいいか分かる? キャラの首を上に向かせるプロンプトってありますか?
目だと色々いけるけど… あとSSDがつくかなってのもある
https://www.nikkan.co.jp/releases/view/142718
ウチはPCIe x4用のこういうのをPCIe x2につけてなぜか満額速度が出てる >>625
たぶん上手くいかない、そんな学習あんましてないだろうし
のけぞりLoraとかcivitaiで見たことある・・ってnokezoriで出てきて笑った 1111ローカルを使用してるのですが、更新せずに去年のバージョンのを使い続けていたため
一部の拡張機能が反映されないのでそろそろ更新しようと思ったのですが
最新版は色々と問題があるらしいのでとりあえずは
2023年6月24日の安定動作版との情報がある
Commit hash: baf6946e06249c5af9851c60171692c44ef633e0
ここに更新したいのですが、最新版ではなく過去の特定のバージョンに更新するやり方はあるのでしょうか? 既存の写真の女の子にコンドームの袋を咥えさせるの簡単なようでむずい。 >>623
Settingsに以下の項目があるけど、これをOFFにしたらどうなるかな
`Add Textual Inversion hashes to infotext`
>>629
https://economylife.net/downgrade-git-stable-diffusion-webui-automatic1111/
https://qiita.com/forest1/items/db5ac003d310449743ca
上記を参考にしてもらって
git fetch
git checkout baf6946
(git checkout [commit id])
という感じかな? 今から最強スペックで生成用pc買うとしたらどれがいい? 1.5で自作lycorisが使えません。loraの中にいるけど効かない状態です。cmdの画面見たらindex Error tuple index out of rangeと出ています。別pcでは使えるのにどうしてこんなエラー出るのでしょうか。 >>635
lycorisファイルを入れているところが違うのが原因ではないだろうか
本来入れるところ→ stable-diffusion-webui\models\LyCORIS
試しにキャラlycorisをLoraフォルダーに入れて画像生成してみたら、本来赤色の上着が白色になるだけで顔、服装、絵柄は再現できている
環境はStable-Diffusion ver1.5.2
該当するエラーメッセージについてはcmd画面でctrl + F検索してみても出ていない
Stable-Diffusion初心者なのでフォルダーが違う以外の思い当たる点がわからない 100万近いやつをポンポン買えるんだなみんな
羨ましい 既存の人物写真を僅かに左右に振って擬似3Dにしてる人いませんか? >>621
同人誌や車に充ててた資金を振り分けた
あと自作だから50万くらいだわ >>642
50万くらい想定してたけど頑張っておねだりしたらもっと行けそう。 >>638
lycorisもう1.5でloraの中に入れたら普通に読めるはずなんですけどねー。そもそもlycorisフォルダがa1111ででてこない。意味わからんわ 毎度おなじみのぶっ壊れたlocon拡張が残ってるってアレでは? 上向きは顔面積半分にしたあたりからぐんにょりし始めるからなぁ >>650
ちなみにextensionsのフォルダごと消した? >>624
Sandyだと2.0だねIvy Bridgeのi5以上なら3.0っぽい
ちなみにメモリはどちらもDDR3だからそれもネックだな
盲点なのはSATAケーブルが2.0だったらストレージの転送スピードが出ない >>625
天井見る、空を見る オルガズムフェイス、などなど
こんなん入れれば向くんじゃね >>651
消しました。消したうえでsd起動し直し(リロードじゃなく)たけどだめでした。。。 >>616
上記の認識であってます
簡単な落書きを元に絵を作成してみたかったです、あとある程度丁寧なラフなからとかも後々できたらなーとか
うわぁ~すごい!そういうのポンと出してみたかった
もうちょっと色々試してみます 見下すプロンプトはepromptとかによく落ちてるね。
目線を合わせないで顔全体が上向くのは難しそう。 >>600
ボトルネックになったところで同環境でそれより低グレードのグラボ並に性能落ちるわけじゃないんだから気にするな
満足いかなかったら残り総取り換えすればいいだけ
それよりsandy/ivyあたりの板はメーカー製やBTOで初期BIOSのままだと最近のグラボは動かない事あるから要注意 LORAの学習ってgifアニメーションなんかも取り込めるんです?
学習関連で豆知識みたいに案外知らなさそうなネタとか知りたい キャラクターを空中に浮かべる効果的な方法ありませんか?
flyng, でも jumping up, でも浮かんでくれません
普通の人間が50センチとか1メートルとか浮かんでる姿を生成したいです 効きそうな単語はfloatとかlevitateかな 上を向くだけなら
(looking up:1.2), looking away,
でけっこういけるけど・・・上向きすぎるんだよね
https://files.catbox.moe/5sspwf.png 数か月ぶりに1111更新してみたらプロンプト保存のディスクアイコンなくなってるんですが
どうやって保存するんでしょうか? >>645
lycorisフォルダは拡張機能「a1111-sd-webui-lycoris」で用意されるフォルダだから、Web UIの標準のLORA(lycoris)機能とは無関係です
いくらいじっても挙動がおかしい時は新規構築した方が確実かもしれない >>667
やはりそれしかないですか。。。めんど。。。返答ありがとうございました >>653、663
ありがとう、もうちょっと試してみるわ >>667
アップデートでLora関連が壊れたから1.50をゼロからインストールしたけど、普通にlycorisフォルダ出てきたよ。1.52ぐらいで統合されたっぽい >>666
鉛筆アイコンから何度かコピペしていくしかないみたいなんだよね
わざわざ面倒にするのはおかしいから、なにか方法があるのかもしれない。がわからない >>664
RTX6000adaの単純な処理能力はたしか3090相当だけどVRAM24GBを大きく超える作業をする時はVRAMの量にモノを言わせて押し切るから早い、という意味を込めたんだぜ! >>663
(looking up:1.2), looking away,
このプロンプトだけなら向くとおもうけど、質問者さんの既にあるプロンプトが邪魔してる可能性はあるよね。
俺も、既に多くのプロンプトが入っててそこに正面向いてくれない時があって、落ちてたプロンプト「upper teeth only」入れたらすんなり正面向いたよ。
直接的なプロンプトじゃない場合もあるんだなと・・ あと、経験したこと
full body (全身)が全然ならねー 、って時に
Toe (足の指)っていれたらすんなり全身になったり
連投すまん >>671
うへえ、マジですか
自分も一回それやって「さすがにわざわざ一発セーブ廃止してこんな面倒にしないだろ」って思って
質問したんですが・・・どうもです RTX 6000とRTX6000 Adaを混同して話がややこしくなってるんじゃw 素朴な疑問
自分civitaiで十分事足りてるんですが
みんな学習で何作ってるんですか?
すごい気になります 衣装loraの作成について教えてください
白背景の教師画像80枚を用意して衣装loraを作成し、そこそこのものはできたのですが、
教師画像に使用したキャラの顔の情報がかなりloraに影響しています
キャプションで顔に関する記述は残したのですが…
次は80枚の教師画像をすべて首から上が見切れている画像にしてみようと
思っているのですが、衣装loraを作ろうとする中でこの方向性は正しいのでしょうか? >>678
俺は好きなアイドルのキャラLoRA作ってるね
楽しみ方としては着せ替え人形的な?
脱がせる事はまず無いね
やったとしてもランジェリー姿まで
当人が flat chest だから下手に谷間とか造るとむなしくなるのよwww
後は単純に「どこまで似せられるか」
つまりLoRAの研究
それで分かったのは素材の重要性
インスタの高画質な写真を素材にすると30枚くらいでかなり似てくる
多い分には良いだろうけど高品質なら素材が50枚あれば困らないと思う ちょっと疑問に思ったんだけど
t2iやi2iで
webUI上で拡張機能が左に並んでるけど
生成したら上から順番に
拡張機能が適用されてくって認識で良いのかな?
まあextensionsフォルダで並び替え可能だけど
生成画像に影響ある? すみませんこれって何がダメでこのエラーが出てるんでしょうか?
どうすれば起動するようになるのかもよろしければ教えてください
https://i.imgur.com/KYv68J0.jpg 何をどうしたらどうなったのかが全く分かりませんががんばれば起動できるようになるのではないでしょうか めちゃくちゃ初っ端で躓いてます
初めて起動しようとしたとこでこうなりました >>631
TI hashesが出力されなくなった、ありがとう うん、めちゃくちゃ初っぱなで躓いてそうだなとは思う。だって5W1HのWhatからないもん
エスパーの方いらっしゃいましたら対応をよろしくお願いします >>684
pythonのversionが3.10.6以外の動作保証外で実行しているかもしれないので、3.10.6のみインストールし直すかwebui.shにversionを指定するといいのかもしれない、すでに作られたvenvフォルダは削除で
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/6592 >>683
そもそも拡張機能が介入するSDのコード上の場所は1つじゃないだろうから、必ず上から順にはならないと思うけど、
同じ場所で作用するものについては、そうかもしれん、試してないしわからんが 一度全部削除アンインストールしてやり直してみます
すみませんでした 1111版なら
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
このsd.webui.zipに必要なバージョンのpythonもgitも入ってるからこれをベタ展開してupdateすればサルでも環境作れるやろ >>497
遅レスだけどグラフ見れたよ、ありがとう
前回のlossの下がり方と重ね合わせ比較が可視化されてめちゃくちゃすごい
これでいろんな方法や数値で試行錯誤して最適を追求していける
いままで当てずっぽう目隠し状態だったのを再認識
>>684
CUI上でマウスドラッグで選択して、右クリックでコピーできるよ
(ctrl+cはコピーじゃなくて中断になっちゃうので注意)
画像はこっちが手打ちでしか検索できないので質問には不適当 >>680
出来栄えの確認で水着着させる脱がせる泣かせる挿入するは重要だと思う
元々学習画像で脱いでたりアンアン言ってたら別だけど過学習になってないかバロメーターになる >>684
まさかのスクショですらないというw
赤文字部分がcacheのdecompressionがどうのこうのとエラー吐いてるからcacheにあるファイルが壊れていてそれをgzipが解凍できず止まっていそうな雰囲気
本当にファイルが壊れているのか権限が変で読めないだけなのかは知らん >>679
正則化画像たくさん用意して一緒に学習させれば顔はそっちに引っ張られないか? 何回やり直しても同じとこで止まるから諦めました
教えていただき
ありがとうございました そもそも何をしようとしていたのか自体が分からん
返す返すも対応ハードで1111を使いたいだけなら>>696の赤ちゃん向け公式キット使えば失敗しようがないと思うんだが ■ このスレッドは過去ログ倉庫に格納されています