【StableDiffusion】画像生成AI質問スレ01【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に 昨日から始めたばかりなんですが
NMKDで「Generate!」押すと「Failed to load model.」とエラーが出てしまいます
助けてください
いろいろ試して何回か再インストールしたら正常に生成できたんですが
そこから設定はいじってないはずなのですが
アプリを再起動したらまた同じエラーが出てしまいました
ググっても全然引っかからないし、
WebUIの方もググっても出てこないエラーになるしで困ってます
modelsフォルダにbasil mixを置いて使用しています >>51
当たり前のこと訊くけど、既成ロゴの出現については自分も経験がよくあるんだよね? >>54
全然ないな
初期から話はたまに聞くし学習の原理からも起こる理由は理解出来るけど
そして当然ロゴが出るわけではない
サンプル表記等のロゴを類推させるような形状が現れることがあるだけ >>55
えっ
自分で確認してない現象をあれこれ解説しとったんか? いい加減ウザいから消えろお前
頭悪すぎるから、勉強してから書き込め loraで学習したモデル動かす時にInstance PromptやClass Promptで指定していないワードを入れても学習した絵の特徴を含んだ絵が出来てしまうんだけど、他に何か設定する必要あります? >>56
デマではなく確認できる事だし、報告も珍しい話でもないしね
特定モデル入れるとよく出る場合とか(雑誌のロゴ風なもの) >>58
インスタンスプロンプト指定無しで絵が変わるのは過学習かクラス参照してないかだろうから<lora:xxxx:0.8>とか強度弱めるしかないんじゃないの >>48
グレーアウトしてるけど入力できるんよ、あのフィールド nai の最初の頃のやつだけど
defenderがトロイ検知するように
なったと小耳に挟んだ。
後から検知される場合って、権利元の
申請とかなのか、セキュリティが更新されて
未検知だった物が検知可能になったのか
どちらなんだろ >>61
グレーアウトしていても構わずに動かすと今度はUpscale byがグレーアウトするのか!そんなのわかるわけないよ
本当にありがとう Auto-Photoshop-StableDiffusion-PluginってGooglecolabでもインストールとプラグインできる? >>53
ありがとうございます
他のものを閉じてから起動したら正常に動作しました 最近AIアートやり始めた初心者質問です
Stable Diffusion Webuiをローカルに導入して動かす所まではできました
主に自作絵をi2i運用したいです
スマホアプリのMeituでAIアートをした時の加工が理想なんですが
Stable Diffusion Webuiで再現できるでしょうか
それに適した学習データ、パラメータ設定、手順等わかる方いればご教授頂きたいです
初心者すぎて質問内容自体がおかしかったり、そもそも根本的な認識間違いあったらすみません AI アート人口、そこまで多くないから
ニッチな知識は自分で探すしかないと思う
記事さえ見つからない場合も多いけど >>66
どういうことをしたいのかわからんけど、絵描きのi2iならあぶぶ氏のnoteが参考になるかもしれない
https://note.com/abubu_nounanka/all
でも基本的には自分でいろいろ試行錯誤する道だと思います >>68
まだ一部しか読み込めてないけど、とても参考になったありがとう
「お絵描きAIとの付き合い方を研究してみた」がやりたい事と完全一致してました
Meituは絵を読み込むだけで構図や要素を大きく残してくれてたけど
waifuいれてプロンプトをうまく扱う練習から始めてみます 有識者に聞きたいです
https://youtu.be/h2LHkoL_8KMのような画像は、どうやって作っているのでしょうか?
試したのですが、明らかにブサイクか、もしくはクリーチャーになって生成されたりします
確率として100%そうなるのですが、stable diffusion guiの場合load imageを使わないとそうなるのでしょうか? >>71
画像の生成に使う学習モデルによって、どんな画像が得意かは変わってきます
たとえばStable Diffusion公式の学習モデルはオールマイティな作りにしているようですが、Pixivにあるようなアニメ系イラストはとても苦手です
エロ系の単語もかなり弱められているので、実写の水着女性は出にくいのかもしれません
こういう実写の白人ビキニ美女が得意なモデルを探してみるのがよいでしょう
学習モデルはhuggingfaceやhttps://civitai.com/にいろいろあります
検索してみてください NMKDで質問なんですが、赤色背景、被写体は人間の画像をロードしています
更に青い海をキーワードに指定すると赤色の海になります
()で指定しても変わりません
この場合とうすれば青い海に変えられますか? 青色背景にすればええんじゃない、AI絵なんて基本ガチャと思っておいた方がいい 人間マスクして海だけ回数ガチャしたらいつかは青くなりそう 全くの初心者で申し訳ないんだけど
出力されたイラストを元に手直ししてくれ!みたいな指示は可能?
環境はNMKD?にanythingv4.0入れてます
類似した質問で、用意したイラストのうちこの人間をもっとデカく描いてくれっていうのは可能?
やっぱり全て自分で呪文を打ち込むしか無いのかな? i2iでランダムガチャすれば多少の修正出来る事もあるんじゃないか? Masked InpaintingかInstructPix2Pixの話とちゃうか
1は可能で2は多少切り貼りしてi2i頑張れば出来るよ GoogleコラボでStable Diffusionのimg2imgをやる場合これ使っとけっていうのありますか?
出始めの頃結構触ってたけど、今調べてやると全部エラーになってしまうんです >>21です
ローカルは全くの初心者で
>>23 のリンク
をインストールしてみたのですが下記の表示から終了して進みません
・No module 'xformers'. Proceeding without it.
No checkpoints found. When searching for checkpoints, looked at:
- file C:\Users\○○○○\Downloads\sd.webui\webui\model.ckpt
- directory C:\Users\○○○○\Downloads\sd.webui\webui\models\Stable-diffusion
Can't run without a checkpoint. Find and place a .ckpt file into any of those locations. The program will exit.
ここから何か対処すれば動くのでしょうか?○○○○はユーザー名で伏せてあります
どうかよろしくおねがいします エラー内容はとりあえず翻訳してみたらいいんじゃないかな
今回も書いてあるでしょ >>77です
なるほど、俺が求めてる動作は難しいみたいね
ありがとうございました >>82
モデルが無いんだよ
指定の場所に入れろよ NMKDで美人作ってる人いたら教えてほしい
model、VAEでおすすめってないでしょうか??
全く作れない
あと、プレビューできるサイトってないでしょうか? 学習モデルに「pruned」と付いたものがあるのですが、
これはどういう意味ですか?
<例>
YuzuGinger_v4-pruned.safetensors 画像作るのに余分なデータ削って軽くしたモデルやっけprunedたぶん NMKDは好きな美人さんを学習させたほうが早い
感性的なものを求めるならAUTOMATIC1111版を使って趣味の合う好きなモデルデータを見つけるべし >>90
色々調べても見つけられなかったので助かりました。ありがとうございます。 「Automatic1111」なんですが、
自動的に各モデルに切り替えて生成するようなバッチ処理的なことってできないですか? >>93
Automatic1111のWebAPIでできるはず
ttps://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/API
モデルをgape60.ckptに変えるならcurl等で
http://127.0.0.1:7860/asapi/v1/options
にJSONで
{"sd_model_checkpoint": "gape60.ckpt"}
を投げればいいはず
PythonならAPIクライアントライブラリもあるよ
ttps://github.com/mix1009/sdwebuiapi だいたいのことはX/Y/Z plotで自動化できる
難しく考えすぎじゃないの i2iで生成すると顔と言うか両目の黒目の大きさが違ったり口がうねった線になったりするのですが、こういう時はどんなプロンプトを追加した方がいいんでしょうか?それともクオリティ上げ系のプロンプトが悪さしていたりするんでしょうか?(目に関しては視線指定を強くすることで気持ちマシにはなったのですが他にこういうことはしておいた方がよくなると言うものがあれば教えていただきたいです。) i2i時だけ元絵に引きずられて歪んだり溶けたりしてるのが原因ならDenoising strength調整すればええんやない >>95
>>96
御二方に感謝します。大変勉強になりました。 >>98
申し訳ありません。i2iメインでやってたのですがt2tでも同様になるようでして。 とりあえずRestore facesにチェック入れるか別のモデルに変えてみたらええんやない >>93
プロンプト固定ってことなら、scriptsからX/Y/Z plot使えばいけるよ >>102
ありがとうございます。試させていただきました。 画像生成ってどのモデルでも大なり小なりエアインテークみたいな古臭いババ臭い髪型を生成してくれるんだけど
ネガティブに(hair intakes:1.3)くらい入れる程度じゃマジで全然消えてくれなくてゲロ萎えなんだけど
なんか良いモデルとか良い呪文とかないんですかね >104
ネガティブプロンプトに1990s 2000s 2010sみたいに年号を入れるとか
>106
ネガティブプロンプトに、胸回りだったらcleavageを、体全体だったらrevealed skinを入れるとか AttributeError: module 'tensorflow' has no attribute 'Tensor'
ってエラーがstable diffusion で出て
困ってるんだけどおまかんかな? NovelAIのサブスクについて質問です。
きのう始めたけど、なかなか良いの出来ないから、Anlasゼロにして小さい画像で練習がてら生成してるんだけど、サブスク期間終わってもAnlasは残るんですよね?
じゃあサブスク期間いっぱいまでAnlasゼロで練習してから、サブスク終わったらAnlas使って生成するのがお得ってことですか? >>107
サンクスな。実はネガティブに1990s styleと順に入れてくの、前からやってて、たしかに影響がでてきて
ウマ娘の子みたいなでっかいあからさまなエアインテークはでなくなるんだけど、やっぱ小さく突起は出るんだよね、消えない
これが衣服や背景との組み合わせ次第では全然出ないんだけど、組み合わせ次第では逆に出続ける。この辺がAI画像生成の難しいところだな。俺は全部において消したいんだが。 >>108
おまかんっていうかおまverっぽい気がするわ
pythonかtensorflowのバージョンが合ってないと思うお前の環境知らんけど NovelAIの画像サイズについて質問です
Customで1280x768にしたら画質めっちゃ落ちたりしますか?
やっぱりテンプレサイズ推奨なんでしょうか ファイル名のカスタマイズで[prompt_no_styles]と[prompt_spaces]の違いがわからない
プロンプトをいろいろ変えてみているが結局同じファイル名になってしまう
なにが違うんだろう?
Custom Images Filename Name and Subdirectory ・ AUTOMATIC1111/stable-diffusion-webui Wiki
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Images-Filename-Name-and-Subdirectory/ >>114つづき
[styles]という指定があるがStylesからスタイルをプロンプトに入れて生成してもファイル名では「None」になる
[prompt_no_style]はプロンプトからStylesを省略した文字列なのだろうが、Stylesからスタイルをプロンプトに入れて生成してもそのまま出てきてしまう
そもそも1111はプロンプトのどこがStylesから挿入されたものかを理解しているのだろうか? NovelAIで生成した画像をまた素材にしてimg2imgすると出てくる画像がめっちゃボヤけるんですが対策ありますか? 「同じ絵柄で、同じ人間の絵」を量産するにはどうしたらいいんでしょうか…。
「近いけど絵柄や顔がちょっと違う」みたいなのがたくさん出るので。 >>117
それがAIの仕様なので…
現状では完全に同一の絵柄やキャラで出させるのは不可能 seed入れて数ぶん回して砂漠から一粒の砂金を探すんだ seed入れたら似たようなの出てくるけどなんか画像が劣化するんだよなー
1発SSR引くしかないわけか >117
そういうのは今LoRAが大人気だよ
キャラクターの画像を10枚くらい用意して学習させると、そのキャラクターを出せるようになる
こういうのとか
https://fate.5ch.net/test/read.cgi/liveuranus/1675709429/39
> 39 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff8c-nUaN)[sage] 投稿日:2023/02/07(火) 05:43:38.25 ID:qicKSoOj0
> こんなタイミングやが初めてLORAやった
> 適当でもなんとかなるもんやなたのC
> https://i.imgur.com/HfkABg7.png
> https://i.imgur.com/iy1sUJi.png
> https://i.imgur.com/1DrgWfH.png
> https://i.imgur.com/dnRKgzO.png
> https://i.imgur.com/EFRgFD1.png
WebサービスのNovelAIとかHolaraしか使っていないなら無理 NovelAIのサブスクって解約しなかったらそのまま次の月も勝手に継続される? そうなん?
だって、今までサブスクやったことないもん!ありがとう!
Holaraってエロ絵弱いの?原○キャラの着衣ケツとかならガンガン作れる? 118〜121のみんなありがとう!LORA見てみるす!
漫画作りたいんすよねー…
やっぱり同じキャラで同じタッチが必須かと思うので 夏野企画さんの実写と2次の中間みたいなモデルって何なんだろう?探したけどそれっぽいのも無いし自分で学習させた物なのかな? >>114
まずpromptがGenerateボタンの左にある長い二つのテキストボックスのうち上の方をさしていて
stylesがGenerateボタンの下にあるStylesというプロンプトとネガティブプロンプトをプリセットとして保存しておける機能という話で
そのうえでこれがprompt_no_styles
ファイル名にスペースが入っていてたまに文字列として扱いづらいことがある
https://i.imgur.com/T9WCseK.png
これがprompt_spaces
ファイル名の末尾にstyles「Loli」の中身もついている
https://i.imgur.com/QxmmGkb.png
最後にこれがprompt(デフォルト)
ファイル名のスペースはアンダースコアになっていて、styles「Loli」の中身もついている
https://i.imgur.com/gp5pVXe.png
stylesとアンダースコア付きであるpromptからstyles部分とアンダースコアをすっぱ抜いたものが[prompt_no_styles]
promptのアンダースコアをスペースで置き換えただけで、stylesに関するものはないのが[prompt_spaces]
このややこしさはもはや命名ミスだと思っていいと思う >>115
で[style]がこう
styleにつけた名前のみがファイル名につく
https://i.imgur.com/TeLZZKW.png
プロンプトからStyles名を省略も何も
そもそもStylesはプロンプトに入れて使う機能じゃない
ここでの[styles]はStyle LoRAとかStyle HNとかStyle TIとかとは一切関係ない
最近LoRAとかHNもプロンプトになった弊害か誤解を招いてるのかもしれんがそういうことだな 会話の途中で水をぶっかけてアレだけど
長いファイル名だと読み込めないソフトもあるからファイル名にプロンプト入れないほうがいいよ
なんか壊れるファイルがたまにできるなぁと悩んでた過去
1111の設定に「保存する画像とともに生成パラメータをテキストファイルで保存する」ってのがあるからそれで外部に保存するか
PNG埋め込みを確認かメモ帳とかで保存だね 124お願いします
○神キャラのケツ画像作りたいんです それもそう
おすすめはシード値を消して[model_name]だけにしておくこと
ただしwebui\models\Stable-diffusionの中にフォルダ作って深く深く仕分けてる場合はそれらを別のところに退避させて
それらのシンボリックリンクだけ置いておくことを強くおすすめする
Stable-diffusion以下のフォルダ名ごと名前にぶち込まれるからな 今のままだと使い物にならんから
参考画像をぶち込む→参考画像をもとにどのような画像にしたいかを入力
こんな感じのもの出来たらよんでくれ キャラ人物の得意なものはわかったんだけど
ミッドジャーニーみたいな背景が得意なモデルでオススメあるかしら Custom modelってなによ
どちゃくそ綺麗なキャラばかり
AI生成してから、自分で描いたとか?
同じNAIなのにエンジンが全然違うんだけど モデルはマージしたりファインチューニングしたりなどでカスタムすることが出来て
区分できないからカスタムモデルという名称にしてひとまとめにされている >>131-132
なるほどわかった
stylesはプルダウンメニュー内でアクティブにしておけばよくて、その上のクリップボードボタンでプロンプト欄やネガティブプロンプト欄に挿入する必要はないのか
その勘違いがあったからわからなくなっちゃったんだ
確かにそれなら、styles名やその内容をファイル名に含めるかどうかという話になってくるのはわかる
どうもありがとう!! >133,135
フォルダ分けした画像をEverythingで串刺し検索したいことがあるから、[sampler]-[model hash]-[prompt_spaces] を入れてる
特定のモデルで作った画像を一覧したいときなんかに便利
(モデルを混ぜたりはしてないのでハッシュ値があれば混乱しない)
プロンプトもファイル名に含めておくと、プロンプト全部は無理でもある程度ならファイル名で検索できる >>142
マージってなんですか
ファインチューブってなんですか
説明が面倒なら詳しく書いてるうらる教えて🧡 画像AIスレって、なんjと絵描き板とCG板だけですか?
凄いハマってるんだけど、こんなに面白い割に盛り上がりが無さすぎるような
Twitterも、やらない人は騒いでるけど、遊んでる人って実は物凄く少ない? 結局モデルはめちゃくちゃ混ざってるし学習も噛んでるしi2iレタッチまで基本技術になってきたら
もう呪文とパラメーター揃えても何も同じもん出てこないから
初期にnaiマスピ量産して喜んでた層がだいたい飽きてきた なんUのガチ勢は秘密コミュニティで活動してるらしいから実態は不明だけど
マイニング用の超ハイスペックPCを数台フル稼働させてカスタムモデルを作成してるらしい
金持ちの道楽だろうな ■ このスレッドは過去ログ倉庫に格納されています