【StableDiffusion】画像生成AI質問スレ10【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ9【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1682230322/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで ■FAQ
Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい?
A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像(特に幼児)の生成でBANされる可能性がある
Q2:ローカル環境でパソコンの性能はどのくらいがいい?
A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMe SSDのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい
Q3:NMKDと1111、どちらをインストールしたらいい?
A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q4:画像を出力したら色が薄い、または彩度が低い
A4:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる ■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい
A4:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。止めるには生成ボタンを再度右クリックして止める
Q5:アニメ顔を出力したら目鼻がなんか気持ち悪い
A5:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q6:設定を変更したのに反映されない
A6:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q7:消去したプロンプトがまだ効いている気がする
A7:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や、まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている 【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である 前スレで聞いたんだけど
webUI起動時にcut off有効化してトークンも入れたいんだけど
ui-config.jsonに記載しても有効にならない
方法間違ってる? マンコの位置が高すぎる画像ばかり生成されるんですけどマンコの位置を下げる方法無いですか?
大抵マン毛の位置になってしまいます
プロントで正しいマンコの位置とやっても効果ありませんでした。 A1111の最新版ってA1111を改めて導入するしか更新する方法ってないですか? hiresfix掛ける時に倍率を2倍なら出来るのに1.9とか1.8倍に下げると中断されるのは何でか分かる人いますか? >>12
コンソール側にエラー出てると思うけどなんて書いてる?
たぶん、小数点周りの問題っぽい気がするが クラウドで動かしてるんだけど
5分と立たず接続が切れる
これって、おま環? >>15
おまかん、環境によるけどタイムアウトでも設定されてんじゃないの >>13
今出先で確認できないけどなんとかメモリーマネージメントって書いてあったかな
帰ったら確認します >>14
インストールもとによるのかあ
ちなみにA1111のバージョンってどうやって確認するかわかります? adetailerって拡張機能デフォルトでオンになってるんだけどオフにできませんかね? そもそもA1111はバージョン管理もタグ管理もしてないよ
と思ってたら先週からバージョン管理してるんか >>18
WebUIの一番下に
python: 3.10.6 • torch: 2.0.0+cu118 • xformers: 0.0.17 • gradio: 3.28.1 • commit: 5ab7f213 • checkpoint: 0d27c62ffa
みたいなのがあるでしょ、その「commit」のところが今使っている1111のコミットid(いつのどのバージョンか調べるためのid)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tags
によるとv1.1.1扱いのようだ >>8,21
settingsのReload UIならちゃんと反映される
ブラウザの更新ボタンでは駄目 超初心者です。ヒントだけでもいただけたら幸いです
やりたいこと
綺麗なモデルさんに自社商品を手に持っているリアル風画像を生成したい
質問
ロゴ入り自社商品の自由視点画像を合成することは現状可能なんでしょうか Automatic1111をgooglecolabで動かしてます。作成してるのはイラスト系なんですが、必ず絵の中のどこかしらに毎回紫の染み(もしくは影)のようなものが現れます。大きさは2~3cm程度です。諸先輩方、これは何が原因でしょうか? >>24
ごめん教えてもらっておいて何だけど
単純に「,」1つ記載漏れしてた >>27
出ちゃったか…
お祓いしてもらったほうがいいかも プロンプト入力の時,と半角スペースで区切る意味ってなんですか?
,だけで区切るとまずい? >>25
綺麗なモデルさんをSDで出して
モデルさんの手と自社商品とロゴはフォトショで合成するのが正解に近いかと >>25
俺から言えるのは
リアル系モデルで権利的にオープンなのあるかわからんから
親戚の美人のねーちゃんに頼む >>9
その内容でよく画像も貼らずに質問する気になったな ついつい興が乗ってきて、長文でストーリー書いてしまうけれど
意味ないんだろうね
例えば
She has her skirt rolled up and enjoys the pleasure of showing her pussy to a crowd of passersby
みたいに何回もジェネレートしていると、それっぽい画像が生成される率が高い気がするw ネタでJKが自分の赤ちゃん抱きながら授業風景作ってるけど意外といけますな
AI素晴らしい >>25
自社商品を手に持っている写真を大量に撮影してLoRAにすれば、Stable Diffusionで出力するモデルさんが自社商品を持っている写真を生成できるかも 先生の皆様教えてください
例えばBatch countを16に設定して16枚生成し終わったあとに
count17以降をまた続けて生成することってできないのでしょうか? ガチャする時に設定するプロンプトってどういうの入れてる?
品質とか最小限で行くとまあまあ外れ多いしガチガチに固めても破綻やマルチみたいになるしで増やしたり減らしたりを繰り返すだけで終わっちゃってる
リアル系とイラスト系でガチャして良いのをi2iしようと思ってるのにそこすら行けない… >>9
そんな 画像 出てきたことないが
そういえば 2次元なら あるあるかもしれん >>41
dynamic promptで髪の色、胸のサイズ、表情 >>41
ポジティブプロンプト
(disheveled hair),(highres),(masterpiece), (High-contrast), (Intricately drawn eyes:1.4),solo,
ネガティブプロンプト
[:(worst quality, low quality:1.4):0.9]
あとはsdweb-easy-prompt-selectorでランダムに決めたい要素をぶちこむだけ >>36
GPTでプロンプト書かせるとそんなのばかりだよ >>27
VAEの設定を見直してみたら直るかもしれない
そもそもVAEが入ってなさそう 生成した画像が保存されないバグが発生して昨日数時間悩まされた
何らかの設定が組み合わさってなったらしいんだけど、webUIの再起動やbatからやり直しても改善せず、PC再起動もしたのに直らなかった
Tiled diffusionやCNの設定などをあれこれ弄ってるうちに直って再発してないけど、同じ症状が出た人いるのかな
発生条件も解消条件もどちらも分からないままなのがモヤモヤする ガチャでいい感じのが出たらアップスケーラ使って再生成してるんだけど、フル勃不可避のワレメ少女のお顔がアップスケーラ通したら妙に目ヂカラ強めの濃い顔になるんだ。chilled_remixでの2.5次元画像だけど、回避できる方法ないですか? >>49
ありがとうございます!
ただ、治らなかったです。一応モデルが推奨してるのを入れてみたんですが。他のVAEも試してみます。 >>51
アップスケーラーも変えてみたら?
ステップ数も変えて >>51
ノイズ除去強度を下げる
アップスケーラーをLatent類以外にする
かな? >>9
ひどい時は臍の下までワレてて萎えるよな。普通座ったらワレメなんてほぼ見えないものなんだけど。 2次元画像でLORAを構図とキャラで組み合わせると、絵柄が悪くなるのですが、LORAの重み調整以外に設定ありますか? なんか書き込むスレ間違えたみたいなので再質問です
SDにLatent Couple使って複数キャラ持つLORAで複数人に挑戦してるんだがキャラが混ざる(-_-;)
特に髪型が似てると混ざるね(-_-;)
2人はこの程度で済むけど3人出すとカオスだし
同じ症状の人います?
※まだ複数LORAの複数人やってない 前スレでlamaオススメしてくれた奴thx
体に被ってる吹き出しとか結構ちゃんと消せるのなこれ >>61
u2netはもう導入してたんだっけ
Extrasに入るやつ グーグルコラボで画像生成するまえに接続が切れてしまう(´・ω・`)
誰か助けて >>59
複数キャラが混じるのは普通
Regional Prompterとか使って領域別適用すれば描き分け出来る
癖を掴むまで時間掛かると思うが、単一LoRAでも複数LoRAでもどっちでも行ける まだ試してないんだけど、画像をx2, x4拡大するのに
S.aiの4/23のTweetで流れてた
Stability for Blender ってのどうなのかね
512でいいのできても、Web UIで拡大するといまいち Jpg化した画像からプロンプトって見れるの?Interrogateじゃなくて >>69
jpg形式で出力した画像の生成パラメータはpngと同様PNG Infoに落とせば見られる
画像処理ソフトでpngをjpgで保存し直した場合はソフトによる TRPGのNPCとか描かせるのにオッサンオバサン描けるモデル探してるんだけどない?イラストで
特に種族の壁にぶち当たる
自分でモデルを作るときが来たのか 追加学習は生首が良いの?
それとも色々な服装で学習? 実写の顔LoRA作ろうとしてるけど背景とかポーズまで覚えてしまって全然応用が効かなくなったから今度は顔だけでやってみようと思う chilloutmixでミニスカノーパンにしたいのになかなかならない
ノーパンにするプロンプト教えて 1111で「Textual inversion」で指定されてるフォルダに配置しても何も出てこない
ぼすけて cmdにエラー出てたわ
To create a public link, set `share=True` in `launch()`.
Startup time: 14.2s (import torch: 1.7s, import gradio: 1.6s, import ldm: 0.7s, other imports: 1.9s, load scripts: 1.7s, load SD checkpoint: 5.6s, create ui: 0.9s).
Textual inversion embeddings loaded(0):
Textual inversion embeddings skipped(1): EasyNegativeV2
Textual inversion embeddings loaded(0):
Textual inversion embeddings skipped(1): ng_deepnegative_v1_75t
なんでスキップしてんの君ィ >>83
AUTOMATIC1111版だけどSD2となんか関係あるのかな? モデルは何使ってる?
https://www.reddit.com/r/StableDiffusion/comments/106vynk/textual_embeddings_skipped/
> When you load a model that is SD 1.5 based the SD 2 embeddings will be skipped and vice versa. >>85
あーそういうことか
ちょっと今日寝るから明日モデル変えて試してみるわ マルゼンスキームについて質問です
https://rentry.co/genshin_lora
ここを参考にloraを作成し衣装チェンジも含め上手くいったのですが、
taggerで1girl,solo等をexclude tagsに入れてテキストを生成するのはどういう効果があるのでしょうか?
服などの学習させたい要素を削るのに、1girlを削ればそれも学習して服が貫通してくるようにも思えるのですが >>79
no panties
pussy
このくらいか? 帰ってきたらずっと画像生成する生活になってしまった…… png infoのパラメータの一部が読み込まれなくなってしまいました。
直前にやったことはXformersを導入したこと・・・くらいです。
症状は、ControlNetの情報が書かれているとStep:~ENSDのSamplingパラメータがNegativeprompt欄へ読み込まれてしまって反映されなくなりました。
promptは正常。Negativeprompt欄にNegativepromptとstepから始まるSampling情報が。ControlNetも正常。
ControlNetのパラメータが無いpngはちゃんと読み込んでくれます。
Xformersのコマンドを消しても駄目。ControlNetを無効化しても駄目。SDの再起動も駄目。
モデルはAUTOMATIC1111版です(commit: 5ab7f213)
なにか情報無いですか・・・。 >>91
ControlNetもNegativeprompt欄に書かれちゃうpngもありました。
試したpngは全て自分で生成したpngです。
なんでだー。 >>88
ありがとう!
もう寝るのでPC落としちゃったから
明日やってみる スリープモードが機能しないので、
用済み後はPCシャットダウンさせてる >>91
ファイルを上げてくれたらバイナリで確認するけど・・
恥ずかしくて嫌なら自分でOKなやつと駄目な奴をバイナリエディタで開いて違いを確認するのだ >>77
生首だけ学習させたLORA作ればいいんじゃないの?
某歌姫とか亡首相とかAIこらレベルの画像作られてるし LORA作ってみたいんだけどtrain toolってのでやればいいのかな
解説があんま見つからない オフライン環境作るのってせいぜい3060あれば十分なんだし、5万あればなんとかなるぞ >>100
無茶苦茶長ったらしかったけどテルル&ロビンの動画でStableDiffusion導入3日目初心者俺でもできたよ
train toolの解説動画はSignal Flag Zっていう人がやってたけど導入の時点ですごいめんどくさいことになってるから初心者的には触れなかった >>97
91ですありがとうございます。
仕事が終わってからアップしたいと思います。その時はよろしくお願いします。
まぁ恥ずかしいとかそういうのは無いから大丈夫ですw 初心者です。
NovelAIで絵柄固定が上手くいかず、ググッたりしてSeed固定とかはやってみるのですが、上手くいかず·····。
絵柄を固定させたいならStablediffusinonで機械学習させていくしか現状手は無い感じでしょうか? ワッチョイ有で回答無かったのでこちらでも失礼します
ファイル名[datetime]で複数バッチ処理すると同じ秒に出力された同名ファイルが上書きされてしまうので後ろにバッチNoつけたいのですが[batch_number]が効かずそのまま文字列が出力されてしまいます
またはデフォルトのシード値除いた頭の連番でも良いのですがどなたか御存知でしょうか >>104
スレタイにNovelAIを入れておいて申し訳ないんだけれど、専用スレのほうが回答が来やすいかも
なんJnovelAI部ウェブ専★68
https://fate.5ch.net/test/read.cgi/liveuranus/1679488956/ >>105
変更が適用されてない系?
他のファイル名形式に変えてみても効かないのかどうなのか…… >>108
ありがとうございます!
novelaiでここに辿り着いたのですが、雰囲気が違うなと思ってたので助かりました! >>105
確かにおかしい…と思ったらわかった
[batch_number]はバッチ回数(batch count)じゃなくてバッチサイズに置き換わるんだ
バッチ回数×バッチサイズの枚数が出力される1回の生成での連番は[generation_number]を使うみたいよ
参考 https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/9445
「デフォルトのシード値除いた頭の連番」というのは何のことかちょっとわからないけど、「保存時にファイル名に番号を付加する」のことかな >>109
>>111
有難う
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Images-Filename-Name-and-Subdirectory
を参考にしてるけれど
[seed]から[prompt_hash]までは正常に値が出力されるのは確認しましたが
[clip_skip]以下がそのままの文字列で出力されてしまいます
例えば
[date]_[batch_number]
で
2023-05-10_1
と出て欲しいのに
2023-05-10_[batch_number]
と出てしまいます
[datetime]にプラス
「Add number to filename when saving」
にチェック付けてもファイル名被りは回避出来るものの謎ナンバーが先に来てしまいファイル名ソートで順番がめちゃくちゃになってしまうので
datetime_(ユニークな連番)
で出力出来ると良いのですが
文字列で出力される私の環境がおかしいのですかね >>112です
きっと私の環境だろうということで覚悟きめて1111更新したら無事正常動作するようになりました
大変お騒がせ致しました
[batch_number]と[generation_number]
は比較的最近追加されたみたいですね
引き換えに拡張のdataset-tag-editorが何かエラー吐いてるのでゆっくり見てみます ExtensionsもUpdateしたらエラー消えました
安定してるとアップデート少し抵抗あるけど更新大切ですね
Wndowsは当分11にするつもりありませんが >>113
それワッチョイ厨が勝手に立てたスレ
9はもう消化してる hiresでlatent以外にするとイラストが薄くなるのってしょうがないもの? >>58
ガチャ要素強め&期待通りとはいかないだろうけど
coner focus
とかは? >>117
ならないよ
何かがおかしいんじゃないの? >>116
なるほど気が付かなかったサンクス
IP有無くらいしか気にしないので >>105
yyyymmddHHMMSSで印刷のバッティングが起きたマイナンバーシステムっぽいw 写実系でとにかく高い頭身モデルはありますか?
リアルキャプ翼に憧れています >>97
時間あったらお願いします。
https://majinai.art/i/QyaYyG9
https://majinai.art/i/y68lK_E
QyaYyG9の方は正常に読み込めますがy68lK_EはNegative欄に違うパラメータが。
バイナリで開くと内容は同じように思えます。が、PNG INFOに入れるとQyaYyG9はNegativePromptの後に改行が入っています。
他のも見てみたところ、改行の有る無しで異常が出るようです。
異常に気づいてから生成したものはちゃんと読み込めますが、何かのタイミングで以前生成したPNGがちゃんと読み込めなくなってる感じです。
どうしてこうなったんだ。 凄い出来栄えの物が出来始めると生成しながら興奮してきてしまうw
そしてアップスケールで萎える アップスケールで変化する対策はノイズ除去強度を減らせばいいんだっけ? CNのtileを上手く使えば崩れ控えめに高解像度にできるよ >>125
https://i.imgur.com/DCgd6xx.png
左がおかしいy68だけど、「.」の位置がズレて後ろに飛んでるせい?で最後の位置をミスってるね
実際png infoからt2iとかに飛ばすとネガにSTEPから全部入っておかしくなるね
おま環ではなく、png Infoと拡張であるcontrolnet間で潜在的に持ってるなんかのバグじゃないかな
そういう話ないかちょっと調べてみるね・・ ごめん「.」というかバイナリの「0A」だから改行だね
改行か・・普通ネガのケツにわざわざ改行なんて入れないよね、なんだろう >>129
全然気付きませんでした・・・。ちゃんとバイナリの比較使わないと駄目ですね。
INFO見て自分で打ち込めばなんとかなる問題ではありますが、何かしら情報あったら嬉しいです。
手間を取らせてしまって申し訳ない。 >>128
tile_samplerか
使い方がサッパリ分からないが調べて使っていますみるか…… stable diffusionでウェブデザインやってる事例ってありますか?
sdは人間系のものがおおくて、ウェブ系のことはmidjourneyのほうが向いていると思うのですが、無料版が止まっているので変わりになるものがあればと思ってます データセット作るところで一つ作って止まっちゃう
やっぱりすんなりはいかんねえ
寝る Stable Diffusion Web UIの質問です。
自宅のPCで起動時に --share をつけると、
外部からでもgradioを通して自分のPCのWeb UIにアクセスできるのですが、
更にこれに認証機能(ID・パスワードでログイン)のようなオプションはあるのでしょうか? ありました
--gradio-auth username:password
オプションってwikiに書いてました せっかくVPNサーバー立てたので、
--listen コマンドでプライベートネットワーク内だけで完結するようにしました >>126
競馬の先行馬みたいだよな
「そのまま!そのまま!ああ~~~~~っ!!!」 あの悲しさw
仕組みをよく知らないけどアップスケーラーって生成された画像を処理する時にプロンプトは効いてるのかな?それともただ解像度を上げているだけなのか もしかしてそのガチャ感が楽しくて生成ボタン押下botに成り下がってるのかもしれん 次は生成ボタン押下botの嗜好を学習してパラメーターを自動で調節して…… カメラアングルを超ローアングルに指定したいのですがなかなかうまくいきません。
猫の視点位からの人を見上げる角度はどのように指定したらよいでしょうか? Stable Diffusionを使用しております。
御指南よろしくお願い致します。 >>146
(((((watashi ha neko de ninngennno skirt no naka wo nozoite iru hentai desu)))) >>45
すみません。
この
[:(worst quality, low quality:1.4):0.9]
ローを1.4にして括弧でくくって
全体の重みを0.9にしてるのは何故ですか? 前にAPI化する質問してた人いなかったっけ?
オプションであるっぽい グーグルコラボがStable Diffusionを無料で使わせない、みたいな話耳にしたんだけど
・もう既にそうなってる
・それともその予定
・もしくは将来的にそうなる
のどれなのか、どなたか情報ソース含めて知っている方いませんか? >>146
pantyshotでパンツは見えやすくなるけどローアングル限定ではないしな…… (((from below))),pantyshot,panty
これでパンツが見えるくらい下から見上げてくれないだろうかw Japaneseとプロンプト入れると不細工になる確率が高いよね
なんとかJapaneseと入れずに日本人に見える可愛い顔を出すプロンプトはないでしょうか? 黙ってしう゛ぃたいでローアングルLoRA探すのがせいかい 初めてi2iで拡大してみたけど、顔以外がボケてしまう
背景なんかボッケボケ
どうすりゃいいの? 皆様教えていただき大変ありがとうございました。普通のプロンプトの入力だけではローアングルは難しいのですね。
教えていただいたローアングルLORAを探してみます。m(_ _)m >>161
アップスケーラーとステップ数がおかしいとか >>161
ネガに(depth of field, bokeh, blurry:1.4)って入れてどうなるか massiveをマイナス指定
cutoffしないとおっぱいしぼむけど >>161
元絵がボケてない?
ピントや輪郭が甘いとi2iしても引きずられることが多い
デノイズ高めにするとマシになることもあるけどあまり期待できない
元絵から作り直した方がいいかも 昨日この画像見つけてめっちゃかわいいじゃないかと衝撃を受け、AAAAをローカルにインスコ、非力なPCながらそこそこ画像作れるようにはなったんだけど、chillout~モデルとかkoreadoll~rolaのバージョンが違うのかこの顔になりせん…
コツとか呪文とか何かヒントをお願いします!
https://twitter.com/auditore_k/status/1625838627925405696
https://twitter.com/5chan_nel (5ch newer account) >>168
解決しました
横着して一発で4倍にしたのがいけなかった
2倍x2回で人物にピント来た
1.6倍x3回、1.4倍x4回と増やすとさらに背景のピントも改善されるけど、繰り返す分だけ破綻もするね
やっぱ2倍2倍が無難かな それAdobeソフトでブラッシュアップしてる
低スペックでも遅いだけで生成過程と結果は同じだよ lora使って同じキャラをたくさん出したい場合ってどうするのが良いのかな? >>173
適当にグループショット作って一人一人インペイントでonlyしていくって事かと思ったけど間違ってるかな?
変わらないや >>146
low-angle shot capturing the view from the feet level,
これが上手くいくかどうかは知らんが、英文が効くことは多いよ。 >>157
ワイはjapanese princessってやってるけど、モデル次第。 controlnetやtiled diffusionを含む全ての設定をプリセットとして保存する方法ってありますか?
起動するたびに毎回PNGinfoみながらコピペするのしんどいです train tool で取り込んでくれない画像があるけどなんか特定の規格とかあるの? 相も変わらず生成された人物の指の本数が多かったり少なかったりするんですが、現時点だと生成時点でエラーを減らすにはbad hands, missing fingers, too many fingers辺りをNegative Promptに入れる位しか対処法無いんですかね?
それらを打ち込んでも体感エラーが減ってる感じはしないですけど... >>179
そんなの意味ない
あるわけない
価値判断なんかできるわけない
できたらそもそも奇形にならない >>180
じゃあやっぱりプラシーボっていうか、効いたら良いや程度で入れてる感じなんですね >>181
その辺はpromptじゃどうにもならないね
TIのnegative handsを使うとマシになりやすい
なりやすい、であって確実ではないし他の部分に影響を与えるので基本はナシで良いseed引けた時に頼む効いてくれ…って思いながら入れる事が多いかな Easy Negativeとか
あとはどうしても手以外が良くて惜しい時はinpaintで何とかする Control-Net v1.1.132なんですがi2iのmodel欄でinpaintがありません
同じような人いますか? sage maker studio laboでcondaを使ってコードを書いてエラーなしでWebUIを実行できるところまでいったのですが、
--shareをCOMMANDLINE_ARGSに入れてもcolabのときは表示されていたpublic URLが表示されません。 途中でした。
local urlだと自分のPCではファイヤーウォールでポートを開放しても実行出来ないみたいで、
どなたか解決策が分かる方いますか?
か、無理なんでしょうか?
GPTとバードには無理だと言われました >>186
俺は
--listen --enable-insecure-extension-access
でやってるよ
あとポート開放はルーターもやらないとだめだよ >>188
そうですね
sagemaker上でのlocal hostなので、自分のpcのポートを開放しても全く意味はなかったです。
いらない情報すいません。 なんで急にsagemakerの情報が出てきたこんな重要な情報最初に書いとけ
AWSならセキュリティグループじゃないの? AI絵投稿するサイトってちちぷいが安定?なんかpixivはAIに風当たり強くない? ちちぷい先手打ったな
https://www.itmedia.co.jp/news/articles/2305/12/news114.html
AIイラスト専門の投稿サイト「chichi-pui」(ちちぷい)は5月11日、
クリエイターを有償で支援する機能を提供する予定だと、Twitterで明らかにした。
pixivなど大手イラスト投稿サービスが、
AIイラストレーターの有償支援機能利用の一時停止を発表しており、
ちちぷいの新サービスは、他社サービスから締め出されたクリエイターの受け皿になりそうだ。 >>197
そうそうこれ見て思った
pixivに投稿し始めたけど早期ちちぷいに切り替えた方が安定? >>198
ちちぷいもAIピクターズもどっちも人いねぇ >>199
やっぱ人いないんか
pixivとかそのうちAI画像投稿禁止とかなりそうだから安心して利用できんのよな >>194
はい、今日発見して、上手くいったらコードを公開しようと思ったのですが、上手くいきません。
今日はGPUの時間切れで試すのが無理そうです。 >>201
いったん簡易サーバー立てて適当なテキスト返すようにして、
ポート解放してそこにアクセスできるか試せない?
SageMakerまだ使ったことないからできるかわからんが >>202
簡易サーバー立てる環境がないんです。
今もiphoneで繋いでて、SageMakerの無料のやつはroot使えなかったり、いろいろとめんどいです。
なのでcondaを使いました。
調べたらコントロールパネルがないんでPublic URLを立てられないかもです。
https://github.com/Miraculix200/StableDiffusionUI_SageMakerSL/blob/main/StableDiffusionUI_SageMakerSL.ipynb
も試しましたが結果は同じでした。
コードも古くて書き直す部分が多いので一からコードを書きました。 sagemakerの課金形式がpaperspaceと同じだったら多分手を出したんだけどなぁ 1girl,cat tailって書いて画像サイズに余裕があると
猫そのものも召喚されるんだけど >>204
sagemaker studio laboは無料でGPUが使えるんです。 cowboy shotって入れるとたまにcowboy hatかぶったりするけど、そもそも語源なんだね
https://en.wikipedia.org/wiki/American_shot
銃を腰から抜くのを撮るからそうなるとか ≫175
教えていただいた文を試したら、
初めて画像のアングルに変化が
でました。教えていただきありがとうございます!! >>195
初音ミク登場時にリアル歌手や業界が叩いてた図式と被るな その辺のタダノリ系はどうせそのうち使えなくなるだろ kohyassとSDwebuiでlora学習させてるんだけど、1エポックごとに保存したくて過去スレ見てたら見つけた self.save_every_n_epochs: Union[int, None] = 1 これをどこに書けば動きますか?誰か助けてください。 >>185
add detail LoRAか、flat2 LoRAのマイナス適用で簡単にできる。 Stable Diffusionが起動出来ない
インストしてcivitでbra v5とmajicmix落として
webui→models→Stable-diffusionフォルダに入れてrun.bat動かしてみたら
Running on local URL:の次の行にファイル名が4つくらい出て
最後に
RuntimeError:Cannot add middleware after an application has started
続行するには何かキーを押してください...
と出る
構わずURLをctrl押しながらクリックしても飛ばないし
分からんから別サイトの方法試した
Git入れてPython入れてwebui-userbatから動かしても同じだった
モデルデータを抜いてやってみても無理だしでもう意味不... >>215
そのエラー文で検索して出てくるとしあきdiffusion Wiki*に解決法らしきものが載っているのだが…… >>215
update.bat実行した?
git pullやってダメってのがよくわからないが ここに書き込むことは出来るのにエラーメッセージでググれないのはなんで? >>217
これだった
サイトには書いてなかったけどここのテンプレ見ないと分からんよな
それとctrl+クリックじゃなんべんやっても飛ばんかったし... クソブログの初心者トラブルアフィリエイト記事っすかね? ド初心者な質問で申し訳ない
スレのテンプレを見てStable Diffusionを無事インストできたと思うんだけど
プロンプトに、例えば「girl」と入れて「生成」しても、しばし「待機中」と出た後に再び「生成」が押せるように戻るだけで、画像が出力されてない模様。
(生成ボタンの下の枠内に、生成した画像が出るとの認識で良いのですよね?)
以下インストした手順ですが、何かファイルが足りてないorココが間違ってる等、ご教示いただけますと幸いです…
pythonインスト→Gitインスト→1111インスト(Github Desktopで)
→モデルのダウンロード、配置
→VAEダウンロード、配置
→webui-user.bat 起動、しばし待つ
→127.0.0.1:7860 接続
→(日本語化、これはできた。)
→頭書の、プロンプトを入力して「生成」→何も出力されず(?)
グラボが貧弱(GTX1650)な上、他も動作最低環境(本体メモリ16GB、SSD空き領域50GB程)なので
生成が遅いとかは覚悟してるんですが、全く何も出力されてないっぽいのは…やはりスペック不足なのでしょうか? 1650って4GBだっけ?起動オプションでlowかmed入れないと厳しいんじゃない?しらんけど >>221
原因の可能性は他の人が書いてる通りだが、まずbatを実行したプロンプトに何かエラーメッセージが出ていないか確認しよう >>219
Ctrlを押しながらURLをクリックしても飛ばないのはもう解決していますかね?
飛ばないというのはブラウザが開かないということだと理解しましたが、もしも未解決ならbatを直接叩いているのが原因だと思います。
私がweb uiを導入した時に参考にした複数の解説記事にも「Ctrlを押しながらURLをクリックする」と書かれていましたが出来ませんでした。
Windowターミナルでbatを起動するようにショートカットを作ればCtrlを押しながら「http://127.0.0.1:7860」のクリックでブラウザが開けるようになります。
解説記事を書いている人たちはwindowターミナルを使うことが常識になっているのかもしれませんが一般ユーザーには不親切ですね。 StableDiffusionで良い感じの女の子が生成出来たもののその子にいろんなポーズ取ってほしいんですが何をすれば…?
Seed値取ってプロンプト追加してもまるで別の女の子になってしまうんですが ご教示いただいた方、ありがとうございます!(なぜかアンカが打てない…)
プロンプトにエラーが出ていたので、>6を見て
batにいくつか追記したら、無事に出力されるようになりました!
これからコツコツ勉強・作成していきます
本当にありがとうございました >>226
画像からタグ取ってポーズとカメラランダムにする >>228
調べてみたんですが先生から答えは教えてもらえず…
画像からタグを取るとはどういったことでしょうか? diffusersでrestore facesもしくは似たような機能を使うことはできますか? Lora作り始めたばかりで、まだコツがわからないのですが
例えばアイドルにそっくりなキャラを作ろうとしたとして
学習ステップ数が大きければ、大きいほど似ると思うのですが
あまりこの数を大きくすると弊害ってありますか?
例えば画像が妙に暗くなるみたいな?
違う人物のLoraなので比べられないのですが1000ステップ超えてつくったLoraは
似ているんだけれど、なんだか画像が暗いのしか生成されなくて
学習ステップ数が800くらいで作ったLoraだとあまり似ていなかったんですよ >>226
たまたま出たのを以後もぽんぽん確実に出すのは基本無理
サイバーパンク桃太郎とかの時期はできるだけ服装や小物を指定した同プロンプトで大量に出して近いのをピックアップしてた
今なら学習させたLoraとかを使うのが普通 A1111 Web UIの起動オプションに勝手に--autolaunchつくのってなんとかならない?
どこいじればいいかググってもよくわからなかった >>233
普通はそんなものは勝手につかない
勝手なことしてるサイトの何かを使ったならそこをよく読むべし >>235
さわったことないのにしゃしゃってくんな
でも公式リポジトリにあったわ
no-autolaunchつければいいらしい ああA1111ってのがあるのか、AUTOMATIC1111の略かと、そりゃすまん
俺の言う「勝手なことしてる」の範疇だよ、それは・・
> A1111 WebUI Easy Installer and Launcher 複数の画像のi2iを一度にする方法ないでしょうか? >>240
batchタブてどうやって使うんですか? >>241
質問者が聞いてる事ってそういうことなんか? img2imgもpythonなんだからpythonでスクリプト書くだけでよくね? しゃしゃってくんな なんて怪しい日本語使うような>>235だから
普通にインストールしたなら付かない--autolaunchが付くようになんかやったんだろ 12700K 3080tiだけど使ってたら10分くらいでファンが高回転になるなw
画像生成中に次に備えて設定いじくってたら2,3回で虹になって心霊写真になって
1回落とさないと新しい生成でももう戻らないんだけど これが普通なの? それとこれネット上で好みの写真落としてきて直で学習させたりとか出来るの?
File形式変えないとダメ?その場合どうやって変えるのか? >>247
出きるしやり方も公開されてるけど
ここでそれをそんな感じで聞く人にはハードル高杉と思われる > A1111 WebUI Easy Installer and Launcher
何だこの謎ランチャー?と思ったけどRedditでも5ヶ月前から公開されてるんだな。
GitやCUDA自分でインストールできる人には全くもって無用の長物だと思うけど、
クリックいくつかでインストールできるって割には注意書きやエラー対策多かったり
余計な不具合が出るのが目に見えてるアプリだから誰も使わないわな。 >>249
なんてサイト?無理でも一応見てみたい
検索してもワードが悪いのかヒットしなかったんだよね 最近始めた初心者です。
AUTOMATIC1111でrun.batから起動するとコマンドプロンプトに
「ModuleNotFoundError: No module named 'imwatermark'」と表示されてしまいます。
ググってみたら「pip install invisible-watermark」で直るよって情報をみつけたんですが、
上のコマンドを実行したらなにやらモジュールがインストールされただけで解決しません。
コマンド実行する場所が悪かったりするのでしょうか。 >>252
>>215,217,219の、run.batの前にupdate.batを実行するってやつじゃないの
>2にも書いてあるよ 花札からloraのアイコンにカーソル合わせるとアイコンが4つ出てたんですが出なくなってしまいました。
civitaiへのURLやtriggerWordがリンクされてたアイコンだったと思いますけど、どこかに設定ありますか? >>253
update.batはもちろん実行済みです。 >>254
Civitai Helperタブの一番下 Other Setting
Show Button On Thumb Modeのチェックがちゃんと入ってるなら
Always Display Buttonsにチェック入れて見るとかは? civitai以外にlora等の投稿サイトってありますか?
pixivとか見てるとちらほらcivitaiに流通してないものを見かけます
もちろん自力で学習させた人もいるんでしょうが
もしくはcivitaiの検索窓のモデル名かタグかでしか検索できないのをなんとかしたら見つかるのか… >>256
そのあたりのチェックを入れたり外したりしてみました・・・が駄目でした。
設定の保存はちゃんとしてます。
うーん、絶対必要な機能って訳ではないので今は諦めます。ありがとうございました。 >>259
今までアイコン出たことなくて困ってたんですが、
Always Display Buttonsにチェック入れてSave Settingしたあと、Loraの選択画面のRefreshボタンの右にある、青い更新アイコン(Refresh Civitai helper's additional buttons)を押したら表示されるようになりました ただ普通に絵を二倍に大きくするってのはそんなに難しいことなのかね
なんか不思議 >>246
PCかグラボかがおかしいのでは
12700無印 3070だけど普通に連続で50枚以上出力できる。ファンは高回転になるけど。 人間も大きい絵を描くのは難しいよ
A4→A2で同じようには描けない >>246
生成速度はそれほど落ちないから7割ぐらいに電力制限かけてみたら? 絵の線?画線?が基本的に太くなりがちなんですが細い線の絵を生成したいんですが何を弄れば解決簡単ですか?
モデル?CFGスケール?サンプリングステップ?VAE?UPscaler?lora? >>265
モデルかlora
多分モデルの影響だと思うから調べてみな >>257 >262 >264
そうなんかなぁ 買ってから9か月なんだが確かにショボいゲームでカクついたりとかあるしなぁ
とりあえずグラボのアプデしてから様子見するわ
買ってからまだ1回もアプデしてない あ 設定いじくってたら2,3回で虹になるの部分は
生成中に設定いじくるのを繰り返したらって話ね 画質とか枚数に関わるとこね
生成中何もしなかったら普通に何十枚かできてたよ Lora増えてきたので整頓したいのですが何か良い方法ありますかね。
ファイル名変えても問題無し? みんなlayerdividerのインストールしました?
自分はextensionsに表示されてるのにタブが追加されなくて使えないんですけどなんか解決策ないでしょうか
extensionsやautomatic1111のアップデートはしましたけどやっぱり表示されない 画像じゃなくなっちゃうんだけどdeforumの話してもいいですか。
ありがとう。extensionsからインストールしたんだけどタブが出てこないのです。
Error executing callback ui_tabs_callback for 〜ってエラーは吐いているんだけど
エラー箇所修正するんじゃなくてWebUIのバージョンのせいみたいってことは
調べた。WebUIでdeforum使ってる人のWebUIのコミット番号知りたいです。
いらっしゃいましたら教えてください。 3060 12GBを使用しています
現在pytorch1なんですがpytorch2にする明確なメリットはありますか?
生成速度上昇などの効果が期待ができるなら導入したいのですが、特に恩恵がないのなら余計なことをしない方がいいのかなと迷っています >>265>>266
もともと線が出るモデルで
線が出る絵柄のlora使うと相乗効果みたいな感じで線が太くなることあるんだよな
モデルいじるしかないんかな >>260
うわアイコン出ました!何のボタンかと思ってましたけど、リフレッシュと間違えて押してたみたいです!
ありがとございました! 自己解決しました
pip install pytoshop でpytoshopをインストールしたらいけました >>276
作者のTwitterで同じ症状を訴えていた人らがいたけど3週間近くたってもそこでは特に解決法が公表されてなかったけどそういうことか
元々独立して使ってたらそのまま導入しても問題なかったんだろうね >>273
今git cloneすると torch2.0.1+cu118がデフォルトでインストールされます
って書いて投稿するか迷ってたら、たった今(1 hour ago)1111がv1.2.0にアップデートされたようです。あぶなかった
どうするかは自分で決めるしかないかと。 loraの正則化画像がよくわからないのですが
教師画像が絵柄で正則化画像が画風って感じですか? >>279
正則化のないモデルが完成したらそのモデルで
<〇〇:-1>を用いて適当にLoRAの真逆の絵を生成してそれを100枚くらい正則画像に適応する
それで精度が上がれば勝利 当たり画質画像にあたるにはやはりガンガンガチャしないとアカンのか?? びっくりするほどお客様みたいな質問が増えたね
ワイドなショートみたいになんかあったんか FANBOXとか諸々のサイトからの締め出し騒動でSNSで知った人が一気に増えたんじゃないのかな
あとVtuber系でwebUI活用動画が一気に増えてきたし >>282
ワイドなショートでやってたな その前から知ってたけど
やろうやろうとは思ってたのがやっと踏ん切りついたってだけ
だいぶ前に一回やろうとしたがサイト探ししてる途中でめんどくなってやめてるしw コカ・コーラ効果か
306012GB製造中止したぞいそげ >>278
ありがとう
ついにpullする時が来たようですね
不具合報告をチェックしつつ踏ん切りつけます 3060でtorch2.0にする速度の恩恵はほとんどないけど、xformersから脱却できる
同じプロンプト同じseedで全く同じ画像が出るのは試行錯誤時には嬉しい Paperspace使ってる人っている?有料でもあまり空きがないって言われているけど
実際はどうなのかな?
Googleとどちらにしようか迷ってる サーバー なんか借りするとリスクもあるわけだから
大人しく PC を買った方がいい
もし最悪必要なくなったら売ればいい
サーバー借りて 毎月 どんだけ金 支払うつもりだよ >>291
サーバー
児童ポルノで日本の警察に逮捕される
Google のアカウントを凍結される
FBI に逮捕される
色々 リスクがあるわけだから
PC を買った方がいい
それができないんだったら
ネットカフェ 行った方がいい 児ポかどうかの指標のために、
このイラストが児ポかどうかチェックするのに判別できるモデルとかありますか?
もしくは、このイラストが何歳に見えるかのチェックで、
未成年って判別された場合は画像消そうと思うんですが 自主チェックがなんの担保になるんだ?
そんなもん受け取り手の主観次第だから疑わしい領域はやめとけ 拡張機能のURLを打ち込んでやるタイプのが出来ないんですが、これはAUTOMATIC1111の使ってるタイプによったりしますか?LASTBENというのを使ってます。 自分の息子の局部写真を医者に送ったらgoogle垢を完全BANされた事件があったね
https://www.gizmodo.jp/2022/08/google-ai-false-positive.html
警察まで動いてるのもある
> ヒューストン市警から電話がきて署に出頭。事情を話すとすぐ釈放となる。
医者に要求されても送っては駄目という結論とか
AI生成はどこまで見てるんだろう カッターナイフ所持で銃刀法違反を適用するが日本の警察よ?
捕まえる時は捕まえに来るからセーフラインとか無意味っす googleの無料のは保存されないんじゃないの?
一次保存であって切断すれば消えるのでは? そもそも児童ポルノ禁止の法律ができた経緯というか理屈は
児童ポルノ製造自体が少女に被害を与えているというものでしょ?
なにも児童ポルノが悪とされるのは、見ている人間が不愉快だからという理由じゃなくて
実在の少女たちが食い物にされて被害にあうという理屈
だから実在の少女がかかわっていない二次は取り締まり対象にできなかった
じゃあ?AIが生成した画像ってのも取り締まれないということになる 今paper覗いてみたらフリーGPUは高いプランのしか空いてなかった
googleもpaperも無料なんだからとりあえず垢作れば? >>300
でも取り締まらせたい人たちがいるんだよ
非実在青少年なんて良い例 >>292
自前PCだってサーバーになるんだが
偉そうにに語る前に少しは勉強しろ >>301
もしかしてワイかな?違ったらメンゴ
一応両方試してみてるけどpaperも特に問題なかったんで安いしこっちにしようかな、と
マズそうなのは生成する端から削除してるけど >>301
google colabの無料プランではもう1111は使えないのでは
diffusersは使えるらしいけど画像にメタデータを埋め込めないよね? >>303
FBIが日本で逮捕権持ってる別の世界の人だから触ったらあかん 学習をやってみようとtrain-toolsを入れてみたけど……
インストールしたら「学習」タブ以外にtrain-toolsのタブが増えるんだよね?
web-ui起動時に入ってねーぞってエラー吐いてるし謎だ >>303
この流れでそれは単なる揚げ足取りの屁理屈だろ >>303
自前PCは使用者がサーバーを企図しなければサーバーになれません
あまりにも勉強不足では? SD WebUIだってお前らのPCの中でWebサーバーとして機能してるだろ
なんで
サーバー=クラウドのホスティング環境
になるんだよ
アホか 質問していい?
Chilloutmixで、AOMでのlove juiceのようなことができるプロンプトってある? SD立ち上げてる時点でクライアントでサーバーだよ
てか他所でやって >>311
SDがその形式をとっているのは利便性的な要素だけ
普通に『スタンドアロン』にできると思いますよ
サーバーの形式をとっていることとサーバーを企図することは明確に別の行為
・・・未学習で混同しちゃってたんだね >>232
亀ですがありがとうございます!
LoRAっての勉強してみます! 昨日まで使えてたのに
急にCUDAのバージョンが合わないって怒られるようになったんだけど
どうすればいいの? >>317
ChatGPTにそのレスそのまま投げたら原因を3件くらい挙げてくれたけどもしかしてGeForceのドライバをアップデートしたりしました? ぐぐってみたらCUDAの互換性に影響があるのは
・GPUのドライバのバージョン
・PyTorchのバージョン
あたりだそうです
TensorFlowだともう少し縛りが多かった気がしますが
お力になれずすみません microsoftがなにかやってる可能性も
windows updateの履歴と
インストールされているアプリをインストール日付で並び替えて
何か変わってないかとか 数日前、pipのアップデートメッセージ出て、指示通りにアップデートしたつもりが
今度はpytorchがうんたらってメッセージ出て動かなくなって、クリーンインストールしたわ。
おかげで不具合出てた所も直ったり、使わなくなった機能拡張外れて起動軽くなったり。
やっぱり定期的に再インストールだな。 >>307
そもそも>>290での用語の使い方がおかしいから>>291で突っ込まれている
文脈で言いたいことは分かるが
>>303を知っているなら>>290のような書き方はしないっちゅーこと スタンドアロンも意味を勘違いしてるしね
どうみても素人 めんどくせーなーw
電車と気動車の違いを気にする鉄オタぐらいうぜぇ hires fixを使わずにt2iで画像を出して、そこにdepth libraryを使ってcontrolnetで手を修正し、
i2iで高品質版を出すというやり方、youtubeで紹介してる人がいたので真似してるんだけど何度やってもうまくいかない
手が反映されないし、hiresfixを使ったときよりぼやけてるし……
みんなどうやってます? >>208見てちょっと触ってみたけど
sudoもrootもなしだからautomaticもkohya学習も環境構築無理そうで草
せめて学習ぐらい出来たらなぁ 拡張機能のアップデートを確認までは良いのだけれど更新ってどうやるの?
ファルダ消して新しく入れるってやってるけれど何か普通の方法有るよね? >>308
おいらもGW5にそれとドルブス入れたけどタブ出てこなかったわ
再インストールしたけど結局khoya使ってる
あとさっき背景切り抜き出来るのいれたけどエラー出て使えないわ俺環なんだろうけど >>330
sudoとrootは仮想環境を作って、condaで実行してエラーを回避できました。
gradioが効けばpublic URLを生成してくれると思うのですが、それが効きません。
gradioを動作させる方法ありませんでしょうか?
仮想環境とcondaはこんな感じです。
import os
os.environ['LD_PRELOAD'] = ''
!conda update -n base conda --yes
!conda create --name MyWebUIEnv python=3.9 --yes
!conda activate MyWebUIEnv
!conda install ipykernel --yes
!python -m ipykernel install --user --name=MyWebUIEnv
!conda env list
import os
os.environ['LD_PRELOAD'] = ''
!conda install -y -c conda-forge libunwind !COMMANDLINE_ARGS="--share --disable-safe-unpickle --no-half-vae --xformers --enable-insecure-extension- --gradio-queue --remotemoe" REQS_FILE="requirements.txt" python launch.py >>332
なんかインストールが上手くいかないよね
kohya使うしかないか >>325
ADHD いい加減にしろ
質問者の質問を見ろよ すいません、sadtalkerって解像度256x256以上の動画を書き出せますでしょうか? 元画像は1024x1024です。さまざまなエラーを乗り越えてようやく動画ができたんですけど、解像度が…。 RTX 4090買うつもりなんだけどおすすめメーカーってある?
過去に玄人志向で失敗したから悩んでる >>334
エラー回避にすら辿り着けないミジンコだからテキトー言うけど
>>203のノートで使われてるngrokとかはどうなん?
--shareはSageMakerSLでは今は機能しないって書いてあるけども regional prompter 使って左右に分けた領域に2つのlora使って2キャラ立たせようとしたんだが、キャラはうまく出るが色がおかしくなるんだよね
理由分かる方いたら教えて欲しい >>341
まあ無難というならASUSかMSIあたりじゃね
オレはMSIしか使ったことないから経験上のメーカー比較はできないが4090含めてトラブったことないなぁ マンコの造形がどんどん上手くなって行っててウケる1ヶ月前は腹に大砲打ち込まれたように突然穴が空いてたりしてたのに >>341
どのメーカーも癖はあるから、世界的に数売ってるところにしとけば
一番壊れやすいFANの交換部品くらいはAmazonで調達できるくらいかな
クロシコは初期不良で国内サポートがある点だけだな。発売後しばらくたつと在庫によって対応が変わってくるので
異常に気づいてクレーム対応申請できる人向け
早めにコイル鳴き見つけて保証期間内に交換してもらう以外は他と変わらんただの部品屋
名前の通り素人お断りだし、今はあまりマニアックな部品もないしオリジナルブランドもほぼ輸入販売してるだけだしな
世界で売ってる会社に比べると圧倒的に扱う数が少なくて技術的に置いて行かれた過去のイメージが強くなってる
お値段以上の物を求めちゃいけないところ train-toolsは1111の過去の安定板を落して使ったほうがいい
そもそも単独版のほうがメリット多いけどな G 1660 super 6GB
i2iではなく、t2iのHires. fixの拡大で、
2倍拡大するとメモリーエラーで停止
描画のステップ途中でエラーになるので、Sampling stepsを半減
一方拡大倍率を最初x1.2から徐々に上げていき
何度も描画していったら、最終的にx2倍でもメモリエラーでの
停止が起こらなくなった >>342
ngrokですね、気付かなかったです。今日はGPU使い切っちゃったので他の日に試してみますね
情報ありがとうございます 今、追加学習やるならkohya版Loraが良いの? >>353
一番利用者が多いはず
本家と亜種が数種類ある
亜種のwebui化されのが一番使いやすいと思う >>350
その辺のスペックだったらExtraで拡大してから持ってきてinpaintかける方が安定だよ
どうせ拡大したいほどの良い絵が出る率なんて低いんだし、全部高解像度化するより良いものを選んで手動で高解像度化した方がそのスペックなら時間効率もいい
1枚ずつGenerate Foreverで生成しとけば
多少の待ち時間は発生するけど別のタブ開いて拡大やinpaintを同時並行的に作業も出来るしね kohya-ssとsd-scriptsって何が違うのですか?
前者でうまくloraできたのですが両方入れたほうがいいですか? >>355
Inpaintはとぼけたというか、場違いな塗りかけることがあるのでうまくいった試したことない
とくに顔の描画とかね 最初に一枚絵で出てきた描画がベストで
inpaintすると点数下がっていく 色々アップデートしたら1111にTrain Toolsタブが現れた
起動時になんかエラー吐いてるのは気になるけど >>357
デノイズの数値が高すぎるんじゃない?
0.4~0.5高くても0.6くらいまででやれば問題は出にくいはずだけど あとは狭すぎる範囲でマスクするとうまくいかないことがあるから細部をinpaintしたい時は
あえてちょっと離れた書き換えられても影響の出にくい箇所に点で一緒にマスクして多少広い範囲で書き換えが起こるようにすると絵の整合性は保たれやすい 1111でエグいアングルとかのプロンプトを入れると顔部分に変なオブジェクトを被してくるのは仕様ですか? hires fixの機能ってi2iにはないんですか?
resizeで画像デカくしたら同じ効果なのかと思ったけどぼんやりしてる daamで呪文のヒートマップ作りたいんですけどすぐcudaエラーで止まります。
複数の単語を効率よく使う方法てご存知の方いらっしゃいます?
もしくはdaam以外でプロンプトの効き具合分かる拡張でも構いませんのでお願いいたします。 hires step にあたるパラメータがi2iにもあれば綺麗にできそうなんだけどな
depth libで手を修正しようとしてi2iでupscaleすると、どうしてもぼやける ネガティブに(:-1)って意味ある?
ネガティブにマイナスだからプラスに働くとかある? >>367
そういう時はExtraで拡大してからinpaintでonly maskedを使う
細かく範囲をマスク(指定した生成サイズ以上の範囲にならないようにマスク)したら拡大後の解像度に合わせた解像度で生成してくれるから基本的にはぼやけない automatic1111の1.2へのアップデートでDynamic promptの自分のフォルダのワイルドカードが表示されなくなってしまいました。
1.1.1までダウングレードしても治らないのですがエラーもでてないので糸口がつかめない状況でどなたかご教授ください。
一応生成時にはワイルドカードは機能しているみたいです。 人間の絵の中から一部分だけを指定して
そこを別パーツに描き換えるのってできる? 拡大してもぼやけるのってリアル系で写真のボケを認識してる状態なんじゃない? >>287
xformersって絵柄収束しないの? >>374
xformersは画像生成に使うVRAMを節約できる代わりに、生成結果が毎回少し変わるんよ >>373
いやイラスト系
hiresと比べたらぼやけてるよ xformersはプロンプト調査してるときに、ワード変えた影響がわからなくなるんよね
間違えて全く同じプロンプトに入れちゃった時も変わるのでそれに気付かなかったりして混乱する 職場のPC(xformersあり)と家のmac(xformers使えない)で比べるとxformersありのほうが女の子がかわいい気がするんですが、そういうのってあるんですか? 使用グラボ4070ti
一週間ぐらい前に初めて高速化関係はxformersだけ適用させてたんだが更に高速化図ろうと思って色々調べてたんだけど
40xxはtorch2.0.0+cu118にしたほうが早いよって記事見かけてweb UIみたらtorch2.0.0+cu118とあったので多分これは最新をインストールしてたってことで適用されてるものと思うんだけど
それ以外にxformersを消すとも書いてあったんだがこれは40xxのtorch2.0.0+cu118に限ったらxformersを適用しないほうがいいってこと?
適用をやめた方がいいとして、やめるにはwebui-user.batから--xformersを消すだけでオーケー? 今まで2700X+RTX2060でやってたけどLORA学習させようと思ったらVRAM足りねーって言われだした
CPUも古いし、BTOでも買うかと下のパソコン検討してるんだけどどうでしょうか?予算は20万前後です。
https://www.frontier-direct.jp/direct/g/g114913-May2/ >>383
悪くはないと思うけどVRAM12GBは直ぐに不足に感じてくると思うよ
予算で無理かも知れないけどVRAMは最低16GBは欲しいところ
大きいサイズの動画に手を出そうもんなら24GBあっても足りる気がしない これの学習ってどうなってんの?
一回落としたら消える訳じゃ無くアンインストするまで覚えてるんだよね?
1個目のLORA取って来て使うとそれ学習して2個目のLORA取って来て使うと混ざる
という解釈でいいんだよね?
特定キャラ似のLORA取って来て使うと最初は上手くいってたけどだんだん崩れて最後は出なくなった
何故か特定キャラ似のLORAって頑なに全身像作ってくれんかったしなw
特定キャラのLORAだけ出したいって時にはもうアンインストするしかないんかな? >>385
ラデなら予算範囲で16GBもあるんだけどね・・・
ゲフォは絶望的・・・
仕方ないので↓のにしてグラボを後に買替えるつもりでいる方が正解?
https://www.frontier-direct.jp/direct/g/g115616-May2/ 自作Lora適用するとなぜか生成される女の子の顔がきつめで崩れてしまうんですよ
内容は服装Loraで元画像の顔など学習させていないはずなのに
Lora作成のコツみたいなものがあるんでしょうか? LoRAはプロンプトに使いますよって記述した時だけ効果がある
Generateの下に赤い花札みたいなボタンを押すとLORAのタブが出てくるからそれ選んで選択すると自動的に使うためのプロンプトが記述される
あとは記述された箇所の割合の部分を変更して微調整する >>389
ググってみたら、1以上にすると崩れると書かれていますね
なるほど、今までは割合の微調整していなかったから
崩れていたんですね
納得しました、ありがとうございます >>389
そうなんか
俺はLORAをStable-diffusionフォルダに入れてるからプルダウンして選ぶファイルもある 選ぶと一瞬読み込みゲージが出る
Stable-diffusionフォルダに入れて上手い事起動しなかった分だけLORAフォルダに入れてるけど全部LORAフォルダに入れるの?
LORAフォルダに入れてるファイルは花札アイコンからしか選べないからStable-diffusionフォルダ側を主体にしたい時は花札アイコンから出した呪文は消してる >>369
すまぬ、試してみたところ確かにぼやけてはいない
だけどくっきりしてる代わりに造形がぐにゃっとなって粘土細工気味になる
やはりhires fixの再現にはなってないようだ >>384
つまり…どういうことだってばよ?
個人サイトで悪いが
https://yuuyuublog.org/opt-sdp-attention/
で書いてるようにset COMMANDLINE_ARGSの中の
--xformers
を消して
--opt-sdp-attention
を書き足すだけってことでおけ? 質問は>>391で言ったプルダウンで選んだ時のLORAファイルの学習のことね てかdepthlibでの手の修正とかinpaintとかってほとんど成功しないわ
全く画像が変わらない場合がほとんどで、inpaintは黒塗りがそのまま出てきたりする
何回か手の修正らしきこともできたけど、いろが真っ白とか緑に滲んだりしてまともに使えなかった
controlnetってもっとすごいものかと思ってたけど全然使えない >>392
システム的には同じものだからそこまで変わるはずはないんだけど
hires fixは小さく生成した絵を自動的に拡大して全体をi2iにかけるもの。拡大後のサイズの画像を生成できるだけのスペックが無いと出来ない。
それに対してonly maskedのinpaintは範囲を指定した部分だけを指定した解像度で生成しなおしてくれる。解像度を指定出来るのでスペックに合った再生成が可能。
ただし、あまりにも範囲が狭いとプロンプトと選択した範囲の絵の内容に違いが生じるからそこで変な物が生成されたりはする。それが原因か、デノイズストレングスの値が大き過ぎるかの二択じゃないかな ああ あと寄生獣化を二度と出ないようにする呪文無いんかな? お金がないなら分割払いか
レンタルすればいいじゃない >>387
1 その二つからなら最初の4070tiのやつがいい、買取で差が付く
4070tiの買って妥協するか、のちに遅く成るけど出るかも知れない少しの追銭で4060ti16GB、速くなるが半分位の追銭で4080、2/3位の追銭で4090買い換え
2 金利0%の所で4090構成のPCを分割払い
3 お金貯まるまで今の状況で我慢、又は3060 12GBだけ入れる キャラLoRA作ったら顔だけまともで体が超級覇王電影弾になるのは過学習?LoRA1適用が悪い? >>387
2060が6GBか8GBの場合の話、12GBだったなら4070tiにしても駄目だから 画像生成にVRAMはたしかに大事だけどさ
それ以前に根本の処理速度も大切よな >>399
う~ん、3060だけ買うのが良さそうですね(-_-;)
>>401
2060は6GBです RTX3060 VRAM12GB使ってるけどゲーム中にhi-res fixすると落ちるからcolab pro入ってみた。
ローカルより高速だけどスクリプトでプロンプト変えながら大量画像生成したら数日で1月分のコンピューティングユニットを使い切ってしまった。。 動画を作りたいけど
絵のズレをなくす方法ないですかね >>396
多分全然違う処理がされてるんだと思う
同じスケールにリサイズしてhires版と比べてるけど全く違うわ
hires版はSD初めて良かったぁって思える出来だけど、extraでリサイズした版は低VRAM用のNovelAI使ってた時に出してた失敗作を思い出す
あと、なにが間違ってるかわからんけどonly masked inpaintは出来なかった
もともとinpaintがうまくいったこともないんだけど、resize toの指定と全く違う縦横比で出てくるし、黒つぶしのままでてきたりマスクが取れた状態で元の状態で出力されたり
全くわからんわ
SDむずすぎる >>407
まずinpaintは編集したいところ塗ってマスクしてる?
根本的なところで、i2iの方にプロンプト入力してないとかないか?
そんな大きな違いは普通出ないから設定間違ってないならハードウェア的な問題が絡んでそうだ VRAMを16GB以上にしようとすると急に値段が跳ね上がるよな アナルプラグ打ち込んだエグいエロ絵を生成したいんだがやっぱLoraしかないかな
呪文でガチャガチャしたかってんけど モデルに要素が入ってないと外部注入するしか方法ないからなあ
AI名乗るならニューラルネットワークから引っ張ってこいよとは思う >>408
自分がやってるのは、まずextraつかって拡大する方は
1. t2iでhires fix をオンにして1枚生成 (512*768でupscaleは2)
2. SEED固定してhires をオフにして1枚生成
3. 2の画像をsend to extra 押してscale by 2にしてupscaler1,2ともにさっき使ったのに合わせてgenerate
1と3の結果を比べてるけど眼とか髪がグチャッとなってる
hiresで3倍にしたのとextraで3倍にしたのとだったらもっと違う
inpaintは、手だけ修正したいのでpng infoからsend to i2iを押してるからプロンプトは埋まってる
手の部分をinpaintタブ黒塗りして、inpaint areaは only maskedにチェック入れてる
seedを固定しても固定を外しても変わらないし、controlnetに手の画像を入れてenableにチェックを入れても入れなくても何も変わらない >>411
ほんこれ
モデルでひょうげんの幅狭まるのがな >>412
Extraのはただの拡大だからそこから更にinpaintに送って編集するんやで 表情を表すLoraって作った方おられますか?
テキストだけだと笑いの表情はうまく出ても、驚きの表情とか怒りの表情とかAIは苦手っぽいですよね?
でも例えば驚きの表情をネットから集めてLoraをつくると、キャラLoraでつくったキャラに影響与えてしまって
別人物のようなものしか生成できないとかそんな予想もできるんですが
自分でつくった好みのキャラに喜怒哀楽の表情をうまく出す方法って何かよい手段ありますか? 無数のLoRAライブラリをネットワーク参照とか出来るようにならんのかね
Winnyの技術が生きてりゃなあ >>415
コピー機LoRAっていう差分学習手法がある(以下ほとんどコピペだけど)
①画像Aを用意してそれを何千ステップ学習させてそれだけ出すコピーモデルAを作る
②画像Aを加工して付加したい属性を追加した画像Bを作る(例えば表情とか)
③コピーモデルAをソースに画像Bを学習させる
④画像AとBの差分の要素だけ学習される Google ColabでLoraファイルつくって
それをロカルのSDのModelsフォルダ>Stable-diffusion
(注意:Loraフォルダでない)
に入れてGenerateしてす
これで目とかあひる口とか描けてます
Lora引数や他人のモデルファイルは一切使わず >>417
>画像Aを用意してそれを何千ステップ学習させてそれだけ出すコピーモデルAを作る
Loraについていまいち理解していないでつくったり、使ったりしていましたが
例えばchilled_remixというモデルを学習させていると
もう自分のPCに入っているchilled_remixはHugging FaceからダウンロードできるHugging Faceとは別物に変質しているってことですか?
そしてコピーモデルとはHugging Faceを学習させまくると、その学習した画像しか出せなくなるまで変質するってことになるんですか? クラウドのA4000で2千px以上の画像サイズ作ると
だいたい止まりますが
皆さんは大きい画像サイズ作れますか? >>419
ベースモデルとLoraは別ものだから、ベースモデル自体は変質しない。 肋骨や筋肉が浮き上がったり肌の色がキモくなったり極端な逆光になる現象しょっちゅう起きるけど
偶然その手のグロ化を打ち消すLoraが出来てしまった。。。
背景を学習させただけで何でそうなるのか原理が謎過ぎるけどエロ系プロンプトでめっちゃ役立つわ ベースモデル自体を作りたいんだけど
マージ以外で現実的な方法ある? >>422
同じ問題で悩んでるからうpしてください… 自分は血管が変に目だったりするのが気になるんだけど
そういうのにも効果ある? >>422
逆にキモい肌色出したいからLoRAください >>422
背景の質感に合うように人物のディテール(テクスチャ?)が調整されるから とか? 存在しない女性のちょっとエッチな画像が性的搾取?
狂っているの白人の感覚なのでは? あいつら頭おかしいからな
あんなのをグローバルスタンダードにしてはいけない civitaiとかであまりアニメキャラのloraとか無いけどやっぱ基本みんな自作? >>433
ごめん、めっちゃあった
調べ方が悪かった
高クオリティなcivitaiにあるような高クオリティな学習ファイル作るのって結構大変? controlnetを更新したらCERTIFICATE_VERIFY_FAILEDエラーが出るようになった
SDを再構築する必要があるんだと思うんだけど既存の環境(設定とか拡張機能とかダウンロードした諸々)を変えずに再構築するにはどうすればいいんだろうか
ローカルの話です ワイルドカードの管理でワイルドカードが表示されなくなってしまったんだけど、俺だけ? ずっとColabo民で女の子作ってて初めてローカル環境整えようと思うんだけど、これからだとグラボは4060Ti-16GB待ちかな?
いまいちPC環境に詳しくなくてCPUとかもどの辺まで準備すればいいかわかんねえ >>431
非エロの生成画像に対しても難癖つけそうですよねあちらの方々って >>437
どこまで金を出せるか、どこまで待てるかによるとしか…
趣味の範囲で出力やるだけなら12GBで十分だと思うけど Tiled VAEの速度が画像のように666.93it/sとかになって画像が生成されないことがあります
seed以外を変えずに何回かTiled VAEのonoffを繰り返したりwebuiを再起動させたらうまく生成されれることもあるのですがそれをしても止まってしまうこともあります
フィーバーモードだと上記の状態になった時点で次の画像の生成に行くので実際はエラーか何かで止まってる?っぽいです
対処法とか知ってる方いないでしょうか
@set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
とか使って無理矢理動かしてるのがダメなんですかね?
https://i.imgur.com/jyiVrgG.png >>440
あ、そうだよねごめんなさい
・趣味範囲の出力、特にゲームとかはしない
・予算上限15万円 X formersって普通にメモ帳の文字消せば解除? 良くプロント出みるVFGってlora何処にあんの?
いくらググっても全く見当たらない >>444
15万じゃ4060搭載PCは買えないと思うから
3060 12GBの入った安いPCにするといいよ >>448
ありがと、そうなのかぁ
素朴な疑問なんだけど、みんな構築済み?(CPUとかSSDとか全部こみこみのもの)のPCを買ってるの?
それとも一つずつ選んでるの?
どっちの方が安くつくのかなあと。自分で調べてみたら同じやつでも自分で買った方が安そうなんだけど初めてだから足りないものとかあるか不安でさw >>443
LoRAでこういうのがあります
Lit - v1.0 | Stable Diffusion LoRA | Civitai
https://civitai.com/models/51145 ここ数日でガチっぽい初心者が増えたからネタレスはほどほどにな
>>449
あと数日で4060tiが出るからVRAM目的であっても新品で3060指定はありえないよ
再来月には3060tiの16GB版も出る…たぶん ×3060tiの16GB版も出る
〇4060tiの16GB版も出る
普通に間違えた… >>451
すまんガチっぽい初心者だわ。もうちょい自分でも勉強する
そしてありがと!やっぱ7月?の4060Ti待ちだよね
ローカルで生成AIするぐらいだったらCPUはRyzen5 5500とかでよさげ? 7月下旬っぽい
8GB版は5/24だけど買う人いるんかってレベル 4070Ti買おうかと思ってたけど4060Ti 16GBが出るのが本当なら
待つか悩むわ >>434
16gb 以上の V ラムが付いた PC でやってみればいいじゃないか 簡単だから >>456
4070tiは3090tiと同じか若干上の生成速度
4060tiは3070を若干上回るくらいの生成速度と思われる
VRAMは多いけど、いま3070相当の生成速度で将来的に満足感が続くのか?ってところがね そんな出るかわからないような松 よりも
RTX 3060は5万で買える
まず それを買ってやって不満なら買い替え ろ >>447
Windows 11 Pro 64-bit
Ryzen 5 5600
16.0GB Dual-Channel DDR4
NVIDIA GeForce GTX 1650 4GB
でwebuiはCommit hash: 89f9faa63388756314e8a1d96cf86bf5e0663045です
https://i.imgur.com/NnP5hyE.png
https://i.imgur.com/6U05sZ1.png
https://i.imgur.com/9MjyqxG.png 3060の買い替え先は4070tiが鉄板で
その2つを足すと4080が買える これ豆知識 >>459
日進月歩だからとりあえずスタートを切ってしまうのも重要だな 微妙に顔(頭)を変えられる呪文かLoRAないですかね ミスった
微妙に顔(頭)の大きさを変えられる呪文かLoRAないですかね ナウシカみたいなガスマスクってなんて入れたら出ますかね 基礎的な質問なんですがLora学習の際キャラクターの衣装はバラバラでも大丈夫なんでしょうか? NVIDIA GeForce RTX 4060 Ti 16GBも128-bitのバス幅。消費電力は165Wに増加
https://gazlog.com/entry/rtx4060ti-16gb-165w/ >>468
それただのまとめサイトで引用元も出所は「情報によると」としか書いてないんだよね >>414
only masked でinpaintするから、それだとマスクした部分まったく変わらないよ… >>467
本来CUDA out of memoryなのをgarbage_collection_thresholdとかlowvromで無理矢理動かしてるので
正直最低動作環境すら下回ってる自覚はあります
あと書き忘れたのですがTiled VAE切ると高確率で真っ黒画像が生成されます
3月頃の大型更新以前のはTiled VAEの停止も真っ黒画像も出なかったんですが本体更新せずに拡張だけアプデしてたのがまずかったのかi2iでエラー吐いたから更新したんですよね PNG infoからsend to t2iで同じプロンプトとmodelとseedで出してるのに最初の一回と2回目で異なるのはなぜ?
2回目以降は何回やっても同じだけど最初の1回がどうしても再現できない >>475
これ、一回目の直前につかったモデルが影響してたっぽいんだけどバグなんだっけ?
もう二度と再現できないのか? civitaiで既存絵を使ったLoraでクレジット表記を要求しているのを見かけるけど著作権って主張できるのかな
オリジナル絵を学習したLoraならまだ分かるんだけど
サーバー国とか作った人の国の法律は知らないが、日本の国内法は著作権のある絵を機械学習に用いる事は認められているけど、機械学習の結果自体の著作権ってどうなっているんだろうね……
プログラムのアルゴリズムとも違うし >>470
順に全部マスクして生成してinpaintに送るを繰り返すんやで
全部の画像にhires掛けるよりも低解像度でいい絵が出た物だけ高解像度化することでGPUの性能が低めでも最大限生成出来るようになるし
手作業で良いものが出るまで繰り返し生成することで品質も最大化出来る Stable Diffusionで、watermark 途中で送信してしまいました。。
Stable Diffusionで、watermarkをNGにしていても時々ウォーターマークが画像の左上とかに入る場合があります。
これは著作権のある画像がそのまま背景画像として使われてしまっているということでしょうか?
それともAIの気まぐれでウォーターマークが生成されたもので、特に気にする必要はない(ウォーターマークだけ消去してしまえばよい)のでしょうか? >>480
その画像見ればわかるけど実在する自然言語じゃないでしょ
元画像からコピーなんてされない >>478
違う人ですが
l 順に全部マスクして生成してinpaintに送るを繰り返すんやで
黒塗りして only masked, original にチェック
入れて Generate しても、きれいに描画されない
seed固定すると、元と同じ画像が同じ粗さで塗られる
顔変わってもいいので、顔を
きれいにしたい/細かく描画したい
場合、足りない設定値は何でしょうか? 今までHires.fix未使用でいくつか画像を生成し、その中からうまく生成出来たもののシード値を使ってHires.fixで高解像度化をしていたのですが、
ControlNetのreference_onlyを使用していた場合、シード値を使ったとしても元画像から少し違った画像が出てしまいます(腕の位置が違う等)
reference_only使っても元画像から変わりなく高解像度化する方法ってありますでしょうか?
i2iでTiled Diffusion、Tiled VAEを使用して高解像度化してみたのですが、線が微妙にぼやけてしまってイマイチです >>484
これいいな
今まで何となく使ってたけど色々と参考になったわ 最近 メロンブックス
トラの穴
デジケット
げっちゅう屋で
実写児童禁止になったみたいなんだが… >>462
まずこの際だから GTX 1650でもいいよ
0と1 じゃえらい違い なんかちょこちょこ日本語怪しい奴このスレ多くね?
日本語の文法が下手とかそういうのじゃなくて、ちょっと表現しづらいんだけど外国人っぽさがあるというか 外人なら日本語の文章書けるだけでも大したもんじゃん? 中国人も韓国人もwebUI使ってるし日本語話せる中国人韓国人がここにいても全然おかしくはない >>288
Gradient の $8 のプランだと、夜はほとんど空いてない。朝方とか昼は結構使える。 CUDA out of memory.
Tried to allocate 1.12 GiB
(GPU 0; 8.00 GiB total capacity; 5.06 GiB already allocated; 0 bytes free; 6.25 GiB reserved in total by PyTorch)
If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.
See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
足りてるんじゃないの? >>491 >>492
日本人底辺層の英語嫌いは異常。
くれくれ言うから英文資料渡したら「こんなもん読めるわけねーだろ!」と逆ギレされた事も多々あるし。
あいつらが英語サイト読むより、中国人や韓国人がここ来てる方がまだありふれた風景じゃないかと思う。 ってか、5chでいちいちタイポ修正しないし、文章の前後コピペで入れ替えておかしくなってもそのままとうkおする 恥ずかしそうに目線をそらして下を見るような画像を作ろうとしてプロンプト書いたのに
ばっちり視線をこっちに向けているから、ああ、そうか?Loraファイル生成するときに
TXTから Look at viewer というプロンプトも消してLora作っているから
目線を合わせることまでキャラLoraとして学習しているからだと気づいたので
元画像からまた一からTXTを生成して、Look at viewer を残してからLoraつくって
またTXT2imgで目線をそらして恥ずかしがっているってプロント書いて画像生成しても
やっぱり目線ばっちりこっちに向けているんだが
どうやったら望みの画像つくれると思いますか? >>497
なんか書いてあるじゃん
>try setting max_split_size_mb to avoid fragmentation.
連続した領域で確保できてない的な話じゃないの? pixivとかfanboxにある解像度高い高画質なイラストってGeForce RTX 3060 12Gでも出せる?
36万くらいの高スペPC必須だったりするの? >>500
look rightとかだと目線が変わるのかな?w >>503
駄目ですね
look right, looking down両方を強調構文にしても
ばっちりこっち見つめてくるw 英語アレルギーというか単語が覚えられない
何回もなじ単語調べていれないとまちがえちゃう
命令日本語にしちくりー >>507
俺はGoogle翻訳でプロンプトを日本語で書いて英語にしてるがそれで問題なく画像が生成できているよ
品質の設定やスラングなど一部の単語や言い回しだけはそれだけじゃダメなんで、それらだけはテキストファイルにまとめておいてコピペしてる リアル系で、髪型だけ学習させたい顔までは学習して欲しくない時ってみんなどうしてる?モデルじゃなくてLoRAの学習ね。
以前に服を学習させたらバッチリ顔にまで影響出てたんだよね・・ WebUIの機能にtransformerかpytorchで日本語->英国のTranslation処理を挟む・・
割と簡単にできそうな気がしてきた >>500
looking anotherとface downでどうかな
自分使ってるモデルだとそれっぽいのが出たよ 高解像度ってどのへんから?
2048*1440あたり? pixivとかfanboxにある解像度高い高画質なイラストってGeForce RTX 3060 12Gでも出せる?
36万くらいの高スペPC必須だったりするの? すまん何故か連投してしまった
時間かかるけど出せるなら17万くらいのPCでいけるか
頻繁に引っ越すからポケットWiFi使ってるんだがモデルとかソフトのDLに影響あるだけでイラスト出力の速度に回線速度は関係ないで合ってる? >>517
PCはとりあえずRTX3060のVRAM12GBが入ってれば安いのでいいよ
生成はネット繋がなくても平気
ただし色んなのダウンロードすることになるから通信量無制限じゃないと詰むと思うよ >>513
ありがとうございます
でも試してみたけれど、出そうにないですね Loraの学習って人物だけ切り抜いてやったほうがいいの?それとも背景込みのほうが良いとかある? >>518
ありがとう助かったわ
PC買ったら無制限に変更する モデル次第だけど、ネガティブプロンプトにこっち見るやつ入れて、プロンプトにlooking awayみたいな感じいれてガチャ回せば作れるんじゃね >>506
うろ覚えだけどlooking awayだったかでそっぽむく場合があったかなぁ
ただしその場合もガチャは必要だった 結局ご教示ガイジはスレ立てすら出来ない無能だったのか
まあわかっちゃいたけどな 今4080で2560*1440だそうとしたらメモリ溢れた
マジかよ >>507
火狐で to deepLの拡張機能入れてるわ。
ドラッグして右クリックから選択したら別ウィンドウで表示してくれる >>521
いろんな背景がある方がいい
背景無いと背景無しまで強く覚えるし
同じ背景ばかりだとその背景を強く覚える
MMD2本から画像キャプチャしてキャラlora作ったら
たまたま両方とも海辺が舞台で
プロンプトとネガティブ両方1.5倍強調でやっと海辺消せるぐらい
キャラと強く結びついてしまった >>521
顔だけでクソコラ風にしたいなら生首もありらしい >>523
やってみましたが、今のところ完全に
目線合わせてきて失敗してますね
テキストからLook at viewerという言葉を残して
LoraファイルにLook at viewerを影響させないようにしても
そもそも元画像が目線合わせている画像ばかりだから、目線合わせてくる画像しか生成できないのかもしれませんね >>516
まずお前にとっての高解像度を教えろ
俺の環境だとWQHDすら出力できなかったぞ 国語教師やりたいなら別のところでやれよ
便所の落書きでガタガタやるな迷惑だ >>531
一発出しは諦めてinpaintで目だけマスクして、Lora weight薄めるなりモデル変えるなりで、目だけ再生成したら? これってどういう点でAI判定しているんだろうね
確かにstable diffusionというところまで当てられてしまうんだけどさ
jpeg圧縮したりすると変わるのかどうか…
AI-Generated Content Detection(Hive)
https://hivemoderation.com/ai-generated-content-detection 最強コスパ3060,12Gで当面は頑張る
どうせ動画生成にそのうち移行するから
そうなるころにはまた手頃なのが出てるだろ >>531
lora作るときのベースモデルで目をそらした画像何枚か作って、looking anotherだけタグつけてloraの材料に混ぜてみるとか?
試したことはない。ただの推測 >>538
それで良いのか?
今4090買って3D本格化したらその時買い替えるほうがよくね? >>541
そのケースカッコいいよな
俺も使ってる >>508
そうしてたんだけどあれ制限あんだね
しらなんだ ああVRAM8だったか。すまん >541 は忘れてくれ >>547
まあこれだよな
この値段で4070tiは破格 >>500
文書で
She looked down in embarrassment
はどう? マジで環境整えたい奴は急げ
AI用のNVIDIA製GPUが供給不足で約35%値上げ。ゲーミングGPUへ影響も
2023年5月16日
イーロン・マスク氏、生成AI用に約1万個のGPUを購入か
https://www.itmedia.co.jp/news/articles/2304/12/news099.html フォルダ内の512画像を全部hiresやtileで拡大してくれる
エクステンションあったらなあ
一々ドラッグめんどくしゃい >>554
前スレだかにバッチ処理してくれる機能拡張の書き込みなかったっけ 投資のためではなくて、買い物のために買って残っていた分はそのまま口座に放置していた
ビットコインが知らないうちに倍くらいの値段になっていてびっくりしたw
大した額が入っているわけじゃないが
ビットコインが値上がりしていると、採掘するやつがグラボ買い占めしてグラボの値段が上がるって言われているじゃん
買おうかとうか迷っているとそのうちあの時買っておけばよかったと思うような値上がりになっているんじゃないの? >>559
良いからさっさと売って現金化して株に投資してなさい >>351
これどうなっただろう
ipynbアップしてくれたら環境揃えてこっちでも試せるんだけれども 今までトークン数っての意識してなかったけど、トークン数に限界ってある?
で、限界から越えた場合、重要度の低いトークンは削られる? だから思った通りの絵が出ない?
ついでに自作のLoraとか使った場合、トークン数が多すぎて再現できなかったりするの? >>566
これより安い4070tiはおそらく無いレベル
なんせグラボだけで13万だから リアル系で顔のLoRA成功した人いる?
いくらやっても化け物にしかならん >>568
当初は自分のLoraも化け物になっていて
このスレで質問して解決した
Lora適用加減の割合を1よりも下げないと化け物になる
<lora:*****:1>,ってデフォルトではなっているけれど
これを <lora:*****:0.4>, みたいに適用割合を0.いくつかに下げると綺麗な顔になるよ 人のモデル使わず顔だけのモデルつくったら?
学習前にふられたキャプションみながら、
斜め左向いてる画像のワード、フレーズを1
つづつ手入力してから学習してつくる
できたらカラダのモデルとマージ >>552
うーん、こういう記事出さないで欲しいな
また買い占めとかに繋がっちゃうじゃん >>572
イーロン・マスクは購入済みらしいから関係無いな
むしろ購入完了しているんだから値下がり要因 >>569
うーん、値を下げると別人になっちゃうんだよね
まだ試行錯誤が必要か… >>569
作り方が違うだろうから、あんまり参考にならないかもだけど、1でもそれなりに使える印象だけどな。
ただ、プロンプトで強調を使うと崩れやすくなるのは確か。
それに加えて、完全に体感で仕様上ありえないことなんだろうけどSD立ち上げて最初のうちが作画崩壊しまくる印象。
しばらく画像生成(微調整込み)してると落ち着いてきて、しばらくすると、立ち上げ時とは別のベクトルで作画崩壊していくイメージだな。これは設定0.8〜1の間でそんな感じだが。 taggerで使ってるセンシティブチェックのモデルって、
APIですか?
そのモデル使ってローカルで色々試したいんですが、
モデルだけどこか転がってないかなーと >>544
インストールしてないけど拡張機能にあるPrompt Translatorって使えないか? >>544
あとAuto Translateなんてのも >>570
見れた見れた、そんでngrokで成功したよ! 300枚×10回2エポでほぼ本人まんま出るようになったわ
元画像が高画質でネットに転がってれば割と行ける ドール系をtile_resampleでアップスケーリングしてもガッツリアニメ塗りに寄っちまうのなんとかならんか? プロンプトで…
{shiny_hair}
{shiny hair}
_と半角スペース…どっち使ったらええの??
_使うと文字数が増えるから付けなくてもええならつけたくないんやけど >>584
アンダーバー有りと無しで効き目が変わると何かに描いてあった >>587
xformersのあとを以下に変更(>>203から必要なものを追記)
https://pastebin.com/3BVNjmWt
7行目のngrokのトークンとか
13,14行目のユーザーネームとパスを適当に変更
自分はセル分けしたので頭にCDtoHomeが入ってるので不要なら省略なりしてね >>588
俺もこれよりスペック劣る奴を58万で買ってるから
これはメモリもSSDも多少多いから悪くはないと思う
ただもっと安いのもあるけどね SDで使ってるモデルってリークしたNAIが使われてるって言ってる人がいるんだけど本当?
自分はSD使ってるからもうNAI関係ないと思ってたんだけど 自作すれば4090積んでも他ケチって35~40万くらいで組めそうだけどな >>590
ハイエンド機は安物パーツ使わないから高いよ
cpu 80000
マザー 40000
メモリ 25000
SSD 20000
簡易水冷 18000
PCケース 20000
電源 35000
FAN 10000
グラボ 300000
合計 548000
その他 工賃 手数料でいい線じゃね? お高い構成ならシステムとデータドライブくらい分けろとは思うわ >>597
NAIで生成したやつもSDって判定が出る >>537
なるほど、毒をもって毒を制すだなw
AI作品かどうかなんて定量的に判断する方法ねーだろって思ってたけど スクショでもAI判定が覆らないからピクセル単位の何かを見ているわけでは無さそう
線の煩さとか?アルゴリズム特有の何かがあるのか 画質の悪いタレントの画像をTiled Diffusionでアップスケールしたのがあったのでやってみたんだが
アップスケールは99.7%、元画像は0.1%だった
形状とかそういうのじゃ無さそうやね、AI特有のノイズののり方みたいの見てるのかもしれん >>594
海外のリアルモデルの一部以外は全部使われてると思っていいよ
何をマージしたのか記載がないマージモデルは全部入ってるから 顔アップに切り取りするだけでAI判定率下がるし、SD製なのにmidjourneyって判定されるしで結構適当だなぁって感じだ
AI絵にちょっと加筆するだけでも率が全然変わるし細かいところは見てないなって感じだ seedを-1にするのと空欄にするのとって何か違うのか Stable Diffusionをローカルで導入して
外出先で回してる強者いる?
もしいたら電源どうしてる?
電源カフェじゃないとさすがにキツイよね 細部をinpaintやスケッチで修正したいけど2000×2000とかの大きめな画像だとメモリ不足で実行できない
マスク範囲のみのinpaintにしてもダメ
大きな画像の細部修正ってみんなどうしてる? >>584
shinyとhairをどこまで因果付けするかによる
shinyとhair以外のプロンプト構成に左右されるので、どちらがいいかはケースバイケース
個人的には
・「,」で要素をぶつ切りに区切るdanbooru構成なら不要
・英訳文をそのまま使うなら必須(場合によってはハイフンで)
でやってる Automatic1111でGenerate押したときに、
実行されるコマンドってコンソールには表示されない感じ?
どこかに実行コマンドログとか残る? camel toe か camel-toe か camel_toe か
悩みは尽きませんな >>610
調子に乗ってリモートでガンガン自宅PC回してたら
熱暴走で爆発したりしない? >>592
ありがとうございます。
私の環境でも成功しました。
前半も含めてコードを少し直したのでどこかにアップしてみなさんと共有したいのですが、
無料ブログとかの方が良いのでしょうか?
テンプレに乗せても良いと思うのですが、いずれはcolabのように制限はかかると思います。 >>615
コネクタ半刺しでそこが燃えた話くらいはあったろうが
まともに設置してただ定格で回して燃えるものは基本商品として売られてない
普通は各部品の温度は常に機能で監視されてるので限界値で出力制限が自動でされる i2iタブのバッチの件なんだけど、インプットディレクトリとアウトプットディレクトリ指定して生成ボタン押しても何も起きない
大量の画像を自動で拡大したいんだけど使い方間違ってるのかな >>615
燃えることはまあ無いけど、リモートで回すなら温度監視はした方がいいとは思うよ。
安易にやるなら、定期的にスクショとるソフトあるからそれでとったスクショファイルを
クラウド同期すれば、諸々含めてリモートから画面監視できる。
燃えるとしたら12VHPWRケーブルが一番あり得るので、マザーボードに温度センサー端子があるなら
12VHPWRケーブルに温度センサーつければ安心。
それが無理でもCPUとGPUの温度を画面表示しておけばまあ一応それなりの監視はできる 自宅VPN環境は元々あったんでスマホにリモートデスクトップアプリ入れて出先でも作りまくってる
さすがに選別作業は帰宅後だけど退屈な電車通勤があっという間に溶ける Web会議の背景作りたくて、窓から外の景色が見えているリビングルーム、みたいなのを生成しようとしてるんですが、なぜか写真系のモデルを使ってもイラスト的な絵しか出ません。
インテリア専門のモデルは窓のない室内だけのワンパターンの絵しか出ないので、一般的な汎用モデルから写真のような背景を出力できる方法を知りたいです。 >>623
Bing使った方がけ早い気がする
とりあえず一番最初にこんなのが出た
https://i.imgur.com/vPFRjGV.jpg
BingはSDとは違う長所があるので毛嫌いせずどちらも使っていった方が間違いなく捗ると思う
SDでは難しい「顔はアニメ、装飾や家具は実写」というのも割とサクッと出してくる
ただし顔の造形は・・・なんだけどね
顔はSDの足元にも及ばない
だから背景含む構図だけいただいてCNに放り込んで再描画させるといい Amazon SageMaker Studio LabでWebUIを実行するコードと手順をまとめました。
https://redhairgirl.seesaa.net/article/499379996.html?1684299489
1日4時間までしか使えませんが、PC買えない人はこれ見て頑張ってみてください。
Colabを普通に使えれば問題なくいけると思いますが、一応詳しくない人にも分かるように解説してます。
ただ、1段目のセルを2度実行するとエラーになったりちょいちょいcolabと比べて難易度が高いです。 今、実写系のLora自作に取り組んでてYouTubeやブログを見ていくつか作ったんですが出来の悪い物しかできません。
Loraの作り方もいろいろあるようですが、品質のいい物を作るのにおすすめのサイトがあれば教えてほしいです。 >>609
team viewerを使って泥タブで自宅PCをリモート操作してる。 >>609
デスクトップにローカル環境構築してVPNで繋いでやってる masaCtrl という新しい拡張の使い方は分かりますか?
インストールしたけど何も出ません >>611
画像編集ソフトで一部を切り出してinpaintしてまた元の位置に戻すとかどうですか? >>625
読んでみたけど説明が簡素過ぎて全然分かんなかった…
理解すれば簡単な事なんだろうけど いずれloraでサクッと好みのオリジナル3Dモデル生成して、そいつで思い通りの動画作成とかも出来るようになるんだろうな
その際の要求マシンスペックは... >>633
実は画像データより3Dポリゴン扱う方がよっぽど負荷は低いんやで…
StableDiffusionが2Dしか扱えないから、めちゃくちゃな拡張方法で無理やり奥行き付けたりしてるわけで
すでにモデルデータ形式は煮詰まって汎用化されてるし、映画業界やゲーム業界の資産、特にUnrealが動けば一気に世界が変わる
ついでにGoogleやテスラの撮影資産から3D起こせばゲームで遊べる仮想空間レベルの物は作れるっていうか、数年前から動いてはいる AIでイラスト生成した画像ってAIって分かるもん?
いかにもな破綻した画像は除くとする。 すでに判別するaiがあったりする
ほぼ的中させてくるとか フォトナで渋谷再現してた日本人いたじゃん。衛生画像とGPS座標付の画像をAIに処理させてーとかだったはずたが……そういう話とは違う? ピッチリスーツ みたいなのが性癖なんだけどこの
「ピッチリ」ってどういうプロンプトで出るんだろ
和訳するとyoung なのは笑ってしまった >>638
ぴっちりしたスーツは英語で "fitted suit" または "tailored suit" と言います。これらの表現は、スーツが身体にぴったりと合うように作られていることを指します。 >>588
この値段で最近珍しくドライブ付きなのに
まさかのDVDで草
そこはBD対応しろよ
マジレスするとCPUが無駄に高性能で金額上がってる >>627
手探りでやれ
渦巻きが出たら過学習、特徴出なきゃ学習不足
そもそも学習元のモデルが出力に対応できてない場合もある >>642
俺も知りたかったからChatGPTに投げただけだよどういたしまして txt2imgで生成して画像の高画質はHires使えばいいけど
過去に生成したものを高画質にしたい場合
i2iだとwidthとheightを2倍にするより
綺麗に高画質にする方法ってありますか?
i2iだとHires ないからMultidiffusion使うしかないのかな
Hires 便利なんだけどなんでi2iにないの >>632
すいません。
そのうちもう少し分かりやすくはします。
自分のPCで出来る人やColabに課金してればもっと簡単です。 >>645
i2iじゃなくて
その他にブチ込んでアップスケールできないっけ? 今なら日本語対応のrinnaちゃんをローカルに構築出来るで。VRAM16GB必要らしいが 外国語でやり取りするときに便利なんよね
〇〇を〇〇語にしてに
可能な限り親しみを込めて
とか
可能な限り承服しかねる、不服である意味を込めて
って付けてやるとその通りに文章作ってくれるのはマジでありがたい >>649
colab課金民だけどサッパリだった
まず初見のものを色々省略されたら意味分からんよ
どこをどうコピペするのかすら記載されてないし
猿でも分かるように実際に作成手順まで画像付きで説明してくれよ >>611
inpaintの範囲ならOpenOutPaintのインペイント機能とか駄目なの?
あれは512*512の範囲だけ読み込んで処理後に貼り付けてる感じだけど。
自分は似たような拡張のHua使ってるけど、機能的には変わらない感じだったし。 >>655
とりあえずポーズとかを出すことを優先してガチャを引いてdepthで手だけ修正ってしたほうがいい気がする >>636
「ほぼ」ってのが厄介で、逆に濡れ衣の可能性も出てくるわけだし
ああいうのはいたちごっこになるのが目に見えてるからな 自分は手がおかしい時はstepやデノイズを変えて妥協点を探す >>654
分かりづらくてすいません
コードは書けても説明が苦手で・・・
ブログも初めて作ったので本当にごめんなさい
一応Amazonでも無料で出来ますよってことなんです chatGPTには女子高生風に喋ってもらうと間違いも大体許せる Amazonのって人が多くてGPUインスタンスがなかなか立てられないって聞くけど
そんなことないのかしら 拡張機能の再インストールって、
ディレクトリ消してextensionから入れ直すだけでいいんだよね? 兎にも角にもこの娘(リアル系)の顔だけ、でもしかし色んな表情も欲しい
そう言ったloraを作ろうとした場合に必要な画像ってどんなんが良いの?
結構髪形を変えて来る娘なので、それらを混ぜ込めても問題無いのかな?
全身・上半身・生首・背景有り無し...etc
枚数とか繰り返しとかエポック数とか諸々教えてくれると歓喜する >>663
それはPapespaceのことだと思います。今はほぼ無料は無理です
話はそれますが2~3年以内に1枚の写真からAVを作ることが可能になるのは間違いないと思うのです
なのでお金に余裕ある方以外は無料枠でもloraを作りまくっておいた方がいいのかと思ってAmazonを紹介しました。
lora生成は別スクリプトなのでそのうち公開したいですが上手く説明できる自信がありません inpaintとdepthで手だけ修正してるんですが、何回やっても奇形になります
Lora抜いてもプロンプト抜いても改善しなくて詰まったので何か解決策あれば教えてください… poenpose editor の棒人間の操作のコツがいまいちわからん
特に頭なんてどう動かすとどうなるかが全然だ
なんか説明サイトとかないかな Loraスゲー……
適当に少しだけ学習させただけなのにここまで出来るとは思わなかった >>668
簡単に言うと、まず棒人間の胸元というか赤い点が首の付け根で
そこから伸びる青い線の終着点、青い点が鼻
そこから2つに別れた紫っぽい線の終着点がそれぞれ右目と左目、
右目と左目から伸びた線の終着点が右耳と左耳になる stable diffusionについて質問よろしいでしょうか?
1111のローカルです
マシンはNVIDIA GeForce GTX 1060 6GBで、専用GPU6GB、共有GPU8GBの合計14GBです
VRM6GBです
gitからインストールしました
inpaintを使うと、消しゴムツールで塗りつぶした部分が生成後も青っぽく残ってしまいます
再インストールやVRAMを低くする設定など色々試しましたが改善できません
グラボが低いのが原因でしょうか?
解決策がありましたら教えてください
https://imgur.com/0orZcx6
https://imgur.com/7cXbBfC
https://imgur.com/30wZl30 モデルはEl Zipang1.3を使って
リアル系下着着衣自撮り風を作成してるんですが、高確率でパンツがモッコリしてましまう…
紙オムツみたいになったり、なんなら男の娘か?って感じだったり。
>>638
>>639
を見てfitted pantiesとかtailored pantiesを入れてもダメ
良い呪文はございませんか…? 1,00以来更新してないのですが
現時点で、1.21をインストールするのは得策でしょうか?
プールー、ギットプルーじゃなくてクリーンインストールの方です >>673
クリーンインストールでいいなら試してみればいいじゃん
ゼロからやってもキーボード打つのは1分もなく後はただの待ち時間だし >>657 やっぱそれが手っ取り早いんかなー
>>660 ほー、それでも良くなるもん?全く違う絵にならない? >>661
いやいやここまでやってくれてんのに謝る事ないよマジ感謝だわ
無能の古事記まじうぜえ >>674
これ普通足さないんですね
アホすぎてすいません キャラLoraとポーズとか衣装やらエロ系の体位Loraって複数一緒に使えるの?
呪文の順番とかある? ちょっと難解なことなんだが
まず生成した画像で顔と人体のクオリティはOK
しかしYシャツの肩に必要のない太めの青いラインがついてしまった
とりあえずreferenceしたんだが
青いラインまでreferenceすることを忘れてて
Yシャツのあちこちラインが飛んでしまう
これって青いラインだけ消せる方法ありますか?
同じシードで画像出して
プロンプトいじくるしかないかな >>679
一緒に使える。
順番とか適当でも動く。
ただ、配布されてるものの中にはクセや効果の強いのもあるので、waitは要調整。 プログラミングなんて9割即リタイアなんだから1手1手くどいくらいに手順書かないときついはず
今はプログラミング以前にドラッグアンドドロップとかすらわからん若者ばかり >>681
ありがとう
Lora同士の相性とか調整で苦労しそうで沼りそうだね >>636
naifuで作ったのにSDって判定出るんだが No module ‘xformers’. Proceeding without it.ってなってxformersが使えないのだけれど対処法有るのかな
pip install xformersは試してみたけれど解決しませんでした >>686
今は使ってないからうろ覚えだけど、web-user.batのコマンドライン引数のとこに --xformers って書き足せば自動で入るんじゃなかったけ >>687
それは追記してあるのだけど下見たらN/AってなってるしcmdにNo module ‘xformers’. Proceeding without it.ってなってて使われてない sagemakerはあとは学習環境が構築出来れば完璧だな >>673
1111でwebuiならフォルダ名変えておくだけでバックアップになるから
クリーンインストールしてだめなら名前戻せばいい >>688
もしかしてmac?macはxformers使えないよ クオリティ上げたいと思って768,768のLora学習にチャレンジしてみたけどRTX3070だと無理?
コマンドラインに
—dradient_checkpointing
って入れても普通にエラー出て困ってる 768は4090でも結構重かった
まあ倍以上あるからな >>671
色が残るのは仕様だから塗りつぶし色が青いか
もしくはinpaintのDenoising strengthの値が低いかの二択と思う多分 メロンブックスとドラの穴
新規 AI 休止
今の口に買っておかないと
なくなるかもしれないぞ >>625
Studio Labなら普通にstudio labのユーザーURL/jupyter/proxy/ポート番号/でアクセスできる 既存のプラットフォームがAI作品禁止でも
新しいプラットフォームの作り方をChatGPTに聞けばいい
AI作品専用が無限に湧いてきます >>680
確かに状況つかみにくい・・・青い線がいわゆるノイズという認識でいいのかな?
例えば・・・
>しかしYシャツの肩に必要のない太めの青いラインがついてしまった
のその画像(最初の画像)をPngInfoに通してt2iに全ての情報を流した後、
(Seed欄の右にある) Extra をチェック
Variation seed を -1
Variation strength をごく弱く設定(0.01、または0.01未満を手動設定)
Resize seed from width/Height をWidth/Heightと同値に
この状態でガチャして青い線消えたものは出てこない? >>680
>>484の最初の作例を見てインペイントで消せるかも クリーンインストールの話題あるけど、ローカルWeb UIって
任意のフォルダやドライブのアドレスバーにCMD打ってgit文1行で入れられるよね
そういうことじゃないのだろうか
わたしは
普通画像、アダルト画像、拡張機能実験用
と3つのWeb UIフォルダつくってる >>704
詳しくありがとう!
青いラインというより
Yシャツの襟の隙間(両肩)に長方形の青い布っ切れが
挟まってる感じです
青い布っ切れさえなければ最高の画像なんですが
ちなみに教えて頂いた方法では画像が崩れて
inpaintで塗りつぶしてもあまり変わらないですね >>700
情報ありがとうございます
今回はngorkで解決しました
時間があるときに試してみますね おー青い布っ切れ消えた!
と思ったら手と指がありえない方向に曲がってるw SD1.5がSD2.0になると指問題解決するってマジ?
はよ環境移行しないかな
話変わるけど📦がAIイラストの学習に使われた事に関係ない声明出してたけど
📦が無断転載タグ付けサイトな事を完全に無視したクソ理論で笑うわ 法律的には学習者は善意の第三者ってことになるのよな
内部で権利者に支払いが行われているかどうかは外部からは判断できないし
払う払わないはその画像を公開しているサーバーと権利者の問題であって、利用者とは直接関係は無い話になる
わかりやすく似た事例で例えるならば、普通に電子書籍を販売しているサイトがあってそこで電子書籍を購入して学習に使用した。しかしそのサイトが権利者にお金を払っていなかったので問題になったとして、
購入者に責任はあるのかといえば普通に考えれば無いわけ。そのサイトの運営者が権利者にお金を払わなかったことの1点のみが問題なわけで、これは無料で公開されていようが同じなんだよね。 画像を不法に無断転載しているサイトがあって、無断転載と知りながら学習に使用したら? 国内法的には機械学習への使用自体が著作権の例外として認められているから、それが著作権があるかないか、一次ソースか転載物かは問わない予感 >>661
コードのみならずか、手順までアップ助かる! 4060ti(16GB)の販売価格リークが出たね
499ドル、単純計算で8万3千円程度 GRAMばかり重視されるけど1枚辺りの生成速度も大事だよな
どうせ12GBでもアップスケールで4K出せるし
16GBでもHDを直で出すことはまずない
ベンチマークが待たれる 学習時のファイルサイズとバッチ数はどうにもならんから16はあったほうがいいよ automatic1111がすごい横長になって、プロンプトも改行されず横にずっと並べられてしまって見にくくなったのですが、どこをいじってしまったかわからず、
これを治す方法を教えてもらえませんか? >>722
4060tiが4070ti(4070は越しても可)よりもゲーム性能が上に来ちゃまずいわけで…あとはお察し
128bitでも3060よりはトータルでは速いだろうしってところだな 初心者的な質問なんだけど、
モデルは絵のタッチ(大雑把に言うとリアル系なのかアニメ系なのかエロ系なのか非エロ系なのか)
ローラは構図だったりポーズだったりキャラクターだったり色々あるけど、強度によってそのローラっぽくなるって事でいいんだよね?
例えば、山田太郎ってキャラが居たとして山田太郎の顔を覚えさせまくったローラを使えば、顔を山田太郎にして衣装やポーズを変更して遊べるって感じで合ってる? ワイ3060Ti民、
4060Ti(16GB)か4070Tiで悩む
主にコスト面で やはり8万円超えか~高騰で10まで……
安くなる3060で様子見かなぁ メモリ8GB載せて18000円UP
錬金術にも程がある
てかこちらの我慢にも限界がある 皮ジャンのやり口に腹が立ってnvididaの株買ったら
それはそれで含み益あるので複雑 >>724
理屈上はそうだが
山田太郎のタッチやポーズや衣装も全部覚えるからうまいことやる必要がある
ポーズloraもポーズの学習に使ったタッチ衣装全部覚えるからうまいことやる必要がある >>729 自分がloraやる事は無いんだけどcivitaiとかで拾って来るloraで気をつけた方がいい所とかってありますか? 初歩だと思うんですが、解決手段が見つからないので教えて頂けませんか
https://i.imgur.com/P9RxPyc.png
口がopenやcloseを指定しない場合、画像の通りになりがちです
舌出しや大きな口が含まれてて平均値を取ったので口舌肌が曖昧になってる、と推測していますが…
口をガチッと確定するにはどうしたらよいでしょうか
環境はcolabで1111のWebUIです 生成イラストをロリっぽくないようにする方法を色々教えてください
20 years old などを入れる
ネガティブに(((loli)))を入れる
以外に何かありますか?
年齢というより等身を上げたい、と考えてもいいと思いますが
特にi2iで最初から等身が低いキャラの等身を上げたいです 特定の画風を再現したい場合、Loraよりhypernetworksを使うべきなのでしょうか?
それぞれの得手不得手があれば教えていただきたく... automati1111の前回のverが不具合多発ということでずっとgit pullせずにいたのですが、今のverなら更新しても安定していますか?
グラボは3060なんですが、今のverは自動的にPyTorch2系になるそうで、速度的恩恵はないけどXformersを使わなくて済むと聞いてやるべきかなと >>733
身もふたもないこと言うとロリっぽくないモデル使え >>731
この512x196の画像は貼るためにあえて切ったの?
そうじゃないなら196とかあんまやらない方がいいと思う、小さすぎるとさすがにグチャり易いかと
>>733
1girlを1womanにするとまぁまぁ効くかも
>>735
最新はSwinIRが出ないバグがあって
使いたければExtensionsの「Apply and restart UI」を最初に一回押してやる必要がある >>724
コスプレ系のLoRAを学習させるなら
コスプレパーツのみの画像と
背景入りの画像と
背景白バックの画像を
塩梅よく混ぜるとファイルサイズ的に効率良いLoRAが出来る >>738
下半身は露出してるので、申し訳ない
元は512×512出力です ああ・・w
あとこういう感じのはHires.Fixしたら結構よくなったりしない?
HiresしないならDDetailerで顔を精細化とか >>733
ladyが結構効くといえば効く。顔の絵柄も変わりがちだから良し悪しだが ごめんアンカー間違ってた・・SwinIR云々は>>736当てです
Hypernetworksはよくわからない civitai.で消えたLORAどこかでダウンロードできないですかね? >>741
元々がクチャっててもいけるのかな…?
とは思いますが、帰ったらそれぞれ試してみます、ありがとうございます >>736
他スレからの引用じゃが
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/582
>> 549-550
v1.2.0や最新のv1.2.1だとmodel内にサブフォルダやシンボリックリンクを置いても認識されないバグがあるのでお気をつけて
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/10346
devブランチのcb3f8ffに修正があるそうで、ここを直すといいそうだ(あとでやってみる)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/cb3f8ff59fe8f142c3ca074b8cbaaf83357f9dc1
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/598
>> 582
やってみた。サブフォルダやシンボリックリンクはちゃんと認識された
ただ、 https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/cb3f8ff59fe8f142c3ca074b8cbaaf83357f9dc1
とは当該行の記述がちょっと違っていた
自分が直したのは
shared.pyは751行目を「for root, dirs, files in os.walk(path, followlinks=True):」に
ui_extra_network.pyは94行目を「for root, dirs, files in os.walk(parentdir, followlinks=True):」にした
(いずれも、「files」の部分がgithubのページでは「_」になっている)
でもうまくいった
WebUIのモデルファイルを選ぶプルダウンメニューでの表示方法が変更されてる
今まではモデルファイルがサブフォルダにあるかどうかにかかわらずファイル名でソートされていたが
今回の処置の結果、「サブフォルダなどの名前/モデルファイル名」でソートされるようになっている
どのフォルダに入っているのかがわかりやすくなった i2iのInterrogate Clipで
1024 x 1536の画像読み込ませんたんだけど
600秒経ってもプロンプト抽出しないんだが
VRAM16GBでもこんなにかかるもんなの? >>744
>>747
どうもです
更新後はやっぱりxformersの方がいいとかいう意見もあるようでなかなか悩ましい・・・ >>748
ブラウザ裏のDOS窓に進行状況出てるっしょ さっきやっと抽出してきたよ
850秒もかかって40文字のプロンプト
しかも実写系から抽出したら
全く関係ないワードもあるし
この機能あんまり役に立たないね
自分で画像を見てプロンプトを予測した方が早いという >>712
同感・・・補足的に・・・
基本的に、全てのダウンロード者は善意の第三者にしかならない
そもそも、陳列されたそれが犯罪行為によって陳列されていると断定する方法がダウンロード者には一切ない
陳列の許諾をとっているということを確認する義務がダウンロード者に存在していないから、陳列されているものは許諾を暗にとっていると推定するしかない
(その許諾取得の方法が思いつくかどうかは個人の能力頼みなので法で規制できないし、個人がその方法を思いつかなくても他人が許諾をとることに差しさわりはない)
だから、違法ダウンロード云々という例の法では、ダウンロード者が故意に犯罪構成物をダウンロードしたと証明することができない
それっぽいサイトからのダウンロードを忌避するかどうかは個人の感覚によるので、「内心の自由」によってそのサイトはわずかにでも合法の可能性があると考えれば善意のダウンロード行為になる
(例:広告収入などを著作者に還元している可能性があると考えれば、許諾をとってると考えてもおかしくない・怪しさは演出だと考えれば何ら制限にならない)
ちなみに、ダウンロード者に確認の義務を発生させると、マイクロソフトのWindowUpdatreは機能できなくなる
(すべてのファイルの電子透かしをダウンロード前に自分の目で確認せねばならず、ダウンロードまでに数日を要する結果に) 初心者向けのlora学習の初級編みたいなやつはゴロゴロあるけど
Lycoris学習の導入どこ?
loraファイルの圧縮とか抽出も調べても出てこないがどっか載ってる? >>713
それをサイトが無断転載してるとどうやって確定するの?
暗に裏で許諾をとってる可能性がゼロだとなんでわかるの?
裏で許諾をとってることを確認する義務がダウンロード者にあるの?
いずれもダウンロード者には無縁だよね
違法アップロード行為は罰するべきだと思うけど、それをダウンロードしたって違反にできないでしょ
「それ、裏で許諾とってんじゃね~の?・・・その方法?俺頭悪いからわからんで、アップした当人に聞いてや」
で終わってしまいますよ >>730
遠回しな言い方になるけど
・「習近平」というプロンプトでディズニーの黄色いはちみつ熊(くまぷー)を学習させれば、
「習近平」と指示してもディスニーの黄色いはちみつクマが出る
・「習近平」というプロンプトでくまモンを学習させれば、
「習近平」と指示してもくまモンが出る
(この時、背景の紫禁城が勝手に熊本城になる可能性すらある)
気をつけるのはそういうところになる
(上記の例示はあまりにも極端だけどね) >>754
LoRAで事足りるから消えた
なんかやりたいことあるの? >>757
消えたのか
Lora初心者でキャラ学習はなんとなく分かってきたレベルなんだけど
折れた角とか独特な要素を含めて学習させても出なくてな
Lycorisはより精度が高くて容量も少ないとどこかで聞いたから試そうと思ったんだ lora以外のリコリスやら何やら一切手付けてないわ
具体的に何がどう違うのか知りたい 体位LoraってキャラLoraと作り方違う?
乳吸いながら対面座位のLora作りたいんだけど 使い始めて1週間ぐらいです
使用モデルはanythingV4やAOM3系
ちゃんとした脇毛や乳輪、乳首の描写は難しいのでしょうか?
特に脇毛はプロンプトで強めても中々に出てきません
AOM3で稀に出てくるくらいです
後は乳首と乳輪の描写がとても難しくよく分裂をしてしまいます
コントロールネットのinpaintで修正しようとしても中々上手くいきません
anything系はアダルトが弱いらしいのでAOM3と混ぜてもイマイチでした
乳首や乳輪を上手く描けている人がいたら教えてください
三次系ロリ二次系のモデルは使いません
乳輪等の描写がやりやすい二次系モデルがあれば教えてくれると助かります ロジャーディーンみたいなイラストに適したモデルを教えてください >>762
そういうのがお望みなら3次元系のと混ぜたら結構いいのが出てくると思うよ >>763
もしあるなら自分もぜひ知りたい
でもアニメ系イラスト以外の画風だと難しそう >>667
inpaintのみでやるときは数回とかでは納得のゆくのにはならないと思う。とりあえずバッチの8回分流してそのうちで最もマシなのを採用として元絵にセットしてまたinpaintしたり、指6本だったら1本を背景っぽい色で塗って、img2imgでまた絵を作って…とかしてると50回以上とかザラ。元絵を入れ替えてると劣化したり、タッチが変わったりすることもあるし。
自分の手を写真に取って、無理矢理貼り付けてimg2imgにかけるとかしてるのがここで紹介されていて、それを見たときは「いくらなんでも力話すぎるだろ!w」と、思っていたが、労力的にはそっちのほうかいいのではないかと思い始めて来た… >>619
自分の場合、画像サイズが何とかとか、サーバー側のエラーメッセージに出ていたので、同じ大きさの絵のみ置いてサイズ指定したら動いた。1倍、とか、倍率指定だとダメだった。 >>701
webui-user.batの"--xformers" を "--xformers --reinstall-xformers"に変更して一度実行するとどうだろうか。 >>762
anythingv4でもnaked、nudeとかbreastsとかnipplesで出てきたけど
出てきやすさの違いはあるかもしれんけど さっきまで快調に動いていたのに
最新版をzip解凍して上書きすると
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 117964800 bytes.
で256x384でも画像生成できなくなったわ。
webui-user.bat上書きされたけど、元に近い感じでは引数戻しているけどこれは参った PCのメモリは24GB(SD開始前の使用量は6GB)
GTX 1650 superです。
256 x 384+AfterDetailでほぼ失敗なく出力できてました >>772
まぁとりあえず低解像度でやってみたので、後日3060 12GBに変えるよ
ファイルの上書きによるインストールで挙動が変わるとは思わなかったわ それはファイルの上書きではなくて新バージョンのインストールによって起きているだけでは? chatgptにエラー丸コピして投げたら回答くれるよ ごめん、再起動したら直ったわ
今からRTX 3060 12GB買ってくる もうちょい待って4060Tiの16GBなんてどう? >>777
今のところ、5万円あたりに精神的な壁があるなぁ
円安も進行しているし >>776
趣味に20万投げられないなら辞めとけ
生活を安定させろ >>777
これ、皆思っているだろうから品薄が続いたり、転売屋が動いて当分高値が続きそうでいやだなぁ…手に入るまで発売してから1~2ヶ月かかると読めば、今すぐ3060Ti 12GBで3~4ヶ月位楽しむというのは悪くない選択肢なのかもしれないな >>782
すまん、3060Tiに12GBはなかった… paperspaceで毎日エッチ画像を生成しまくってるけど
最近プロでもフリーのgpu空いてなくてグラボ買うかgrowth入るか悩む
4090でも3~4年使えばgrowthよりかは安上がりだしゲームにも使えるし >>785
そういう問題じゃないとは思うんだが、手動でxformsers入れてみるって話だけど、
前に手動で入れたって書いてたようだけど、venv環境で入れた?
venvをアクティブにしてから入れないと入れたことにならないので >>786
赤ちゃんインストールで入れたからvenvのアクティブにしてからというのも良くわかって無いです
入れ方教えてもらってもよろしいでしょうか? つかぬ事をお尋ねしますが、自分が持ってないLoRAが使われている画像をPing infoからi2iに転送して実行すると Couldn't find LoRA と怒られつつも一応生成されますが、
その後にVRAMが開放されず?にCUDAメモリエラーが出てしまいます。
一度プロンプトを空にして実行すると直るんですが、この面倒くさいのは何とかなりませんか >>787
webuiはvenv環境で動くからpipはvenv内で打たないと実行環境と違う結果が返ってくる
Powershellでwebuiのインストールフォルダ行って .\venv\Scripts\Activate.ps1 を打てはvenv環境に入れる
Powershellじゃなくても入れるけど、好みの問題なので必要ならぐぐってくれ
venv環境に入るとコマンドプロンプトの左側の端に (venv) と表示されるので、その状態でpipコマンド打てばいい バッチカウント1
バッチサイズ4にしてガチャ回してるが
何で画風に統一感ないんだろう
これって使ってるLoRAのせいなの?
hires使ってないしSteps20にしてるだけなのに 二次元絵のエロ特化モデルってどれ選べばいい?
マージモデルとか気をつけるとこある? >>792
あー、わかったかも。
あかちゃんインストーラーとかいうやつだと、webui-user.bat を使わずに、 start.bat から起動してるのか。
c:\sd\start.bat の
set COMMANDLINE_ARGS=--autolaunch
を
set COMMANDLINE_ARGS=--autolaunch --xformers
とすればインストーラ走る。多分。
他のサイトで、 webui-user.bat と、なっているところは全部 start.bat に読み替えないといけない。
公式インストーラとかでいいんじゃないだろうか・・・。 >>797
なるほど起動方法自体が違ったのね
>>794試してなんか出来たっぽいけGPUが読み込めなくなったり起動しなくなったりでいろいろ悪化した結果今復元してる最中だから明日試してみる、ありがとう batch countの連続生成時(generateforeverでもいいけど)に
一回ずつ5分ぐらい自動で休憩入れるとかできないですかね。
VRAM100%が続くのが不安なだけなんですけど。
一気に大量に生成しつつVRAM労わりたいとかいうズボラなは無理ですかね。 >>738
これが答えに近かったようです
512×512でなく、縦長か横長で解像度上げると微妙表現率下がりました(Hires.Fixも解決になりそうですが、何回かでエラー吐きだした)
ありがとうございました >>799
そういう機能はないから取り敢えずグラボ側でパワー制御するしかない >>784
paperspace課金してるなら
せめてメンテ予告メールぐらい読もうよ・・・ >>799
pyautoguiとmsi afterburnerを使ってGPUの温度が下がるまで待って下がったら生成って感じでずっと走らせてる >>788
tiled diffusion入れて、「Free GPU」を押すとかどうだろう >>805
あれの効果がわからないんだけど意味あるん?FReeGPU タスクマネージャーでメモリ見てるとちゃんとリフレッシュされてるよ あかちゃんて何ぞ
と思ったらそういうやつね
この程度の環境設定どこで躓くのか意味わからんが、そういう人用のもの? モデルを5個以上入れたらEasyNegativeとか読み込まなくなったんだけど制限ってあったんだ。
それともVRAMしょぼいとモデルやembeddingの中って極力少ないほうがいい感じなの? >>809
モデル数は同時に全部読み込むわけじゃないから特に関係ないはず。
embeddingもファイルサイズが小さいから普通に使ってる分には問題が出ることはまずないと思う。よっぽどメモリがかつかつだったら疑うくらい。
増やしてなんか影響するとしたらどれかのファイルが破損なりして読み込みエラー起こしてるとかそういうものの可能性が高い気がするけどな > 制限ってあったんだ
勝手に納得するな!
ramdiskにモデルを5つ突っ込んでメモリカツカツになったとかだったら笑う RAMディスク運用してるけど90GB割り当ててるからモデル10個入れても快適だぞ >>813
なるほど、そこをよくわからず弄っちゃってるのか
settingsのstable diffusionのCheckpoints to cache in RAM
デフォでは0なのを・・ >>813
できるけどメモリリークする前に勝手に開放するぞ する前に開放してるならメモリーリークとは言わないんじゃないかな >>733
遅レス
civitaiの「Age Slider」ってのがあって、成人をロリに寄せるのがあるけど
逆はcoming soonなので待ってれば作ってくれるかも
作例であえてポジにロリネガ入れてBBAっぽくしてるようなのあるけど、効果不明 そもそもメモリ不足が原因なんか?
違う気がするけど
エラーなんて出てる?
webuiに表示されてないだけ? 連レスすまん
>>809
エスパーだけどSD2.0のモデル使ってないか
今まで使ってたモデルに切り替えてみ 【政府が隠す3.11】 地震波形が、核実験と同じ
://rio2016.5ch.net/test/read.cgi/earth/1575170033/l50
下のエラー出て動かなくなりました
原因わかりますか?
TypeError: unsupported operand type(s) for *: 'function' and 'float これStable Diffusion XLモデル使えるんかな? あー別にローカルで完結するわけじゃないんか
UIだけローカルでサーバーのAPI叩く感じなので AUTOMATIC1111_webui\python310\python.exe が cloudfront.netと接続してるのに気づいたんだけど
みんなそうなの?ネットとつなぐ用があるのってアプデとか拡張のインストールcivitaihelperくらいしか思い当たらない。
なんのために起動した瞬間接続しだすんだこれ? webUI立ち上がり時にpythonがメモリ4GBちょうど確保しているけど
VRAMと同じ量を確保するということ?
つまり12GBのVRAM積んだグラボだと、PCのメモリ8GBとかだと絶対に動かないということ? >>625
試してみたんだけど
ERR_NGROK_3200
Tunnel ****.ngrok-free.app not found て出て開かんです
colab組だけどこっちも使えたら便利なんで更新まってます lycorisの拡張入れるとエラーで画像生成できなくなります
皆さんはlycoris入れても画像生成できてますか? Amazonのドメインサービスだよね
何されてんだか >>826
アクセス先のFQDNがわかれば、どのドメインのやつがcloudfrontのCDN使ってるか、digコマンドとかでわかる。 自分で描いた絵をAIに読み込ませて、不自然なの修正させて、
それをさらにトレースして描き直すというのはAIで生成したことになるのかな?
以前から自作絵で同人サイトで稼いでいるんだが、そういうのは著作権関連で
法的にどうなのかなと。 >>832
違う。CDN(コンテンツ配信ネットワーク)。負荷のかかるWebサーバーの静的コンテンツをキャッシュしたりして、大元のWebサーバーの負荷減らしてる。 >>830
自分も同じエラーに。
ngrokのことがよくわからず、1時間位悩んだけど解決せず… マージってやつをやってみたんだけど、それ自体はあっという間に終わったけどSSDへの書き込みにものすごく時間がかかってていつ終わるかわからん
これって正常? output directory変えたら普通に行けた。すまん >>840
Settings→上から2番目のPaths for saving >>839
おかしいと思う。839が言う「それ自体はあっという間に終わった」時点で
データは出来上がって保存してるよ >>843
まじか
やっと保存が終わったけど30分以上かかった 1111ローカルを使ってるんだけど、アニメや映画のワンシーンを切り取って背景などなるべくそのままにして、
メインで写ってるキャラだけをプロンプトで作りたい場合はどういった手段を使うといいですか?
ちょっとi2iでやってみたけど元のキャラに引っ張られてプロンプトのキャラがきれいに描写されなくって悩んでます。
my prompt is more importantにチェック入れても微妙でした。 メモリは32GBで使用量は19GB位だったから問題ないはず
中国ブランドのSSDがクソなのかな >>846
my prompt is more important はコントロールネットのopen poseでやってました >>846
使ったことないけどControlNetのreference-onlyってのがいかにもあってそうな・・
ジコログってところの説明が分かりやすかった
>>847
CrystalDiskMarkでどのくらいかとか見た方がいいかもね・・ 今見たら「reference_adain+attnがベスト」って記事があるけど、846のやりたいことまんまかも? >>830
>>836
すいません。
もうちょっとだけ分かりやすくするように頑張ります。
ngorkはエラーが出るんですがクリックすれば大丈夫なんですけど説明足りないですよね?
今はkaggleのコードを書いててAmazonとkaggleで合計1日8時間GPUが使えたら高スペックPCがない人でも大丈夫になりますよね >>849 >>850
ありがとうございます。記事見つけたので読んでみます! って、ごめんちゃんと読んでなかった
背景だけ生かして、「キャラは全く別に変える」のか、たぶん違った
上のは全部そのままでポーズだけ変えたりするやつだった 詳しそうなんで聞きたいんだけどその負荷を減らすCDNにうちのAUTOMATIC1111は何の用があるんだろう?
ネットの用は前述の通りで必要性がわからず、まして起動した瞬間接続されるのはおかしく思えるんだが。
素人向けに解説いただけるとありがたい。 >>854
繋いでるのわかるならダウンロードしてるファイル分かるんだろうから、
そのファイルダウンロードしてみればいんじゃね?
CDNだったらデータをアップロードするとかじゃなくて、一方的に何かのファイルとかをダウンロードするはず 画像生成そんなcpuパワーいらんって言うけど
もしグラボ買い替えたら今使ってる3060tiって
前のPCのivy bridgeでも行けるかな
ゲームは一切しない >>854
なんか今どきはSSL証明書の照会するのにもCDN経由とかになってるかもしれないし何で必要としてるのかはわかりにくいかも
ttps://xtech.nikkei.com/atcl/nxt/news/18/15238/
ってこれ見て思った >>857
お前日本語よくわからんけど
グラボ買えると電源から何から変える必要あるから
正直生半な気持ちでAIイラストに足踏み込まない方がいいと思う
30万のゲーミングPC使ってるやつが趣味でやるのがこの世界 >>857
確かに文の構造がよくわからないけど
とりあえず3000シリーズのグラボ搭載PCを新しく買ったらいい
3000シリーズの性能があれば趣味で使う分には困らない 趣味の世界で一式30万だろ?脅してくる人初めて見たかも >>859
趣味で3000万と2000万のクルマをガレージに置いて見て楽しんでいる俺からすると
おまえは器とチンコの小さい人間やな 趣味としては安い方だろ
金銭感覚が学生かニートで草生えるわ
脅すならケタ2個少ねえよ >>537
突破できたかもしれん
画像ソフトで解像度下げてjpg保存したらAIの可能性が一桁まで落ちた >>860
ERR_NGROK_3200
は相変わらず出ます
agentが起動してないとかそういうエラーっぽいですが
ngrokのサイト方を見るとセッション履歴っぽいのが「agent起動」ボタンの下に見えるような気がします >>860
乙です。myWebUIフォルダを削除して1からやり直してみましたが変わりませんでした
Model loadedまではうまく進んでるけどlocal URLlが出る前に止まっちゃいますん
Traceback (most recent call last):
(略)
File "/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/modules/ui.py", line 1255, in create_ui
fn=wrap_gradio_gpu_call(modules.textual_inversion.preprocess, extra_outputs=[gr.update()]),
AttributeError: module 'modules.textual_inversion' has no attribute 'preprocess' 俺の60万したけど衝動買いだな
これで個人向けの頂点なんだから安い趣味だよ
ほとんどの趣味が60万じゃ中級者にも届かん >>857
いけるでしょ
俺のPCがi5-3570kだよ
3060買ってメモリ32GBに増設して学習してる お金持ちマウント大会はっじまっるよぉぉぉぉぉ!!!! >>868
myWebUIフォルダを削除すれば行くと思うのですが、もしかしたらランタイムがCPUになってませんか?
sagemekerはみんな同じ環境なので、ngorkのアクセストークンをきちんと入れて
コピーしたコードを貼り付ければ上手くいくはずなのですが
あとは、トップページ「https://studiolab.sagemaker.aws/users/ユーザ名」に戻って
「stop runtime」を押してからもう一度「start runtime」を押してもう一度「open project」で
再開してくみてください。
消すときはセルに
%rm -r /sagemaker-studiolab-notebooks/myWebUI
で全消しできます まあパチスロギャンブル車バイク楽器オーディオとかと比べるなら金かからないけども すみません投稿してしまいました
・ローカルでStable Diffusion web UI AUTOMATIC1111を運用しています
・ControlNet, Alter Detailer, Tiled Diffusionなどの拡張機能の設定値(パラメータ)を保存・読み出ししたいです
・拡張機能のConfig-Presets https://github.com/Zyin055/Config-Presets も導入しているのですが、
プリセットを変更するたびに拡張機能の設定がすべて初期化されてしまってどうしたらいいか困惑しております
「Stable Diffusion 拡張機能|ControlNet 設定|パラメータ 保存」等でぐぐっても情報を見つけられず躓いております
よろしくお願いいたします! 個人向け頂点は Quadro RTX8000の2枚差しとかあるもん・・・ >>867
電話番号を登録してインターネットに接続するとかがあったかもしれません。
電話が1個しかなくて試せないのですがそれかもです。 >>854
それはパケットキャプチャしてみないと分からんかと >>872
むしろcolab無料民やら乞食多すぎて草生えるわ SDの凄まじさを目の当たりにして自分は10年ぶりにPCを更新する事を決意したぞ
でもSDいじりすぎて環境を移行する暇が無いw AmazonのでkohyaSS起動させる奴誰かアップしてくれー
colabより長いセッションを活用したい 太もも抱えポーズ作りたいんですが、どんな呪文の組み合わせで出来ますか? >>879
感覚麻痺しがちだけど世間一般ではグラボ付きPC持ってる時点で珍しい部類に入るだろうからね
今でもスマホしか持ってない人が多いから元祖のNovelAIはまだまだ需要あるみたいだし >>873
んー当然GPUですがなんか違うんだろうかなあ
%rm -r /sagemaker-studiolab-notebooks/myWebUI
すらいろいろ場所変えてもフォルダ無いよてエラー吐く始末。見えてるのに >>884
ディレクトリ
/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI
でした。すいません。
%rm -r /home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI
です。 キャラ再現Loraは理解できたんだけど体位とか特定のポーズ指定するLoraってどうやって作ればいいの? どうもです ライトプロテクトかかってる奴があるけどyキー押せなくて消せないw
ファイル消したりしてるだけで4時間だ
あきらめたんで誰か動いてたら報告しちくり >>889
お前の人生なんて価値無いのに金掛けて生きてて何が楽しいの? 趣味に30万出せないレベルなのか?
って意味で言ったんだがなんかうまく伝わってない >>891
昔と違って日本は思った以上に貧困なんだよ
後進国になってる >>891
だってここにいる人の作る画像って
何十万もするPCで作ったゴミ画像じゃん? 初心者質問で申し訳ない
i2iでアップスケールすると必ず元絵に近いものを4枚くらい並べてぐちゃぐちゃにした絵が出るんだけどどうすれば綺麗に元絵を拡大できるんだろうか
前スレでCNtileを使うといいというレスがあったから以下の設定でやってみたけどだめだった
元の画像サイズは512×768
Denoising Strength 1
・Tiled Diffusion
Method Mixture of diffusers
Upscaler 4x Ultra Sharp
Scale factor 2
・Noise Inversion
Inversion steps 200
Renoise strength 0
・CN
Preprocessor tile_resample >>895
> Denoising Strength 1
1? ごめんスレ間違えた
前スレでと言ったのはNVA部の方でDenoising Strengthを1にするというのもそこで出てた話だった
改めてあっちで聞いてみる
tilingにはチェックは入ってなかった
回答ありがとう こういう背景を無視して2分割?したような絵がまれによく出るんだけど防ぐプロンプトはありますか?
i.imgur.com/8YXod2n.jpg
URL貼るとエラーになるのでスマン >>898
それ書いた自分もここ見てるから、別にここでもいいよ >>899
ネガに(multiple views:1.2)とかやってみてどうなるか >>895
アップスケールしたいだけならi2iの右のタブからアップスケールしたほうが早くデカく簡単にできる
ただのアップスケールじゃなくて書き込み増やしたいならタイルしかないけど >>873
ngrok connected to localhost:7860! URL: https://xxxx-x-xx-xxx-xxx.ngrok-free.app
You can use this link after the launch is complete.
Calculating sha256 for /home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/models/Stable-diffusion/darkSushi25D25D_v20.safetensors: 2d0010aca52543f20f37730b9f7ef9d048de26dc103de23afcd0d7cb669e37a5
Loading weights [2d0010aca5] from /home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/models/Stable-diffusion/darkSushi25D25D_v20.safetensors
Creating model from config: /home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/configs/v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying xformers cross attention optimization.
Textual inversion embeddings loaded(2): negative_hand-neg, bad_prompt
Model loaded in 12.1s (calculate hash: 5.7s, load weights from disk: 0.2s, create model: 0.9s, apply weights to model: 1.3s, apply half(): 0.6s, load VAE: 2.7s, move model to device: 0.6s).
Traceback (most recent call last):
File "/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/launch.py", line 361, in <module>
start()
File "/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/launch.py", line 356, in start
webui.webui()
File "/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/webui.py", line 205, in webui
shared.demo = modules.ui.create_ui()
File "/home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI/sd-webui/modules/ui.py", line 1255, in create_ui
fn=wrap_gradio_gpu_call(modules.textual_inversion.preprocess, extra_outputs=[gr.update()]),
AttributeError: module 'modules.textual_inversion' has no attribute 'preprocess' RTX4060TIの16GBは狙う価値あると思う? >>905
価格的に皆無
素直に4080か4070tiがいいかと
学習にも12GB有ればメモリは不足しないし
そもそもメモリ多くても速度に不満出るだろ
ゲームにも向かないし >>904
すまん、途中で投げてしまった…
同じ事象で詰まってる。
WebのURLは表示されるんだが、接続前に WebUIのサーバー側が上記のエラーで落ちるので、 https://xxxx-x-xx-xxx-xxx.ngrok-free.app を開こうとしてもつながらない(ERR_NGROK_3200
Tunnel xxxx-x-xxx-xxx-xxx.ngrok-free.app not found 表示になってしまう。
> %rm -r /home/studio-lab-user/sagemaker-studiolab-notebooks/myWebUI
セルから実行するときは、 %rm -rf じゃないと、 yes/no 判定が出て消せない気がする。 やってみた
プロンプト 3+girls, group shot, High school girls, school, photo shoot
ネガティブ EasyNegativeV2, negative_hand-neg
サンプリング ++SDE Karras ステップ20 CFG10
512x768 通常出力
https://i.imgur.com/4RDXqrT.png
hires.fix 2倍アップスケール デノイズ0.5 hiresステップ0 アップスケーラー 4x-AnimeSharp
https://i.imgur.com/0XOS5wp.png
512x768通常出力画像をi2i
https://i.imgur.com/ITPKdH1.png
・++SDEKarras step20 CFG10 Denoising strength1
Tiled diffusion
・Method Mixture of Diffusers
・width height 96 96
・overlap 32
・batch size 4
・倍率2
・upscaler 4x-AnimeSharp
Tiled VAE ・Encoder Tile Size 1920
controlnet ・tile_resample control_v11f1e_sd15_tile
こういう小さいサイズでtile diffusionやったの初めてだけど特に問題はないんじゃないかと思うのだが
何か他に設定あったっけ? ああ、もちろん
Noise Inversion
Inversion steps
200
Renoise strength
0
です >>908
おー
hires.fixより明らかにいいね なんでお前らのはi2iタイルで絵柄変わるのに俺の環境だと変わらねーんだ
色々試すか ふと思ったんだけど、新品の3090ってもしかしてアリじゃね? >>905
ここで新しいGPUを買おうか相談しても、一番ユーザーが多いであろう3060 12GB所持民の嫉妬でまともな回答得られる訳がない
入門者なら16G絶対買うべき
いずれ16GBがデフォになる時代がくる >>904
こっちも同じ出力とエラー
ngrokもgradioも詳しくないんだけど
両方が混在してるのがちょっと気になる StableDiffusionについて、
PNG Infoで画像データを読み込み、プロンプトをsend to img2imgに送る
その画像ソースとプロンプトを使って画像を生成
という一連の流れを自動化するスクリプトや拡張機能ってありませんか?
Batch機能みたいに寝てる間に複数の画像を一括でi2i生成しておいてほしい うごいた~~~~
ググりまくってgithubにあったのでいけたわ
こっちもパスが変で事前に"SageMaker"ってフォルダつくっとくのがミソだ
Studio Labで動くということを知れて良かったよ >>907
取得してきているWebUI のソースが古いようで、 >>919
git pull したら落ちずに動くようになった。
リンクは git diff したときの差分 ( ui.py )
https://imgur.com/a/puTtITv >>920
ありがとう
初歩的なことだった
こっちもgitで再配置したら動いたわ
でもこれどうやってoutputフォルダをローカルに落とすんだろw >>921
terminal から zip で固めて、Jupyter Notebook のファイルエクスプローラーから zip 右クリック>ダウンロードしてる。 >>895
CNの方のmodel指定してる?
control_v11f1e_sd15_tile 絵生成は一通り遊んだので次にlora学習をやっているんだけど
なかなか上手くいかない・・・
キャラloraとかではなく物loraとかを作るコツとか有るのかな?
背景切り抜いた方が良いとか逆にいろんな環境の画像でやったほうが良いとか・・・ >>913
買える金があるなら買っとけ
金が足りなくて悩むなら、もう少し後で良いやと思うくらいなら3060で今すぐ体験しとけ 2人の男女が写ってる構図のLoraってどうすれば作れる? >>922
アリガトン
AWSは初なのでちょい勉強してみるわ >>924
まず目指す画像に近いのが出るモデルを探します
そもそもモデルが画像を理解できないと学習の意味がありません
背景はそのままでないと白背景しか出さなくなります
イラストAIは3Dを理解できない生き物なので角度で大きく変わるモノ、構図は別物として学習させるのが良いです
学習も回数を増やしすぎると不要な特徴まで学習するのでいろんな学習回数で試してみましょう
出力に謎の渦や謎の線が出るのはだいたい過学習です >>927
体位とかでない限りLoRAよりもプロンプトで制御したほうが早い
あと男性が出せるモデル自体が少ないのでまずちゃんと男が出るモデルか確認して、出ないときはマージしてモデルから作るといい >>931
体位出したい場合はキャラLoraの時みたいに男女が写ってる表現したい体位の素材画像用意すれば学習できるの?
プロンプトで無理矢理出した顔とか破綻してる画像何枚かあるけど学習に使えるのかな >>932
体位の場合はまず目的の体位で男女が絡むかプロンプトで確認して
確認したら表現したい体位の画像を用意だ
キャラと違う所は視点似通った画像を使うことと登場人物はバラけさせること
顔は破綻してても問題ない、そこは学習させたくないから >>894
億単位に近いスポーツカーを日本の道路で廃車にする職業の人もいる
好き好きでいいじゃん 教えてください
WindowsでLocal版のWeb UIに、
SwinIRをExtrasに導入するため
検索でみつけたページに記載のとおり、
github.com/JingyunLiang/SwinIR
から Code > Download ZIPで、SwinIR-mainフォルダと
github.com/JingyunLiang/SwinIR/releases/
の Show all 48 assetsから
003_realSR_BSRGAN_DFOWMFC_s64w8_SwinIR-L_x4_GAN.pth
ファイルを手にいれたのですが、これらはどこに配置すればよいでしょうか
単純に
\stable-diffusion-webui\models\ESRGAN
にpth入れるだけでは、ExtrasのUpscalerに項目が現れずこまっています
このフォルダ(SwinIR-main)もPythonで
パスが通っていないのだと思いますが、Local版ではCMDで
どうやってやるのでしょうか 金のあるやつは RTX 4090を買って
金のないやつは RTX 3090を買え
以上 3060 12gbのpc買ってAIお絵描きを知った。
もう少し早く知ってれば。。 lora作りで差分抽出法のやり方教えてください
顔だけ学習させたloraと服だけ学習させたloraを組み合わせるってことですか? EasyNegativeみたいなembeddingsの作り方教えてくれ LoRaで服とかは学習できるみたいだけど
髪型だけってのは無理なんかなタグ抜きしてみたりしたけどうまくいかんのよ 肌の色をLoRaで学習させても反映されない
と思ったらモデルによって違ったりファイルによっては反映されたり色々あるのね 全ての趣味はゴミと隣り合わせなのに何をいまさらって感じよな
画像生成を狙い撃ちして論いたいんだろうけどそりゃ無理な話だ
ワイらが電力会社によって生成に差があるって言い出したらその時にはおちょくりにきてもいいかもしれんね >935
SwinIRなのでESRGANではなく、SwinIRフォルダに入れる >>894
純粋だったあの頃、憧れだった女の子のヌード写真集なんて
億出しても手に入らねーよw
まぁそれ以前に俺のPCなんか5万円だけどな 純粋だったあの頃の憧れの女の子の写真なんて持ってないし、持ってたとしても画質悪すぎてあーた 12Gで十分とかいうやつは8Gでも事足りる使い方しかしてねーだろ やれることを知れば知るだけスペックが足りなくなっていく >>937
4080か4070ti買わせろよ
3090の電気代ヤベーぞ 正直、他人にどんなグラボがいい?なんて聞くようなレベルの人間が
画像生成AIを有効活用出来るとは到底思えねーけどな 4090 かねもち
4070ti ゴリゴリやりたきゃ
3060 12g 金かけたくなきゃ
その他のNVIDIA Vram6gb お試しなら わざわざ買うならお勧めしない
の4択だろ まぁ、そもそもまともに絵も描けない奴が使ったところでどうかって話もあるがな 感性と技術的な能力は別もんだからなあ
知識や技術があってもそれだけじゃねぇ
まあ誰でも最初は初心者ってこった グラボは12GB以上推奨らしいので、グラボを新しくRTX3060にしたのだけど、
タスクマネージャーみると6GBぐらいしか使ってない。
どんな使い方すれば12GBぐらいまで行くのでしょうか? >>959
Lora作成
高解像度化
とりあえず、このスレを1から読んで
たぶんどっかに書いてある >>953
同じ話なんだよ
電気代が高いって思うんだったら
コラボとかので画像作ればいいし
そうなると逮捕されるかもしれないなら
デジケットとかでお金出して買えばいいし
自分でできないからって言うなら
RTX 4090を買え >>959
ローラ 作成と高解像度かしなければ
2枚同時に作成していけば 12gb 使うよ
単純にスピードが上がる 絵かきや写真家で知識があるやつがAI使いだしたらセンスのない素人はかなわんよ 絵を描く家庭をやりたいのか
絵が欲しいのか
それら同一に語っても話が合わない >>964
まともな返答期待するだけ無駄な煽り野郎だって >>966
反 AI はそこのとこ理解していないのか
デジタル使うやつと使わないやつで差が出た
AI を使うやつと使わないやつで差が出る
自分たちの生き残りを考えた方がいい >>956
俺もこの感覚だわ
その上で4070tiの金くらい出せよと思う 少し前にTwitterでクソ雑なラフからi2iで絵を出してた奴見てメチャ笑った
AIイラストはアナログ絵からデジタル絵への変遷の延長なんだよ
ただモデルの出自が📦とかいうクソサイトなのが悪いだけで VRAM6GBだけど何やるにも足りねえと思うわ
単純に画像生成出来れば良いやぐらいで満足するなら
まあ話変わるけどAmazonでパソコン買おうとするとVRAMって書いてない事多くて通販だと何処で買うのが良いかね? 売れ線で生産絞るとPS5みたいに転売ヤーが生まれて供給不足になるから困るが
4070の場合は生産中止でも問題無い気がする
その分上位や下位の生産増やして値下げに貢献してくれないかな ぶっちゃけ4070買うなら価格差そんなないtiに行くだろうしな
4060tiも控えてる
正直こっちは地雷臭するけど 3連ファンのグラボが物理的に入らないから4060Tiにはちょっと期待 >>979
俺も1650 superだわ、192px x 256pxじゃないと安定して動かない、顔も崩れるし どんなにいいグラボ積んだとしても
自分の意図した画像は出来ませんよね
単にゴミ生成速度が早くなるだけ 問題はゴミがゴミだって気付くのにも最低限の知識と経験は必要ってことなんよ 既存の写真をi2iで取り込んだら、モデル準拠のお顔にならず薄っすいお顔になるのはなんでー? ゴミしか出せないプロンプタならそうだろな
でも打率低くても0じゃなけりゃ玉石から玉拾えるんだぜ ここにいる人達は、趣味でAI使おうとしてるの?
それともプロ?
または同人? X/Y/Z plotでCheckpoint nameを使ってmodelでの違いを見ようとしてるのですが、選んだモデルを読み込んでくれなくて違うモデルを読み込んでしまいます。
同じ症状の人っています? 一度隣の貼付けで読み込んでみたら?
それか最新版は不具合有るそうなのでそのせいかも >>991
隣のやつで読み込んでみたけどダメでした。
最新版(1.2.1)なので不具合ですかね。 自分も最新版だがちゃんと使えてるんだよなぁ
後次スレ
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/ もう勢いがない事が分かったのに未だにワッチョイスレ立てるバカがいるんだなw ごめんテンプレこっちにコピペしちゃったわ
ワッチョイ付けなかったけど? >>996
ここだけ付いてないからワッチョイ付けて統一しようとしただけだけど?
むしろワッチョイ如きで身バレするのかとビビってるんだろお前
つーわけで>>996みたいな奴ばかりで過疎るだろうけど
一応貼っとくわ
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
http://mevius.5ch.net/test/read.cgi/cg/1684577389/ >>990
もしかしてPNGinfoからプロンプト読み込んだりした?
その場合シードの下に「設定を上書き」って項目が出てそこでモデル指定されてるかも
これでてる時にxyz plot使ったら同じように指定していないモデルが読み込まれた経験がある 需要がなかったことに事は前スレで明白だったのになワッチョイ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 13日 9時間 22分 59秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。