【StableDiffusion】画像生成AI質問スレ5【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ3【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1678428918/
【StableDiffusion】画像生成AI質問スレ4【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1678970566/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
【StableDiffusion】AI画像生成技術16【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1679058984/
【StableDiffusion】AIエロ画像情報交換16【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1678056538/
なんJNVA部★168
https://fate.5ch.net/test/read.cgi/liveuranus/1678402781/ ●FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用 ■質問する人へ
利用しているStable Diffusionと学習モデルをなるべく詳しく書いてください
「こういう画像が出てしまう」だけでは答えようがありません。症状が出ている画像を示すと解決が早まるかもしれません
補足
なんJNVA部★176
https://fate.5ch.net/test/read.cgi/liveuranus/1679571571/
【StableDiffusion】AIエロ画像情報交換18【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679322640/ multidiffusionとoutpaintingの違いは何?
1発で巨大な絵を出さなきゃいけない理由があるのかな >>7
元ある絵の外側を描くのと、絵そのものを高解像度で描くのは全然意味が違う >>7
あ、順番逆だから勘違いされそうだな
outpaintが絵の周囲を描くで、multidiffusionが絵そのものを詳細な高解像度にできる、ね
理由なんて聞くまでもない
小さい解像度で人物の顔が潰れてるよりも大きい解像度で詳細に描かれたほうがいいに決まってる 新しいモデルとか新しいLoRA試す時とかに取り敢えず何時も入れるようなプロンプト教えて欲しいな >>9
つまり4kmultiで出した512x512の切り出しの方が、普通の512x512より書き込みが多いって事かサンクス
普通の生成でより沢山書き込む方法ってなかったっけか 1tバイト分モデルのマージ(主に差分)を繰り返してたらアスカベンチすり抜けるようになったんだけどこれって不具合?どこかでなにかが破綻しているのか VRAM足りないとPC巻き込んで落ちるのな
ぶっこわれたかと思って焦ったわ >>14
オンボのAPUで試してた時は落ちたけど、GeFoでは特に落ちないな もう15年以上前だけど
dell既製品のnvidiaが突然死したから、プラがパキパキなったりするのが怖い毎日です >>11
使い方ってどこ見てます?
未だにわかんなくてハイレゾfixつかってます >>15
DirectMLつかってるんだったら
メモリリークのバグ持ちらしい これって何のモデルとかVAE使ってるかわかりますか?
https://imgur.io/JM1qav4?r >>19
それ元はこのページだろ?
https://note.com/felelihasima/n/n4210b2269902
何にしてもメタデータがないんじゃ
舐めて鑑定できるAI絵ソムリエを連れてこない限り難しいよ モデルなんて今時無数に作られてるからわかるわけねーよ 出力したpngをプロンプトの欄に放り込むとモデルから何から全部の条件出てくるんだな
知らなかったわ エロゲは立ち絵画像もあるし学習データの宝庫なのでは?
と思っていくつか作ってみたけどキャラがそれっぽくなってもエロゲ塗りが再現できないからイマイチだな LoRA学習やりたくてkohyaSSとlora_param_guiをインストールして
どうせならloconもついでにいれるかと思ってwikiの通りにやってたんだけど
loconフォルダをSD-script直下にいれるのはわかるんだけど
--network_module=networks.loraを--network_module=locon.locon_kohya書き換えるってどういうこと?
lora_param_guiでいうモジュールの種類をLoRAからLycorisに変えるってこと?
あとEasy_Training_Scriptsで最初いれたんだけどそっちを使わない場合はフォルダごと削除するだけでOK? NMKD版の中にWildcardsってフォルダがあって、中にtxtファイルが20個あって、それぞれにプロンプトに使うキーワードのようなものやアーティスト名がびっしり書いてあるんだけど、なにこれ >>19
それは多分7thAnimeV3のCでCFG低めにして作られてる気がする
deepbooruしたプロンプトそのままぶっこんで作ってみたけどこんな感じなんでVAEは特に使ってないと思う
https://i.imgur.com/ZnSJ0xx.png >>24
美少女万華鏡は再現できるぞなんならloraもある >>28
このスレで美少女万華鏡を聞けるとは思わなかった >>25
Wikiのその部分、古いままやな。ちょっと書き直しといた
今は lycoris に統合されてるので pip install lycoris_lora でインストールして、network_moduleに lycoris.kohya を指定する
(元は networks.lora を指定してた)
Easy_Training_Scriptsは使わないならざっくりフォルダごと消してOK >>26
とりあえずそんなこと覚えるよりAUTOMATIC1111に移行したほうがいい
NMKDで覚えると後で苦労しかしない >>26
このページ内をWildcardsで検索する
https://github.com/n00mkrad/text2image-gui
1111だとsd-dynamic-promptsという拡張機能になってる
どちらもプロンプト内にランダム要素を挿入するための機能
例えば髪型やら衣装やら背景やらを規定のパターンの中からランダムに選ばせて生成させて遊ぶわけ >>27
ありがとうございます!
絵柄が好みだったので助かります プロンプト整理したいんだが
1111でコメントアウトどうやるのか誰か教えてください… 美少女万華鏡再現できるとか言ってフォルダ漁ってi2iやってみたけどvaeが合ってなくてぼやけてたのが美少女万華鏡の塗りっぽくなってただけだったかも…風景までやわらかい絵柄になってるし CUDNN 8.6のインストールって中身をlibフォルダにぶちこむだけでもおkですか?
cudnn_windowsフォルダをkohya_ssフォルダに置いてコマンド実行してるんですがInstallation Failedになります
https://i.imgur.com/N0ezEOP.png ローカル1111について質問です
PNG Infoから転送するときに読み込んだ画像と同じモデルに変更するようにしたいです
前までは自動で切り替わってたんですがアプデしたら読み込まれなくなり自環境では不便です
一応検索したのですが解決法が見つかりませんでした ご教示いただければ幸いです controlnet導入して棒人間の画像入れたらstart drawingとかなってうまく認識してくれません
どうしたらいいでしょうか?
file:///C:/Users/arara/Downloads/Cute%20anime%20pose%20controlnet_openpose.png めちゃくちゃ初心者な質問なんですけどローカルmacでstableを再度立ち上げるのはどうすれば良いんですか?./webui.shで起動しないんですが違うのですかね? >>38
Settings → User interface → When reading generation parameters〜
のチェックを外して、ページ上部の「Apply settings」を押す これほんまエグいな
絵師()ガチで現時点で廃業一直線じゃねえか... 質問以外の感想などは雑談スレで
【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1668016418/ そりゃ自治しないとクソばかりになるので雑談は別スレへ行ってくれ
ここは質問スレだからルールは守って欲しい
子供じゃないんだから怒られてキレるとか恥ずかしいことはするなよ >>50
必要あるよ
みんな同じ質問にうんざりしてたからわざわざ切り離したんだよ
ここは本スレや別スレから誘導するためにある >>32
ありがとう、プロンプトに ~~ を入れなければ関係ないのか
勝手に適当なアーティスト調にされてるのか思って焦った CIVITAIの中にchilloutmixが見つかりません、というか、エロ全般が見当たりません、特別な検索設定が必要になったのですか? >>53
今朝成人設定が強化されたので解除してください loconを導入しようとしているのですが
次にこの部分↓を
--network_module=networks.lora
こう↓ 書き換える
--network_module=locon.locon_kohya
ととしあきwikiに書かれているのですがどのファイルの事なんでしょうか? >>49
ルールを厳格にしすぎてもなあ
回答出来る人間が増えるならある程度は容認していいと思うぞ CNで棒人間でポーズ指定して生成しているのですが
棒人間に適用するAND構文またはLoRAを指定する方法ってありますか? >>56
何も厳格にだなんて言ってないでしょ
誘導する理由は、雑談で質問が埋もれるから
それにビギナーが居座ってそのままビギナーがビギナーにテキトーに答え始めちゃうんだよな >>57
棒人間ごとに個別にLoRAを指定したりAND指示することは出来ないね >>42
言うても絵師がガチ利用したら更に武器となる
拒絶だけしてる絵師は頑張れとしか >>42
絵師が廃業するんじゃなくて
AI を使えない絵師が廃業するだけ stable diffusion の質問はいいけど
パソコンの質問は自作すれでも
言ってくれよとは思う プロンプトを売る仕事しかなくなるんじゃないの
絵を描く技術はいらない 予算100万以内でRTX4090とRAM128GB持ったPCを買いたいんだけど自分で組み立てはできない
BTOで予算ギリギリ限界まで使ってもいいとして他のオプションも家庭向けではそこそこいいもの積めるサイトを教えて欲しい >>59
やはりそうですか
回答ありがとうございます 4090でEasyTrainingScriptsでlora学習すると1.1s/itぐらいしかでないですがこんなもんですかね?
ポップアップ版設定ほぼデフォでdim128バッチ8とかでサイズとか512でも768でも特にかわらず
最終的に1.0〜1.1s/itぐらいに落ち着く感じ。GPU負荷99〜40ぐらいいったりきたりです >>61
AIってだけで拒絶してる人って昔だとデジタル作画を非難してたんだろうなって vae使ってると完成直前で落ちる時があるんだけど
なんでもかな?プロンプト変えると落ちなかったり
する。
グラボ3060の12GBで512×763の2倍ハイレゾで
出してるんだけど。モデルはcounterfeitだよ >>66
レノボのカスタムとか結構融通聞くぞ
100万買ってくれるんだったら上客だ おっとここでも落ちる話題が
マルチになるけど許してね
VRAM不足で落ちるときって普通はStableDiffusionだけが落ちるの? パソコンの電源が落ちる?
俺の場合電源が落ちて困ってて、原因がわからない >>61
それな
結局は時代に合わせることができない人間は
どの業界も振り落とされていくだけ 絵師ならむしろ喜ぶと思ったわ
構図とか無限にガチャ出来るのに
トレースだなんだ言われることもなくなる >>71
69だけど
落ちるっていうか98%までいって完成直前で画像が
出力されない事を俺は落ちると表現したよ >>64
https://pc-seven.co.jp/bto/17180.html
ここならケースからマザボまでほぼ全部カスタマイズ可能だから
元値70万だけど100万くらいまで盛れそう >>74
俺も最初の頃なったけど、何度かCMD再起動したらそれ以降フリーズのような現象はなくなった ソフトが落ちたりパソコンが落ちたりした事はない
グラボの温度が100度位いくとパソコンは落ちそう
だよね。ワイは70度くらいだけど >>69
vaeが動くとき余分にVRAM食うよね
multi diffusion のtiled vaeは消費VRAM少なくなるんで使ってみたら? 3060だけどファン40%の静音設定で70℃越えたこと無いぞ フラクタルデザインのpop air使ってるから
温度の心配はない。あれはいい箱だ
自作するならオヌヌメ https://i.imgur.com/2kRSK35.jpg
そう言えばファン設定なんもしてないせいか、アイドル時普段ファン止まってて60度辺りになると回って即冷えるの繰り返しなんですが、
最低回転数で回し続けた方がましですよね? シングルファンだと3060でも温度上がるのかね?
シングルだと温度上がりそうだから多少値段は
上がるけどワイはダブルにしたけど
欲をいえばトリプルファンにすれば良かったかな >>74
ありがとう、本スレでもらった回答も併せて「VRAM不足で落ちる」の意味が分かった
俺の現象はそれじゃなかったもよう >>69
起動オプションに
--no-half-vae
を追加してみる >>40
俺のM1macでの経験談になるが、どうやってもwebUIが開けないのでInvokeAIというものを使い始めた
https://github.com/invoke-ai/InvokeAI
おそらくこっちは手順に従ってやればすんなり起動できるはず。
それで後日webUIのほうもチャレンジしてみたら起動できたんだよな
環境が整ったせいなのかなんなのか、俺も素人なんで全然わからんが >>71
電源じゃないの?
GPUをフル稼働させるとショボい電源だと落ちるよ >>84
それも試してみたんだけどダメだった
必ず落ちるわけではなくて、95%は成功するんだよ
落ちた時はプロンプト少し変えると生成するし
わけワカメ ファン設定しようとぐぐってみたけど、自動か固定だけで最低回転数設定した上での動的変化
とかしたい場合はスクリプトを定期的に実行して温度監視して固定の回転速度を変化させる様な
手法しか無い様で諦めた >>87
グラボの性能は足りてるのに起きるってのは、正直あまり聞かないトラブルではあるかも
マシン環境によるものか、SD環境によるものか
モデルを変えてみたり、再インストしてみたり、色々試してみないといけなさそうだね
力になれず申し訳ない むしろよく聞くエラーの様な? VAEがどうこう言うエラー出てないの? >>70
>>75
サンクス
スマホだとめちゃくちゃ見辛かったのであとでPCで眺めさせてもらいます グラボの性能は足りるのに!95%の確率で成功するのに!残りの5%でCUDA OOMで落ちます!!!!!なんでだ!!!!!!!!!
グラボの性能が足りないんやろがーーーーい👆👆👆👆👆👆👆🤓 そうやなエラー文の存在すっかり忘れてたわ
後であげるから待っててな 画像生成に限った話じゃないがなんか最後にスパイクっていう現象が起きて一瞬VRAM使用量が跳ね上がる
その時VRAMが足りなかったらそこまでがどれだけ順調であってもCUDA OOMが起きる
AUTOMATIC1111が悪いって訳じゃないがVRAMは生成以外の部分でも少しずつ取られていって
運悪くスパイク起こすところでVRAMが足りなかったんだろうな
環境によっては生成する度にVRAMのキャッシュがクリアされなくてどんどんゴミが溜まっていって1回OOM起こしたら以降どんな小さいサイズの生成であってもWebUIを再起動するまでずっとOOM起きるなんてこともある 解決策はよりVRAMの多いNVIDIA製のGPUを買う事です!
いかがでしたか? >>97
足りてるって言ってる本人が信用出来ないです;; >>99
ログを読めと書いたのに日本語が読めないのか?黙ってろカス
3060vram12GBなら性能は問題ない >>101
だからそれを調べるために、本人がエラーログを貼るのを待ってるんだよ低能くん 3060v12なら超高解像度じゃな限り特にエラーなんか起きないな
オレも3060だから理由知りたいわ グラボの型番、落ちる時の温度ぐらい書いてくれないとな
パワーリミット掛ければ通るんじゃね? ファッションショーじゃないけどいろいろな服装をランダムで着せたい場合はどうやるのが良い?
着衣とか強調してネガティブに下着や裸やnsfwとか強調してるけどなんか肌色多めになっちゃう
服装自体を指定してかないと駄目なんかな >>104
だから質問者のログm読まねぇで書き込むなっつーのアホなのか? >>87
GPU15GBのcolabでもそのサイズは落ちることがある(たぶんメインメモリが少ないせい)
一度元サイズで落としてExtrasやったほうがいいかも >>108
まぁお前さんも落ち着けよ
春だから初心者増えてんだよ 純粋にAI画像生成が主目的で新PC組みたいんだけど今だとどうういう構成がベストかね
金に糸目はつけないで現状最高性能のを選ぶとしたらお前らどれ買いたい?
CPU:
グラボ:
電源W数: パソコンだと規制くらっててカキコできない
今から手打ちするんで待っててな 少なくともカスだのアホだの相手の人格を否定しているのは一人だけだね >>113
GPU: 4090
電源: 1000Wゴールド以上
その他 >>113
CPU:なんでもいい
グラボ:nvidiaであれば高いほどいい
電源W数:足りればいい すぐ上にあるログも読まずに初心者が初心者の質問に答える地獄のような質問スレ ルールを守ってくれと騒ぐくせにアホだのカスだの言っちゃう地獄のようなスレだぞ グラボの型番見当たらないな
まさかRTX3060がグラボの型番だと思ってるんか? >>117,118
まぁそんなもんだよね
グラボとせいぜい電源くらいしか重要じゃないことはわかってるんだけど
PC組むのが浦島状態で最新の情勢追えてなくて
GPUがnvidiaならCPUはAMDのでもいいんかね
少し前までRYZENがぶっちぎってたけどintelはもっといいの出せてるんだろうか >>123
じゃあ一つだけ重要な事いっておくと
4000番はでかい
まじででかいからケーズだけは注意な いやTDPは高いがRyzen 7950Xが家庭向けでコスパ良いCPUだと思うぞ
i9 13900あたりはワッパはともかく性能で負けてたはず
Threadripperはゲームブレイカーなので除外 不必要な高性能で価格やTDPが高いのをコスパがいいって言えるんだろうか? >>123
お絵描きAIでの使用だけなら、極論CPUはなんでもいい
それよりもメモリを多めにしておくとストレスなく遊べる
最低でも32GBはほしい
あとSSDも多めで 自己解決出来ました
荒れてて?回答得られないの辛いわ ID変わっててわからんな
というかなぜ変わったのか
>>131は>>105宛です modules.devices.NansException: A tensor all NaNs
was produced in VAE. This could be because there's not enough precision to represent the picture.
Try adding -no-half-vae commandline
argument to fix this.Use--disable-nan-check command line argument to disable this check
やっと打ち込めた。これがエラー文やあ あっこいつ何かクッセェなと心のなかで思ったなら、その時既にNG登録は終わってるんだ NaNやこれ
これhalfで生成しようとした時に出るやつじゃね
halfとfullが生成ごとに勝手に決まってんのかね
とりあえず起動コマンドに--precision full入れよう パツパツの競泳水着やワイシャツ(ボタンが弾けそうなやつ)ってどうやってだしてますか?
どうやっても乳を放り出しちゃう 空冷縛りだと13900か7950のどっちがいいのかね
メモリとSSDはあんまり関係ないので64Gと1Tくらいでいいかな
あとはデカいケースにATXマザボと1000W高品位電源でいいか 単体ならある程度作ることできるようになったけど、男絡むのを作ろうとすると途端に難易度上がるなぁ
乳吸いとかやりたいけど作れる気がしない OSとかソフトウェアはもちろん生成先もssdだけど保存先はHDDでもよくない? civitaiでとあるモデルというかLoRA(他所様産)に対してのDiscussionへの作例投稿してその投稿に対して追加で後から数枚加える事はできますか?
それとも最初に複数枚セットで投稿するだけで追加は受け付けていませんか? >>133
このエラー性能不足とかじゃなくもっと根深い何かだわ
他のRTX3060 12GBで通常使用してる時に起きたという話を聞いたことがない
起動オプションで何かしら変なものを指定しているか、これまでに設定した何かが悪いかとかそのへんだと思う
再現出来たら勝手に調べたいんだけど暇だったら新品のWebUI環境作ってそこで「同じモデル」「同じ起動オプション」「同じ生成パラメーター」で同じエラーが出るかどうか見てくれないか
無理だったらそれらをスクショでもコピペでもいいから貼ってほしい あと使ってるモデルを落とした場所とモデル名の横に書いてあるハッシュ値という暗号みたいなのもあると まじかそんな深刻なエラーだったのか
ちなみに起動コマンドは何も入れてないよ
135のコマンド入れてもダメだつた
でも不思議な事にプロンプトを1語変えただけで
生成できるんだよなあ。再インスコするか ちなみに新しい環境は今の環境と違うフォルダに
作れば今の環境と併用できるの? 肩身の狭いDiffusersユーザーですが、ここ一週間で気付きがあったのでメモ。
Stable Diffusion Latent Upscalerはパイプラインの型がTensorでなくても、Imageのまま投げてあげればアップスケールしてくれる。
冷静に考えればイメージファイルをアップスケールするだけの事がシンプルにできるので、そのまま生成したやつを投げつけてあげればアップスケールしてくれるってことのよう。
実際、Hugging Faceを読むと型はPIL.Image.Imageまたは ListPIL.Image.Imageまたはtorch.FloatTensolよって書いてある。
long prompt weighting stable diffusionを併用した際、愚直にチュートリアルの通りにパイプラインにoutput="latent"を指定すると、出力結果がTensorではなくndarrayになってしまう。
lpw stable diffusionを外すとTensorになるものの当然長いプロンプトは無視される。
その時のndarrayをTensorに変換するとまた違ったエラーが出て沼になる。(実際沼った)
素直にImageで出力してアップスケーラーに渡してあげるだけで良かった。
このあたりはエラー内容で調べても英語圏のコミュニティなどで質問はあっても具体的な回答がされずにクローズになっていたのでとりあえずここにメモ。 >>144
起動コマンド入れてないのだいぶ怪しい
--no-halfと--no-half-vaeと--precision full入れて試したいところ
個人的には--xformersも
>>145
可能
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
でwebuiを入れたと仮定して、
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui aaaaaaaa
でcloneするとaaaaaaaaってフォルダに新たにできる >>133
メモリ不足で真っ黒画像が出たときの警告文だったような?
起動オプションで無効化できるよそのかわり真っ黒画像が生成されるようになる >>146
新しいDiffusersってでかい解像度の画像も少ないメモリで生成すると書いてあったんだがうまくいった? 明治神宮実写を加工せずにリサイズだけしてLora作ってみたんだけど、
なにこれ?状態のしかできないんだけど人物とか不要なものはすべて削除した方がいいの? ワイルドカードで大量出力して遊んでるんだけど
お気に入り画像をまとめてimg2imgでアップスケールしたい
img2imgバッチで元画像のプロンプトを自動適応ってできないかな?
1枚1枚手動コピペは頭おかしくなるんでやりたくないし
こんなん上手い事やってる人絶対いると思うんだけど何も思いつかない・・・ >>150
なにこれ?が主観過ぎるのでせめて画像ぐらい貼ろう
最低限の設定や準備が出来てる前提で話をするが、風景LoRAを作る時は人物や色んな要素をそのLoRAの一部として学習させるか、それとも異物として学習させるかで下準備の方法が変わる
人物等がいらない場合はもちろん学習前の時点でレタッチで消しておいたほうが良い >>152
そう簡単にはいかないのね。試行錯誤してみます。
適当にやったのでこんな感じw
https://imgur.com/a/2DosqW0
ピカチューあたりからやってみるよ・・・・ 口がふにゃふにゃに崩壊するの防ぐ方法ない?
二次元系なんだけど 衣装学習させたLoRAでイマイチだったり全然ダメだったり色々な画像が生成されるじゃないですか
それら画像を正則化画像 正規化画像?に加えて追加学習させてみてるんですけど(供養の意味も込めて)
イマイチ効果を感じないんです。
失敗画像を正則化画像に加えるってもしかしてダメですか? 多分、その失敗したLoRAと併せて重ねて使うなら効果あるんじゃないのか? 1111はネットに繋がってないと起動できないみたいですが、完全にオフラインで使う方法って
ないですか?
障害出てる時に気付いて以来気になって仕方がないです スタンドアロンじゃ動かないエクステ入れたか
トロイ仕込まれてねえ限り起動自体はいけるだろ >>157
>1111はネットに繋がってないと起動できないみたい
この推測が正しいとして、エスパーすると
Launcherの「Auto-Update~」がONになっている
もっと正確なことを知りたいのなら
コマンドプロンプトのエラーログをコピペするとか
第三者が見て判断できるような情報を出そう >>142
新らしく別ドライブにインスコしたけど
やっぱり同じ問題発生したわ。
モデルはcounterfeitでvaeもcounterfeitだよ
イージーネガティブも入れてる。 なんか今日1111のアップデートがあったらしいけど関係してる? 開発者向けにプレビュー版流してからだと嬉しいけど、炊き出しもらってる側だから何も言えない >>154
メイン人物なら出来るだけpromptの先頭に人物と表情を持ってくる、stepsとcgfの折り合いつかない時に効果大
ディテールアップ追加すりゃマシになるはず 1111って完全にオフラインってわけでもないんですね >>164
基本的には完全にオフラインで動く
ただしネットアクセスが必要なextensionを入れてる場合は違う >>165
なるほど、ありがとう
ケーブル引っこ抜いていっこづつ確認するか >>163
確かに表情系は下に書いてたから上に書いて試してみる、ありがとう 後ろ姿で両手を机につきたい
実際は後ろ姿なのでついてる手は見えないけどhands on deskにするとやはりキャラが前向いて机に手を置く
これどうしようもないんすかね? lora easy traning scriptでlora作ってるんですが、最終できるファイルがlast.safetensorというファイルができるんですがそのファイル名を変えるとwebUI上でLoraとして認識されなくなります。lastのままなら正常に使えます。新しいloraを作ったときに上書きするしかないので名前を変える方法知っている方いないですか? >>160
>135も>147も試すべきオプション提示してくれてんのに何無駄に再インスコなんてやってんだ?
せっかく指南してくれてんだから、試せよ。
あと--disable-nan-checkも試しな。 >>153
なんかそれっぽい感じを出そうと頑張っている感じはする。
単純に学習足りてないんじゃない? >>168
AIは「命令通り描きましたよ!」って見せようとするから余計な命令はしないほうがいい >>176
もちろん別のモデルと別のVAEの組み合わせも試したんだよね?
あとはSettings > Stable DiffusionでUpcast cross attention layer to float32にチェックぐらいかな >>168
今のAIの技術だったら基本的にもむりたと思うよ
もっと細かくプロントを入れるか
コントロールネットを使うか
学習するしかない
それでも望む結果はできないと思う 質問の仕方もまともじゃないし
解凍してくれたことにちゃんと答えられないし
もうむちゃくちゃだよ >>169
基本的にLoRAファイルは名前を変えても問題なく動作する
当たり前だが変更する場合はlastの部分のみ変更し拡張子は絶対に変えない
認識されない場合、一旦名前を変更したらwebuiを再起動する
基本的にモデルもLoRAもファイル構成や名前が変わるたびに再読み込みが必要 >>147
このコマンド全部入れてみたら生成できたわ!
個別に入れた時はダメだったのに。
でも生成時間がえらい掛かるようになってもうた
常に使えるコマンドではないが、エラー出た時は
都度このコマンド打てばいいわけやな
問題解決や。ありがとな! >>181
そういうのは「全部試した」とは言わねーから。
解決策の認識も間違ってるし。
根本的にお前に合ってないから、次トラブル発生したらもう諦めて使うのやめとけよ。 というか正面顔か後ろ向いてても振り返るか横向いてるが大多数で
真後ろって案外弱いよな chilloutmixで狙った表情が出てこない
cryingとかembarrassedとかtorogaoとか強調しても反映されてる気がしない
笑顔も深田エイミみたいなヤバメの口角の整形顔が出てくるの排除したい
解決法ありましたらお願いします ultra-detailed ○○って指定するとその個所がより緻密に書かれるから指定してるんだけどそれやるとその箇所のドアップが生成されやすくなるみたいでこれを減らすNPとかないですかね?
せっかく本体はいい感じなのに謎のグロい物体のドアップとかがコマ割りで横に表示されたりすると萎えちゃうんですよね >>185
全然関係ないLoraに引っ張られることがあるわ
パイスラのLoraは盗撮がメインなのか化粧もしてない無表情が出てくるし
緊縛系はAV顔で困り眉が出てくる >>141
ありがとう!
でも糸に通したボタンを持った全裸の女が出てくる… 3080の10ギガを3060の12にしようか迷ってるんですけど5万出すほど恩恵あります? >>189
4090にしちゃいなよ
4080から4090乗り換えたよ グラボとかゲームで2070で十分だわとか思ってたらまさかAIで欲しくなるとはな >>188
civitaiに希望を叶えるbutton gapってLoRAが上がってる。
作例はアニメ調しかないけど、実写調でもちゃんと描いてくれる。 >>191
指を隠したいんだったら腕を広げるとか
腕を後ろに回すと勝手プロンプトで
なんとかなるが 実在の人物画像でlora作ろうとしてるんだけど サンプルにひたすら帽子かぶった人間が
出てくるのは何故…?
教師画像に帽子かぶってる画像一枚もないのに
sd1.5ベースで設定はほぼデフォからいじってない >>198
おかっぱみたいな髪型もあるけど全部じゃないんですよ
後出しだけど、日本人の画像なのにサンプルでは帽子かぶった西洋人が出てくる
トレイン続ければ、アジア人ぽくなるんすかね? 1111でマージしようとしたら次のエラーが出たんですけど、どうすればいいんですかね?
Error merging checkpoints: Error while serializing: IoError(Os { code: 1224, kind: Uncategorized, message: "要求された操作はユーザー マップ セクションで開いたファイルでは実行できません。" }) ウチの1111が突如、t2iで作成した画像をi2iに送れなくなった
それと、1枚の画像を保存しようとすると生成した画像を全部保存してしまうようにもなった
いつもと違うことをしたのって、ControlNetを使ったことと、いくつかloraを入れたことくらい
loraを外して1111を再起動しても直らず、PCを再起動しても直らず…
誰か直す方法教えてください(泣 >>201
>それと、1枚の画像を保存しようとすると生成した画像を全部保存してしまうようにもなった
これはSettings → Saving images/grids の下から3〜4番目辺りにある、
「When using 'Save' button, only save a single selected image」がOFFになっていると思われるのでONにする >>202
ありがとう。そこは元々ONになってたけど、とりあえず一度OFFにしてApply settingsして、再度ONにしてApply settingsしてみたよ。でもやっぱり症状は変わらなかったよ…(泣 4090がpcに入らないんですけどどうすればいいですか? 私に預けていただければ2倍にしてお返ししてみせますよ >>193
革ジャンのアホが紛らわしくしてるけど、RTX 6000 Ada/RTX 5000 Ada/RTX 4000 Adaもあるよ
ワークステーション向けとはいえ、今回発表されたRTX 4000 SFF(20GB)は$1250くらいって予想されてるし、補助電源いらない70Wとかかなり扱いやすい
RTX 5000 Adaも微妙な位置のRTX6000Ada($6799)比でCUDA15%減の15360 VRAMは2/3の32GB(ECC)
RTX4090の16384CUDAより少ないし、お値段も$1,599よりはかなり高いだろうけど… >>204
ケースなんて4090からすれば安すぎるから大きい好きなもんを買えばいい >>203
突如で思い当たるのがこれなんだけど
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/8916
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/aba5d639fb20df035243246cf5edb143eda94546
webui-user.batに誰かにそそのかされて1番上の行にgit pullとか追記してないかな
もしそうだったらwebuiフォルダでアドレスバーの所にpowershellもしくはcmdって打ってターミナルを呼び出して
git checkout a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
を実行すると今日AUTOMATIC1111が覚醒する前のコミットに戻せるかも 半年くらい前ならいざしらず
今やAUTOMATIC1111版webuiは大量のExtensionでガチガチにフル装備したとんでもないスパゲッティになりつつあるから
本体の自動更新は死んでも避けておきたいところ
違ったらわからんすまん 4090と見合うCPUで組むとPCケース内の熱気を外に出すのも大変になるからオープンフレームで組むしか >>203
ああ、「1枚の画像を保存しようとすると生成した画像を全部保存してしまうようにもなった」ってのも
今日の1111アプデによる不具合だね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/8912
つまり手元の1111を最新版に更新したことが原因なので俺も>>211-212に賛成だ
自動更新は避けて、更新はタイミングを図る方が良い >>211 212 214 ありがとう
原因は1111の自動更新だったのね?!
というか勝手に更新してるとは思ってなかったわ…
更新はupdate.batで手動でするモノだと思ってたよ
自動更新OFFってどこで設定するの? >>190
やっぱそうなりますよね
>>192
買いたいけど値段が跳ね上がるからなぁ… 根本のpythonとcudaの時点で変なバージョン使っとるからゴテゴテオープンソースにありがちな進化の袋小路or地獄の互換切りは避けられない >>215
いやごめん自動で更新をしてるかどうかはいつも起動してるファイル(たいていの場合はwebui-user.bat)にgit pullっていう記述があるかどうかによる
WebUIの導入解説サイトの1部にはそれを書けという指示があったりしてその罠にかかってないかなというおぴにょん
git pullが無かったらまた別の理由で画像が遅れていないんだと思う
ふりだしにもどる 使ってるグラボがゴミだからTiled VAE使おうと思ったんだけど初期タイルサイズの960と64だとwebui起動した時点でPlease use smaller tile size when see CUDA error: out of memory.ってなってて使えない
なんとか初期タイルサイズを小さくしようと思ってui-configのcustomscript/vae_optimize.pyを960から256に書き換えてみたけど再起動してもTiled VAEのタイルサイズは960で変わらなかった
書かれてるの的にvae_optimize.pyがTiled VAEの設定だと思いこんでたんだけど
Tiled VAEの初期の値を書き換えるにはどこを弄ったらいいの? >>218
テキストエディタで開くと
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=
git pull
call webui.bat
7行目にgit pullが…
まあいずれにせよ、不具合出た時点で「更新すれば直るかな?」と思って手動更新してしまったので一緒なんだけどねw >>158
>>159
遅レスで申し訳ないけど、レスありがとう
一つずつ確認した結果Dynamic Promptsで引っかかってました
無事解決できたので感謝 >>219
"Please use smaller tile size when see CUDA error: out of memory."
これは"If you see CUDA error: out of memory, please use smaller tile size."という英文と同じ
つまり「もしもエラーが発生した時は、タイルを小さくしてくださいね」という意味なので、今足りないと言う意味じゃない
足りない時はWebUIの画面じゃなくてコンソール側にエラーが出る
質問そのものの答えとしては「Tiled VAEのスライダーを弄ればTile sizeは変わる」
アドバイスとしては「足りてないわけじゃないから変えなくていいよ」 >>133
—no-half-vae付けてみろってログに書いてあるけどやったんか? >>149
xformers使えば通常よりも少ないメモリで生成できる。
テンソルの分割を有効にすれば生成速度は遅くなるけどメモリ使用量が更に減る。
この2つを合わせるとRTX3060 12GBで8GB程度で生成できた。
生成速度遅くなるとは言え思ったよりも遅くなるわけではなかったから常用してるね。 これのために4090買うやつ続出しすぎじゃねw
まあプログラムガチ勢はもう買わなくちゃいけないようなレベルなのかもしれんが >>226
ありがとう
時間が出来たらこっちも試してみるわ
まだリファレンスを読み切れてない 3060だと学習中にまともに画像生成できないので3060もう一台買って2枚刺しすれば学習と生成両立できるんやろか?
とか考えてたけど
4090だと学習しながら生成も余裕なのかしら? civitai helperが使ってるとプレビューを置換以外の項目が消えて治らなくなるんだけど原因わかる人いる? まともの定義次第だけど、学習中はopenvinoで遊んで見るとか >>231
うちは基本的に消えてて、使いたい時は先にrefresh helperだったか何だか押す感じだな
今学習中で確認出来ない 機能までは1024x512のアップスケール3.0で生成できてたのに今日になってから生成終了直前でcuda out of memoryになる
生成開始直後ならともかくなんで終了間際に?なんならアップスケール2.5でもだめだった シビタイは中華ゴミLoraに
マジナイはゲイ、スカ、政治に侵略される未来しか見えんな >>230
4090にしても生成が速くなって結局GPUの能力をめいっぱい使って学習するので、同じだぞ >>226
テンソル有効はどこで見れば分かります?
検索したけど分からずでした 某Readme読んでたけど
『バッチサイズ×ステップ数 が学習に使われるデータの件数になります。そのため、バッチサイズを増やした分だけステップ数を減らすとよいでしょう。』
これ最後の文章違うよな?バッチサイズ増やしてもステップサイズそのままでいいと思うんだが
例えばバッチサイズ8だと8枚のLossの"平均"をLossとしてパラメータ更新しちゃうので、バッチサイズ増やそうが減らそうがステップ数回だけ更新される認識
lossの合計なら正しいのかもしれんが機械学習の文脈だと普通平均だよな、、? >>234
急にそうなった理由は分からないけど、終了間際なのは普通では?
タスクマネージャ見てると終了間際にVRAM使用量がポンと跳ね上がるから 学習でエポックごとにデータ保存しておく場合ってコマンドラインのどこいじれば良かったんだっけ? 泣きぼくろの上手いつけ方ってあります?
強調して書くと全身ほくろだらけになって悲しいことになるんだが >>208
ありがとう
それがどこまではやくなるかスコア出てくるの楽しみだわ フォトショ程度の画像処理はするけどゲームはしない俺は上級グラボなんか一生縁が無いと思ってたけど、今はハイエンドグラボが欲しいです LORA作成中に直前に作ったLORA試したいとかよく有るから
マシン2台でやるのが良いんかな 指定範囲だけを再生成してくれるUIない?
目元だけとか >>245
学習はkohya,生成はAUTOMATIC1111で分けてるというか解説サイト見真似で環境作ったらそうなっちゃった
ん?生成くっそ遅ぇな、と思ったらそういや学習させてたわってことがまれによくある
>>237
ですよねー
グラボ二枚刺しで解消できるんかな? 普通にもう一台用意する方がストレスたまらんだろ…
学習途中でメモリエラー吐いて止まってたとかリスクしかない PC複数台だとファイルコピーとか共有とか切り替えとか煩わしそうだけど
おま環検証や学習中の暇つぶしに重いゲーム動かせるのはいいかもね iMacでwindowsをリモートでやってるけど快適そのものよ
どっちも使えるしmacはモニタが素晴らしい としあきwikiに書いてあるマルゼン式学習法はキャラと服を分けて学習してますが
その場合、正則化画像も二種類必要なんでしょうか?
例えば男のキャラと衣装を学習したい場合は
「1male 」と「clothes」の正則化フォルダを用意する必要がありますか? webui-userbat-を起動してから127.0.0.1:1860を開くと
LOADING…と表示されたままなの自分だけ?
F5押せば表示してくれるんだけど >>238
ココに書かれていますね。
ttps://huggingface.co/docs/diffusers/v0.14.0/en/api/diffusion_pipeline#diffusers.DiffusionPipeline.enable_attention_slicing
パイプライン用意して、
pipeline.enable_attention_slicing()
とすると有効になる。 実写のクオリティ考えると基本ChillOutだよな すごい基本的な質問で申し訳ないんですけど、モデルって更新されたら逐一ダウンロードし直して設置し直したほうがいいんでしょうか?
自動アップデートなんかないですよね? >>257
渋で上がってるモデルの場合だったら、1クリックでモデルがアップデートされているか確認して更新してくれる機能がCivitai Helperにはあるけど、
「実験的な内容です。前より悪くなる可能性があります」みたいな内容で更新かけてる作者も結構多いから自分の目で内容確認したほうが安全 LOFI V2やっと来たか…
肌のディテール圧倒的だわ >>258
なるほど、chilloutmixしばらくそのままだったんで確認して更新するか決めてみますね。ありがとうございます >>259
LOFIの肌の透明感はさすがだわ
Chilloutも悪いわけじゃないんだがマスピ見飽きたころと同じ感覚になってる
webuiだとコントラスト調整難しいからどうしても同じ感じになるしな 生成ボタン下のスタイルの保存場所はどちらでしょうか? >>42
逆 手とか顔の一部
さっと手直しできる絵師の方が優勢 >>264
「stable-diffusion-webui」フォルダ直下の「styles.csv」
ただし何でもいいから一度Styleを保存しないとそのファイルは生成されない プロプントの文字をドラッグした状態でキーボードcontrol+↑↓
知ってたらめんご +キーがどこかあんまり覚えないからいつもマウスで手入力やわ
そっちのが早い >>269
Controlキーと↑↓キーどちらかの同時押しって意味だから+キーは関係ない
数値を手入力したほうが早いってのは同感 +いらない
controlと上下矢印キー
解説が英語Forumで読めねー
結局正しい入力値じゃないと画像荒れる
特にネガティブがポジに介入してくる
再起動意味ある? >>270
そうだったかすまん
一度しか使わないコマンドだから覚えてなかった
動画でやってる人見ると少し驚くけど >>271
>結局正しい入力値じゃないと画像荒れる
>特にネガティブがポジに介入してくる
これ気になるんだけど
1.21とか1.331じゃないとダメとか
そういう話? >>273
1.0からいじったら荒れる、という意味では? 1キャラのLoraに複数の衣装を仕込む場合、衣装別に○○dress、○○swimsuit等の文字を仕込めばいいですか?
あと正規化画像は必要ですか? >>274
アホみたいに極端な数値いれたら破綻するのは当たり前だし
LoRAのように作者が「この範囲が最適です」と指示してるのならともかく
普通は1.8~0.2くらいの間でみんな調整してると思うんだが
何をもって「正しい入力値」としてるのかを知りたいわ >>275
としあきwikiのLoRAの項のマルゼン式教師データ画像て奴がそれの為の解説だと思うんだけど
何の事かよく分からん VRAM6Gなんですけどt2iで512×768を1.5倍でアップスケールしようとすると1枚だけなら普通に出力できるんですがバッチサイズ1、バッチ数100で連続でやろうとすると3枚ぐらい出力したあたりでメモリエラーか何かで処理が止まってしまいます
何か解決する小技や裏技ないでしょうか? 普段Diffusers使っているのですが、大人気らしいのでAUTOMATIC1111を試しにDockerで動かしてみたのだけど、
同じ環境でmodel、Seed、Step、CFG Scale、Scheduler、Size固定して同じプロンプト、ネガティブプロンプトでDiffusersとAUTOMATIC1111で比較すると特徴は一緒でも違った結果になりますね。
それぞれで何度か出力すると同じものが出るものの、DiffusersとAUTOMATIC1111ではポーズや背景が異なりますね。
何が違うのかわからないけど、そういうものなんかな。 >>275
dressとswimsuitみたいにかぶらない概念なら別にそれでいい
正則化画像は質問してる時点で適切な画像を用意できるわけがないので無いほうがいい loraで実写アジア人を学習させようとしてるのに ブロンド青目の白人しか出てこないのは設定ミスってる証拠ですかね…
学習進めたらアジア人になりますか? loraで実写アジア人を学習させようとしてるのに ブロンド青目の白人しか出てこないのは設定ミスってる証拠ですかね…
学習進めたらアジア人になりますか? >>282
学習画像のタグに「black eyes」「colored skin」とかを入れてたら
あなたが覚えさせたいアジア人を示すタグ(トリガー)の属性から
切り離されてしまうので注意 人物に障害物が被らないようにする呪文なにかありますか?
教室にすると机が人物に被ることがあり困ってます リアル調の人物を作ると遠景がぼやけてしまうんですが
人物も背景も両方くっきりさせる表現って何かないでしょうか? lastbenのノートブック使ってるんだけど loraのタグ消えてる
どこにありますか? kohya_ssでfine tuningを試してみようとした所、メタデータの生成で
raceback (most recent call last):
File "/home/hoge/kohya_ss/finetune/merge_dd_tags_to_metadata.py", line 6, in <module>
import library.train_util as train_util
ModuleNotFoundError: No module named 'library'
と言われて進めません
/kohya_ss//libraryにtrain_util.pyと言うファイルはあるのですが、何かパスを設定しないといけないんですかね 前スレでGPUだけアプグレの相談した者だけどRTX3060買って滅茶苦茶快適になって助かりました。その節はどうもでした。
大量に生成することで気になるようになったのが脚が3本とか0本とかぐっちゃぐちゃとか、脚を持ち上げたらそこから手が生えたとか、どうにも下半身が安定しない。
安定させるテンプレ的な対応ってある?
他の人のNegative Promptで体形関係は一通り突っ込んでいるつもりなんだが、どうにもうまくいかん。。。 nmkdでlora使う方法ありませんか?
safetenserファイルを読んでくれない >>291
元のモデルが学習してないポーズは破綻する場合が多いね
特にコントロールネットで無理矢理ポーズを取らせてる時とか
自分が使ってるChilloutなんかは三角座りさせると全然ダメ
逆に美少女イラスト系とかは三角座りは定番のポーズなんでまだマシかもしれない
簡単な解決方法ではないけどLORAでポーズを自前学習させたものを適用するとある程度打率をあげることが出来ると思う ワイシャツがガバーっと開いてるのを表現するにはどうしたらいいですかね
opening shirt, open clothes
↑この二つの呪文入れてるけど、何故か一番上のボタンだけ留めたような絵しか出てこない >>297
ならばopen collar?(襟開く >>292
ckptとTikTokは中国絡んでるわけだし卒業したほうがいいよ 初心者質問ですみません。
1111およびtrain-toolsの拡張を導入しTrains Toolsタブから
Update Dataset→Begin trainの順でLoRAを作成しました。
しかし、実際の生成でLoRAを指定しても効果が出ていなさそうでした。
自力で調べた限りではトリガーキーワードの入力漏れかと思ったのですが、
この場合トリガーはどのようにすれば確認できるでしょうか。
あるいは、他に考えられる原因があるでしょうか。
(単にLoRAの性質や画像生成について前提から勘違いをしている可能性もあるかとは思っています) >>299
ナニソレ怖い
NMKDはckptをsafesensorに変換できるけど、それじゃダメ? >>292
オートマチック1111の方が高性能だし
汎用性が高い >>295
早速どもです。
ポーズ指定入ってない呪文でも結構失敗してるのよね。
確かにポーズのLoRA+トリガーなら改善出来そう。試してみる。
>>297
buttons unbuttoned
シャツの方ではなく、ボタンの方で指定。軽く試したけど、結構安定して開いてくれる。 >>234
自己解決
control modelの数を一つ減らして他のcutoffやlullなどの拡張機能を外したら問題なく制せできました
こいつらめっちゃ重いんやな できたら感謝を込めて指導者にその成果をみせるもんだろアァン?! img2imgでこれの左脇みたいに境界あたりで紫いろの染みが出るのはなぜでしょうか。
予防する、もしくはうまく消す方法はあるでしょうか?
https://imgur.com/TgxR18C 前開きとかたくしあげは難しいよね
手とセットだとさらに打率下がる
フロントホックのブラを開くとかになるともうプロンプトでは無理だと諦めてる >>306
もう少し試してみたらbuttons unbuttonedだとボタンが大量にばら撒かれてしまう事例が多発。
unbuttonedだけで大丈夫だったわ。 >>309
たくし上げはcivitaiにあるshirtliftってLoRAが超強力。安定度抜群だから試してみるといいよ。 >>311
ありがとうございます。素人なもので。これが出る理由などは分かるでしょうか? >>313
理由は設定全部見たら分かるのかもしれないけど分からない可能性が高すぎる
完璧な画像は1発じゃ絶対出ないので気に入ったやつ修正していくしかないぜよ >>314
ありがとうございます。事故みたいなものですか スクリプトで連続作成したのもグリッドで保存したいけれど方法有る?
>>312
サムネひどすぎワロタ >>312
これいいな
体操服たくしあげ&ブルマ開脚が大好物なので助かる AUTOMATIC1111をGoogle Colabで使っているのですが、今朝まで問題なかったのに、なぜかLoraのタブが表示されなくなってしまいました。
Error loading script: lora_script.pyというエラーがでていたので、これが原因と思われるのですが、解決方法わかる方教えてください >>273
ぶっかけツール誰か開発してないのかよ
捗らん >>318
今更新でバグがいっぱい出てるから最新版で修正されるのを待つしかない >321
有り難うございます。それならジタバタする必要ないのですね。
てっきり、Loraの入れすぎかと思った paperspace有料でやっている人に聞きたいんですけど
支払いの締めって月末ですか?
記述が見当たらなくて
日割りならいいけど今から使ったらかなり損なのかなって >>320
会話になってないんだが…
質問に答える気のない独り言なら
アンカーつけないでくれな shirtliftってサムネが気持ち悪くてクリックする気起きなかったが
いざ中を見れば優秀だったんだなw
落としとこうw 青椒肉絲loraはどう使えばいいんだ…
なぁジェットさんよぉ >>318
paperspaceというクラウド使ってますが
同じ現象で困っってました >>312
(skirtlift) これで出てくる
問題はパンツだよぱんつ 1人の美少女を描くのに解像度512x910で妥協してるんだけどみんなどんなもん? civitaの TEXTUAL INVERSION TRAINEDの入れるフォルダや使い方おしえてください
モデルとLORA導入まではできました >>301
モデルのやつは変換できるけどloraとvaeはだめ >>332
ほれ
ttps://note.com/uunin/n/n715256399038 >>328
全部脱ぎかけにしたいんだよなそうだよなほんとそういうのを実現したいのよね。
skirtliftもcivitaiにLoRA上がってて抜群の効果。
そしてパンツならPant Pull DownかPanty pull / Panty dropってLoRAがサイコー。
自分が考えることは他人も考えるってことで、civitaiで探せばだいたい先人がLoRAを上げてくれてる。
元モデルで生成出来ない時はとりあえずcivitaiで探してみるとよさげ。 サイズ大きいと生成の最後にVAEでメモリオーバーになるけどVAEをモデルにマージしとけばもしかしてメモリ削減できる? たくしあげやボタン外し
バグで出た+2本の手が他の子が
脱がしてるようで時々刺さるんだけど俺だけ? 進捗53パーくらいまではこれこれこれが欲しいんだって感じなんだけど
54パーから急にクチャってなって腕や足がニョキニョキするのはなんでなんだろ
何かが悪さしてるとしか思えないんだが… skirtliftはけっこうガチャる必要があるよな
けっこう重めにしないとなかなかめくってくれない >>337
途中経過は気にしないほうがいい
むしろ表示切ったほうが速いし
まずはプロンプト研究したほうがいいよ 切らなくてもいいけど、
1%ごとにライブプレビューする必要はないと思う generate FOREVER使えないです
皆さん使えてますか? >>342
昨日からのアップデートで色々不具合出てるから修正されるまではそのまま >>337
[A:B:0.53]
プレビュー観察して特定の箇所を狙いうちするなら記法(プロンプト)も覚えた方がいい
何が駄目って事は無い スカートめくるのはいいけど
めくれたらめくれたでババ下着なのがなぁw かといって下着Loraいれたらスカート履かなくなるとかな… 今までt2iガチャ+hirrsfixでイラスト作ってたんだけど、自分でラフ画書けるならopenpose+multi diffusionでも同等のクオリティーのものってつくれるんかな?
multi diffusionが便利すぎてt2iガチャの必要性がわからなくなってきた。 これどうやって作ったんだろMMDが元らしいけど自分でi2iやっても元の動画の感じ残りまくりなんだけど値引き上げたら構図無視されまくるし
https://i.imgur.com/VEs5MHp.gif >>350
t2i っていうのは そもそも 絵を書かなくていいためのものだから
絵が描けるんだったらそれをあいつ愛なりすればいいと思う モデルってどうやって作ればいいんでしょうか?
lora学習はまとめてあるサイトが見つかるけど
モデルデータの作成は見つからなくて
教えて欲しい
良いのが出来れば共有したい モデルデータそのものの作成って、最低でも数百万枚以上の画像をスパコン使って何日も掛けて学習させるイメージなんだけど
そういうのはコンピューターサイエンスの学会情報が集まるところじゃないと無いんじゃね?個人でやるにゃきつすぎるし >>354
なるほど…
例えばモデルデータの作成はNAIリークモデルが祖だと思うんですが
今配布されてるモデルデータはNAIリークを元に皆思い思いにデータを肉付けしてるイメージですかね? 足が三本だったり途中から手になったり体が融合したりみたいなエラーを楽しめるのは今年までかなぁ 正面アングルで、脚を前に投げ出して床に座ってる画像を生成したいんだけど
棒人間だと斜めアングルまでしか再現できない(立ち絵になる)
テキストだけだと脚を持ち上げたりストレッチみたいな感じになっちゃって‥
なんかコツありますか? >>355
そもそもNAIも公式SDに追加学習したもの
個人で好みのモデルを作成したい場合はマージが一番簡単 >>358
ありがとうございます
マージは既存の配布されている物通しですよね?
自分のオリジナルの要素を組み込みたいのですが
どうすればよいのでしょうか? automatic1111の拡張からcomfiUI入れたんだがノードが出てこん
なにで起動するんだいこれ? kohya_GUIのmax_bucket_reso min_bucket_resoの項目が見当たらないのですが設定しなくていいんでしょうか? cut offが全然効いてる感じしないんだけど
プロンプトかくときに色指定と指定部位
はある程度まとめないとダメ? >>359
SD1.5などをベースに追加学習させる手法がcivitaiにあるようなTrainedって言われてる奴だよ
ベースモデルを含めて配布してるのがモデルってやつで、ベースモデル抜きの学習データがLoRA等の追加MOD的な奴だよ
まずは学習についての理解をすることが先だね 5GBぐらいVRAMが事前確保されてるけどどうにかならないのか
残りを確保して使いますって警告出てる
当然落とせば0GBに戻る Loraデータ作成の時のイメージフォルダに付ける名前は
学習回数_モデルカテゴリー 識別子
ですよね
これって 学習回数_識別子 モデルカテゴリー でも一緒ですか
”識別子 モデルカテゴリー” でトークン解析して有効なモデルカテゴリーを認識
多少のスペル間違いも補正が掛かるので識別子は3文字くらいがいいと言う解釈なんですかね >>351
思いつくとことして
こさえたキャラクターのCG使って再学習して強固にキャラ固定したLoraを作成
さらにモデルにマージしてそのキャラしか出ない様に安定させるのが第一だなも >>366
どうやればいいんですか?
どっかのサイトで変換するのは無しで >>370
拡張子ckpdにしてモデルのファイルに入れて標準機能のマージのやつで同じファイル二つ指定してM0にして実行して元のフォルダに戻す
ウィルス検知の時ここで質問しても誰一人答えてくれなかった方法 Webuiで花札押してもloraの項目が出なくなりました。
特にextension等追加してません。誰がご助力ください… i2iでサイズ指定する時オレンジの半透過で範囲出てたのに、アプデしたからか出なくなった
レス見るとここ数日その他色々おかしくなってるみたいだし、ローカルでも環境丸ごと
バージョン管理ツールやらで管理した方が良さげだな… なにか不都合あるならともかく普通バージョンアップしないだろ BasilMixで2倍拡大にしたらステップ数かなり上げてもボケボケ画像になってしまうんだけど >>375
Upscaler何使ってる?
R-ESRGANあたりが人気 >>353
これ見て思ったんだけど例えば最初1000枚くらいのクソショボモデル作ってそのモデルにLoraマージ繰り返してけば自分の好みのに育て上げていけないかな?マージってそういう物ではないか >>376
これいいって言うけど、若干だけど顔変わらない?
本当微妙だけど、loraで混ぜた顔が、薄まる感じ 色々拡張されて便利になった気がするが、画像生成が遅くなった気がするな・・
LoRAとかモデルを色々入れたらやっぱり遅くなるのかな?
必要最低限の物だけ入れておいた方が速いとかある? >>376
一番上のLatent
それにしたらだいぶよくなったけどまだまだだな >>379
気がするとはなんなのか
数字で出てるじゃないか
当然フィルタとか入れて使ったら遅くなる
あとは関係なく起動も遅くなる ヨーロッパ方面の田舎な感じってどうやったら出るかな? 市場なんかも出したいんだけど思い付くもの色々試したけど全然ダメだった モデルをマージする利点って何や?顔か?
マージすると構図の幅が狭まってくる気がする
モデル同士が同じような構図を学習してれば
容量がダブるわけだし、その分オリジナルからは
構図が失われてるわけだよな 保存フォルダ名は現状日付けだけど、モデル名にできないのかな
設定で[model]と入れてみたけど、そのまんまのフォルダ名になってしまった Eagleって画像管理ソフト使ってる
プロンプトをそのままタグにして保存できる
ただ、outputの画像をコピーしてるだけだから、
画像の2重管理になっちゃう >>384
試してないけどDirectory name patternのところにマウス持っていくと表示される
説明を見ると[model_name]じゃないかな まんま町の名前入れると出るところはある
フランスのコルマールとか(ごちうさ) 一度生成した画像とまったく同じで細部が違う絵って生成可能ですか?
例えばある服装の子の笑顔、怒り顔など、まったく同じ構図と服装のまま顔だけ変えたい場合です
seed値を固定しても服装が微妙に違っていたりして完全再現ができないです >>389
できた画像にインペイントで修正していくのじゃダメなん? >>372
本体がバグ修正されるまで我慢しる
もしくは安定の頃までバージョン戻せ >>385
chivitai.infoとpngとmodelも一緒に管理できるツールが欲しい今日この頃です >>390
すいません例えが悪かったです申し訳ない
表情はインペイントでできましたありがとうございます
逆に「表情やポーズが同じで服装が違う」はどうでしょうか
「制服絵→上着を脱いでる絵→シャツを脱いでる絵」など
これだとインペイントじゃ指定範囲が広域で難しく…
txt2maskっていうのを使ってみたんですが
大枠の服装変化はできてもこういう微妙な変化はできませんした >>393
自分でロラモデルを作って
コントロールネットでポーズを同じに
するというのは? >>393
まず裸の素絵を作ってそこから着せていく方がうまくいくぞ Counterfeit-V2.5でVAEをCounterfeit-V2.5.vae.ptにすると生成中にエラー出て止まることが多いんだけど何が原因なの? >>382
Vineyards of Bordeaux
ボルドーじゃあかんか?名産品(ボルドーはワイン)あるところは強いと思う SD
手をまっすぐ下におろす、いわゆる「気を付け」の姿勢ってどういうプロンプトで出やすい?
意外とこの姿勢してくれない >>396
まずあなたがその原因が書いてるところを
見つけることからですな >>397
なるほど 思い付きもしなかった
ありがとうやってみます 男女の絡みをpixivとかにあげてる人いるけどどうやるかわかる人います?
乳吸ってるのとかもすごいと思う
画像パクってコントローラーネットでやってもそうならんし…
そういうloraあるんですか? >>393
たとえとして紺色の制服の絵を起点として、上半身を簡単にシャツっぽく白く塗りつぶして、
i2iインペイントでその部分をマスクして「white shirt」みたいなプロンプトを入れて生成する
これである程度差分っぽくはなるんだけど、案外調整が難しくて上手く脱いでくれなかったりするんだよね
手描きラフ差分の精度が高ければ、インペイント差分最寄りそれっぽくはなるんだろうけど… インペイントって黒く塗りつぶしたとこだけ再生成してくれるんだと勘違いしてた >>383
むしろ構造が広がりすぎてプロンプトで制御できないほど絵が安定しなくなる
俺の場合は2.5d背景+2dアニメキャラ+ちょいフィギュア塗りモデルが欲しかったからくそほどマージした >>402
まじない でも知りたい でも乳食いでも
にたようなやつ コピー すればできる >>405
>>407
マジすか!?
それってpromptのみってことですよね?
余計なlora入れてると駄目なんかな
promptは大体めぼしいのは入れたり重くさせたりもしたから、
今までキャラクターlora入れてやってたからそれが悪さしてたのかもなぁ >>157
今回線障害で落ちてたけど、1111は普通に使えた
学習のkohya__ssがhuggingfaceのファイルが見つからないと言って実行出来なかった >>398
さっきたまたま見たプロンプトでは
arms at sides
と書かれていた ドール写真を素材にlora作るとしたら学習元モデルは何がいいかな?
ドルフィードリームとかの2次寄りドール
いわゆる2.5次元とはちょっと違うんだよな >>412
もうドールのLoraはある
自分のこれだって思うやつで作ってくれ 質問失礼します。
Stable Diffusion web UI 内のwebui-user(バッチファイルって書いてある方)を開くと
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
と出てきます。これを検索するとどうやら launch.py を開いてどうのこうのと解決するらしいのですが、そもそもlaunch.pyが分かりません。検索しても分からない…
(pythonはおそらくインストールできていて、スタートボタンの隣の検索欄にpythonと打つとコマンドプロンプト?みたいなのが出てくる状態です。)
launch.pyを開くというのは具体的に何をどうしたらいいのでしょう? 本日手動更新したら不具合直りました(喜
いろいろアドバイスくれた人ありがとー
よい子のみんなはムヤミにupdateしないようにね~ オパーイからお乳を出す呪文は無いですかね。三次なんだけど、前に "Breast Milk" で試してたら
Milk に引っ張られてか、何故か段々と牛のコスプレ要素が強くなってしまった覚えが。
civitaiに上がってるLoRAだと搾乳機みたいなのが多くて、そこまでのハードさは求めてないのよね… >>416
(nipple from spread lactaioning milk:1.3)としたら多少表現されたけど、なんか思ったような感じではないね… 初歩的な質問いいですね
Lora作ったら出てくる000001とか000002のファイルって何なんですか? >>416
(milking:1.3)でドバドバよ 結局モデルが学習しているか次第だからねぇ。
母乳噴射画像を都合よく学習しているモデルなんて限られてるだろうから、LoRAで補正していくのが正攻法だろう。 >>371
試したけど出来なかった
そもそもプルダウンメニューに出てこない
メニューに出るファイル名に偽装してマージしようとするとエラーが出る civitaiエラー525で繋がらないけどおま環? civitai死んだら一気に活動意欲なくなるかも知れん なんかクラウドフレア使ってるところおかしくなってるの多いな >>420
途中経過のファイル
どの方法でやってるか知らんけど「エポックごとに学習ファイルを保存する」設定が有効になってると出てくる
これが例えば2エポックごとに保存する設定なら2,4,6…と出てくる
「8エポック回したけど、過学習気味だから途中の000004を使ってみよう」みたいな使い方ができる モデル作りの話題は、まるでタブーのように何もなく終わるのは謎 >>433
かっこ内の数字下げるのとはまた違うの? multidiffusionってregion pronpt controlで構図作ってhiresfixで高画質化するのが一番使いやすいよね?それ以外i2iもぐちゃぐちゃなものしかできない >>438
かっこ内の数字ってプロンプトにつける数字の事?
そうなら、これはプロンプト(命令)の強弱なので別物やで
AI学習(ディープラーニング)は学習させすぎると元データに近づきすぎて逆に上手く出力できなくなるんよ
こういった状態を過学習いうの
ぼやっと「なんとなくこういうんが〇〇ってことやな」ってくらいの曖昧な状態にした方が上手く動くんだわ
で、過学習になった時に一から覚えなおさせるのは大変やから「ここまで覚えた」いうのを作って戻せるようになっとるってのが433の説明 >>437
何言ってんだ??
なにもタブーでもなんでもないぞ >>446
お前さんの知らないところでテンプレまとめたり質問答えたりしてスレを維持してる人間もいるんだよ
お前さんみたいな無産だけがいるわけじゃないよ >>441
マニュアル通りにやると構成そのままで高画質化できたけど、なにか設定がまずいんじゃない?
自分はt2iで出した画像を部分修正して、multi + tiled vaeで高画質化してる。
768×512の3倍だけど、8gbメモリでも全然余裕で行けると思う。 >>433
丁寧な返答助かる
とりあえず多めのエポック作っといたら二度手間にならのんのね img2imgで元絵として使う画像は、誰かに見られたり、どこかにアップロードされて保管されたりしますか?
自分や家族の写真を使うのはやめておいた方が良いでしょうか? モデル関係を0から作るのが大変だから今マージとかLoRAとか流行ってるって認識広まった方がええんちゃう?
dreamboothバンバン使える演算処理能力あるならそれは企業レベルなんよ 個人の用意できる範囲の学習は演算能力は12GBのVRAM積んでるGPUなら足りてると思うわ
モデル作成はベースになる億単位の素材確保とタグ付け&学習だわな
なんとなくついてる環境光・陰影や背景の空や建物、髪形髪質瞳の色表情他自分で使うタグ全部用意できなら別だが
例えば元が20枚で学習してもその範囲でしか変化させることができんから汎用性皆無だしね…
ベースモデルのSD抜きにしたら学習させてないタグは一切使えない訳だし、そもそもその枚数では人を学習させるのも大変だと思うわ >>444
ありがとうございます、勉強になった。今気になってるとこの修正に使ってみる。 >>458
冷たい表情、侮蔑、冷笑の顔、泣き顔、
恐怖、怯え、もいいし薄幸なのもいい
目から生気が抜けてるのはなおいい
ニコニコ顔の少女は要らない >>459
なんか嫌なトラウマでも有るんか?話しきこか? モデルのせいか分からんが顔歪んだ泣き顔とかイキ顔とか作りたいのに作れなくて悔しい
結局無難なニコニコ顔にしてしまう >>459
あっ…(察し
ワイは眉間にシワ寄せて悔しそうにクッソ睨みつけてくる激怒顔が好きや 実写系でそういう表情させるのにええ感じのプロンプトあったら誰か教えてくれい >>451
そういうことはないということになっているし、実際元絵が知らないうちにどこかへアップロードされたという話は出たことがない
どうしても気になるならネット接続を切って使うとかかなあ 半開きの目にしたい時はajar eyesがおすすめ
あとはtroubled eyeblowとかflownとか併用で泣きそうな顔になるかねぇ >>451
ローカルで環境作ってやるぶんには何も問題はない
そもそもオフラインで動いてる
ただ、どこかのwebサービスを使う場合はそこの管理者によるかもしれない この前始めたばっかなんだけど架空銃や服のデザインのみ生成とかはできないの?
軽く調べても人物画ばっかりでわからん できなくはないけど銃は、というか兵器一般はまだものすごく苦手。 >>456
家族写真を二次イラスト化したくてやったことはある
まあ原型はほぼ無くなるわけだが UZI持たせたかったけど出てこなかったのはモデルが良くなかったか まずクッソ有名なキャラクターでさえも個人個人で追加学習を行ってLoRAで実現するという事実を知ろう
その上で生のモデルで一般人に通じない銃の型名(?)なんかが通じるかどうか >>451
自分の猫をそうしようとしたらとんでもないグロ猫になってからトラウマになって身近な人はやらなくなったよ 何でも AI に頼るのは無理よ
自分で銃を書いた方が早いし >>468
わりとどのモデルでもreference sheetとかblueprintっていうタグを使うとこういうのは出せる
masterpiece, best quality,(extremely detailed:1.2),
realistic,cyber future guns and wepons,
blueprint,reference sheet,infographics,Assembly Drawing,Detail Drawing,(overexposure:1.0),multiple views,Hdr
Negative prompt:
worst quality,low quality,normal quality,letterbox,stereogram,2screens,monochrome,text,error,cropped,signature,watermark,username,artist name,
https://i.imgur.com/goqPIqD.png
https://i.imgur.com/RDhaz5e.png
https://i.imgur.com/gLvwy7n.png >>467
亡くなった奥さん(美人)の若いころを学習させて無限に出力している人はいて、こないだAIアートコンテストで大賞をとっていた webui-locon入れてloha使って生成するときに
RuntimeError: shape '[4, 320, 3, 3]' is invalid for input of size 921600
↑これが出て生成できない件、既出なら申し訳ないが解決策求む。
ちなみにloha自体は読み込めてる(花札に有)、普通のloraは問題なく生成可能
SD1111版、Anythingv3.0使用 >>476
civitaiにはAK47とHK416のLoRAはあるね
自分で学習するのがハードル高ければ
まずはそれで画像生成して★5付けてコメントに適当英語でいいから
「Great! I NEED UZI!」とでも書いとけば?
どうせ他のコメントも「他の銃もくれ」とかそんなんだから すみませんが
すっぴんにしたい時
服が濡れて透けて肌にはりついている状態にしたい時
の呪文を教えてくれませんか? >>479
この前飼い猫が亡くなったからLoraつくるとか言ってた人が貴方なら悲しすぎる結末だな 芸能人の名前とか入れてもまだ画像生成はしてくれないのかな
手軽にハイクオリティなアイコラ作れる時代はまだ少し先か… そうなのか、素人にはまだ厳しい
stableのサイトで遊ぶのが限界なんだ…すまん Chilloutみたいなリアル系だとCutOffの機能が効かないとかあります?
顔にこだわって可愛い顔におしゃれな服ができたけど色だけがやけに地味みたいなことが多すぎで
それでプロンプト調整すると顔が変わっちゃうし >>487
わかってるとは思うけどアイコラは公開しちまったら名誉毀損で捕まってもおかしくないなら気をつけてな 公開なんてしないさ、自分で楽しむのだ
でも見間違うほどのアイコラが生成できたら世界が転覆するな
(芸能人の名前), naked, bathroom, dildo
で画像生成できなかった、AI自動とはいえ技術が必要か…
夢のアイコラ天国はまだまだ難しいね 特定キャラ、個人、作家の画風を真似するならlora等を作る必要がある >>493
技術とかそういう話ではなく、要素として学習されていない
大統領や欧米の有名人、安倍元総理くらいは一般教養として学んでいるというだけ
そして今後はもっと厳しくなる >>493
いやいや簡単にできるだろ
調査が足りんよ できるのかな、自分にはまだ早かったみたいだ
架空のAIコスプレイヤーじゃなくてアイコラがほしいんだなぁ
好きな芸能人を脱がせられるAIに期待… >>490
Chilloutは殆ど効かない
最終的に色移り対策はケースバイケースだから全部試せって事に落ち着く
inpaint修正で手が打てるのはそっちに任すとかしないと沼 >>497
すでに出来るよ
みんな普通に芸能人追加学習したりしてアイコラ剥ぎコラハメコラ作りまくって楽しんでる
ただ公開しないだけ
リアル過ぎるから >>497
AIだってそれが誰だか知ってなければ作れない
それをこちら側から教える機能が付いてる リアル系がポーズ立ち絵みたいなのばかりだから
もっといろいろできるようになると楽しいんだけどな お気楽にプロンプトから追加画像渡す機能とかあればいいのになぁ、LoRAとか面倒だし 既にできるのか、文系でプログラミング知識ゼロでもできるのか
ひとまずLoraという人を検索してみるか 実在芸能人系に固執奴って仕舞には自慢うpしそうだし関わりたくないわ >>501
controlnetを導入すればポーズや構図もかなり融通が効くようになる 細かく性壁を設定するなんて高望みはしないから
pornpen.aiのサイトみたいな感じでさ
あとは芸能人の名前を入れたら適当なヌード画像生成してほしいな クラウドでGenerate Foreverすると、すぐ止まります
良い解決方法ないでしょうか? >>506
質問じゃないのならそろそろ他所行け
ここはお前の日記帳じゃねぇ >>475
サンクス!
怖がらせた方が良くなるとは盲点だった >>506
芸能人なんかよりも美人のヌードを拝めるというのに 全部河北彩花顔か石川澪顔しかないじゃないか
お前らも好きなの? >>507
gradioからの通信不調や通信途絶が原因だから対処法ないと思うわ
解決はできないが代替案としてBatch countを100とか100以上(最大数の設定を弄る)に変えてGenerateすれば
SD(WebUI)が動いてるクラウドサーバと通信をパイプしてるgradioは別だからgradioでエラーが起こっても作らせ続けることは出来る 相談させてください。
何度クリーンインストールしてもconberterやら〜pyやらのモジュールが足りないとStable DiffusionUIにエラー吐かれて
拡張機能をつっこんだらローディングから動かなくなってしまいました。
PythonやGITを入れ直すところからやり直したほうがいい気がしてますが、同じ結果にならないようにアドバイスいただきたいです。 初心者質問ですみませんLoRAの素材フォルダ名を
50_hnr honyararaみたいにクラスプロンプト部をキャラ名にしても生成結果に全く反映されないのですが書き方おかしいですかね?
タグの先頭はhonyarara,1girl,....みたいにしてます
50_honyarara 1girlや50_hnr 1girlと書くとちゃんと反映されてるのですが1girlとかをトリガーにしたくないです >>516
キャプション有りだと先頭の数字以外は無視される
readme読め 515です
ちなみにエラーメッセージは以下のものが頻出します。
Error loading script: utils.py
Traceback (most recent call last):
File "X:\AI\stable-diffusion-webui\modules\scripts.py", line 256, in load_scripts
script_module = script_loading.load_module(scriptfile.path)
File "X:\AI\stable-diffusion-webui\modules\script_loading.py", line 11, in load_module
module_spec.loader.exec_module(module)
File "<frozen importlib._bootstrap_external>", line 883, in exec_module
File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
File "X:\AI\stable-diffusion-webui\extensions\layerdivider\scripts\utils.py", line 4, in <module>
from convertor import df2rgba
ModuleNotFoundError: No module named 'convertor'
GPTくんに相談したらconvertorを入れろと言われますが言われた通りのコマンドを打ってもエラーが出て
「convertorという名前のパッケージがPyPI(Python Package Index)に存在しないことを示しています」と言われます。
convertorが独自のモジュールである場合、そのファイルがプロジェクト内の適切なディレクトリに存在することを確認してください。
とのことですが知識不足で手詰まりなのでご教授いただきたいです。 >>519
layerdividerはエクステンションじゃなくて単体で動かすソフト
githubにインストール方法が日本語で載ってる >>519
ご教授じゃなくてご教示というんだよw
ほんと馬鹿だなこいつ エラーのパターンなんて大して多くないからそのまま検索したら
まったく同じとこで躓いてる外国人さんが大抵いるから
その掲示板を読めば親切な賢い誰かがすでに解決方を書いてくれてるもんだ >>515
>4のFAQにあるこれをどうぞ
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる アニメ絵の学習とかだと回数そこまで回さないみたいだけど、リアル系だとどれくらい必要なんでしょうか?
1万回くらい回してるんですが サンプルは教師画像の雰囲気に似た誰かになる程度で 画像も荒かったり顔が崩れてたりで先が見えません
batchサイズ2
dim 128
alpha 64
でやってます アニメ絵の学習とかだと回数そこまで回さないみたいだけど、リアル系だとどれくらい必要なんでしょうか?
1万回くらい回してるんですが サンプルは教師画像の雰囲気に似た誰かになる程度で 画像も荒かったり顔が崩れてたりで先が見えません
batchサイズ2
dim 128
alpha 64
でやってます リアル系で完全に似せるのはかなり大変
画像生成時にshe is a 19 year old woman
みたいな感じで年齢したほうがブレ幅が狭まる
教師画像が顔のクローズアップばかりだと等身わからな為か頭でっかちになる感じ
元のデータベースでポーズが変わると人も変わってしまうので全画像同じ顔にするのは
不可能だと思えてきた >>449
高画質にするのはi2iで?1024x512をi2iで4倍高画質にしようとすると目とか服の書き込みがhiresfixと比べて荒すぎて困ってる
設定は公式の推奨通りにやってる。 >>528
4倍はやったことないからわからないけど、品質のpromptだけ入れて、r-esrgan/denoising0.3/cfg14で上手くいってる。
細部の書き込みが悪いんだったら、upscaler変えてみるとか? ちゃんと質問にきますた
芸能人のヌード画像生成はどのくらいのレベルで可能なんだろうか?
そこらのポルノ女優の写真で顔だけ入れ替えた雑なアイコラを1レベル
本人がヌード写真を出したのかと見間違うほどのクオリティを10レベルとして
今のところどれくらいのクオリティのヌード画像が可能?
架空の人物ならもはやAIかリアルが分からないくらいだけど
実在の人物となるとどれくらいの精度なのか気になる…
誰かしら見てみたいけどどこにも載ってないよね、サンプルとか >>532
そんな犯罪行為は個人だけで楽しむものだからネットに上がって無いのは当たり前だよ 縦長の画像に「(split screen), multiple views」をつけるとエロ漫画風のイラストが生成できる
……らしいのですがどうにもうまくいきません
ここに書いてある以外のコツがあったりするのでしょうか?
(リンク先18禁画像があるので注意)
↓
https://fate.5ch.net/test/read.cgi/liveuranus/1679734218/257
https://fate.5ch.net/test/read.cgi/liveuranus/1679734218/258 >>532
ポン出しならレベル1-2くらいだね
顔にマスクかけて体だけレンダリングすればポーズによってはレベ8-10にはなる
ただし技術は必要
アイコラはすでに規制が入って刑事民事両面でやばいので
国内で公開する人はあまりいない >>533
まぁ、そうだよね
だからこそどれくらいのクオリティなのか気になる
実在の人物って少しの違和感でも萎えちゃうから… >>535
8以上は技術が必要なのか、じゃあ自分には無理だ…
もっと簡単に8以上が生成できる時代になるまで我慢する >>532
civitaiに行けば実在人物のLoRAも多数転がってるよ (日中韓の芸能人、アイドル、AV女優、コスプレイヤーetc)
civitaiでは少し前から「実在人物のNSFW(エロ)画像は作例で上げるな」みたいな流れになっているので見かけないけど、
あとは呪文次第。 この発展途上の段階でこんな情弱にまで広まったらおしまいだよ snsはとんでもないバカがいっぱい居るからそのうち何人か捕まるよ ディープフェイクは現状ですら明確にやめろよって言われてもめちゃくちゃはしゃいでやってるからね >>530
助かる
アプデ待つしか無いんすねやっぱ
みんなウマ娘のlohaで相談してるの笑った(自分もそうである) 技術的な知能はなくても技能的な知識があれば8レベルくらいはいけるね バカ性欲猿からのワンチャン覚醒もあるからエロは偉大なり でもどのモデル使ってるかなんてわかりようがあるんかね
加工した時点で内部データ消えるし無理じゃね? LORAに手を出しつつあるんだけど沼る前に教えて下さい。
物の写真を色んな角度で撮ったものを学習材料に使うとして、
それはちゃんと配置?されるの?
例えば靴の写真だけ学習につかっても靴として認識はされるだろうけど
履いてくれるのかが気になります。その靴を履いてる写真は必要? 俺の婆さんから聞いたことがある
昔イオンで上履き買ってきて
1500枚の学習素材から自炊した猛者が本スレにいたそうだ
その話は置いといて、履いてる写真は必要だと思うぞ
でないと上履きの中が写ってて足首が写ってないわけだし 学習の時のパラメーターってなにがなにを表してるのか教えてくれるサイトある? >>552
AIは画像全体を学習する
靴の写真を単体で学習しても人間が履いてくれるようには出力できない
雑コラみたいに学習した位置に靴が置かれるだけ >>553
>>555
ありがとうございます!すごい大事なことだと
思うんだけどうまく消化できない…
靴を違和感なく履いてほしいと思うなら履いている画像が必要で、
全体も学習するっていうことは距離も大事か…全身画像は必要ないですよね?
人物顔は正面4左右4ずつ全身1の8000〜8500Stepで
雑コラ並みにはなったけど顔や背景がほぼ決まった角度でした。
クオリティ求めるなら履いている背景が白いひざ下画像を
正面左右(遠中近)計1200枚 ディテール用として単体100枚くらいで
8000〜8500Stepで出来の良いものを選別するっていう考え方で
大丈夫そうですか? 要は靴は人間の足に履くものだって学習させないといけないって事でしょ全身も有ったほうが良いんじゃね Batch sizeを上げると生産枚数が増えますが
これってデメリットなどありますか? >>558
Batch sizeのとこにマウスカーソルを合わせるとポップアップで説明が出てくる通りで、
Batch sizeの値を大きくすると、使用するVRAM量が多くなるデメリットがあります。 >>559
回答ありがとうございます
画像の品質などは変わらないでしょうか?
品質が変わらないならBatch sizeを大きくした方が得ですね 品質は変わりません。
Batch sizeの値を増やすと、所要時間の面で多少恩恵があります。
詳しくはwikiのハローアスカのページに報告例がいくつか挙がっていますのでご参考に。
1から2に増やしたら所要時間半分になるのか!というと、そこまでではないです…。 余計なことをしてweUIが立ち上がらなくなりました
複数のpyファイル関連のエラーが出ているので、それらのpyファイルを以前の状態に戻せば治ると思うのですが、
それをするやり方はありますか
書き換えられてしまった差分をチェックし修正する機能のようなものがあれば教えていただきたいのですが >>562
その「余計なことをして」の詳しい内容によるんだけど…
単純に本体のバージョンと拡張機能の相性とかでもpyファイルのエラーがどかどか出ることがよくあるので、
エラーメッセージ全文のスクショを https://imgur.com/ とかに貼ってほしい気もする。
でもとりあえず質問の文面通りに答えておくと↓このページかな。
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cegit#content_7 >>562
git resetやgit checkoutは書かれてるまま打ち込む前に自分でもちゃんと調べてねって言いたい部分
一応差分の出し方も書いておくと
git diff
で簡単にわかるよ >>563
どうもです
やったことはwebui-user.batの編集で、以下の文字列をそのままや、削ったりして何度もwebui-user.batを繰り返しました
(VRAM不足で描けないデカさのサイズをなんとか描かせようとした)
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
set COMMANDLINE_ARGS=の下の行に上記を付け足しました
それ以後、立ち上がらくなって以下のエラーが出ます
File "C:\Users\***\Documents\GitHub\stable-diffusion-webui\launch.py", line 381, in <module>
start()
File "C:\Users\***\Documents\GitHub\stable-diffusion-webui\launch.py", line 376, in start
webui.webui()
File "C:\Users\***\Documents\GitHub\stable-diffusion-webui\webui.py", line 240, in webui
shared.demo = modules.ui.create_ui()
File "C:\Users\***\Documents\GitHub\stable-diffusion-webui\modules\ui.py", line 1744, in create_ui
with open(ui_config_file, "w", encoding="utf8") as file:
PermissionError: [Errno 13] Permission denied: 'C:\\Users\\***\\Documents\\GitHub\\stable-diffusion-webui\\ui-config.json' >>564
それはやったんですが、webui-user.batの編集しかやってないとしか出てこないので右往左往してます
>>563
どうもです
wikiにあったんですね・・・
教えていただいたやり方でチェックしてみます >>565-566
なるほど…そういうことなら、俺だったらまずwebui-user.batを初期の内容に戻す
内容はここにある通り。コピペしてもいいし、このファイルをDLしてもいい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/webui-user.bat
それでも直らなきゃvenvフォルダを一旦削除 あ、それと>>565でui-config.json(設定ファイル)がPermissionエラー吐いてるのも気になるね。
このファイルを一旦別の場所に退避させてみる(=デフォルト設定で起動してみる)のもいいかも。 >>567-568
ui-config.jsonの退避で起動できました
こんな単純なことでよかったのか(汗)
お騒がせしました・・・ >>557
その理屈だと身に着ける系のLORAの学習素材は
求めている人物そのものじゃないと自炊できないってことにならないか?
上履き履いているおっさんの全身画像が学習素材に
使われて上履き履いてる女の子ができるとは思えんのだがw
LORA適用したら上履き履くけど下っ腹出て禿げるLORAにならんのかなw
ひざ下画像あれば人間の足に履くものだと認識してくれると信じてやってみます
最適枚数とstep数ご存じであればどなたかご教示下さい >>570
モデルが女の子学習してるから
まあ腹筋とか下腹とか一緒に学習したらそれが顕著に出てくるけど gitignoreに記述されてるファイルが原因で立ち上がらない場合
git pullしようがgit checkoutしようが治らないのちょっとハマりポイントだよなあ 取り敢えずお試しで初インストールしてる最中なんだけど、モデルデータって4GBファイル6個とかこんなでかいの全部入れないとダメなん?
wiki見ながらインストールしてるけど中々カロリー高い作業で起動まで辿り着けるのかわからない >>575
4GBファイル1つあれば動きませんか?
メインのモデル1つあれば動くかと >>575
1月とか2月ならともかく、今はアニメ系と実写系でそれぞれ一つかふたつずつあればいいと思うよ
今はLoRAと各種拡張のが大事だからね なるほどー
V1、V2名前のについてたからヴァージョン違いのモデルを全部落としちゃったのかな
取り敢えずwebui-userの初回起動中のインストール作業が始まった
これどれくらい時間かかるんだろ
プログレスバーが出ないでlogだけだからいつ終わるのか予想がつかない 慣れてからでいいけどモデルはfp16っていう半分の精度に落せば一つ約2GBまで減る
低スペックPCや低スペックにはこれが優しい
配布元が用意してくれてる事もあるけど自分で削ぎ落すこともできるよ トリンアートでやってたけど狙った画風の呪文が分からずローカルで挑戦したんだけどこっちは一発で狙った感じの塗りになってるわー
モデルのサンプル通りというか fp16やfp32、それがついてない物はどんな意図があって別々に存在してるのか教えてほしいです ツイッターのリンク貼る時
h*tps://twitter.com/5chan_nel (5ch newer account)
これも付け足すの見るが5chのアカウントのリンクを足す理由はなんだ?
https://twitter.com/5chan_nel (5ch newer account) 学習させるのにテキストいじる際、80枚とか大量だと大変なんですけど、
全部まとめてイジれるツールとかあるんですかね lora学習の際
returned non-zero exit status1
で止まるんですがどんな原因が考えられますか?
素材フォルダのパスやモデルやvae等読み込みは完了出来てる
VRAM8G、PowerShellでの打ち込みとgui両方試して同じ結果に >>585
何のツールかもわからんし、
どういう操作してそうなったかもわからんし、
これに応えられるやつはエスパーくらい >>584
タグ付けは標準の奴と拡張と個人で公開してるのとかいろいろあるよ
アフィサイト回れば大抵紹介されてる 自作実写Loraをで実写系を出力して遊んでます。
顔は最高に良いのに、胴に対して頭が大き過ぎたり、頭から頭が生えたり腕が多いなど、全体的にどこか惜しい画像ばかりが生成されます。
ネガティブプロンプトに入れた方が良いものはありますでしょうか。
対策として、bad anatomyや、civitaiなどにある作例のネガティブプロンプトを真似て追加しましたが、あまり効果のある印象は無かったです。
Loraを自作させるにあたり、顔面のみを学習させたのですが、ボディバランスを理解させるために全身やバストアップを混ぜた方が良かったのでしょうか。 >>588
easynegativeじゃだめなの? >>589
ネガティブプロンプトに記述してあるんですが、効いてないような感じなんですよね。
色々試してみようと思います。 画面に向かってトロ顔でキスするようにするプロンプトを教えてください!
画面越しにキスしたいです! >>497
こんなバカにまで知れ渡ったらそろそろやばいよね >>504
本当それ
世間との距離感が測れないやつが
ほんと危険 >>590
わかってると思うが念の為言っておくとeasynegativeは書くだけじゃだめだぞ 実際触ったらローカル環境作って個人で楽しむにとどめるのがいいってわかるよね 他人が嫌がることやってるのを他人に見られたらどうなるかは昔より今の方がわかりやすいと思うんだがなぁ
ラーメン屋のコショウやつまようじをぶちまけたり、バイトテロや外食チェーンの違法行為の録画とかと同じくはっきりと証拠が残るのに 15年前だったら好き放題アップしたかもしれんけど今そんなことする気起きんよな >>588
サイズ大き目で出力していませんか?
512*512や512*768でいったん出力して
事象が改善されるなら学習素材のサイズが
出力サイズより小さくて起こる事象かもしれません。
手間ですが、その場合は小さいサイズで出力して
アップスケーリングしています。
あと私もLoRAに挑戦中ですが、頭のサイズがでっかくなるは
全身画像入れなかったときにその事象に遭遇しました。
最高に良い出来の人物顔の素材の枚数とstepって
どのくらいなのか教えてもらえると嬉しいのですが…
>>556の対比で合っていそうですか? >>598
大丈夫です!今までアイドルとか女優さんとキスしまくってたのでモニターはもうベタベタです!
おすまし顔で唇閉じてるだけなら作れるんですが陶酔しきった感じで唇突き出してる顔がいいです!
お願いします!!! >>601
すげぇ!3次にも効いた!!!
ありがとうございますめっちゃキスします!!!!! lora.で服装だけ学習させたいときは
パラジウム?どう設定すればいいでしょう? >>588
small headとかslimとか噛ましてみれば Loraの影響範囲をAND内で限定するComposable LoRAはEnabledにチェック入れるだけで使えるんだよね?
Latent CoupleとLoRA Block Weightと合わせて男1女1出すとして
1boy,1girl,背景,masterpiece,best quality
AND
<男lora:NP>,masterpiece,best quality,服とか
AND
<女lora:NP>,masterpiece,best quality,服とか
でやってるけど男Loraの影響を受けて女の塗りが変わってしまう
プロンプトの書き方間違ってる? >>603
ふーん、ちょっと出来具合見せてくれてもいいよ >>586
guiのTrain Modelを押した後ですね。
一応参考に。モデルやフォルダパスを読み込んだ後に止まる。
PowerShellから直打ちでも同じ結果です
素材画像があるのも認識はしてるみたいですね
https://economylife.net/kohya-lora-install-use/ ハードルは高いけどブログ主もフィードバック欲しくて公開してるだろうからその方がええわな 「ブログ主は5ch見てないだろうから、ブログにフィードバックすべき」という意見のはずが
なぜ>>611のような捉え方になるのかすごく気になった guiとかプロポント直打ちって結構マイナーなやり方なんですか?
結局PowerShell学習開始まで来れば同じだと思ったんですが >>614
雑談してる連中を別スレに誘導したりするとキレるし、ビギナーがビギナーのままテキトーに質問に答えたりしてて色々終わってる >>607
しかたないにぁ^^
ttps://i.imgur.com/Dol4i9e.jpg Stable Diffusion Web UIで、
今までうまく動いていたのですが、
CUDAインストールし直したら
RuntimeError: Error running command.
Command: "\.pyenv\pyenv-win\versions\3.10.6\python.exe" -c "import torch; assert torch.cuda.is_available(), 'Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check'"
Error code: 1
stdout: <empty>
stderr: Traceback (most recent call last):
File "<string>", line 1, in <module>
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
とエラーが出るようになりました助けて・・・。 >>616
他人に初心者とか言って馬鹿にしてる奴が上級者には見えんがね そろそろワッチョイいるかもな
流れ的にアイコラ野郎の荒らしにみえてきたわ そもそもまだ1年も経ってないものにビギナーもクソもないだろ >>620
ビギナーですまんが
CUDAのインストールっていうのが本当にCUDA ToolkitだったのならインストールしたCUDAのバージョンを教えて欲しい
torchとCUDAはなかなか細かい相性があって
CUDA11.7を入れたらtorchはtorch==1.13+cu117みたいなバージョンを入れなきゃいけないし
CUDA11.8を入れたらtorch==11.3+cu118みたいなのをいれなきゃならん
でも気になるのがCUDAをインストールしてなくてもその辺勝手にAUTOMATIC1111のWebUIがやってくれるみたいで動くわりに、環境変数に何も追加されなかった気がするからvenvにCUDA含めて詰め込まれてると思うんだよな
NVIDIA公式から落としたインストーラでCUDA Toolkitをインストールしたんだよね? ちなみにそのエラーに出てるそのコマンドライン引数をwebui-user.batに書くと起動する代わりにCPUで実行されますw CUDAをインスコしてからSDを入れないとバージョンの自動判定してくれないぞ
手動で書き換えれ なるほど
CUDA_PATHが通ってたらvenv構築時に適切なtorch入れてくれるのね
じゃあvenv削除か PyTorch version: 1.13.1+cpu
Is debug build: False
CUDA used to build PyTorch: Could not collect
ROCM used to build PyTorch: N/A
OS: Microsoft Windows 11 Home
GCC version: Could not collect
Clang version: Could not collect
CMake version: Could not collect
Libc version: N/A
Python version: 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] (64-bit runtime)
Python platform: Windows-10-10.0.22621-SP0
Is CUDA available: False
CUDA runtime version: 12.1.66
CUDA_MODULE_LOADING set to: N/A
GPU models and configuration: GPU 0: NVIDIA GeForce RTX 3070 Ti
Nvidia driver version: 531.14
cuDNN version: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.x\bin\cudnn_ops_train64_8.dll
[pip3] lion-pytorch==0.0.7
[pip3] numpy==1.23.3
[pip3] open-clip-torch==2.7.0
[pip3] pytorch-lightning==1.7.6
[pip3] torch==1.13.1
[pip3] torchdiffeq==0.2.3
[pip3] torchmetrics==0.11.4
[pip3] torchsde==0.2.5
[pip3] torchvision==0.14.1+cu117
[conda] Could not collect
ちょっと行数問題で一部削ったけどこんな感じ 12.1だけどcuDNNは11.xの方使ってるってことなんかなこれ
とりあえずvenv消して再起動して
ダメだったらCUDA_PATH、CUDNN_PATHを11.x系で両方同じものに設定して(なかったらインストール)venv消して再起動して
それでダメだったらわからんw ちなみに環境変数とかわかるタイプの方かな
分からない人だったらまたあとで画像でも用意する >>631
大丈夫!ちょっとインストールし直しとか試してみる! >>621
別に名指ししてないのになんで君がキレてるのか謎すぎるわ
よくわかってないのにテキトーな答えを書く人が増えたのは事実だよ 雑談してはいけないつーこのスレのルールには厳しいくせに他人を罵倒してはいけないつーどのスレでも当たり前のルールを守らんやつもいるから
まじで春だと思うよ >>629
Is CUDA available: False
ログを見るかぎりCUDAが有効になってないようだ 515です
言われた通り色々試してみましたがうまくいきません
Error loading script: main.py
Traceback (most recent call last):
File "X:\AI\sd.webui\webui\modules\scripts.py", line 256, in load_scripts
script_module = script_loading.load_module(scriptfile.path)
File "X:\AI\sd.webui\webui\modules\script_loading.py", line 11, in load_module
module_spec.loader.exec_module(module)
File "<frozen importlib._bootstrap_external>", line 883, in exec_module
File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
File "X:\AI\sd.webui\webui\extensions\sd-webui-blip2\scripts\main.py", line 8, in <module>
from lavis.models import load_model_and_preprocess
ModuleNotFoundError: No module named 'lavis'
拡張機能やスクリプトを使うたびにこの手のメッセージが出てきて無限ローディングになります。
Pythonはvenvから?アップデートしましたが、どうもこのPythonのモジュールがインストールされてないようです。
ググっても正しい情報かもよくわかりません。 515です
GPTくんには以下のように言われてます。
main.pyスクリプトをロードする際に、モジュールlavis.modelsが見つからないため、ModuleNotFoundErrorが発生しています。前回の回答で、lavisパッケージがPyPIに存在しないことが確認されているため、以下の手順を試して問題を解決してください。
lavisがカスタムモジュールである場合は、そのモジュールが適切な場所に配置されていることを確認してください。Pythonは、カレントディレクトリ、環境変数PYTHONPATHに設定されたディレクトリ、およびシステムのPythonライブラリディレクトリでモジュールを探します。lavisモジュールがこれらの場所のいずれかにあることを確認してください。
ソースコードまたはプロジェクトのドキュメントを確認し、lavisモジュールがリネームされたか、別の名前のモジュールに置き換えられたかどうかを確認してください。リネームされている場合は、main.pyのfrom lavis.models import load_model_and_preprocessの行を、新しいモジュール名に変更してください。
プロジェクトのリポジトリやドキュメントでlavisモジュールのインストール方法、依存関係、または適切な設定に関する情報を探してください。必要ならば、プロジェクトの開発者やサポートチームに問い合わせて、適切な手順を確認してください。
上記の手順を試しても問題が解決しない場合は、プロジェクトの開発者やサポートチームに問い合わせて、lavisモジュールの正しいインストール方法や設定を確認してください。
そもそもこのモジュールがインストールされてないような気がしています。 >>636
フォルダ構成を見る限り、おそらく公式のワンクリ版を導入したんだと思う
あれはPythonをインストールしないかわりに最小限のPythonが同梱されてるだけなのでextensionによってはエラーが出る
諦めてPythonやgitをインストールして導入したほうがいいかもね CUDAを入れ直したのは不具合解消のため?
不具合解消じゃないなら前のバージョンに戻すか、インストールし直して前の状態に戻してみよう
(インスコの後はおまじないでOSを再起動する) >>636
「いろいろ」をなるべく詳しく
>524は試してみた? とかいちいち聞くのは効率が悪いから リアル系背景の描画が上手いモデルってある?
RealismEngine試したけどダメだ 515です
いろいろやったことは、
・Pythonをブログで推奨されてた10.9からとしあき推奨の10.6でインストールし直したこと。
・524の公式の簡易インストーラを使って見たこと。
・それを python.exe -m pip install --upgrade pip してpip-22.2.1からpip-23.0.1にアップグレードしたこと。
これは簡易版とGIT版両方で試しました。
・webui-user.batの、set COMMANDLINE_ARGS=--xformers --precision full --no-half の書き換えをやめて元のままつかってみている。
などです。
無限ローディングするようになったタイミングは、UIと拡張機能を最新版にした瞬間からでした。
エラーメッセージ自体は前からずっと出ていたのでだましだまし使っていたのですが。
今はGITを古いのに戻そうと調べてますが、そもそもPythonの接続がおかしいのが原因な気がするのでそっちをどうにかしたいです。 >>515
通常版1111にするかワンタッチ版1111にするかの判断は任せるけど、
とりあえず拡張機能を導入する前の1111本体だけで動作確認をしよう。
その後に複数の拡張機能を一度に導入するのはやめて、一つずつ動作確認を取りながら導入していこう。
どの拡張機能が原因で問題が起きているのか、問題の切り分けが大切。
extensionsフォルダに拡張機能が入っているから、時には退避させながら問題箇所を特定していくといい。 >>643
動作確認するならこれに追加で、VAEとLoRA無し、モデルもチェックポイント一つで試したほうが良い
置くフォルダ間違ってLoRAとかが紛れ込んでいるとエラーになる なおっだぁ!!!
CUDAはちゃんと入ってて、
site-packagesを削除して、
webui-user.bat実行したらいけました! おめでとうw
動いてる環境のバージョンアップは慎重に! >>606
プロンプトの書き方は概ね良いと思うよ。
気になるのは1111本体のバージョン。
3/25以降はComposable LoRAの効果が出ない気がする。
俺の手元ではEnableのチェックボックがONでもOFFでも
結果が変わらないし、どちらもOFFと同じ結果に見える。 515です
>拡張機能を導入する前の1111本体だけ
それで拡張機能を使わず普通に使うことはできます。
ですが、デフォのスクリプトのprompt textの読み込みですら無限ローディングが発生します。
すこしずつ拡張機能をインストールもしてみましたが、pyファイルと紐づいてる拡張機能ならどれでもエラーが発生し、無限ローディングが発生します。
>>642
まさにその症状です。
コミット以降とは、webUIを最新版にアップデートすればいいということですか? >>651
>コミット以降とは、webUIを最新版にアップデートすればいいということですか?
Exactly(そのとおりでございます) 薄暗い部屋で不意にフラッシュたいて撮影したみたいにできませんか?
なんか不自然にしかならない >>653
img2imgかLoRAを使わない限り難しいと思う。
素のtxt2imgでプロンプトを調整するだけでは、ごく一般的な明るさの画像になる。
黒ベタ画像をDenoizing strength=1.0でi2iするとか
黒ベタにノイズを混ぜた画像を0.7くらいでi2iするとか、
要するにi2iなら元画像の色情報を参照するので、暗い雰囲気とかを誘導しやすくなる。 https://imgur.com/a/XPPmXo0
git pullしてみましたが、やはりローディングで固まります。
別のバージョンではローディングしない時もありますが、そもそもtxtが読み込まれません。 >>654
思い出したので補足
i2iだとcowboy shot等の構図指定が無視されがち(たぶん理由は元画像の色情報の方が優先されるから)
なのでControlNetの棒人間(openpose)とかを使って構図やポーズを指定するといいよ SadTalkerという新しい拡張機能をインストールしても使えませんでした
使うためのタブがでません
原因わかりますでしょうか?
https://github.com/Winfredy/SadTalker やっと1111のローカル版をインストールできました
今までNMKDだったのでブラウザ上で使うのちょっと怖い
これって生成した画像が勝手にどこかにアップロードされる設定とかあったりしますか?
以前にそういう話を見かけた気がしてうろ覚えですが怖くなったので >>660
画像をアップロードする設定や機能はないので安心してほしい。
そういう拡張機能も、俺が知る限りはないな…。
ただ1111のデフォルト設定のままだと、outputsフォルダに
全画像(グリッド画像含む)が自動的に全保存されるので、
それに気づいた時にSSDやHDDの圧迫的な理由から「ゲェーッ!!」ってなる人がたまにいる。
あとColabとかPaperspace民はGoogleドライブとかのオンラインストレージに
画像を出力保存するようにしてるらしいので、その話のことかも。 >>650
ありがとう
1111本体のバージョンはどこから見れる?
3月上旬に入れ直していつもwebui-user.batから起動してるだけでgit pullとやらはしたことがない CUDAの人動いてよかった
無限ローディングだけど心当たりあるから探してくる
style.cssになんか追加したら治るって方 >>663
1111起動時にコマンドプロンプトの3行目に
Commit hash: 22bcc7be42(以下略)
みたいな感じで表示される
あとwebUI(ブラウザページ)の一番下にも小さく
commit: 22bcc7be
みたいに頭8桁が簡易表示される この部分はリンクにもなっている ちなみにここで変更するstyle.css
もしこれが根本の原因だった場合gitignoreに記述されてあるのでgit pullしようがgit checkoutしようが治らないw あれcommitが出来ないだけだっけ
まあどっちでもいい >>666
a9fed7c364061ae6efb37f797b6b522cb3cf7aa2と書かれている
バージョンの問題じゃないのかな >>664
ありがとうございます!
リンク先を見ると「Docker をインストール」と書いてありますが
これはクラウドのpaperspaceでもインストール出来るのでしょうか? >>670
3/14のバージョンの1111本体だね
う〜ん…たしかこの頃はComposable LoRAが
普通に動作していたと思うので、動いていいと思うんだけどなー…
ただ俺も、LoConやLoHaでは試したことがないけど >>662
thx安心した
ブラウザ使用者とかクラウドドライブ併用の人の話だったのかな
自分はローカルHDDにしか保存しないし容量も十分あるので問題なさそう >>672
LoCon動かす系もインストールしたもののLoraしか使ってないんだけどなぁ
俺がどこか間違ってるだけっぽいしまた試してみるよ
話変わるけど質問したやり方で生成した画像をzipで保存できないのは仕様?
IndexError: list index out of rangeとログに書かれてる >>673
それはおそらくmage使いのワイの話やな >>675
mage調べたけど恐ろしいことするね… webui-user.batってwebui.bat呼び出してるけど、
コマンドプロンプトで、
$ webui-user.bat
って叩いた場合、必ずwebui.barの
%PYTHON% -mpip --help >tmp/stdout.txt 2>tmp/stderr.txt
の部分で止まってしまうんだけどなんでだろ…?
とりあえず、@REMつけてコメントアウトすれば動くようになるけど
他に止まる場所は
%PYTHON% -mpip --help >tmp/stdout.txt 2>tmp/stderr.txt
echo を on にして実行すると
webui-user.bat
> set PYTHON=
> set GIT=
> set VENV_DIR=
> set COMMANDLINE_ARGS=
> if not defined PYTHON (set PYTHON=python )
> if not defined VENV_DIR (set "VENV_DIR=D:\Data\AI\stable-diffusion-webui\venv" )
> set ERROR_REPORTING=FALSE
> mkdir tmp 2>NUL
> python -c "" 1>tmp/stdout.txt 2>tmp/stderr.txt
まで出力されて動かなくなる
何が悪さしてるんだろう とりあえず
call %PYTHON% ~
にするとなんとかなった 今RTX 3060 VRAM 12GBで750px四方の画像はそれなりに出力するんだけど、1000px超えると人体の一部の奇形化が頻出して五十枚書き出してもまともなのが一枚も出てこないけどこれはVRAM容量の壁?
設定で何か弄ればもうちょっと高解像度出力がんばれる?
Upscaling使えばそれなりに見えるけどやっぱりディテール甘いなぁと 顔とか体に異物が埋め込まれたり手がグロい異物になったりするのがたまに出るようになったんですけど何が要因でしょうか?
例えばサンプリング数が足りないまたは上げすぎとかですかね?
呪文の強調は開けすぎないように1.3ぐらいに抑えてます
呪文が長すぎるとなるとか? まんぐり返しの生成が難しく、質問させてください
spread legs, knee up,piledriver,folded,legs over head
あたりを組み合わせても生成率1割で苦しいです
何かビシッとくるプロンプトがあれば教えてください。
web UIでモデルはAOM3です >>680
Denoising strengthをあげすぎ(0.5以下がいいと思う)
生成画像のアスペクト比を変えるとほぼほぼ起こる(と思う) >>679
奇形化や分身は、モデルが学習に利用した画像のサイズによる影響。
512x512で学習してるモデルが多くて、768くらいまではまあ結構頑張れるんだけど、
1000くらいになるとそういう残念な結果になりがち。
とりあえず512x512とか768x768とかで一旦出力して、それをimg2imgでより大きなサイズに拡大するといい。
この2工程(txt2img+img2img)を自動的に連続処理してくれるのがHires.fix機能。
…先に言っておくけど、Denoizing strengthはとりあえず0.6くらいで試してみてね。
高すぎると別物になっちゃうし、低すぎるとぼやけてしまうので。調節が重要。 >>680
メタデータ込みの画像を見ない限り、エスパーレスしかできないなあ… >>682
すみません、i2iではなくt2iです、あと二次元系です、でも勉強になりました、ありがとうございます CUDAって何だ?
インストールしてなくても普通に動いてるんだが
インスコした方が良い? >>594
指摘ありがとう。
TIで導入してる。
>>599
出力サイズが影響してるのは薄々感じてたけど、結構あからさまに出るんだなあと実感した。
512x512 768x512で安定の兆しが見えてきたサンキュー。
最高の顔面の件だけど、今確認したら顔だけで切り抜いた画像143枚、バストアップというか髪型込みの画像61枚で作ってた。
バッチサイズ5、学習回数25回、epoch25だったと思う。
暗い写真は明るくして、出来る限り明るさ色味を揃える。
顔の角度は正面に統一して、余所見してるような写真は避けてカメラ目線の物だけで揃えた。
髪飾りなどがある写真は避けた。
横顔が欲しくなったら改めて横顔を集めてLoraを作るつもり。
あとは作成したLoraを0.7ぐらい、japn korean taiwanをそれぞれ0.2ぐらいに指定したら上手くいった。
私の場合は、だけど。
>>605
試してみた。
上との合わせ技で歩留まりが倍化した。
ありがとう助かる。 >>683
ありがと
チェック入れてやったら高解像度で綺麗になった
だけど単純にガチャ引く時間が掛かるね
ちょっと3060だとフルHDサイズでの書き出しが重過ぎる >>686
ついにこういう質問まで来るようになったか… CUDAって普通は開発者しか使わなくない?
分からなくても無理は無いと思うが
というか俺も分からんまま半年くらいAUTOMATIC1111使ってるわ >>690
時間かかるね。俺は1080なのでやっぱりつらい。
単純に画像サイズとステップ数、この2点が所要時間に大きく影響してると思う。
なので俺は512x768で構図とポーズガチャして、その中の良い結果のみをimg2imgで1.5倍とかにしてる。
良い結果をフォルダに突っ込んで、img2imgのBatchタブを利用するともっと楽みたい。 wikiで紹介されたPaperspaceの起動できないです↓
https://wikiwiki.jp/sd_toshiaki/Paperspace%E7%89%88%E5%B0%8E%E5%85%A5#sbfc652d
最後のLaunch the WebUIを起動するとパイソンのバージョンでエラー見たいのが出て起動できないです。
以下のようなエラー文が出ました。
If you cannot immediately regenerate your protos, some other possible workarounds are: 1. Downgrade the protobuf package to 3.20.x or lower. 2. Set PROTOCOL_BUFFERS_PYTHON_IMPLEMENTATION=python (but this will use pure-Python parsing and will be much slower).
原因わかりますでしょうか? >>694
それはとしあきwikiかふたばで尋ねてほしいな…
あとそのwikiのトップページに赤字で書いてある内容をよく読んでね マングリたしかに全然できねーな脚を上げるってポーズがレアなんかな
Oontrolnetでも無茶苦茶になる
それ系のLoraないとキツい? グラボのファンがシュイーンじゃなくてブーって言ってるんだけど危険? ChatGPTぐらい察して作ってくれないものか…… >>699
tensorflowのモジュールが見つからないとかで動かん…
tensorflowもonnxruntimeも入れたんだけどな layerdividerのインストールで
git clone でファイル一式ダウンロードした後
layerdivider直下でパワーシェルを開いて.\install.ps1と入れたのですが画像のええエラーが出てインストールに失敗してしまいます
手順の通りにしていると思うのですがなにか失敗しているんでしょうか?
入れてるPythonmのバージョンは以前更新してしまったので3.10.10です
もしかして10.8以外だとだめなんでしょうか
https://i.imgur.com/sAYXrKN.png >>703
いま入れてるのアンインストールして3.10.8入れなおしてみたら
install.ps1はうまくいったんですが結局run_gui.ps1で止まってしまいました
入れなおすときにAdd Python 3.xx to PATHにチェック入れたのにバージョンが表示されてないってことはPythonへのパスが通ってないんですかね?
https://i.imgur.com/36hrIzQ.png
https://i.imgur.com/2pmQiK3.png >>698
危険
あとアフターバーナーとかで確認してみる X/Y/Z plotのPrompt S/Rで
複数要素入れると全部分割されてしまうんですが
好きなところで区切ることってできないですか >>699
前々からあったpfgだね
対応するモデルで学習する必要がある
多分同じ人のpfgのnote見た方がわかりやすいよ rtx3080 12gb、midvram,メモリブロック再使用コード記入済みで512x1024のhirefix2.5倍アップスケールができないんですけど、どの程度のグラボならできそうですか? >>704
まず
3.10.xであれば問題ないはず
venvの作成に失敗→だからscripts/activateの生成に失敗→なんか知らんがpipにすら失敗
お察しの通りPythonにPathが通ってない可能性が高い
Pathが通ってるか確認するにはコマンドプロンプト(cmd)かPowerShellを起動して
python -Vもしくはpython --version
というコマンドを打って実行することでPathが通ってる上で今1番優先されてるPythonのバージョンが簡潔に表示される
多分この時点でpythonコマンドは認識されてませんとか出ると思うけどAdd Pathなんとかを本当に選択してインストールしたのならPathは通ってるはずなんだよな そうなった場合はwinメニューから「システム環境」とか打ってシステム環境変数がどうとかのメニューを選択して、「環境変数」って書いてあるボタンを押して環境変数をいじるウインドウを表示して
ユーザー環境変数って方のボックスから「Path」って項目を探してそれをダブルクリックして開く
そこにUser/AppData/Local/Python/scripts/3.10
みたいな(適当)ものがバージョンごとに2つあるならPathは通ってる(インストールできてる)
なかったら通ってない(→正しく再インストールしよう)
そしてPath通ってるのに動かない場合はそのPathの示すディレクトリに本当にPythonがインストールされてるのかを確認(PathコピーしてExplorerのアドレスバーみたいな所に貼り付けてEnterが楽)
何もなかったらインストールできてない(→正しく再インストールしよう)
なんかある(→インストールでなんか失敗してる可能性があるので再インストール)
つまりPythonのインストール先をデフォルトから変えたりしてなければ再インストールが全てを解決してくれるはずなんだよな >>690
4090なら1920x1080で15秒
十分ガチャれる 初心者質問で申し訳ないですが…
lora学習時のalpha値とはなんなんでしょうか
大きいと精度が上がるとかそういう感じですか? loraについて
版権キャラを作る時
まずその絵師の追加学習モデルをloraで作って
対象版権キャラのloraを追加学習するやり方のほうが
再現高くなるか知っている方いますか? >>657
自分の使い慣れたモデルにこのモデルの背景処理だけ適用する みたいなことはできるんだろか?
普通にマージするだけだとお互いに干渉しあうだろうし >>717
ttps://economylife.net/kohya-lora-install-use/
の次元数を指定とアルファを指定の項を読むといい >>719
残念ながら出来ない
通常マージではなく層別マージで背景部分を強めにマージするという方法も一応はある >>709
すみません
すでにプロンプトに入ってるやつはまとめられたんですが
後半が3つに別れてしまうんですがこれは無理ですかね
https://i.imgur.com/w5pkeo2.jpg クラウドでgenerate FOREVER押すと、UIすぐに止まりやすいですが
パソコンでもgenerate FOREVER押すとUI止まりますか? >>723
スペック次第では止まるという報告も出ているが、推奨スペックであれば問題ない
むしろ止め忘れて大変なことになることも >>721
やっぱ単純には無理か
層別マージはこれから調べてみるけど、背景LoRA作った方が無難で分かりやすいかもしれんね ところで1111はアプデして大丈夫?
何が変わったの? >>712
multi diffusion入れたらhirefix4倍でも行ける
tex2imgでも効果絶大だぞ >>726
見た目が変わってバグが増えた
それだけ 画像生成しようとすると
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "/content/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(*args, **kwargs)
こんな感じのエラー出るんですけどアプデによるバグですか? >>729
エラー文は基本全部貼らないと重要なとこが抜けることが多いから回答者もわからん
Pythonの場合のエラーは他の言語と違って最後に出る事が多いから、
一番最後のとこまで含めて書いたほうがいい >>713
Pathの項目にはちゃんとあるしフォルダもデフォルトの場所っぽいのにPythonのバージョンが表示されない
わけがわからない そもそもPythonのインストールの時点でなにか失敗してるんでしょうか
sd-webuiでwebui-user.batにPython.exeのアドレスを追記するのみたいに強引?にlayerdividerにPythonを認識させる手段はないでしょうか?
https://i.imgur.com/7VdTyx8.png
https://i.imgur.com/lHYFPhg.png
https://i.imgur.com/aCC4vdc.png
https://i.imgur.com/usZmJs1.png
https://i.imgur.com/oEXB2Pj.jpg
https://i.imgur.com/tlhcvwz.png パス設定してからPC再起動してなくてパスが認識できてないとかそういう残念オチはない? >>730
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "/content/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(*args, **kwargs)
File "/content/stable-diffusion-webui/modules/img2img.py", line 87, in img2img
image = init_img.convert("RGB")
AttributeError: 'NoneType' object has no attribute 'convert'
そうなんですね、ありがとうございます。
後半部分はこういエラーが出ています こういうエラーも出ます
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "/content/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(*args, **kwargs)
File "/content/stable-diffusion-webui/modules/txt2img.py", line 56, in txt2img
processed = process_images(p)
File "/content/stable-diffusion-webui/modules/processing.py", line 486, in process_images
res = process_images_inner(p)
File "/content/stable-diffusion-webui/modules/processing.py", line 640, in process_images_inner
devices.test_for_nans(x, "vae")
File "/content/stable-diffusion-webui/modules/devices.py", line 152, in test_for_nans
raise NansException(message)
modules.devices.NansException: A tensor with all NaNs was produced in VAE. Use --disable-nan-check commandline argument to disable this check. >>731
python --versionでpythonって出るの異常だ
なんだっけこれ >>735
python入ってないときそうならなかったっけ python入ってるからなんか出るんやろがーい
windows初期状態でお節介で入ってるやつかな
ちょっとまって 負けた
そうそう見てないけど多分それ
解決したらMicrosoftにふざけんなってメール送っとけ ありがとうございます。助かりました。
何にもしてないのに壊れたとかいうネタがマジで起きるとは… 1111stable diffusion
使用モデル grapefruit
使用vae ft mse 840000 ema pruned safetensors
anusがどうしても大きくなってしまうんですけど良い呪文あります? inpaintingでマスクして修正した箇所の色がマスクの部分がオリジナル画像より少し暗くなってマスクの境界が見えて出力されるんだけどなんでかな? text2imgで書き出した画像を直接img2imgに送ると何故かinpainting使っても色が変わらない
でも解像度上げるとマスク部分の色が少し暗くなって出力される
inpaintigに直接画像入れた場合は最初からマスク部部の色が暗くなる >>738
>>740
アプリ実行エイリアスからpythonオフにしたらパス通りました
gradioがなんか怪しいけどあとは指定のpoot開ければいけるのかな?
ありがとうございました
https://i.imgur.com/du2AYKL.png
https://i.imgur.com/lVoMXat.png install.ps1をもう一度やったらgradioインストールされるんじゃない? modules.devices.NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type.
Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
すみません
このエラーの対処方法を教えてください latent coupleの領域指定が意味分からん
縦分割の解説はあるけど横2分割はできないの?
便利なテンプレとかもなし? 単体のキャラlora作る時 正則化画像って用意してる?
色んなサイト見てると無くてもいいって書いてるところ多いけど latent coupleなら横2分割も3分割も自由にできるよ
visualize押せば視覚化できるから色々ためしてみればいい >>748
>>133
この人と同じエラー
テンソルが全部NaN帰ってきてる時に出る
なんかよく分からんが半精度で計算してる時に出るらしい
>>147によると
--no-halfと--no-half-vaeと--precision full
を起動オプションに入れると治ったとかなんとか >>747
これ
意識してポート開放なんてすることない
スクリプトの中身みてないけど多分install.ps1実行するとvenv作られてactivateされてgradioもほかの必要なものもインストールしてくれる >>752
色々試したがERROEになる
横分割のコード教えて欲しい
2分割で領域7:3とかやりたいんだ 学習枚数が10枚前後で効率よく学習する方法はありませんか?
エポックやフォルダ名大きくしても学習しきれていません
反転画像などは効果あるのでしょうか? クラウドならcolabとPaperspaceどっちが良いですか?
colabは設定やモデルが消えて入れ直すのが大変で使わなくなりました >>755
プロンプトのANDの数による
AND2回で3つのプロンプトを使うならn:mを3つ
AND1回なら2つのプロンプトをn:mは2つ
2 girls yuri sex loli
at night in bedroom
AND
2 girls yuri sex loli
silver long hair
AND
2 girls yuri sex loli
green medium curly hair
ここまでがプロンプトで
Divisions(領域をどのように分割するか) → 1:1(縦横1分割、つまり全体), 2:1(縦2横1分割、つまり水平2分割), 2:1(縦2横1分割、略)
Positions(対象とする領域) → 0:0(縦横1分割の、縦0横0番目のブロック), 0:0(縦2横1分割の、縦0横0番目のブロック), 1:0(縦2横1分割の、縦1横0番目のブロック)
Weights(プロンプトごとのつよさ) → 0.2, 0.8, 0.8
end at stepは現在のサンプリングステップ数に合わせるかそのままにするかしとけばいい くっそ読みにくいな
まあREADMEを何も変更を加えず真似するといいよ ttps://civitai.com/models/6586/arknights-surtr
このLoRaを導入してハッシュまで全く同じモデルと条件で画像を生成したけどなんか淡い感じのが出るんだけど、どうすれば治るか分かる方いませんか?
以下元画像と生成画像
ttps://i.imgur.com/WvuPL7g.jpg
ttps://i.imgur.com/fqn6P5V.jpg
ttps://i.imgur.com/nX6GURu.jpg
ttps://i.imgur.com/Xkykrt2.jpg >>761
VAEじゃないかな?
Setting > Stable Diffusion > SD VAE なにか選択されてる? >>755
ちなみにその注文で2分割するなら最小でこう
2 girls
red hair
AND
2 girls
silver long hair
Divisions 1:9, 1:9
Positions 0:0-6, 0:7-9
weights 0.8, 0.8 >>762
何も選択して無いけど何か選択するべきですか?(ちなみに最近始めたド素人です) 実際Latent Coupleは、デフォルトの左右分割以外は大変だよね
拡張機能を公開してくれてるだけでも非常にありがたいし、
そこのUIを改良するのも大変だろうから仕方ないとも思うけど
>>749
この記事が参考になると思う
https://aioe.fanbox.cc/posts/5356918 >>764
別途ダウンロード必要で、
有名なのは anything-v4.0.vae.pt かな?
「Stable Diffusion VAE 入れ方」とかで出るんじゃないかな >>762
こんな感じになってます
ttps://i.imgur.com/bEhyyuF.png ちなみにlatent coupleはashenという人のforkおすすめだぞ! 和訳テキスト反転の意味がわかりません
どういった効果があるんでしょうか
よろしくお願いいたします >>764
普段愛用しているモデルによる。VAEはモデル内部にも必ず同梱されている。
ただ、モデル作者がそこをあまり意識せずに、最適でないVAEを内蔵したままの場合もある。
VAE指定がNoneやAutomaticの時に出力画像の色が淡く・薄く・暗くなるのはこのため。
自分好みのVAEを見つけて、決め打ちで指定してしまうのが手軽でおすすめ。
https://seesaawiki.jp/nai_ch/d/VAE >>770
和訳テキスト反転って何?どこに書いてあるの?なんのソフト?情報がなさすぎる >>770
なかなかのエスパーを要求してくるね、君…。
Textual Inversionじゃないの?それ。
質問する時はもうちょっと詳しく頼むよマジで。
あとはググるなりwiki内で検索するなりどうぞ。 >>774
それです
翻訳見たのですがファイルに入れてどう使うかわかりまsrん ローカライズなんてここの住人殆ど使ってなさそう。英語でおkになる >>744 >>745
1111のimg2imgのInpaintとInpaint sketchについてなら回答できるけど
inpaintingという機能名は知らない
ツール名か、webサイトならURLを教えてほしい
エスパーレスすると1111のInpaint sketchを使ってしまっている(俺は非推奨)か
Mask blurの値を下げるか、マスク範囲をもう少し広めに塗るとかだと思う >>775
まずwiki内で検索して該当ページを読むといいよ。
https://seesaawiki.jp/nai_ch/d/TextualInversion
あとヘタに日本語UIを使ったり機械翻訳するより、英語UIの機能名で検索したり質問する方がずっといい。
英語UIの方が機能名だと明確に分かるし、利用者人口も遥かに多いので。 モデルごとに使用するVAEを設定することできますか?
特定のモデルだけVAE適用するとおかしくなるので、
そのモデルだけVAE有効にならないようにしたい XYZ Plotやモデル変更した時やVAEをWebUIから指定してる含め、いかなる時でも特定のVAEを使わせる方法は今のところ知らないな……
Quicksettingsリストにsd_vaeを記述するアレやってるなら
Model ToolkitっていうExtensionででそのモデルからVAEを取りだしてそれをファイル名部分のみを同じにして配置してVAEの設定はAuto固定にするくらいしか個別に設定して自動で読み込ませる方法はなさそう >>780
例えばモデルのファイル名がhogehoge.safetensorsなら
VAEをhogehoge.vae.safetensorsにリネームした上で、モデルと同じディレクトリに突っ込む。
そんで1111のVAE指定をAutomaticにする。
これでたぶんいけると思う。vae.pt時代の古い手法だけど。
他に、モデルのマージ機能を使ってモデル内にVAEを埋め込むというか、内蔵VAEを上書きするみたいな手もある。
https://seesaawiki.jp/nai_ch/d/%A5%ED%A1%BC%A5%AB%A5%EB%B9%E2%C2%AE%B2%BD%A5%E1%A5%E2#content_7_3 layerdivider、python通ったからかさっきまでのエラーは出なくなったけどフォルダ削除してからgit cloneし直してもgradioが読み込めない
サイトの手順からするとgit cloneしてから./install.ps1して./run_gui.ps1すれば起動するんですよね?
https://i.imgur.com/5TocRsj.png >>732
バスを追加したあとはコマンドプロンプトだけ再起動すれば新しいパスにもパスが通るはず >>783
そのタイプのpipは悪くねえ!って書いてるやつは上にエラーが出る
1番初めに出たエラーメッセージのところのスクショが欲しい 昨日から始めてはまってるのですが
width、heightの数値を上げれば上げるほど人数が増えてみたいになるのはどうしてでしょうか
デフォルトの512×512だと安定しますが、SNSにあがってる画像が高画素なのでそれに合わせて1280X1280とかにすると
とんでもないクリーチャーが出来てしまうんです・・・・
soro、1girlを指定しても全然聞いてくれません クリーチャーもたまに悪意というか何らかの意図を持ってそうなのが出てくるから怖いな >>788
すまん原因下の方だったわw
上の方はwarningみたいなのが出てるだけで問題なさそう
>>783
俺はよくわかってないうちにインストールできてしまってるんだが
ここのend of outputのすぐ上に書いてあるMicrosoft visual c++ 14.0以上のバージョンが無いとpytoshopがコンパイルできないらしい
開発者とかは当たり前かのようにMSV C++いれてるから予期してなかったんだと予想
初めに貼ってくれた方のエラーにC++ 14.0がどうとか言ったあと
謎のURLがあると思うんだけどそこからMicrosoft Visual C++を入れてもう1回install.ps1でどうだろう
それでダメだったらすまんがわからんw >>790
既出申し訳ありません
教えてもらった方法でサイズを拡大してみます >>792
visual studio installerってものを導入させられて
そこからデスクトップ向けC++なんとかってやつ押したら右側になんか色々チェックつくから
MSV143以外全部チェック外してインストール押して放置
https://i.imgur.com/Iftqdq8.png
でインストール出来ると思うんだけど
俺こんなのやった覚えないんだよな
いつの間にか他のインストール方法でインストールさせられたのかね? WEB-UI 1111版のCivitai HelperでScan Models for CivitaiのScanボタンを押しても、
ダウンロードしたLoraのinfoとpreview画像が昨日ぐらいから頻繁に取得失敗して
空のinfoファイルが生成されるようになりましたが、何か解決策はご存知ありませんか。
ひとまず下記を試しましたが、何も状況は改善せず
・WEB-UI本体とHelpterを安定していた頃のバージョンにダウングレード
・両方とも最新版にアップグレード
・他Extensions全部抜きで再起動して動作確認
うまく取得できているものもあったので取得出来ていないものと見比べてみたところ、
Civitaiの各Loraダウンロードページ右上のDownload Latestボタン、
その直下に記載されているVerifiedがUnverified: Scan requestedになっているものがうまく取得出来ない気がするんですが、
他の方々はファイルのinfoとpreview画像取得に問題発生しておりませんか
どこにも報告が上がってないようなので、やはりおま環でしょうか >>792, 794
すまんこれなし
これだわ
Microsoft Visual C++ redistributable package
https://aka.ms/vs/17/release/vc_redist.x64.exe
多分どっちでもいいけどこっちの方が早い
もしさっきの方やってしまってたらアンインストールしてこっちにして大丈夫 >>758>>763.765
うおーありがとう
早速試してみるよ 今日の昼から始めた初心者だけどVAEの事忘れてモデルだけでずっとガチャしてた
今さっき気付いてVAE入れたらカラーリング天地の差で草 >>795
同じ話かわからないけど
extension のcivitaiのフォルダでgit pullするとエラーが出てたので
キャッシュ消してgit pullしたよ VAEって色合いやコントラストに関わるだけで絵柄には影響ないって認識で合ってる? >>727
どうにも画質も書き込みの詳細さもmultidiffusion4倍スケールよりhirefix2倍スケールの方がマシに見えるので大人しくグラボ買います
ところでリアル系の四肢切断loraを作ったんですけどこれってpixivだとr18gになるんですか?その他投稿サイトでbanされたりしますか?血は出さないようにしてます >>701
venvに?
tagger入れてたからかどうかは分からんがこっちだとonnxruntimeは普通に動いた
venvって何?って感じだったら以下
tensorflowの方だけどWindowsネイティブで
こいつにGPU使わせるのはちょっと厄介なので必然onnxruntimeになると思うんだけど
Webuiフォルダを開いてExplorerのアドレスバーのところにpowershellって入れて
出てきたターミナルに「./venv/scripts/activate ; pip list」で
webui用に作られたvenvの中にインストールされたpythonモジュール一覧が確認できる
そこにonnxruntimeがあるかどうか確認
なかったらそのまま「pip install onnxruntime-gpu」を実行してもう1回試す
でどうだろう >>760
ありがとうございます。
リンク先の最後のほうにsettingでチェック入れるとこの指示あったからその通りやったら直りました ただpfgは多くの場合モデルごとに学習が必要になると思う
furusuさんが3つ用意してくれてるが、好きなモデルで使おうと思ったらfurusuさんのgithubのリポジトリにある訓練用コード使ってそこそこの規模で学習する必要がある……はず >>802
正確には違ってて、線の太さとかにも多少は影響してるんだけど、
まあパッと見でVAEの影響を強く感じるのは色部分だね。 ちなみに用意されてあるwaifu1.5 beta2のモデル使うとillumination of 1 girlでこうなる
https://i.imgur.com/Wzpxi3s.png >>803
そう言うの線引きはPixivのスレで聞けよ
公序良俗ってのは周りの反応・反響で決まるから明確な判断はなくある日突然炎上したり苦情が運営に伝わってダメになるもん >>802
AIモデルに影響はないよ
切り替えても使えるし >>803
2Dならともかくリアル系の切断はどこでもダメだと思うよ >>803
そういう性癖はやめとこうぜ
人としておかしい あ、これエラーはいたとこでインストール強制終了してたのか
>>796
c++ 14.3?のインストールはできたみたいですが読み込むところでエラーdでで止まってしまいました
何度もすいません
https://i.imgur.com/xwCADER.png はじめまして
Quadro k5200でNMKD Stable Diffusion GUIを使いたいのですがLogViewerで
Found GPU0 Quadro K5200 which is of cuda capability 3.5.
[sd] PyTorch no longer supports this GPU because it is too old.
[sd] The minimum cuda capability supported by this library is 3.7.
とエラーが出て画像が出力できません 対応してるpytorchのバージョンを入れても同じエラーが出てきてしまいます
CC3.5のグラボの環境構築の方法を教えていただけますか? モデルとVAE次第で生成しにくい画像とかってあります?
boyって入れても全く男が生成されななかったんだけど(モデルとVAE変えたら生成されました >>814
なーんでだろ
ちょっと同じエラー出るまで色々やってみる >>815
https://github.com/n00mkrad/text2image-gui/blob/main/README.md#system-requirements
k5200はKeplerアーキテクチャ(2012)なので…うーん…。
まあNMKDのSettingsを開いてCUDA Device=CPUにすれば、
すげー遅い&機能制限があるものの一応は動作すると思うけど…。 Stable Diffusionで拡張機能のeasy prompt selectorを使っているのだけれどStable Diffusionを再起動するとタグを選択のボタンが表示されなくなってしまいます
もう一度削除してインストールすると表示されますが再起動すると表示されません
何が原因かわかりますか? >>817
あるよ、めちゃめちゃある。
VAEは関係ないけど、モデルが十分に学習してないものは出しづらい、あるいは出せない。 そういえば俺も people って入れたのに女ばかりで困ってるわ colabで Kohya LoRA Dreamboothを使った学習試してみてるんだけど 全然反映されてる気がしない
ちょっと回すとすぐ崩壊してるのかノイズ入りまくる画像になるし
二次元絵の絵柄を再現するのと 写真から人物を再現するのは難易度違うんですか?
キャプションも自動 正則化画像なしのとりあえずでやってるから成果出ないのか… >>815
これは「駄目で元々」レベルで試してほしいんだけど、
Settingsの一番上にあるプルダウンリストを開いて「Low Memory Mode」に切り替えると、
いくつかの機能が制限されるので、k5200でも画像生成可能になるかもしれない。 >>819 >>826
Low Memory Modeでもダメでした
tesla k80が手元にあるんで中古のパソコンに積んでStable Diffusion専用機にして動かそうと思います
ありがとうございました >>827
K80ってぽん付けドライバーインスコだけだとGPUとして認識しないから
その辺の解決してる海外ブログとかあさった方が良いかも
すでに知ってたらスマン >>825
同じColab環境で実写系の学習を試しているけど、正規化画像なしでもそれなりのものは出来上がるよ。
クオリティ上げるためにはどうすればいいか試行錯誤中。
学習画像は適当に放り込むだけでもOKみたいだけど、やっぱりサイズ揃えたり画質を上げておいた方が
いい結果になる気がする。 >>814
ごめん再現した
Visual Studio系全部アンインストールしてinstall.ps1実行したら>>704
Visual C++だけインストールしたら>>814
そしてVisual Stidio InstallerでデスクトップC++なんとかを選んで右側で選択される5個の項目全部インストールしたら成功した
https://i.imgur.com/xoE3d6e.png
すまんな何度も NovelAIでShift+Ctrl+Enterでプロンプトの入力欄を増やしすぎてしまったんですが減らす方法はありますか? Modelを幾つか入れたんですけどImage2Imageで高等身の画像入れてイラスト生成すると艦これライクな画像が多くなって変な装備やらやたら髪が伸びて空に舞ってます
これってイラスト系モデルは大抵同じ学習データをベースに学習させてアレンジしているからってことなんですか?
高等身のキャラの偏りがすごいと言うかヴァリエーションに乏しいと言うか ポーズ変えたら妙な艦これ推しが消えた
なんだかよくわからないけど構図やらスタイルによって学習内容に強い偏りがあるって事かな >>833
プロンプト入力欄を一旦空にした状態でBackspaseを押す なんか肌のテクスチャがクッソリアルになる時とならない時の違いってなんなんだろ
Lora入れるとリアル感消えちゃったりするのかな >>689
ご丁寧にお返事ありがとうございます。
初心者がわかったふりしてアドバイスしてらぁ
みたいなこと言う人いたから余計なことだったかなぁと
思ってました。改善したみたいでよかったです。
頂いた情報をもとに学習挑戦してみます。
お互い頑張りましょうね。 >>831
ありがとうございます
教師画像枚数 dim値 alqha値 lr batchサイズとか大まかな設定教えてくださいもらうことできますか?
あと、学習回数どれくらいでどの程度まで似せられるか等目安を教えてもらえると助かります >>799>>801
日を跨いでいるけどアザス
読みどおり、Verifedになったらダウンロード出来るようになったけど、
それでも相変わらず空のinfoファイルのままなやつもちらほらある様子。
ちなすべてExtensionsをアンインストールして一から入れ直しても症状は同じでした。
作者のGithubにバグレポート上げたいけど英語が分からん… >>841
深夜にアップデート来てたみたいなんで更新したら、正常に取得できるようになったっぽい。
手動でスプレッドシートにトリガーワードもろもろの情報転記してた頃にはもう戻りたくないから助かった… 今は旧webuiと新拡張使ってる人多いから動作もおかしくなりやすいからなぁ
今週の新webuiはLoRAキャッシュ周りの更新がバグってて動かない拡張多いし
修正版はメモリリークとかバグ残ってるし、階層LoRAもまだ修正中で機能してないし、拡張も更新しないほうがいいんだが…
ここ三日くらいcivitai helper更新してしまった人はPNG取得できなくなってたから厄介だわな generate forever 回して寝ると
100枚程度 1時間くらいで
停止してしまうんだけどなんで?
メモリもGpuも使いきってない
SSDのあきも500GBある
他にもいますか? webui更新したら止まるようになったと他で見かけたけど >>832
無事インストールと起動出来ました
ありがとうございました 実写系エロについて質問です
今までNMKDを使っていて肌質がリアルでいい感じだったのですが
1111に変えたらすべすべ滑らかのいまいちリアル感のない肌になってしまった気がします
1111でフォトリアル系の肌を出力するpromptのおすすめはありますか?
現在適用しているpromptはこれです
best quality, ultra detailed skin, photorealistic, high resolution >>848
ワイもこれ知りたい
特に何も目立ったプロンプト入れてない時の方がきめ細かい肌の表現になったりする リアル系メインでNMKDから1111に移行した人たちに聞きたい
同じmodelとpromptと設定でも明らかにNMKDの方が写実的な絵になりませんか?
どこに違いの原因があるのかわからないので対処できない 吐き出された画像をテキストエディタで見たらプロンプトに書いた覚えの無い言葉が追加されたりしてないか? 俺は二次絵系だけどNMKDと1111両方使ってる
NMKDにはCLIP skipの設定がないので1で固定
1111はCLIP skip=2にしてる人が多いし、中にはそれ前提のモデルもある
まあ1111には他にも設定が色々あるから、CLIP skip=1にしても
出力結果がNMKDと一致するわけではなくて、近づくって程度だけどね >>850
そもそも記述方法が違うのと、どうやらNMKDはデフォルトで隠しクオリティタグ?(ネガティブプロンプト?)が設定されているっぽい
ので、AUTOMATIC1111に移行した場合はそのぶんのネガティブプロンプトの追加入力が必要になる まったく同じStableDiffusionを使って動いているのに、NMKDのほうが標準で絵が綺麗な気がする!
って思わせるNMKDの仕様は正直いただけない NMKD使ってから言え
あんまりクオリティが上がったとかそんな感じはしないぞ チビタイ等でサンプルに使ってるVAEを特定する方法ってありますか? >>853
ネガティブ見直して入れ替えたら確かにリアルになった
ちゃんと見てたつもりだったがネガティブの方見落としてた...
テンキュー >>852
thx知らなかった
でも1111のを見たら1だったのでそれじゃないかも
みんなと同じ2に変えてみたけど皮膚の質感は変わってなさそう
>>853
そんなのあるんだ
軽く調べてみたけどどれかわからなかった
>>857
何をどんな風に入れ替えればいいのかコツおしえてー
自分が今入れてるngative promptはこれ
(low quality, worst quality)1.4, (bad_prompt_v2)0.8, (three legs:1.4), extra legs, bad anatom multidiffusion-upscaler-for-automatic1111を普通の手順でインストールして、tiled diffusionの項目は出てきたんですけどtiled VAEの項目が無いんです。アップデートもしてみたり、それっぽいフォルダにスクリプトのデータをぶちこんだりしてもtiled VAEの項目が出てこなくて。
こんなことってあり得るんでしょうか?御教示いただけたら幸いです。
ちなみにM1macです。 >>859
とりあえず入れまくって重複もあるけど
EasyNegative,(worst quality:1.4), (low quality:1.4), blurry, nude,((nipples)),pubic hair,pierced,twintail,wet,two navels,navel piercing,monochrome,, illustration, 3d, sepia, painting, cartoons, sketch, (worst quality:2), (low quality:2), (normal quality:2), lowres, bad anatomy, bad hands, normal quality, ((monochrome)), ((grayscale)), futanari, full-package_futanari, penis_from_girl, newhalf, nipplepierces, glans penis, collapsed eyeshadow, multiple eyeblows, vaginas in breasts, pink hair, holes on breasts, illustration, 3d, sepia, painting, cartoons, sketch, (worst quality:2), (low quality:2), (normal quality:2), lowres, bad anatomy, bad hands, normal quality, ((monochrome)), ((grayscale)), futanari, full-package_futanari, penis_from_girl, newhalf, nipplepierces, glans penis, collapsed eyeshadow, multiple eyeblows, vaginas in breasts, pink hair, holes on breasts
そのまんまコピペ
quality系のプロンプト入れまくったら効くのかも? >>853
NKMD使ってる人が1111に移行したらクオリティ落ちたつて嫌がってるたまにみるけどそー言う事なんか >>858
PNGinfo確認しても、モデルの名前は載っててもVAEの情報ないですね。
自分で生成した画像を確認してもVAEの情報は出てこなかったです。
何か設定を変更するのですか?
環境は1111です。 >>848
初歩も初歩だと思うけど一応vaeの問題じゃないかな?
アニメ向けとリアル向けがあるので >>861
ありがとう
数が多すぎて余計なものも混ざってるのか所々崩れるけど
全体的な方向性としては肌の質感ののっぺり感が軽減され
不思議とNMKDの時の結果に近づいてる気がする
何が原因かじっくり探究してみるわ >>864
確認したらautomaticになってた
NMKD時代は使ってなかったのでnoneにしてみたけど結果は変わらなかった
肌ののっぺり感、微妙にアニメっぽさを感じるので関係はあるかも AI絵ポチポチ上げてたらDMでAIジェネレーター何使ってますか?って聞かれたんだけどジェネレーターってAutomatic1111って答えればいいのかな?アホな質問申し訳ないんだけどそういうの詳しくなくて >>861
検証したよ
(worst quality:2), (low quality:2), (normal quality:2)
↑これの影響が大きいかも
もしかしたらNMKDと1111では数字の影響の大きさの度合いが違うのかもしれない
NMKDでは1.4で十分リアルだったのに
1111で1.4だとっぺりした肌になっちゃうっぽい
1111で2.0だとNMKD1.4よりかなり生々しくてむしろやりすぎな感が出たので
1111で1.6~1.8くらいがNMKDの1.4相当かもしれない
つーか怪我の功名でこの設定をいじれば肌の質感の生々しさを調整できることがわかったのめちゃくちゃ収穫だわ
答えてくれた人たちどうもありがとう >>863
1111も昔のバージョンだとそもそもVAEをpngのメタデータ部分に突っ込んでない時代があったから
その時代の画像だったらメタデータから読み取るのは無理
差し支え無ければその画像を貼ってくれたら色で当ててみせるよ
そのレベルの時代だとVAEはsd, trin, animevae, waifu1, waifu2と5種類くらいしか無かった ちちぷいに画像投稿しようとしたら自動でプロンプトとかシード値入力されるけど
画像にプロンプトなどの情報入ってるの?PNGで保存してるのに >>868
あぁなるほどモデルとかってことか ありがとう >>872
修正しない限りはPngにプロンプト情報入ってる チビタイ見てたら使ってるモデル名がAOMS2SILICON_030というものだけど知ってる人います?
オレンジミックスぽいんだけどなぁ。
探しても見つからない・・・ >>872
オプションでオフにできるがmajinaiにアップ出来なくなる たまにi2iが動かない時があるt2iは動くのに…
再起動すると直ったり直らなかったりでどなたか知っている人いませんか? >>877
「動かない」の挙動をもっと詳細に書かないと伝わらないと思う
あと、コマンドプロンプト側でエラー出てる可能性がある、出てる場合はそれも全文貼り付けるのがいい >>878
コマンドプロンプト側にはエラーが出てないんですよね
生成ボタン押してもオレンジ色の状態のままで変化なし
t2iはいつも通り動くんです >>877
あれは今のところ直しようが無い
たまにプロンプト変えると動き出すこともあるけど
プロンプト等控えて再立ち上げする方が早い >>875
多分AOM2のsfwとSd Siliconをアルファ0.3で混ぜたもの
名前からはそれくらいしか分からない >>881
いいね
これをブレンダーに持っていって3Dモデルって簡単に作れるの?
デブスイメージは画像からとってモデリングまでやってくれる未来は
まだ来てない感じですかね >>883
ありがとうございます。
もしかしたら自作なのかもしれないですね。 stable diffusionで生成した画像を保管するソフト買いたくて、eagleにしようかなって思ってるんですけど他に良いソフトとかありますか?
eagleはスマホの写真とかを保存するのにも向いてますか? 現実では乳首のサイズも一緒に大きくなるんだろうか
赤ちゃん的にサイズが変わるのは違う気もする >>881
凄いな
俺のは皮膚がのっぺりしてこんなにリアルにならないよ 数少ない素材の画像にツーショットの画像があるんですが1/3くらい学習対象に人物が被ってる場合要らない人物を黒塗りとかしても素材として使わない方がいいですか? >>887
eagle用の拡張もあるしEagleでいいと思う
俺は個人的に生成画像みたいな増え続ける画像はPhotoscapeXかBreadboardかTiatみたいなフォルダを監視してライブラリに突っ込んでくれるやつを使ってる
データセットみたいなそうそう増えないものに関してはHydrus
スマホから簡単に閲覧したい場合はHydrusのLocalbooruって機能
スマホからガッツリ閲覧したい場合はPlex media server
Eagle使ってない理由は無料じゃないから🖕 ジェネレートしたら以下のエラー出たんだけど単純にグラボの性能足りないってことかな。
OutOfMemoryError: CUDA out of memory. Tried to allocate 2.19 GiB (GPU 0; 10.00 GiB total capacity; 7.14 GiB already allocated; 417.63 MiB free; 7.17 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF スマホ閲覧に関してはBreadmachineとかもあるんだけどスマホからまともに操作できなかったから嫌い >>892
Eagleにもスマホで閲覧する機能ほしかった・・・。 >>893
ざんねんながらはい
生成する画像の解像度が原因ならワンチャンmultidiffusionで凌げるかもしれない >>891
AIは画像全体を学習するので黒塗りの部分も学習しちゃうから
黒塗りではなく切り取ったほうがいいだろうね >>897
ありがとうございます
切り取るのが難しい場合黒塗り部分を透過ではだめですかね…? webuiでブロンプトの下に赤線が着くのはどういうことですか? >>899
多分ブラウザのスペルチェックに引っかかってる
例えば"girl"を"gril"って書けば下に赤線つく
辞書にない単語ならモデル的に有効でも赤線が付くので鬱陶しい場合もある
WebUIとは直接関係ないのでブラウザ設定で入力のスペルチェックを切れば消える >>898
黒塗りよりはいいと思うけど、顔だけ透過して学習した場合は
顔なし画像が正しいものとして学習しちゃうので、顔なしが出力される確率があがる
もしくは透過部分か白く抜けたような感じのものができやすい
この辺は調整とかモデルにもよっても影響は違うので
実際にやってみるしかないね、 >>892
なるほど、eagleにしときます。
スマホからの閲覧も参考にさせてもらいます!ありがとです。 質問です。
先程までStableDiffusionを使えていたのですが、
間違えてコマンドプロンプトを落とさずに
Windowsを再起動してしまったら
起動時に以下のエラーが出て使えなくなってしまいました。
File "E:\Python310\lib\json\decoder.py", line 355, in raw_decode
aise JSONDecodeError("Expecting value", s, err.value) from None
json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)
どうすれば治るかご教示お願いします。 >>877
あいつ あいと T 2 I を同時に動かしていないか? >>893
もしかして VRAM が 8GB しかないのかな
足りないと出てるね >>905
jsonが壊れてる
vscodeのlintとかで修正すれば良い loraの学習素材で同じキャラの衣装替えを学習させてるんですが
顔と背景切り抜きいた素材のフォルダ
顔が見切れてる画像の背景切り抜き服装素材フォルダA.B.C
服着ない下着姿のフォルダ
と用意してマルゼン式にプロポント削ってトリガーワード設定してますが
服Aと書いてるのにBが出てきたりAとCが混ざったり下着トリガーと顔のみ打ってもAやBの服着てたりするんですが切り抜かない方が安定するもんですかね?
前に背景設定したままやっても背景固定になったり同じ服しかでなかったり上手く行かなかったので >>910
ありがとうございます。
ES lint?というので該当jsonを直せば良いんですね
やってみます >>907
3080使ってるから10Gあるよ。
10GBでも足りないのか・・・ >>870
肌の質感あがるけど顔もバタ臭くなっていくのが
チルだとムキムキ筋肉系になっていくのがな 最近StableDiffusion始めたばかりの初心者ですみません
img2imgで構図やキャラを似せつつ三次元化(または二次元化)するのが全然出来ないんでコツを教えて下さい
二次元化するときはbloodorangemix、三次元化するときはchilloutmixなんかを使ってまして、
タグ解析してそのまま生成すると(当たり前ですが)構図やキャラクターそのものが大きく変わってしまいます。
ノイズ除去強度などが重要なのでしょうか?それとも呪文でしょうか? ノイズ除去強度の数値が低ければ元の写真に似るし、数値高くすると元の写真から離れて生成されてくんだよね
だから似せたかったらノイズ強度下げればいいんじゃないかしら? 鮮やかなエラー画像というかモザイクのみの画像が生成されるんだけど理由わかる方いませんか? >>901
エロはpinkでやれ
こっちに貼るんじゃねぇ 実写系の爆乳フィギュアスケート選手を量産したいんだけど可能かな
フィギュアスケートと爆乳は相性が悪いのか爆乳が出来ても
肝心のスケート衣装を着てないとか、上半身だけの写真になる
爆乳がフィギュアスケート衣装着たらどうなるのか見てみたいんだが中々叶わない >>918
PCのスペックに対して解像度を高くしすぎているか、プロンプトを強調しすぎているか、だと思います >>917
ありがとうございます!
https://pbs.twimg.com/media/FsCC6_zagAA-6fW?format=jpg&name=large
こういうのをやりたいんですが、1枚目から2枚目の時点で既に随分崩れちゃうんですよね
ましてや2枚目から3枚目なんてとても・・・奥が深いです >>923
最低限のルールも守れないやつはサル以下だぞ >>892
Plexも有料じゃないとウォーターマーク出る感じ? stable diffusionでeagleの拡張機能を追加し、自動的にeagleに保存されるようにはなったのですが、全て同じ場所に保存されてしまいます。
t2i、i2i、extrasなどでフォルダを分けて自動保存することは可能でしょうか? >>927
Eagle側のサブフォルダ作成して、
ルールの編集で条件作れば振り分けられる >>928
著作権法違反 -> 問題なし
エロ -> ルール違反
ここだとこういうことらしいぞ エロスレがあることとここがエロ禁止になるのは別の話では 何故著作権の話になってる?揚げ足取りのつもりか?
著作権を守ることなんてわざわざルールとして説明する必要もないことだろ 説明する必要の無い法律違反を責めずにルール違反を責めるのはなぜ?
何処でルールとしてエロ禁止と説明してるの? 何処でって削除ガイドラインの7ちゃうの
その他は「削除ガイドライン」に準じますってローカルルールに書いてあるやろ? >>929
eagleのスマートフォルダのことですかね?
スマートフォルダのどの条件を使って分類すれば良いのかが分からなくて、、
stable diffusionの画像のファイル名にt2iなどの生成方法を追加して、eagleに自動保存し、スマートフォルダで名前から分類出来るかなと思ったのですが、stable diffusionの画像のファイル名にt2iなどの生成方法は追加出来なくて失敗しました。 >>935
通常板は基本的にエロ禁止なんだよ
度が過ぎれば板自体が削除対象になる
それに著作権違反が問題無いだなんて誰も言ってないぞ >>928
書かれてもいないことを(勝手に)読み取る上級エスパー
というか藁人形論法やめろ 法律違反はどうせ問題にならないけど板が無くなるのは困るから「動いた」と なんか臭いガイジがいるせいで質問スレとして終わってるな AI絵のためにパソコン買いたいんですが
CPUはどのくらいあれば良いでしょうか?
Ryzen 5 4500 3.60GHZ (4.10GHz/6コア/12スレッド)どうでしょうか? 9枚ぐらい一気に生成するとファンが一瞬フォーーーンって鳴るんだけどこれ普通?
仮に100枚レベル一気に生成したらPCクラッシュしたりしない? >>946
温度が高くなってるから高速回転してるだけだろう。
別にクラッシュしたりしないよ。 >>946
GPUには温度センサーが内蔵されてる。
低温時は空冷用のファンが停止または低速で回ってるんだけど、
高温になると回転速度が自動的に上げられるから、ファンの音も大きくなる。
生成が終わればGPUの負荷が下がるから、次第に低温に戻って、ファンの回転速度も下がる。 >>926
なにそれ
閲覧だけならそんなもの無かった気がするが
ややこしいのがPlexっていうアプリではなくあくまでPlex Media Serverのことを言っている
これは指定したフォルダをデフォルトだとポート32400でPlex Media Serverで用意されてるフロントエンドを介して閲覧するもので
そこから閲覧した時にウォーターマークを見たような記憶はない
あんま使ってないからちょっとおぼろげだが その32400をtailscaleとかlocaltunnelとかで公開してスマホからお邪魔するわけだな >>952
AND構文で頑張ってみるかLatentcoupleを導入する >>946
今はブラウザもGPU使うからCivitAIのTOPページ開くだけでうなるよ(ノд-。)あぅ。。 少数派だろうけどGTX1650使ってる人はlowvramとmedvramどっちにしてる? SDで作成したpng画像を他の人に渡すとWindowsDefencerが
Trojan:Script/Wacatac.H!ml
というウイルスを誤作動で検知するらしいんだけど解決策ありますか?
exif削除すればいいのかな
自分のパソコン上では検知されないので対策が >>956
そうだね…恐らくは誤検出だと思うけど、
PNGのメタデータに含まれてる文字列に反応してるのかも。
大抵の画像編集ソフトがメタデータを上書きしてくれるので、
一度何らかので読み込んでから保存し直してみるとか。
んでその後で1111のPNG infoタブに突っ込んで、メタデータを確認。
単にExtrasタブに突っ込んで、Resize1倍でGenerateかけるだけでもいいかもしれないけど。 Loraの教師データを自分の絵柄で作ってみたいんですが
どういうポーズや構図が良いとかありますか? >>943
4750GにRTX3080で
1枚7秒くらいで生成 どうやったら
乱暴されちゃったあとの
力の抜けた表情が出せるんでしょうか
出ない… >943
CPUは何でも良いですが、コア数は多い方が良いです
あとメインメモリが32GB,アップグレードで64GB出来るように組む
グラボのメモリは最低12GB,すぐに24GB欲しくなる病発症 すいません、モデル名 a7-dal3 ていうのは、何かの略なのでしょうか?
検索では探せなくて‥ a7が作った人の略でdal3がモデル名バージョン3じゃない?知らんけど 国産の自分の絵柄から生成する
審査いるやつってなんて名前? lora作るときのキャプションって覚えさせたい要素を抜くであってますか?
キャラを覚えさせたいけど、公式衣装のとそうでないやつが学習元イラストにあって、
キャラ自身の特徴を示すやつ引っこ抜いて、
公式衣装着てるやつは衣装の特徴も抜いて代わりに別のタグ付けるみたいな感じでいいですかう
混ざっちゃうかな? naked girls and boys としたら、顔と髪型が男で骨格も男っぽいけど胸が出てて股間も女という変な人出てきた
なので次に naked boys としたら、ほぼ男になったけど股間はまだ女www
チンコもちゃんと学習させろよw >966
>967
ありがとうございます。
探してみます。 Checkpoint Mergerを初めて使ってみたんだけど、
こんなエラーでてしまった。
Error merging checkpoints: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 44236800 bytes.
Time taken: 33.94sTorch active/reserved: 2528/2550 MiB, Sys VRAM: 4797/10240 MiB (46.85%)
これってグラボのメモリ性能足りないってことかな。3080の10GBで足りないのかな。
設定としては
AにAOM2hard
Bにcorneos7thHeavenmix_v2
これに0.3設定で加重計算、安全装置、Copy config fromは無しでマージしました。
詳しいやり方わかりませんがどこかやり方間違っていますか? >>860
似たような状況だったけどもしかしてzipからインストールした?
1回フォルダごと消してgitとpython入れてからインストールし直すと出てくるかも
クソにわかなのでそうじゃなかったら分からん 他機能を使う為に1111をアプデしたら
生成された画像クリックした時の
画面一杯に表示される機能(?) プレビュー的な機能?
がなくなってしまったのですが
これって設定で戻せるものでしょうか?
(ImageBrowserとはまた別です)
設定の表示に関係している項目目を通したのですが
それに関係しているであろう項目が見つけられませんでした >>974
VRAMは今読み込まれてるモデルやVAEやLoRA使用関連のキャッシュ的な物でよほど変な事しなければ気にしなくていい
標準のマージは全部メインメモリに読み込まれるので、少なくても16GBはないとよくこける。VRAMからの退避使ってるとさらに圧迫される。
CivitAIにあるような得体のしれないprunedもしてない14GBとかの巨大モデルも処理したいなら64GB必要になる 同じプロンプトでチェックポイントだけ変えて1枚ずつ作成って自動化できませんか? 洋ロリ美少女のスケベ実写絵作るのに一番良いブラウザサービスって何になるんや?
有志よ、我に教えてたもれい! PC引っ越すんだけどpython,git,webuiまでインストールしたらあとは前のフォルダまるごと移設でok? >>939
そんなルールはない
勝手に作るなガイジw >>981
意外と知られてないんですけどこのスレ質問スレ5なんですよ >>979
ブラウザサービスは無理
ローカルでやるべし >>975
ご回答いただきありがとうございました。
サイトのURLを貼り付けてインストールするという方法をとっていたんですが、表示されず・・・
一応可能ではあるんですかね?希望が見えてきました。参考にさせていただきつつ色々やってみますね >>978
できるよ。X/Y/Z plotのCheckpoint nameを利用する。
https://seesaawiki.jp/nai_ch/d/X/Y%20Plot%a4%cb%a4%c4%a4%a4%a4%c6
>>980
OK。ただ念のためconfig.jsonの中身を確認してね。
中には絶対パスで記録されている項目があったりするので。
例えばControlNet拡張機能の設定とか。 >>989
980です。回答たすかります!
そしてみなさん次スレの名前すみません…初のスレ立てだったのでうっかりしてました… >>902
単語の前にスペース入れると線が消えるからスペル違いでは無さそう >>993
本気で言ってんなら読解力皆無のゴミカス
2chの頃からずっとある、もちろん5chになってもある 赤ん坊すら女オンリーってwwww
男もちゃんと学習させろよ >>994
>>995
お前ら文盲のようだなw
頭大丈夫か? LRテンプレ
・その他は「削除ガイドライン」に準じます。
↓
・削除ガイドライン>エロ・下品
https://info.5ch.net/?curid=1651#.E3.82.A8.E3.83.AD.E3.83.BB.E4.B8.8B.E5.93.81
>エロ・下品
>5ちゃんねる
>5ちゃんねる内での過度なエロ・性的煽り・性的妄想・下品ネタは禁止されています。
>画像へのリンクも同様です。これらは例外なく削除対象になります。
規定そのものはあるらしい。知らんかったわ
その下の「URL表記・リンク」で
https://info.5ch.net/?curid=1651#.E3.83.87.E3.83.BC.E3.82.BF.E3.83.BB.E7.94.BB.E5.83.8F
>エロ・性的画像への、直接・一次的間接・等のリンクは、全て削除します。
削除するとは言っているものの、画像の削除依頼は見た事はないような気がする
通報されるとどうなるかは知らんがな (´・ω・`)
流石に無法地帯ではないよ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 1時間 15分 54秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。