【StableDiffusion】画像生成AI質問スレ9【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ8【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1681531755/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://platform.stability.ai/docs/integrations/blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)−UI設定(User Interface)−クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用 ■FAQ2
Q:〔1111〕設定を変更したのに反映されない
A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。設定によっては「UIの再読み込み(Reload UI)」(「再起動が必要」と書かれていてもこれですむものが多い)や1111の再起動が必要 【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である >>1のアンカーがおかしいのか
次スレは>>950が立ててください。
テンプレは>>2以降に 先に立ったワッチョイありのスレはこちらね
【StableDiffusion】画像生成AI質問スレ9
https://mevius.5ch.net/test/read.cgi/cg/1682213108/
どうせならテンプレは↑から持ってくればよかったのに
いろいろ更新して関連スレも最新にしてあるし HypernetworkとEmbeddingって何が違うの? >>15
画像生成のどの段階で介入するかの違いという説明をどこかで見たような気もするが、よく分からず使ってる よくわからん形の服とか出てきて萎えたらとりあえずswimwearかnudeにしてから調整
モチベーションは重要w エロ画像を一生懸命生成して、
良さげなのができて一旦賢者になった後は非エロを生成
エロ漫画家とかもそうなのかなと想像 >>18
エロを毛嫌いする潔癖症もおるけど学びの原動力として良いと思うぞ
技術の進歩をエロが支える事は多いし 前傾姿勢で両手で物を持っていて
もう一本手が下に有って身体を支えている絵が出てきたけど
なんか合理的だなと思った >>21
物理的にアクロバティックな絵と真っ当な絵を学習しててぶつかり合ってるのかな 実写畑のニキ達、いつの間にかむちゃくちゃレベル上がってんなー
ワイはそっちやらんけど、求道者がいるのはええこっちゃ 二次は作風が様々だけど実写はその複雑さが少なくてやりやすい気はする
黒人画像や白人画像も出力しろと言われると困りそうだけどさ ワッチョイ付きの方に基地害が集まってるじゃねえかwww >>27
最初は分からないなりに試行錯誤して使えばいいんや
楽しくなってから仕組みを知ればいい
ワイもまだ仕組みは分かってない 別スレのキチガイが出張してきたのか
あいつJのスレには行かないの謎なんだよな… >>11
前スレの生首学習をみて追加学習やってみようかなと思った
案外ハードルが低いと思わせてくれた画像だった >>30
これは強烈w
>287名無しさん@お腹いっぱい。2023/04/17(月) 23:55:14.13ID:BdnmL0DL
>https://i.imgur.com/TvWBZRe.jpg 生首 トリミングの際に肩の輪郭が残ってた事に後から気付いて若干失敗
>https://i.imgur.com/Gmz1omS.jpg 学習した物から生成
>
>中途半端な角度一枚でも、その角度に固定されると言う事もなくわりと柔軟に出る >>32
こういうのって途中で左右反転画像も作っているんだよね? いくつもアホみたいな画像が並んでいると安倍が深見東州に見えてくる 流行りのAI処理でもパフォーマンスを徹底検証!GeForce RTX 4070レビュー【後編】
https://ascii.jp/elem/000/004/134/4134129/8/ StepsとDenoisingでX/Y/Zプロット回したらところどころ黒く抜けるんだけど何でじゃろ
もう一度回したら別のところが抜ける >>39
にゅ?
ちなみにいつもと違う点がUpscalerがSwinIR 4xだということに気付いた
SwinIR 4xでUpscaleする時だけいつもファンが勢いよく回るからマシンパワーが必要なのかな あ、それもなる、その場合はESRGANも駄目
Latent系だとならないはず
自分は大抵orangemixsで起こるので
--no-half-vaeとか入れても変わらない アップスケールはLatentしか使ったことがないかも
それぞれ何か特徴があるん? >>40
>>42
Latent系はブロックノイズっぽい?ジャギーな?感じになることがある。
Latent系と同じ設定でESRGANやSwinIRはOut of Memoryになることあるからそっちの方が重いんじゃね? Latent系だと派手に書き込まれすぎちゃうから
シンプルにしたい時は他のを使うんだけど
ぶっちゃけ「None」が一番いい時もあるんだけど、
MultiDiffusionでNoneを選ぶと大きくしてくれないんだよね Control netのwebui を導入しようとしたんですが、今Control net用のモデルをダウンロードして導入しようとする場合ってver1.1だけで大丈夫なんですか? AI専用グラボ出せないかな
コア減らしてVRAM24Gとか
ハードの限界 >>973
助かります
早速試してみます
ありがとうございます! 本スレはこっち
【StableDiffusion】画像生成AI質問スレ9
https://mevius.5ch.net/test/read.cgi/cg/1682213108/
ここは初心者雑談用のゆる板 1111を導入しました
画像の生成と保存はできるのですが右側のサムネイルが表示されません(壊れてる表示)
ブラウザはbraveで、ブロックは切ってます
なにか解決できる設定などないでしょうか
(規定のブラウザは変更したくないので、1111側が使用するブラウザを変更する方法があれば知りたいです)
すぺっこ的には
CPUは13600KF、 MEM DDR5-5200の192GB、 GPUは4070Tiあるので問題ないです >>52
EdgeやChromeいれてショートカットから起動すればいい
デフォルトをa1111専用のローカルでもいいんじゃね? 好きなブラウザでhttp://127.0.0.1:7860にアクセスすれば大丈夫でしょ あ、ブラウザのせいじゃないっぽいな…
ちなみに保存すると画像自体はちゃんとできてます
https://imgur.com/YOP4AG0.jpg エラーは
ValueError: File cannot be fetched: D:/. All files must contained within the Gradio python app working directory, or be a temp file created by the Gradio python app.
です
ブラウザ用ライブラリのインストールの問題…? ID:UJ6UoqNk
1111をどんなパスにインストールした? >>58
ファイルを取得できません: D:/.すべてのファイルは、Gradio python アプリの作業ディレクトリに含まれているか、Gradio python アプリによって作成された一時ファイルである必要があります。
「D:/.」という表示は気になる
どこかでDドライブ直下を指定しててそれを読めないでいる雰囲気 >>46
AI専用グラボは出ても高い、VRAM24GBなら4090買った方が安い
専用にすると需要が限られて割高になるんだよ 1カ月以上1111更新してないが、
線画全く崩さずに着色してくれる機能はそろそろ出てきましたかな? 質問失礼します。
追加学習について勉強したいのですが
おすすめの手順解説サイトなどはありますでしょうか?
また解説サイトなどを見ますと
automatic1111のstabledeiffusionの入っているフォルダ名が「sb-webui」となっていますが
私が以前ダウンロードした
automatic1111のstabledeiffusionの入っているフォルダ名は「webui」となっていて
アップデート用のupdate.batというファイルが見つかりません。
ダウンロードしたものが古かったり、また間違えていたりするのでしょうか?
初歩的な質問で恐縮ですが、教えていただけますと幸いです。 最近思うんだけど3060で夜大量に生成ガチャしてハイスペックなグラボでクオリティアップするのとで分けたほうがいい気がする
折角高いグラボ買っても生成で消費してる感 >>64
1.0の時からこれくらいの塗りならできるんだがそれじゃダメなのか?
フリー素材に色つけてみたが
https://imgur.com/a/nbc4NpI >>58のエラーでぐぐったらなんJNVA部ってスレがヒットしたけどNVAって何だろう
AI画像のスレっぽいんだけど何か独特な文化っぽい プロンプトの記述なんですが、他人の作ったのをコピペしたりすると、単語の前後に無駄なスペースをよく入れてしまいます。
スペースが入ると、Stable Diffusionは理解できないでしょうか?
パターンとしては、単語の前に入るのと、単語の後にはいるのと、2種類あるんですが、どちらの場合も入ってても問題ないでしょうか? >>69
画像生成が有名になってなんか変な人も増えたから名前わかりにくくしたらしい 画風LORAについて質問なのですがキャラクターLORAがなんとなく形になったので画風LORAも作ってみようかなと手を出したのですがなかなか上手くいきません
ネットで調べると学習素材をキャラクターLORAより多く用意する。くらいの情報しか見つけられなかったのですが実際それくらいしか違いないんですかね? >>70
レスを待っている間に試してみるほうが環境によっては速いw >>72
あとは学習元のモデルかな
癖の少ない漫画家の画風を作ろうとするときに素で似たようなものを作れてしまうモデルを使うとAIが教師絵との違いを上手く見つけられなくて学習しない
学習時に指定するモデルを変えてみるか、癖の強い漫画家で練習するとか Stable Diffusion XLになったらモデルデータも全部総取替になる? >>76
似てるモデルがいいって意見を聞いたことあるけど逆なのか… >>76
あぁモデル変更もあるのかキャラクターloraの方で上手くいってからまったくいじってなかったから完全に忘れてた。さっそく試してみます ControlNetのdepthで背景は変更したい時はどうしたらいいんだ? オープンポーズだと違うのになるし。人物切り抜いて、背景白にした画像を用意しても駄目だ。リアル系だけど、デプス以外で背景は変えれるのあるのか? なんJについて皆さんどうも
過去のスレで「なんか便利なAI部」と書いてあるからこれがNVAかも…
ぐぐって画像保管庫ってのが出てくるんだけどやけにクオリティ高い loraなんですが学習対象は顔?絵柄?
説明できる先生いらっしゃいますか? 同じキャラクターの正面と背面の画像を並べて生成するのは無理ですか? >>85
チャートシート系のタグかLoRA使えばできるで デジケット
とらのあなで
実写風ロリ売ってるやつはやめた方がいい
つかまってもしらんぞ 知らねーっつーなら荒しみたいなコピペ止めろや
しつけーんだよ ID:UJ6UoqNk ですが
Cドライブにpy3.11が入ってるのでDドライブに構築しようと思ったんだけど
どこかが衝突したっぽくてのエラーでした(環境変数、デフォルトpy設定とpipは修正してたがダメ)
結局1度両方アンインストールしてからデフォルト場所に1111、Dにpy3.11入れて共存成功しました
おさわがせしました >>90
pythonインストールしたらデフォルトパスを修正してからバッチを実行すると幸せだぞ エラーメッセージ的にあるべき所に無いって感じだったしな >>34
してない
逆向きでも分け目逆になってないでしょ 位置と大きさを変えた10枚の画像からできてしまう驚き なんなら1枚でも良いと思うけど、多分サムネの下段右から2番目の構図に寄ってしまう 服のパーツごとに色指定は難しいのかな
どれかに寄ってしまう感じがする nudeだけでなくnakedやbottomlessというのもあるのか
妙な知識ばかり増えていくw イラストようにハイエンドPC購入しようと悩んでるのですが
ssdって上げる意味ありますか? >>101
SSD も 2テラバイト以上だね
モデルの読み込みとモデルがかなり多い
ある画像だけなら HDD でもいいけど web版のNAIで生成した画像を、そのままドラッグして設定とシードをインポートして再生成しただけなのに、稀に別の結果になることがあるわ
バグかな >>105
medvramとか、xformersとか、sampling_methodの「_a」とか、考えられることは山ほどある
演算時の内部構造の動的変化を伴う場合は原因がとくにわかりづらい
こっちが動的変化して変わってしまうことももちろん想定し得るが、
「目標画像が動的変化した後の状態の絵」
だった場合は、再現はそうとう厳しくなる >>106
スマン説明不足だったわ
web版からweb版への読み込みの話ね >>104
OS用は基本構成の1TBで良い、追加で2ndストレージ2TBを選択そのドライブにSD構築
自分で取付出来るなら別途安い所で買って付ける >>104
お金出せるならこれで何を悩むの?部屋が狭いとかそういう話?
データストレージはあとからでも買えるし >>99
位置が大まかに決まってるんならregional prompter lora自作している人で 複数loraを使うときにガビらない作成方法を知っている人はいないだろうか?
スタイルloraとキャラlora同時に使うとどうしてもガビってしまうんだ
dimも極力下げたり resizeを使ったりしてもだめだった オナシャス! >>108
ありがとうございます!
>>109
SSD以外だと店舗の価格や保証で悩んでる感じですかね…
予算多くて60万ほどで性能はほぼこんな感じのは決めてるのですが LoRAって人物全体じゃなくて
体の部位やアクセサリ的なものだけ登録できる? >>116
できるけど、すでに学習されたものやタグと被るものは扱いがデリケートや >>113
ガビルのはそのロラが同じモデル用に
作られてるかどうかとかじゃねえか
2次元と3次元はまぜちゃダメ controlnet1.1の入れ方が分からんです
くわしいサイトとかあります? controlnet 1.1の入れ方でググった一番上のサイトでもわからんのか?
どこのなにでつまづいてるのか コントロール ネットって URL 貼り付けるだけじゃねえの?
随分前にやったから 細かいの覚えてねえけど ControlNet のopenpose使って複雑な体位真似しようとしてるけど画面外の男を上手く認識してくれない、、。いい解決策とかあります? >>127
とりあえず画面内に入れておいて
その部分だけ切り取るとか
運用でやるしかないんじゃないか
そんなやり方だと余計に時間食うと思うんだが 消えろ絵師wwwwwwwwwwwwwwwwwwwwwwwww AI生成で一気に作るよりツールとして考えて後で一手間掛けるほうが急がば回れになるかもね (yellow:1.4) liquid,
他人の画像を見たら、上記のプロンプトがあったんですが、これって成立してます?
yellowだけを強調して、iquid の方は強調されない、というプロンプトってことで、構文としては正しいでしょうか? liquid強調したら量が増えたから外したんじゃね?
影響はモデルによるだろうけど、自分で試せることは試した方が速いし勉強になると思うけどね そもそもスペース入れた時点でカンマ入れてるのと大差ないんじゃなかったっけ?
色移りが極めてよく起きるのもそのせい ありがとうございます。
確かに、実際やったほうが早そうですね。
>そもそもスペース入れた時点でカンマ入れてるのと大差ないんじゃなかったっけ?
え!そうなんですか? それはちょっとプロンプトを考え直さないといけない衝撃です >>138
こんなん初耳、詰めてみよう
改行も意味出てきそう >>136,139
あくまで個人的な所感ですが・・・
カンマで区切っても空白で区切ってもAIは文章読解をまず試みる
そのうえで読解できない部分は別々に処理し始める
したがって、
・AND構文でつなげる>-や_でつなげる>空白でつなげる>カンマでつなげる>ピリオドでつなげる>BREAK構文でつなげる(断ち切る)
の順で前後のシナジーが強いとみています
boyとgirlを離すべきというnsfw系の話題も、これ(文章読解)が作用しているから
・「男+女」の解釈でできなくて「男・・・・・・・・・女」の分離でできる
(モデルは女を学習する量が圧倒的に多いから、男+女→女になって男が出ない)
ということになるのではないかとみています
>(yellow:1.4) liquid,
学習内容と組み合わせにもよるけど、成立はしている lycolisフォルダ作ってlohaとか分けたらcivitai helperがリフレッシュしようとするとエラー出るんだけどhelper側の問題かな? このロリめっちゃかわいいよっしゃセックスしたろ!と思ってエロ系プロンプト入れると
画風が変わってくっきりしたケバい画風になる上にキャラ自体も老けるんですが
何とかして回避する方法はないでしょうか? >>143
そういう場合はエロ系プロンプトがロリ拒否的な学習をしているから無理
虹はエロにロリが付随している絵が比較的ある
だから、虹のモデルのエロプロンプトは暗黙的にロリもアダルトもありと学習している
惨事はロリ+エロ自体素材がないから同時に学習しているモデルがない
したがって、惨事のモデルのエロプロンプトは暗黙的にアダルトであると学習していることになる
上記は極端に虹と惨事で書いたが、虹のモデルでもロリ+エロを同時に学習させてない場合は惨事と同じ状況になる
だから、エロプロンプト入れたら年増になるモデルでは、エロを入れてロリを維持するのは難しい >>144
早速ありがとうございます
通常時と画風が変わってしまうのも似たような原因なんでしょうか? SDで自分で描いたラフ+下塗り(色指定)をある程度原型保ったままAIでクオリティ上げる方法ってありますかね?
Controlnetでラフを清書→出力した線画を塗りってやると、細かい部分を指定したい色になかなか出来ないし
i2iでクオリティ上げようとすると原型保った絵にならないし(勝手にポーズ変わったり、細部のアクセや小物が消えたり変わったり)
今のところi2iに下塗りラフ入れる+CNの塗りで何とかそれっぽくはなってるけど、
やっぱり細かい部分が歪んだり、指定した色と違ったりして結局後から大幅に修正させられて時間がかかる・・・ StableDiffusionに興味があり質問させてください。
ローカルでStableDiffusionを使えるPC(環境)を整えるには予算はどれくらい必要ですか?
以下の3つのパターンで検討して貰えると幸いです。
1、最高の構成
2、無難な構成
3、最低限な構成
目安でも構いませんし、詳しく書いて貰っても構いません。
教えて頂けると幸いです。よろしくお願いします。 >>144
ロリ系とエロをマージすればいけるんじゃない?
顔のすげ替え的な cpu テキトー
mem 32GB以上
gpu 306012GB
ssd テキトー
hdd お好きに
電源 上記を考慮した容量
最低ラインはこんなものじゃない? 100万も必要?
4090とメモリ64くらいであと適当で良い気がするが 画質は変わらんから違法販売しないなら3060で十分じゃね? ControlNetを使用すると顔の向きに視線が固定されてしまいlook at viewが効かなくなるのですが対処法はありますか? GPUは12gb無いと苦行時間と電力の無駄遣い
最低ラインは3060の12gb
他はほぼどうでもいいからGPU付け替えでOK
これなら5万弱で行ける 前スレでradeon諦めて3060買うといったものですが、購入して学習しようとしたら
エラーがでて対処方が見つからなかったので先輩方のお知恵をおかりしたいです。
(venv) PS D:\******sd-scripts> accelerate launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=D:\*****i\models\Stable-diffusion\*****.safetensors --output_dir=D:\*****i\sd-scripts\trainingdata\outputs --dataset_config=D:\*****\sd-scripts\trainingdata\datasetconfig.toml --train_batch_size=4 --max_train_epochs=10 --resolution=512,512 --optimizer_type=AdamW8bit --learning_rate=1e-4 --network_dim=128 --network_alpha=64 --enable_bucket --bucket_no_upscale --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --lr_warmup_steps=500 --keep_tokens=1 --shuffle_caption --caption_dropout_rate=0.05 --save_model_as=safetensors --clip_skip=2 --seed=42 --color_aug --xformers --mixed_precision=fp16 --network_module=networks.lora --persistent_data_loader_workers
これではじめて
RuntimeError: CUDA error: unknown error
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
こんなエラーが出できたので
--train_batch_size=1
--xformersを--mixed_precision=fp16
に変更しても多少すすんだのですが
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 5242880 bytes.
File "D:\*****i\sd-scripts\venv\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher
raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)
subprocess.CalledProcessError: Command '['D:\\*****\\sd-scripts\\venv\\Scripts\\python.exe'
こんなエラーになります。
geforce3060 12
物理メモリ16gb←これはちょっと気になってる
どうかお知恵をお貸しください。 >>114
画像崩壊
ワケワカメみたいな絵ができる >>155
> 物理メモリ16gb←これはちょっと気になってる
まぁ、まんまかと・・バッチは1だし
> DefaultCPUAllocator: not enough memory: you tried to allocate 5242880 bytes.
検索すると昔は続けて「Buy new RAM!」って出てたみたい
ブラウザやら動いてるもの全部落としてタスクマネージャでメモリ監視しながら動かしてみてどうなるか >>155
RAM容量少ないと思う32GBは欲しいな
自分はAI絵以外の作業でもっとメモリ使うから64GB積んでるよ ブラウザで有料ありでi2i使えるのって何がオススメ?可愛い女の子イラスト系で。Holara?
今更興味持ったけど情報の追い方も分からない。絵は一通りの構図書けるのでi2iいいのかなって思った 3DModel&PoseLoaderについて教えてください
ポーズエディタ機能があると書いてあるのに私の画面にはreadmeにあるような操作画面の表示がありません
既存のアニメーションを一時停止してポーズを取ることは出来ています A子とB子とC子のデータの入った顔Loraを作って、3人ともに名前の他にトリガーワード1girlが設定されていたら、呼び出したときにはランダムで出てきちゃう?
それとも、顔が混ざったような人になる? 1girlだけならそりゃ混ざるでしょ
それが画風loraなわけで 一人一人個別に作らないとダメか
混ざった平均的な顔で色んな問題回避するってのもアリかもだけど博打だわな modelでたまにあるインペイント版ってなに?普通のやつとどう違うの? 仮想メモリ拡張してためしてみます、ありがとうございました。 >>166
多分ベースのモデルデータが無く学習データ100%な感じじゃないのかな >>167
うまくいったら今ならメモリもバカ高くないだろうから増設検討で >>171
48GBにしてくれたら夢があるけどな
まぁメモリの交換なんて素人には壊すだけで縁がない話だ グラボ直し系Youtuberが日本にもいるけどやってくれそうだな 周辺部品をマスクして低温ハンダで外してもう一回載せる感じだろ
ジャンクのメモリモジュールあたりで練習しとけば出来るようになるよ smile 0.8〜1.4
embarrassed 0.8〜1.4
みたいな事がしたいんやが、
wildcardで一個一個数字を入れていくしかないんかな Win7まで対応のエロゲーって最近のWindowsじゃ動かないですか? 今メモリ16で増設しようか悩んでるのですが32と64ってどれくらい変わるとかありますか?
64はやり過ぎですかね? >>178
VRAM増設するのか!夢の64GB見せてくれ 20万円以上のボードなら実装工場に頼んで増量しても元が取れるかもな
仕事だと外してまた付けることよくあるから実装工場の方は手慣れてるよ >>178
32GBだとprunedしてない7GB以上のモデルマージでこけることがあるくらいかな
生成テストしてVRAMからの退避とかでメインメモリ確保されると足りなくなる場合がある
複数モデル切り替えが多い人は、ある程度キャッシュに乗るので長時間作業しても切り替え速度が落ちない
おまけで64GBあれば余ってるメモリはディスクキャッシュに使われるので、ちびたいの大量ダウンロード後のHelper処理が速い程度 >>177
動くこともあるし動かないこともある
でも7ならだいたい動くんじゃないかなあ
完全にスレ違いだけどどうなんだろう
ちなみになんてタイトル? >>170
悪いことは言わないから4070はtiにしておきなさい
上乗せされる値段に対して上がるパフォーマンスが大きい まあメモリ安いなあ
32Gアマゾンでポチった
これで多少は捗るから楽しみ i7-6700kと古いCPUですが生成中に負荷が30%を超える事がありません
ということは良いCPUに変えても速くならないですか? >>185
生成時に重要なのはGPUなので、CPUの早さが2倍になっても生成速度は2倍になりませぬ GPUって24GBがせいぜいちゃうんか?
それ以上のものっていくらになるんだろ >>185
30%はトータルの負荷?
各コアで見ると1つのコアが100%になってない?
何で生成中の話か知らんけど
それでもGPUの方が重要なのは変わらんけどね
CPUはGPUへの指示役みたいなもの >>165
1girlだけなら、って言われてるでしょ。
a-ko, b-ko, c-koを学習時に指定して、それを呪文に入れたら当然混ざらない。 CPUと言えば学習で、Number of CPU threads per core 2で、
学習中ずっと2コア100%に張り付いてるんですが、増やせば早くなるんですかね >>187
300万円の 複数つければいいじゃない >>145
そう考えて差し支えありません
プロンプトは学習時にプロンプトが指し示す意味とは別の要素も学習してしまう
多数学習することでプロンプトの持たせたい要素とは違う要素については、平均化されて均され、特徴から消えていく
画風での説明は難しいですが・・・たとえば・・・、黒板は一般的には学校にしかありません(学習要素は学校・教室要素を含むものが多くなる)
そこで、自宅の風呂に黒板を置きたい()と考えてプロンプトを並べても、風呂に黒板が置かれるほかに学校の一角や教室の一角がバスタブになるなどの弊害が出たりする
こういったことが画風でも起きると考えていいと思う
>>149
マージは要素の置き換えではない(≒平均化)ので、双方の要素が中途半端になる
端的には、『10歳の顔と16歳の顔を足して2で割っても13歳の顔にはならない』ということ
もちろん、要素は複雑ですから、奇跡的にマージドモデルが欲求を満たすこともあるにはある
>>176
{smile|(smile:{0.8|0.9|1.1|1.2|1.3|1.4})},{embarrassed|(embarrassed:{0.8|0.9|1.1|1.2|1.3|1.4})}
1.0をダイナミックプロンプトから除外してるのは個人的な用心で必要ないかもしれない 現在Stable diffusionのWEBUIを導入しようとしたのですがエラーコードが出ます。
RuntimeError: Couldn't install torch.
Command: "C:\WebUI\stable-diffusion-webui\venv\Scripts\python.exe" -m pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117
Error code: 1
リンク(WEBUIのインストール方法)を参照し、Pysonは3.10.6をダウンロードしています。
(下リンク内の3.10.6のDLリンクから行いました)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
GitをDL後、Git Bash hereを行い、更にWebUI内のmodelsフォルダにorangemixを入れました。
その後VAEを入れないでWebUIを実行しようとしたところ上記のエラーが発生しました。
何が問題だったか教えてもらえないでしょうか? >>194
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/4299
これの下の方の Yartezって人と全く同じだね
たぶん別のpython3.11が生きててwebuiがそっちで動かそうとしてコケてる?
2つ下のifiwasakidって人のやり方で治らないかな? 二次元系で舌の真ん中にキモイ縦線が入りがちなんだけど無くす方法ないです? >>194
FAQのこれで最初からやり直しては
手順3つで簡単よ
> https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
> 解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
これならPythonだのtorchだのに悩むことはないよ >>197
キモいかどうかは主観なので、使ってるモデルがわからず作例もなかったら答えようがないと思わんかね >>199
このスレ質問してまともな回答こないよな、マジで使えねー
モデルとか画像貼れとかいうから言われた通りやると必ず無視されるし結局お前ら初心者に毛が生えた程度のにわかなんだろ? >>200
君の課題は
・描画させたくないものをどうやって描画させないようにするか
環境は
・描画させたくないものをプロンプトに含めると、AIは描画要素と解釈することが多い(≒否定構文はほぼ機能しない)
後は頑張れ
あとは君のプロンプト想像力(≒思考力)しだいだ・・・構図構成力の範疇にもなるかな >>200
タダ飯に文句言ってる無能。
優秀なAIエンジニアを有償で雇って一から十まで教えて貰えばいいと思うよ。 フロンティアの5700x+4070Tiが届いた
これまでが2700s+1060(6G)だったから当たり前かもしれんがアップサンプリングで2枚5分近くかかってたのが20枚で5分かからなくなったw
10倍かよw
ほぼ専用機にするつもりなので色々試せそう >>200
ワッチョイ無しはキチガイだらけだからしゃあない >>200
質問に答えるのは任意だし、いい回答を得るためのアドバイスをするのも自由なんですよ
わざわざ調べて回答することがあるのは質問の内容に興味があったり、調べることで自分の知識にできたりするから
なので思ったような回答を得られないからといって文句を言うのは筋違いです
ちなみに下の真ん中の線は舌正中溝(ぜつ・せいちゅうこう)といい英語ではmedian sulcus of tongueだそうなので、ネガティブプロンプトに入れたら消えるかもね
https://files.catbox.moe/ht2mww.jpg
(プロンプト:closeup median sulcus of tongue) >>207
この舌をベロンと出す絵を最初に見た漫画は
大友克洋のAKIRA第4巻だった
鉄雄が「危険はない」って言って舌を出して
カプセルを飲むシーンで
一般人がアレを飲むと気が狂うか死んでしまう >>197
今ならinpaintでなんとかするか手作業で修正した方が速いと思う
ディテールに拘って全体が崩れると元も子もないし anything-v4.5を使っています
人物のみの立ち絵を作りたいです
white background を入れると
白い背景に人物と謎のオブジェクトやエフェクトのようなものが出てきます
完全に人物のみにしたいのですがどうすればよいのでしょうか mov2movで
実写→アニメ化うまく行かないです…
controlnetでopenposeとdepthつかってモデルはanythingv5と7thv3試したけどきれいに出来ない…
みんなどうしてるんでしょう…
やっぱ動画から画像切り出してi2iしかないですか…? 強烈に過学習させたモデルで同じキャラしか吐き出さない奴使うしか無いよ >>210
人がいないスレで雑談したければこんなのも
【Midjourney】AI画像生成技術7【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1664685365/
(IDとIPが表示される)
【StableDiffusion】AI画像生成技術14【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1674546437/
(IDのみ表示される) >>213
txt2imgの一発出しにこだわらずrembgを使うのがよさそう
https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git
1111の作者謹製。背景の消え方が中途半端だったら出力された画像を改めて「その他に転送」してまたrembgするとよい >>218
それも使ってみたけどよくわからない謎布みたいな存在感のあるオブジェクトだと切り抜いてくれないから結局フォトショで手作業になっちゃう >>213
Any系やAny混じってる感じのモデルは、無地に弱いモデルだからどこかで妥協せんといかん
ラインもよく言って繊細、悪く言うと境界線がわかりにくいグラデ描きこみをするから切り抜きには向かんとおもう >>220
なるほど
無地に強い二次元系モデルって何がありますか? >>195
過去に3.11を入れたことはないので、おそらく別の理由かなと思います
回答ありがとうございました
>>198
そちらのやり方を一度試してみます
教えてくださりありがとうございました 学習中ページングファイルが小さいとかエラー出るけど普通に学習終了するから問題ないんですかね
ram64Gでvram24G とりあえずosページングファイル5G固定割当したけど同じログ出るなあ
みんな10G以上割り当ててるんですかね chilloutの次はbraが来るっていうから試してみたけど
老け顔しか出ないな 年齢指定してもダメ
ロリ顔出せとはいわんがJK指定したら年相応の顔出ないと使えない
質問です >>225
むしろJKの顔はBRAが最高だと思うがなぁ
xformersオフってる?オンオフでは顔が変わると言うが、オンの状態でのBRAのJKが最高だと思う
笑顔も自然だしな
https://i.imgur.com/urDakr1.png >>220
そうなのか
何故か後ろに謎の背景が出やすいなと思ってた >>226
自然な笑顔出てるなぁ
バジル・チルアウト顔に飽きてたから新鮮だ
AVやグラビビアの人のLoRA見ててもみんな引っ張られてたから、ベース変えて欲しいと思ってたとこでもある from aboveとface focusでどうだろうか 取り敢えず動く環境ができたので質問
これって顔の挿げ替えとかして楽しめるの?
jp_idol やら jp_actress なんてのを拾ってきてウハウハなん?
更には其奴等の苦悶の表情や恍惚の表情も意のままなんけ? >>233
体の挿げ替えは簡単だが、ぶっちゃけアイコラが楽になったってだけ
AIの真価は後者にあるが、それは簡単ではない from above
looking up
over head view
とか試した? BRAはやけに影が黒くて濃いのが気になるな〜 黒っぽすぎる 生成した過去の画像を消すと後悔しますかね?
日々進化してるし要らない気もするのですが >>237
せいぜい数百ギガやろ?
消さなくて良くない? >>233
俺は表情とか結構簡単にできるよ
英語力が必要 >>234
確かに簡単に挿げ替えはしてくれた
が、しかし後者の表情変化は幼児レベルやね
思ってたものとの乖離は大きいけど違った用途で楽しめそう
色々勉強してみるわ、有難う
>.239
英語力とは?
具体的に説明して頂けると有難いのですがどうせ無理でしょw ControlNetのlineartで顔が90°横に向いてる画像
例えば水平に寝ている画像とかをトレースすると顔が崩れれます。上に垂直に向いてる顔の画像と同クオリティーで描画する方法ありませんか?
画像自体を縦にすると立ってると認識されます。 実写系は表情変えるの難しい、というかsmile以外はあんまりかわいくない子が出てしまう… >>244
全然変わらない or 別人になる
lora ってやつを適用してみた結果ね
良く分らんけど学習した画像に依存する割合を打破する力はまだ無いって事じゃ?
AIだから出来ると思ってたけど今後に期待なんかな... >>245
それだったら表情lora作ればいいじゃねえか
どんな表情を出させたいのか知らないけれど >>245
LoRAはお面被せるようなものだっていうの知ってるか?
いろんな種類のあるセーラー服を1種類に強制するようなものだぞ
どんなが顔が学習されてるかわからんけど、学習元の枚数が少ないと同じ顔しか出ない仕組みだよ
学習時のタグから外れるとほとんどで影響でないのも理解しような
出来ないっていう無茶ぶりは初期の頃たくさんいたけど、ほとんど利用者が機能を理解してなかっただけだったしな >>246
昨日環境構築したばっかだからそこまでのスキルは無いのよ
でもつまり求める表情の画像が無いとそう言うloraは作れないって事よね?
俺は表情とか結構簡単にできるよと豪語するからには責任取って裏技公開してよね >>247
な、そう言うもんだよな
知ってるかもなにも知らんかったけど出来るのかと期待だけ
出来ないと認識したので他の用途で模索する >>230
(looking up viewer:1.xx)
倍率はかなり高めに(使用しているCheckPointによるけど、自分は1.6程度で出ることを確認した)
他のプロンプトに崩されやすい予感 >>248
やり方は知ってるし出来るけどお前の態度が気に入らない >>251
教えて欲しいけどお前の態度が気入らない
なので結構です 詰まらん輩の閉鎖空間みたいなんでDFに戻るわ
ゆるりと勉強して近いうち 239.246.251 を必ず平伏させる所存w >>248
求める表情の画像がないとというか
俺もエスパーではないので
何を作りたいのかわからないと作りようがない 気に入った画像のpromptを丸パクりしてみたらいいと思うけどな
自分じゃ考え付けないような複雑なpromptで作られた画像が公開されてるから 俺も最初はLoraでそこまで表情変わらなくてもいいから同じ顔で自在にボディすげ替えるという夢を見てたけど、結局inpaintで体上書きする方が早いし似る(というか本人だ)し見た目も馴染むという着地をしてしまった
こうなるとただアイコラ製造マシンなので、夢の新機能が爆誕することを楽しみに飽きてしまわない程度に触ってる stablediffusionの技術の大元って量子力学の不確定原理の解析を目的に開発されて来ていたらしいからサイコロ転がして自分の好みを引き当てるガチャ的使用が実は最適解なんじゃないの? コントロールネット使うと、Stable Diffusion checkpointで設定したモデルの絵柄が大きく変わってしまいました。
モデルとの合う合わないもあるんですかね。 Stable Diffusionが固まって動かなくなる時があるんですが、これって何なんでしょうか?
ウェブの方でも、コマンドプロンプト画面の方も全く%が進まなくなってしまう。
interruptボタンを押して中断しようとしても、反応がない。
コマンドプロンプトの方を終了させて、Stable Diffusionを再起動しないと治らない
原因わかりますでしょうか? >>225
civitaiにあるのはBRA4でしょ
BRA5betaが一部で出回ってるけどBRA5正規が来たら
完全にチル越える >>261
BRAv5betaってどこにあるんだろう
Twitterですごいすごい言ってる人たちはお互いで融通し合ってるのかね BRAはチルより顔のバリエーションが少ない感じがしたけど、その辺も改善されるなら期待できるな なんJNVA部ニキのこの作例見た時から、BRAは実写モデルでは頭一つ抜けてるな〜と思ったよ
https://imgur.com/dG3PFz0
https://imgur.com/qFZG1Kk
https://imgur.com/FjDcuhI
detection detailerで顔にテコ入れすると更に良さげ >>258
AIを含んだ非可逆圧縮の論理は、微弱な自然乱数(ホワイトノイズ)との和で数式が表現される
その自然乱数とされる部分にさらに法則がないかをアタックして探るのが本旨だったと思う
だから、seedなどにさらなる法則が見つかれば、プロンプトなしでも特定の絵を出せる可能性があるという意味にもなる
法則がみつからないからガチャしたりLoRA矯正したりするわけです >>267
自然乱数に法則がみつかるかもと期待する時点で
眉唾っていうか無理ゲーだけど、
ガチャやLoRA矯正が
無限にある並行宇宙の中から自分の気に入った未来を
選ぶことと例えるのはロマンがあるね 量子力学では確率でしか表せないけど
その確率から一つを選ぶ事が自由意志だと思う
それを実装すればAIは更に発展するが、
それには物理学の進歩を待たないといけないから時間かかるんじゃないか >>270
どんなに物理学が進歩しても
結局選ぶのは自分であることに変わりはない
例えば、昨年の安倍晋三が撃たれて死んだのも
運命ガチャを何度もやって選んだ未来のように見える
・不倫中絶を罪とする統一教会の支援受けてた松山三四六の不倫中絶スキャンダルが発覚し長野演説が中止に
・統一教会日本支部設立に尽力した岸信介の孫の安倍が急遽奈良に応援のために「導かれるように」来てしまった
・安倍が撃たれた演説場所は今年4月に立憲の泉健太代表が警察から「後方の警備が難しい」と指摘され断念していた場所
・過去に辻元の忠告を愚弄した安倍や自民党のヤジのせいで警察は拒否できず忖度した
・2連装の自作パイプ銃で1発目は全て外れて普通ならその時点で取り押さえられてるがSPは爆音に驚いて皆伏せてしまった
・2発目に発射された6個の弾丸のうち2個が安倍に命中し
・致命傷になったのは左上腕から入った1個で、運動エネルギーの膨張によって体内で暴れて左右の鎖骨下にある動脈を傷つけ心臓に達した。死因は失血死だった。
奇跡的な偶然が重なりすぎている
サイコロをたくさん無造作に放り投げたら
全ての目が1になったようなあり得ない突発性事件
確率論では到底説明できない因果律
神の干渉があったか、
量子力学的には無限に存在する並行宇宙の中から最高の結果を選んだのか、
またはそのために山上が何度も時間をタイムリープして
この結果に至るまでやり直した宇宙に我々はいる >>272
量子力学はオカルトの宝庫だぞ
量子テレポーテーションとか普通だから >>271
スレ違いもいいとこの話をそんだけ長々執拗に書き込むおまえに軽く狂気を感じるわw >>231,232,235,,250
ありがとうございます
Lora使ってる影響もあるのか
From aboveとかfaceあたりだと寝てしまったり、別のポーズだったりで1/30くらいの確率だったんで
そのプロンプト書き込んでやってみます >>271
現場近くの山上神社には安倍氏討伐の絵画が飾られていたって言う偶然までありますからね
フィクションならご都合主義的偶然の宝庫 >>273
オカルトというか、我々の世界の常識と素粒子の世界の常識は違うという話
身体も脳も記憶も意識も分子で構成される我々にはほとんど関係のないことだ 朝からキツいのが湧いてるな
先々々代くらい?の総理大臣になんでここまで粘着できるのかな 全く読んで無いけどキチガイすぎて草
こいつホントにイラスト生成してんのかな?なんか画像貼ってみ? 宇宙に我々はいる、まで読んだ
「我々はいる」といえば
神様は死んだ
悪魔は去った
(中略)
神も悪魔も
降立たぬ荒野に
我々はいる >>267
PCに乱数発生器が付いてる?
所詮は擬似乱数です
メルセンヌ・ツイスターとか使っていれば十分に物理乱数に近いかもしれないけど 現在orangemix3をモデルとして使用しています。
ネットで公開されているプロンプトを使用しても奇麗な絵はできるんですが、いわゆるピクシブなどで投稿されているAIイラストと品質に結構差が出ます。
これを解決するためにはどのようにすればいいでしょうか?
プロンプト作成力を上げれば改善されるのか、そもそもモデルを追加学習させないと投稿されるレベルの品質は出ないのか AIでボタンポチッと押せば出来ると勘違いしている人たちだらけだけど
いい絵が出てくるまでにかなりの調整とクリーチャーの生成が必要 >>282
すいません、こちらについて言葉が足りませんでした。
プロンプトやモデルの調整を行うことでクオリティが上がることはわかっているのですが
既存のモデル使用でプロンプトを調整するだけでもピクシブ投稿のAI作品レベルのものを作れるのか
それとも、そもそもモデルを調整しないとそういうレベルの品質は出ないのかが分かっていません。
(要は既存モデルの使用でどこまでのものができるのかが分っていない) > ピクシブ投稿のAI作品レベル
これが具体的にどのくらいかわからないのでなんとも・・ 適当に実写系モデル10個くらい入れて同じ呪文で比べたらあまり話題に上がらないARESMIXが良い感じだと思うんだけどCHILLやBRAより良くない?まあ好みなんだろうけど >>285
渋の良い絵は多分t2iポン出しじゃなくて人の手で修正してると思うので、そういう意味では難しいんじゃないかな Majinaiって生成方法i2iでUpすると、生成方法:すべて,並び変え:日付順とかで出てこなくね? >>141
もう一歩踏み込んで、一切区切らず単語を繋げてみたらちゃんと解読してくれて更にシナジー強くなった
ただ、いわゆるぎなた読みが偶発して解読コケることもあってものすごいピーキー
もうちょい検証してみる >>285
プロンプト通りに作って差が出るっていっても
実際の差異を見てみない事には何が足りないかどうかも判断出来ないよ
ちなみに公開してるレベルでもモデルデータはいじってない アップスケールすらしてない素の状態ってオチがありそう >>285
・書き込みの量と質はネガティブプロンプトで概ね決まるので、盛ってみる。面倒ならTIを3つくらいぶちこむ
・解像度が低いと書き込みが減るので、解像度を上げる。hires fixはもちろん、multidiffusionも活用
これらでとりあえずぱっと見は似たようなクオリティになるはず
望んだ構図や絵柄にしたりはポジティブプロンプトだが、クオリティを落とさずにそれをやるのは長い道のりになる >>288
まぁ別に「一発出しじゃなきゃ負け!」なんてルールないし他者に見せるために作品を作るという想いがあればなら手描きで加筆だろうがPhotoshopで修正だろうがなんだってやるわな >>271
そんだけ揃ってると安倍さんはsんでねーな。 渋やツイッターは承認欲求のためなら何でもする世界だしな
そこへ銭ゲバが少し混ざってるだけで >>287
Loraを強烈に効かせないと、そのままだと外人すぎない? エロ漫画の奇乳が嫌いなんだけど小さくできたりする? >>298
できるけど、その絵柄が好きなら絵柄lora作ってflat chestで出したほうがいい気がする >>213>219
1111の拡張機能一覧に「PBRemTools」という、rembgとは別の背景削除の拡張機能がありました
https://github.com/mattyamonaca/PBRemTools
これも試してみてはいかがでしょう >>298
2次元のそれらの要望を叶えるのはたやすい できるのか
ど素人でも弄りやすいソフトってありませんかね?
ノートしか持ってないからグラボつきのデスクトップを買った方がいいのかな >>305
元絵をコラしていく方法と絵柄を覚えさせてイチから好みの大きさのイラストを作る方法がある
個人的にはAIやるからには後者に挑戦するのが良いと思う https://i.imgur.com/At8i6oh.jpg
アニメキャラを生首学習させてみたけど、よっぽど特徴的な個性が無い限り何のキャラか分からんよね もう結構な旧作だろうし、誰も分からんだろうなと思ったら一発とか辞めてくれよ
https://i.imgur.com/0O6FmrJ.jpg
学習素材 LoRA強度0.85 マクロスFは公式が未だに擦ってるから知ってる奴多いでしょ
俺も昔はめっちゃ抜いたし
どっちかと言うとシェリル派だけど シェリルはロングヘアーもあって生首に使えそうな素材が見つからなかったんだ >>314
割合的には多いだろう
まずPC知識やPCスペックがある程度いるし予算とイジる時間もいる
ヘビーユーザーは大体が独身のおじさんのはず 素材自体沢山あるなら生首に拘る必要無くない?生首法は素材が一枚しかないとかの苦肉の策でしょ
シェリルは下品なアヘ顔がスゲー抜ける loraを強めに効かせる場合って、もはやcheckpoint って景色とかにしか意味ないのかな >>309
もうチョイでいい感じになりそう
惜しい と思ったら一番下の2Dみたらイケてるじゃん
すげーな >>311
当ててほしくないなら似てる金髪キャラが多そうなシェリルとかマイナーなクランにしないと ほとんどチルに引っ張られてて肖像権問題回避してんのかなって思うくらいの物ばかりだけどな 芸能人LoRAで本人が訴えたりすることはあるのかな?
騒いだら知らない人にまで知識が広がってかえって悪い結果にならない?
ワイドショーで「誰さんは自分の顔のこんな画像も作られていると主張しています」(全体にぼかした画像)みたいに採り上げたらまたcivitaiが落ちちゃう 昨今、機械学習に勝手に利用させるなとか話題が出ているが
問題は機械学習ではなく機械学習元殆どそのものをAI絵だから良いんだと主張する事が問題
従来で言うなら著作権があるものの模写を販売しているようなもの
折角珍しく日本が世界の先頭を行けるような法令になっているのに潰そうと躍起な勢力が論点ずらしてきている 名指しで芸能人のフェイク画像作った上にその出力用ファイル配ってるサイトがこれからもお咎めなしな方が不自然と思うんよ シェリルを真面目に学習してみようと、素材をタガーに突っ込んだらsheryl nomeって固有名詞が振られてて怖い
顔のどアップから小さめの画像迄全てに入ってた (AIに思考を読まれている…ファミチキを買おうとしていることまで) 前髪パッツンストレートな髪型のプロンプト分かる方いますか?
blunt bangsとかhime cutとかに入れても絶対前髪スカスカになるんですよね。重めにしたくて。 >>324
確か数ヶ月前だったと思うんだけど
ロラっていうものが出回り始めて
その時はロアの作り方までは知らなかったんだけど
AKB の人のやつとセクシー女優のやつを
試しに使ってみたんだよ
ガチで使っちゃうと 8割 の画像が本人と
見分がつかないやつができて
それを体の一部を変えたりとか
髪型を変えたりとかしてみた
後の2割はちょっと違うかなっていうのはできた
実際にやってみたらいいよ lohaで追加学習したいんじゃけどnetwork_weightにファイルパス入れてもNoneって出てきちゃう
前スレにも似たような話題あったけど解決したのかな 先日radeonから3060に変えてエラーが出ると相談したものです。
アドバイスの通り拡張メモリを32G追加したら学習できるようになりました、ありがとうございます。
16G追加だとフリーズしたりエラーだったので。物理メモリ64GBにしたほうがよさそうですが
マザーボードが32gbまでしか対応してないようなので16*2のメモリを購入しようとおもってます。 FAKE動画で告訴されたやつは本人の流出動画だってSNSで拡散されたからだろ
アイコラとかも雑誌がアイコラ特集とか勝手にやりだしたんで法規制が入ったわけで基本的に拡散されなきゃ無視されるでしょ https://i.imgur.com/37cHDuY.jpg
LoRA強度0.65 アニメキャラなのに下に行く程かけ離れていくふしぎ 失敗かな 今日一日で3円も円安になり、1ドル136円や
日銀の植田総裁が金融緩和継続を示したかんな
ええ感じで円買いになって1ドル133円を下抜けしようとしていたのに、これでトレンド転換だわ
安倍・黒川と日本円を毀損しまくったせいで、植田もその尻拭いやらされとる
来週にも1ドル138円を上抜けしてくかもよ はぁ?政治???
為替は生活に直結することだろが! また150円を目指すのかよ
グラボ価格が上がっていきそう 円安が進むと思うならドル建て外貨預金すれば年率4%は出るからGPUくらい買えるでしょう
購買力平価で考えれば90円くらいが妥当だと見る向きもあるから円安は一時的と考えゆうちょ株あたりを買っとけば配当利回り4.5% 所構わず法や政治の話始めて一人で酔い痴れるやつはみんな死ねばいいのに >>340
シェリルはケバさが無いとそれっぽく見えないのでは? >>350
なんJスレの人のやつだね
公開してないしする気もないらしい
作り方は前々スレあたりで公開してるので参考にしてみては
でもそれたぶんポン出しじゃなくてキャラlora使いつつシチュガチャって並べてるだけだぞ
あくまで漫画風の絵柄を出すだけ そのくらいはちょっと練習して非リアル系モデルでキャラLoraにエロポーズのLora適用したら出せるね
実際に貼ってくれると答えられる
ID:RPUBvFF+みたいな質問が一番困る
人それぞれ思い浮かべる凄さが違うわけで
pixivレベルつってもあそこもほんとピンキリだし 生成したら木とか葉っぱがなぜかちらほら出てくるんですがどうしてでしょうか? >>334
似てるけど手足がNGばかり
無理矢理合わせてるからか手足がめちゃくちゃになる率高い >>354
具体的なプロンプトを書いてくれないとなんとも
Loraなら学習に含まれちゃってる、Loraなしでも単語に関連するのはよく出る
昔のモデルは日本人の名前が入ってるだけで勝手に着物やら京都みたいな背景になったりした
嫌ならネガティブにleavesだのtreesだの入れて(○○:1.4)とかで強調しまくる >>354
学習の過程で一緒に覚えてるものだろうけど
基本的に生成サイズが大きいと余計なものが入りやすい
なのでネガティブも良いけど頻繁に出るならサイズ落とす >>268
少し捕捉
①数学的には自然乱数なんだけど、PC上では離散的な疑似乱数で代替している
②表現は自然乱数とまとめられてるけど、正しくは「未解析の数学法則+自然乱数」なので、未解析の数学法則が解析されれば非可逆圧縮はさらに圧縮率を上げることができる
特に、②はi2iの根幹論理でもある
元画像という解析済み数学に少しの自然乱数(疑似乱数)を加えた状態でi2iは計算させている
だから、元画像の特徴がなるべく最大限に生きた状態で、乱数部分をもとにした補正が掛けられている >>356
>>357
ありがとうございます
やってみます >>273
ま、時間の流れが、どこもかしこも、ありとあらゆる物質も、ありとあらゆる状況も同じとしか考えられない人間の脳では限界があるとは思うよ
(≒時間の流れが人間の感じるそれとしか認識できてない時点で、すでに超オカルト)
量子テレポしてる量子も、人間の感じる1秒の間に当該量子は当該量子の時間感覚で数兆秒も移動してる可能性があるからねぇ
以上、スレチ失礼 >>281
268あてに書いた通りで、
・自然乱数A=未知の法則数学B+理想自然乱数C
です
上記Aのパワースペクトルはたしかにホワイトにはなりませんけど、数学では正直些細なことです >>285
AIの論理はその数学法則に『乱数を加えた論理(乱数を基底とした論理)』を採用している
したがって、AIによって制作された絵は『理想に対して乱数によって汚された』絵しか出せない
理想が100%の欲求を満たしているなら、AIは絶対にうち勝てない(必ずノイズで汚すので)
理想が80%の欲求しか満たしていないなら、AIの汚しは偶然の欲求達成の可能性を秘める(汚したつもりが欲求エフェクトだった)
で、大体のCPは理想の95%以上を満たしている
(そうでなければ使う気にもなっていないでしょ?)
以上が答えです
のこり数%に対してどのようにアプローチするかはあなた次第ですが、理想100%近似への成功率もまた数%しかないとなるでしょう プロンプトにレンズの焦点距離と絞り値入れてる人いるけど、それも全く効かない
効いたと思ってる人はたまたま偶然にそれっぽいのに当たっただけだろ 量子コンピュータは、すごいけど、実は物理的な制約があって、まだまだ発展途上なんだよね。
量子ビットっていうのが使われてるんだけど、これが非常に脆弱で、簡単に破壊されるんだよ。
だから、物理的な制約を克服するための高度な技術が必要で、現在の量子コンピュータは数十個から数百個の量子ビットしか持てないんだ。
でも、これがもし解決できたら、予言とも言えるシミュレートができる 当方もご多分に漏れず3060から3090か4090にVerUPしたいと思っておりますが、結構古いPC(Z97-PRO GAMER PCIe3.0 4790K)なので、そこがボトルネックにならないか心配です。
現状のままグラボだけ替えて問題ないでしょうか?
それともマザボやCPUも新しいモノに替えた方がいいのでしょうか? >>366
とりまGPU交換だけで問題ないが電源容量は注意しないと死ぬぞ >>363
誤爆になんだけど、某所に書かれてた
DSLR food photograph of [dish description], 85mm f1.8
これとかは効いてる感じで周辺がちゃんとボケる
たぶん雑誌やwebのカメラの紹介画像の説明文を拾ってきて傾向を学習してるんだろうけど
プロンプトが効いたり効かなかったりは所詮言語モデルなんで焦点距離に限った話じゃないかと つか4090買う人間が2014年5月発売のマザーとか、普通に考えてありえない
完全にケチるところを間違えてて怒りまで湧いてくる >>367>>369
ありがとう。電源は750Wです。
今は画像生成しか使ってないですが、いずれはLoRAとか自作もしたいので、やっぱりもう少しパワー要りますか?
ケースは側面開放してますが、別途クーラーも必要? >>370
いちおう4090とか清水の舞台クラスの出費なんだけど(泣)
出費の優先順位を考えたらまずグラボかなと… >>373
すいません無理ですw
3090狙いにします 白人系で一番美人を生成しやすいのってやっぱロシア人か?
いまフィンランド人と生成し比べてるけどぜんぜん分からん
有識者居たら教えてクレメンス >>374
ケースが問題なら大きさだけ考えても3090でもヤバいんじゃね?
ちなみにその時代のケースは窒息ケースも多いから入っても冷やせない可能性もあるぞ あ、側面開放か、見落としてたわすまん
ただ、3090もそこそこ電力食うはずだから750Wで足りるのか?知らんけど >>376>>377
ttps://nlab.itmedia.co.jp/nl/articles/2210/09/news062.html
このページ見ると「ギャーッ!」ってなったけど、アマゾンの商品ページの画像見ると4090でも普通に入りそうな気はします
でも、とりあえず電源も箱もマザボも新調することは考えてみます
とりあえず条件をグラボだけに絞って考えるとして…
Hires Fixで大きい画像を作るとメモリ不足でよく止まるので、とにかくメモリが大きい24GBのグラボということで3090と4090がいいかなと思ったのですが24GBもいらんのでしょうか?
ttps://chimolog.co/bto-gpu-stable-diffusion-specs/
このページ見ると速さとコスパの点で4070Tiがオススメだったりするし、正直よくワカランです
今のウチの環境で今と同じ使い方をしたら、4070Tiの12GBだとやっぱり止まってしまうのでしょうか? >>378
スレ見てると16GBにしとけってレスはちょいちょい見かけるかな。
実名出していいか知らんけど、アキバの大手どころのTから始まるショップは交換保証で性能に不満だと交換してくれるから試してみればいんじゃね。
オレは4080買って交換保証で4090にしてもらったよ、ネットショップの方だけど。
ちなみに4090でもHires2倍SwinIRでバッチサイズ3以上にすると落ちるからAIやっててVRAM余って困るってことはない。 vaeなしだとボーッとして、ありだとコントラスト強すぎるんだけど、基本的に推奨vae使用なんだよね?
なしでフォトショとかするしかないのかな? >>378
今の環境でグラボだけ交換ってのは何が起きても自分で原因突き止められる自信がなけえればおすすめしない
絶対どっかで問題起きるから
新しいPCに完全に買い替え、これでいくら予算出せるかで選んだほうがいい
一番のおすすめは4070ti搭載のBTO 25万で買えて性能は上から3番目 これ
vramは12GBでなんとかなる、みんな速度に満足できなくなってくるんだよ >>382
必ずしも推奨である必要はない、モデル毎にいろいろ試して好きなVAE使えばいい >>371
3090でもPCIe分岐で使うと不安定になりかねないから
最低850W できれば1000WでPCIe本数多いやついこうw >>381
>>Hires2倍SwinIRでバッチサイズ3以上にすると落ちる
逆に言えばソレ以下なら可能というのは凄いですね
3060では考えられないです。やっぱり4090欲しい!
>>383
速さも欲しいしメモリも欲しい…でも予算には限度がある…
悩ましい問題ですが、仰るように総予算でも考えてみることにします
>>386
「分岐」というのが解らなかったのでググッてみたら、こういう問題もあるのですね
やはり最低でも電源は新調したいと思います
レスくれた皆さんありがとう! Stable diffusion でLora使いたいけど、選択のタブに出てこないのは何故だかわかりますか?
Extensionにはあります。 extentionと花札の参照ディレクトリが違うから
additional networkの参照ディレクトリの設定かえてmodels/loraにする >>389
generateの下にある花札ボタンからは知ってる? 1girlとかは入れてるけどコマ割り?みたいになっちゃうのはどういうネガ入れれば防げるかな?
テキストとかロゴもネガに入れてるが強調しないと出て来ちゃうのね
https://i.imgur.com/eMn2Vay.png >>392
(multiple views:1.2)
とか >>390
上手くいかない…
日本語化もextensionの欄にはあってもsettingに出てこない。
extensionがどれも有効にできていない気がする ID:OVIXweI8さんが「extensionにある」ってのはbuilt-inのチェックが入ったLora項目の話でしょ
ビルトインがapplyされてないわけないからなんか壊れてる?
花札ボタンからloraタブ自体がないってことでいいんだよね? >>393
まだ出る時有りますが確率減ってきました、ありがとうございます >>397
pcie 3.0 4.0 4090
とかで検索してみて、微差から10%差から色々言われてる
3080とかではほとんど差がないらしい
>>398
もうやってるかもだけど、Extensionsの
Loraチェック外してapply → Loraチェック入れてapply
で出ないかな? コントロールネット1.1のシャッフルとi2i組み合わせるともしかしてloraいらずになる? >>363,368
DSLRだけで周囲がぼけるのを確認
DSLRの意訳自体は「デジタル一眼レフカメラ」だが、学習効果は「~の撮影のように周囲をぼけさせる」になっていると思われる
その他のパラメータについても、その状況で撮影した写真っぽいものが出ると思われるので、まったく無意味になってるとは思わない
もちろん、数値通りの出力絵になってるとも思わないけどね・・・そもそもAIは画像内相対距離を計算できないし・・・ >>392
例えば、腕にかかわる異なった2つのプロンプトを入れると両方再現させるために阿修羅化する場合がある
これがもっとひどくなると、それぞれを別々に再現させるために2人目を出してくる
で、その2人目がプロンプトで同一人物を強制させていると(例:solo)、コマ割りするようにまでなる >>399
もう一度やってみたけどダメだなぁ
再インストールしてみます たしかにここまで来るとキレイさっぱり入れ直しが吉だな さらにStable Diffusion XLでどこまで変わるのか恐ろしい気もする >>404
手書きでも何某か過去の作品に影響を受けてるしな
コラージュ上等、それで新しいものが生まれていく civに上がってる実写lora 最初はすげーなって思ってたけど 実際は大したことないなってなってきた
少し上にリンクされてたハシカン見ると全然似てないし 今まで似てると思ってたのは その人の顔をそこまで知らないだけだったんだな
2次元はほぼ再現できるのに実写系はあれくらいが限度なのかな 実写の道は本当に果てしなくて海よりも深いぞ〜
civには肌のキメ細かさ×造形の美しさ×構図×シチュに拘ってる奴はなかなか居ねぇなぁ ワイルドカードで例えば、
背景のメモ、動物のメモ、ポーズのメモ、と3つ用意したら
3つから1個ずつ選ばれて良い感じに生成されるって感じで合ってますか? 実写は当然判定基準が厳しいからなw
2次元ならデフォルメの範疇でも実写だとそうはいかない 実写は極端な話 LoRAじゃなくてその人用のモデル作ればクオリティ上げられるか コントロールネットのシャッフルで出力した画像をhiresfixで公開ゾイド化する時にデノイズを0.3以下にしても画像に変化がおきやすいのですがどうすればいいでしょうか >>415
公開ゾイド化ってなんだろうとしばらく考えてしまった
基本的にはアップスケーラーをLatentがつかないものにすると高解像度化時の変化が少なくなるけど、
ControlNetのshuffleでなにか条件が変わるのかな 触り始めて約1ヶ月になるが未だに最適解を探して試行錯誤や勉強の日々
ある程度満足出来るものは作れる様になってきたけれどさらなる品質効率成功率アップを目指してしまうし日々進化してるしで落ち着いて作品作りを楽しむところまでなかなかいけない
まぁある程度落ち着いたら急速に飽きるのかもしれないけど ゴジュラス派かライガー派かで世代が分かるやつでしょ >>416
ありがとうございます
必ず変化がおきるわけでもなく、変化してしまう箇所も乳輪の色やグラデーションばかりなので乳輪との相性が悪いのかもしれません >>417
環境も技術も4か月前よりはだいぶ落ち着いたとはいえ
加算適応うからマイナス適応まですそ野はどんどん広がっている最中だから
今日の最適解は明日では最適解にはならん世界だと思うよ
子供の時喜んでたアニメも今見たら…って言う位で そういや最近無印ゾイド再放送してるみたいだな
YouTubeでも配信始めるらしい(宣伝) >>414
その人用のモデルを作るとは?
やり方を教えてくれたら私的偉人伝に掲載決定です! 最先端は動画までいってるらしいけど
末端が使えるようになるのはいつのことやら >>410
実写はにさせると訴えられるんで
わざとにさせないようにしている
自分でやってみたら? >>420
確かに初めて画像生成したときは、ただきれいなお姉さんが出てきただけで感動してたけど今見たらこんな程度でって思ってしまう
ある意味その頃の方が幸せだったのかも >>410
多分これのことを言ってるんだと思うけど
これにちょっと瞳の光り具合と垂れ目にして
あと光源の変更あと肌の色の変更とかを
加えた方がいいね
https://civitai.com/models/45489/hashimotokannajpidol あの低dimでchill丸出しのシリーズは半分ネタでしょw 学習した素材の解像度が低いとリアル系モデルはどうやっても似ない >>415
自己解決というか、変化が起きる原因がseedのズレのせいかもしれません
batch count10でその中から一枚選んでhiresfixかけると全く違う画像になってしまいます すみません
乃〇坂とかアイドルのエロをこのソフトでつくってあげてるサイトってありますか BRAって当たり外れが大きくね
外れるとクソブスができる BRAは低解像度で遠めだと顔が変になるので
高解像度を高速で出せるハイスペ環境向けだと思う
最新の5は触ったことないのでどうなってるか知らんが 最近のモデルは512x512での学習はどんどん潰してる感じだから
512x768サイズ以上でやるかHiresやTiledDiffusion使うのが前提だな
VRAM8GB未満だと選択の幅は狭まるけど、ハイスペックっていうほど厳しいわけではないと思う >>408
モデルやLORA生成できないから
本当のガチャだぞXLは >>439
リアリスティックビジョン2より上なん? これ1度画像生成するとプロンプト変えてもその画像が反映され続けるけどどうやってリセットすんの? >>440
まぁ、似てないわなぁ…
あの作者のシリーズ全般だけど、少なくともモデル変えて出力したレベルの別人
モデル変えるとそっくりなのが出てくるのかもしれないが エロ系の絵を生成してると肌がビクビクっとした時のトンガリみたいな効果が入っちゃうし最悪肌が溶けちゃうんだけど
あれってネガティブプロンプトは何を設定したら抑制できるんですかね?
tremblingとかmotion lineとかかと思ってネガティブにしてみても全然抑制されなくて >>446
だから自分で作るんだよ
それにこの人が使ったサンプル数も大して数ないし Stable Diffusionでエロの挿入が作りたいんだけど
sexでもvaginal,sexでもディルトみたいになってしまいます
ネガティブにvibratorやdildoを入れても同じです 実写LoRA作るとき モデルをchilloutとかBRAにすると モデル自体学習させまくってるからLoRA学習させても
モデルの癖に引っ張られるし過学習になりやすいってどっかのサイトで書いてあったけど 本当かどうかは分からん よろしくお願いします
novel AIから1111に移籍したんですけど
まったく別物で戸惑うばかりです
なかでもモデルがいまいちわからないんですけどモデルとチェックポイントとローラは別物なんでしょうか
モデル3つ合体させて新たにモデル作っていくのはなんとなくわかったんですけど
モデルとチェックポイントとローラの合体もやったほうがいいんですか? モデルとチェックポイントは同じ
loraはスパイスみたいな物と思っていれば良い違うけどね
ちなみにloraはデフォで倍率1かかってるから落としたloraのページに使い方あるから推奨倍率まで下げて使う
複数lora入れる場合は合計値1越えないようにすると破綻が少ない
使い始めはlora使わないで慣れてきたら使っていくと良い 薄暗い不潔な部屋を背景に出したいんだけど良いプロンプトやLORAは無いかな
messy roomとか色々試したけど小綺麗なのばかり出てくる俺の部屋より綺麗だ >>451
モデルがいわばシェフで、LORAは持ち込みのレシピみたいな感じ
あくまでもモデルをベースにしつつ画風の方向性を引っ張る >>449
まず竿役を生成しないといけないのでは? >>447
たぶん、モーションブラーとセクシャルクライマックスとオルガスムあたり、
今スマホからだからスペルは自分で変換してくれ。
あと、理由はよくわからんがディテールを上げても出る割合が減る。 >>452>>454
ありがとうございます
それぞれ合体でよさそうですね
なれるまではローラ以外の2つでやってみます >>287
アジア系の弱いのとNSFW要素がちょっと薄いような
結局チルアウトに戻ってきてしまう >実写系 竿役といえばnsfw以外でも似たような感じのを出せたりしないですかね
エロゲとかで女の子と並んでるけど主人公の体の一部だけ映ってて顔は見切れてるみたいな sex from behindで謎の人物が映り込むことは時々ある
ただ立っているだけw >>460
普通に大き目で出してカット&縮小したほうが早いと思うわ
SDは一部を出すのが苦手なAIネットワークモデルだし 今のところ、SDで完結させようと頑張りすぎるのは良くなさそうだよね
追加工も選択肢に入れてる方が面白い >>463
やっぱりそれになるか
加工前の画像を覚えてると勝手に脳が補完しそうだから直で出せればと思ったけど甘くないな
loraでどうにかできるのかもしれんけどこういうloraは自分にはハードル高そうだ ガチャで作ったたくさんの画像の中からお気に入りをいくつか選んでまとめてHires. fixする方法や拡張機能等ってあります? >>455
>>458
vaginal,sex,1girl, 1boy,
でやっても影も形もでてきません すいません。今日始めたばかりでmodelのNSFW系があることすら知りませんでした
modelって画面左上の「Stable Diffusionのcheckpoint」のことでしょうか? 生成されたpngに、モデル名だけじゃなくて使用したvaeも記録しておきたいのだけど、実現させるプラグインか、または設定ありますか 呪文自体もモデルによって対応してたりしてなかったりするのよね
bukkakeとか みんな呪文の最初にM@STERPIECEとか入れてるけど
なんか効果あるの? NAI時代の名残
NAIリークモデルが混ざってれば多少の効果はあると思われる
マージされまくってNAIの血が薄ければ薄いほど効果は微妙 実写系で良い物が出来たと仮定して
1. もしもこれがあの子の顔だったらなぁ
2, もしもこれがあの子の身体だったらなぁ
3. もしもこれがあの子のあそこだったらなぁ
4. もしもこれがあの子の顔で身体であそこだったらなぁ
1.2.3 それぞれに lora 作ろとしたら各々どう言う画像を使えば良いの?
4 は作った3つを適用すれば良いの?
ホントごめんなんですが1週間いじくりまわしてもイマイチ理解できない
なんとか試行錯誤しながら作った lora じゃぁ思った所に反映されない
学習した絵がそのまま或いはクリーチャーが生成される始末
ちなみに sd-webui-train-tools での制作です
御教示・御教授のどちらでも良いのでおなしゃすですます 画像生成AI「Stable Diffusion」開発元が自然な文章から画像を生成できる「DeepFloyd IF」を発表
https://gigazine.net/news/20230501-deepfloyd-if/ stablediffusionでmodel anythingV4.0 を使うと、生成段階では色が普通なんだが、
最後の段階で一気に彩度が下がり灰色のような画像になってしまうんだが、何が原因か推測できる方いますか? >>482
お返事ありがとうございます。結論から言うとそうでした。
自分もVAEだと思い、VAEを設定し変更したつもりで居たのですが、設定を保存をきちんと押さずに自動のままになっていました。
同様の問題 90%〜まで普通の彩度で、最後に彩度が一気に下がる方は参考に慣ればと思います。 >>470
それ。
NSFW系、ってのは、エロ画像を学習しているモデルを指す。
AIは知っている範囲でしか生成出来ないから、AIに学習させた画像に無修正本番画像が入ってないと、まんこはちんこを入れるもの、ってことを知らないことになるので、描けない。 平井元デジタル相「日本は軽量化も省エネ化もできる。そこに日本の勝ち筋があると見ている」
AIに関してだって、ソフトなんですけどね
頓珍漢な認識のうちに規制のしようが無いくらい広めてしまうしかないな
万が一、ソフトの軽量化、省電力化を指してるなら先進的だけどw 今のPC(GTX980)でやってみたら性能足りないのかやり方が間違ってるのか小学生の落書きレベルくらいの絵しか出ません
ゲームやるのにも性能全く足りてないので新しく買おうと思うんですが予算25万円
ガリレオのRTX3060ti メモリ16GBで大丈夫でしょうか?
足りない場合グラボとメモリどっちの方が重要でしょうか? 先日、AUTOMATIC1111版Stable Diffusion web UIを入れたものの
UIがわかりにくいのでBilingual Localizationを導入して
英語と日本語を同時に表示させようとしたのですが
jp localizationをinstalledにしたら表示されるはずの
Bilingual LocalizationのタブがSETTINGSに表示されません。
表示されないのは、どのような理由が考えられるでしょうか? >>488
✕3060ti → ○3060(12GB) >>488
その金額ならとにかくVRAM12以上必須で!もっと言うなら4070以降で!
そのクラスなら3060-12GBの方が余裕を持って遊べると思うけど。ガレリアなら15万であるやつで。
3060TiはVRAM8GBだったと思うけど、気持ち速度が速いってだけでVRAMの4GB差を超えるほどじゃないので無視していい
25万出すなら4070/4070Tiのグラボ乗ってるもの選んだ方がいいと思うわ
さすがに20万出しておっそい30x0勧める人はおらんと思うしな…
メインメモリも今は安いのでDDR4環境で構わないので32GBか64GBにしておいた方がいい
IntelならCPUは1世代前のi5まで落としていいのでというか十分
ゲームしないなら出力はCPUから出した方がVRAM取られないのでF型番は避けたほうがいい
今の世代なら13500(Fじゃない奴な)以上は4090とか積まん限りそれほど影響ない感じだし >>486
>平井元デジタル相「日本は軽量化も省エネ化もできる。そこに日本の勝ち筋があると見ている」
昭和の思考のままやな 中国のLORA投稿サイトどこにあるんでしょう?
私が知ってるのは更新してないです RuntimeError: Input type (struct c10::Half) and bias type (float) should be the same
このエラーの対処法どなたかわかりませんか?画像生成はできるけどrestore facesが使えない状況です。最近変えたことといえばGPUを3060Tiに交換したことくらいですがしばらくは異常なく使えていました。
openposeのアップデートが来ていたような気がしますがopenposeをオフにしても状況が変わらず原因がわからない状況です。 >>485
ネットでオススメにでてきた
AbyssOrangeMix3や7th_Layerを使ってもイマイチでした
オススメのNSFW系モデル教えてください
それとも追加学習?というものを使うのでしょうか >>485
EasyNegativeも使ってます
これが悪いのでしょうか? >>488
お金がないんだったら
CPU はセレロンでいい
メモリは16gb 以上
それ以外のお金は全てグラボに突っ込む >>494
CUDA絡みかな?ちゃんと入っててwebuiの下に出てるかまず確認
あと、しばらく休んでて久々に1111更新したとかであれば
全部入れ直しがあれこれ原因切り分けるよりぶっちゃけ手っ取り早い
venvフォルダ削除してwebui-user.bat実行したら再構築してくれる
>>496
それが悪いと思ったらネガティブから外したらいいだけ、embeddingsフォルダに入れてるだけでは効果はないです
あと、個々がプロンプトからなにからおま環で状況がバラバラなんでちゃんと答えられないのよ
チ○ポ出したいなら出てるのを落としてきてPNG_Infoに突っ込んで同じ画像を出してから
部分を変えたりして一個一個自分で調べていく
モデルから文言から全部晒したら答えてくれる人はいるけど内容的に
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
こっちで >>499
venvフォルダ削除で治りました!!!
ありがとうございます。これでまた愛しの我が子達を愛でれます。 Lycoris導入する時にnetwork_dimやconv_dimの数値を入力する必要があると思うんだけどコマンドラインとかで入力するself.net_dim: int = とかとはまた違うもの?
初歩的な質問で申し訳ない safetensorsの中に入ってる画像の見方とsafetensorsの作り方教えてください ドローンは二の舞いってか規制必至だった
テロに使えるから
AIイラストは一部のクソカスを除けば技術として発展すべきもの >>470
流石にそんなレベルで質問するなよ
もう少し調べよう Inpaintで描き直したい箇所を塗りつぶして生成すると
描き直しはされるけど描き直した部分ガビガビになるというか画質が劣化するというか塗りが荒くなるというか
違和感がでるようになってしまったんだけど同じよな人おらん?急になったから困ってる 1ヶ月ほどぶりに再会しまして
拡張機能をLoconからLycorisに移行するとフォルダ分けなおしになると見たんですがLoconのままで不都合てあるんでしょうか? >>495
いうても大抵のモデルはNSFW通るんでなあ
エロ特化モデルはcivitaiで思いつく限りのエロワード打ち込んで、ヒットした中からチェックポイントを自分で探した方がいいと思うで
すぐに何種類と手に入る
おすすめなんて簡単に言われても好みは人によって違うんだしな >>509
同じフォルダで大体問題ない気がする
全部LoRAフォルダにぶち込んで使ってるからw 32GBのRAMディスク組んでそこにモデル入れて快適生活したい
でもモデル1つ2~5GBだから32GBじゃとてもたりん
地獄のモデル選別が始まる……! CUDAのメモリ不足エラー頻発するんだけど
(12GIB中、6GIB空いてて4GIB予約済み、4GIBの割り当てに失敗しました)みたいな内容なんだよね、むっちゃ余ってる
エラーのたびに場当たり的な対応は一応できてるけど、なんか根本的に設定ミスってたりする? >>516
ブラウザを開いているとか
ゲームをやっているとか >>509
まず2次系か3次系か書いた方がいいんじゃないかな
まだまだモデル成分が強いから メモリーがひとかたまりに連続して空いて無ければ、どんなに空いてても無理とかあるかもな 何か今日の昼あたりから急にロラ読み込みエラーがでるようになったんだけど
俺だけかな?
グーグルコラボ使用
Exception: Error while deserializing header: HeaderTooLarge
てやつ >>513
RAMdisk なんて作らんでもメモリ128GBあればモデルとvaeは20個位メモリにプール出来るよ
設定項目がある >>504
そうでもない。フェイクで撹乱とか汚名着せたりとかもできる。
実際ロシアがウクライナ大統領婦人がブランド買い漁るコラ画像ばら蒔いて印象操作した。 画像生成AIがITに詳しくない人たちにまで普及したら、逆に芸能人は嬉しいかもな
フライデーや文春の証拠写真が、証拠なのかAI生成なのかわからなくなってしまう
「悪質なAI生成です」って本人と事務所が言い続ければ、それを信じるファンもいるだろう >>521
kwsk頼む
64GBでいいかと思ってたが128GBに惹かれてきた CPU ⇔ RAM
↓↑
GPY ⇔ VRAM
なイメージで合ってるよね >>526
なるほど
でも最近はNVMeがかなり早くなってるからRAMdiskのメリットほぼなくない?
HDDしかなかった時代は意味があったと思うけどさ RAMdiskじゃなくてメモリプールだった
混ざっちゃったけど言いたいことの意味は変わらん NVMe 4TB 4枚買ったワイ
RAMなんて気にしてなかった次は128GB積むわ GPU用のメモリが高いんじゃよ
CPU用のメモリはクソ安い
スタバのフラッペチーノと雪印のコーヒー牛乳ぐらい違う >>521
マジでんじゃその方向で行くか
1111だけど調べてみるわ
>>522
ロシア有効活用してて草 GPUは4080だよ
モデル切り替えの数秒の待ち時間短縮の為にモデルをRAMディスクに置こうとしてたよ >>523
某ラブ○イブの人「もう少し早ければ……」 >>530
これはちょっと目的とは違うな
やっぱRAMディスク化はするわ
その上でキャッシュを使う p [ram]
c |
i-(inter_conn)-[cpu]
e
b-[gpu]-[vram]
u
s >>539
設定のとこで「everything」にするとか、それでダメなら下の歯車マークでなんか設定もあったかな
https://i.imgur.com/ubDJN7v.png (なんの設定もしたおぼえないのにエロ解禁されてるなぁ) >>540
BrowsingModeがなかったです
設定にBrowsing Settings欄があるのですがそこにもなかったです・・・ >>539
sing inして右上の目のアイコンクリックしてみろ飛ぶぞ 質問なんだけどモデルがそもそも512で作られてるから
画像サイズは512で出して必要に応じて拡大縮小トリミングするほうがいいってマジなん? >>544
それが王道とされる
ワイは640や768や832までは普通に使うけど
このあたりならギリ破綻しない
気をつけるべきは高さ
幅は別に5000だろうが10000だろうが破綻はしないが、高さが900や1000となると奇形が出始める >>546
はえー
今度わざと高さ上げて出力してみようかな
用途がTRGPのキャラポートレート作成くらいなもんだから512平方かその倍しか使ってなかった >>543
エロフィルターこんなとこにあったんか
いつのまにかフィルターからなくなってて困ってた >>507
x2アップスケールした画像放り込んでたり? https://www.mouse-jp.co.jp/store/g/gg-tune-pp-z-o1/
今日びNovelAIから入って物足りなくなってAUTOMATIC1111導入しようとしてるんだけど
マウスコンピューターのアウトレットセールに出てるこれ、スペック足りますか?
生成だけじゃなくて学習もさせてみたいと思ってます >>533
CPUはそこまでいかなくていいと思うから4070積んだ20万ぐらいのBTO狙った方がよくない?
まじでVRAM容量は見た方がいい メインメモリは32GBあった方がいい
16GBだとカツカツになるし、モデルのmergeとかたぶん「普通に」できない どうせ新しいの買うなら40~の奴がいいぞ
3060にしたけど毎日使ってるとすごい遅く感じる >>559
一番上の工房のでいいんじゃないかな
物足りない部分はあとで足せばいいねん >>559
4070無印と4070tiで25%も生成速度違うから
価格差考えると今の価格で4070は無い 今だけ良ければって考えで中古のリスクどんと来いって感覚なら
3080の12GBとか3090は良いものだよ
新品なら4070ti 4080 4090の3択
今の価格ならどれもそれなりにコスパは良い
4090が圧倒的コスパだけど高いから仕方ないよね
探せば他にきっと選択肢が~、、、って考えに陥ると迷路になるだけ時間の無駄
何をどう理屈こねようと40番台の3択でしかないの もっと言えば70ti 90の2択
極論いえば4090以外は必ず何かしらの後悔と向き合っていくしかない 今更型落ちオブ型落ちの2000買うのだけはない
ピンク板にも居たな2060やたら推すやつ 4090は発熱と消費電力の後悔があるからなんとも
まあアフターバーナーでデチューンするだけか sdで起動時になんか大量にtempフォルダ作られないっけ
これ消す方法ある? >>568
コマンドプロンプトで
rd /s "~"
~はtempフォルダのフルパス
これで現在アクティブになっているファイル以外は全部ザップしてくれる
~を間違えるといろんなものをザップしてしまうので注意
したがって、ここにはバッチファイルのサンプルは書きません
ご自身で勉強願います
ちゃんと勉強すれば、バッチファイルにしてログアウト時に自動実行にして、ログアウト時に全部消してくれるという機構も作れる https://i.gyazo.com/78641b85517dc36e85e4ff5d66b250ec.png
トレーニングが終わった後もこのように
データセットに素材画像が表示されたままなのですが
トレーニング後にこれらの画像や設定を消すことはできないのでしょうか?
また、Loraを入れてもやや髪色が似るくらいで
うまく出力画像に反映されないのですが
素材画像が9枚では少なすぎでしょうか? >>569
>>570
いやなんかユーザーフォルダ以下に空フォルダ大量に作られたような
消す方法じゃなくてどこにできるんだったか忘れた 画像サイズとかバッチ回数とかのデフォルト値変えれる?
設定みてもそれらしきものは見つからなかった >>571
キャラだけを覚えさせたいなら多分学習素材が悪いんじゃないかな
その「キャラと似通った彩度明度の背景」「背景同士の微妙な類似性と抽象性」は学習効率を著しく落としてると思う
繰り返せば学習できないわけではないが、いっそ背景白抜きして学習させた方がステップに対する学習効率跳ね上がる
9枚でもアニメキャラでDIM8ならそれっぽいの作れるよ
…背景込みで画風覚えさせたいって話になると全然足りんけど
>>572
users\ユーザー名\AppData\Local\temp
ユーザーフォルダ以下まで分かってほぼ答え見えてるのに何故見つけられんのだ貴様という奴は…ウゴゴ >>575
わーいありがとー
Romingの方見てて???ってなった >>572
SDの場合は
・users\ユーザー名\AppData\Local\temp
でほとんどの人は正しいが、
・システムのプロパティ>環境変数>TEMPに記載されている内容
が最も正しい回答
ここを変更してることを忘れてると、AppData以下のフォルダを見て「?」になる >>578
やっぱRAMディスク作ってキャッシュとTEMPブチ込むわ
この二種はSSDの寿命急速に縮めるからな 生成したファイル名の保存で日付にフォーマットって有るけれど
20230503112321を2023_05_03,11;23;21みたいに変えられる?
[]内変えても<>内変えても出来ないけれどもともと無理なのかな? [datetime<%Y_%m_%d,%H;%M;%S>] むしろ通し番号で生成してる時に日付けが変わってフォルダー変わるの何とか止めさせたいんだが
あれ地味に迷惑なんだよなぁ Rolaのキーワードは暗記するかメモしておくしかないの?
ポチポチってできないの? >>582
自分はガチャる時に変えないステップ数にしてる、気に入った画像でステップ数上げればフォルダ分けにもなるし
>>583
easy prompt selector使ってる
最初にタグ打つの面倒だけど1回入れちゃえば凄い楽 実写lora作っててイマイチ似せられなくて設定色々いじったりしたけど 一番効果あったの教師画像変えることだったわ
グラビアとかの写真使うと 顔の癖とかが修正されてるから 画像生成するときに没個性的になっちゃうんだな
かなり遠回りしたわ… >>587
それ一番初めに気付くとこじゃない?
素材以上にはどうやっても似ないんだし セレスティンのローラ拾って使わせてもらったんだけど乳首が2つになること多い
ネガティブプロントで乳首は乳輪に一つって入れても貫通して困ってます
乳首一つにするいいプロントってありますかね? ネガティブに一つって入れたら一つじゃなくなるのでは・・・
まぁたぶんエクストラとかマルチプルを入れてると思うけど >>587
グラビアの写真自体がかなり修正されてるし…… 「乳首は乳輪に一つ!分かったかネガティブプロンプト!」
🤖「ピー…ガガガ…了解シマシタ…乳首ハ乳輪ニヲ2ツ以上ツケマス……」 lora学習させた後にできる、1とか2とか番号付いたファイルってどうするの?なんか使い道あるのでしょうか? 学習途中経過ファイルじゃないの?学習度合い見るとか?知らんけど >>583
Chrome拡張のSingleFile使ってる BRAで肌に線?のような模様が入る時の解決策ありますか? >>587
実写LoRA系はどうしても個人によって好みが別れる分野だからなあ
因みに自分は
taiwanDollLikeness 0.5
japanesedolllikeness 0.3
koreanDollLikeness 0.2
ぐらいの配分で落ち着いてるけど
今月中にBRA5公式が来るらしいからそれ待ち >>589のレスで思い出したんだけど
人混みや店内で片乳だけ一瞬野外露出させたいシチュエーションのときに
「half nipple」「half breast」「nother nipple」「other breast」だと
奇乳が生成されたけどプロンプト間違ってるのかな >>600
片乳出すLoRA転がってるから組み合わせてみてはw 8歳くらいのロリコンLoraを作って8歳くらいのボディに適用すると顔が更に幼く見えてしまう傾向があるんですが、
Loraの顔を維持したまま8歳ボディにする方法はありますか Civitai Helper入れてるなら花札ボタンで表示される一覧に
Civitai Helper用のアイコンが追加されるから
その中の電球ボタンをクリックするとPromptにTriggerを追加できる 普通にloliだけいれると
だいたいのリアル系モデルがグロマン出してくるのはロリコン対策? >>602
○○years oldで微調整するしかないのでは >>605
beautiful pussyとか?
着衣になりがちだけどcameltoeとか? >>601
今そんなニッチなLoRAまで出回ってるのか
ちょっとcivitaig旅してくるわ 人の数だけ理想の8歳があるわけだからな…
それはえてして平均学習されたSDモデルとは違うわけだから
Cstaberとか理想の体型しか出ないそういうモデルを作るか
理想バランス集めてLoraにするのが基本だな
他人の学習が気に入らない人のために追加学習があるわけだしね >>607
着エロいいなぁ試すわありがと
ところでtorch: 2.0.0+cu118の導入って具体的にどうすればいいの >>611
起動時にプロンプト画面に更新しろよってメッセージでない?そこに記載用のコマンドが書いてあるはず
さっきやったけど忘れたわw >>611
俺のはvenvフォルダ削除してからgit pullしたらtorchもアップグレードされたぞ 1woman,1girl,yuriとか入れてもランダム
結果がバラバラなんだけど
年齢指定で1人づつ分ける方法はある? Latent CoupleかRegional Prompterの拡張機能でいける >>612
>>613
ちょっともうちょい調べて試してくるわ
英語の解説見つけた >>614
ポジに1girl入れちゃうと「画面全体で一人なんだな」って解釈しちゃうから
1girlじゃなくてgirlsとかほにゃららgirl,ほにゃららwomanだと二人にならんか >>583
同名の拡張子txtファイルに鍵を記載しておく
花札ではそのtxtの内容も表示してくれるから、一目瞭然になる
もちろん、説明文をコピペしておけばさわり程度の量ならそれも全部見れる >>623
ボタン自体が?
refreshの横の更新ボタン >>603 >>623
プレビューを置換したらサムネが変な画像に・・・
もとに戻せませんか? >>624
さっきあった電球ボタンはサムネイルにカーソルを合わせると出てきたのですが今は何はプレビューの置換しか出てきません >>600
「half nipple」「half breast」→AI:乳首や胸を半分に「割る」ってどうやって?
「nother nipple」「other breast」→AI:「他人」の乳首や胸を混ぜればいいのね!
こんな解釈になるはず 3090なんですが、colab有料の方が生成スピードは早いですか?
colabのアスカベンチとか見た事無いんですがどうなんでしょう
もしくはpaperspaceとか >>629
A100 VRAM80GBとかガチャで引いたら使えるって話だから早いんじゃない? colabで作っても面白くなくない?
攻めたものを作るならローカル一択だし 画像生成で1発で512×512するんじゃ無くて256×256でHires.fixで2倍にすれば破綻とか奇形とか出にくくなる?
VRAM無いから試行錯誤出来なくて出来れば教えて欲しいです >>632
生成フィールドが荒いとAIが各種ボディーパーツの見分けができにくくなって、フュージョンを引き起こす
生成はCPが学習したレゾリューションの指定が最も精度が高い
・・・という記憶 昨日RANディスクにインスコした者だが
画像生成チョッパヤでやべぇ 今までHDDに入れてたwebuiをSSDに移したいです
新規で入れろと言われればそれまでですが
今までにインストールした拡張や設定など含め簡単に引越しする方法はありますか? あとdynamic prompts環境でプロンプト入れないと何故か画像生成バッチが1枚で泊まることがわかった thx丸コピーでいいんだ
そういやディレクトリ指定したのwebui-user.batの追加modelの置き場所追加くらいだった >>641
なんだそりゃと思ったら打ち間違えててワロタ RAMdiskってPC落ちた時のダメージがデカいんで基本使わないけど
丸コピーでいいなら生成時だけwebuiを丸ごとぶち込めばいいわけか >>643
そう
一旦環境できたらSSDへのダメージ少ないし
おまけでTEMPをRAMディスクに入れることができる
モデル読み出しが早いからかやたらと高速化した
バッチサイズ上げるのとバッチ回数増やすのはどっちが早いのかね
メモリ的に足りてたとしてもどうせグラボの能力で頭打ちだからさほど大差はなさそうだけど >>644
今のところ順調
リコリスで超速度低下不具合あったけど速攻修正はいったみたいだね >>645
RAMディスクにインスコって初めて知ったけど素人でも出来る?謎の備忘録作って欲しい
ハローアスカ何秒ですか? >>647
作っても良いけどRAMディスクでググれば一発だし
メモリ128GB詰んでる奴向けだぞ
俺は90GBを割り当ててる >>648
90GB!wそれは凄い
なるほどwebuiはコピペするだけで動くので、別ドライブとしてマウントするだけでいけちゃうんですね
トライしてみます >>649
モデルデータで2~5G使うからマジでメモリ容量だけ問題になる
逆に言うと無駄にメモリ詰んでる奴にはいい手法だと思うから試して >>650
メモリ32GBしかないからとりあえず10GBでカツカツ運用してみたけど
僅かに速くなりましたわサンクス
DDR4 2133と古いし、もう少し改善できそう コンセプト系のLoRAをいくつか作ってみたけどコンセプト系LoRAは重ね掛けがなかなかうまくいかないみたいなので
逆行してTIに手を出してみようとしてるけど初作成では全然効果がないものができてしまった
Kohya_ss_guiのDreamBoothTIでの作成とsdwebuiのTrainタブでの作成ではどちらがおすすめとかありますか? >>635
もともとSSDってどのくらいの速度のもの使ってたん?
普通のSSD? それかPCIex4とかで7000Mとか出る爆速M2.SSD? >>635
検証報告助かるけど、設定のチェックポイントのデータをRAMにキャッシュするを
ONにした場合と比較してもそこまで速度変わる感じ?
それでもTEMPの分早くなるのは分かるけど 俺もメモリ128にしてRAMディスク試してみよっかな
別に今も速度に不満はないんだが… 情報が少なすぎて有益情報か見分けが付かん
ただ自分も>>657 に同意で、M2.SSDからRAMに変えたところで、生成速度が劇的に変わる気がしないんだよな…‥ 最初の起動時とモデルの切り替えは劇的に速くなるのは間違いないのと、SSDの劣化防止にはなるけど
・・そもそも劣化気にする人ってなんのために使ってんだろっていつも思う
Cドライブ以外につけるM.2 SSDなんて今時安いから使い捨てみたいなもんでしょ 起動とモデル切り替えと画像保存、は確実に早くなる
GPUでは変えられない所だし automaticはCドライブ以外にインスコしても強制的にCドライブのtempにファイル作られるから
CドライブのSSD守る効果はそんなにないと思う
しかも一部の学習とか動かなくなるしな MVNeのSSDでさえモデルファイルの読み込みは1秒かからないけど展開処理の方が長くかかるからRAMディスクにしてもあまり意味無いね >>654
サムスンのm.2の980使ってる
爆速SSD
>>655
そもそものモデル切り替えが明確に早くなってる
画像生成速度は正確に測ってないから何とも言えん > 画像生成チョッパヤでやべぇ
> 画像生成速度は正確に測ってないから何とも言えん
・・・ モデル切り替えなんてnvmeなだけのSSDで2、3秒で済むし
3060の生成時間に比べたらたいした時間じゃないわ 一般ユーザーからすれば生成速度は遅くてもいいのでグラボなしで動いてほしいですね
メモリやSSDを酷使してもいいから「とりあえず動く」ことを希望します(みんなそうでしょ?)
ソフトも有料でいいから一発でインストールしたいものです、1万円台で発売してほしいな
対話・文章・画像の複合型が理想ですね、AIと対話しながら入力したら確実でしょう?
そういうのが出たら、また来ますね・・・先駆者のみなさんに感謝します >>672
そういう人向けにWebサービス増殖してんのにくっそ遅いローカル環境に固執する方が一般的じゃないやろ・・・エロ画像作りたいんか? エロ画像作りたいんならGPU買うとか20万円くらいでPC買うとかするからなぁ、エロの力は侮れない
あれでしょ?オールインワンで用意されていてポチッと押したら生成できるところまで出来てないと手を出さない人でしょ M.2って7GB/sとか出るのあるけど、モデルは1ファイルで数GBだからまさに最適なのか
メモリ増やすよりM.2化が先か 数年前にVRの為に買ったPCで1111動くなと思ったら、GeForce GTX 1070 Ti(メモリ8G) メモリ16Gだと一応最低限の推奨環境には届いてるのね
当時ちょっと頑張って買って良かった
でも最新のハイスペックPCで動かしたら後戻り出来なくなるんかなー 顔LORAとポーズLORAが干渉してうまくいかないの
t2iからi2iの2段階で処理するしかない? べつにメモリ買い足さなくても実験できたから RAM ディスク実験してみた
結論 生成速度は全く変わらんかった
GPU: RTX4090
CPU: i9-13900KF
DRAM: DDR5-5600 64GB
SSD: NVMe Gen4 2TB
SSD のメーカーは↓って言ってる
-Sequential Read(Max) 7,300MB/s
-Sequential Write(Max) 6,900MB/s
■SSD
1girl
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 2496472865, Size: 512x512, Model hash: 6ce0161689, Model: v1-5-pruned-emaonly
経過時間2.07sTorch active/reserved: 2454/2504 MiB, Sys VRAM: 5158/24564 MiB (21.0%)
■RAM ディスク
1girl
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 1054919913, Size: 512x512, Model hash: 6ce0161689, Model: v1-5-pruned-emaonly
経過時間2.01sTorch active/reserved: 2453/2504 MiB, Sys VRAM: 5030/24564 MiB (20.48%) アップスケールいれても、生成解像度上げても変わらん
何回か生成したらSSDとRAM逆転もあった
モデル切り替え速度も違いがわからないくらいだ
もともと数秒だったから、切り替えたことすら気づかないなんてことにならんかなと思ったが
そんなことなかった ファイルをローカルから読むものをnvmeと大して変わらんものに入れたところで何も変わるわけがない。
ramディスクは昔からあったけどもうM.2で役割は完全に終えたと思っていいよ RAMディスクはキャッシュ置き場として残してみるかな stable difutionで作ったものだと思うのですがこの画像のmodelがわかる方がいればおしえてください
https://i.imgur.com/zpRYzZW.jpg RAMディスクは速度よりSSD保護の意味が強いのでは Stable DiffusionのデータアクセスなんてSSDからしたら大したことないっしょ
今どきのSSDは別に使いまくってもデータ消えたり壊れたりするわけじゃないし システムキャッシュを移そうかと思ったが
アプリのインストーラが動かなくなって焦ったことがあるのを思い出した
問題は忘れた頃に起こるもんだから RAM ディスクは消してしまうか 仲間に入りたくて4070ti買ったよ
(ちなCPUはSandy)
年末のCoreUltraを待ってパーツ刷新待ち Intelの第14世代がUltraだったような現行の13世代を買いたいけど、ソケットまで変わるので痛い >>687
行儀の悪いソフトはインストール時にUSERTEMPやSYSTEMTEMPに一旦必要なファイル作ってPC再起動後にそのファイルをもとにインストール処理を完結するみたいなことをしていると聞いたことがありますね
そういうソフトがしばしばだかときどきだかあるらしい StableDiffusion始めてみたい初心者未満です
AWS上にWinサーバ立てて、スポット利用しようかと思ってる
やってる人いたらおおよその月額教えてほしい
もちろんスペックや起動時間によって青天井なのは分かるけど参考までに費用感知りたいです
金額によってはゲーミングPC買うかNovelAI使うかも検討してる その程度のお触りならGoogle Colabで良くない?という気もするが ほんと初心者未満で申し訳ないけどcolabって課金しても1日で初期化される?みたいな説明見たので選択肢から外してる
アプリ開発の仕事してるけどテスト環境構築するのすらあんま好きじゃないから、続けたくなった時にまた環境構築やり直すのがダルくて…
スナップショット保存みたいなことできるならGoogle Colabでも問題ないです 無料Colabで感覚掴めば良いと思うな
ドップリハマれば青天井だし人によって全然違う
例示されたとしてもそれがそのまま当てはまる保証もない RAMdiskで早くなったニキは元々HDD上で動かしてた説 >>696
絵の保存先HDDだったからそれの可能性高いわ そら速く感じるわw
SSD使ってても出力先はHDDの方が良いとかあるのかな?
休みなく生成しているとかで無ければ今どきのSSDの耐久性でそこまで気にしなくても良い? >>698
自分が使ってる4TBのSSDは総書込み数が800TBだから
5年で買い替えるとして毎日400GB以上データを書き込みすると5年持たないって事になる
どう考えてもそれはあり得ないから1ミリも気にしてないよ
そもそもこのAI黎明期に同じPCを5年も使い続けるわけないし Loraのオプションっつーかパラメータっつーか、
":1" とか "ALL" とか "POSE" とか書いてあるのの意味が調べても出てこないんだけど、このへん詳しい奴います? 仕事ならssd死ぬぐらいは書く
でもそういうのはシミュレーションやAI研究で途中計算を出力するとか動画スタジオとかだよ
そういったところはinfinibandなんかの高速ifで接続した外部ストレージがあるわけで
でもsdを趣味でやってるだけならssdの寿命に到達しないかと
もし気を配るなら温度かな、勝手に速度落としてくれるから大丈夫なんだろうけど 教員の言う「子供達のために!(えっへん)」はエゴだわな。それは保護者に負担を押し付けよ?と主張していることが多い SSDの書き込み制限到達なんて気にするほどの事か?
ホントに起こるん? >>704
そもそもSSD買う層は限界来る前に買い替えるし
買ったPCにSSDが入ってた層は書き込み限界を知らない お腹に縦線がついてしまうんですけど、消し方ってありますか? >>706
腹筋をネガティブに入れて消えるまで強調 SSDは年々価格下がって行くし寿命が来る頃には買い換えても痛くも痒くも無いだろう 値段下がっていくけど買い替え考える頃には I/F 変わってたりして
結局マザーボードから入れ替えになる罠あるよね >>706
マジレス
コントロールネット1.1でインペイントする。
ソースは、テルル 返信ありがとうございます。
やってみたんですけど駄目でした…。
モデル依存かなとも思ったんですけどそうでもなさそう…
最初は気にならなかったんですけど、気になったらずっと気になるようになってしまって…w
>>711
やはり編集で直すしかなさそうですね… 今システムドライブに入れてやってるんですけど壊れたときのこと考えたら新しくSSD買って別にしたほうがいいですよね? lora学習で、学習中のgpu 使用率が数%しかないのだけど、それなりに学習してるし時間もかかってるのだけど、これってなにかおかしいよね?
数日前見たときはちゃんとgpu 100%近く使ってたと思うのだけど。メモリは20g使ってるのだけど、これなにか設定間違ってますでしょうか? >>553
同じ価格帯で3070じゃなく4070のモデルを張ってくれてた人がいたはず
多分そっちの方がコスパ良い easy prompt selectorでプロンプトを追加しようと思いYMLファイルを新しく作ったら、そのファイルがあるときだけwebuiの起動途中で止まってしまいます
サンプルと見比べても書き間違えとかは見つけられなかったんですが、なにか書式ミスってるんでしょうか
https://i.imgur.com/vXZ5MpI.png
https://i.imgur.com/1E22KBJ.png >>715
GPU使用率ではなくCUDA使用率が関係あるんじゃなかったっけ? loraの強度って0.5と1.0だと効きが2倍違うとかそんなに単純なものではないですか?
色々試してても最適解がわからない LoRAの学習をしているんですが、学習の要素を限定する方法って何かないんでしょうか?使ってるのはkohya LoRA ドリームブースです
たとえば、画風は好きだけど色使いは真似て欲しくないとか、
人の体を記憶させたい時に、体つきや人体の構造は学習して欲しいけど、顔は学習して欲しくないとか
要素を限定したい時があるんですが
今のところは、教師画像のタグに、ugly facetとか入れておくと、生成時にそのタグをネガティブに入れる事で影響が小さくなるみたいなので
それで対応してるんですが、それでも影響はけっこうあるのでもっといい方法があったらいいな、と・・
なにかご教示いただけたら幸いです >>717
YAML Checkerに流し込んで確認するんだ ワイルドカードをきちんと指定しているのにそのまま__xxx__で入力されてしまうんですが
解決法ありますか? >>722
block endがあるべきところに何故かblock mapping startがあるってエラーになってるね >>723
メモリが最大64GBってitxマザーか >>721
>>722
よく確認したら全角スペースが一か所混じってました >>700
lora block weightやなそれは ハーフオークがカッコよく出るモデル無くて悲しい
RPGとか使って見るんだけどなんかコミカル >>723インテルじゃねーか
しかも3070から変更出来ねーしバイト店員が書き込んでるんじゃねーの 生成用にSN770のマシンを組んだけど
1TBのSN770のSLCキャッシュは300GBぐらいあるらしいから
少々書き込んだぐらいじゃ寿命(TBW消費)はないと思う CPUがインテルか否かって画像生成で重要?
GPUがAMDだったらヤバいけど 安さに全振りするならこれやで って話なんだからRyzenでよくね?むしろRyzenがよくね? Ryzen5 5500買ったけどコスパが凄すぎて大満足よ
インテルハイエンドとなんら生成速度変わらない ivyおじなんだけどスタートアップが42.8s
今のCPUだともっと速いんだろうね インテルは第8世代からの性能向上が凄いんさ
逆の言い方をすれば第7世代までは伸び悩んでいた感じ
だから最近のi3は旧世代のi7よりも高性能 Ryzen2200Gなんだが、アップグレードにオススメのCPUある? 自分で学者させたloraなかなかよいのができたが、何回転させてどんな設定だったかを忘れてしまって、他のloraに使えない。
完成loraからその情報とかって見ることできないのでしょうか? >>347
一番簡単なのはCivitai Helper入れてinfo情報を見るのがいいと思う 笑ったw5ch歴20数年で初めて見たな
>>741
圧倒的コスパのRyzen 5 5500でしょ
https://pcfreebook.com/article/450856544.html
13,980は安すぎ >>747
冷却はケチれば虎徹やAK400でもいいし水冷買う分の資金を他に回せる
コストカットするなら俺も5500推すわ >>744
info情報を見たらニュース板ですらないところでネトウヨとか壺とか言い出す奴が
死んでくれるのかと一瞬思ってしまったではないか 他人の作った .safetensors ファイル使わずとも、自分でつくった美人画像を
Colab上で数枚学習させて自分の .safetensorsつくるだけで、かなりリアルな画像できるんですね
Loraも使わないほうがきれいにできる
グラフィックボードはNvidia GTX 16xxで6GBしかメモリないけど、2段階で画像大きくもできるので
メモリエラーも置きなくなりました >>743
全然関係ないところに安価してたわ
一番簡単なのはCivitai Helper入れてinfo情報を見るのがいいと思う AIで二次絵を生成してAIでベクター化……
技術の進歩が速すぎるw
Online Image Vectorizer
https://www.vectorizer.io/ 結構調べたけど行き詰まった
ダメ元で相談させて下さい
休日中にLora学習に手を出そうと思って「Train model」をクリックするまでは行ったんですが学習が進まず
エラーメッセージを読むと「xformersがインストールされていないようです」とのこと
それならxformersとやらをインストールしましょうと配布元のページに
配布元の目的のファイルが「Expired」になっていてダウンロードできません
これが一時的なものなのかもう配布していないのかも分からず
「そこにないなら、ねえよ」と言われればその通りなんですが……
何かお力添えを頂ければ幸いです
よろしくお願いします >>752
これか
https://vectorizer.ai/
試してみたけど凄いな
今月中にはローカルで実現してそう >>752
別スレでも書いたけど三次とはまだまだ相性悪かったわ
二次専用だね >>743
Loraファイルをメモ帳で開いたらmetadataが見れるよ ベクター化というものを今知った
アレでやってみるか >>755
そりゃ三次でベクター化とか意味分からん 漫画をベクター化すれば作家が描いた線画をイジったりできるの? きれいに拡大縮小できるしアニメ制作で原画、動画を線画にする部分がAIで省力化できるかもしれん
三次元でベクター化しようとしてる人は何が目的か分からんけどw
そもそもできるのか!? ゴルゴ13の線画をまるまる画風コピーするとか出来そうやねえ
いやもう出来てるのか >>762
それはもう普通に出来てるでしょ
特定の作家のLora使えばそうなる
AIはカラー専用でもないし
故人の未完の作品なんかは今後実際に使われるかもな おへそに何か白いもの(ピアス?)が付くことが多いのですが、うまく回避する方法ないでしょうか? >>764
ネガティブに
navel piercing nvidia関連のインストール状況見てみたんだけどさ、こんなに類似verや同名のCUDAアプリ並んでるのって普通?
https://i.imgur.com/zx47wrl.jpg 使う使わないは別として指定バージョンにしか対応してないプログラムとかあるから
別に異常ではない >>766
古いの消さないで色んなバージョンいれたらそうなる。
必要なのにPATHが通っていればそのままでも問題ないよ
不必要なら消す AMD対応って超えられない大きなハードルあるのかね グリーンバックおいて自分でポーズとって写真撮った方が早い・・・? >>720
≫1.たとえば、画風は好きだけど色使いは真似て欲しくないとか、
≫2.人の体を記憶させたい時に、体つきや人体の構造は学習して欲しいけど、顔は学習して欲しくないとか
>要素を限定したい時があるんですが
2.
まだ初心者で、まだ試していない伝聞情報を披露していいですか?
・芸能人のコラを作ってる人は、顔意外は消して、暗闇の中に浮かぶ生首を学習させていると聞きました
なので顔だけ消した白バックの体だけを覚えさせたり、背景有りで顔だけ消して、顔の部分に背景を入れるのはどうでしょう
・こういうのもあります
https://wikiwiki.jp/sd_toshiaki/LoRA#r81a6d70
+もっとみるをクリックして開いてみてください
1.
>画風は好きだけど色使いは真似て欲しくないとか、
これはわからないけど、線画を学習してcontrolnetで色付けできないかなあ sd-webui-train-toolsでLoRA作りをはじめようとおもった
学習用の画像を読み込ませようとすると以下のエラーが出る
TypeError: '<=' not supported between instances of 'int' and 'str'
1枚だけならエラーは出ない。何が問題なんだろうか エラー追加
preprocess.pyを編集すればいいっぽい?
File "R:\stable-diffusion-webui\modules\textual_inversion\preprocess.py", line 221, in preprocess_work
cropped = multicrop_pic(img, process_multicrop_mindim, process_multicrop_maxdim, process_multicrop_minarea, process_multicrop_maxarea, process_multicrop_objective, process_multicrop_threshold)
File "R:\stable-diffusion-webui\modules\textual_inversion\preprocess.py", line 126, in multicrop_pic
wh = max(((w, h) for w in range(mindim, maxdim+1, 64) for h in range(mindim, maxdim+1, 64)
File "R:\stable-diffusion-webui\modules\textual_inversion\preprocess.py", line 126, in <genexpr>
wh = max(((w, h) for w in range(mindim, maxdim+1, 64) for h in range(mindim, maxdim+1, 64)
TypeError: '<=' not supported between instances of 'int' and 'str' エラー内容的に数値で入れるべきところに文字列が入っているような
もしかして画像サイズの指定か何か数値で指定するところで半角数字でなく全角数字使ってたり Stable Diffusionで生成した画像に指と変な模様が出たのでinpaintで直したいのですが上手くできず困ってます…
ネットで参考にしてるページだと
雑なMask指定とMasked contentをfill、Mask blur 4を指定するだけで綺麗に直るように見えるのですが自分でやると
・Mask blue:4→色合いがおかしい上に直ってない
・Mask blue:20→色合いは同じというか修正したい部分も何も変わらない
・Masked contentをfillからoriginalに
→変わらない
・Maskを変更したいところ以外を塗ってImpaint not maskedを選択
→変わらない
と手詰まりに…
導入を手伝ってもらった友人に確認を取ったら同じ状況で本人は諦めてinpaint使っていないからわからないと… >>778
インペイントするときプロンプトはどうしてる? >>780
すみません書いてたつもりが漏れてました…
プロンプトは参考にしてたサイトがどこも生成時と同じprompt、Step、samplingを推奨してたので合わせてました
それでダメだったので数値を変えたり全部clearしたりしましたがどれもイマイチ効果が無く… どんな絵のどこに指とか変なもんが出てきたかで色々変わってくるよ inpaint 難しいよなぁ
俺も全然うまくいかなくてマシンパワーに任せた全力ガチャ方式になってしまった >>782
今作らせてるのが版権&R18なので貼り辛く…
ただ、試してるのは全部夜景とか影に重なってる部分の修正でinpaint指定箇所が全体的に黒味が掛かっているのでそれが原因なんでしょうね…
ただ参考にしてたサイトとかだと青空と被ってても肌色に差を感じなかったのでなにかあるのかなあと
あとGTX1080の低スペなので、せっかく出ためっちゃ好みの表情を捨てるのが諦めがつかず… >>784
勝手にプロンプトの一部な気がして省いてました…
>>781の設定と同様全部一緒(というかPNGから情報取得して全部合わせてる)ですし、変化がなくて-1に変えたりもしてます 俺もインペイントは悩むけど、controlnetのインペイントが凄いってツイート見て試してみても、全然上手くいかんよなやっぱ
みんなガチャしまくりのチェリーピックありきか
3090でもストレスしかないのに、3060以下だとキツイね PC購入に迷ってるのでアドバイスください
4070+i5 13400F(13400で+4500円、13500で+9000円)で22.2万円
4070Ti+i7 13700F で28.4万円(CPU変更不可)
メモリは32GBでイラスト用に今使ってるSATA500GBのSSD増設する予定です。
組み合わせ調べるとCPUがグラボに対して弱いと出るんですが上の方にイラストはCPUは弱くていいと書いてあるので上にしようと思うんですがどっちの方がいいでしょうか? only masked にして、
only masked padding, pixelsとdenoising strengthの数値を上げる
で何とかならんかなあ
プロンプトは右に読み込まれる部分以外はいらない、ちょっとした修正なら空白でも良い、逆に加筆するならプロンプトにも加える ゲームしないのであれば、そのCPUで問題ないと思いますよ >>771
まあそれも一つの方法だが被写体の体形も影響するぞ。
フルボディIK使える3DCGソフト使えたらそれが一番楽でいい。
ポーズくらいなら簡単に作れる。自分はMAYAと3ds Maxが専門だから
他のソフトは詳しくないけど、素人にお勧めはMMDだな。足IKとか腕IKとかあるモデル使うと
何もないSD拡張機能のOpenpose Editorみたいなゴミより100倍ポーズは作りやすい。
それに無料で有志が配布しているポーズも多数ある。但し商用不可が多いので注意が必要 >>786
PNG情報からぶち込んだ奴をシードだけランダムにすれば
後は何回か繰り返せば指くらい変わると思うけどなぁ
消すだけでいいならMSペイントで近くの色をスポイトして
エアブラシかけるだけでも大体消せるぞ
>>788
金ありそうだから好きなだけ高いやつ買え >>788
CPUはi5 13400でも少し過剰だとは思う
金ありそうだしCPU落としてでも4090行っちゃいなよと言いたくなるけど 画像AIやるならBTOはほんと割高になるな
自作なら4090で32万からいけるし、流用パーツあればもっと安い >>789
後出しで申し訳ないですがその設定も試してました
参考のサイトだとDenoising strengthは書き直すなら1でもいいとあったのでそれで試すもあまり変わらず
ヤケクソでonly masked padding, pixelsと合わせて最大値やら最小値にしても改善せず…
>>792
今の問題が
・明らかに周りと色合いが違う
・そもそも変わらない(ことが多いだけで時々変わる)
で下は試行回数でいいんですが問題が上なんですよね…
夜景とかだけじゃなく影が重なるだけでダメ(というか影より暗くなってる?)で… >>788
CPUはF付きモデルならi5でもいいから4080か4090買え >>788
メモリ命なので
3090 +メインメモリ64GB+α
CPUは10コア以上あれば何でもOk >>795
うーん修正箇所1個ずつインペイントもしてそうだしなあ
インペイントスケッチで塗りつぶすのが早そうかなあという印象 今一番熱いモデルって何なの?
まだchilloutmix? >>752>>754
斜め読みでレスしてるから的外れかもしれないが
2時絵からパスを作る機能は
イラレに結構前から実装されてる
キャラアイコンとかベクトル化できるから便利 >>798
inpaint sketchは試してなかったので調べながらやってみましたがinpaintと全く変わらないですね…
スポイト指定で影側と当たっていない側をそれぞれ分けて試しましたが、出力すると両側とも似たようなくすんだ黒色に…
やり方が違うのかと試しに赤と青で点打ってみたらその2つははっきり別の色で出たのでやり方はあってそうなんですが… どなたかボスケテ
stable diffusionをGoogle Colaboratory使って利用しているんですけど
start stable diffusionのところで
「Google ドライブでエラーが発生しました」
が出て起動できない
どうしたらいいんでしょう・・・ >>788
CPUはどっちでも良いんだけど4070と4070tiの性能差が結構あるから
どうしても今すぐほしくて4070が良いというのでなければ
https://www.frontier-direct.jp/direct/g/g114913-May1/
ガチでこれをおすすめします >>804
そのエラーメッセージをグーグル検索に入れたら一発目に… つかまともなグラボのついたデスクトップなら普通にローカルでやったほうが良い マージして掛け合わせたモデルの権利ってどっちもOKな要件はOKでどっちかが駄目だったらNGでいいんですかね。
マージしたモデルの販売にはひっかからないですよね。
例えばどちらも生成画像の販売OKならマージしたモデルで生成した画像も販売OKですよね。 結構なリスクあることやろうとしてるくせに
5chの質問スレで同意求めて安心しようとするとか終わってるな
きっと他にも色々見落としてて後にヤバいことになるから危ない橋は渡らん方がいいぞ >>808
そもそも商用利用okって言ってるモデル作者になんの権利も無いのを忘れるな
元々学習元がある以上専門の権利上完全クリーンなモデルでもない限り商用利用はグレーゾーンだと思え
あるいはモデルなんて言わなきゃバレないんだから勝手にマージモデル作って金稼ぎしろ
今のAI絵で商売するのはそのくらいクズ行為 グレーゾーンならOKっしょ!騒がれだしたら逃げたらええねん!っていう軽い層じゃないと怖くて渡れんわ >>808
そのモデルで何か問題が発生したときに全責任を負うのは販売者=あんただからそれでもよければとしか >>747
横レスだけどお陰で目が覚めたわ
7700XもDDR5もマザボのVRM盛り盛りもやめて程々のやつにしたらほぼ同じ予算で3060→4070に出来たサンクス 4070って3080と同じくらいの生成速度だからあんまりおすすめ出来ないんだよね
4070tiなら3090よりも速いからさすが4000番台って感じがするじゃん
差額3万で4070ti諦めるもんかね・・・ >>816
なお、その次はこうなる模様
4070tiって3060と同じvRAMサイズだからあんまりおすすめ出来ないんだよね
4080なら3060よりもvRAM多いからさすが4000番台って感じがするじゃん
差額5万で4080諦めるもんかね・・・ >>778
設定からVAEを確認、手動でVAE指定して念のために再起動してから試してみては? inpaintは再起せずに何度もリペイントしてるとにじみが出だしたり違う元データが参照されはじめたりするよな AI 作成 用の PC という目的が完全に決まっているなら
それ以外のものは削減し グラボに金を注いだ方がいい
BTO ってのはあくまで 汎用 PC だから 結局 RTX 4090が一番安いのよ
作成 スピードと消費電力を考えると
一番効率がいいし
それ以上になると旧 クワドロ シリーズだと
べらぼうに値段が高くなるし >>812
ご指摘ありがとうございます。
そのうち権利等の問題についてまとめてどこかで公表したいと思います。 >>819
ありがとうございます、原因これでした
そもそもVAEが何かを知らずAutoのままで使ってました…
調べてみて最初に出てきたやつを入れただけで色合いは即改善
Mask blurの値を下げても問題なくなったので下げたら絵も変化して解決
やっぱ他人に聞いてばかりだとダメですね、勉強します…
相談に乗っていただいた皆様エスパーしていただいてありがとうございました でも4080と4090比べると4080で良くね?ってなるから
結局は財布と相談 昨日から初めて環境整えてるんだけど、どうしてもcivitからダウンロードしようとすると502エラーが出る これって待ってたらそのうちなおる? >>826
俺の環境だと正常動作して一度も502出てない
Ad block系とかブラウザ変えてみるとか試したら 質問なんですが、webuiの拡張機能って場合によっては競合したりしますか?
昨日、Merge Block Weighted GUIを導入したら、何故かwildcardmanegerに既存のワイルドカードが表示されなくなってしまって(ワイルドカードとしての機能は使える)
同じ様な症状出た方いますか? 質問です
hiresfixで絵が崩壊してしまうのは設定の問題ですか?スペックの問題ですか?
グラボは3080 10gでノイズ強度を高め(5↑)にするとかなり崩壊してしまいます。 ノイズ強度を高めにすると崩壊するのはデフォです
低めにして元絵に近づけるかちょっとでも高くして高精細に描いてもらうかは調整次第です lora作成について初歩的な質問で申し訳ないのだけど
学習画像って512*512や768*768の正方形画像じゃないとダメ?
違う大きさでもリサイズされるという話はきいたけれど
それって縦長や横長の画像は引き延ばされたりしてしまうってことだと思う
もし学習素材が縦長なら準備段階で正方形に切り抜くしかない? >>831
縦長とかでも問題ない 比率は保ったまま縮尺される
ただ、学習するときのサイズに圧縮されるので、変に縦横長かったりすると情報つぶれる
あと、逆に小さすぎる場合は、学習時の設定によっては自動で拡大されたりもする
個人的には拡大されると学習データがぼやけるので、拡大はOFFをおすすめする >>829
アップスケーラーをLatent(やその派生)にした場合、ノイズ除去強度が低いとぼやける
どのアップスケーラーでも、ノイズ除去強度が高いと崩壊する
あまり変化してほしくないときはLatent以外にしてノイズ除去強度を低くする、アップスケーラーにいろいろ手を加えてもらいたいときは高めにする感じ >>833
自分好みのスケーラーとノイズ除去強度をひたすら探り続ける感じですかね
分かりやすい説明ありがとうございます >>827
アドブロック系は入れてないし、ブラウザ変えてもダメ
なんならスマホでやっても駄目だった… >>826
>502 Bad Gatewayはウェブサイト側の問題なので、ユーザー側では解決できません。もしアクセスした先でこちらのエラーに遭遇した場合は、一旦はウェブサイト管理側>の対応を待つことになります。 >>836
お前の回線自体が悪いんじゃね……
ルーター再起動して駄目なら諦めるしかなさげ 浜辺とかプールとか町並とかの背景Rolaありませんか?
呪文じゃイマイチで 昨日からstable diffusionが起動できなくて困ってます
エラーらしいエラーって調べた限り
「ModuleNotFoundError: No module named 'pyngrok'」
だと思うんですけど、調べても対処法が分からなくて
どなたかアドバイス、またはこの手のエラーが出た時の
対処法が載ってるサイト教えていただけませんか? ふと思った質問だけど
VRと言うのか立体視用の画像生成ってできるの?試した人いたら教えて! 一応チビタイにあるよねlora
赤緑のメガネかけるやつ用の >>837
昨日の夜からやってずっと駄目だったけど、今になって落とせるようになったよ
>>838もありがとう >>840
ググッてはいないから、まずちゃんとググッて調べてみて、あと再起動してもダメなら、
一応メッセージそのままの対応なら、web uiのインストールフォルダでpowershell起動して
,\venv\Scripts\Activate.ps1 でvenv有効化したら pip install pyngrok で解決する可能性があるけど
この手のエラーは何か別のことの影響で見た目上そう出てる可能性があるからなんとも言えない、事態が悪化する可能性もないとは言えない
上記の意味がちゃんと分かってるならいいけど、そうでないなら何も打つ手がなくなってもう再インストールしか思いつかなかったら打ってみたらどうだろうか >>825
ならないよ
消費VRAM 23GBの時にありがたみしかない >>829
https://www.reddit.com/r/StableDiffusion/comments/zbuyer/whats_going_wrong_with_my_high_res_images_1024/
darth_hotdog:
NMKD1.7.2、SD 1.5で1024の画像をハイレゾフィックスするとめちゃくちゃになります。原因を教えてください。
ddimは65 step、cfg 8です
ステップ数を下げてもこの問題は解決されず、cfgスケールを上げると悪化してしまいます。
別のサンプラーを使うとうまくいく時といかない時があります。
drone2222:
(まえおき)highres.fixする時、SDの中で何が実際に起きてるかと言うと、(例えば512x512の)画像をレンダリングし、そのあとimg2imgによって指定のサイズに変換されている。
これは手動で512x512をレンダリングしてからimg2imgに送っているのと大差ない。
ハイレゾフィックスのノイズ除去設定(denoise)は、img2imgと同じように動作するから数値が高いほど結果は多様化する。
同じ画像のまま綺麗に拡大したい場合は、強度を0近く設定したいわけだ。でもそうすると画像に新しい情報を許可しないためぼやけた画像になるから、
(けつろん)画像の要素を維持したまま綺麗に拡大するなら(0.03?0.15)程度に設定すればいい。
darth_hotdog:
ありがとう。試してみましたが512の画像がそのまま大きくなったように見えたり、あまりうまくいきませんでした。
bennyboy_uk_77:
droneに同意。また、元の画像から変わりすぎた場合、「inpainting conditional mask strength」を使って修正するのもいいかも >>825
ならないけど、財布と相談は同意
そりゃ財布余裕あったら一番良いもの買うもんね
それが出来ないから悩むわけだしな >>829
https://www.reddit.com/r/StableDiffusion/comments/1171zux/highresfix_messes_up_picture_most_of_the_time/
Kizanet
「アニメ絵ではR-ESRGAN 4x+ Anime6B、写真ではremacri(一番きれいだと一部で噂されてる)を使用していますが、アップスケーリングを行うと画像がグリッチしてバグバグになり困ってます」
zoupishness7
「anime upscalerの場合はdenoiseは0.15?0.3程度でいい。個人的経験から言うと写真のアップスケールする場合は、
最も良いのはlatent upscalersで、特にnearest exactまたはbicubic antialiased。Denoiseはそれぞれ0.4または0.45じゃないとボケボケになる。
またHires fixとlatent upscalersで2倍にしたい場合は初期解像度を704以下にした方がいい」
NoNipsPlease
「1度denoiseをうんと下げてみろ。0.7は高すぎる。下げすぎてピンボケになったら0.45以下にしてみて。」
Kizanet
「言われた通りにしてみたら5回出力して、4回はそのまま拡大できました。ありがとうございました。」 >>848
まあ悩むのは当然のことだけど
4090と4080の性能差は他モデル間の性能差よりかなり大きいから後悔のないようにとしか言えんなぁ >>844
ありがとう、参考にしてみます!
ググったりなんだりして色々調べてはいるんですけど
同じ症状っぽいのが出てこない
最悪再インストールも覚悟してます GeForce RTX 4080が大幅に値下がり(2023/05/05)
https://www.nichepcgamer.com/archives/geforce-rtx-4080-price-drops-significantly-in-japan.html
例えば、玄人志向の『GALAKURO GAMING GG-RTX4080-E16GB/OC/T』なんかは、
2022年11月の発売当初、税込238,700円だったのが、今ではツクモにて税込178,000円で販売されており、60,700円も値下がりしています。
以下略 4090も26万まで下がってるしもう一声頼みたいわ アニメ系のモデルでおすすめありますか?
anythingとcounterfateは試したけどやっぱそこらへんが王道? 4090も実質なら22万だったしギガが実売25万か切ってた事も有った安く買いたいなら定期的に自作板チェックしてみるといい 【質問です】
1111にてgenerateすると生成途中(60%)程度で考え中のように数秒止まり、そこから再開するような挙動を取るのですが、何を直せば良いでしょうか。
止まった後にプレビューの顔が大幅に変わったりモンスターになるため、防ぎたいです。
【環境・設定】
GPU:3060ti 8GB
sampling steps:120
size:512 以下オプション使用
・restore faces
・Hires.fix
その他デフォルト
備考:プロンプト多め、LoRA使用 ライブプレビューは切ったほうが生成早くなるから切った方がいい
最終出力がダメならもうそのseedは捨てるかpromo見直せ >>856
まず小さなの生成して50%、んでHiresの移行時にそんな感じになるかな
8GBなんでもしかしたらメモリをやりくりに手間食ってるのかもしれない、かなり省メモリ最適化されてるので Hiresの処理だろうな
やっぱ8GBだとそうなるのか >>857,>>858,>859
あざます。標準動作のようで安心しました。
ライブビュー切ってプロンプト見直してみます。
使用量モニターするとVRAM使い切ってるようなので厳しいですね。
関連してですが、発熱により描写が乱れることはありますか。
ケース内(miniITX)のエアフローが悪くて、GPUが58℃(hotspot70℃)、CPU(5600X)が熱風を浴びて常時60-70℃くらいなのですが。CPUクーラーはnoctuaの9cmファンです。 プレビューマジで環境とか処理によっては3割ぐらい重くなるから、
相当スペック余裕あるか特殊な事情でも無い限り切った方が良い >>861
発熱というか電源の可能性が気になる
mini-itxに3060it余裕持って動く電源積んでない可能性あるのでは? >>856
俺も原因はハイレゾとみえる。
対策はGPUを実装メモリが多いボードに交換するか、グーグルコラボの有料プラン買ってそっちでやるか、ハイレゾを辞める。
顔がグシャるのは、リストアフェイスつけているから。顔を復元するらしいオプションだが成功した試しがない。
顔を保存したいなら、インペイントで顔を残した方が成果物にたどり着きやすい。
なお、コントロールネット1.1おすすめ。 StableDiffusion
生成された人物画像の背景だけを再生成する簡単な方法ありませんか?
・inpaint
→ブラシが雑なので背景だけ細かく指定することが困難
→人物だけ指定する方法ある?
・photoshopで切りぬき
→背景が真っ白になる
→透過処理した部分のみ生成してくれる方法ある? プレビューは、処理構造の都合から一度数学的超次元からラスタライズして、それをGPUからダウンロードするはめになるから死ぬほど遅くなりやすい。
プレビューするたびに余計な計算(VAEデコード)する分遅くなる >>865
コントロールネットのシャッフルつかって追加ワードで白壁とか英語でいれればできたと思う。
コントロールネット1.1は隔世の違いとはよく言ったものだと思う。 >>861
CPUもGPUも70度以下とかは何の問題もない温度だが、エアーフロー悪いケースでよくそんなんですんでるな
いずれにせよ描画への影響はない プレビュー切ると速くなるのか
しかし速くなられてもバッチ処理で大量生成なら良いが1枚1枚見ている段階だと人間側の処理が追いつかないw >>863
電源は750W(80PLUSGold)使ってますが、多分足りている…はず。
>>864
inpaintとcontrolnetはまだ手を出してないので、やってみます。 プレビューなんて人間心理的に何か動いてないと不安になるから表示するだけで、動いてるぞという雰囲気だけあればいいんだろう
そのうち広告が出力されるようになるかも プロダクションシーンなら、そこでディープラーニングして自分好みの画像かどうか機械認識して選り分けるんだろ。
(もうi2iでよくね?になるかもしれんが) 宣伝だとAIとかの曖昧な言葉が好まれるが、正しく理解するなら、パターン分類器と理解した方がよいと思う。ちらうら >>870
それなら電源寿命とかじゃない限り十分か……
ちなみに「描写が乱れる」って「ディスプレイがチラつく」って意味よな?
ディスプレイは正常に動いているけどプレビュー画像が乱れてる、とかなら気にしない方が良い
あのプレビューは「指定したstep数で動いて完成する場合という前提の途中経過」だから
例えば50ステップ途中の30ステップ目のプレビュー画像と、最初から30ステップで指定したときの完成画像は一致しない(昔確認したときはそうだった) >>829
i2iやhirez-fixなどのノイズスプレッド行為は、そのノイズを起点に当たらな描写を促すという意味合いになる
(原理通りの説明ではないが、そういうものだと思えばいい)
したがって、
・ノイズ除去が少なすぎ:拡大ボケ(≒ノイズ)に対する再描画の促しが少なすぎてぼけたまま(ぼけた部分をそういう絵だとしてそのままにしてしまう
・ノイズ除去が多すぎ:拡大ボケに対する再描画の促し以外の余計な促しが発生して、絵を崩す(ボケてない部分もぼけてると誤認する)
となって、いずれも良い結果を得られない
これは、計算原理に基づくので、グラボの種類は無関係(限界到達という意味ではアリではあるが) 3060だけどプレビュー切ってもほとんど関係ないから1STEPの350msごとで入れてるな、なんか楽しいし
hiresで1秒くらい遅くなる程度 >>829
ノイズ強度ってDenoising strengthのことよね?
あれって5とそういう値じゃなくてデフォルト値よりも下げて調整するものではないの? >>841
プロンプトに呼応したCPの存在はある
ただし、奥行きに対する綿密な計算が現在主流のCP如きにできるわけがない
(パラメータにzバッファが存在しないから)
仮に学習させてたとしても、学習を試みた者がクロス法・ストレート法をどちらか、または、プロンプト制御付きで統一させて覚えさせてるとはとても思えない
したがって、そういう作風の絵というものができるだけ
もちろん、人間の認識の許容の隙を突いた完成絵っぽい物ができないと断言する気はない
LoRAなどにそのコンセプトを落とし込んだものがあるかもしれないが、同様の理由で成果が期待できない Loraモデルを使った版権キャラ同士をキスさせるのはどうすればいいんでしょうか?
[a girl:<lora:XXXXXX:0.5>], [a girl:<lora:ZZZZZZZZZ:0.5>], kissing
a girl(lora:XXXXXX:0.5), a girl(lora:ZZZZZZZZZ:0.5), kissing
ZZZZZZのLoraが前のキャラを侵食してしまい上手く出来なくて ちな、プレビューの設定っでみんな「Approx NN」だよね?
「Full」はさすがに滅茶苦茶遅くなる kohya_ssで複数用意したConfiguration Fileからバッチで連続して学習させる方法って無いです? アニメからキャラlora作るのにあたって使いやすいスクショソフトありませんか
探してもいちいち範囲を指定してスクショするのしかなくて…
あらかじめ指定した範囲をスクショできるのが理想なんだけど >>829
--midmem付けて検証してみれば?崩壊しなくなったらメモリ GTX16660使用
こんだけ起動に時間がかかるのはメモリが8GBしかないからですかね?
https://i.imgur.com/pWRndgt.png webuiの最初の立ち上げってなんの性能上げると速くなるんだろ >>684
その人がモデルの紹介をしてる動画があるけどAbyssOrangeMix3じゃないかな
日本一わかりやすいStableDiffusion云々というタイトルの回 >>887
webuiのローカル環境って起動時にどっかから何か落としてくるの? >>878
思った以上の丁寧なレスが来てた!
ありがとね >>890
アップデート探しに行ってね?
>>884はそれ以前にHDDとかにインスコしてそうだけど >>884
モデルローディングで時間かかってそうだな
Model loaded in 422.6sってなってる SD生成の派生質問なんですが、マーケットプレイスで画像売るとき、
画像解像度どのくらいにしてます?
width 1024pxくらいでいいかなと思ってますが、
もっと大きいほうがいいでしょうか? >>890
ロラ探しとかはやってるっぽい。
ロラのプロンプトが入った画像のpnginfoとかコピペプロンプト使ったとき、ローカルにないと探しに行こうとする。
あとPython管理下のパッケージなんかも起動引数次第で更新したりするっぽい。
ただ1111本体はぎっとからプルしないと更新しない >>884
3060のivyおじでも40秒だぞ
CPUにCore2Duoとか使ってるのか? >>841
こういうことができます
Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ|Alone1M|note
https://note.com/alone1m/n/nb76ae31f8f86
ここで使っている拡張機能「Depth Maps script」は少し前に使おうとしたら動作しなくなっていたが、
今見たら3週間前に更新されているのでまた動くようになっているかも >>885
settingsにlive previewってそのものな項目があってそれの一番上
t2iポン出しなら気にならんとは思うがregional prompterのlatentとcn使ってると切っててもスゲー遅くなるからこっから一秒二秒遅くなるのは嫌だな >>892>>895
ほーんなるほどな
落としてこれないと起動しないようなもんではないんやね >>879
詳しくないし、関係あるかないかわからないけど
こんなのみっけた
https://fate.5ch.net/test/read.cgi/liveuranus/1683204475/940
赤ちゃん以下のワイどうしても黒ギャル僧侶と白魔女を絡ませたくて....
5ch専用ブラウザーでみれない時は、chrome/edge/FFに張り付けてみてね SD
ポーズLoraを入れると絵柄まで変わってしまうんですが、これは避けようがないんですか? >>892
HDDダメでしたか…
>>896
Intel(R) Core(TM) i5-9400F CPUでした >>902
最近SSD安いしSATAでいいからSSDにしなよ そりゃ数GBのモデルファイル読み込む時にHDDとSDDじゃ違うよ…… >>747
トンクス!
Ryzen5500、ポチったわ
聞いてばっかりで恐縮やが、PC本体のメモリは16GBしか無い。(8GB×2でこれ以上挿せない)
グラボは3060なんやが、PCのメモリも買い替えた方がいいかな? >>906
モデルの切り替えでキャッシュしておけば少し速いってだけなので要らないね
金はグラボに全てをつぎ込んでから考えるのがベスト プレビューで狙った通りのラフ画像が来て喜んでるところに
Lora適用で全く違う絵になったときの絶望 マージするなら最低32GB、理想64GB
マージ一切しないなら16GBで十分 今のgen4SSDと比較すると速いHDDでも30倍は読み込み速度違うから
もうHDDは全て捨てたほうが良い
たかが保存領域に自分の時間をそれほど取られてることを許してはならん >>776
同じ様なエラーだったか曖昧ですが、素材の自動拡大縮小に適さない画像サイズが含まれていて、画像サイズを見直し(大きくしたら)改善した様な気がします。
エラーコード自体忘れてしまっているので検討違いでしたらすみません RAMディスクに環境構築してたらピンポイントで停電してデータ一日分巻き戻ってワロタ
大切なのは勉強したことだからノーダメよ >>889
ご教示いただきありがとうございます
ごしてきいただいたもでるのようです
こんな感じのものを生成できました
https://i.imgur.com/orvyN2K.jpg ローカル版1111を更新したら絵柄が変わってしまいました
git checkoutとgit reset hardの両方でダウングレードを試しましたが絵柄は元に戻らず。。
何か解決方法などありませんか? モデルの設定ってSettingsのどこかの項目のことですかね?
clip skipとかのパラメータや呪文は前と同一なんですけどね泣 >>920
>919は、1111のウィンドウの左上にある「Stable Diffusion Checkpoint」の指定が以前の画像を作ったときと違っているのではないか、ということを言いたいんだと思います
「絵柄が変わる」というのがどういうことかはっきりしないので、画像を見せていただくとわかることがあるかもしれません RTX 4090 と RTX 4080
お金以外で迷うことが何一つない
1あたりの消費電力は低いし安いし
ブイラムも多い 4090買ってデチューンして使うんだろ
4080でもデチューンして使うけど >>921
checkpointも同一です
すいません画像あげられないのでこちらでまた調べてみます泣 そりゃまぁローカル更新したならいろいろ変わってるわけですしお寿司って事だな・・・
いまだにうまく動いてないものもあるし、PNGに出てない設定もたくさんある時代になってるしな
先月末からの更新に伴う拡張の更新ラッシュも続いているし
そもそもxformers使ってるなら同じものが出ない替わりに高速化する機能でもあるし 軽い気持ちでアプデしなければよかった(´;ω;`)
xformersオフとか試してみますありがとう >>924
絵柄が変わるとはどういう状態を指しますか?
・構図や内容は同じで色合いなどが変わる→VAEの指定が異なる可能性があります
・構図や内容、色合いなどはほぼ同じで細部がわずかに違う→webui-user.bat内の「set COMMANDLINE_ARGS=」に「--xformers」と書かれていたらそれが原因です
・全然違う画像が出る→checkpointが異なる以外にも、Clip Skipの値が違うなども考えられます
以前出力した画像のパラメータをどうやって読み込んでいますか?
・PNG Infoから「txt2imgに転送」して「生成」している→前回の生成と今回の生成で使っているVAEが異なる可能性があります
(使ったVAEの情報など、PNG Infoから「転送」しても読み込まれないパラメータもあるため。ただし異なるVAEを使ったとしても構図や内容は変わらず、色合いだけが異なるのが普通です)
・そのほかの方法
Dynamic prompt(プロンプト内の{apple|orange}のような書き方)、LoRA(プロンプト内の「<lora:flat2:-0.6>」など)やTextual Inversion(プロンプト内の「EasyNegative」など)を使っていますか? 今の情報の更新についてイケてる人はサイコーに楽しいんだろうな
5日経てば昔の話な環境でツギハギ聞きかじりで追いついてる人には何触るのも楽しくて恐怖やわ >>927
絵柄が変わるとは、構図や内容、色合いなどはほぼ同じで細部がわずかに違う状態を指してました
具体的にはフォトリアル系で、顔の骨格、目や鼻の大きさが異なってしまいました
PNG Infoからtxt2imgに転送して出力しました
checkoutやVAE、clip skip、CFG、ステップなどのパラメータは以前と同一にしていました
呪文もPNG infoからのコピペなのでロラ等も同一です https://civitai.com/models/59068/bokujust
一度質問して流れちゃったから再度聞きたいんだけど
こういう塗りにってどうすればなるんだ?
モデル落としてきてもうまく行かない マスコットキャラクターとかに強いLoRAとかありますか?
すみっこぐらしやちいかわのキャラのようなの SD
i2iのbatch機能について、
Input directoryをサブフォルダまで含めることはできますか? >>931
モデルの説明欄に書いてあるけど、
画質向上に寄与するネガティブプロンプトを極力使わないことが大事みたい
レビュー見る限り、ある程度のガチャは必要だと思われる >>930
とするとやはり原因はxformersじゃないかと思います
これは画像の生成時に使うVRAMを節約してくれる代わりに、出力結果が毎回少し変わるものです
以前の画像を出力したときにもしxformersが使われていたら、残念ですが完全に同じ画像を再出力するのは無理だと思います
1111をインストールしたフォルダ(またはその中の「webui」フォルダ)にある「webui-user.bat」内の「set COMMANDLINE_ARGS=」に「--xformers」と書かれていたら確定です
「webui-user.bat」を右クリックして「編集」を選ぶとメモ帳などで開くことができます
「--xformers」があったらそれを削除して1111を再起動し、元の画像を再生成してみてどうなるか確かめてみてください ControlNetで出す構図をコピーするように複数並べて出す方法はありますか?
横長画面に普通にCNを設定しても中央にひとつポツンと出るだけです
これを横に伸ばした分だけずらっと並べてみたいのですが Tileで分割すればできそうだけど、基本的に指定されてないものは出せない機能だから… >>938
なるほど
やはりCNで出しつつそれを三面図にするってのも無理みたいですね
これができたらめっちゃ楽しそうだったんだけど >>937
CNの何を横に並べたいんや?
openposeとかだったら自分で棒人間コピーして増やせば複数人にしたりできるぞ >>940
CN使わないと全く出ないごつい装飾関係なので・・・
群衆をそういうので埋められないかなあって >>114
>>125
マイブーム、ゆるキャラ、クソゲーなどのワードを生み出した漫画家のみうらじゅんが、何年か前からガビるって言ってたような気がする
ガビ山って山にみうらじゅん賞上げて依頼
この風景がびってんな みたいな ネガにlow qualityとか入れると好みの画風が一切出てこなくなることがあるわ 寝て起きて早速試してみた
好みの画風が山ほど出た
今までさんざんやらかしてきたんだ
俺はなんて馬鹿だったんだ AUTOMATIC1111のバージョンが上がった際に新規構築したんですが、
アップスケーラーがR-ESRGAN 4x+Anime6Bまでしか表示されません
出る事もあるから読み込みミスってるのかなって思いますが、既知の不具合とか出てますか 人間がいろんなこといっぺんに言われると困ってしまうように、AIもやたらとプロンプト増やすと破綻したり背景が無地になったりするね >946
前バージョンと同じmodelフォルダを参照しているからSwin_IRフォルダとその中にSwinIR_4x.pthはあるのにアップスケーラーの一覧に出なくなってるな ×modelフォルダ ○modelsフォルダ
×Swin_IRフォルダ ○SwinIRフォルダ >>949
自分だけじゃないってことでひとまず安心できました、ありがとう!
治るまで見えてるアップスケーラーでやりくりしていきます 逆にアップスケーラ-のデフォルトのは表示したく無いけれど何処に有るんや たてたー
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1683421154/
スレタイの「NovelAI」はなくしちゃっていい気がするけどどう?
今は専用スレがあるし、ここでNovelAIの質問をする人もいないし、質問されても↓を誘導するだけにならない?
なんJnovelAI部ウェブ専★68
https://fate.5ch.net/test/read.cgi/liveuranus/1679488956/ スレ違だけど今は専ブラが賢いから別に>になってようがちゃんと安価つくし全然気にしてなかったわ
むしろ複数安価したい時は>>使いすぎると書き込めないから減らしたり PC用の専ブラだと>ひとつは引用と紛らわしいから>>じゃないとアンカーと
認識させてないんでアンカーは>>でやって欲しいね
chmateだと>でもアンカー扱いしちゃうから諦めてるけど アホくさ
読めないし辿る気もないならお前が話に付いてこれないってだけの話だろ
お前以外の誰も損しねーわ何甘えてんだ >>951
UltraSharpとかRemacriやlollypopというアップスケーラーは自分で探してきて
\stable-diffusion-webui\models\ESRGAN
に入れるんやで
こいつらがあれば既存のアップスケーラーはいらんくらい 公共性を理解できない個人主義モンスター
その末路が>>959です
彼は満足な教育を受けられなかったのかもしれません
彼を攻めないであげてください >>960
横からだけどSwinIRが消えて困ってた
UltraSharp試してみるよありがとう 1111のバックアップ作ろうと思ってるんだけど普通にコピーするだけで大丈夫? >>965
目的がよくわからない
HDD(SSD)が壊れるのを想定?今のバージョンを保管しときたい?デフォならoutputごと?
モデルならモデルだけやればいいし(LoraやExtensionsも同じ) webUIがコマンドプロンプトで立ち上がった後にhttp://127.0.0.1:7860にアクセスして
ExtensionsからWebUI再起動してhttp://127.0.0.1:7860にアクセスしなおしてみな
俺はこれでSwinIR復活する。そして毎回立ち上げる度にやらないと消滅するようになってしまったよ。 >>966
お前のように質問に答えないガイジってなんなの
目的なんか人それぞれだろ
回答する気がないなら書き込むな
>>965
フォルダごとで大丈夫 >>966 >>968
ありがとうございます。1111をアップデートしたいと考えたんですけど、動かなくなる可能性もあるので安定している現在のバージョンを残そうと考えてました >>969
それなら
デフォ位置のモデル(Lora含む)・extensions・outputあたりまでバックアップするは無駄だと思うよ
動かなくなるって、1111側がおかしいなら大騒ぎになってすぐ対処されるし
自分側がおかしいならvenv削除して入れ直せばいいだけなので、普通はそんな事態には遭遇しない って遭遇しとるがな
> SwinIR
まぁ、動かないレベルではないわけでしょ?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/9982
これか
自分はアップデートしてないけどacncaguaって人の通り
extensionsのSwinIRのチェック外してapply、入れてapplyで次回起動時から治らないかな? >>967
これで復活したけど前に追加されたuniPC無くなってるな… dataset tag editor使ってtag編集してんだけど素材画像のプレビューがフォルダの中身と違ったの表示される
タグの編集事態は問題ないが、できれば直したい
どうすれば良いか知ってる人いたら教えて欲しい SwinIRが消えるのはIssuesで報告されてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/9982
修正のプルリクも上がってるが、次の更新はまた一ヶ月後かねぇ
取りあえずの対応策なら
・拡張機能から組み込みのSwinIRのチェックを外し、適用して再起動する
・拡張機能を再度開き、SwinIRをチェックして適用して再起動する
で出てくる
再起動すると消えるから、一時的な対処法 >>972
UniPCはアップスケーラーではなくサンプリング方式じゃないかな? AOM2でポージング系のプロンプトの効きをもう少し
よくしたいのですがお勧めのマージモデルはありますか? t2tだとHires fixの項目があるんだけど、i2iだと無いんですがこれが普通?
設定変えたら使えるのかな? >>978
t2tじゃないや、t2iだとあるんだけど、です。 i2i自体にアップスケーラーがおるやろ
それかultimatesdupscalerでも入れておけばよい >>979
自決したならどう解決したのか遺言を残してくれ 追加学習に手を出してみたいのにその前に試してみたいLORAだらけ >>984
このスレに限らず、自決しても遺言残さない人多いよね >>976
うわアップスケーラとサンプラーと間違えてたw
お騒がせしました "A tensor with all NaNs was produced in Unet"
のエラー自己解決
というか外国サイトみて、xformers を 0.0.19
にした
argに毎回xformers再インストールする文字列入れてもいけるのかも
まあ解決したのでやらないけど stable diffusionでへそが2つ出来たり、タトゥーが入ってしまった時に
ピンポイントで治す方法教えてください…😢 lama cleanerといえば、こいつで消せんものってあるんやね
Bingで出力した絵の背景を消そうとしたら何度やっても全く消えない
絵の雰囲気的に霊体みたいに見えるから怨霊か何かと感じて怖くなった
仕方ないのでペイントソフトでタイル貼り付けて無理やり消したけど
小さいゴミとかじゃなく残したい素体と同じくらいデカくて目立つヤツ
lame cleanerに掛ける前にExtrasに入れたu2netで先に処理してたんだけど、その時に残ったやつだからかな
画面にこびりつくというか染み着くというか
それほど怨念が強いのか、u2netしてしまったために情報の状態が変わってしまったからなのか >>994
周りの情報読み取っていい感じに消してくれる
ピンポイントならまず違和感無い
大きめになるのと明らかに消したなあ、ってのはわかるけど要らないもんが消えるだけでもありがたいしね
インストールや使い方はめっちゃ簡単だから入れてみるといいよ、多少の難あり画像が一線級に格上げされるくらいの効力はある webUI起動時にcut off有効化してトークンも入れたいんだけど
ui-config.jsonに記載しても有効にならない
方法間違ってる? スレ終盤だけど、画像生成中にエラーが発生することがたまにあるんだ
取りあえず昼休みにググって対策調べてみたけどうまくいかなかったらここで質問してもいい? このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 14日 22時間 39分 3秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。