【StableDiffusion】画像生成AI質問スレ02【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
【StableDiffusion】AIエロ画像情報交換14【NovelAI】
http://mevius.5ch.net/test/read.cgi/cg/1676588159/
なんJNVA部★159 ※約1日で1スレ消費する
https://fate.5ch.net/test/read.cgi/liveuranus/1677379479/
【雑談】CG総合関連60【AI】
https://mevius.5ch.net/test/read.cgi/cg/1673490335/ いちおつ>1
nijijourneyは日本語プロンプトを使えるのと
関連スレのうち雑談スレは今どこなんだろうか? スレ立て乙
1000レス目で本当に質問する人初めて見たわ
○○ステップが良いって聞いてその通りにしたいならその通りの解釈で合ってるぞ だいたい5000~6000ステップ前後が一番収束する気がする
7000台まで行くとノッペリしてきて「これが過学習か」ってなる
RTX3090で512x512だとバッチサイズ8くらいで動かせるから30分ちょい走らせれば十分な感じ リアル系なのか、アニメ系なのかで最適なステップ数は全然違う気がする
あと目的によっても作り分けてるわ >>1
乙です
今週3060届くので本腰入れてやる予定ですが
CNであくせくしてる人達がよく分かりません
自分でラフ絵を描いてi2iした方が圧倒的に早くないですか?
CN棒人間で出すのと、絵を描いて出すのでは全く違うんですかね? 詳しく知らないのに謎の上から目線
噂通りZ戦士やべーな 前スレでlora導入の回答くれた方ありがとう
とりあえず色々試してみます >>9
それあるな俺はアニメ系、素材調達が容易だもんで
>>10
完全にペンタブ使わない勢もおるしね すみません、理想なとこまで学習はさせたんですけど、
服を着た写真ばかりなのは
(服を着た女性)
と学習したからなのですか?
もしかして、学習フォルダの中のキャプションのタグを消さないといけないとかあるんですか?
例えば、学習フォルダの中の001の写真の作られたタグだと
1girl、brownhair、camisole
↑のキャミソールを消して教え込まないといけないってことでしょうか?
わかりにくくてすみません >>15
2Dか3Dかによる
2Dのモデルは総じて乳首出にくい印象、逆にChilloutmixなんかプロンプトでbreastぶち込むと脱いでほしくないのにヒョイヒョイ脱ぐし >>18
3Dです!
ご教授のお陰でひょいひょい脱いでくれました!! 前スレのPC買う人 最終決定はちゃんとスレで相談したほうがいいぞ
変なの買いそう あいつちんこでモノ考えてたからもう手遅れかもしれんぞ ドスパラのPCはケース開けると保証が無くなると聞いた
みなさんってPyhonがそこそこ扱えるレベルなの?
以前hentAIをインスコするのに断念したので
自前の環境作れるか心配 >>25
今現在、Automatic1111の導入で失敗する人ほぼいないぞ
むしろ自前でpython環境持ってる人とか半端にかじってる人のほうがガチャガチャいじくり回してドツボにハマってたりする
そんなに不安なら簡単セットアップ系もいくつかあるし大丈夫よ >>26
ありがとう
もうちょいgoogleで慣れたら
冷却の良いケースとグラボをIYHするわ
棒人形から生成とか知らないことがどんどん増えていく・・・ NMKD Stable Diffusion GUIを使っているのですが、低解像度で素早く生成して良い感じの画像を見つけた後に
高解像度に設定変更して同じ画像を生成する事はできないのでしょうか?
同じ呪文、シード値を使っても解像度を変更すると別の画像になってしまいます >>29
残念ながら仕様
プロンプト・シード他全ての数値が同じでも解像度が1でも変わると別の絵になる >>30
ありがとうございます
元データとして読み込んで似た画像生成するしかないですね >>32
ほどほどの解像度で出してアプスケするのが一番簡単じゃないかな 1111でloraのon/offを途中で切り替える方法ってあります?
step途中かhiresfix時に無効にしたいんですが
tiと違って[a:b:n]は駄目だったので別の手段を探してます >>22
ただいま帰りました もちろん相談します!
>>23
ひでえw しかしその通り!
>>27
かなり前ので掃除も一切してないので、正直グラボいれてもすぐ寿命きそうなんですよね汗 >>29
他の人も言ってるけど
mkd アップスケールの機能がある やっぱこのサイトだと
フロンティアのCPUスコア31489の奴のどれかですかねぇ
SSDは増設で、なんかSSD2つ項目がある? で合計2万くらい出せば2TBにできるっぽい
CPUとGPUの性能が違い過ぎるとよくないと書いてあったので、i7のものに絞りました 価格.com
選んだ条件
CPU種類:Core i7 価格指定:100,000円〜250,000円ビデオメモリ:11GB〜 メモリ容量:32GB〜64GB未満 ビデオチップ詳細:GeForce RTX 3060 OS:Windows 11 Home AI生成ってグラボだけじゃなくCPUもAMD系よろしくないの? そうなのか
なんかみんなintel系CPUのPC勧めてるから
そういうものかと思ったぜ 出来上がる前のボヤケた状態なら「お!そっくりさん出来た!?」
ってなるのに完成品見たら「別人やん」
ってなるのはあるあるですか? 何とかautomatic1111導入できたド初心者です
taggerやら画像の前処理やらでフォルダ指定をパスをコピーしてペーストしてるのに input path is not directoryになるんだけど原因分かりませんか >>47C:\Users\elle1\Downloads\LoRA_Easy_Training_Scripts\sd_scripts\LORAtest\sozaiです >>40
SSDくらいは自分で増設すれば1万で済むんだけどね
自分も最近増設してちょっとだけミスってドキっとしたから金払って積んでもらうのもあり
SSDは1T+1Tあればまぁ大丈夫かな
NVMeと2.5インチだと思うけどNVMeのほうが早いやつ
自分はコスパ重視で2.5インチのにした NVMeは早いけどマザボによっては交換がクソだるくない? 誰かがNVMeのやつにしろ〜みたいなこと言ってたんですよね
とりあえずCPUスコアの限定フロンティアのスコア31489の奴が大量にあるので、どれを選ぶべきか・・・ BTOならNVMeでいいんちゃう?
自分で交換するとか自作するならマザボの設計見たほうがいいけど。 ?B550M STEEL LEGENDは?NVMeのヒートシンク外すのが面倒だった >>48
そこの中に20_girlみたいなフォルダー作って画像入れてない?
そこまでのパスが必要 >>54
そういったフォルダーは後々作る予定だったんですけどまだ作ってないです。今画像を入れてるフォルダーは間違いなくsozaiです >>55
念の為の確認だけど1111はローカルで構成&Windows環境だよね?
WSLやらcolabやらの環境ではないよね? やり方はわかるがうまく好みのにならないのが学習させるやつだよなあ
新しいのが出てきたらやってみて結局諦めて誰かが作ってくれたので遊ぶに戻る >>56
Dockerを使ったローカルでWindows11です loraで1番しっくりくる学習サイクルの法則ってあります?
自分的には学習する画像は80枚ぐらいで20周回の5エポックで10000ステップ行かないぐらいが1番いい気がするんですけど
200枚覚えさせたら画像のpromptを覚えちゃうもんだから新たなprompt自体を聞いてくれない気がする 速度置いておけばデスクトップにNVMeって必要ないよね
空間はだだ余ってるわけだし >>59
そりゃ通らんわけだ
今1111はDockerという仮想環境で動いてるから、1111の拡張機能のWD1.4tagger使う場合は
Dockerが認識出来るフォルダにファイルを置かないとダメ
(DockerからC:\Users\~ は直接見れない)
一番手っ取り早いのはDocker使わず普通のWindows環境で1111を構築し直す事な気がする
docker内にファイル置いてtagger動かしてもいいが、ファイル操作がかなり手間になると思う >>61
NVme 4スロットとかのマザーボードを買って
それに増設する以外選択肢はない
スピードが全然違う AI で作った画像が売ってるけど
ダウンロードして分析すると同じようなやつが作れる
呪いでもダウンロードできるし >>64
pixivのfanboxやってるAIの人もいるからな
数百円投げたら喜んで自分の性癖画像を高クオリティになるまで生成してくれると考えるなら支援するのはすごいコスパがいい 1111を起動直後に「生成」ボタン近くのななめ矢印「↙」をクリックすると前回終了時のパラメータが復帰しますが、この情報はどこに保存されているんでしょうか? cashってフォルダなかった?
そこじゃね?考えたこともなかったから知らんけど >>67
なんでファンボックスとかに課金する人がいるのか不思議だったけどそう考えると確かにお得だね
自動でプロンプト書いて自分好みの絵を作って手足の選別もしてくれないかなー
ってのをやってくれてるわけだし
ある意味、究極の自動化サービスかw >>62
なるほど 訳も分からずDocker使ってました構築し直して来ますありがとう 導入記事ぐぐると出てくるんだよな、Docker使ったやつ
何もしらない状態で最初にそれを見たらそれが標準だと思ってしまうだろう 5時間ほど遊んでたんだが
img2imgで再生成するときに
色があせたような感じになるのは何でだろう? 塗り塗りした場所だけ書き換えてってやると
塗り塗りした場所だけうっすら黒いとかな >>69
cache.jsonとか「configs」フォルダの中とか見てみましたが、どうも生成パラメータは残っていないみたいでした
もうちょっと探してみます >>75
直前のはコレ
stable-diffusion-webui/params.txt これから3060買ってLoRAで版権ものやりたいんですが
頭と衣装はどっちが再現難しいですか?
また別々に学習させるもんなんでしょうか? ローカルのRTX3070でやってるんですけど画像サイズ大きくするとVRAM不足で生成失敗するんですよ
空きスロットにRTX3060の12GBを追加したらVRAM20GBまで拡張して認識できるんですか??? >>80
無理
っていうか3070で生成失敗て解像度いくつでやってんだろ
ひとまず起動オプション付けてくるといい 数GBある画像生成用の.ckptファイルや.safetensorsファイルのことをモデルと言いますが
実際この巨大なファイルの中には何が詰まっているのでしょうか
latentになった画像でも入っているのでしょうか >>82
ざっくり言うとノイズデータ
モデルデータの中に画像が入ってるわけではない
むしろ巨大どころか、数億の画像を学習してるにもかかわらず異常なほど小さい
詳しくは stablediffusion 仕組み で調べれば解説がいっぱいあるので調べてみては 拡張機能をurlからインストールしてインストール済みのとこにも表示はされてるんだけど出てくるはずのタグが出てこないんだけど なんか設定弄るとかあります? >>85
UIリロードしたか?WebUI再起動したか?拡張機能のREADME.mdは読んだか?
まずこのへん localization_jpならなんか出ないことあるから
config.json開いて
"ui_extra_networks_tab_reorder": "",
+ "localization": "ja_JP",
"show_progressbar": true,
しろ LORAって構図のみだけを学習させれる方法ある?画風が一才影響しないようにしたいんだけども 質問なんだが、AUTOMATIC1111で生成すると
https://imgur.com/a/v66jb60
こういう感じで画像のモザイク?ノイズ?が乗ってしまうんだけど、解決方法ないのかな?
nsfw以外でもこうなる
AMD製のCPUだから?グラボは3060なんだが…
NMKDだとこういうことは起きないんだよな sampling method変えてついでにstepsもあげてどうぞ おまえらいくらなんでも人に見せる画像くらい気をつかえよw >91
Sampler変えたら解決したわ
そのあともとのLMSに戻しても、何故か生成できた…
サンキュ〜(LOVE) ノベルAIを使っているのですが、絵全体の絵柄が安定しなくて困ってます
これと決めた絵をもとに絵柄に関係のないプロンプトをいじると、古いアニメの絵柄やボヤケた絵柄ばかりになってしまいます
Seed値を入れても同様で、キャラクターのパーツなどはある程度似ていても全体の絵柄が変わってしまって全くの別物になってしまい、ここ一週間くらいずっと格闘中です
どなたかマジで助けて(´;ω;`) 仕様
文字一文字でも変われば絵は変わる
出来る限りタグを詳細に書いて絵の方向性を固定するしかない
偶然生まれた絵をどうにかすることは難しい
色んなプロンプト見て勉強するしかないかな >>90
ヒェッ!?
これはストライクゾーンが広い俺でもアウトでした( 一一) 気に入った絵があったのでシード値を固定してプロンプトを変えて生成すると変えたプロンプトでの生成した枚数の全体図は出るんだけど単体の画像が出てこない 単体の画像が出るのは元々のプロンプトで生成した画像しか出ないんだけど どうしたらいいですか 2日前に始めた者なんですが、生成の手順って
よさげなプロンプトを探したら512×512の低画質で何枚も生成する→気に入った構図やモデルの画像ができたらHiresを使って高画質をする
ってのが基本であってますかね?
Hiresを使わないでimg2imgを使う方法もあるみたいですが、どうやって使い分ければいいのかわかっていません
モデルはchilloutMix使ってます 絵柄の固定と同一人物の生成は未解決問題だな
ほかに未解決問題って何がある? >>102
hiresも拡大してからのi2iもやってることは完全に一緒
ただ拡大するときに選べるオプションはなぜかhiresのほうが多い >>102
グラボそこそこいいならもうちょい大きめで出していいんじゃない
オレは普段640x960でやってるけど、ギリギリ破綻するかしないかのラインかも >>100
正直なにを聞きたいのかよくわからんが…
1111での話だと思うけど、出力した画像はoutput-txt2img-images-日付フォルダに入ってると思う
複数の画像をひとまとめにしたグリッド画像はoutput-txt2img-grids-日付フォルダ
これでなんとかなるかなあ >>103
LoRA使えば同一人物も出せるし、最近は構図も複数書き分けも出来るようになったし、1~2年内にはなんでも出来るようになるんじゃないかね >>104
やってることは一緒なんですね
hiresでどうやっても奇形が生まれちゃうときとかにimg2imgを使うことにします
>>105
rtxの3060 12gb使ってます
一番最初に生成する画像の解像度はできるだけ高いほうがいいんですか? Basil Mixというモデルを使っているのですが、微妙に目の形や目線が崩れていて残念な感じの生成が多いです
このモデルに限った話でなくても良いのですが、目の形や焦点を安定させる呪文ありましたら教えて下さい
https://i.imgur.com/V7p61Hc.jpg >>71
Dockerまでやると学習コスト高いしファイルやりとりめんどくさいが
WSL上へのインストールならあり
Windowsに直接よインストールより大概早い 投稿サイトにアニメ版と実写版みたいなのを並べてアップしてる人がいるけど
img2imgであれできるんだろうか?
リアル系のプロンプト試したけどどうやってもエロ週刊誌の表紙のようになってしまう >>109
ある程度大きめにしておいたほうが構図がギチギチならないという利点がある
SDは仕様上、学習したものを拡大や縮小して生成するのが苦手でね
ので、生成する解像度を大きめに設定すると必然的に人物以外の余白が増えて結果的に広い構図になりやすい、という理屈
超ワイド構図とかも面白いよ
もちろん大きくするほど破綻する確率も上がるけどそこはガチャ回数でカバー
Xformersありで、最大960x640程度
サンプラーはDPM++ SDE Karrasでステップは15程度
それでストレスなくガチャれるんじゃないかな >>110
リアル顔は補正のチェック入れればいいよ、デフォルトで補正方法が2種類選べる
Hires.fixの並びのRestore facesな
アニメ顔はほぼ効かないけど >>110
プロンプトをもうちょいひねったほうがいいかな
high detailedとかrealisticを強めにいれたり
majinaiあたりで好みの絵柄丸パクリ研究とか
視線誘導はlookを使ってある程度は出来るけど細かい調整は無理だね
Authentic1111ならリアル系の顔修正機能で目とかは綺麗にはなる 同プロンプト同シード値でやれば似たような構図にはなるけどそれとは違うのかな 言葉で色々書いてるけど
作例がないと分からん
何を聞きたいのかってのが ローカルやりたいし4090買おうか迷ってるが…流石にたかくてなかなか踏み出せん
かといって3090買うのもあほらしいし…
3060 12GB民はやってて困ってるエピソードある? 1600以上で出力したい場合のスペックってどんなもん必要?
やってる人いたら教えて 1111でなんでもこういう感じで光るようになってしまったんだが、どうしたいいんだろうか
https://imgur.com/a/HEVlDma
モデルやSamplerを変えても駄目で、プロンプトを大きく変えると治ったんだが、これまで使ってたプロンプトで、特に光るようなものは入ってないんだよな… >>116-117
ありがとうございます!
大変勉強になりました 全く脱がないloraが出来上がってしまいました。
少し弱めに設定したら脱いではくれるんですけど、顔が変わってしまいます。
naked入れても駄目でした…。
これって教え方が悪いんですかね? Loraの学習で質問です。
Loraの解説を見ていると基本的にはどれも特定の絵柄を学習させる感じですが
特定のシチュエーション 現状のプロンプトでは認識できないような特殊なシチュエーションを学習させることは可能でしょうか?
例えば正座を学習させて、既存の学習モデルのキャラに正座をさせるということは可能でしょうか?
またその場合は絵柄を学習させるとは別のコマンドがいるのでしょうか? 特定のシチュエーションの学習→できる
既存の学習モデルのキャラに正座→できる
絵柄を学習させるとは別のコマンド→別
キャラクタ、画風、ポーズは作り方が違う、LoRAを複数使うとマイクのハウリングみたいに悪影響が全体に強く出る場合がある
大まかなポーズだけならControlNet使う方が楽だけど、勢座みたいにボーンが重なる姿勢は制御が難しい所はある
いい点としては学習データによって他のキャラや画風に影響与えにくい事かな 価格.comだとカスタマイズ込みでどうしても20万超えてしまうんですが
以下の条件だとどれくらいが目安なんでしょうか?
CPU種類:Core i7(i5だと性能低い言われた、主にFPSやらVRやら)
ビデオメモリ:12GB
メモリ容量:32GB
ビデオチップ詳細:GeForce RTX 3060
OS:Windows 11 Home
後他に気を付ける点ってあったでしょうか? メモリは暴落中だから自分で追加した方が安いかも
12世代なら20万ギリギリで行けるんじゃないかな?
RTX3060 12ギガ版はそろそろ在庫はけて値上がりしたりするかも
あと安さを求めてもシングルファンは高負荷でうるさすぎるんで避けた方がいいかな
ツクモで19万のゲーミングPCって感じたぶんシングルファンだからアレw 本スレに書いたかもしれないけど
ドスパラのBTOはケース開けると保証切れるらしい
自作板の連中曰く >>132
嘘つけ!ケースに開封防止シールでも付いてるのか?嘘つけ!死ね!m9(´・ω・`)ドーン! >>133
ケースを開けただけで保証外はさすがにないが、他者に対して死ねとか冗談でも言うな
小学生じゃねーんだから 彡 ⌒ ミ ん?死刑制度反対か?なら日本から出てけよ?
( ´・ω・`)
/⌒ヽ_.ィ、~;y=ー(゚д゚)・・∵. ドーン!>>134
( r. ) ^ / )
ヽノノー‐l //
|__/_/
└一'一 1111とNMKDってそもそも別物って考えたほうがいいのかな?
同じモデル、Sampler、Steps、Scale、Vaeでも絵柄的に別物が生まれがちなんだが…
個人的にはNMKDのほうが絵柄的に好きなんだが、どうにもnsfw絵を生成すると人体欠損したり、prompt準拠じゃないことがおおいんだが、この辺の差分って誰かわかる?
1111でNMKDの絵柄を再現できたら言う事はないんだが たまにDOS窓でキー押さないと処理がいつまでも先に進まないのはなぜでしょう >>139
dos窓の仕様で範囲選択するとバッチが止まるようになってる
タイトルに選択と出る
なるべ触らない様に最小化したほうが良い
昔仕事でよく止めてた >>137
ツールの差で絵柄が変わることは基本的には無い
どちらも同じstablediffusionを操作する為の単なるGUIなので、全ては設定の問題ということになる
なので別物かと言われると、ある意味同じもの
ただAutomatic1111のほうが圧倒的に機能が多いのでシェアにも圧倒的な差が出ている >>142
基本的にはそうだよな〜、なら同じ絵柄でなかったり、NMKDでnsfw絵を出力するとかならず人体崩壊するのは何が原因なのかなあ…
SD自体のバージョン差とか、NMKDだけnsfwの規制があるとか…? hypernetworksは使うのが基本ですか?
LoRaとの違いがいまいちわからんです >>143
オレはNMKD動かない(python環境があるとエラー出ることがある)から試せないけど、
NMKDで生成した絵とinfoさえわかれば再現の方法はわかるかもね
NMKDからの移行で躓く人やたら多いから理由は解明したいんだよなぁ
個人的には再現は捨ててでも移行しろと言いたいがw
慣れれば絶対にA1111のほうが高品質な絵が出せるはずなので(機能的に >>144
Hyper Network、Textual inversion、Dream Booth、LoRA
色々あるけど、ざっくりとした違いは追加学習の難度と、学習内容の再現度
ぶっちゃけあとから出てきた技術のほうが便利で有用性が高い(暴論
今は作るのも使うのも一番簡単なLoRA一択でいいんじゃないかな
容量デカイっていう欠点があるけど >>145
それ俺も思って、1111のPNG情報比べたらこんな感じなんだよな
NMKD
parameters
なし
Dream
NSFW,((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
[(bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,]
-s 30 -S 503559409 -W 1152 -H 768 -C 20.0 --hires_fix -A plms NMKD続き
sd-metadata
{"model": "stable diffusion", "model_id": null, "model_hash": 0, "app_id": "invoke-ai/InvokeAI", "app_version": "v2.02", "image": {"init_mask": null, "prompt": [{"prompt": "NSFW,((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
[(bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,]", "weight": 1.0}],
"facetool_strength": 0.0, "seed": 503559409, "height": 768, "upscale": null, "facetool": "gfpgan", "threshold": 0.0, "width": 1152, "perlin": 0.0, "cfg_scale": 20.0, "steps": 30, "postprocessing": null, "sampler": "plms", "variations": [], "type": "txt2img"}} 1111
parameters
NSFW, ((masterpiece,best quality)), ultra-detaled, (perfect hands)+, illustration, (realistic)0.5, (Mika Pikazo), Missionary positions, (blush)++, embarrassed, (all fours), (((((sex))))), (((((rape))))), (1gilr)+, man on ass side, man grabbing woman's waist, nude, (Black Hair, Short Hair), (pink eyes, beautiful eyes, detailed iris)+, nude, medium breasts, cute face, shiny hair, shiny skin, night, dark room, bed, wet skin, white liquid
Negative prompt: (bad anatomy)+++, bad hands, hair ornaments, (((2girls))), (side twin tail)++, side pony, tights, socks, realistic, distorted, distorted background, gloves, lowres, worst quality, low quality, normal quality, low quality, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, username, missing fingers, extra digit, fewer digits, cropped, missing fingers, missing arms, long neck, humpbacked, disfigured, malformed, mutated, multiple breasts, three legs, Missing limbs, three arms,
Steps: 30, Sampler: PLMS, CFG scale: 20, Seed: 3444963075, Size: 512x368, Model hash: f8aff727ba, Model: BloodNightOrangeMix, Denoising strength: 0.7, Hires upscale: 2, Hires upscaler: Latent (bicubic antialiased)
parameterがなしで、Dreamになっているのが気になるけど、まあPNGに書き込むだけの情報差なので、厳密な処理を書いているわけじゃないしな〜とは
ちな生成している絵はまあ言及せずで かなり記述方法が違うな
AUTOMATICはタグの強調にかっこの重ね掛けはしないし、+ とかも使わない
これちゃんとしたコンバーターがないと正確に移行できないね
あと、そもそもNMKDにはCLIPの設定がないから、CLIPが1なのか2なのかわからん
おそらくそれも移行した時に絵柄が変わる原因なんじゃないかな >>123
何かの要素を強調しすぎると破綻することはあるかも >>149
俺のとプロンプトの書き方が全然違うw
他の人の見ると参考になるなぁ
NSFW, (masterpiece:1.1),(best quality:1.1), ultra-detaled, (perfect_hands:1.1), illustration, (realistic:0.5), Mika_Pikazo, Missionary_positions, (blush:1.05), embarrassed, all_fours, (sex:1.3), (rape:1.5), 1gilr, man on ass side, man_grabbing_woman's waist, nude, shiny_Black_Short_Hair, pink_eyes, beautiful_eyes, (detailed_iris:1.1), nude, medium_breasts, cute_face, hair, shiny_skin, night, dark room, bed, wet_skin, white_liquid
Negative prompt: (bad anatomy:1.3), bad_hands, hair_ornaments, 2girls, side (twin tail:1.2) NMKDを使う人はビギナーが多く、コアな人達はAutomatic1111を使う、もしくはすぐに移行しちゃうので、結果的にNMKDに詳しい人がいないという現実
これから始める人は最初からAutomatic1111から入ってくれると説明もラクなのだが
今はワンクリ導入もあるし NMKDと1111の質問しているものだが、
結論からいうと、promptの強弱が原因な気がしてきた。
>>152 のように数値で重み付けすると、NMKDと1111で近い絵柄で出るようになってきた。
そして1111でも俺の好みの感じ(といっても本当に微妙な差なんだが)が出るようになってきたので、あとはNMKDで使っていたpromptを手動でコンバートしていけば再現性が高くなる気がする。
Clipについては1と2で試したが、1のほうがNMKDに近いかな、という印象だ
ということで、とりあえずprompt調整で1111移行頑張ってみる
ありがd >>155
1111はimg2imgの所にDeepBooruあるからそれでタグ探すと良いかもね
まぁ152なんか凄い適当に書いたけど、twin tail みたいなのはtwintails でツインテ画像になるし
なんならblack_hairもblack_long_twintailsみたいな一つのタグにまとめたりもする
night, dark room, bed, ここらへんはnight, bedroom_backgroundもしくはmyroom__backgroundとか
要はマイルームやベッドルームタグとして機能するからもう少し突っ込んで指定してみるのもアリだ
1gilrって 1girlかなスペミスの呪文あったりすると絵柄がバグるから注意だ、
あと数値は2超えるとバグる1.4とかじゃなくても1.01とか1.05くらいの僅かな重みでも結構機能する
頑張ってね 自分で用意したキャラクターの3面図を読み取れば
そのキャラを好きなポージングで画像生成できる・・・といった技術や
それに近い方法はありますか? >>157
1.自分で用意したキャラクターを追加学習してそれを生成することは可能
ただし綺麗に再現するにはそれなりに知識が必要
2.キャラのポーズを自由に付けるのはcontrolnetという追加機能で可能
ただし学習内容にないポーズはどう頑張っても出てこない(逆さ吊りとか 呪文ありのai投稿サイトとか見てるとModel hashってあるけどこれは何ですか? コレ見て同じモデル検索出来たりしますか >>160
各モデルの固定IDみたいなものだな
ただ、ハッシュで探そうとしても個人制作のマージモデルの可能性もあるし、そもそも去年と今年でハッシュの計算方法が変わったりであまりアテにならないかも >>155
他のやつも1111にしたらクオリティ落ちたって言ってたけど、ちゃんとネガティブプロンプト入れたら大丈夫になったって言ってたわ
NAI→1111変換はあるから、NMKD→1111変換もあったらいいんだがな AIまったくの初心者なのですが、
漫画を描く時のポーズ、構図、背景の参考にAIを使いたいと考えてるのですが
どのAIが良いのでしょうか?
情報が多すぎて、何がなにやら状態なので、アドバイスいただけるとありがたいです 正直ポーズ構図背景ならAIより3Dの方が得意やろな
3DはDazやデザインドールとかVroidとかBlenderとかやろか
AIならAUTOMATIC1111のWebUIを入れるのがオススメやで
今はimgtoimgやControlNetで画像から画像を生成できるからAIも3Dを使えるほうがええで Dazはボーン入った無料モデルがあるから視覚的入りやすいわな
Blenderに書き出すときのスケールと座標軸で躓くだろうけど、一度超えれば慣れるしな
無料で行くならどちらかは触れる機会もあるだろう リアル系希望でチマチマ進めているのですが
chilloutMix、loraも動いているようです
先人のアニメ系呪文を改変して入れたりしてみてるのですが
どうもかわいい女のコは生成されるけど男性キャラが全く出てきません
何か方法があるのか、あるいは別モデルで男女絡みあり×リアル系だとどういうアプローチありますか >>166
とりあえずcivitaiで海外系のモデルを探してみるとか >>164
追記
クリスタにControlNet用の3Dモデルがあるからそれ使えばそのポーズのAI絵が出てくるで
多分これが一番楽や T2I-Adapter使ってる人います?
やっぱりLinuxじゃないと動かないんでしょうか... 気に入った顔のやつが出たので、それを維持したまま他の部分ポーズや背景とかを変えていくって何でやればいいの?
ポーズを維持してじゃなくて、顔を維持したいのだけど。
そういうのって難しいやつ?
常識なのかもしれないがイマイチわからないから教えて下さい! >>170
プロンプトのみで呼び出された顔だと残念ながら難しいやつ
シード値を固定すれば運が良ければ同じまま引き継いでくれるかも >>164
>>168
AIだけじゃなく3Dに関しても丁寧に教えていただき、ありがとうございます!
ここまで丁寧に答えてもらえるとは思っておらず、ものすごく助かりました!
CLIP STUDIOも使ってはいたのですが、3Dは全く触ってなかったもので……。
AUTOMATIC1111を調べてみたらColabで出来そうだったので
さっそく導入し動かしてみたいと思います! ちょうど上の方で話題出てるので便乗ですが
いまNMKDを使っている初心者で1111乗り換えを検討してます
ワンタッチ版の方が導入が楽らしいですが、
個人の方の製作との事で製作者様が更新やめたら使えなくなったりするデメリットはあるのでしょうか? >>173
個人が作った簡単版ていくつかあって、中には更新に対応出来ない作りのやつもある
一番無難なのは公式のワンクリ版
ただしこれはこれで一部制限がある
公式版
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
ただ、どちらにせよ中身は同じだからいつでも通常版に移行は出来るし、最初はワンクリ版でもいいんじゃないかな
スタンドアローン版
https://note.com/uunin/n/n715256399038 loraの学習のタグ付け編集は皆さん自分でやってるんですか? >>174
ワンクリ版はいくつか種類あったんですね
詳しくありがとうございます
まずは公式版を導入してみます >>174
移行出来る、は雑だったな
新規に導入し直してデータ引っ越しってのは出来るって意味
Automatic1111って更新のたびにバグ出たりするから、いくつかのバージョンを使い分けたり、再導入して引っ越したりってのはわりとあるんだよ
それが面倒な人は滅多に更新させないで使ったりしてるな >>158
絵が下手なのでAIで補正し再現して貰えるように勉強してみます!
お答え頂きありがとうございます! >>174
> 一番無難なのは公式のワンクリ版
> ただしこれはこれで一部制限がある
公式版の一部制限とはどういうものでしょうか? >>179
通常版とフォルダ構造が違うのと、pythonを正式にインストールしないからそれが原因で動かない機能拡張とかがある 何年も前からAIニュースを追うのが好きだったんだけど、
GPT-3が出た2年半前とか、昨年4月のDALL-Eが出た頃ですら、
ネットで誰も話題にしてなかったのに、昨年9月からいきなり
AIについて当然のように知ってる人達が5chに湧いてるのはなぜですか?
理系の人達は高校大学である程度近いものを学んでたりするんですか?
それとも、元々詳しい少数の人達が集まってるから沢山居るように見えるだけでしょうか?それなら嬉しいんですけど >>170
いい画像出たらsend to inpaint押して
https://imgur.com/a/S90kw24
変えたいところ適当に塗って
https://imgur.com/a/oRqZDDv
generate
https://imgur.com/a/oRqZDDv
逆に変えたくないところがあるなら手順2でinpaint not masked 選択すれば行ける 特権のキャラクターのモデルとか入れてみたけど、全然服とか髪型反映されないけどやり方とかあるの?
初心者で全然分からない
誰か教えてください >>181
はいはい
何年も前から詳しいボクちゃんすごいでちゅね >>186
モデルがLoraを指しているのだとするとプロンプトで指定していないんだと思う
https://i.imgur.com/acQSFWq.jpg
<lora:~~~~_v15:1>とかの最後の数字で強さ調整できる
0.1にすれば入れたモデル(LoRa)弱まるし、2にすれば効果が強まる >>183
ありがとう!やってみます。
顔維持したいっていう願望はみなあまりないものなのかな。。 >>188
プロンプトで指定しなきゃなんですね
てっきり服とかは指定しなくてもそのまま生成されるのかと思ってました
ありがとうございます 最初にStable Diffusionをインストールするのにどのサイト参考にした?
わかりやすいサイトあったら教えて 初歩的な質問で申し訳ありません。
これから始めてみようと思っている者で、スクリプトで出力させる他に、自分で描いた線画やラフ画を入れてイラスト生成をさせたいのですが、現状ですとどのサービスが良いですか? 配布しているLoraでV10とかになってるのはver10ってことですか? v1.0のファイル名がv10になっている。いずれv10に達した時には問題になるだろうね
公開場所の問題なので、v10前に別の名前に改名するのが賢い作者だとは思うが 追加で質問です。先の特定のシチュエーションで学習させるにはコマンドは別と回答をいただきましたが
具体的にはどのあたりになるのでしょうか?
ttps://economylife.net/kohya-lora-install-use/
このサイトをみてやっているのですが…コマンドはどこが違ってくるのでしょうか?
このサイト以外にもコマンドを詳しく書いてあるとこがあるのでしょうか? >>197
それ結構初見殺しだよね
XをOrogonal weightに設定して
上の方に表示されてる識別子一覧(NOME, ALL, OUTS)みたいなのをvalueにコピペすればいいよ あと<lora:pussy:1:XYZ>
みたいに強度の次にXYZっていうXYZ Plot専用の識別子入れるのも忘れずに >>194
コントロールネットと
3月1日に出たやつ ローカル環境のwebUIを使ってるんですがi2iのSketchをしようとすると、とんでもないくらい重くなるのはおま環でしょうか?
昨日の昼くらいまでは普通に動作してました
再起動も試してみたんですけど変わりません 学習の素材はどういうものを使えばいいのですかね?
3dのキャラの全身を角度を変えて8枚ほど入れるのでも問題ないですか? >>203
すいません 解決しました
i2iのcopy.Image.toからSketchを選択するとディスク使用率が100%になって処理落ちするようです >>204
学習にも色々あるしやり方も違うので、まずは解説ブログとか見たほうがいい
大抵の問題はとしあきが解決してくれる こういうワイルドカードのpromptって一々手動でテキスト保存するしかない?
__tinko__, __manko__, 初心者なのですが、webUIってローカル環境でやるメリットってあるのでしょうか?
Colabで試しにやってみたら動いたので。
もしメリットが大きいならAI使えるパソコンを買おうかと思っているのですが。 ローカルじゃないと気兼ねなくエロ出せないし、グラボ3060以上ならもっと早いし、ノウハウもローカルの方が沢山出回ってる
個人的にはメリットしかない
colabはAI始める1番最初の動作確認用って感じ 一枚幾らで出してもらう方が信じられないよ
あんなもん気に入った一枚出るまで何回も回すんだし >>208
ガチロリ出すならローカルだろ
じゃないとBANされて捕まるぞ スーツ着た女性を出そうとしてるんだけど、おっぱい丸出しになる。ネガティブにNaked入れる以外にいい方法ある?
Chilloutmixで生成してます。 >>208
エロやるならメリットしかない
エロやらないならcolabでいい >>208
ローカルだと俺の嫁感が出るんだよね
俺のSDちゃんに変身してもらったり好みの衣装着させたり考えうる限りのエロい事をやらせるのが良いんだよ
この意味ではcolabはその場限りの風俗みたいなもんだ >>213
胸と谷間がそれぞれ固有のプロンプトあるから
img2imgでdeepbooru押してプロンプト推測するといい 既出だったらすみません。舌出しさせたいんすけど良いLoraありますかね。。。
あとやりすぎないぶっかけ表現。。。何卒。。。 >>218
awaiting tongue
https://civitai.com/models/7625/awaiting-tongue-embedding
舌と下唇が同化しがちなのと舌の真ん中に縦線が入ってしまう傾向があるんだよなあ
ahegao系は目までローリングしてしまうし
他に良いのあったら教えてほしいよ 衆人環境を再現したいんですがmultiple _○○の他に良いプロンプトありますかね >>219
ありがとうございます!
これ見つけて使うか検討してました...やっぱこれくらいしかないっすよね〜
>>220
自炊...その手が...(;゚д゚)ゴクリ… Loraの学習がイマイチ分からなくなってきた…
学習画像512x512 枚数15x繰り返し回数20 epochs2 =step600
学習パラメータlearning_rate=1e-4
で試しにやったら5分でいい感じのできたから本腰入れて
学習画像768x768 枚数25x繰り返し回数30 epochs10 =step7500
学習パラメータlearning_rate=1e-5
でやったら微妙なのしかできねぇ
過学習かと思って序盤とか中盤にできたデータも見たけど微妙…
俺何か勘違いしてる? >>223
1回目の数値でいいのが出来てたなら
2回目の数値も1回目と同じにしてみては 実写の風景にcontrolnetとopenpose editorで人物を乗せたいんだけど、openpose editorで作った棒人間ポーズをcontrolnetに出して、i2iに実写の風景乗せて生成でいいんだよね?
なんかdenoising strengthが高すぎると人物出ても別の場所になっちゃうし、低すぎると人物が乗ってくれないんだけど、どうすればいいのかな 同じ呪文で続けて何回もランダム生成してると、なんかクオリティ上がってくるような気がするのは、気のせいですか?
そういうものではない? 同じモデル 同じvae 同じプロンプトでずっと似たようなイラストが出来てたのに急に別モデルになったんか?ってくらい画風も変わってクオリティが著しく下がったんだけどなんですかこれ >>230
『いつのまにかCLIPが変わってた』に1000ガバス >>231
そうだったのかな 再起動したらなんか直りました 色々試した中でCounterfeit-V2.5が一番好きだけどライセンスとか同梱されてないの怖い
実は商用NGだったけど商用利用してトラブルなりましたみたいな事件ありそう 加工ひとつ入れれば誰もなんのモデル使ったかなんてわからないし
うちのモデル無断で商用利用したやろと主張するなら立証責任は主張した側にあるからなあ
まあ良心の問題だけ ControlNetがうまく動かないのですが、どこに問題がありそうか、どう確認すれば良いでしょうか…?
webuiのExtentionからsd-webui-controlnetとopenpose-editorを入れてポーズを入力し、ControlNetの設定部分でEnableにチェック、Preprocessor:None, Model:control-openpose-fp16としています。
エラーは出ずに普通に画像生成まで終わるのですが、出てくる画像と指定したポーズが全然関係ない感じです。
Cannyなども試してみましたが似たような状態で、インストールの仕方間違えたか根本的に使い方を間違っているような気がしています… 現在のモデルやwebuiにはいわゆる『透かし』機能は無いし、正直今は黙ってさえいれば何も問題はない
将来的にはわからないけど、今稼いでる連中は逃げ切り狙いだろうねw >>237
それが問題になる頃には権利関係クリアにした年2万程度で使えてアップデートされていくものが出てくるだろうな
今の流れとして確実に月数千円以内のサブスクになる そのうちモデル同士をネットワークでつないで
膨大な学習データを相互で扱えるようになりそう
そして最後には何をやっても真っ黒な画面しか出力されなくなる 各人の好みモデルがP2Pでグリッドコンピューティングされ人類最強ドエロ動画が造出される訳ですね automatic1111に乗り換えたのですが、NMKDで出来ていた
「一度生成した画像を読み込んで、その時に入力していた呪文を再現する」項目が見つかりません
できますでしょうか >>243
extentionsでimage browser >>245
できました!ありがとうございます
>>244
ちなみにこちら導入方法ググってAvailableから検索はしましたが
この機能は消えてるみたいです 1660superを使っているのですが3060に変えたら劇的な変化はありますか? >>246
image browserでも出来るよ
output内の過去絵を全て見られるし、そこからinfo情報をt2iやi2iに投げられるからとても便利
入れて損はないextensionだよ RTX20x0より前のグラボは画像生成速度遅いからかなり変わるよ
ゲーミング性能だけなら3060より上の1080tiですらAI画像生成で見るとゴミだからね
https://i.imgur.com/8LlRu6p.jpg >>247
1600系は固有のエラーあるしな変えれるなら変えたほうがいい >>248
image blowerが検索してもヒットしないんです
なくなってませんか? >>253
何か表示のオンオフにチェックがついてるんじゃないかな
導入デフォ状態なら下から6個目ぐらいに出るはず
https://i.imgur.com/ve1sIYW.png 昨日から始めて昨日はStable Diffusion Web UI環境構築、今日はLoRAお試しと学習環境構築したんだけどステップアップでやってみたらいいものがあれば知りたいです
それとも好きなことやってこのスレ見てわからん単語とか調べた方が理解が捗るかしら シビタイやらチチプイやら見ながら
琴線に引っかかるのはどんどん生成して単語ごとに区分けして増やして減らして
これを減らすとこれが減って前の画像で使ったこの単語を増やすとこれが増えてとやっていくのが一番かな
で、やりたくて機能的には出来そうだけど今の自分ができないことが出てきたらスレで調べるか聞いてみれ >>254
ごめんなさい、ありました
ありがとうございます >>256
サンキューしびたいは見てたけどちちぷい知らなかったんでそれでやっていきます なんか生成を続けていくうちに服を着なくなってくるんだが 皆さんLORAやモデルのファイル容量はどれくらいですか?
モデルのフォルダ容量が1TBを超えた辺りから?もしくはwebuiを最新版にアプデしてから?
ローカル環境がかなり重くなりました。
「Checkpoint “選択したモデル” not found; loading fallback “少し前に触っていたモデル”」となり、なかなか選択したモデルを認識してくれなくなりました。
解決方法等ございましたらご教授頂きたいです。 2人のキャラを混ざらずに出せる拡張があった気がするんですが
名前をお教えください 複数の画像を効率よくいっぺんに
i2iにかけたいのですが
どうすればよろしいでしょうか? >>260
合わせて3TBは軽く超えてるけど、全部一度に使うことはないだろうし、webuiから見えるところの数を減らした方がいいよ
設定や環境によっては起動時にハッシュチェック等動く場合もあるし、切り替えも遅くなるし選択もしにくくなるしね
バッチファイルでシンボリックリンクの追加と削除用意しておけば、使うものだけサブディレクトリのように見えるようにしてくれるし
2D/3Dやバタ臭い顔/平たい顔族でも使用頻度でも月別でも優先順位でも何でもいい
まさか一つのフォルダに数千ものLoRAは入れてないでしょ?(笑)
とりあえず優先度の高いものはSSDに入れてそれ以外はHDDでいいと思う controlnetでこんなエラーが出て動かない・・
ffmpy.FFExecutableNotFoundError: Executable 'ffmpeg' not found
単純にこのffmpegとかいうのをインストールすればいいのか何なのか 225だけど、controlnet云々は諦めるとして、とにかく特定の背景に何かしらのキャラクター(テキスト生成でもいいし、イラストを元にしても良い)を乗せる簡単な方法を探してます
inpaintで人の形にマスクしてfillというのは見つけましたが、画力が幼稚園児なためかあまり上手くいきません
コナンの犯人みたいな黒人間をおいておくとかも考えているのですが、なにか簡単かつ成功率の高い方法はないでしょうか? >>263
ありがとうございます。大変軽くなりました!
海外フォーラムでも同様の質問をしていまして、
使わない拡張機能も悪さしてくるみたいで、それを消していくと良いよとの助言も頂き、これもまた原因の一つでした。
早朝からわざわざありがとうございました🙇♀ TEXTUAL INVERSIONタグのデータってDLすると.ptファイルなんだけど、このままstable-diffusion-webui/embeddingsにぶちこめばおkの認識で合ってる。。? >>272
そうだね
キャラ再現とかだとLoraには劣るけど実は体位とかのポーズ系はTIでも十分な事が多いからオススメ .pt, .bin, .safetensors
どれでもありうるのなんとかならんか どこに入れるか迷うのってEmbeddingsとHyperNetworkの拡張子が同じ.ptな事くらいじゃない?
それだってEmbeddingsは数kbから数十kbでHyperNetworkは80MBくらいって違いで見分けられる safetensorsも今のところLoraかモデルデータくらいじゃないじゃない?
数MBから数百MBならLora
数GBならモデルデータ TIもHNもLoRAもCheckpointもCNもVAEもいけるぞ
まあ基本的にはサイズで見分けられるけども
LoRAはdimによって3MB~334MBになりうるし >>262
img2imgタブの「Batch」はそういうとき用だと思う
使ったことないからわからんが >>263
> バッチファイルでシンボリックリンクの追加と削除用意しておけば、使うものだけサブディレクトリのように見えるようにしてくれるし
モデルA~Zを持っているとして、モデルAとCとMを使うことがある場合
「モデルAとCとMへのシンボリックリンクをmodels-Stable-diffusionフォルダに作るバッチ」を作っておく
みたいな感じ? models/Stable-diffusion
に指定したフォルダかその中身かへのシンボリックリンクをカレントディレクトリに吐き出すスクリプト置いておくと捗る ACMのみ新規フォルダ作ってそこに退避してそのパスをスクリプトに突っ込んだらmodels/Stable-diffusionに全部出してくれる
みたいな windows風に砕いて言うと「モデル置いてあるフォルダに実ファイル置かずショートカット置いて代用しろ」って事か
しかしそういう風にスクリプト組むのめんどいな、面倒くさがってはダメなんだけど
最近2TBのSSD買い足したので興味ある話だ
俺ならモデルを1ドライブに纏めて単純なフォルダのショートカット置いて、
退避先とmodels/Stable-diffusionをエクスプローラー2窓してモデルファイルそのものを移動させるかな ショートカットとはまた違う
そこにフォルダが存在するかのように振る舞うのがシンボリックリンク 全部SSDに置いてあって起動時の読み込みを減らして早くしたいならシンボリックリンク
SSD容量が枯渇してて使わない大きなデータをHDDに置いておきたいならコピー退避って感じかな 影無しのカラーイラストを出せるプロンプトをご存じの方いますか >>284
わかっちゃいるんだがね
しかしシンボリックリンクて中身つまり実ファイル指定すると結局ロード走っちゃうから意味ないんじゃないかなって >>286
ネガティブプロンプトにshadowぶちこんだらいかんのけ? >>287
要は読み込む人から見て使ってる1ファイルないし少数の限定したファイルのみが見えるようにシンボリックでうまくパスを繋げたり切り替えたりしろってことでしょ >>287
仮に4TBのモデル貯蔵庫フォルダがmodels/Stable-diffusionに出来てしまっていたとして
毎回それをWebUIフォルダごとに4TBまるごとコピーないしは移動するのか……?
そんなことするよりはフォルダの実体を適当な所に置いてシンボリックリンクでそこを参照するようにした方が賢いと思う
ちなみにモデルフォルダはサブフォルダに分けられてても読み込まれる だれか>>268教えて・・・
これが機能しないから、毎回png落としてpng infoから読み込ませてSend to~しなきゃいけない これRTX3060ラップトップでやるのは無謀?無理? >>291
civitaiはトラブル多いからなぁ
今日はダメでも明日なら大丈夫だったりする >>292
スペック的にはvramがやや厳しいけど動く
お試しでやってみるぐらいなら大丈夫じゃないかな
ただ熱には気をつけて シンボリックリンクは右クリメニューから楽に作れる拡張あるだろ
windows以外の話ならすまん
ファイル単位で行けたっけと思ったが試したら出来るみたいだな
フォルダだけだと思ってたわ >>291
今は位置が変わっていて、「生成」ボタンの下(「スタイル」の上)にあるななめ矢印がそれなんじゃないかな
ごみ箱の隣ね
githubのページで青く見えているのはブラウザやOSの違いで、WindowsのChromeはほとんど「/」にしか見えない ごめん書き忘れた、「これ」はStable Diffusionね
>>294
ありがとう、SDについてで良い? automatic1111を使ってる人に質問なんだけど
画像生成中のプログレスバーと生成途中の画像って出てくる?
waifuの時は出てたんだけどautomatic~だと出てこなくなった
settingsのプログレスバーの表示みたいなチェック項目にはチェックが入ってる >>297
ここの話題の9割はソレだから大丈夫
>>174のどちらかがお手軽でいいんじゃね? i2iのSketchを使って既存の背景をボヤけさせたいのですが、うまくいきません
プロンプトにblurry backgroundと入力していたのですが、プロンプトが悪いのかSketchでこういうことをするのが悪いのかわかる方いたら教えてください これ理想のキャラの顔を学習させたのはいいけど、脱がせたいなら顔なしの裸のモデルも学習させないといけない感じですか? >>303
顔だけうまくいけたのなら、身体はモデルのパワーで好き放題
とはいえ、学習させるモデルにもよるけど >>304
即レスありがとうございます。
好き放題にいきます?
学習画像が全部服を着ているので着た状態を学んだ感じなんですよね >>305
実際に試してみたら良いじゃん
服装に関するプロンプト消してnsfw, naked, nude, 辺り入れても脱がなかったら過学習だから弱めて使うしかない >>305
髪が短いなら生首学習でいけるかもだが髪次第だなぁ >>301
img2imgで背景をボケさせるのは難しい気がする
そういう使い方をするものじゃないというか
単にボケさせたいだけなら画像処理ソフトのほうが簡単じゃないかな
Photoshop、クリスタ、Affinity Photo、Kritaなどなど
そういうソフトを使えない事情があるのかな? WebUIの特性上Depthの計算が手軽に行えるので
Depthmapをお供に連れて行ってやってくれ >>306
間違いなく過学習ですね…
顔だけ完璧なので残念ですがやり直します
ありがとうございます >>310
〈lora○○:0.8〉とかにしても駄目だったん?
っていうか(nsfw:1.4), (naked:1.4), (nude:1.4), くらいやってもそれで脱ぐなら別にそれで良いのよ?
折角再現性高いLora作れたのに捨てちゃうのは勿体ないんじゃない? >>308
いや、単なる知識不足です
その画像編集ソフトとペンタブなどがあればできることの幅がもっと増えそうですね >>311
なんというか、数値下げれば脱いではくれるんですけど、
水着の形が薄っすら残る状態(0.4ぐらいでようやく裸にはなる)なんですよね
ただ、顔も0.4ぐらいに下げると原型がほぼ無くなるから最高の顔クオリティで脱がせるには学習の仕方を変えるしかないかなと… まだだ、まだ層別LoRAで顔とそれ以外を分離できる可能性が サンプラータイプのklmsはweb uiで選択できませんか?
LMS karrasは別物のようです >>313
顔が決まってるなら一旦体部分を画像編集ソフトで大まかに肌色に塗ってからInpaintで体だけ出し直せばそれなりにならん? >>312
GIMPっていうフリーのクセにスーパー多機能なソフトあるからとりあえずダウンロードしてみ >>312
なるほど、目的に合わせてソフトを選ぶ段階なんだね
無償で使えるペイントソフトならGIMPよりKritaをおすすめするよ Loraの適用方法ってAdditional Networksから適用する方法と
花札みたいなマークからプロンプトに追加する方法ありますけど違いは何ですか?
実際に両方やってみたけど違いがいまいち分からない… アドバイスくれた方ありがとうございます。
()を多めにして>>311様のアドバイス通りやって無理矢理脱がせれるようになりました。
ただやはり効果を1にすると下着が少し残る感じになるので0.8ぐらいに抑えてやる感じですね
>>316
そこまでやる気力が…w
ただ空いた時間にやってみようと思います。ありがとうございます。 ロリを安定して出すために大人体型を弾くネガティブワードでいいのご存知ないでしょうか? >>292
RTX 3060は6 GB しか V Love がない やばい
ほぼ理想に近いモデルができてしまった
これでおれの性癖は満たされる >>321
むしろchild body girlを強調して強引に押してみる
たまに赤子がでr >>319
花札の方が普通で
LoRA Block WeightというExtensionを使うことで機能が拡張されてUNet層別(UNet内部の要素の中身別(なんと600個を超える))に強度を調整できる
この層別適用はAdditional Networksには無い特徴
ちなみに専用のXYZ Plotが用意されている
Additional Networksの方でLoRAを適用する場合はUNetとText Encoderに対するそれぞれの強度を調整できる
意外とText Encoderの強度変えると絵も変わったりする
このText Encoderの強度を変更するのはAdditional Networks特有の機能
ちなみにXYZ Plotが拡張される
プリセットの保存とか呼び出しとかが便利で基本的に使うのはLoRA Block Weightだけど
たまにTEいじりたい時にAdditional Networks使ってる LoRAって花札ボタンからポチれるけど直接記述してもいいんですよね?
あとLoRAのアイコンのプレビューに画像を出す方法など ああ質問スレだった
もちろんLoRAのファイル名を暗記してるもしくはmonacoやautocompleteを導入してるなら直接書いても問題ない
ただしファイル名が被ってる時の挙動はよく分からないので注意
プレビュー画像の変更はLoRAやTIなどのExtra Networksファイルがあるフォルダ内に同名もしくは同名_preview.pngという名前で適当な画像を入れる他
カードにマウスオーバーした時に出るreplaceなんとかを押すと生成窓にある画像がそのままそこに置き換えられる また、user.cssというものをwebuiフォルダ直下に作成することで既存の該当するcssを上書きできるので
カードの大きさやExtra Networksタブの大きさなど調整できるのでお好みで (なおTIはExtra NetworksタブにあるがNetworkを持たない) 知りたかったことが凄くわかった
御座候差し上げたいレベルで感謝 >>329
LoraとCheckpointsのタブのサムネイルをちょっとだけ小さくしたいんだけど
どう書けばいいの? >>332
.extra-network-cards .card{
display: inline-block;
margin: 0.5em;
width: 8em;
height: 12em;
box-shadow: 0 0 5px rgba(128, 128, 128, 0.5);
border-radius: 0.2em;
position: relative;
background-size: auto 100%;
background-position: center;
overflow: hidden;
cursor: pointer;
background-image: url('./file=html/card-no-preview.png')
.extra-network-cards .card .actions .name{
font-size: 1em;
font-weight: bold;
line-break: anywhere;
} インストールするドライブをc以外にすると失敗するのですが対処法とかありますか? >>333
できた!ありがとう
width: 15em;
height: 21em;
くらいでちょうどよくなった
画像にファイル名が重なってるのが嫌で.cardボックスの下の外側に
サムネに重ならないようにファイル名を押し出したいと思ったけど難しくて無理だった
でもフォントサイズは1emにして小さくできたからかなりマシにはできた
.extra-network-cards .card .actions .name{
font-size: 1em;
font-weight: bold;
line-break: anywhere;
} まず対処の第一歩として主語目的語などを考えてみると良いと思います
そしたら次は失敗とは何なのかを考えてみましょう マイクロビキニを出したくてmicro bikiniでやってもドデカビキニになってしまいます。。どなたか良いprompt知りませんか。。 >>338
NovelAI時代からMicroBikiniは全然マイクロじゃなかったからプロンプトだけじゃガチャするしか無さそう
ローカル環境ならTextual Inversionがあるみたいだけど
https://civitai.com/models/4675/microkini >>317>>318
ありがとうございます
インストールしてみます! 半月ぐらい使って解決しないことが2つあります
・2人人物を登場させたとき、片方にだけメガネをかけさせる、髪型を別々にさせる等、個別に指示が出せません
(left girl~)and(right girl,glasses~)とすれば極稀に片方だけかけてくれましたが、ほとんどが二人共メガネ姿になってしまいます
・地面やベッドの上に、ベッドとは関係ないもの(鞄やスマホ等)をon the bedで置こうとすると巨大な敷布団鞄になってしまいます…
何か解決策はありますでしょうか ping内の情報から転送して生成しても同じ画像にならない時があるのはなぜ? >>343
1.modelが切り替わってない
2.CLIPが変わってる
3.xformers使用時の差異 >>342
二人の人物に別々のプロンプトを適用したい時は、『AND構文』を使うかlatent couple (extension)を導入する
https://twitter.com/parco_opaai/status/1624216821732868096?t=nwombR8CsLHnj4uyTbhIRA&s=19
細かく構図や物を指定したいのなら、controlnet(extension)を導入してみるとか
どれに関しても調べると詳しく解説してくれるサイトがあったはず
https://twitter.com/5chan_nel (5ch newer account) >>344
そうか少し経つと同じ画像に生成されたから
まだモデルを読み込んでたのかもしれないな
起動してすぐだったし もう一つ質問よいかな?
プロンプト足したら別画像になるのは仕方ないんだけど、結果が気に入らなくて足したプロンプト消して生成しても元の画像に戻らないのはなんでなんだぜ?もちろんシードは固定にしてる 引きずってんだろ というか前引きずってのか解放された >>347
>>348が言うように切り替えがうまくいかないのはキャッシュ系のバグだとは思うけど、メインメモリ足りてない可能性ある
もしくは同時に色々作業してないかな
快適に遊ぶなら32GBは欲しい
あと編集したプロンプトを戻したい時は自分で消さないでCtrl+Zでアンドゥしたほうが確実
何回か前までは戻れる
そして挙動がおかしくなったら一度webuiを、場合によってはPCごと再起動、しかない >>349
メインメモリは64GBだ。ちなみにグラボはrtx2060の6GBだからこの辺がボトルネックなのかな。
けど今日はその問題は再現してないから、よくわからんね。rtx3060に変えたい 学習させるのに素材画像数って多すぎない方がいいとかあります?
なんか少ないほうがちゃんと学んでくれてる気がする よく学習素材は量より質だって言われるね
絵柄統一されたくないならともかくそうじゃ無いなら品質低いファンアートとか入れるべきじゃない スマホアプリのfaceplayとかは顔画像1枚だけで結構きれいに合成してくれるよね
簡単に顔スワップできる方法ないかな >>342
> ・地面やベッドの上に、ベッドとは関係ないもの(鞄やスマホ等)をon the bedで置こうとすると巨大な敷布団鞄になってしまいます…
これはimg2imgのレタッチ(inpaint)が手っ取り早いのでは >>351
どまでが多くてどこからが少ないの?100枚とか回すのに時間かかるし
量より質で10~50枚くらいなら1枚づく加工したりtxtチェックして書き換える気にもなる loraについていくつか教えて欲しいです
1:二次で学習向けのモデル(不向きなモデル)って何かありますか?(学習したいのは萌えアニメぽい平板な塗りの絵柄の絵。エロ含む)
2:絵柄の学習したい場合使う絵の適切な枚数はどのくらい?100枚以上じゃ多すぎ?
3:↑の複数画像に同キャラがいるのだけどキャラ認識のタグをtxtに書き加えてしまっていい?(WDTaggerで作ったタグtxtの中にキャラ名は入ってなかったので)
4:おすすめのLORA指南サイトあれば(としあき、経済的〜、くろくまの3つ見てるけどどこもやり方に違いがあって混乱中 Civitaiで気になった画像で、プロンプトなどがあるものを再現しながら勉強しています。
しかしながら、まったく同じにしても全く違う画像が出てくる事が多いです。
2Dはほぼ再現出来てる、3Dは同じプロンプトでもかけ離れた画像が出る事ばかり。
これへ画像投稿者が、違うプロンプトを投稿したのだろうと思っているのですが、ほかに何か原因はあるのでしょうか。
GPUは3060なので影響していないと思うのですが。 プロンプトや設定を手動で入力しているならまずはそれを辞めよう
多分civitaiには
1 giro loli
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 2309338963, Size: 512x512, Model hash: ca76b0ef80, Clip skip: 2, ENSD: 31337, Eta: 0.68
と言った感じでプロンプトとその他設定が載ってると思うんだけど
これを丸々ネガティブじゃない方のプロンプトのところにコピペして
>>296で言われている矢印を押すと設定ごと勝手に入力される
次にネガティブプロンプトを確認して
bad-artist, bad-prompt, bad-hand, deep-negative, bad-image, easy-negativeなどがあったら注意
これらはTIによるEmbeddingで、何も導入していないと見た目通りただのトークンと解釈されるが
TIをちゃんと導入しているとEmbeddingそのまま渡される(だったっけ)
そういうのがあったらcivitaiやhuggingfaceなどで検索をかけたり、stable diffusion bad-imageみたいなググり方するとか
あとはdiscordのAIコミュニティで検索かけるとかすると見つかるかもしれない あと稀に結構古いモデルやLoRAなどが置いてある可能性があるんだけど
WebUIのバージョンの遷移で再現できなくなってしまうこともあったはず
代表的なのはhighres.fix→hires.fixとか
LoRAを適用しているけどプロンプトに<lora:loli:1>みたいな指示が残らないとか
そういうもの
前者は古いWebUI入れるとして後者のそれはもう諦めるしかない >>357
1.ベースモデルとして無難なオススメはACertainModelかNAI
生成モデルが決まっているならそれでも良いけど汎用性は下がる
2.『質にもよる』けどだいたい30~ぐらいあれば大丈夫だとは思うけど『質にもよる』
3.以下参考で
https://rentry.org/dsvqnd
4.なんJNVAに飛び込んで揉まれてくる >>359
>>360
ありがとうございます。
諸々試してみて難しいようならば、無理だと割り切るようにします。
ネガティブプロンプトに言及している部分が、今の私にはまだ理解が難しかったので、これを機に勉強してみます。 実写系で軽い処理設定で画像を多く生成した後に出来の良いものを
同じシード値でHires. fixを使って再生成&アップスケーリングする手順で行っていますが
若干顔や身体の形が変わってしまい魅力を失ってしまう事が多いです
なるべく元の画像を変えないHires. fixのオススメ設定値ありますでしょうか? 後処理でいいならExtrasタブのアップスケーリングでも。
実写はESRGANあたりで結構きれいになるよ >>339
早速感謝です、、!使ったらだいぶ良くなりました!
もう少し色々試してみます! >>340
こんなのあるんですね!ありがとう!やってみます! >>361
ありがとう〜どれもくっそ参考になります
一人で調べながらやっててもよく分からんことも多くて心折れそうになるのでほんと助かる すいませんLoraについてもう一つ
1800✕2400みたいなクソデカ画像って自分でリサイズせず学習画像に使っても特に問題ない
(自動で指定の最大サイズ以下に縮小してくれるし学習時間も変わらない)って事であってますかね? >>364>>365
最初からHires.fixで生成した方が顔の形が整ったり精細さが上な気がします
やっぱり元を変えずにやるのは無理ですか・・・ >>369
あまりデカイと処理に時間がかかるから、事前準備として適度なサイズにしておいたほうがいいとは思う
あとキャラクターだったら切り抜いたり
量よりも質を重視したほうがいい そもそもモデルによって出る出ないあるよね
chilloutmixなんてLORAモリモリにしないと何もできないじゃん 自己学習ってするとエロくなるの?目的はエロオンリーなんだが >>373
クソデカ画像のまま始めてみたらなんかやたら遅いし結局メモリエラーで落ちたので小さくしてみます
キャラ切り抜くっていうのは背景抜いてキャラだけのほうが学習精度が上がりやすいってことですかね? nmkdなんですがsafetenserファイルが使えなくて困ってます
モデルのsafetenserはスパナアイコンのコンバートから変換できますが
loraのsafetenserはエラーになって変換できません >>377
そういうこと
キャラ切り抜いて白背景のほうが余計な情報は入りにくい >>378
結局のところNMKDはビギナーの入門用でしかないからどうしようもないな
出来ることはだいぶ限られている
早い段階でAutomatic1111への乗り換えをオススメする
導入で躓きそうならスタンドアローンさんのやつでもいいと思う(これはこれでビギナー向けなので若干制約もあるらしいが 気が付いたんだ
いろんな単語入力して出力試しての繰り返し
ディープラーニングしてるしてるのはむしろ人間ではと・・・ 学習のさせかたについてなのですが
例えばタレ目の女性を吐きたいと思った場合タレ目の女性をtaremeとタグ付けして学習させるのとタレ目の切り抜きをeyeとタグ付けして学習させるのではどちらが効果的なのでしょうか? AIの呼称が先行してしまって、使ってるうちに勝手に学習してくれると思ってる人がかなり居るみたい 理解が足りてないかもしれませんが乱暴に言うとLoraなりで好みの要素を持った素材画像に呼び出し用タグをつけてベースモデルに対して追加することを学習と言う
というふうに思っていますが合ってますか? 風来のシレンみたいなもんか。キャラクターは毎回レベル1に戻るけどプレイヤーが成長する。 エポック数と繰り返し数がよくわかってない自分がいる。
わかり易く説明してくれないでしょうか
よくわからないから両方10にしてるが。 >>382
前者で
>>384
だいたいあってる
既存の学習モデルに直で追加学習を埋め込む方法もあるし、LoRAや他の追加学習のように、元モデルありきで別ファイルとして学習ファイルを作るもので分けられる >>383 フィードバックがないと学習しようがないからな。それは間違ってるとか。 AIに仕事を奪われるなんて、心配する必要がない。
AIが答えを出しても、フィードバックを返さなければ学習はできない。
ましてや AI が正しい答えを出したときに、「クソ野郎」「無能が」というフィードバックを
返せば、AIの知能はかえって劣る。 AIに仕事を奪われるなんて、心配する必要がない。
AIが答えを出しても、フィードバックを返さなければ学習はできない。
ましてや AI が正しい答えを出したときに、「クソ野郎」「無能が」というフィードバックを
返せば、AIの知能はかえって劣る。 同じプロンプトを2回組み込んでも結果変わるし。
ほんと試行錯誤だよなあ ClipSkipって結局なんなのですか?
なんとなく画風が変わるのはわかるんですが >>386
わからないなら10~20ぐらいでいいかと
ランダムにタグ順を入れ替えたりしながら画像を覚える工程を何回やるか、が回数
例)10枚x10回=100step
その学習工程を何セットやるかがepoc
例)10枚x10回x10epoc=1000step
epocが少ないと学習不足になりがちだが増やし過ぎると過学習に
素材の質や枚数、学習させたい内容にもよりけりなのでベストがいくつかは誰もわからないかも
詳しい話はwiki等で調べてみて
https://seesaawiki.jp/nai_ch/d/Dreambooth-LoRA >>395
ありがとう。
学習画像20枚と学習画像120枚で同じ周回、同じエポック数でやって、前者のほうがいい結果だったから不思議だわ
色んな写真を覚えさせると逆に似なくなるのかもね >>398
1種類の顔画像(サイズは変える)を水増しして学習成功させてる人もいるし、正解がいまいちわからないんだよ
しかも最近Loconていう新方式が出たのでまたそっちで検証し直さないと... 日々新しいのがでてどんどん更新されて面白すぎるんだが全く追いつかないな
みんなどうやって新情報仕入れてるんだ? 何処ぞのwikiの[最近の主な出来事]眺めてれば、主な出来事は追えるんじゃね controlnet+loraでだいたいやりたいようにできるようになってきたが
そうなるとこんどは百合百合させたいとか願望がもりもり湧いてきて
latent coupleってのに手を出したがうまく使えないんだよなあ
混ざってフレイザードみたいなのができてしまう
>>401
なるほどそのへんかあ Loraのトリガーワードって、UP元が消えたりしてわからなくなっちゃったら終了?
逐一メモ帳にメモっとくしかないんですかね? >>403
イメージとトリガーワードをスクショ
サンプルのプロンプトのtxtファイル
loraのファイルの3点セットで保存してる stable diffusionでモデルとプロンプトその他は固定して、シード値だけ変更して例えば50枚生成×複数回出力するとして、生成される絵の傾向って1枚ごとに順番で大体固定されてると思うのですが、これって何かしらの手段でコントロールすることってできるのでしょうか? GTX1650でも動くんだすごーい!とAUTOMATIC環境作ってしばらく遊んでたんだけど、突然torch.cuda.OutOfMemoryError: CUDA out of memoryが出て、
PC再起動しても同じエラーが出るようになってしまった…
低メモリで安定させる工夫って何かありますか?lowvramとかは試してみましたが変わりませんでした… 1600って固有のエラーでしょ
再インストールかvenv新しくするとかなんかスレ遡ったら書いてあるような記憶が
スマホからで見れないから遡ってみてくれ inpaintで画像の一部を直すとき、画像のほんの僅かな部分をマスクしても普通に全部画像を生成するのと同じくらい時間が
かかるんだけど、これはこういうものなのかな?
それとも何か設定があるんだろうか >>406
16X0番台のグラフィックカードの場合
--xformers --lowvram --precision full --no-half >>406
自分の場合ならhires ifxにチェックが入ってるとか
どっかの設定かわってないかな >>407
そうなのか…webui再インストールで動き始めました、ありがとう!
>>409,410
再インストールで対応できてしまったので試せてないですが、次あったら忘れずに試してみます!回答ありがとう! >>382
アイにしてしまうと全員たれ目になってしまうのではないか controlnetで
ffmpy.FFExecutableNotFoundError: Executable 'ffmpeg' not found
というエラーが出でて出力が出来ないのですがどうすれば良いのでしょうか
ffmpegはインストールしてあってコマンドプロンプトでffmpegのバージョン確認も済ませてあります スペックたりないからcolabでやってる初心者なんだけど質問。
スレの流れを読んだ感じcolabでやる場合はエロに気をつけなきゃいけないみたいだけどプロンプトでnakedとかを入力しないようにきをつければいいんかな?
クオリティ高い絵を出すためにloraってのを試してみようと思ってるんだけどcolabでやるときに気をつけたほうがいいこととかってある? なんか、特定のモデル使うと、明暗のくっきりしてる境界に紫色の染みが出るんだけどなにこれ >>414
モデルによってはやたらとアダルト出すようになってるから
なるべく気をつけるくらいしかできないってので
みんなローカルを勧めてるはあるんじゃなかろうか
せめてロリだけは出ないように気をつければそこまで危険はないだろとは思う
ロリのエロだけはまじ気をつけてくれ >>415
それもどっかでみたなあ既存のトラブルの予感
前スレかもしれん >>416
最近話題のAIコスプレイヤーみたいなリアル系に手を出すつもりは全然ないんだけど二次系の貧乳キャラとかを出すためにsmall breastsとかのプロンプト入れる場合も危なかったりするのだろうか?
エロ目的じゃないからnakedとかを入力するつもりは全然ない GeForceのLHR版、マイニング出来ない様にしてると言う奴でもSDは問題無いんですかね? >>417
ググったら、VAEがなんたらってあったわ
これのどれを適応すれば良いんだろ >>413
インストールしてないから出ないんです
webuiが実行される環境はあなたのPC本体ではありません >>418
真面目に聞きたいんだけどマイニングとAI絵描きに何の関係があると思ってんの? Google Colaboと比べてローカル環境のメリットは何でしょうか?
月1000円か5000円で良いグラボが使えて(ほぼ?)使い放題に比べ
ローカルですとグラボも考えると最低でも20万円弱はかかりますよね
24時間使い放題はあると思うのですが、
オリジナルキャラクターを学習させて自動生成が容易になるとかでしょうか? >>424
Google colabは改悪されて月額払えばずっと使えるわけじゃねえぞ
従量課金だからポイント購入して一時間につき何ポイント払うとかそういう感じ >>422
どう制限してるのか知らないので、cudaの使い方が一般的な3D描画と違う使い方してる物
全般に効いたりする事は無いんかなと >>424
colabはエロでBANされる可能性がある StableDiffusion UI導入してみたんですけど、
パラメータってググりながら理解していくしかないんですかね colabは一番安いGPUを選択して1日8時間ぐらいしか使えない
8時間で十分って人なら良いけど
海外のガチで学習させた人のレポで
上位GPU使ったら2日で1月分使い切ったと書いてた ガチャで引いたいい感じの女の子量産しようと、その1枚の画像元にLoRA作ろうと頑張ってるけど、なかなか理想通りにならない。
どういうアプローチすんのが正解だろうか。 >>432
なんUの生首学習法はどうだろう
首から上だけ画像編集ソフトで切り抜いてから左上に配置した画像、右上に配置した画像、左下配置した画像……それらの顔を反転した画像……って感じにしたのを数十枚作ってから学習回すらしいけど
手間は掛かるけど一枚の立ち絵から完璧に再現してたよ OrangeMix系列とかAnythingを使ってみたんですが、女の子生成するとすぐ服を脱ぎ始めちゃうんのはそういうもの?
ネガティブにnsfwとか入れてみてもなかなか抑えられなくて、どのあたりがちゃんと服を着てくれるポイントなのかよくわからない。 orangemix3はgape60って言うエロモデルをマージし過ぎてるから過敏だって聞いたな
orangemix2_sfwの方が良いんじゃないか >>434
今はじめてAnything使ってるんだけど
一度nsfw入れたら後から取っても脱いでるw 5chに書き込むのは10年ぐらい振りなのでルールとか間違ってたらごめんなさい。
2日前からhuggingfaceで一切生成できなくて本当に困ってます。。
Computeで生成開始するとModel is loadingが始まるのはいつも通りだけど、
数分後にModel ●●●●●● time outになって生成不可能です。
すべてのページで同じ事が起きます。
普段から50回に1回くらいの割合でこう言うのはあったけど、おとついから100%こうなりました。
気付かないうちに変なとこいじって設定を変えちゃったんでしょうか。
「Model is loading time out」で検索しても全然出てこないし。
英語読めないのとプログラムが分からないので、AI生成の知識もないんですが、
解決を教えてもらえたら助かります。かなり困ってます。 >>430
基本はwiki見るしか
ただ、だいたいは固定になるよ
そう多くはいじらない >>430
俺も最近始めたばっかだけどパラメーターに限らず明らかに自分で考えてどうにもならん事以外はとりあえず触ってみるのが一番理解が早いし確かだと思う
というか調べて確かな情報が何でも出てくるんだったらいいけど今本当に日進月歩のジャンルだから情報が錯綜してるし
調べてもろくに出てこない事も多いから効率悪くても手探りのまま突っ込んでくしかないと思う >>437
どこぞのデモページの話なんだろうけど、サーバのトラブルかもしれないし、そういうものだと割り切るしか loraやろうとおもってpixaiで気に入った絵の作品情報漁ってるんだけどloraってのは
モデル abyssorangemix3AOM3_aom3a3っていう部分でいいのかね?
AbyssOrangeあたりのloraを導入すれば顔が変!とかフリルがきれいに描写されない!みたいなことが減ると考えていいのだろうか?
あとおすすめのloraとかってあるんかな?
初歩の初歩で申し訳ないんですが、いくつかサイト見ても版権キャラのloraについてばっかりで絵自体のクオリティ上げるloraについてよくわかんなかったから質問 >>433
横からでゴメン。
生首学習法、試してみたいので教えて下さると助かります。
当たりを引いた画像の顔を切り抜いてから左上に配置する、というのは同じ画像内でしょうか。 >>443
別スレの過去ログを読んでいてたまたま見つけた
> なんJNVA部★161
> https://fate.5ch.net/test/read.cgi/liveuranus/1677643860/861
> 861 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7628-W5vA)[sage] 投稿日:2023/03/02(木) 18:44:53.10 ID:2ya4aVuk0
> >> 852
> 生首やるならいきなり大量に素材用意しようとせずに、まずは元絵1枚で素材用意してどんな感じになるか試すと良い
> 顔だけ切り出しだ画像のサイズが例えば256x256のサイズだったら
> waifu2x-caffeとかフリーソフトつかって512x512、448x448、384x384、・・・128x128、みたいに拡大版と縮小版を増やす
> 生首学習はコラージュみたいなものだから顔のサイズが素材と同じサイズじゃないと上手く出力できない
> なので素材に色々なサイズの顔を用意する
> ついでに白背景と透明背景のどちらの方が良い結果になるかとかも試しておくといい 画像全体の生首ならサイズだけで、位置は関係無いの?
てっきり生首のサイズが512x512だったら256x256に縮小して、
大雑把に左上0,0、上128,0、右上256,0×3段の9枚、
更にはもっと段数細かく用意したりしないといけないのかと思ってた 俺が見た生首学習方は左上に配置したのを一枚、真ん中上に配置したのを一枚、右上に配置したのを一枚、中段左に配置したのを一枚、ど真ん中配置したのを一枚……って感じだったかな
9枚用意し終わったら解像度縮小したり拡大したりで更にかさ増しするって感じ >>442
まずそもそもLoRAについてだいぶ勘違いがあるようなので返答が難しいな >>447
あの後よくよく調べたらモデルとloraはまた別なのね
AbyssOrangeとかはモデルなのね
となると配布されてるloraの役割は特定のキャラを出すっていうのが主な目的になるのかね? >>442
civitaiあたりでサンプル持ってきてサンプル通りにやってみたほうがいいな
とりあえずやってみれ
使い方はwikiでも見て調べてみてくれ 結構勘違いもあったみたい。もう少し調べてとりあえずやってみます。ありがとう Colab出も同じようにエラ―になりました
Anything4を起動したら、
Space not ready. Reason: RunContainerError, message: context deadline exceeded
とか
Cannot add middleware after an application has started
とかのエラーになりました。
これで検索すると割りとよくあるらしいので、
どうやらアップデートに自分が追い付けてないっぽいです。
自分が、huggingfaceでもColabでも更新できてないから生成も起動も出来ないぽいです
しかし、どうしたら改善できるのか分からないです。
たぶん、みんなはこれを経験していて、とっくに対応できてるって事ですかね? >>451
どこを見てなにをどうやっているのか説明がないので答えようもないんよ
huggingfaceの、colabの、と言われてもURLがわからないと状況の確認もできないよ >>451
すまんどんな環境で何をやってるのかがまるでわからない >>450
モデルはメインの学習データ
モデルごとに学習内容や出やすい生成結果に違いがあるので用途に合わせて切り替える
また、現状のモデル郡には血筋のようなものがあり、製法によって似てるモデルや遠いモデルが存在する
LoRAは簡易的な追加学習データ
キャラやポーズなど、モデルにはない要素を後付けで足すためのもの
LoRAはわりと簡単に個人でも作れるが、元にしたモデル依存になるので、系統の違うモデルに対して適用しても効果は薄いことがある >>451
現在SableDiffusionというお絵描きAIを使ってお絵描きを楽しむ方法としては、
1.ラインやスマホのアプリを使用
2.NovelAIなどサブスクサービスを使用
3.haggingface等で触れるデモなどを使用
4.colab上に構築された環境を使用
5.colabなどを使用してwebui環境を構築
6.ローカルPC上に環境を構築
たぶん3か4なんだろうけど、本人もよくわからないから説明も出来ない状態な感じかな Depth map library and poserってやつの記事見つけたから
今日帰ったらこれをやって遊ぼう
棒人間に手をつけてcontrolnetするような感じか 7th anime v2 c使うと画面が必ず暗くなるんだけどこれって仕様なの?参考画像とか見てる感じそんなことないんだけど 単純な質問なんだけど、シード固定すると顔はある程度固定されて色々な服装に変えられるんだけど、ポーズ変えるプロンプト入れてもほとんど変化しないんだよね。これは何かポーズを固定している強力なプロンプトが構文の中に潜んでいると見て良いかね? >>460
もしくは、そのポーズ自体が学習されていないか
もちろん中にはポーズとセットで学習されちゃったタグもあるだろうし、色んな組み合わせの結果なんじゃないかな
ネガティブプロンプトも込みで >>461
まっさらな状況でポーズ入れると反映させるから
やっぱりプロンプト絡みかねえ。それっぽいのはないんだけどなあ >>451
さっき10時過ぎまでAny~使えてたけど
やたらといっぱいモデルを読み込んだりとかはしてない? 白目部分を黒くするプロンプトとかある?
俗に言う黒白目を作りたいが答えが全然見つからない
sclera eye のプロンプトだと近いのはできるけど顔全体が崩れがちでそもそも反映されないことも多い PC板でエラーが発生したのでまたこちらで聞かせてください
皆さんってインテルとライゼンどちらを選んだんですか? >>465
画像生成AI(ローカル環境)での話ならCPUはIntelだろうがAMDだろうが大差は無いんじゃないかな
(自環境だと実行時のCPU利用率は10%以下)
大きく違うのはGPUでnvidiaとradeonとの差は現状だと顕著 大阪大学の研究者ら、頭で思い描いたイメージをStable Diffusionで描き出すことに成功
2023年3月5日
これを実用化すれば・・ ちなみに私はRyzen & radeonで頑張ってます
>>468
ヤバい時代がきたなw >>468
ウソ発見器が突然ブレイクスルーだな!
国会議員にもつけようぜ img2imgのレタッチのinpaintについて詳しく説明してるサイトとかあります?
やろうとしても全くわからなくて
黒く塗りつぶしたところをまた読み込んでやり直す的なことだとは思ってるんですけど。 生成画像の書き出し時に起きるspikeをなんとか軽減できないかなぁ
upscale 時に最後の最後で躓くのが悩ましい
サイズ小さくすれば良いんだけどね 久々の5chなので上手く書き込めなかったです。
ERROR: このスレッドにはもう書けませんとか、マルチポストとか表示されて…。
いまtestって入れたら出来たので、改行制限があるのかな?
これは書き込めるかな?
サイト名やURLを入れようとすると「このスレッドにはもう書けません」が出るみたい? あれ?sageは保存されないんですかね。申し訳ないです。。URL部分も含めてレスしますね。
huggingfaceのAnything-V3-Xなど「すべてのページ」
>>437
huggingface.co/iZELX1/Anything-V3-X
2日前から、生成時にModel is loadingが終わらないままタイムアウトになり、
生成不可能のままです。 あれ?sageは保存されないんですかね。申し訳ないです。。URL部分も含めてレスしますね。
huggingfaceのAnything-V3-Xなど「すべてのページ」
>>437
huggingface.co/iZELX1/Anything-V3-X
2日前から、生成時にModel is loadingが終わらないままタイムアウトになり、
生成不可能のままです。
colabの「anything-v4.0」
>>451
colab.research.google.com/drive/1QHX9YYr3bzljHugHz53L0d1WYWBrmBIr?usp=sharing
colab.research.google.com/drive/182bAk3s3yuALSXOpaY6b9yTASVYAPdGI#scrollTo=SaAJk33ppFw1
起動時にこれら↓エラーが出る。生成されたURLをクリックすると502
Space not ready. Reason: RunContainerError, message: context deadline exceeded
Cannot add middleware after an application has started
URL文頭を除外すると書き込めるんですかね。連投して御免なさい。
昼に質問したっきり、レス出来なくて済みません。外出してました。 >>477
haggingfaceに上がっているanythingなどのモデルを
Google colabで呼び出そうとするとエラー吐くよってことで発生してる問題はあってる? 色々とレスして下さったようで助かります。自分でも色々調べて見ますね。
連投と改行とageで申し訳ないです。。
ちなみに自分は、プログラミング、モデル、GPU等のシステム面は疎いですが、
呪文、イラストの方面は詳しいと思うので、回答側も出来るかも知れません。 >>480
どんな環境を作ってあって
どうやってなにをやろうとするとそのエラーが出るのかをまずは説明するんだ >>479
その辺もサッパリ詳しくないまま生成を4か月やってる人間な訳です。
用語はチンプンカンプンなんです。
イラストの方は経験があるので、
手ぶらでアクセスするだけで生成できるhaggingfaceを重宝してたんだけど、
生成以外の知識はさっぱりなんですよね。
改めて、1から勉強するタイミングだと思うだけど、まず生成自体が出来るように戻さないと。。 >>480
ローカル環境でオートマチック1111すれば
自分のやりたいようにできる
おまけに情報も多い
解決も容易 >>482
huggingface自体はAI関連のデータ等を共有し合うだけのサイトだと思ってよ
そして君が使用してるソレは、huggingface上で個人が勝手にやってるだけの『山ほどあるサーバーのうちのひとつ』に過ぎない
なのでトラブルについてはここで聞いても答えられる人は少ないと思う
そもそもそこを使用している人は皆無に等しいだろうから
マジでやるのであれば推奨スペックを満たしたPC(20万前後)を用意するか、オンラインサービスを利用して、自分だけの環境を構築するかという選択になるかも
どちらも厳しいのであればNovelAI(AIお絵描きのサブスク)に課金が無難かね >>481
haggingfaceの【Anything-V3-X】 → huggingface.co/iZELX1/Anything-V3-X
PCは、10年前の中古のWindows7のノート。
現在は、computeボタンを押して生成すると、数分の「model download」があり、
数分後に生成不能で終わり、【Model iZELX1/Anything-V3-X time out】が表示されてる。
今までは、1時間に1回くらい、そんな感じのエラーはあったけど、今は2日以上このまま。
ついでに、先月に使ってたcolabの【anything-v4.0】で起動しても、
URL生成と同時にエラー↓が出て、ジャンプしても生成画面じゃなく、504になってしまう
Space not ready. Reason: RunContainerError, message: context deadline exceeded
Cannot add middleware after an application has started
同居人が使ってるPCを試しても同じ現象。
プロバイダ単位かとも思ったけど、haggingface単位かも知れない。
でも、haggingface単位であれば同じ症状の人がいるはずだけど、検索しても出て来ない。
これは、「他の人も同じ症状だけどすぐに解決した。でも自分は素人なので対応できてないだけ」かな?と >>484
>huggingface自体はAI関連のデータ等を共有し合うだけのサイト >山ほどあるサーバーのうちのひとつ >トラブルについてはここで聞いても答えられる人は少ないと思う
なるほどですね。
薄々感じてたんだけど、自分が今まで使ってたサイトに「DEMO」とか書いてあるのは、
本サイトから抜き出したお試し版とか、廉価版なんですかね。
よそ様の生成作業は見た事ないので、色んな形式があるっぽいんですね。
いずれにしましても、自分は手持ちがないので、従来通りhuggingfaceで出来るような
無料生成があれば助かります。huggingfaceで生成可能に戻ればいいだけなんだけど…。
もう一つは、「無料のおすすめサイト」をまとめた記事を探すのがいいかもですね。 >>485
なるほどhagging faceのどっかの誰かがテスト用に用意したサーバーでエラーが発生してるってことか
誰もその中身しらないしいじれないから多分解決できないかな
みんなが言ってる通りローカルでやるのが無難
hagging faceでどうしてもならその人が勝手に直してくれるのを待つか
新しくその人が作っていたようなものを見つけるかじゃないかな VAEどれを選んでも目がチカチカするような濃い塗りになるようになってしまった
塗りの強度?を調整する項目ってありますか? ローカル環境、オンラインサービス共に金のかかる分野だと思うよ
ここで投資するかどうかは後々響く事案
(自分もradeon使いながら言えた事ではないがw) >>486
いや20万ぽっち出せないのはAIお絵描きで遊んでる場合じゃないと思うぞ >>486
ざっくり説明すると
君が使ってるお絵描きAIはStableDiffusionと呼ばれるもので、使用していたサイトはAnythingという学習モデルだけを試すことが出来るデモページ
大半のユーザはそのStablediffusionを使うための専用アプリケーションを使用している
その専用アプリケーション『Automatic1111webui』はローカルPCはもちろん、colabなどのサーバー上でも環境を作ることが出来るので、マシンスペックが満たないユーザ達はcolab等を使ってAutomatic1111webui使用している
無料使用だと容量オーバーですぐストップされがちだが、頑張って調べてAutomatic1111使える環境を構築しておいても損はないかと いろいろ参考になりました!
今まで使ってたhagging faceは、売り物になるレベルのエロとクオリティだったので
使えなくなって絶望してたんだけど、
じゃあ似たような条件のサイトややり方は他にもあるっぽいんですね?
AI生成の環境や日進月歩は止められないみたいだし、よく調べれば見つかるっぽいですね。
もし解決しましたら、自分と同じ悩みのある人の助けになるかもなのでコチラで報告するかもです。 ツッコミどころ満載過ぎてw
まぁ、捕まらないように気をつけてね まずWebサービスではないことを理解した方がいいかもね
まあそういうのも勉強だしね
頑張りなよ 他人のよくわからんサーバ使うって感覚がすごいな
そのサーバーの持ち主には作った画像が筒抜けってことやろ?怖くてやってられん >>490
そうなんですよねー。破産間際だった所にAI生成を見付けて、
ここから巻き返そうとした矢先なんですよね。
>>491
他の皆さんもですが、お蔭でいろいろ分かりました。
さしあたり1111を調べてみます。
つべ動画で導入方法をいろいろ紹介してるみたいですね。 >>496
適当な第6世代くらいのpcと1050tiあればギリギリいけるんじゃないか
ケチりにけちれば2.3万でギリギリ動く環境は作れそうな気がする
快適とは程遠いだろうけど >>496
まぁ商売にすんなら止めないけど、すでに飽和状態で厳しいと思うぞ
クオリティも段違いだしもはや誰でも出来る状態になっちゃってるからなぁ
https://majinai.art/
https://www.chichi-pui.com/ バリバリの高性能セットで次から次へと画像生成できる人が溢れている今、ギリギリのスペックで生成して一発逆転…?どういうことだ…? 性能が良ければ良い絵が出来るわけじゃないからな
画力で並んだ今、個々の美的センスが問われる事になる エロいのなら性癖満たすかだからな
そこはあれだな自分の趣味嗜好との相談だw まあ高性能なグラボ搭載やつを使わないと
作成が遅いので結局ガチャだからね
いいやつを引くためにはガチャを何回も
回さなくちゃいけない 俺もデモページで生成したイラスト売って楽して人生巻き返したいな 意外と売れるぞ
fanbox支援してくれる人も出るし
ただ時間効率って面での費用対効果が働いた方が早い圧倒的に
引きこもりで自炊のエロ絵作って捗って
さらにお小遣い稼ぐって手段にならいいかなと思う 支援してるのわいせつ画像取り締まり目的の警察だったりしてw まじなのになあ
信じてくれないなくても困らんからいいけど >>296
これやってもポジティブにしか書き込まれなくて機能しない 売上と投資額がはっきりしない以上売れるとも売れないとも言えないのでは 凄いセンス持ちでも無ければ各種生成も選別もAIがやってくれないと割に合わん うんだから時間効率は悪い
引きこもりが自分のおかずの自炊ついでにお小遣い稼ぐ程度にはいいんじゃないの?ってのがやってみた感想
もっと自動化できれば面白いことになりそうだとは思うから研究かね 1アクセス0.5円くらいでもいいから俺の絵が収入になる海外エロサイトない?
電気代くらい回収したいw civitaiからコピペすると、overridesettingで
Clip skip:2
ENSD:31337
Eta:0.67
って出るんだけど、これどういう意味ですか? 金という邪気が混じるとコンテンツが濁る
グーグル検索でヒットするHPもアフィまみれになったように 俺は実写系じゃなくてイラスト系のロリばっか生成してるのでセーフ ローカル用にPC購入しようかと考えていて20万くらいで3060にするか
30万くらい出して4070Ti買おうか悩んでるんですが、
出来ることやスピードに違いって出るものなのでしょうか。 >>517
NovelAIの出力を再現するための設定数値だな
CLIPの説明については>>396
他の二つについてはサンプラーEular aの設定のこと
AUTOMATIC1111webuiでの変更はsettingタブの
Interrogate option のCLIP skipを2に
Sampler parametersのEta noise seed deltaを31337に
Sampler parametersのeta (noise multiplier) for ancestral samplersを0.67に >>520
確かに3060より4070tiのほうが『画像生成速度だけ』なら断然速いけど、Vramが同じなので速度面しか優位性がない
VRAMは追加学習や生成サイズに直結しているので、お絵描きAIメインで考えているのなら3090vram24か4090vram24まで行ったほうがいいかも?
もしくは今は3060にしといて5000シリーズを待つか >>523
ご回答ありがとうございます。
さすがに3090は手が出ないので3060で考えてみようかと思います。 >>524
最近の3060はVRAMが8GBっていう罠があるから気をつけて
間違いなく『VRAM 12GB』を選んでね ID:ystm0/nwを読み返してたんだけど
パソコンの使い方どころかネットの基本の仕組みすらまともに理解してなさそうだな
結局金のにおいがすると思ってやろうとしてたんだろうけど だが現状方向性決めても最終出力はあくまでも運試しな面があるから速さは力になるんよね
予算に余裕があれば4070ti悪くないよ ロリCG集で1万ダウンロードは事実だからなあ
何時までこの流れが続くのか知らんが webui111で
離席してる間にブン回そうとバッチの回数100にしてても
modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there's not enough precision to represent the picture. Try adding --no-half-vae commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
とか言うエラーで止まるですが
エラー無視して続行させる方法てありますか YouTube の動画がそうだったように今は AI 同人 CG が情報商材のメシのタネになっとるんやな 離席してる間に生成し続けて欲しいならGenerateを右クリックすればForeverがあるよ
Forever止めたい時も同じくGenerateを右クリック 我原始人、XYZ Plotにseedとvar seedに怒涛の-1, とvar strength0.02, 0.03, 0.05を突っ込み席を離脱 >>535
あざっす
--disable-nan-check
よりそっちのがええんですかいの? 自分でエラー無視して続行する方法ありますかと聞いているのに
なぜエラーを無視して続行する方を迷わず選ばないのか Lora作成を詳しく解説してるサイトがあれば教えて欲しいです silksAppeal_v1.safetensors
ってどこでダウンロードできる? loraの学習について
学習用素材はどのような基準で集めればいいんでしょうか?
同じキャラを使う上で
effectがかかっていない
絵が崩れていない
様々な角度で
というのはわかるんですが、例えば絵が崩れてない という場合、アニメ特融の口元表現
横を向いてるのに口の端から端が見えている画像等は無しにしたり
様々な角度といっても同じ同じような画像を何枚も入れても意味がないとか
何かコツなどあれば教えて欲しいです レタッチ(inpaint)とInpaint sketchで「画像を修復する範囲」を「マスクのみ」にしていると、幅と高さを指定してもリサイズされません。
これは仕様なのでしょうか? >>546
正則化画像っていうのがいまいちよくわからない。
学習画像と正則画像の違いをわかり易くドラゴンボールで例えてほしい マスクのみなんだからそこしか直さないのは当たり前だろ 一度もmodelできてない奴が正則画像使うなんて生意気だぞ
くらいの気持ちだと思うぞ 学習手順眺めてたらスワップと合わせてメモリ80GB必要てまじか
64GBでも足りない時代が既に来てたのか 正座なのか女の子座りなのか
膝の内側と外側に両方足が生えるのなんとかならないねかなぁ >>552
何処のエアプサイト見たのか知らんけど今流行りのLoraはVRAM8GBで使えてるぞ
多分dim下げて学習解像度256ならVRAM6GBくらいでもいけると思うわ 多分VRAMじゃない方のメモリの話じゃないかな
学習でメモリほぼ関係無いから混乱する気持ちも分かるが >>552
メモリ32GBで組んでるけど、スワップそのものはあんまし読みにはいかん印象やね、重くもならないし
Gen4SSDのおかげかもしれないけど、ここのSSD周り早くしといて良かったわ
最初1111起動させたときメモリー足りないってエラー出て仮想メモリ60GB固定でやっと動いたんだよね >>547自己レス
「全体像」だとリサイズされるが「マスクのみ」だとリサイズされないのを別環境で確認し、おま環でないことがわかりました
じゃあ「全体像」のリサイズで使われるアップスケーラーはどうなっているの?
と設定をみたら「アップスケール」に「img2imgで使うアップスケーラー」という項目がありました。(デフォルトは「Null」=「なし」) エポック10、学習回数200,正則ありで1時間ほどでステップ9000の学習をしてみたけど
モデルじゃなくてモデルの兄妹みたいなのにしかならない
ほぼ本人にした人はどんな設定にしたんでしょうか >>560
ふたばとなんUでは正則化が要らない子扱いされてるよ
絵柄を学習画像に似せたいなら尚更そう アニメとリアルでだいぶ話が変わってくる気がする
アニメなら生首学習が効果的
リアルなら過学習をわざとして、LoRaの出力割合をプロンプトで減らす、
Smapling StepsとDenoising strengthの調整を行いつつ
何度も出力する、とかで試行錯誤中
階層LoRaは顔だけ差し替えがどうもうまくいかず断念
素材種類と学習回数と結果を出してるブログとかあれば紹介してほしい 画像、絵からプロンプトを読み取る?想像して文字にするみたいな機能ってないですかね? 3060使用
昨日git pullした後に作れる画像のサイズが変わってしまった
ハイレゾで1920x1920なら作れていたのに1792x1792まで落とさないと全く作れなくなってしまった
昨日までは1920でも寝てる間に回せていたのに
この原因は何かわかりますか?
オプションは--xformers --opt-channelslast --gradio-img2img-tool color-sketch を付けてます
エラーの内容はOutOfMemoryError: CUDA out of memory. >>548
カカロット、ベジータが学習画像
多数のサイヤ人がまさのり
サイヤ人の中でもカカロット、ベジータを個別に分かりやすくするといったイメージ
女キャラを覚えさせる場合はgirl画像をまさのりにたくさんぶち込んでおく 【地球は】 世堺教師マ仆レーヤの警告 【危ない】
://kizuna.5ch.net/test/read.cgi/sky/1664955493/l50
>565
$ git reset --hard HEAD >>563
img2imgタブの「CLIPによる解析」「DeepBooruによる解析」を試してみては >>561-562
ありがとうございます
リアルをやってるので一度それで試行錯誤してみます
倍の18000ステップくらいやってみようかな 質問
自分が使っているAutomatic1111だと設定に「Upscale latent space image when doing hires. fix」という項目があってこれにチェックいれて更にtxt2imgでHighres. fixにチェック入れてデノイズを調整した上で生成してるのだけど
最新?のAutomatic1111だと設定のUpscale〜が無い代わりにtxt2imgのHires. fixにチェックを入れてLatentを選択すれば同じ環境になるらしいのだけどデノイズの値を同じにしても全く違う絵が生成されてしまって困ってる
自分が使っているAutomatic1111が不安定だからいい加減新しいのに乗り換えたいんだけどどうにかして同じものが生成されるできないだろうか >>572
まさのりやめて、50画像20回で学習したら劇的に似たので報告
画像は顔メインが40枚程、全身が10枚程
劇的に似た、というのはあくまで主観なのでその辺りはご勘弁を >>574
50画像20階って
2stepで
\inputs\10_xxxface\[40枚].jpg
\inputs\10_xxxbody\[10枚].jpg
ってことかいな >>576
faceとbodyは分けず、でやった
\inputs\20_xxx\[50枚].jpg Cドラに入れたAutomatic1111、モデルやらを入れまくって肥大したので、他のドライブに移そうと思う。
そのままコピーして、run.bat立ち上げれば大丈夫でしょうか。
新しくインストールしてから、フォルダ上書きした方が良い? 基本的には丸ごとコピーで行ける
ダメだったらvenvを削除して立ち上げる
それでもダメだったらクリーンインストールしてモデルコピー ControlNet使ってLoRAつかって
DPM++でSTEP40
こんなのでやるの生成に結構時間かかるな
3060 12GB使ってるが廉価でいいグラボ出ないかなあ >>582
なるほそうしよう
なんか40にするのがいつものくせになってた 学習画像
なんか参考例を出してる人とかいないですかね? NG例とか 仮に別のマシンにも丸コピペしてもvenvってついてくんの? cstaber持ってる人うpして
息子が奇特なんだはやく リアル系モデルでローラの学習をしたんですが、顔が不安定というか高確率でぐしゃぐしゃになってしまいます
画像30枚のくり返し10、エポック18で行ったんですが、これでも画像が足りないんですかね
学習ステップは12000くらいありました >>587
大抵のリアル系はマージし過ぎの過学習モデルだからなぁ
ひとまずLoRAを0.5ぐらいで適用してみては >>588
過学習すぎるとこういう現象が起きるんですか 0.5くらいにして試してみます
学習ステップはどれくらいで終えるのが理想なんですか? 民族衣装をローラで学習させたところ
着た人物の腕が高確率でゴツゴツシワシワになってしまいます
これは用意した画像が年配の人ばかりだからでしょうか?
しかし若者が着ている画像などほとんどありません(西洋化してるから)
衣装と着ている人物を分けて学習させる方法はありませんか? >>589
過学習疑惑は元モデルのことね
とりあえず10epoc目ぐらいのやつも試してみたら?
途中保存してるでしょう? サンプラーPLMSの高解像度化をチェックしない状態で512×512で出力すると絵が生成途中みたいな状態になるんですが 何か解決策ないですかね? 歴史的人物とか現代著名人とか要らないから
俺仕様の美少女だけでゼロから学習させたい loraについて質問させてください
何回か学習を試してキャラの顔を寄せて適当な服に着せ替えする事には成功しているのですが、そのキャラ特有の服装を呼び出すには服装だけ学習させた別のloraを作るのが早いんでしょうか?
某wikiやciviとかを見ると一つのloraでキャラと服装を別々に出力出来る様なのですが、いまいちやり方がわからずで、、、
やり方を教えていただけたら助かります。
現在は学習画像フォルダ直下にキャラを学習させたいタグ付けにしたフォルダと服装を学習させるタグ付けしたフォルダを置いて学習させているのですが、このやり方が間違っているのでしょうか? >>591
一応3エポックずつ保存してます 上手く学習させるのも技術がいるんですね civitaiでType:TEXTUAL INVERSIONと書いてある拡張子.ptのファイルって
ネガティブプロンプトに埋め込むタイプの使い方で合ってますか? >>594
あー正則化画像が足りなかったんですね
もっと増やしてみます >>590
生成されるtxtから「Wrinkle arm」等のネガ要素を抜いて服だけ学習させる ここまで顔が寄ってくると、としあきwikiのマルゼンスキームであと一歩押せばいけそうな気がする >>599
なるほど、DBであってもキャプションが必要なんですね…大変だ
後で編集してみます img2imgのアップスケールで、なるべく元画像に近づけるコツってありますか?
生成した画像は満足したものなのにアップスケールするとイマイチに。。。 >>606
それはおまえの想像にかなう画像が出ないって話だから
出るまで色々出すしか無いんじゃね? >>601
1枚から再現させるのをただのコピー機だという世界だぞ 衣装のみ学習させる場合の正則化って、1girisで適当に女の子の画像入れておけばいいんですかね?それとも透明png? 手は気にならなくなったけど、歯が気になり出した。
歯を上手く出すなんか良いプロンプトないかな? 8:9でナンパ前ナンパ後みたいに2場面大量に出力してLightroomの顔認識で近いものをくっつけて16:9にしてスライドショーで見てる
シード固定とか頑張るより数打って後から探す方が楽だ
https://i.imgur.com/rQYaj7k.jpg モデルがどれもやたら整ってるから漫画でちょっとおかしなバランスの顔を見ると違和感を凄く感じるようになってしまった キャラLoraを入れると元のmodelの絵柄がほとんど出なくなるんだけど、これはもうどうしようもないのかな
元モデルを濃くしようと0.4とかで適用させると今度はキャラの再現度がかなり低くなるし >>614
元モデルの好きな部分のLoraをこさえるのです controlnetに輪郭抽出がなかったっけ?
にしても絵の才能のある人はやっぱ違うな controlnetのはCannyとか画像処理的なエッジ抽出だからねぇ
一応こんなのも。
Anime Lineart (线稿/線画) Style
https://civitai.com/models/16014/anime-lineart-style 学習させたモデルの乳首がどうも気に入らん
これはベースモデルのせいなのかな あと、デカパイには出来るけどタレパイにはできない?
一応それ系のprompt入れたけど無理でした。 志村けんの垂れ乳BBAや漫☆画太郎のばばあを学習させるべきだな 実写loraが全然似ません
オススメの設定とかあったら教えて下さい
あとeasynagative入れないほうが似ますか? 呪文の質問もこちらで良いですか?
このような「ジャンパースカート」の絵を生成したい場合の呪文は英語だとどのように入力すればよいですか?
https://i.imgur.com/sL4hwLd.jpg テンプレに「まずChatGPTに聞こう」を入れたほうが良くないか? img2imgで外人の金髪を黒髪に変えたいんだけどblack hairを指定しようがネガティブにblondを入れようが
意地でも黒にせずピンクやオレンジに変えてくる・・ 服や髪の色変更や、時間帯の変更(朝昼夜とか)をやってる人いますか?
別途CycleGANでやってるんだけど、web uiの拡張なんかで完結できると楽だなぁと思っていて。どういう手段でやってるか情報ください black hair じゃなくて
黒の色調の何だろ例えばだけどnavyとかmaroonを加えて
black and navy and maroon hair とか入れるとわりと言うこと聞いてくれる感じする SDの仕組み理解してないけど、そこの金色成分が強くても黒にしろと指定したら、
金色を黒に置き換えてくれるもんなの?
inpaint sketchで金髪を適当に黒に塗りつぶさないと駄目じゃないの? 文字をダンボール風に加工したいのですが、どのAIソフトなら可能でしょうか?
PhotoshopでテキストをPNGで書き出して、AIソフトで変換を考えてるのですが、文字以外も加工されてしまいます! 1111にChilloutMix入れて動作確認してるんだけど、配布元のサンプルと同じ設定にしても完全に同じものができるとは限らないんかね?
モデル、LoRA、呪文、CFG、Steps、Sampler、Seed、解像度は全く一緒
別にこのままでも全然使えるんだけどなんかモヤモヤする
比較 https://i.imgur.com/z9Dl0ZX.jpeg >>628
それは Photoshop とか GIMP の方が楽だと思うが loraで特定のキャラクターを出そうと思ったらそのキャラクターの絵師の別キャラクターのイラストも学習させたほうがいいんかな? >>635
おま環案件で泣いた。めちゃくちゃすっきりしましたありがとん! >>634
xformers使ってるとそのぐらいの差異は出る https://kurokumasoft.com/2023/02/24/stable-diffusion-lora/
ここを参考に環境をインストールして起動まではすんなりいったんだけど
サイトではbearというプロンプトで作ってるのをhanakoyamadaというプロンプトで学習をさせたいときソースモデルが chilloutmix_.safetensors だったら
Stable Diffusionで chilloutmix_.safetensors を使って hanakoyamada というプロンプトだけで画像を作ったのが正則化画像ってこと?
背景だけだったりよく分からない画像だらけになるんだけどそれでいのかな? ローカル環境で好き勝手に遊んでたベイビーなんですが。
より深い理解が欲しくて、基礎の基礎から学びだしたところ、
「トークン数は75まで」って記事を読んで、 えっ? ってなってる。
Civitaiの画像とか見ても、かなりのトークン数行ってるし。
これって過去の概念なのじゃろうか? >>643
AUTOMATIC1111 stable-diffusion-webui環境は無制限 以前何処かで読んだら76以上の場合は75毎に区切って繰り返すとかで、
強くしたい物はその区切り毎に入れないと薄れるとかなんとか >>642
逆。bearというプロンプトだけで作った画像。
いろんなクマさんの画像を作ってhanakoyamadaとの違いをはっきりさせる。 >>634
使ってて思うのは以前入れたプロンプトがしばらくは微妙に残ってる気がするんだよねえ
適当に言うけど、毎回出力情報を全消去して使うのではなく、前回の状態に対して今回の指定を強く入れてるような気がする 気がついたらCTRL+上下のプロンプト強度変更ができなくなってたんだけどなんででしょう
特にどこか関連するようなところを触った覚えはないんだけどなあ‥ >>644
なるほど!さんくす!!
>>648
自分もそれ体感しますね。
プロンプト全消去したり、F5でブラウザ更新したりしても、前回の指定がちょっと残ってる感ある。 衣装Loraを作る際の画像キャプションですが
例えばkimonoを学習させたい場合
kimono clothes, man, standing, house
と作成されたクリップを刈り込むだけの時と
kimono clothes, man, Japanese, middle-aged, blue, standing on a road, in front of house
みたいに書けるだけ書いた時では、どちらがより有効でしょうか? >>652
一見すると刈り込んだ方が良いと思うな
例えばblueなんか入れちゃうと、blue_eyesみたいなプロンプト指定した時にkimonoが混じる可能性があるし
middle-agedで指定した時に全員kimono着てたりしそう
kimonoに着目するなら、10_kimonoみたいなフォルダ作った下のキャプションは
clothes, man, standing
みたいにすると立ってる男の人にkimonoプロンプト指示すると服だけキモノにしてくれる気がする
ただwrinkles_skinでシワシワの人だけ除外したい場合はどうすんだろやっぱ加えた方が良いんだろうか
そこは検証してみないと分かんないけど、加えちゃうとkimonoプロンプト入れた時総じてシワシワバァちゃん化しそうな気がする
ごめんあくまで思っただけで実際やってみないと分かんない 駄目だ
乳首が陥没乳首みたいに黒い点がついたりする! >>653
ありがとうございます!
とりあえず色は消してみようと思います
あと、例の場合で言うと、プロンプトにJapaneseを入れると
やたら着物を着るようになるわけですね?
その条件下では、逆にプロンプトにJapaneseを使わない、あるいはネガティブに入れても、顔や体型は学習画像に似るのでしょうか? Kohya_ss GUIを使わせてもらってるんだけど、ファイルサイズが230MBとかなる
配布されてるものは147MBが多いけど、俺はなにか変なことしてるんでしょうか >>658
dimかと
大抵の人は128にしてるから同じ容量多い グラボのVRAMで生成画像の最大サイズがほぼ決まるって仕様どうにかならんの?
大きなVRAM積んでるグラボ高くて買えないよ すいません
stablediffusionの環境構築をしていて
インストール時に 送信途中でした🙇♀
インストール時に
running on local URLが表示される段階まで進んだのですが、表示されたURLにアクセスしても「このサイトにアクセスできません」というページが表示されました。
解決方法をご教示いただきたいです。 >>666
コマンドプロンプト
黒い画面閉じてね?それ? あるあるあるw
インストール終わったと思って閉じちゃダメだよ黒い窓
むしろそっちが本体 >>666
ワイもそれなったで
ポート開いてもファイアーウオール切ってもどうやってもアクセスできなかった
諦めて別な方法のインストール方法を試したらうまくいったで >>667
黒い画面に表示されたURLをクリックしてるんだから、
黒い画面は閉じようがないと思うで? AOM系のモデルがこのような岩みたいな画像しか作れなくなってしまう現象が多発するのですが原因分かりますか?
一度こうなるとスケールいじったりしても直らないです…
https://i.imgur.com/Q4jCAMN.png >>672
自分がわけ分かんない画像ばかり出力される様になった時はPT問題だった リアル系で特定の人を再現するために、物は試しという事で、多ければ良いだろうと大量に用意して、顔だけ350枚バストアップ20枚全身20枚の390枚を注ぎ込み、kohya版Loraぶん回し中です。
繰り返し20、epochs20、モデルはチルアウトを選択。
私はRTX3060なので夜通し掛かるみたいですが、起きてからの楽しみです。
質問なのですが、学習用の画像は多いほど良いのでしょうか。
顔は正面や左右の横顔などのバリエーションを用意しました。
画質も悪くは無いと思います。
また、モデルはチルアウトよりSD1.x系の方が良かったりしますか?
今の設定で満足出来そうにないなら、仕事行ってる日中に設定変えて再度Lora回そうと思います。 >>671
クリックじゃ開かんべという話はおいといて
一般論としてその現象はプロンプト閉じたら起こるって話
コマンドプロンプト開いた状態で起きてるならなんの原因だろうな
試しにスタンドアローン版でやってみるとかどうだ? novelAIで最初遊んだだけの初心者だけど最近のAIイラストのクオリティ凄すぎてまた始めたいけど色々調べてみた感じ思い通りのキャラ作ったりする場合ってそれなりにスペックあるPC必須?
novel AIみたいにwebからiPadとかで手軽には生成できないのかな >>673
すいません、PT問題というのが分からないのですが、どこを直せばいいか教えてもらえないでしょうか? >>678
スペックは生成速度だからクオリティには直接関係はないな
ただガチャの回数が重要とするならグラボのスペックも必要だな >>680
安いノートPCでも大丈夫なのかな
あと必要なソフトダウンロードしてウイルス入ったりしないよね? >>681
あんまり好きな言葉じゃないが
ウィルスどうは自己責任だな
有料ソフトじゃないんだから
そりゃ自分で面倒見るしかないよ ryzen7のノートPCでCPUでやると512x512 20steps cfg7 DPM++2Mkarrasで1枚出すのに6分位掛かる
机上計算では3060にすれば115倍位の速度になりそう
動画エンコとか3DCGレンダリングとかと同じ類、時間が掛かるこう言う物だと思ってれば耐えられる 快適にやるならゲーミングPC並のスペック必要なのか10万ちょいのノートPCだと快適じゃなくても動くといいけど
ウイルス入ったって聞いた事ないけど皆普通に使ってるしウイルス対策ソフト入れときゃそこまで心配しなくていいのかな
pixivで高クオリティなAIイラストいっぱい転がってるけど今ってあんなの量産できるの? 最初のうちはとりあえず作れるだけで満足するけど
そのうちいろいろ拡張機能使いたくなって結局スペック足りなくなる https://i.imgur.com/OkPrYWz.jpg
i2iで同じ画像をDenoising strength下げてぐるぐる回すと紫の斑点が出て全体が白っぽくなっていくけど、これって俺だけ?
検証のために新規にインストールしてpromptにgirlだけ入れてanythingとAoMで試したけど、どっちも同じ
ググっても報告だけあってcloseされてた
なんだろ・・・? >>688
多分このスレ内に紫なんとかの話あったよ >>689
すまん、過去ログにあった
ちょっと試してきてみる loraの作り方が載ってる良いサイト教えてください pixivとかにある高クオリティなr18イラストってどのソフト使って生成してるの?
色々増えすぎてどれが特化してるのかわからん >>692
AUTOMATIC1111webuiただ一つ
それ以外は無いと思っていい >>689
VAE配置して設定で指定したらうまくいったっぽい、さんきゅ >>693
調べてもr18に関してわからなかったから助かったわありがとう
novelAIみたいにfullに設定とかしないとr18は生成されない設定とかあるの?
それともnsfwみたいな呪文入れるだけでいいのかな >>695
基本的にデフォ設定だとなんでもあり
選ぶモデル次第だが大抵のモデルはエロあり
むしろ少しでも肌を出そうとすると勝手に脱ぎ出す始末 NovelAIに月額払うのを良しとするだけの金があるならpaperspace Stable Diffusionで検索すれば月額制クラウドでの導入方法あるぞ >>676
50枚×20でかなり似てる
これ以上求められるのか、390枚の結果を教えてほしい 学習枚数巨大にしても出力されるlorsは設定変えなければ144M程度なの? 顔の学習って表情差分って全部学習させてる?
左右反転もする必要あるかな? >>697
ありがとう動かすためにそれなりのPC買うかな
できればiPadでやりたかったんだけどな
月額制でいいからnovelAIみたいにwebから手軽にできるの出てくれればいいんだけど >>681
まずノートパソコンはやめといたほうがいい
20万円ぐらいのゲーミングデスクトップを買った方がいい
お金に余裕があるんだったら300万円ぐらい >>703
データセンターの1ユニット借りるのかよw 普段この手のはcolab使ってノートで済ませられたからな
インパクトが違い過ぎる VRAM80GBのNVIDIA A100でも定価200万円くらいだけど何を想定した価格なんですかね…… YouTubeでスマホで出来るみたいな動画あったけどr18含めたキャラ再現とか流石にできないよね? アメリカでセーフなエロ程度だったら、paperspace使えば4090より爆速で生成もloraも出来るんですかね?
全く話題を聞かないけど Google colabとかpaperspaceみたいなクラウドサービスならスマホでも動くけどそういう話ではなく?
アプリとかの話なら流石に使ってる人いなさそう 動画ではGoogle colab使ってたな
PCみたいに同じクオリティにできるのかな スマホでできるのはopenCLで動くやつが出てきたからじゃないかな 処理速度は追及しなくていいからVRAM増やした手ごろな価格のグラボ発売してくれないかな
そういう需要出てきてると思うんだ >>712
それは Radeon がそういうモデル出していて
Radeon 対応も進んでるからちょっと待って プロンプトの入力する文字列を覚えるのつらいんですが
自動生成できるようなサイトないですか? 質問なんですけど、
例えばアヘ顔だけを覚えさせたい場合、顔だけ覚えさせたほうがいいんですかね?
どんな顔タイプでも、アヘ顔にさせたい場合なんですけど…
やはり学習させる顔も覚えちゃうから顔自体が変わってしまいますかね >>712
ライバルが追い付いてこれない状況でハイエンドが飛ぶように売れてるのに、わざわざ利益削るバカな経営者はおらんだろ
マイニングのニーズから少しずれた3060はいろんな意味で中途半端で在庫過剰になったからメモリ倍増案が出ただけで 512*512の画像をhires.fixで高解像度にするとcontrolNet(scribble)の影響が薄れてポーズがけっこう変わってしまうんですが対策はありますか >>714
そのプロンプト覚えるという作業が人間の仕事 >>714
画像突っ込んだらテキトーにそれをプロンプトにしてくれるextensionはある
WD1.4 Taggerで調べて >>702
PC買えないのならcolabかpaperspaceに自分で環境を構築するしかない
ただしエロはBANされる可能性高い 導入したいけどゲーミングノートGeForce1650で買い替えたばかりだから、デスクトップなかなかつらいな
30シリーズにしとけばよかったオーバースペックだけど せめてRTX20x0ならそこまで大きく変わらないしって我慢できるけど1000番台のグラボは辛いわね
https://i.imgur.com/pQzIZ23.jpg 技術方面の質問じゃないんだけど、最近術師辞めてLLAMAに流れた人達増えてきてない?
俺の周りだけか? >>696
質を画質と捉えたので、画質良いものを多めに投入した。ただ、その人のベストショットだけではなく、そうで無い画像も学習させてるから、そういう意味では質はそれほど、、、というふうに思う。
次はもっと写真を厳選するか、ベストショット増やしてみる。
>>699
Loraの適用強さの濃淡調整は必要とはいえ、ほぼ本人が出て驚いた。
というか、学習させた顔画像が呪文のシチュエーションにくっついてきた、という印象。 >>724
ナイス情報、サンクス
枚数増やしてやってみる >>723
お絵描きよりは言語系のほうがつぶしが効くからかねえ
流れた人たちはLLaMAで具体的にどんなことをしているんだろう >>726
比べたことがないからわからないけど、特に問題は出ていないよ(サンプル1) >>727
資本もお絵描きAIとは桁違いだからな
寂しいけど当然の流れではあるよなぁ 開発者がその傾向多い気がするね
画像生成→言語生成 各モデルのパーミッションを確認したいんだけどどこ見たらいいんだろうか
civiの各モデルのページに載せてくれてるやつもあるんだけどない奴の方が多いし
リードミー見ても書いとらんような?そもそもモデルの作者が特に決めてないってことかなあ InvokeAI使ってる人いませんか?
M1macで動かしてるんだけどエロが出せなくて発狂してます(エロを察知すると黒い画面しか出てこない)
nsfwフィルターというのはオフにしたんですけど・・・ モデルの作成って難しいんですかね?
画像何枚くらい必要だとか、概念を理解させる仕組みとか、 デフォルトのモデルなんて何を学習させてるのか分からない感じなのに、鯖借りてやると
安い所で3000万円以上掛かるらしいぞ 何枚使われたのかは知らないけど
Stable Diffusionってそのあたり公開してなかったっけ
GPU hourとかデータセットとか >>733
マックユーザーってretinaディスプレイの黒い画面でも抜けるんでしょ? まじかー
WDとかCounterfeitとかどんな人が作ってるんだ・・・
1000枚~1万枚用意して、マージモデルにするとか現実的なのだろうか。 分散コンピューティングはもう流行らないんかね
皆で学習させようて話は出てないのかな >>739
M1のmacminiがコスパ良かったから買っただけであってApple信者ではない
webUIはがんばっても起動できなかったしInvokeAIが最後の希望なんです!エロが出せなくて不眠気味なんです! >>745
ジョブズがiPhoneで言ってたじゃん
エロコンテンツが見たければAndroidを使えばいい
つまりはそういう事 特殊な状況の画像を集めてconceptのLora作ろうと思うんだけど
Trigger wordって学習時に付けるんですか
もしくはタグに書き込むんですか
例:髪が風で巻き上がっているLoraを作って、トリガーワード"windy_hair"で呼び出したい 1111を別のドライブに移したら起動しなくなったんだけど
これはどこを弄れば解決するの? >>745
1番対応してないintel macでもwebui使えてるけどな
ブログの通りにやっただけ
使ってるかもだが、DeffusionBeeってmacアプリなら最も簡単にエロ出せるよ
使えるモデルはcheckpointの一部だけだから限られてるけど
有名どころは大体使える >>748
venvを消してもっかい起動してつくれば直るとも
直らなければ再インストールせいとも言われているな 待っててサヤカチャン!って思いで必死でLORA学習環境作った
写真集や雑誌を取り込みまくって顔が写ってる400枚を投入してLORA作成
StableDiffusionでサヤカチャン出力してみたら出てきたのはどう見てもフィフィです
こんなはずでは・・・・・・・・
顔だけの画像で学習させたほうがいいんだろうか? >>751
再インストールしたら
Error code: 128
stdout: <empty>
stderr: warning: encountered old-style '/G:/stable-diffusion-webui2/repositories/stable-diffusion-stability-ai' that should be '%(prefix)//G:/stable-diffusion-webui2/repositories/stable-diffusion-stability-ai'
fatal: detected dubious ownership in repository at 'G:/stable-diffusion-webui2/repositories/taming-transformers'
'G:/stable-diffusion-webui2/repositories/taming-transformers' is on a file system that doesnot record ownership
To add an exception for this directory, call:
git config --global --add safe.directory G:/stable-diffusion-webui2/repositories/taming-transformers
っていうエラーが出たんだけどこれはどうしたらいい?
https://qiita.com/P-man_Brown/items/31fb824be461d20be0b8
ここに書いてある方法で解決できるかと思ったら出来なかった
やり方が間違っていたのかな アヘ顔作りたくて頑張ってるんですがLoraの項目で選択できるのに画像生成時反映されていない気がします。
教えてエロい人
やっぱりLoraのファイルをGoogleドライブとかにダウンロードして読み込ませないといけないです?
下記構文
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
!wget https://civitai.com/api/download/models/11745 -O /content/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
%mkdir -p /content/stable-diffusion-webui/models/Lora/
!wget https://civitai.com/models/9155/ahegao-rolling-eyesrealistic -O /content/stable-diffusion-webui/models/Lora/ahegaoRollingEyes_v1114.safetensors アヘ顔作りたくて頑張ってるんですがLoraが反映されていない気がします
項目としては出てくるのですが構文間違ってますか?
教えてエロい人
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
!wget https://civitai.com/api/download/models/11745 -O /content/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
%mkdir -p /content/stable-diffusion-webui/models/Lora/
!wget https://civitai.com/models/9155/ahegao-rolling-eyesrealistic -O /content/stable-diffusion-webui/models/Lora/ahegaoRollingEyes_v1114.safetensors >>732
ごめんこれよく見たらどれもほぼファイル置き場に普通に書いてあった
ただ7thANIME系だけは本当になくて他探しても見つからなかったわ >>752
さやかちゃんって言われてもどのさやかちゃんだよ >>752
さやかちゃん全然わからんけど勢いがすき
うぷはよww 結構な量を書き出したので、それを確認してみた。
プロンプト少なめなら再現性は非常に高い。
プロンプトが多かったりLoraが多めだと、なんか競合するのかで崩壊する。
タグ付けは念入りにした方が良さそう。顔画像は特に。
こっち見てほしい場合でも余所見画像が再生されるから、余所見してる画像は学習用から弾くかタグ付けするべきだった。
あとは髪飾りとかも湧いてくるから、弾くかタグ付けしておくべきだった。
結果は概ね満足。
次はそれを踏まえた上で違う人を学習させてみます。
もしくは同じ人でDBやってみようかな。 >>752
顔画像大量、全身やバストアップは少なめで良いんじゃないかなあ。
私は350枚、20枚20枚で試したが概ね良好。 >>756
モジュールとloraの配置は合ってる気がするが、そもそもwindows環境で全部CUIでファイル操作やってんのか?
プロンプトでちゃんと1girl, bikini, ahegao, rolling_eyes, <lora:ahegaoRollingEyes_v1114:0.7> みたいに入れたか?
落として適当に走らせたけど結構なクリーチャー出るやんw
https://i.imgur.com/dsocwcM.png >>750
intelでもできてるのか~!もうちょっとあがいてみるかな
アプリではDraw thingsってのを使ってエロ生成してて、つい最近アプデでcontrolnetも使えるようになったんだよね
DiffusionBeeもなんか色々機能充実してそうだしそっちも触ってみるかな >>756
あとめっちゃ基本的な事だけど、CUI環境ならlistコマンドとかで出力で確認して配置とファイルサイズから合ってる?的な
/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
/stable-diffusion-webui/models/Lora/ahegaoRollingEyes_v1114.safetensors
この二つが容量ゼロとか配置ミスになってないかの確認だけ出来れば1111の操作やプロンプトの問題だと思うんだがね 最近はFANZAもDLsiteもランキングにAI作品全く見かけなくなった。最初だけだったな。AIはもうダメか? >>768
AIがダメなんじゃなくて
性癖もリビドーも感じられない粗製濫造作品はすぐに飽きられるってだけだと思う
エロ同人は絵の上手さも大事だけど、こだわりをこれでもかとユーザーにぶつけないと響かない YouTubeでアップされてる中国系のムチムチっ子にベタ惚れしてしまった
あれも頑張って作れるの? >>768
性癖に合うかだからな
AIがどうじゃないんだよな
自分のtnに刺さるかなんだよなあ xfomer入れてみたけどあんまり早くなった感がないな。出てくる画像変わったから効いてはいるんだろうけど。ただ全く同じ条件で生成しても出てくる画像が微妙に違うのが気になるから速攻で切ったわ フィフィの画像正面からがほとんどだな
横向きとかないのかね・・・ 黒マスクを付けた女子のリアル系の画像生成していて、
頭にやたらと黒いヘアバンドやら耳付きのカチューシャみたいなの付けてる画像が生み出されるんですが、
これってマスクの設定に引っ張られてるということなんでしょうか?
なにかこれを軽減できるnegativeのプロンプトご教示いただけると嬉しいです すいません、一昨日からはじめて、昨日RTX3600 12Gを買ってきたものです。1111で実写風やってるんですが、衣装loraを当てたらと顔にまで影響してしまったので、としあきwiki
https://wikiwiki.jp/sd_toshiaki/Extensions
でComposable LoRAという拡張機能を見つけ、導入してみました。でも「LoRAの作用を「ANDを跨がない範囲」に限定できる。」のandの意味が分からず難儀しています。
このandって、ワードの間に付けるカンマのことでしょうか?それとも?使い方が皆目見当がつかなくて。 >>779
"AND"を書き込むのa AND b みたいな感じで >>780
なるほど!あらたにANDを書き込むようにして前後の文脈を分ける、ということですね。ありがとうございます。 >>729
資本力がって書けよガイジが
わかり難い文章書きやがって死ね >>783
ネットだからってあまり簡単に他人を中傷しないほうがいい
ID隠しても完全に匿名なわけではないよ BREAKってコマンドもあるけど
どう影響してるのかがわからない >>785
ANDは書いてあるからわかるけどBREAKってなんや?
どう使うんや? >>767
骨董品みたいなPCしかないからスマホのcolab上で全部CUIで操作してるんです…
プロンプトは多分間違ってないからlistでのファイルサイズの照合かあとはLoraのurlが間違ってないのかもう一度確認してみる!
ありがとうエロい人 >>733
起動コマンドに--no-nsfw_checker そういやエロ召喚でnsfwって書くけど一体何の略でどういうウンチクが隠れているんだろう Latent Coupleがイマイチ分かりません
githubの作者によるexsampleが、
((ultra-detailed)), ((illustration)), 2girls
AND ((ultra-detailed)), ((illustration)), 2girls, black hair
AND ((ultra-detailed)), ((illustration)), 2girls, blonde hair
となってますが、全体が2girlsなら後の分割は1girlであるべきでは無いんですかね? 知らないで使ってたんかいw
調べりゃ秒で出てくるだろ
not safe for workだ 1111で保存したプロンプトのプリセットってどうやって削除するのじゃろうか? >>788
起動コマンドか~!一応起動時にnsfw checker disabledみたいな感じの文字は出てたからオフれてるとは思ってたんだけど、起動コマンドでも入れてみるか
ありがとうございます。 >>767
うぉおおurl見直しとファイルサイズの確認して実行したら反映された!!
感謝感謝
https://i.imgur.com/LSDh7gA.png 初歩的な質問なんですが、自分がネットに上げた画像をping infoに通してもプロンプト等がわからないようにするにはどうすればいいでしょうか? >>797
おまえw
隠さなきゃならんようなもんをcolabでやったら軽くbanされんぞwww >>795
styles.ptだかなんかを開いていらない記述を消す >>798
隠す意味は皆無だが
まあ一応Photoshopなんかを一回経由すると全部消えるよ set A = {((ultra-detail)),(school uniform),girl,curly hair}
set B = {(ultra-detail)),(school uniform),girl,sholder long brown hair}
A is kissing to B
b is crying happiness
みたいにかけるようにしてくれ >>799
え、どんな画像生成したか監視されてるの?w
短いcolab人生だった… >>803
ドライブに入ってる画像は全部監視されてて、児童ポルノだと即アウト
って話 >>804
ナイスバディのえっちなお姉さんなら大丈夫ってことか
よかったロリコンじゃなくて どちらにせよ簡単にアクセスできる形で(パスワード無しの圧縮など含め)アップロードしてると危険なのは変わらんぞ
今のうちに使ってるGoogleアカウント全部から重要なもの手元に移しておけ
震えて眠れ >>793
小学校で習うだろ
preteen hard coreだよ >>783
対戦よろしくお願いしますマンが増えてるから注意したほうが良いよ >>805
だからこれがロリコン判定されるんだって それこそRobotがAI使ってクロールしてるからな。AIの敵はAIだ >>802
SD自体が人物に特化した物では無くなんとなくで画像生成してるだけの物だから、
そう言うのは3Dモデルベースのちゃんと人体を認識してる物じゃないとあまり意味無いんじゃないの 髪の内側の色だけやたら白くなるんだけど対処法ある?
余計なプロンプト弾いても頻繁する、特に黒髪 女の子と渋いおっさんのイラストとか作りたい時どうすれば良いんだろ
1つの学習データに女の子とシブオジ同時って可能?
別々のモデルを使って1枚の絵にするのってできないよね 局所的にプロンプトの影響を強くするtwo shotなんとかというExtensionと
それをより直感的に影響範囲を指定できるようashenという人が改変したものがありますね さらにその指定領域ごとにLoRAを適用することが出来るComposable LoRAなるExtensionがあるので
欲しい絵柄のあるモデルとその元になっているモデルで欲しいキャラクターの数の分だけ差分LoRAを作ってしまえば
ベースは共通である必要はありますがシブオジLoRA領域と女の子領域で分けられます
そこそこきつい条件ですが >>785
WEB-UI 1111の話なら、強制的にプロンプトを次の75区切りまで埋めてくれるコマンド
色かぶり対策に有用だと効いているが、俺はあまりその恩恵を感じたことねえや そんなことやるんだったら Photoshop 使ったと思うんだが iPadで手軽に生成できるようにならないかな
さすがに2、30万のゲーミングPCは買えないクラウドでやるとエロ系は消されるって聞いたし
いつかスマホだけで生成できるようになるんだろうか >>822
暫くならん
なったとしてもその時は20万のiPadを買わないといけない >>822
暫くならん
なったとしてもその時は20万のiPadを買わないといけない >>822
第八世代のi5程度とメモリ32GBと3060 12GBとSSD 1TB
そこらで買い集めて組み上げれば10万くらいじゃね? >>827
PC組み立てとか自分でできないからドスパラにでも頼めば組んでくれるのかな
実家だと光回線使えるけど回線速度とか関係あったりする?
普段WiMAXでネットやってるけど速度大丈夫なのかね >>828
俺は中古で一式8万で買ってやってるけど割とおすすめ
マイニング歴のないグラボで
新品なら13万超えるし消耗品と思えばまあ
それをiPadでリモートで遊ぶ事も出来るぞ そっか中古って手もあるのか
教えてもらったスペックで探してみるかな
回線はWiMAXで十分だといいけど最悪ソフトDLだけは実家でやるしかないか まあwimaxでもDL遅いだけでトラブルになるとかは無いよ
てかiPadでリモートスタイルは中々良いな
キーボードケース付けてみたら楽ちんだわ >>832
モデルデータが2~4GB位で、手当たり次第試すなら毎日何個もDLする事になる
50MB/s位でDL出来てて初めて光回線の有り難みを感じてる web-ui再起動したらDynamicPromptの組み合わせが同じバッチで全部一緒なるようなってた。同じ人いる? >>816-818
おおありがとう、調べてみる!
やっぱりとっくに誰かが同じ事考えてて作ってくれてるんだ
でも1枚作るのに倍以上の労力使いそうだし難しそうだなぁ >>611
この発想いいな
Pythonでいけるかな >>835
dynamicpromptのアプデが必要かも
pipパッケージの方ね >>798
imgurに上げた画像のメタデータはすべて削除されるよ
取り回しが楽になるからIDを作っちゃうのがおすすめ あ、でも出産はまだ見たことないなそういえば
君がやるんだ give birth to basketballできなかった悔しさ 教えてもらったCivitai Helper入れてSCANしたら
わざと入れてなかったスク水のサムネが勝手に入ってしまった
いい画像作って入れ替えないと・・・・ novelaiみたいに手軽にできると思ってたらクラウドだとエロ禁止とか酷い
webだけで生成はこの先も無理なのかな Lora学習が4時間弱ぐらいかかってきついのですが
2070sではバッチサイズ1しか無理でしょうか? SDでバリバリのアニメエロとかローカルで作れるよな?
ドット化とかもできるってみた
このSDローカルってやついれればいいのか controlnetからの画像生成とi2iってどっちのほうが精度高いんだろう? アニメイラストの時はRestore facesチェック入れるな定期 商用利用についていまいち分かってないのですが、stable diffusion自体は商用利用OKだけど使用するモデルによってはNGということで合ってますでしょうか?
今abyssorangemix2を使っているのですがこれは複数のモデルが融合されているみたいなので、融合元に商用利用NGが含まれていればabyss自体もNGという感じになるんですかね?それともNGのモデルに融合という形で変更を加えているため別扱いとなるのでしょうか? >>856
あってると思われ
aomは3がchilloutmix入ってて商用不可とかじゃなかった
だいたいダウンロードするところに書いてあるよ
モデルに何が混ざってるかなんてこっちが調べるなんて実質不可能だからそっち見た方がいい
chilloutmixも途中から諸々不可になったけど不可になる前にダウンロードしたやつは知らなかった自分が取得したときには書いてなかったで多分使っていいんだよね
法は遡及しないのと同じで
でもまあ、modelの使用自体どこにも痕跡残さないことは今は可能なわけでわかりゃしないのに従うかは良心だよね SuperMergerでモデル2つ選んで「Merge!」ボタン押すと
AttributeError: 'Namespace' object has no attribute 'upcast_sampling'
が出てエラーになるんですがおま環ですかねこれ?そもそも使い方が間違ってる?
ググっても情報がなさすぎてわからん… モデル情報って電子透かしみたいに埋め込まれてるの? 加工したら全ての情報消えてね?
掘り起こしたり透かし入れたりみたいな新技術出てるなら知らんけど 一度加工してpsdやclipファイルにしてもモデル情報残ってるの? 自分の記憶でもできないはずなんだがもしかしたらできるのかもしれんのでロダにあげてきた
ただのミクさん
https://imgur.com/vNFu2BB
https://imgur.com/U7poLT1
https://imgur.com/9UpMCtB
モデル名分かったらわかるってことで試してみてくれ
一つはmodelのファイル名を変更してみている
modelの中に埋め込んであるなんらかの情報が読めるのかmodelのファイル名がどこかに出てくるのかわからなかっなから 規約守らずモデル使いたくて必死なのキメえな
マネタイズスレ行けよ 知識と技術としてできるかできないかしかしてないんだが
なんでそうなるんだよ
意味がわからん 興味ないからそんな挑発に乗る気はないけど、理屈だけ言っておくと。
SDの透かしで使われているのはウェーブレット+離散コサイン。
画像ってさ、昔のBMPやGIFと違って、今のJPEGなどは不可逆圧縮。
これ保存時に何をやってるかというと、ピクセルの2次元配列を波形データに変換してるのよね。
その中の特定の周波数を暗号に使ってて、輝度を変更したり、一部書き換えたり、ノイズ加えたりなど
多少の加工なら影響がなかったりする。 マネタイズに嫌悪感あるんだろ
権利者は人力のイラストは見逃すけどAIイラストはだめとか根拠付かれると苦しくないか
法的には検挙できても そりゃやばいな
うっかり割れNAIなんかでCG販売してると訴えられる可能性大だな 挑発すらしてないのに
気難しいやつだなあ
そこからどうできるのかはわからんけど
ざっくり翻訳するならお前には出来るが普通にゃできないであってるのかな 毎回こういう流れになってまともに質問したい人が尻込みするようになるからクソなんだよ AIモデルもAI画像も著作物じゃない見方が強いから
ライセンスどうたら言っても無効だろうと思うけどな
機械が作ったデータは根本的に「思想又は感情を創作的に表現したもの」から外れる マジで質問スレじゃなくて変な奴の日記垂れ流しになって草
最初に始めたやつ責任取れよ そうだそうだ責任とって出産loraうpしろ
モデルはanythingでいいぞ civitaiで数日前に見た気がするけど、birthで検索しても卵とモンスター出産だけだな >>872
アメリカのあれはプロンプトのみのmjが対象だからな。
cnなんかでかっちり構図制御してたらまた判断し直しだよ。 出産かあボテバラはあったけど
おぎゃあは見たことないな ポーズだけ学習させることって出来ます?
顔も体もセットで学習しちゃうんですよね >>879
ある程度は仕方ないね
むしろ今はポーズはcontrolnetでやるのが主流 >>855
そんなのがあったのね
ありがとう
仕事終わったら試してみるぴょ >>880
あーなるほど
Dazでキャラ作ってポーズ決めてそれ覚えさせようとしたけどそういうのもあるんですね
ありがとー 漫画って作れそう?
崩さずに2人が抱き合ってるような絵まだ見た事ないけど進化早いし期待できる? 百合は興味ないんや
竿役は汚いおっさんで出したいんだけど見た事ないわ いうほどないんか?
DepthmapとOpenposeとComposable loraとでガチガチに構図固めてガチャれば出そうだけど Depth作る時の種は百合で作って黒で削ったりスポイトで太らせたり 今NMKD版使ってるんだけど、1111版のほうがいいの? NMKDってLora使えるんか?
まあそもそも各種拡張機能使えない時点で移行するべきやけど >>891
NMKDで始めてしまう被害者を少しでも減らしたい、と思っているぐらいには >>887
私見だがモデルもそうだしLoRAに無茶苦茶引っ張られる、出て来てもイケメンマッチョ化したりもする
のとネガティブに skin spots, acnes, skin blemishes, age spotみたいなのは外した方がいい、女を盛ってれば盛ってる程出にくい感触
ハイクオリティも避けた方がいい、我慢できる限界まで下げる
あと向こうのポルノシチュエーションワードとか詳細に書くと似たようなのがでる、red hairやtatooのアバズレにつられて出てくる汚いオッサン大杉
完全にコントロールするのは難しいからi2iの方が楽だと思う このPCでローカルで1111版Stable Diffusion WebUI問題なく使えそう?
GALLERIA RM5R-R36 4500
CPU ryzen5 4500
グラフィックス GeForce RTX 3060 12G
メモリ 32GB (16GBx2) (DDR4-3200)
SSD 1TB SSD (NVMe Gen3) >>894
NovelAIの時も対面座位出そうとしたら顔とか特に目が崩れやすくて納得いく絵が出たとしても塗りとか一気にクオリティ下がってたな
今だとi2i使えばまともなのできるかな >>895
chat gptに聞いてみた。笑
お使いのPCは、十分に高性能であり、Stable Diffusion WebUIを問題なく使用できると思われます。以下は、その理由です。
CPU: Ryzen 5 4500は、十分な性能を持つCPUで、Stable Diffusion WebUIに必要な処理を実行するのに十分な能力があります。
グラフィックス: GeForce RTX 3060は、高性能であるため、グラフィックス関連のタスクを快適に実行できます。Stable Diffusion WebUIはグラフィックスを多用することがあるため、このグラフィックスカードは大きなアドバンテージとなります。
メモリ: 32GBのメモリは、Stable Diffusion WebUIの実行に十分な容量です。これは、複数のタブを同時に開いたり、大量のデータを処理するために必要です。
SSD: 1TBのSSDは、高速で読み書きができるため、Stable Diffusion WebUIの起動やデータの読み込みが迅速に行われます。また、NVMe Gen3のSSDであるため、より高速にアクセスできるため、大きなメリットとなります。
以上の理由から、お使いのPCは、Stable Diffusion WebUIを問題なく使用できると思われます。 >>898
chat gptってこんな事まで答えてくれるのかよw
値段がモニター込みで20万ちょいくらいになりそうだけど買おうかな 二人以上出したいんだったら
一人一人を別々に出してから
その後に画像編集ソフトで編集した方が
いい気がするけどね 人物なら1人、物なら1つでいいのに、数人、数個出てくるのを防ぐにはどうしたらいい?
「one」や「1」や「solo」や「alone」を付けても変わらなかった >>903
A lonely girl abandoned by her parents.
数を限定するシチュが大事な模様 4090でCPUも13世代の一番いい奴つかってます
コードちょっと端折りますが
train_batch_size=14 max_train_steps=10000 解像度512x512
とかにしても4時間くらいかかるんですがこんなもんなんでしょうか?
みなさんもっと早くやってるように見えるんですが >>905
文章を理解できるんだ
シンプルに単語にしたほうが確実だと思ってた
ちょっとやってみる >>898
ChatGPTは去年のことはデータに入っていなくてStable Diffusionのことも知らないと思ってた >>904
プロンプトに isometric を入れます
下のプロンプトは「isometric skyscraper」のみです
(Stable Diffusionの公式学習モデル(v2.1)で確認)
https://i.imgur.com/HKzrk1n.jpg >>906
自己解決しました
教師が少なくて、最大エポックを決めずに最大ステップだけで設定すると
エポック数がかなり増えて、かなり時間かかるんですね ChatGPTのアカウントのメアドヲ変えたいのに
変えられそうにないから退会したんだが
別のメアドと前回と同じ電話番号でまた垢作れるんだろうか
誰か試しにやってみてくれ
てゆうかやれ 巨乳で色が濃いパフィーニップルでちょっと下付きの乳を作りたいです
いや誰か作ってください もう何から何までAIだな
そのうちシコピュしかしなくてよくなるだろこれ >>911
いいえ、これはBingではありません。私はChatGPTと呼ばれるOpenAIによって開発された大規模な自然言語処理モデルです。BingはMicrosoftが開発した検索エンジンです。私はBingとは無関係で、質問に回答するためにプログラムされたAIチャットボットです。 >>908
gptに直に聞いたらwebで収集した2020年ごろのデータベースに2021年9月に外部から追加情報入れてて、
それ以降はチャットで覚えた事で回答してるぽい 手招きというかエッチにCome onって言いそうなポーズを取らせたいんだけど、なんて書けばいいの? ポーズはプロンプトじゃなくてControlNet使うの一択定期 >>918
img2imgで似た構図の漫画やら拾い画でdeepboolu使ってプロンプト探した方が早いぞ >>863
他の人がある程度答えてるので補足になるが
SDで作ったPNG画像をテキストエディタで開けばわかるが
最初の方にプロンプト~モデル情報までテキストで
SD固有のオリジナルのメタデータが記録されてて
他のソフトを通して再保存するとそのデータが消える
WEBにある画像のアップロードするものは
画像を再圧縮するもの(imgurやtwitter)とそうじゃないものがあって
前者の場合はメタデータが消える
逆にメタデータを残したままWEBに上げたい場合は
画像以外も扱えるファイルアップローダーやファイル共有サイトを
使うと確実 クラウド版でエロ画像出力するとbanされるってマジ? LoRAの学習のtxtに書くやつあるけど「呼び出しキーワード」+「学習から外したいもの」ってのよくわからない
「学習から外したいもの」とか言ってるけどtxtにタグ付けしたものを学習させてるわけだよね?
生成時プロンプトに含まないからその特徴が出ないというだけで学習自体はしてるよね?
あとなんでわざわざキャラの特徴を消すようにするのか分からない
キャラ名1語だけで簡略化したいという目的ならそうなのかもしれないけど
キャラの特徴タグ付けして学習させてキャラ名+キャラの特徴を生成するときのプロンプトに書くほうが精度高くならないの? >>926
学習はしている
例えばシンプルに顔(face)で一枚をLoRA学習させたら、プロンプトにそのワード書いたら第一順位で最優先でその一枚が読み出される
逆に外したら他のモデルで1万枚学習してる場合、1万ぶんの1の濃度で発現する
実際は異なるが大げさに言うとこう言うこと 最近始めたところですがwebui-user.bat開いたあと
Running on local URL: http://127.0.0.1:7860
が出たのでブラウザで開いてもLoading...と出たまま進みません
これはStable Diffusion側の問題なのかこちらのPC側(セキュリティソフトとか)の問題なのか
どうなんでしょうか 顔復元繰り返し10回もかけると奇形顔がどんどんまともになるな
おもすれー
顔だけまともでそれはそれで奇妙だけどw pixivに転がってるキャラほぼ完全再現してるエロ絵ってどうやってんだろ
i2i使ってひたすら学習させてんのかな >>925
日本人の求めるエロ画像なんて
ぎゃーじんからみたら大体ロリやぞ?
あとはわかるな? >>932
deepdanbooruでタグ出して
cannyにすればいけるんじゃね?
そこから絞ってタグ増やしたり減らしたりして
openposeにしたら近いけど別の絵できそうだけど https://civitai.com/models/4468/counterfeit-v25
このモデルのEasyNegative.safetensors24.7 kBってptファイルと一緒にembeddingsフォルダに放り込めばいいですか? >>932
10~50枚ぐらいの素材を集めて追加学習ファイルを作って、それを適用してる
今は追加学習精度も高いから既存のキャラはだいたい模倣出来る >>936
そこに挿入れてLoraと同じボタンで出てくる
Negativeの欄にカーソル合わせた状態でボタン雄とプロンプトが入る アニメ塗り最高のモデルや設定とかってなんですかね
ふわっとしてるものとか個性強いものが多くて上手くいかない
NAIが1番近かったり 初心者スレだからってめっちゃ適当なこと言う奴おるな 写真をまともに描画するのは難しい?
というか無理? >>942
と言うか実車さながらの写真が
蔓延してるんで違いが分からんよ >>942
映画やインスタ見て違和感がない目の人にはすでに到達して見えるだろ? めっちゃ可愛い顔生成できたけど全身ポーズにすると途端に顔が崩れるのはなんでや? 全身描画するよりバストアップだけ描画する方が顔に集中できるからそりゃそうよ >>945
仕様
大抵のモデルは遠景の顔の学習量が少ない NovelAI時代とか人物の描写良くする為にupper bodyとかface focus使ってたなあ 解像度の問題じゃないの?
体を映す面積を2倍にしたいなら解像度も2倍にすればクオリティを保ったままになるんじゃないのか 実はSDは学習した内容を拡大したり縮小したりして描画することが出来ない
近景、中距離、遠景、全部別々に学習してる
なので学習量が少ない遠景や全身描写はクオリティが下がるという残念な仕様なんだよ 対応策は>>950も言うように解像度を上げるしかない
512x512のバストアップの構図と、728x512のバストアップの構図なら、後者のほうが描画される範囲が広くなる
960x640ぐらいまで上げれば顔のクオリティを保ったまま下半身も写るかもしれないが、破綻もしやすくなる 顔とボディを別々に出して
顔を縮小してくれよ
もうほんまに 元のモデルが512x512で作られてるから解像度大きくするほど破綻しやすくなるんじゃなかったっけ? 顔や手足など各パーツを構成している部分のピクセルが512*512以上にならなけりゃ、画像の解像度自体はいくら高くても大丈夫だろう。多分。 >>955
解像度を上げすぎると上下左右に連結した奇形美少女が錬成される確率も跳ね上がる
詳細で大きな絵が欲しいなら最初からhiresを使うかハーフHDあたりからアプコンするのがベター 解説サイトの作例見るとイラストばっかりだからイラストなら上手くいきやすいのかと思ってプロンプトに「fine illustration」て入れてみたけど、やっぱり奇形の量産だわ
どうすりゃいいの モデルを変える
モデルごとの推奨解像度を守る
矛盾したプロンプトが無いか確認する
AIが誤認識しにくいポーズを取らせる
bad-hands-5みたいな破綻を減らすembeddingsを使う
手と脚みたいな同じ色や形状の物が隣り合ってると融合しやすいし
breastsやnavelと一緒にassがプロンプトに書いてあると両方見せるために体が捻じ曲がるし >>945
レタッチ(inpaint)で顔をマスクして
・マスクされた場所をレタッチ
・オリジナル
・全体像orマスクのみ
の設定でプロンプトを「face of 1girl」とかにすればいいんでは 人物を平面でしか捉えて無いから手足の位置関係には無頓着なんだよなぁ やっぱグラボ買わんとダメだな
CPUでやってるから1枚出すのに小一時間かかるwwww オンボは猛者すぎるだろ
1650でも512×512の上限3枚で1分くらいかかるけどマシにはなるぞ
3060買うのがベストだけど 昔は5万あればCPUとグラボをミドルで揃えられたんじゃ・・ 現状、まだまだミドル~ハイエンドGPUでないと快適には遊べない
PCゲームと同じ
ハイクオリティなものを求めるなら相応の金が必要
自前PCが厳しいのなら、colabやpaperspace上で環境を作ってそっちでやるのが今は一般的
ただ、そちらも月額はかかる
そしてエロはBANされる可能性もある
それでも数ある趣味の中でも金かからないほうだと思うがな 何も考えずにGPU 買うと電源も交換になる場合もあるから要注意 >>957
試行錯誤する
寝る時間がないっていう人もいるね 僅かでも違う学習データを同じ設定で出力して完全に一致するケースってあるんでしょうか?
civitaiで拾ったデータの確認に同じ設定で出してると所々ファイル名全然違うのに完全一致してる物が… 12GBは高解像度に手を出すと厳しくなるが、買い替えるなら電源もセットになる
沼の入り口に居る実感はある >>972
起こりえない
おそらくハッシュ値(Modelの内部的なIDのようなもの)が同じなんだと思う
ファイル名は変更出来るからアテにならない 今から始めるんだけど
OSはUbuntuとwindowsで出来る事の違いとかあるんですか? >>974
一応モデルハッシュは違う様です…
ハッシュが何処迄含まれるのか分かりませんが、同一にするのは難しくても変えるのは簡単だったりしませんかね
鳥特化を唱ったモデルが実写系ポルノ唱ったモデルと全く同じでどうなってんのと
civitaiに確認しに行ったら既に無かったのでそう言う荒らしだった模様?
鳥は極端な例だと思いますが、適当なモデルを名前変えて上げる釣りが流行ってるのかな >>976
civitaiはコピー品?が氾濫してるから無名モデルは集めるだけ無駄よ 手動で画像切り抜く時に使うソフトって何が人気なんでしょうか?
GIMPの前景抽出選択でやってるんですけどこの方法がやりやすいのかがわからない Sampling steps変えて試してるとたまに全然違うポーズになるのが謎
20から40を試してて30だけ別みたいな
たまにその30が当たりで30以外再現できないことがあって困る RTX3060は電源変えなくてもいい限界でしょ
最悪アフターバーナーでなんとか乗り切れるし 強化電源が届いたのでとりあえず交換したった
いちおうラベルにはDELLって書いてあるけどどうせ紛い物に決まってるので怖かったけどちゃんと起動して一安心
あとはグラボか 強化電源・・なんか格好いいな
俺も強化パーツを付けてPCをフルアーマー化するぜ >>961
同志だ、ワイもCPUオンリーで遊んでる
条件にもよるけど、512×512の20stepsで出力すると1枚11〜2分
それなりに遊べることや求めているキャラクターのプロンプトは分かったので、画像生成することを前提に次期更新時の要求スペックに反映しようかなって(なお時期は未定) >>985
そもそもグラボ積めない一体型でな
話題の技術に触れられないかなって思ってたら、YouTubeにそれらしい導入方法の解説動画が上がってたからやってみたら出来たっていう
別に画像生成で生計立てるわけでもないのでゆっくり遊んで次期更新の案を練ってる 適当に呪文書いて大量にガチャ回すより
一回ずつ吟味して作って行った方が呪文マスターへの近道かもね 俺漏れも!
17.55s/it、GeFoでやってる人には意味の分からない数字だろう shinyでテカらないからluster, polish, glossyと一個ずつ試したけどうまくいかなかったが、ヤケになって全部入れたらめっちゃテカテカ
消していくと2つ以上組み合わせると強く発現するのがわかった サンディーおじさんですら4090載せられるというのに
272 Socket774 (ワッチョイ 8bc0-RSr7) sage 2023/03/10(金) 00:53:51.48 ID:R9SstlmP0
https://tadaup.jp/loda/0310004938944772.jpg
たまたま寄ったツクモに在庫あって4090衝動買いキメた
思った以上にデカくて3.5インチシャドウベイ取ったわw
15年連れ添った慶安電源とはついにお別れだ… 30万強か…自分はPC一式だったからとりあえず今回は3060て事にしたけど、
グラボだけだったとしても30万強は無理だな まだやった事ないけどchatGPTに聞くと
https://i.imgur.com/z36PYSc.jpg
こうなんだけどこれで上手くいくの?
コードは
Generate an image of a kitten yawning in the sunlight using Stable Diffusion. using Stable Diffusion.はいらないぽい?
Stable Diffusionを使って。←これまで含まれてるw >>994
オレ様だよ
誰かが仕切らないとこうやって次スレも立たないうちに埋まっちまうんだよ
他のスレもお前の知らないところで誰かがまとめてんだよ
勉強になったな、学生くん
980が逃げたので次スレ立てるわ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 11日 13時間 12分 49秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。