【StableDiffusion】画像生成AI質問スレ7【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ5【NovelAI】←6の間違い
https://mevius.5ch.net/test/read.cgi/cg/1680339324/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://platform.stability.ai/docs/integrations/blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用 ■FAQ2
Q:〔1111〕設定を変更したのに反映されない
A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。設定によっては「UIの再読み込み(Reload UI)」(「再起動が必要」と書かれていてもこれですむものが多い)や1111の再起動が必要 【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である 次スレここなのです?前スレ5じゃなかった?6飛んでない? サンイチ
>>8
>>1にある通りで、前スレは5(実質6) ほーん
CLIPの差し替えしないと出ない絵があるのか
知見だ
っぱComfyUIなんよ あと、etaも0~1の範囲で変更できて
モデルやプロンプト、シードによって構図がかなり変化することがある
これはCkip SkipやENSDと違ってPNG情報にも記録が残らないから
サンプルと同じ画像をお試して作ろうとして「なんだか構図がちょっと違うな」
というときは手探りで試してみるのもけっこう楽しいぞ 前スレで>>981に回答くれた皆さんありがとうございます。
pantieではだめだったんですね。
underwear 系統にすると、一気に改善しました。なぜ、パンティーではだめなのか・・・・・
LoRAや画像からの生成の方がよいとの話もありましたが、話自体知りませんでした。
そっちも、これからやってみます。 Controlnetのcannyedgeの結果を学習したモデルにcannyedgeで検出できた画像を突っ込むことで構図を保って別の画像を生成するやつ
mikubilさんのreadmeを読んでControlnetのExtensionを導入しよう 少ない画像でLORA学習する時、正則化画像って取り除きたいモノの切り抜きで良いのかな?
例えば女の子と猫が写ってて、猫を学習させたく無い時はその猫の切り抜きを1_catにぶち込んで回してる
一応それで猫は出てこないけどそれがそれが果たして正しい使い方なのか気になってる なんかアップスケールさせたほうがエロさ半減するっていうか顔がアップスケール顔になる。
リアル系だとわかり易いわ
対策ないです? アップスケール顔草
多分アップスケール時になんか滑らかになるあれの事かな
使うアップスケーラーによる気もする まじか
アップスケールってそんな影響ある?
アップスケール面倒くさがってほとんどやらないんだけど アップスケールのロジックって、
一度作った画像をぼかして、
そのぼかしを元に大きい画像を再描画する感じでいいんだよね? Denoising strength 低くしたら元絵とそんな変わらんっしょ
マックスにすると想像力豊かで芸術性あふれるクリーチャーが飛び出してくるw >>15
ちゅうかpantyじゃね?
pantyshotとか Pantiesじゃないか?一個でも複数形みたいなやつ アップスケールと
hires.fixが混同してるオカンやないか Colab使ってLORA学習の環境構築方法解説してるサイトありますか…?
1111導入解説ばっかりでLORAの学習環境の方はなかなか見つからず… >>21
「アップスケール」とか言わずに正確な機能名で質問してね >>15
そもそもアンダーウェアかランジェリーのほうが一般的だからじゃないかな
パンティー、ショーツは意味としては合ってるんだけどあまり使われないよ 豆じゃがストッキングを履かせようとしてpantyhoseを入れるとpantyに引っ張られるのかパンツを履いてしまうことが多い
そこでワシはover-the-knee-stockingsを使うんじゃがこれがよう上手くいく
(ちなみに色は白) パソコン使ってんだからスペルくらいネットで確認してくれよ >>31
youtubeでColab lora 学習で検索すれば動画あるけど
望んでる物と違ったらごめん >>28
必要なのは英語としての正確性ではないんだよ
タグとして何が使われているかが重要
航空英語みたいなものよ まがりなりにもAIなんだから構文理解くらいしてるだろ
って思う事もありました アビス系のマージモデル使ってるんだけど
パンスト脚にサンダル履かせるとつま先部分が
素足になってしまうんやが解決策ある?
海外ではサンダルにパンストは履かない習慣だから
学習されてないのかな? ひとつ前のスレで質問に答えてくださった。954、955、958の方お答えありがとうございました!!
とても参考になりましたm(_ _)m すいませんnovelAIからローカル環境に移行したいんだけど、PCに全く詳しくないから色々調べて訳分からんくなってる
モニターとかキーボードとか全部揃えてお買い得に買えるサイトとか教えてくれたら嬉しいです
30万くらいは出せるから3060?12GBとか条件満たしてるのが買いたいです 何でもかんでも人任せにするやつって投資詐欺に遭いそう StableDiffusionでアニメ塗りにする方法で簡単なのどれでしょうか?
NovelAIはネガティブに3Dと入れると簡単にアニメ塗りできたのに
StableDiffusionはダメですね すみません、質問です。
webuiにmultidiffusion-upscaler-for-automatic1111を導入したくてインストールした後に起動しなおすと以下のようなエラーが出てwebuiが立ち上がりません 。
webuiはgit pullして最新にしてみましたが同じでした。何かほかに必要な物があるのでしょうか?
バージョン
python: 3.10.6 • torch: 1.12.1+cu113 • xformers: N/A • gradio: 3.16.2 • commit: 48a15821 • checkpoint: 7c29d0da32
File "V:\stable-diffusion-webui\extensions\multidiffusion-upscaler-for-automatic1111\scripts\vae_optimize.py", line 756, in show
if devices.get_optimal_device_name() == 'mps':
AttributeError: module 'modules.devices' has no attribute 'get_optimal_device_name'. Did you mean: 'get_optimal_device'? >>49
extensionsフォルダ内にmultidiffusion〜のフォルダが作成されているので、
ひとまず一旦どこか別の場所へ退避(移動)、または削除してください。
その後、1111を起動できるか確認してください。
起動できれば commit: 22bcc7be になっていると思います。
>何かほかに必要な物があるのでしょうか?
必要ないはずです。配布元の説明を読んでもそうですし、
俺も導入してみましたが特に何も必要ありませんでした。 >>44
お店についてはここではなくPC板で聞いたほうがいいよ
モニタ他含めて予算30万ならグラボは3060vram12
メモリは32GB
ストレージは最低でもSSD2TBぐらい
でうまい具合におさまるんじゃないかな >>42
海外では、というよりそういう絵を学習していないから出ない、というだけ
あとは一応ネガティブにbare foot(素足)って入れておくか
でもそれでも厳しいかも
サンダルだけ単品で生成されそう >>48
釣りだと思うが一応返答しておこう
NovelAIもStableDiffusionを使用したサービスだよ
使用モデルにNovelAI専用モデルを使っているというだけ
あと、質問するなら最低限の自分の環境、使用ツールや使用モデル等を書かないとまともな返答は得られないよ >>53
おお!ありがとう
参考にして引き続き調べてみる サンプリング方法を複数同時に生成して比較する方法って無い? 昔自分で作った同人誌をスキャンして取り込んだ画像があるんですけど
漫画の絵を実写化したり、違う絵柄みたいにする事は可能ですかね?
一枚絵じゃなくてコマ割されてます
遊びでやってみたいってレベルなんで本格的にできなくてもいいんですが何かあれば教えて下さい >>57
AUTHENTIC1111であれば X/Y plot を使えば大抵のことは比較できる webui-user.batを実行するとtorchがインストールできないと言われてしまいます
はじめにwikiの手順でバッチファイルを実行
仮想環境が作れないとのエラー
https://i.imgur.com/doUUCaO.png
こちらのエラーで調べたところ「python -m venv venvで手動で仮想環境venvを作れ」とあったので実行
バッチファイル自体は通るようになったが
https://i.imgur.com/5bHMtAa.png
とtorchがインストールできないとのエラー
こちらのエラーで調べたところ某wikiに「バージョン違いのpythonを使ったときのvenvが残ってるとこのエラーになるからvenvフォルダを削除しろ」とあったので削除
案の定1に戻る
という状態です
pythonのバージョンが影響するとのことなのでpythonは3.10.6をインストールし直し再起動(3.10.10でこのエラーが出たという過去の質問に3.10.6にしろとあったため)、リポジトリのクローンもやり直した上でこの状態です
pythonは64bit版、セキュリティソフトは標準のdefenderのみ、メモリエラーの表示もありません >>58
img2imgって呼ばれてる機能でできるよ。
でも遊びでやってみたいという話だから、1111導入じゃなくて、ここで試すのがいいかな。
https://dezgo.com/image2image
512x512以下に自動リサイズされるという制限があるけど無料で利用できる。
解像度の都合上、1ページ丸々だと細部が潰れがちになるから、1コマ切り抜いた画像とかがいいよ。
あとはPrompt欄に入力する内容と、選択したModelによって絵柄が変わる。
Strengthで元画像からの変化の程度が変わる。 普通に手順通りに導入したらそんなことにはならないんだがなんかいらんこと色々やってそう
もういっそお手軽導入系でいいのでは?
https://note.com/uunin/n/n715256399038 >>53
OS
Windows 11 Home (DSP)
プロセッサー
インテル Core i5-13400 プロセッサー [4.60GHz(P2.50GHz-4.60GHz/E1.80GHz-3.30GHz)/10コア(P6+E4)/16スレッド/20MBキャッシュ/TDP 65W-148W]
CPU冷却グリス
【熱伝導率: 16W/m・K】 ナノダイヤモンドグリス JP-DX1 塗布サービス
CPUクーラー
12cmラジエーターファン水冷CPUクーラー
グラフィックアクセラレーター
NVIDIA GeForce RTX 3060 12GB GDDR6 [HDMI×1・DisplayPort×2]
メインメモリ
32GB(16GB×2) [DDR5-4800 / デュアルチャンネル]
1stストレージ[OSインストール]
2TB SSD / NVMe M.2 [PCIe 4.0×4] (弊社特選※)
これで30万に収まった
ここ型落ち、性能足りないとかありますか? 導入方法なら同じようにするだけだぞ
pythonのバージョンが違うとか、ちゃんと説明みてやれとしか言えん
仮想環境の設定なんかした覚えがないわ >>64
環境にもよるがi5のK無し定格でCPUクーラーに水冷は過剰でポンプの駆動音が気になるかも知れない、
ワイのは12世代のi7で大型ヒートシンクの空冷低速ファンで充分間に合う、横で寝てもほぼ無音な位や
オンボードグラフィック使えばVramをその分学習に回せる
メモリーは32GBで不足なら後から買い足せば良い、位やな 実在の人物ローラ作りたいんですがなかなか似ません、どうしたら良くなりますでしょうか? >>64
モニタ含めてフルセットで、だよね?それなら妥当な値段かな
あとは電源が書いてないけど3060なら最低でも650は欲しいぐらい
ショップによっては初期選択の電源の品質が低いっていう店もあるからレビューとかよく調べてみて
あと人によっては専用にSSD追加しろって言い出すかもしれんが、それは必要に応じてかね
お絵かきAI目当てでPC買っても飽きちゃう人も一定数いるし >>14
これってどういう手順でやってるんですかね?
cannyで元絵の輪郭抽出→taggerで元絵のキャプション作ってpromptに貼り付け→cannyで生成、って感じでやってもここまで忠実な絵が出ない。 >>64
もしもSSDが1TBなら俺は「HDDを追加した方がいいぞ」って言ってたけど、
これはSSDが2TBあるからまあいっかって感じだな。好き好きだしね。
>>70の言う通り、モニタを含んでるかどうかと、電源容量を確認してねってだけだ。
あとは俺も>>67と同意見で、水冷より空冷の方がトラブルの心配が少ないと思う。
リテールのCPUクーラーじゃなくて他社製の空冷CPUクーラーね。 >>62
おお、ドンピシャです
やってみます
ありがとう パソコン工房というサイトで自分で選択していく方式でモニターとかマウスとかも込みの価格です
空冷クーラー検討してみます Loraで学習させたあとのsafetensorsファイルから学習元の情報を引き出す方法ってありますか? >>64
覚悟してるとは思うけどグラボが性能足りてない
lora+hiresかけると3060は1枚40秒以上かかる
4070tiは1枚14秒
4090なら1枚8秒
loraもhiresも頻繁に使うので我慢できるかスマホのストップウォッチで測ってみたらいいと思う >>79
4070というのにするとプラス15万…
天秤にかけたらまぁ時間を我慢する方向でいこうかな… 前スレに出てたjyojipan LoRAは実写系だと味気ないただの綿パンになっちゃう
実写系でもサンプル画像のようなガーリーなの生成してくれるやつないですかね >>81
もう自作した方がロスが少ない
結局パーツ見始めるとBTOのアラしか見当たらなくなる
超絶妥協するか予算を足すかだ
幸いパーツを調べる事自体は金かからんし結局性能云々言い出したら自作するのが簡単なくらい知識を備えないといかんのだよ >>81
上見たら金溶けてくからその選択が賢いよ
ゲームもやるなら4070ti有っても腐らないけどね
ちなみに今月中に4070が出るね10万切る予想されてるVRAM12GBね >>77
パソコン工房なら大丈夫そうだ
良い買い物になるといいね
オレはブーム当初から3060でやってるけど十分楽しめてるよ
次買い換える時は5000シリーズかな >>80
VRAMとメインメモリはまったく違うシロモノなので残念ながら無理
ただ、低VRAMでも動かすオプションはあるので4GB程度でも一応生成は出来る
めちゃ遅いが >>61
Commit hashがnoneになっているから、pythonのvenvが適切に動いていないのは間違いない。
一度、pythonを含め全部削除したあと、>>2の手順を一切省略することなく手順通りにやってみ。 30万の予算があれば実質23万くらいの4090に全力ブッパして残り7万あれば構成組めるけど
自作初心者にはちょっと無理そうだな
でも4080は行けるっしょ
今更3060買うのはちょっとなぁ 前は学習とVRAMだけ見てればよかったけど
今はloraとかhiresやmultidiffusionとかcontrolnetとかlatentcoupleとか
Extensionを重ねがけするのが当たり前になってきてるので
それをある程度ストレスなく使えるグラボっていう視点で選ばないとキツイと思う 毎回環境構築に5分とかかけるのクソじゃない?
横着するために10万単位出せる人は出した方がいいよ >>89
ざっと妄想した感じ
CPU 12世代 i3 or ryzen4300G 15000円
マザー BIOSTARでもいいので5000円
MEM DDR4 8GBx2 7000円
SSD hiksemi NVME 1TB 8000円
ケース適当なの8000円
電源 クロシコあたりの650W 7000円(CPUへちょいので無問題)
ここまでで5万円
マウスキーボードをロジの3000円にしてもモニターに1万円7000円ならまあなくは無い
クソ安モニターは割とAOCおすすめ
OSは当然ですがubuntuです
ネイティブ環境のPythonを堪能しましょう 予算30万あるのに3060環境ってのは俺は全力で止める >>31
動画解説。環境のバージョンアップに合わせて動画もアップされてるけど、
うp主はそんなに詳しく無さそうなのであくまでふいんきを覚えるのに。
ttps://www.youtube.com/watch?v=6YOugshoyO4
日本語の解説
ttps://katsuyuki-karasawa.github.io/GenerativeAI-wiki/LoRA/kohya-trainer/
英語の解説 (上よりはちょっとだけ詳しい?)
ttps://civitai.com/models/22530/guide-make-your-own-loras-easy-and-free プロンプトってなんでカンマの後に半角スペース1つ置くの?スペースなくても変わらんよね? >>102
ネタじゃないだろw
恥ずかしいやつだなw 今買うくらいなら4/13発表らしい4070を見てからの方がよくない?
4070Tiが12万~だから、4070は10万切る可能性あるし >>94
オレじゃなくて相談者のログを読んだうえで本人に説明すればいい
なんでみんな最初の質問も読まずに好き勝手言ってるんだ >>107
キチガイから絡まれちゃってるふんいきなw おまえらそんなガキみたいな話題で良く書き込めるなw >>104
ベンチ見てからでもいいがスペックはだいぶ落ちるぞ VRAMの容量さえ多ければ他のスペックなんか気にならない 基本的には費用を抑えたいなら5万で3060で、予算が許すなら許す限り上位の40シリーズ狙いだろ
30万くれるって言われたら俺なら4080狙いだな >>114
それは当然理解してるけど、>>64の構成をいじって4070を押し込める可能性もあるから
後悔したくなければ、あと数日待った方がいいかなと
>>64の構成がそもそもいくらなのか書いてないしね
CPUが13400でGPUが4070は、CPUがちょっと弱いかなという気もするけど、画像生成AI用途なら
あまり問題にならんだろうし >>78
普通にメモ帳でもいいから開けばjson形式のメタデータが見れる
右みたいにファイル突っ込んで整形して"ss_tag_frequency"があれば頻度順に並び替えて表示するようにすると便利かもしれない
https://i.imgur.com/6YTevdA.png loraのことで聞きたいことがある
例えば、りんごを学習させたいとして
りんごと女の子が写ってるやつを学習画像にすると、女の子のほうも学習しそうだから りんごだけ写ってる画像を用意して学習させる方が制度が高くなる
間違いないですか? OS Windows 11 Home (DSP)
インテル Core i5-13400 プロセッサー [4.60GHz(P2.50GHz-4.60GHz/E1.80GHz-3.30GHz)/10コア(P6+E4)/16スレッド/20MBキャッシュ/TDP 65W-148W]
CPU冷却グリス
【熱伝導率: 16W/m・K】 ナノダイヤモンドグリス JP-DX1 塗布サービス
CPUクーラー 空冷CPUクーラー
グラフィックアクセラレーター
NVIDIA GeForce RTX 3060 12GB GDDR6 [HDMI×1・DisplayPort×2]
メインメモリ
32GB(16GB×2) [DDR5-4800 / デュアルチャンネル]
1stストレージ[OSインストール]
2TB SSD / NVMe M.2 [PCIe 4.0×4] (弊社特選※)
2ndストレージ
1TB SSD / NVMe M.2 [PCIe 3.0×4] (弊社特選※)
チップセット インテル B760 チップセット
サウンド機能
High Definition Audio subsystem
内蔵ネットワークカード
有線:1000BASE-T ※無線機能はついておりません
光学ドライブ無し
ケースファン 12cm ケースファン 上面×1・背面×1 (水冷CPUクーラー搭載時は上面×2・背面×1)
電源 800W [80PLUS GOLD認証] / ATX電源
ケース ミニタワーMicroATXケース
キーボード Logicool keyboard K120(有線/日本語109 キー)
マウス 光学式マウス[ブラック](有線/USB接続)
ゲーミング・マウスパッド
SteelSeries QcK medium
液晶モニター
【27.0型(フルHD:1920×1080)/IPS】BenQ MOBIUZ EX2710S[リフレッシュレート:165Hz/HDR対応]
【LANケーブル・3m】LD-GFATBMシリーズ CAT6A準拠[厚さ1.4mm/10Gbps/ストレート]
単価 279,805円
熟考の末上記内容で注文しましたー
みなさんアドバイスありがとうございました😭 >>119
一概にそうとは言えないので難しい
例えばりんごの学習量がほぼ無いものだとして
自然に果物や食べ物としてりんごを出したいのであれば『皿の上のりんご』とか『手に持ったりんご』とか『木になったりんご』とか、使われ方がセットになった絵で学習したほうが自然な結果が得られるかもしれない
切り取った単体であっても、食べ物や果物というタグを付けるだけで、すでに覚えている他の果物や食べ物と差し替えて生成することが出来るかもしれない
メガネを例に出すと、メガネだけ単体で覚えさせると単なるアイテムとしてしか覚えずに空間に浮かんだりするけど、メガネをかけてる人の絵も一緒にタグ付けて覚えさせるとちゃんと顔につけてくれる
ただこの場合も、メガネに関して言えば、すでにそれなりに学習しているので案外単体でもいけるかもしれないし
なので、学習させたいモノとその用途次第で方法も変わってくる
特に用途が限定的であれば学習画像も少なくて済む >>120
ホントに一式だね
熟考したなら大丈夫だ 初歩的な質問で申し訳ないのですが
画像生成すると、高確率で首周りに襟やらリボンやらがついてくるんです
首周りは何もつけたくないんですけど、どういう呪文使えば首周りスッキリさせられますか? >>125
この手の質問する時モデルはさておき入れてるプロンプトくらいは出してくれた方がアドバイスしやすいかも >>125
Negative Promptにそのくっついてきているものをそのまま記述して(xxx:1.9)くらい強調したらだいたい消える。
それでも消えなければ、指定しているプロンプトが、その首回りの要素も含めて一つのものとして学習していると思われる。
自作モデルなら画像のタグを見直して再学習、拾い物なら他のモデルにする。 >>127
anything-v4.0 です!昨日ローカル版インストールしてあれこれ触ってるかんじで
呪文とか色々調べたりしてあれこれやってみたけど消えなくて
AIイラスト呪文生成器という便利なサイトさんでプロンプト作ってる感じです
>>128
なるほど、同じ画像が生成されると学習しちゃうんですね
モデルとか変えたりしてやってみます
まだ自作できるほどの知識がないので、借り物のモデル色々変えて記述を強調の仕方も頑張ります
ありがとうございます おケツ越し振り向きが得意なモデル無いでしょうか
色々試したが大体ぐちゃぐちゃになる 気に入らないごく一部を直そうとしてちょっとプロンプトいじると全体がガラッと変わっちゃうんだよね
i2iで部分修正するかフォトショで消すかしたほうがいいと思う >>129
> なるほど、同じ画像が生成されると学習しちゃうんですね
いや、そうではない。生成された画像で再学習する仕組みはStable Diffusionにはない。
例えばショートヘアの画像に全て「short hair」というタグを付けることでshort hairといえばショートヘアと学習する訳だけど、
その学習画像のすべてが襟付きシャツだと、襟付きシャツまで含めて「short hair」として学習してしまう。
それを避ける為に、ロングヘアの画像を追加して「long hair」と付けて、両方に「collared shirt」と付けることで、シャツと髪型を分離できるんだが、
それが十分に出来ていない場合、ショートヘア画像を出そうとすると、襟まで出てきてしまうことが非常に多くなる。
で、Negative Promptに「collared shirt」を追加することで、他の画像で「collared shirt」の学習があれば、その様な描画を避けられるようになる。
が、そもそも「collared shirt」が学習されてないとなるとその様なことも出来ないので、そうなるとモデルを変えるしかなくなる。 >>120
将来を見越した構成でいいと思う
無理してカツカツで揃えるより安定した運用が出来ると思う
良い生成ライフを! 質問があります。civitai.comのLORAをに「Base Model SD 1.5」とありますが、これは「Stable Diffusion1.5を使え」ってことなんでしょうか? 1.5系と2.0系があるので1.5系だと言うことですね
本当にSD1.5のデフォモデルを使うと崩壊しますよ >>136
ありがとうございます。ただ、超初心者なのいまいち良くわかってません。Base Model SD 1.5と書いてあるLORAを使うにはGoogle Colabにどんな設定をすればいいのでしょうか。参考になるサイトなどあれば助かります。 俺はローカルなので、それは知らんので他の人に聞いて >>138
失礼いたしました。ありがとうございます。 >>137
colabでの使用以前に、モデルのバージョンについて理解しておいたほうがいい
StableDiffusion(以下SD)の学習モデルには、大きく分けるとv1.4~v1.5をベースにした1系モデルとv2.0~v2.1をベースにした2系モデルの2種類がある
そしてその2種には互換性がない
とはいえ、今現在みんなが使用してるであろうモデル(AOM3とかchilloutとか色々)は大半が1系モデルなので、基本的にはSD1.5ベースと書かれているLoRAであれば問題ない colabの最大の問題は、巡回BOTに生成画像が実写/アニメ関係なく未成年エロ画像と判断されて
アカバン&関連データ全部引き出せなくることだしな
さいとうなおきれべるならネタにできて笑いも取れるだろうが、一般人は泣き寝入りだしね LoRAの学習で素材画像が少ない場合、繰り返し回数とエポック数とでどちらを増やした方がいいとか目安はあるのかな? >>142
Googleドライブ上に画像データ残さなければいいんでそ? キャラクターじゃなくて特定の絵師の画風だけを真似したくて色々探してるけど、わりと丁寧に説明しているのがこれくらいしかない。
https://youtu.be/-omM46Yj2yM
他にも簡単な方法とかあったりする? (StableDiffusionの)txt2imgで生成している時点でupscale使うとどうしても絵が崩壊しがちになるけど、放置且つ複数のプロンプトで生成させてる状態で高解像度の画像を量産するにはこの手法しかないんですかね?
手動でなら幾らでもやりようはあるけども... >>145
出来合いのLoRAでちょうどいいのがあればそれを適用する。
無ければ頑張って自作するしかない。AIは生成するまでの準備に手間がかかる。その労力は払うこと。
どうしても手間かけたくないなら、絵師に金払って描いてもらうのが最適。 >>145
みんなやりたいこと色々だな
俺は逆に画風を除外したくて、あえて画風学習させたコピー機モデル作って
そのモデル使って更に学習させたい服やアイテムとの差分だけ学習とかしてみてるが、
まぁ中々にめんどくさい モデルの追加をしたくて、
models/Stable-diffusion
にsafetensorsファイル入れてるけど反映されない。
もしかしてやり方間違ってる? 押したけどリストに出ない。
一応再起動も何度かしたけど出ない。
導入方法はフォルダに入れるだけみたいだけど前提手順があるのかな? >>147
(StableDiffusionの)txt2imgで生成している時点でupscale使うとどうしても絵が崩壊しがちになるけど
まずここを見直すんだ。崩壊しにくいupscaleを身につけよ 昔入れたらしき
wd-v1-3-full.ckpt
model.ckpt
はリストに出るんだけど、今日入れてみようとした
v1-5-pruned.safetensors
sdHypernetNendroid_10.pt
maplestoryStyle_v30.safetensors
はファイルに入れても更新してもリストに載らない >>154
Maplestory styleはモデルじゃなくてLoraだからmodels/Loraに入れないとダメだな
Loraの使い方は調べてもろて >>154
昔入れたらしき、が気になるんだけどwebui全然更新してないのでは? 質問です。webuiなんですが
ノートパソコンのc直下にフォルダ作って使用してます。
これをまるっとコピーしてデスクトップに入れても動くでしょうか? >>146
スマホからエロ絵生成してるけどまずいんか...? Loraの自作をしようと考えているのですが、モノクロ素材のみを学習させた場合、
着彩された絵が白っぽくなったり主線が強くなったりしますか?
形状だけに作用してもらえるとありがたいのですが。 >>157
実はデスクトップはCドライブの深い階層にあるので大きなファイルフォルダは置くべきではない
まだC直下のほうがマシだよ
そもそもCドライブはシステムドライブなので出来ればCではなく別のドライブに置くのがベスト >>159
もちろんその可能性はある
あくまでもモノクロ、線画、ということをタグ付けし、使用時はネガティブにモノクロ、線画と入れることで抑えることは出来るかもだが、同時に本来の絵の成分も抑えられてしまう可能性もある
ともあれ、学習環境があるのならやってみるのが一番
納得できる再現レベルは本人にしかわからんし M.2じゃないとSSDのパフォーマンスを最大限引き出せないと聞いたのでSATAの増設SSDあるけどprogram fileとか入ってるM.2SSDをパーティション分割してそこにSD入れてる >>158
エロ自体諦めるか、凍結されてもいい捨てアカでやることだね >>162
そこまで速度にこだわる人達はグラボも4090とか買ってるレベルの人達だけだよ
普通の人はUSB3の外付けSSDでも十分ストレスなく遊べる
それにモデル入れ替えやマージなんかを多用すると劣化を爆速で早めるので、個人的にはシステムドライブにインストールするのはあまりオススメしない >>164
そうなんか...今度SATAに移すか... >>159
civitalに漫画(chainsawman)の白黒線画学習させてる人いるけど、カラーや実写風もいい感じで出てるね
学習のさせ方がよっぽど優秀なだけかもしれないけど 顔はこのモデル、体はこのモデル、塗りはこのモデル、みたいな風にしたい時皆さんはどのようにしてますか? あのLoraほんま凄い
AIの良さ引き出しまくってる >>158
凍結ならまだいいが、国際手配なんてされたら洒落にならんぞ。
クラウドでエロ絵は厳禁と思っとけ。 >>148
その頑張って自作する方法を聞いているのでは…? キャラクターLORAはまだ簡単だけど画風だけ学習させるのほんとすごいわ >>160
ごめんなさい質問が悪かったです
ノートパソコンからデスクトップパソコンに移動するという意味です
紛らわしくてすみません >161
>166
あざます!
情報たすかります。 生成中に他の作業すると時間だけじゃなくて結果に影響する可能性ってありますか? >>170
画風学習は>>145自身が見ているようつべ動画で解説されているので、地道にやるしかないよ、ってことを案内している。 >>174
画質や画像の内容には影響しません。VRAMが足りなくなって
CUDA oom(out of memory、メモリ不足)エラーを吐いて出力されない可能性はありますが。 >>172
であれば、無理
あらためて再インストールしたほうがいい
ただ、モデルやLoRAとかはコピーして普通に使える
pythonとか入れたくないのであれば簡単系インストーラーでの導入もありかも >>172
別PCへのコピーでは動作しない可能性がある。
新規でセットアップして、モデルだけ移植した方がトラブル起きない。 新たにインストールするたびにバージョンが微妙に新しくなってる件 同じでいたいならハッシュはメモってもろて……
まあaなんたらかんたら安定って100人に聞いたら1000人がそう答えてくるけど ggの具をChilloutとかに階層マージする場合、
パラメータをどう設定すればいいですか? >>177
>>178
ありがとうございます
やはりめんどくさがってはダメですね
インスコがんばります
アドバイスありがとうございました >>132
あれ?学習させたいものはタグを消すんじゃないの?
ごちになってきた >>132
あれ?学習させたいものはタグを消すんじゃないの?
ごちゃごちゃになってきた >>132
全体を見て細かくキーワードを設定すればいいのでは? たまにこういう感じで全体的に黒いジャギジャギの影みたいのが入った汚い画像になることあるんですけど回避する方法ないですか?
https://imgur.com/a/3J5viLt
通常はキレイな肌や背景になるんですけど数枚に1枚程度でなるんですよね 解説サイトを読むと、プロンプトにmasterpieceだのhigh qualityだの入れてるけど、そんな「良し悪し」に関することをどうしてAIが判断できるんだ? これは良しのデータであれは悪しのデータって人間が教えたから >>182
面倒ならこれとかクソ簡単よ
ttps://note.com/uunin/n/n715256399038 無垢なAIにどう教えたらどう覚えるか
この辺がノウハウになりそうだね 前に同じ質問あったら申し訳ないんですが
うちの環境だとウィンドウズのリアルタイム保護をオフにしないと、user.bat起動してもボリュームラベルがありませんとかでWEBUIが起動しないんだけど
同じ症状だった人とかいたら解決方法ご教授願いたいです ってwebui-user.batか、考えすぎた
揚げ足で済まんがファイル名は正確に
リアルタイム保護=オフだとちゃんと動くのは確定でOK?うちはオンだけど普通に動いてるなぁ
SDフォルダを除外に入れてみたら? >>184
LoRAの学習において、学習させたいもののタグを消す、ってのは、自動生成のタグのお話。
学習させたいものを形付ける要素がタグ付けされていると、学習させたいものと別のものとして学習されてしまう。
WD14 Captioningは、AIが一般的なモデルを使って一般的なタグを付けるので、その一般的なタグの中に、
学習対象を形付けるものが含まれている可能性があり、手動追加するタグと一体化させたいものはタグを消す。
例えば、galsoneを学習させたい時にWD14 Captioningを通したらglassesが入ってくるんじゃないかなと思う。
でもgalsoneの特徴としてglassesは欠かせないので、一体化させてgalsoneとして学習させるためにglassesを消す。 Canny使うとギザギザになりがちなのはどうにかならないものか 重み変えたりモデル変えてみたら?
どっかでモデルで微妙に変わるって意見見たよ >>197
直接本人に聞いてくれ。ヒの添付画像はメタデータが消える仕様だから、エスパーしかできない。
MultiDiffusionでも使ってるんじゃないか?
でも普通にHires.fixで出力してからExtrasタブで2倍にしてるだけかもしれんなー。
あと破綻は後からInpaintで修正してもいい。 こいつ本人に聞かないで他でも聞いてるし解決しても教える気はないって言ってるんでほっとけばいいよ pci express3.0マザボにRTX4000シリーズ挿してる稀人おる?
ゲームだとほとんど変わらんらしいがAIだとどうだろう? うんこしてる女の子の画像作りたいんですけど、よさそうなLoraのデータはどこかからダウンロードできるんでしょうか? リアル系で中々良い画像が出来たんで、高画質化にしようとhires.fixでやったのですが、
若干顔が変わってしまうのはしょうがない事ですかね?
https://yuuyuublog.org/hiresfix/
を見てやったんですけど。
メモリの問題で2倍は無理だったんで1.5倍にしました。 i2iでhiresfixを使う方法って無いんですか 単純に解像度だけ上げたいならwaifu2xとか。
背景を拡張したかったらleonard.aiのcanvasとか。 NHKクローズアップ現代でChatGPT来るか…
どんなスタンスで取り上げるのか見ものだな CEOが来日して岸田首相と会った話だろ
統一地方選挙の後半戦が始まるからヨイショ企画 >>169
まじかよ...俺捕まるんか?もう辞めるから許して 児ポで国際手配されたらめちゃくちゃ有名人になれそう
それでYouTuberになればお金持ち Googleドライブなりアメリカのクラウドサービスに児童ポルノ入れてると米国に入国した時点で逮捕されるみたいな都市伝説は聞いたことある >>207
pcブラウザで開くとバチバチの4K以上
4000x2160だったかな、こんな破綻が無くて解像感のある4K初めて見て衝撃だわ
ここも向こうもloraは鬼のように探求してるのに
高画質化は遅れてるんだよなー >>216
スマホ内の画像チェックも抜き打ちでやられて
捕まった日本人がいたぞ >>208
civitaiでDefecationで検索 >>218
俺もそういうニュースを見た記憶があるが、起動やログインはともかく空港職員が中身までチェックすることは有り得ないので、何らかの理由で元々目をつけられてたかアウロリ画像をホーム画面にしていたかだと思われる >>220
抜き打ちでやってると聞いた
目を付けられてるわけじゃないよ こちとら2次元にしか興味ないのに犯罪者予備軍と思われるのは心外だな 真面目な絵出してんのに突然裸になったりするからな、どいつもこいつも >>222
どう考えても二次元で捕まってる例がオーストラリアであるぞ
税関で何かアプリ経由で大量の画像が……とか漫画アプリだろというのがあった 解像度低いと画像破綻率低いけど解像度上げると破綻率も上がるんですかね
そこで解像度下げてHires.fixでアップスケールするとプレビューで見てる感じだと画像生成時はまともなのにHires.fix効く時点で破綻する事が多いです
例えば背景の空に浮かんだ雲が頭の帽子に変形したり腕の横のふとももだったのが一体化したり等々
なるべく破綻無く最終出力解像度上げる良いバランスや方法、考え方等アドバイスいただけないでしょうか 3:4が良いかなぁって576:768で生成してるけども少し下げた方が良いかな? 512:684でもいいかもしれんが破綻してないならいいじゃない コマンド操作でのエラーはコピーしてchatGPTに聞いてみ
これで何回か解決してきた >>221
空港職員が中身まで見るのは有り得ない
抜き打ちでやっているのは起動確認やログインまでで、これは本物の機械である(よく似せた爆発物等ではない)ことを確認するため >>226
LoraでDenoising strength デフォルト値より低い値推奨のがあって基本ほとんどの値は高いほど良いと思い込んでたからそういう事なのかもですね
目から鱗です
試してみます! なお容疑者は「このキャラは1006歳だから合法だ」などと意などと意味不明な供述を繰り返しており >>230
いや児ポの抜き打ち検査だとはっきり言ってたから
間違いないんだよ 複数のLoraを使ったり他の拡張(LatentCoupleとか)を組み合わせたりといった
生成に負担かかってそうなときはパラメータは思い切ってグッと下げる
weight、CFG、Denoisingとか このご時世クラウドでアウロリ生成はBANに留まらず何時いかなる理由で
社会的にアウトになるかわからんから止めとけって結論は変わらないんだから
空港がどうとかスレ違いの方向でレスバしなくていいぞ google(colab)はアメリカ企業だという事をゆめゆめ忘れるな 日本じゃOKだが、COMIC LOとか持ち込んだら100%捕まる Googleドライブにjcjkの裏垢無修正を保存して5年経つけどお咎めなしだな >>87
ありがとう
python周りだけじゃなく過去にanacondaを導入したときに変更されてた設定回りとかも徹底的に潰したら起動できました
おかげでAI絵デビューできます 連投&始めたばかりの赤ちゃんで申し訳ない
生成してみた感じVAEが適用されてないんだろうなという色の薄さなんだけど上の「SD VAE」にはちゃんとVAEがある(VAEの切り替えをした上でUIのリロードもした)
これはVAEは効いているんだろうか?
https://i.imgur.com/9XCPLTq.png
それともまだプロンプトを入れて生成するとこまでしかやってないからモデルとVAEだけだとこんなものでLORAとか導入すると変わるんだろうか >>240
ローカルは貧弱なんだよ
おろろろろーん >>243
scriptでVAEを複数設定してみて比較するのはどうかな? >>243
ネガティヴプロンプトに前スレで貼られてたこれ
https://i.imgur.com/YpXQTPt.jpg
入れてみると変わるかも? >>243
試しにネガティブにmonochrome入れてみて
それかEasyNegativeを入れてみ EasyNegativeはTextual inversionのやつのことで
ダウンロードしたファイルをstable-diffusion-webui/embeddingsのフォルダに入れて使うやつな >>243
一応VAEなしと比較してみて変化があるか確認
モデル名と同じ名前のVAEファイル入れると自動で読み込む設定になってないか確認
safetensorsのやつに変えてみる等 とりあえずネガティブにmonochrome入れてみた
ちょっと彩度上がったかも?
https://i.imgur.com/AedlrhS.png >>246
>>250
これ素晴らしい作例だね
いかにネガプロントが肯定プロンプトと同等かそれ以上に重要かが分かる >>246を参考にグレースケールも入れてみたらだいぶ発色がよくなった
VAEは効いてるってことでよさそうね
画像にあるkl-f8-anime2はckptしかなさそうだけどこれ使っちゃって大丈夫かな
https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae 回答待たずにやってしまった
kl-f8-anime2も入れてみたらめちゃくちゃビビッドになりました
ありがとう
https://i.imgur.com/QINlwo5.png >>217
stable deffusinでわざわざ解像度上げながら生成しなくてもいいんだぞ 生成途中のぼやけてる絵はいい感じなのに最後の補正で「残念!守備範囲外でした!」みたいになるの
本当にガチャだかスロットの演出に似てるわ・・・ corabでエロを生成するのはダメだけどtiktokに画像上げてるJKの顔を学習させるのとかは全然オッケーなんだよね
ただの顔だしね >>256
Live previewsのShow live previews of the created imageをオフにして結果だけを見るようにするとよろし
若干早くなるしな >>235
少なくとも日本国内では非実在なら問題無いぞ
猥褻物との絡みはあるとしても
合法な物を勝手にケシカランと騒ぎ立てるのはツイフェミや壺だけ >>256
なんでそっちになっちゃうの……っていうねw easynegative とdeepnegative はそれぞれどっちがどういう役割かわからなくなってしまう
適当に上げたり下げたりしてるけど
deepnegativeが人体に関することで、easyは逆さまになったりっていう構図に関するものだっけ? >>260
国内クラウドでGPU使えて利用料が安いところってどこかあるか?
ここの大多数が使ってるColabはGoogle提供で適用法は米国法。国内法で考えるものではない。 画像生成AIの怖いところは100%合法なものだけが生成されるという保証がない点。
事故でアウト品と見做されるものが生成される可能性がある以上、ローカル以外でのエロ画像生成は常に人生賭けた勝負になる。
実在人物のLoRAでも使わない限り、非実在なのは確定しているが、それを証明する術がなければ負け戦が確定する。 エロはローカルで。これは徹底して
海外企業のサービスでのロリエロは海外のフェミに付け入るスキを与える
やるなら日本企業・日本国内オンリーで
エロ同人もエロゲもそうやって生きてきた RTX4090持ってる者なので、持たざる者の悩みはわからない RTX4070ti持ってるからtorch2.0を試したくて色々やったけど出来なかった
でもlaunch.pyから起動してstable diffusion web uiを開くと下の方にtorch2.0.0+cu118と出るようになった
なんでえ?
てかlaunch.pyで起動していいの?
webui-user.batから普段は起動してたけどどう違うだこれ >>267
それは…その…お前…アレだよ! なあ?
webui-user.batから起動する時とlaunch.pyから起動する時とで
利用される起動オプション(COMMANDLINE_ARGS)が違うからだろ?
でも前者を利用する前提になってるんだから、前者でどうにかするのが一番だぜ
というわけでwebui-user.batの内容を色々試すんだ PCIEx1にAI用グラボ追加したいのですがAIってマイニングみたいにグラボ内で演算完結するものなのでしょうか >>272
はい
めっちゃ古いCPUだけどベンチマークは最新使ってる同GPUの人と全く変わらない 流刑になった犯罪者が祖先の国オーストラリアではAカップの裸体はアウトでなかったか?
当然二次元もアウトの頭おかしい国家 パンティを脱がずに着衣させるコツはどんなプロンプトでしょうか?
それと一枚だけにしたいです
強調すると辺り一面に伸びきったパンティを出したり
はいているのに腿にパンティずり下ろしたり
脚の中から生えていたりと安定しません
よろしくお願いいたします 3dの超リアルな全身画像作りたいんですが
なんかショボいのしかできません
コツありますか? >>264
これマジすか?オンラインのブラウザ使用だと
なんかの画像から引っ張ってきてる感じ? sfwつけてnsfwをネガティブにいれてもエロでるしなあ >>274
最初からそう言っている。
>>260が日本国内では合法なものを騒ぎ立てているとか頭悪い話しているから国内クラウドじゃねーだろって話をしている。
>>278
その様な話ではない。
AIはエロであるかどうか、ロリであるかどうか、という学習をしていない。ただ、このタグはこのような要素である、という学習しかしていない。
だから非エロのつもりで人間が指定しても、AIにとってのその要素に人間にとってのエロが含まれていれば容易にエロ画像になる。
(割と容易に脱ぐモデル、という話が出るのはそのため。) >>278
AIは学習したものしか出力できないので児ポ画像がでるということは
児ポ画像を学習しているということなのよ
出力された画像が実在の人物に近い場合も当然ありえる
有名人なんかはかなり似ているものが出力されるし >>280
>>281
解説助かります、こりゃオンラインでエロ作ってるやつはいずれ逮捕されますわ
あと男キャラとか、背景や車とか物を量産したいんですが、モデルデータはまだおんなめいんですか? >>214
FBI 来た時 当然 英語だったから
英語の勉強しとけよ >>270
手順通りstable diffusionの導入からやり直したら無事できました >>267
webui-user.bat → 利用者が指定した起動オプションをwebui.batに渡す。
webui.bat → webui-user.batから渡された起動オプションと、現在のシステム状態から適用できるオプションをlaunch.pyに渡す。
launch.py → webui.batから渡されたオプションを使って、SDのモジュールの準備と起動を行う。
webui-user.batとwebui.batはlaunch.pyの起動に必要なものを適宜準備してくれるもの。
それらで渡される機能が適切に準備されていれば、launch.pyを直接実行しても問題はない。 初歩的ですが
何も指定しないと巨乳になる
Negativeにbreastsを入れるとペッタンコになる
中間はどうすれば良いでしょうか >>287
small breasts
ただし、そのモデルが巨乳しか学習していないのであれば、どうにもならない。 >>287
とんちだよ、とんち
大きくせず、小さくもせず、
こんもりとしたお椀はなーんだ? すいません、オンラインで人口AI使うのはわかるんですが
ローカルでもcpuでも同じ性能なんですか? >>288
small breastsは最初入れていたんですが、どうも効いていないようで
モデルはAOMとかAnythingです
>>289
お椀と指定するのかな、やってみます SD
t2iでxyz ploのStylesにて複数のスタイルを設定、Batch countを100にして、
寝てる間に次から次に画像を出力しています
i2iでも色んな画像を登録して次々に出力したいんですが、
そのようなことが可能な方法ありますか? 分かりにくいけどちゃんと中段右にBatchってタブがある ブーメランパンツ履かせた長髪洋ショタ作りまくってるだけな健全俺は許されたな! >>281
なんかおかしい誇張してるから突っ込んでおくが
「右手を挙げているおっさんの絵」と「右手を下げた女性の絵」を学習したAIは「右手を挙げている女性の絵」を出力できる
それと同じ事で子供の体形比率を学習したAIは大人の裸から子供の裸を描く事を試みれる
自ポ出力するのに自ポ学習する必要はない
だけど学習したわけではないから仔細が違う
その仔細まで再現するモデルがないからロリンスキーな人達はずっと優れたモデルを探し求めてる闇がある >>293-294
ありがとうございます
目的通りできました >>281
これドヤ顔でテキトーこいてたなら痛過ぎるなw これさ、ローカルの場合
その人のPCごとに学習させた内容で結果変わるのかな?
それとも、同じものできる? 普通はランダムキャプション入れてるから二度と同じものは作れない >>301
スゲー!!!
じゃあみんな違うもの作ってんの? >>296とか>>298-299とか
こういうのはリアルロリやってる奴だと思うけど
AIの仕組み的に学習していないものはまとに出力できない
こんなのは追加学習前のsd1.4とか1.5を使えはわかることだね
最近のモデルで簡単にリアルな児ポが出力できるということは児ポを学習させているから
逆に言い方をすると追加学習すれば著名人も版権キャラも簡単に出せる
児ポも同じことだわな ただもっと
サムネとか文字とかそういうの量産したいんだけど、まだ無理なのかな? civitaiでdoggystyleで検索して9MODELSと出たのに選択出来ないのは何で?
ログインもしてるのに >>305
右上の目ん玉でフィルタ設定
関係ないけどクリックするより新しいタブで開く方が断然早いのはなんなんだろう >>302
お前なにかと色々勘違いしてんな
>>301は追加学習のこと言ってんだぞ?
LoRA作る時にランダム設定にしてるから二度と同じ物作れないって言ってるだけ
なんかぱぱっと簡単に学習してくれると思ってるようだけど全然そういう仕組みじゃないぞ
ちなみに通常の生成のことであれば、設定数値その他環境含めて同じにすれば、まったく同じ画像が出る webuiでpytorch2.0使えてるか確認する方法ってあります?
pythonもcudaもwebuiフォルダも全部違うドライブに入っててちゃんと読み込んでるのか分からなくて
一応それぞれPATHは通ってるみたいなんですけど >>303
danbooru画像には2Dロリ画像が山ほどあるから、それらを実写化して生成してるだけ
だから児ポ画像はWD1.2の頃から出せたよ
知ったかぶり恥ずかしいぞ >>309
webuiのページの一番下にtorch: 2.0.0+cu118って出てたらおk >>303
AIの仕組みを理解してないのはお前だよ
学習したものだけが出るわけではなく、学習した内容を複雑に組み合わせて生成出来るのが特徴だぞ
>>296の言う通り
ただ、実際に児ポ学習したモデルも存在する
一時期4chでも有名になったやつな
それで生成出来る絵は2D絵が元になったニセ児ポとは顔立ちや体型も全然違うのですぐにわかるよ >>311,312
ありがとうございます!
確認してみたらtorch: 1.13.1+cu117だったのでやっぱ失敗してるっぽいですね… >>310
しったかもなにもAIの深層学習というのはそういうものなの
だから追加学習でリアルになってくんでしょ?
君が考えているような2次絵を学習してフォトリアルにするなんていう万能な仕組みはないの
(二次絵をを学習したらイラスト寄りになっていくので)
芸能人の写真を学習すれば、似たようものが作れるし
最近のモデルは児ポを学習しているから簡単に児ポが出力できる
こんなの常識以前だと思うけとね >>314
venvフォルダを一旦削除して、
webui-user.batに
set TORCH_COMMAND=pip install torch==2.0.0 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
を入れて実行してみて(CUDA11.8の場合) >>313
実際の学習の仕組みわかってる?
というか自分で学習させてる?
学習の仕組みを知ってるならちょっと説明してみてよ
基本的にプロンプトのワードごとに数層にわけて学習していくので
学習仕組み的に大人の裸体が子供に変換されることはないの
子供の指定ワードに子供裸体がまったくない場合どうなると思う?
子供のボディの輪郭に大人のディティールが描かれることはあるけど
今のモデルはそのレベルじゃないでしょ?
児ポを学習しているから簡単に児ポが出力できるわけ
アイドル・タレントを学習すれば近いものが再現できるわけ
こんなの当たり前なのになにを頑張ってるのよ? >>315
というか炉なんて20年前に
写真何枚万も見て、見飽きたやつが
やってるだろ
だからあえて脱がすリスクなんて負わない
危ないと思ったらそもそも上げない
ギリギリ攻めるのは本物のアホか
手っ取り早く金稼ぎたい反社
いきなりタイーホで最初の判例になるのは
winnyで思い知ってるだろ どこまでのロリ体型を想像してるかは知らんが成人女性でももろロリ体型してる女がいっぱいいるのはAVみてしってるだろ ガチ炉って
おそらく脳内で脱がせて乱暴するとこまで
イメージできてるからあえてすっぽんぽん
なんて見てないと思う
やっぱり表情 あと鎖骨 児ポ簡単生成できるとか言ってるけどやったことあんのか?じゃあ児童ポルノ製造と所持してるな?通報しとくよ 欧米はロリ犯罪が多いし、実際に行方不明になってる幼女の数が半端ないからロリコンに厳しいのは仕方ないよ
日本人みたいに画像で満足できる人種じゃないから dynamic promptの { | | | }構文でランダム出力の仕方はわかったけど
ランダムじゃなくて書いた順番通りに連続で出力させられる構文ない?
{small | medium | medium-large | large} breasts,
↑こんな感じで貧乳から徐々に巨乳になってく過程を一枚ずつ出力するイメージ >>324
プロンプトそのままdynamic promptsのパネル開いて
Combinatorial generationをポチ
下の方のAdvanced option開いて Fixed seedをポチってからGenerate Fixed seedを入れた場合はseedが固定されるのでほぼ同じ構図で出る
これを外すと通常処理と同じでseedがインクリメントされるから違う構図で出やすい
使い分けてね すみません
ロリで盛り上がる所申し訳ないのですが
どなたかパンティの問題にお答えいただけませんか?
パンティをプロンプトに入れてもずらしたりして陰毛ボーボー姿になります
パンティを強調すると脱ぎかけから何やら布らしきものを散らかします
最悪脱ぎかけでもいいんですが脚から生えていたりと許容できない範囲です
履かせた姿が望みです
できればパンティは一枚のみ出現して欲しいです
プロンプトでどうすればいいか教えて下さい >>327
ネガティブに陰毛とかプッシーとか入れたらええんやないか? >>316
わざわざありがとうございます!
ちゃんとtorch: 2.0.0+cu118になってて生成めっちゃ早くなりました >>327
(((underwear:1.5)))
で回せばでてくる >>327
そのAIモデルはパンティのワードで学習した内容がそういう感じなんだろうね
出力を縦長にして立ち絵指定にして、bikiniとかunderwearで試してみてブラ着用ならtoplessが効くかどうか
プロンプトの効き具合もAIモデルの学習内容によるので試してみるしかないかな >>325,326
神すぎる…マジでありがとう
これでおっぱいサイズの比較検討もできるし
年齢ごとのおっぱい成長記録も簡単に出力できる
今まで手打ちでやっててたのでマジで助かりました 返信ありがとうございます
一番正解に近いのが、モデルの学習状況だと思いました
XYプロンプトでネガティブに入れて試したりしたのですが
どうやらパンティは単独で着ているものと学習していないようです
陰毛除去もうまくできませんでした
どうも股間周りは一式関連して学習しているようです
ラクダと併用で誤魔化す所に落ち着きました
モデル依存ぽいのでここまで
ありがとうございました setting→stable diffusionにSD VAEの項目が見当たらないんですがどうすれば表示できるようになりますか? 自作loraを使うと生成画像がノイズだけになるんですけどどうすればいいですか? なんかみんな難しいこと言っててどっちが正解かよくわからんけど
どう見てもこれ、リカちゃんだろって顔か出てくるEL ZIPANG。 もちろんぺぺで売ってた方の利香ちゃん
(漢字合ってるかな?) modelデータにジポ画像が入ってるかどうかと
画像ディープラーニングがどういうものかというのとは別の話やしな >>317
間違いを指摘してんだってば
学習はお前が考えてるほど単純じゃなくて、覚えたことを複雑に組合せて出力出来るんだよ
実写モデルって2Dキャラを実写化出来るでしょ?あれも同じ
実際にリアルなキャラとか学習してなくても人間と2Dキャラの概念を混ぜて生成出来ちゃう
なので実際に直接学習してないものでも、組み合わせでそれっぽく生成出来るんだよ でもモデルをメモ帳で開くとただのテキストファイルなんだよね
すごいよね >>315
だから出来るんだよ2次と3次の合体が
ロリだけじゃなく学習してない色んなものが写実的に生成出来てるだろ実際に
ビギナーの多い質問板でこれ以上勘違い知識披露すんのやめろマジで
お前迷惑だよ どんなデータもメモ帳で開けばただのテキストファイルだぞ ID:ozJESyHhが何もわかってないパッパラパーなのは明らかにわかるが
かといって自分も学習についてちゃんとわかってるわけではないので何とも言えない この板小並感すごくね。
初期にいた人たちは旅立ってしまったのか。 >>333
英語的にはbreasts自体に巨乳のニュアンスが宿るので
small breasts より small chestとか flat chestの方が貧乳感出ると思うよ
もちろんモデル次第だけど 赤ちゃんなんだが、ダンボールタグってどういう意味? >>324のようなことはX/Y/Zプロットのprompt S/Rでやってたけど、dynamic promptでもできるんだね >>352
danbooruっていうイラスト無断転載サイトのタグ分けのこと
NovelAIモデルの二次絵は全部そこ基準で学習されてるから、プロンプトもdanbooruタグを書くという仕様になってる
そしてほとんどのモデルはNovelAIモデルが混ざってるので、他のモデルでもdanbooru基準のタグがわりと有効 >>350
リアル系のロリを投稿してる奴が、児童ポルノ法で逮捕されるのが怖いので
「児ポは学習してない!」ってデタラメ言ってるだけ
学習のやり方も知らないレベルだと思う Loraってなんか汎用的なものってあります?これ入れておけばとりあえずクオリティ上がるよみたいな >>342 >>345
しったかするなら学習のやり方とか階層学習の仕組みを説明してみろって
できないだろう?
ロラもブースも単語指定で学習してるの
だからトリガーワードで出力が変化するわけ
有名人を名前で学習してているから、名前を入れるとその人に近い画像がでてくる
子供とかロリとかの単語で3D児ポが出てくるってことは3次元の児ポ画像を学習しているからなの
ちなみにi2iで2Dから3Dに変換する場合も学習した画像に依存する
だからチビで新しいモデルを探してるんだろ? >>357
LoRAじゃないけどEasyNegativeとかbad_prompt_version2とか
model/embeddingsに入れてネガティブプロンプトにこれらを書くと有効になる
いつも必ず絶対よくなるとは限らないから、新しいモデルを使うときなんかはオン/オフ両方試してるけどね >>317
今使われているモデルは階層別マージモデル
例えば、Anythingは(どちらかというと非エロな)二次元強化モデルできれいだけどエロ画像が出にくい
gapeはエロ二次元特化モデルでエロ画像は作りやすいけどあまりきれいでない
インスタモデルは日本人のインスタ実写画像モデルでさまざまな年齢層の実写画像を出せるがエロはでない
これらを比率を考えてうまくマージするとさまざまな年齢層の実写のエロ画像が出せるようになる
実際basilmixあたりがこうやって作ったモデルで、非実在児ポが出せるようになったのはこのあたりから
ただ単純なマージだとそれほどうまくいかなかった
Diffusion Modelの画像を生成するUnetは入力層12層、中間層1層、出力層12層合計25層のニューラルネット
完全に分離しているわけではないが、層には実写風にする層とか背景を担当する層とか手を表現する層とか
層と概念との間に一定の関連性が存在している
なので全層まとめて同じ比率でマージするのではなく、各層ごとに別な比率でマージすることで、それぞれの
モデルから必要な表現力のみモデルに取り込むことができる
そうやって作ったのがchilloutmixのような階層別マージモデル
今のモデルは単に学習しただけではなく、脳みその改造みたいなことをしたから色んな画像が出せるようになったの >>345 >>342
児童ポルノ君さ
2次絵を学習すればリアルな人間になるなんて説明していサイトがあるなら貼ってくれよ
それができないならデタラメ垂れ流すなってこと
単語指定でアニメキャラが出力できるのは、そのキャラを単語で学習しているから
タレントの顔が出力できるのは、単語で学習しているから
単語指定で児ポが出力できるのは、そのAIモデルが児ポ画像を学習しているからなの Chilloutにも児ポ含まれてんの?それとも児童ポルノを学習してるモデルがあるって話? >>363
chilloutやbasilには含まれてない
だから大人顔の歪なロリが生成される
ただ、実際にガチロリを学習したモデルも存在するのは確か
ID:ozJESyHhはそれを混同しまくってるだけ >>362
お前、人の説明まるで読んでないな
会話にならん >>357
LoRAではないがEasyNegativeぐらいかな、そういうのは >>361
それはAIが学習した児童ポルノ画像を変化させてるってことにすぎないの
児ポ画像をまったく学習していないということではないでしょ?
追加学習とかモデルマージで出力内容が変わるのは当たり前 >>367
裸体と幼児(着衣)とを学習させれば組み合わせれば裸体幼児は描いてくれるよ >>367
何か証拠があって言ってるならそれを出せば早いと思うぞ >>362
うーんなんか極端すぎない?
実写の人間の写真を学習してるわけだから肌質も体型も成人女性から真似できるよね
2次絵から実写にできる話とはレベルが違くね
あと思うのが俺らが思ってる児ポと君が知ってる児ポのレベルが違うと思うわ >>368
それだと隠れている部分は大人化するんじゃね お気持ちスレいけよゴミども
スレのルールすら守らないやつが何時までもグダグダやってんな >>367
Anythingもgapeもインスタモデルも実写児ポは学習していない
Anythingとgapeが二次元ロリを含む二次元エロ画像を学習しているだけ
basilmixもchilloutmixも実写由来のエロを含んでいないのがわかりやすいのはcum(射精)の表現
二次元の真っ白な精液しか表現されないはず >>363
児ポ画像を学習しているよ
学習していなければトリガーワードで出て来ないので
すくなくとも着衣の子供の画像は学習しているので、出力される児ポ画像の顔も
学習内容に依存する
児童ポルノ君たちが言うみたいに「児ポ画像は学習していません!」みたいなことは
深層学習の仕組み的にありえないから ID:ozJESyHhよ、続きは他所で
一応技術的なことだから技術で
【StableDiffusion】AI画像生成技術18【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1680918687/ どうせガキなんて出力しないだろ?
話題にする意味が無いよ >>374
上辺の間違った知識だけで質問板に居座らないでくれマジで迷惑
ロリコンが自己保身で言ってるんじゃなくてお前の理屈がマジで間違ってるからみんな言ってんだよ >>371
そうだよ、だから陰毛のある幼女らしき裸婦像になるw
それをネガティブでpubic hairとすればツルツルのお股になって完成
乳のサイズ?そんなん小さな成人女性だって居るんだし無問題 すんません
この画像AIていつからはじまりました?
半年前くらいかな? >>380
まあ、乳首や股間のバリエーションは大人でも個人差あるからそんな事にならない絵も出て来るし >>374
児ポ画像の学習なんてしてないぞ。
ネットにある子供の画像は学習してるから
プロンプト駆使して学習してる大人のエロ画像で
それらしく見えるよう作ってるだけ >>381
stablediffusionは去年の8月
NovelAIがサービス開始したのは10月
ちなみにNovelAIのモデルはサービス開始3日で流出した >>377
ここ質問スレだよな?
学習する時に画像のクオリティが大切って説明するじゃん?
それは学習した画像の再現性があるからだわな?
版権キャラを学習すれば版権キャラが出てきて、アイドル・タレント学習すればアイドルが出てくる
そういう仕組を解説するスレなのに
児童ポルノに関しては「まったく学習してません!」とか必死すぎるだろってことだよ >>385
だから、児ポ学習させたモデルデータは自粛で今やネット上には無いんだよ
で、基本学習モデルは児ポは完全に含んで無いから >>385
だから証拠出せばいいじゃん
証拠がないならただの君の妄想だよね 顔が炉でも腰周りはおとな
あれは単に比率を子供の頭:体比に直しただけだ
だからいびつ 前にもAI関連スレで1㍉も正しくないデタラメなこと言ってた人いたけど同じ人かな? >>384
ありがとう
ちなみにnovel aiてなんすか?
一応まだみんな手探り状態てことですよね? AI画像生成、ニューラルネットワーク生成の始まりって言い出すと大昔になっちゃうけど、
出来が良くてSUGEEEEEEE!っていうお祭り開始は
Midjourneyが去年7月に登場した時じゃないだろうか
Stable Diffusionが8月登場してえ、もう自分んPCで動くん!?ってなった
NovelAIはイラスト特化で10月やね。
こうやってみると進み速すぎてチビる 仕組みを説明しろって言っておいて説明されると同じ主張するだけ ネットで探しても追加学習の方法ばかりで真新しくモデルを作る方法の説明が全然見当たらない
相当なマシンパワーが必要だからなんだろうけど…… >>388
この児ポと一致してる、データが使われていると具体的に指摘してもらわないとね >>387-388
児童ポルノ君たちはこっちで自己弁護してればいいよ
【StableDiffusion】AI画像生成技術18【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1680918687/
AIの学習は画像を複層にわけて特徴を学習しているので
ワード指定で出てくる画像は、ワード指定で学習されたものなの
すくなくとも着衣の子供の画像は学習しているので
実在の子供のフェイク児童ポルノが出力されることについては疑う余地がないの >>385
画像生成AIの仕組み上、児童ポルノではない画像の学習だけで、児童ポルノのようなものを生成することは可能。
それが一見、児童ポルノ以外の何者でもないものであっても、モデル自体に児童ポルノの要素が含まれていないことは往々にしてある。
これは実在人物やキャラクターのような固定的な要素とは異なる、要素単位での学習の組み合わせによる生成。
別の要素で説明すると、茶髪ロン毛と黒髪ショートを学習させれば、茶髪ショートの生成が出来るようになる。
それと同じく、普通の子供と大人のエロで、子供のエロが生成出来るようになる。
当然、それ自体を直接学習させるよりは違和感がある場合が多いが、事故でその違和感すらないような画像が出る場合もある。 フェイク児童ポルノwww
それっぽいワードを生成したぞw グロではなく、腕や足のない障がい者を描くことはできる?
義足とか義手とかになっちゃって欠損者を一人たりとも生成できない NG登録した。存在自体が害悪なムーブするようになったら終わり。 >>402
モデルが学習していれば当然可能だけど、学習している可能性は低いだろうね。
自作LoRAしかないんじゃない? >>402
それはむしろラッキーだな
ネガティブに入れたもの全部消してみたら? >>396
真新しいモデルなんて個人じゃ無理っしょ
少なくとも億単位の画像の学習が必要だろうし,
スパコン並の処理能力求められるからGoogle Colabとか借りてやったとしても
費用が莫大になるわな。
個人だとモデルマージとLoRAまでと思うよ たぶん読解力に難があってID赤くなるまでAIについて持論を語りたがりるけど知識は特にないのがAI関連スレでいるくさいんだよなあ
俺も1,2度絡まれた >>406
億単位必要なのか
プライベートではイラストとか裸とか作ってニヤニヤしてるけど
仕事で人物ではないとあるモノの画像を学習させたら面白いんじゃない?stable diffusion使えばインターフェースはお手軽だし良いんじゃない?と思ったが難しいか >>401
AIが学習した実在の子供の顔に裸体が合成されることはあるからね
児童ポルノ的画像は投稿するべきじゃないってごく当たり前の話だわな >>399
その判断基準だと手描きで美少女キャラを脱がしてもアウトです
本屋でエロロリ漫画が売られていることを考えると問題ない >>410
あ〜AIをネット掲示板で自由にさせたらあかんw
掲示板秒で埋まるww >>408
それはLoRAなり追加学習でやればいい
ベースモデルもSD公式モデルとかにすれば仕事上も問題ないし >>409
絵描きもデッサン用の人間の裸画集や幼児医学書から裸の骨格を習得するから同じです
もし本人が実写から学習していないと否定しても、裸を参考にした絵は存在します
その絵を描いた人は実写から学んだ裸体であることは間違いありません
見たことがあるから描けるんです >>399
??
児ポを直接学習させているというのが君の持論なんじゃないの?
着衣の子供の画像は児ポじゃないよ? 学習モデルデータ新たに作るって、GPUのVRAM24GBくらいあれば出来るっぽいよ >>416
幼女をひん剥いて描いてるワケじゃ無いんだよなぁ
海外じゃ幼女をひん剥いて撮影してたりするから捕まるんだし >>408
どういうものを学習させたいのか分からないけどLoRAがいいのでは?
商用可のモデル使えばいいんだし
でも何かの製品だけの写真で学習させてもそれ単体ばかりの絵になるよ >>415
追加学習でいけるん?
とある物の断面写真とか、元のデータセットには絶対含まれてなさそうな画像なんだがw >408
既存モデルを追加学習でどんどん薄めて行く方が圧倒的にベースサンプルが多い分、生成物の精度は高くなるんじゃないですかね。
特徴はプロンプトで引き出せば良いわけだし。 >>420
世の中的にはとある画像をたくさん機械学習させて人間の目による評価をAI で判定できるようにしてウンタラカンタラっていう論文が出てるんだけどstable diffusionが使えたら知ってるから楽だなーと軽く思った次第で >>406
汎用的な学習モデルを作るのはとても大変だよね
Cyberpunk-anime-diffusionとかRobo-diffusionはたぶん学習枚数を絞って作ってるんじゃないかな
ああいうタイプなら個人でも学習モデルそのものを作れそうだと思う
とはいえ今そういうことをしたいならLoRAの方が手軽でしょうね >>417
児童ポルノ君はまだがんばるの?
まずねAIは画像を複数階層にわけて学習して、単語で呼び出すので
単語を指定して画像を学習させるわけね
男性と女性とか、子供とか、猫とか犬とかね
簡単な単語指定で児ポ画像が出力される場合は、その単語で児ポ画像を学習していることに疑いはないのよ
(タレントとか版権キャラが出てくるのと同じで例外はない)
で、児童ポルノ君たちが「子供の裸体は学習していません!」
「AIが大人の体を子供みたいにみせてるだけです!」というから
AIが学習した実在の子供の顔に裸体を合成したものもアウトだよという話
だからAI児ポ画像の公開はやめたほうがいいよってこと >>427
> その単語で児ポ画像を学習していることに疑いはないのよ
だからそれは君の妄想だよね?
証拠を出せばいいのになんで出さないの?
なんかもう見てて痛々しいわ >>402
基本的に欠損は学習されてないっぽい
arm behindbackとかで後方に隠そうとしたりすると時々欠損したりはするが
もしくは別の何かと置き換わることでしか消えないので、意図的に片手だけ無くすというのは難しいと思われる
もういっそLoRA作るしか? >>360
>>366
easy negativeの存在は知ってたけどそういえば入れてなかった
今日入れてみるわありがとー >>427
その本人とやらを連れてきてからだなw
訴えるか訴えないかは本人に聞かないとわからない ちなみにこれ
靴の3Dモデリングとか服の3Dモデル版はまだないですよね? >>427
児ポがいい悪いではなくお前の理屈は間違ってるよって話なんだが これオンラインか、ローカルか
確認方法ありますか? Stablediffusionはトリガーワードと紐付けて学習した内容を複雑に組合せて生成出来る
ゆえに、アニメキャラを沢山学習していれば、学習してるはずのない実写コスプレ写真なんかも普通に生成出来てしまうし、児童ポルノ画像を直接学習していなかったとしても、二次ロリエロと実写エロと健全な子供の写真を組合せて児童ポルノらしき画像を生成出来てしまう
ただ、それによって生成された写実的な画像はおそらく欧米基準では児ポと同等の扱いになると思われるので扱いには注意が必要と思われる
ちなみに実際に児童ポルノを学習して問題になったモデルも存在する
さすがにやばいと思ったのか作者がすぐに引っ込めたが結局出回ってしまった
それ以降、そのモデルが混ぜられたマージモデルが存在することも否定は出来ない
どちらにせよ、実写児童ポルノに該当しそうな怪しい画像は自重するにこしたことはない
生成しても個人で楽しむだけにしましょう
特にimgurとかには貼らないように
あと国内であっても無修正画像貼って捕まった人は結構いるので修正も忘れずに >>438
そもそもローカルとは自分のPCに環境を構築しないと出来ないので確認もへったくれもない >>427
pedoだけで児童ポルノのようなものが出てきても、それは児童ポルノを学習していることと同義ではない。
そこに着衣児童が学習されていて、それとは別に大人の非着衣が学習されていれば、体として非着衣を描画する可能性がある。 児ポの話はもういいよ
賛美スレでもう何度となくループ話題してるからそっちでやってくれ >>430
意図せずそういう画像が生成されないような方向性で進んでいるからLoRAあたりで何とかするしかなさそうだよね >>427
お前の理論の間違いを指摘しているのと、AI児童ポルノを止めろというのを混同するなよ。
Ai児童ポルノは絶対NGでこれは確定している。
一方、児童ポルノを学習していないモデルで児童ポルノのようなものが生成される可能性があるという話をしている。
そしてそのような事故が発生しうる以上、人生棒に振りたくなければ、オンラインでエロ画像は生成するなよ、という話をしている。 AI未満の児ポ連呼くん
「児ポのデータが元だから駄目」
↓
論破
↓
「児ポに見えるものは自重しろ」
↓
知ってるがな >>445
散々そう言ってんだけど、そいつは何故か「ロリコンが僕ちんに無理な反論をしてる!」って思い込んでて会話になんねーんだわ ID:ozJESyHh
こいつ賛美スレでいつもいる奴だからレスバしても無駄だよ
スレが汚れるからスルーしとけ なんかスマホ画面視てると操作する自分の手が奇形な気がしてきてしまう
ちょっと沢山見すぎたな 他スレに行く気がないならさっさとお気持ち表明して「それ、あなたの感想ですよね?」って言い合ってそこで試合終了しろ ジポを学習したモデルがある事→正しい
chilloutでジポっぽい絵が生成出来る→正しい
なのでchilloutはジポを学習している→????????? >実在の子供のフェイク児童ポルノ
何だこのおもしろワード
親の形見のダイヤの結婚指輪のネックレスかよ >>453
日本ではOKな二次ロリも海外じゃほとんどアウトだよ
なのでimgurに貼るのはマジでやめたほうがいいしcolabで生成するのもやめたほうがいい
まだそれで捕まったとか問題になったって人は聞いたことないが、僅かでも死ぬ可能性のあるチキンレースに参加する必要もない 大人のマンコは完全におkだろ?
日本人には基準がわからん >>457
残念だが日本の二次エロは海外じゃほぼ全部ロリだと思われてるレベルなので日本人の感覚で考えないほうがいいかも
colabもAIで判断してるっぽいから何がロリ扱いになるか予測もできん cutoffがむずかしい
シン仮面ライダーの緑川ルリ子の衣装真似てるんだけど色移りがひどすぎて 垢BANはあるかもしれんが海外犯の引き渡しは国内法でも違法してる場合がほとんどなので、日本で合法なら捕まることはないかな
海外旅行した時に捕まる可能性はあるが、被害者がいない二次ポルノじゃあね
まあ違法だ合法だ、ではなくて自己責任で楽しめでいいじゃないか >>457
学習モデルに児童ポルノが本当に含まれているならそれで生成した性的コンテンツは全てアウトやな
例え成人女性にみえてもロリ粒子が入ってるわけやから笑 児童ポルノ君たちがどんなへ理屈をこねようが、AIの画像深層学習の仕組みも
トリガーワードで出力される仕組みも変わらないからね
AI出力のリアル児童ポルノ画像がほとんどの場合削除される対象であることも事実だし
児ポ画像は学習してない! というお気持ちの表明は他でやればいいと思うよ
ここは質問スレだし、ロラもブースもAIの学習が画像に依存するという前提でないとお話にならないし >>467
マスク氏みたいな主張ですね
あなたはロリ絵を独り占めしたい人?
広まると規制されて都合が悪いのですね
https://gigazine.net/news/20230412-twitter-ai-project/
イーロン・マスク氏率いるTwitterが約1万個ものGPUを買い入れて、膨大なツイートで学習した独自のジェネレーティブAIの開発を進めていることが報じられました。マスク氏は、AIが制御不能となり社会と人類に深刻なリスクをもたらすと主張し、最先端のAIプロジェクトの6カ月停止を要求した書簡に署名をしたばかりです。 Dynamic Promptsのワイルドカードの管理が機能しない
コレクションをコピーしても何も起こらないし
ワイルドカードを追加して一覧を更新しても読み込まれていない
webui-user.batにもエラーらしいものはなくて
Installing sd-dynamic-prompts requirements.txtとだけ書かれてる
解決策があれば教えてください
python: 3.10.6 ??? torch: 1.13.1+cu117 ??? xformers: 0.0.16rc425 ??? gradio: 3.16.2 ??? commit: a9fed7c3 ??? checkpoint: eeb8e7f373 >>467
うるせーキチガイ
児童ポルノ君はお前だろ
簡単に生成できるなんてやってなきゃわからんもんな?
んで本物の児童ポルノみたことあるから比較できんだろ?
気持ち悪いロリコンは消えろ トリガーワードなんてずっと言ってる時点でクッソ浅いレベルでしかわかってないんたろうな 左右の目の大きさが少し違うんですけどどうやって直せばいいでしょうか
効果的な呪文などあればお願いします >>474
そもそもモデル次第なので画像の出処を調べてくれ
見た感じ海外の外人エロモデルっぽいが >>467
しっかりお気持ち表明してて草
テンプレ通りの奴だな >>477
わざわざロラとかブースって言ってるから荒らしっぽく見せて釣り宣言して逃亡エンドだろ >>478
児童ポルノ君はもっと続けてほしいの?
別に続けてもいいよ
ここは質問スレだしAI学習の常識について、ざっくり説明すると
AIは「画像全体」をいくつかのパターン(階層)にわけて学習するわけ
大きさ、形、色彩、光源とかね
これらは単語を指定して呼び出す仕組みになっている
(学習した画像の特徴を組み合わせて出力される)
なので顔のアップの写真を学習させても、縮小して全身画像にコラージュする仕組みはないし逆に小さい顔をアップにすることもできない
これが「画像全体」を学習するという意味ね
同じように大人の肉体を子供の肉体に変換する機能もない
児ポを学習していなければ、子供のワードで学習した特徴と、大人の裸体の特徴がまざって破綻したものになるだけ
AIの仕組み的にキャラ指定で版権キャラが出てくるのは、キャラ名指定で版権絵を学習しているからだし
有名人が出てくるのも同じ理屈
児童ポルノだけ特殊な処理をしているわけではないってことね なんJNVA部★186
http://fate.5ch.net/test/read.cgi/liveuranus/1681213742/349
349+6 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ f954-Fw8z) [] :2023/04/12(水) 12:40:08.07 ID:HI1bpvnl0 [PC]
【StableDiffusion】画像生成AI質問スレ7【NovelAI】
http://mevius.5ch.net/test/read.cgi/cg/1681091799/
281 :名無しさん@お腹いっぱい。 [↓] :2023/04/11(火) 22:07:16.76 ID:uTt1y7eB (1/2)
AIは学習したものしか出力できないので児ポ画像がでるということは
児ポ画像を学習しているということなのよ
296 :名無しさん@お腹いっぱい。 [↓] :2023/04/11(火) 23:23:08.65 ID:PLcdVJR+
なんかおかしい誇張してるから突っ込んでおくが
「右手を挙げているおっさんの絵」と「右手を下げた女性の絵」を学習したAIは「右手を挙げている女性の絵」を出力できる
それと同じ事で子供の体形比率を学習したAIは大人の裸から子供の裸を描く事を試みれる
自ポ出力するのに自ポ学習する必要はないだけど学習したわけではないから仔細が違う
その仔細まで再現するモデルがないからロリンスキーな人達はずっと優れたモデルを探し求めてる闇がある
350 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワントンキン MM52-QEQ3) [↓] :2023/04/12(水) 12:41:04.10 ID:0Lo+bmuuM (3/3) [M]
上のレスゲーミングチンポ華道部が実在してるってことになるけどガイジなんかな
352 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4291-/aea) [↓] :2023/04/12(水) 12:41:11.78 ID:p+38tfzq0 (2/2) [PC]
こっち来んなやクソが
353 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 86c2-mIzM) [↓] :2023/04/12(水) 12:41:52.65 ID:goZjhCGA0 (2/3) [PC]
持ってくんなカス
354 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (スップ Sd22-fdKN) [↓] :2023/04/12(水) 12:43:09.26 ID:duxNiNved (2/2) [d]
巣で死ね
360 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0244-zocI) [] :2023/04/12(水) 12:47:24.80 ID:OXH3z6fg0 (3/3) [PC]
そう言うのは嫌儲でやれ >>475
肌がのっぺりしてしまうのはモデルの問題じゃなくて解像度説かなんかのコンフィグとかなんじゃないの? >>483
どちらの可能性もありうる
肌の質感特化のモデルもいっぱいある >>473
そういう細かい修正はimg2imgやね 何度レスしてもまったく内容が具体的になっていかないのすごいですね >>481
警察、検察、裁判官がチンコ立ったらアウト >>481
医者が未成年と判定したらアウト
見た目が完全に成年でも実在する被害者の年齢と撮影時期から認定することもある >>492
お前いい加減自分で調べろ
児ポ判定は国内も海外もかなり曖昧なんだよ
ここで判断基準聞いてそれに合わせたところでなんの保証もないぞ モデルフォルダーの中は1種類だけ入れるほうが良いですか? >>492
同じジュニアアイドルのIVでも違法と適法がある
「人間の判断」としか言い様がないね >>493
おまえこそいい加減正直に「わからない」と言いなさい
知ったかぶりは恥ずかしいぞ ラインをハッキリ決めたら反社がじぽギリギリの動画を作って稼ぐだろ
曖昧な方が良いんだよ >>496
複数入れるとモデル全部同時に使用するんすか? 当局の胸先三寸でどうにでも出来るのがな
ローカルでも販売目的所持とか言われそう >>497
知ったかもなにも判断できんて言うとるやろがい
詳しく線引きがしたいのなら各国での日本の二次エロ漫画についての扱いとか調べて自分判断しろと
これ以上はスレチだから他所でやれ >>499
プルダウンメニューからモデルを選択して好きなモデルを選択する
同時使用は不可能 >>501
最終的な解決法
「なにもしない」
ワクチンもいらない、マスクもいらない、そもそも数えない、気にしない
気づくの遅かったねぇ、金をジャブジャブつぎこんで >>503
たすかります、
同じモデルのバージョン違うのも別物扱いすか? >>505
別物。
モデルはファイル名のみが識別子。
なんなら同じモデルを別名で置いても別物扱いになる。 >>505
ファイル名で判断するだけなので別扱い
あとファイル名も変更可能なので並べやすい名前変更するのもあり
頭に2Dとか3Dってつけておくと二次モデルか三次モデルか視認しやすくなる 髪のインテークの確実な消し方あるの?
どんなcheckpointやLORAを使っても勝手に出て来て困る おっぱい吸ってるのをどうしても作りたいんですけどどうしても吸ってくれない…
先生方、おすすめモデル、promptを教えていただけないでしょうか 自分のおっぱい?女の子のおっぱいを男が吸ってる?男のおっぱい(乳首)を女の子が吸ってる? No module 'xformers'. Proceeding without it.
これが出てついさっきまで起動できていたのですができなくなりました
ググって書き換えろとあったので、関係ない気がすると思ったのですがwebui-user.batを書き換えました
まあ起動できないんですけどね
むしろ心当たりとしてはモデルをマージして遊んでおり、cドライブ圧迫しまくるんで使わないマージしたやつは消しました
エラーに「消したモデル」が見つからないよと書かれておりこれっぽいのですが…助けて… エロネタは専用スレのほうがいいと思うんだよね
【StableDiffusion】AIエロ画像情報交換20【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1680682937/ >>512
男が女のおっぱいを吸ってる感じでお願いします… bra size chart 34G
とかみんなやってないの? >>513
pip install xformers >514
自分も成人向けのプロンプトを議論してる場所を探してたんで助かりました! youtubeではLeonardo.Aiっていうのが最近やたら見かけるけど5chでは全然話題にならない Hiresでのアップスケーリングに挑戦してみたんだけど
元の画像サイズ: 512×768
Sampling steps: 15
Upscaler: R-ESRGAN 4x+ Anime6B
Upscale by: 1.2
Denoising strength: 0.6
という設定で
OutOfMemoryError: CUDA out of memory.
Tried to allocate 2.28 GiB (GPU 0; 12.00 GiB total capacity; 4.40 GiB already allocated; 5.57 GiB free; 4.43 GiB reserved in total by PyTorch)
If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.
See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
とメモリ不足だぞと言われてしまう
グラボはRTX3060の12GB
3060で初歩的なことは一通りできると思っててちょっと困惑
wikiにもPYTORCH_CUDA_ALLOC_CONFについての言及はほぼない
このpytorchの割り当て設定とかwebui-user.batの--medvram(低スぺ向け設定)とかは3060でも必要になるのだろうか
それとも根本的にやり方が悪くて余計な負担がかかってるんだろうか BTOでローカルでストレス無く学習もできるパソコンを購入しようと考えています。
メインメモリ32GB、作業用のSSDはNVMe m.2の1TBぐらいを考えていますが、グラボは4090とそれ以外だと感覚的にかなり違ってくるのでしょうか?
高い買い物なので、数万円ケチったせいで後悔しないちょっとぐらいは奮発しようと思ってはいるのですが、その反面「今4090買うぐらいなら、ほとんど違いは分からないからこっちのグラボの方がいい」とかもしありましたらアドバイス頂きたいです。 はい
流石におかしいから何かマイナーな設定より先にやることあるんじゃないかと思って
現状weubi-user.batの引数は全部空欄です >>520
ちょっと調べたけどモデル変えれるリアルタッチなnovelAIの亜種
PC音痴で呪文だけで絵を生成したいならそれでもいいけど、ローカル環境作って好き勝手できるSD使えるなら全く用事が無いサービスじゃね? >>521
俺の環境ではVRAM 8GBで512x768を2.5倍できてる
VRAM使用量はwebui-user.batの内容・LoRA・ControlNet等の使用の有無によって変動するけどね
念のために聞くけどBatch sizeは1にしてあるかい?
>>524
じゃあまず--xformersを利用することからだな
生成速度の向上だけでなく使用VRAM量の低減にも効果があるからね
それにしても12GBもあれば--xformers抜きでも1.2倍なんて余裕のはずなので不思議だが >>523
そのうちRTX5090が出るから買い換えられるなら4090
学習目的だけならトライアンドエラーの時間効率を考えて4090
買い換える財力がなくて長く使い潰すなら一番いい4090 >>523
一応アスカベンチによると4090は突出して速そう
ただストレス無くって観点だとそこまで必要か?とも思うし学習ってのは俺はやったことないけど4090でも今の最高であって今後もっと性能良くなるってこと考えるとキリがない
AIの為にPC買った訳じゃない俺から一つ言うならVRAMの大きいやつ選んどけばとりあえず後悔しないと思う
4070ti使ってるけど4080にしとけば変わったのかなーと思う反面、まあ安かったから良いかとも思ってる
ゲームも好きだからそっちに金かけるよりモニタに金かけたいわー >>469
これ分かる方お願いします
手打ちの{|||}とかは機能してます >>523
4090は速度・VRAM量ともに消費者向けの中では最高レベルと言える(業務用を除く)
速度比較についてはこの記事を参照してね
https://chimolog.co/bto-gpu-stable-diffusion-specs/
VRAM量は公表されてる通り
24GBも要るかどうかは…正直どうなんだろ…用途や好み次第かな >>521
lora1個つけて同じ画像サイズでhireafix倍率3かけたけど普通に出来たなあ
3060xfomersありで まあAIの為とか抜きにしてもPC買うなら予算の許す限り最高性能買った方がいいのは確か GPU使用率をプロセスごとに見る方法ってwindowsでなんかあったっけ?
NVIDIA-SMIではN/Aになっちゃうけど >>526
>>531
うーん、3060ならそれくらいできるよね
Batch sizeは1にしてる
https://i.imgur.com/aNCKLoW.png
とりあえずxfomers使ってみます >>523
4090買えるなら4090一択(ワークステーション、エンタープライズは除く)
文字通り値段通りに生成速度も学習速度も違う
5090は一年以上先なのは待つのはアホ、4090のリファイン(機能縮小)モデルは出るかもしれないという噂
専用機とするなら iGPUが強いCPUなら学習中や生成中にブラウジングとか快適になる
nvmeは2TBのがいいかもなぁ >>534
ごめん、いきなり自己解決
タスクマネージャーの詳細タブだw
>>521
で、GPUを他のなんか変なのに使われてない? >>535
今更だけどこんなアップスケーラーあった?
これもネットから拾って追加出来るの? 次から質問スレもワッチョイ有りで頼むわ
多分c7て付いてると思うから >>538
Hires.Fixは最新の1111ではデフォでついてるかと
チェックしたら項目出るよ ああ、anime6Bの話か、スマン
いつのまにか勝手に入ってたな >>523 です
皆さん、アドバイス頂きありがとうございました。
思い切って4090を積んだ構成で注文しようと思います。 >>537
アップスケールをかけた時にこんな感じです
GPUにはまだ余裕があると思うんだけど
https://i.imgur.com/daHqaxK.png
https://i.imgur.com/xhdhWFp.png
アップスケールのやり方が間違ってるってことはないかな?
Hires10枚なしで10枚出す
→アップスケールしたい画像を選んで右下でsaveを押して1枚指定
→Hiresにチェックを入れて値を入れてGenerateでいいんだよね >>544
そこじゃなく、もう二つ右の専用GPUメモリのところ
まぁでもそこは関係なさそうだね・・間違えて2つ起動してるとかないかなって nvidiaのドライバ入れればcudaって勝手はいるもんだと思ってたけど
いざバージョンを調べようとしたら入ってないのか入ってるのかわからんかった
ツールキットとやらでいれたけど >>545
1枚目にGPUのメモリグラフ入ってるよ。
>>544
pytorch_cuda_alloc_confにgarbage_collection_threshold:0.6を追加して起動してやってみて。 >>547
合計だけじゃなく個々のプロセスが見たいのよ >>545
ごめん、「2つ右」がどの部分かわからない
>>547
webui.batの1行目にset PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6を入れてやってみます >>549
2枚目の「UACの仮想化」の右に更に項目がある、多い順に並べたら変なのが占有してないかなぁって
あとコマンド窓を終わらせたらちゃんとGPUメモリ使用量がゼロ近くまで戻るかも見てね おお、ひとまず2倍はいけました!
3倍はダメでした >>549
>>547が見たいと言ってるのはたぶんこういうことだぜ
https://i.imgur.com/tD7yHVu.png
「名前」とか「PID」のとこを右クリして「列の選択」を選ぶ
そんで「GPU」と「専用GPUメモリ」をONにする
つまり意図しないプロセスによって
変にGPUパワーやVRAMが使用されてたりしないかの確認だね 人気あったっぽいTifa_meenowがCivitaiから消えたのは本人が公開中止したんかね?
サンプルとか参考にしたかったのに……
HuggingFaceには転がってるけど使っても問題ない? >>553
版権モノだから下げただけでしょ
何かあったときに覚悟が出来てるなら使ってもいいんじゃない? >>552
補足ありがとう
列の選択しないとデフォでは出なかったのか・・ごめんなさい
昔やったのを失念してるんだろうなぁ >>525
だからyoutuberだけが押してるんか
手軽で、すこしいじれて、安い
こういうのがどんどん出てくるのかな LoRaでキャラ画像の学習手順ですが、
① 画像からキャプションの生成
② キャプションごとのキャラの特徴を削除(黒髪とかツートンカラーヘアーとか)
③ フォルダ名を 10_trigger_word にする
④ Dreambooth LoRAで 10_trigger_word の親ディレクトリ指定
で出力したLoRaのメタを覗いたところ、
"ss_tag_frequency": {
"10_trigger_word": {
"trigger_word": 16
}
},
のように、タグが1個しかないんですが失敗ですよね?
他の方のLoRaはかなりの量のタグがありました。
どこで手順ミスってそうか心当たりある方いますか? 話題性だけで取り上げるような奴等だぞ唾なんて
毎日シコシコAI絵作ってるお前らの方が達者 >>553
今上がってるV2に理由が書いてあるけどこれじゃないのかな? >>550
>>552
コマンドプロンプトを閉じると専用GPUは1.0GBになります
https://i.imgur.com/oS55Lji.png
アップスケール中に動いてるものはこんな感じです
https://i.imgur.com/ju25xic.png
出かけるので落ちます
ひとまず2倍には拡大できるようになってよかったです
アドバイスありがとうございました! loraとそのトリガーワードについてなんだけど、
lora:0.3 trigger:1.4だったり、逆のパターンだったり、さらにはトリガーワードなしでlora宣言だけだったり、思い通りに行かないときには、このへんどうやって調整すればいいの?
毎度xy plotで調べながらやんなきゃなの? >>560
自分の環境とほぼ一緒だわ(メモリ32GBだけどまぁ関係なさげ)、なんだろね
pythonおよびpytorchやCUDAのバージョン、適用してるモデルとかも関係してるのかなぁ CHECKPOINT TRAINEDとCHECKPOINT MERGEって違う?
それぞれどのフォルダに入れれば良いんだ?
CHECKPOINTだからmodelsのstable diffusionでええんかな? >>561
どの程度の効果を期待してるのか知らんけど、それぞれ学習環境が違うんだから、そうだよとしか言えんな >>521
どーせボツになる画像大量に出るんだしtxt2imgのHires. Hires. fixで生成と同時にやろうとせずに、
合格点の付いた画像だけExtrasに送って4倍すればいいよ あと画像サイズ700とかにすると出力できないんすが、
グラボメモリ足りてない感じずか? >>569
知らねえよ エラーはいてんなら最低限てめえのパソコンの構成とエラー文くらい話せ
おれたちゃエスパーじゃねえ >>568
fullbody,long shot,wideview
そして解像度は900前後まで上げる
解像度増やしてエラーが出るならVRAM不足
起動オプション付けなさいな
そもそも質問する時は自分の環境ぐらい書きなさいな
二度手間になるよ >>564
trainedはオリジナルモデル、mergeはマージモデル。
どっちも使い方は同じ。 .captionファイルじゃなく、.txtのままでした。
設定の Caption Extension を .txt にして再度学習させてみます! GTX1650 VRAM4G でオプションを指定する事でモデルからの画像生成はできるようになりました
しかしloraを作成する際には最低6G必要との事で、色々試してはいるのですがメモリ不足で失敗します
loraの場合はどうあがいても6G以上必要なのでしょうか? >>577
早速の回答ありがとうございます、グラボの買い替えか代替手段を模索してみます >>194
答えてくれたのに遅くなって申し訳ないというかこのスレこんな勢いあったんだね
リアルタイム保護はずすと正常に動くからつかえてはいるんだけどいかんせん不便で
インストールの段階とかでここに気が付かないでWEBUI起動できないって嘆いてる人他にもいるんじゃないかな >>578
代替手段としては、ColabやPaperspaceといったクラウド環境で学習させるとかだね。
それも知識が必要になったり、時間制限があったりするけどね。
それともローカル環境で学習時の解像度設定を384x512とか384x384にしてみる?
満足する結果を得られるかどうかわからないけど…。 512未満の低解像度は学習うんぬんよりも生成時サイズによって出て来なかったり
512x768でも分裂起こすようになるから、わからないなら勧めないほうがいいと思うわ >>576
しょーじき学習をローカルでやるなら12ギガくらいはほしい
予算というものはあるだろーけどさ >>576
俺は1660の6GBだけど、それでも失敗するからもう諦めてグラボ買い換えることにした。 >>581
俺もそう思うよ。悪あがきでしかないので、グラボを買い替えるのが一番だと思う。
勉強を頑張れるならColabとかでもいいけどさ… 勉強がんばってcolabでできるようにしたところで極端な話、相手サービス側が画像の学習は禁止します!とでもいえば終わりなんちゃう
外部サービスである以上はさ
やっぱvram換装よ >>559
どこに書いてあるのかな?
調べてみたけどわからない。 >>586
> because it received the DMCA report.
描いてあるじゃないか。 生成終わって画像みて拡大して戻ろうとしたらブラウザの戻る押してああああああああああああ
どうしてます? >>588
stable-diffusion-webui\outputs\txt2img-images\yyyy-mm-dd
ここ開け。 >>588
直前のプロンプトを呼び出せる右上にある矢印ボタンを押すか、生成した画像をinfoに投げて設定読みこみなおす スカートが破いてるわけでもないのに左右に分かれてまん筋丸見えになっちゃうとか
エプロンみたいに前側だけスカートが残ってるようなのってどうやったら防げる? TIとかLoRAを沢山入れすぎるとそのトリガーワードが影響して生成画像が変わることってある?
CivitaiにあるchilloutmixのあのアンドロイドのサンプルをPNG infoで取り込んでそのまま生成しても上半身の絵しか出なくなった
始めた初期の頃ほとんど何も入ってない状態で試したときはほぼ同じものが出てたんだけど >>591
AIと向き合って時間かけたけれど
どうもモデルによって学習しているワードと絵がバラバラで
過学習というのもあると思うけど汚染されてというかつられて変な描写する
英語でなら何でも通用するかと言えばそうでもないし
かといってネガティブに入れても改善しない
色々着させるようプロンプトを試したけど
カビのように衣類に陰毛が描写されて降参した
性的表現を抑えたモデルに変えるのが一番だと思ったよ >>588
進むも戻るもアクティブにならないように、127.0.0.1:7860をアドレスバーに入力したらalt+enterで開いてる >>524
同じ3060/12GBを使ってて、webui-user.batはこうしてる
set COMMANDLINE_ARGS=--xformers --no-half-vae
あとHires.fixを使うときはmultidiffusion-upscaler-for-automatic1111をインストールして、Tiled VAEのみEnableにしてる
これらで省メモリになって、出力できる解像度が上がるはず
3倍アップスケールもできたよ >>594
入れただけでは当然変化はしないが、プロンプトで大量に指定すると当然変化する。
追加学習のモデルはメインとなる学習対象以外も当然含まれるので、その様なノイズ成分が増えれば増える程、安定しなくなる。 >>561
例えば2DのLoRAを3Dモデルに適用したい場合、思った通りに効かないこともあるけど
一度2.5DのモデルにLoRAを適用して、出力結果を素材にして本命のモデルで描画すると上手くいったりする 初自作で以前ここでアドバイス貰って組み直してみたんだがこれでどうでしょうか?動く?
外付けHDDとかモニターとかはもうある
https://i.imgur.com/RwnLBnW.jpg >>594だけどフォルダを編集してサンプルに必要なLoRAだけにしても結果は変わらなかったわ
入れてからgit pullもしてないし生成画像が変わるような設定は触ってないはずだけど何が違うんだろう >>603
拡張機能も全部切ってみたら?
Tiled VAEとかかもしれないし >>595
クロームはメモリが無いとクッソ重く感じるバージョンがあるぞ
どんなPC使ってるかによるね radeon 6700XTでなんとか学習をしたいと試行錯誤しております。
https://wikiwiki.jp/sd_toshiaki/Nvidia%E4%BB%A5%E5%A4%96%E3%81%AE%E3%82%B0%E3%83%A9%E3%83%9C%E3%81%AB%E9%96%A2%E3%81%97%E3%81%A6#z2f2c181
こちらを参考にして、画像生成は出来るようになっております。
kohya-ssさんのスクリプトを入れようとしています。
最後のpowershellでの実行時(学習時)
発生場所 行:1 文字:4
+ --pretrained_model_name_or_path=d:\*******
+ ~
単項演算子 '--' の後に式が存在しません。
発生場所 行:1 文字:4
+ --pretrained_model_name_or_path=D:****** ...
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
式またはステートメントのトークン 'pretrained_model_name_or_path=D:*****safetensors' を使用できません。
+ CategoryInfo : ParserError: (:) [], ParentContainsErrorRecordException
+ FullyQualifiedErrorId : MissingExpressionAfterOperator
こんなエラーがでてしまいます、モデル、アウトプット、素材のフォルダファイル指定は
あっているはずです(エクスプローラーから直接コピー、念のため手打ちでも3回ほど試した)
解決方法を是非教えていただきたいです。
よろしくお願いします。 現状RTX2060です
新しく発表されたRTX4070無印はLora学習などをメインするには乗り換える価値はあると思いますか? >>611
ありがとう
レスもらえないようなら行ってみます chromeは新実装のメモリセーバがウンコみたいだね、つべのヘビー視聴者から劣化・ガクつき報告出てる
ブラウザ上の静止画にどこまで影響してるか言及してるのはまだ見つけられない ドレス的なの着るとどうしてもアームカバーみたいなの付けてくるんだが外す方法無いものか >>615
そのDressの腕への影響具合はHeatmap見りゃ分かる
狙い撃ちするなら袖発生の影響が強いPromptを適当に追加し、見つけ次第Negaへ
そもそも肌が悪さしてる時もある、Tシャツでも出るし… >>587
huggingはV1でcivitにV2が置いてあったのか。
civitのはなんでこんなに見つけにくいんだぜ?DMCA対象だからか?
色々検索したけど出てこなくて、civitでtifa検索でモデルに出てこないし、meenowで検索だと出てこないけど候補に出てくるからそこからやっと辿り着いた。
LIKEしてもお気に入りに表示されないし、なんかcivitの使い方から間違ってるのか? お勧めのUpscalerってありますか?
Latentは描写が綺麗だけど二人以上の構図だとほぼほぼ崩壊を起こすし、R-ESRGAN 4x+Anime6Bは元画像をかなり忠実に拡大してくれるけど、手指が体感高確率で崩壊してて今一生成が安定しないです これ難しいのかな、 ぐぐってもほとんど情報出てこないし・・・
あれから6時間ずっといじってるけど全くすすまない。余計悪化して
戻すの繰り返し、助けて >>618
4xultrasharpというのが話題になったことがある
どこかでDLしてmodels→ESRGANフォルダにぶちこむと使える small chestだと小さめになるけど
そもそもこういう単語を入れると胸を露出するのが困るな… >>609
12GB有るから10万未満なら良いかもしれないが10万以上なら4070tiが良いね
本気でやるなら4090が良いけど >>623
Positiveにsafe とかdeleted
Negativeにnsfwとかquestionable入れるとかしてもあかんか >>619
> スクリプトを実行します。最大限、メモリを節約したコマンドは以下のようになります(実際には1行で入力します)。それぞれの行を必要に応じて書き換えてください。
> accelerate launch --num_cpu_threads_per_process 1 train_db.py
> --pretrained_model_name_or_path=<.ckptまたは.safetensordまたはDiffusers版モデルのディレクトリ>
> --dataset_config=<データ準備で作成した.tomlファイル>
> ....
何か知らんし、やったこともないけど
>(実際には1行で入力します)。
これじゃね? >>627
返信ありがとうございます。
テキストファイルで開いて全選択時1行となっているので、1行にはなっているはずです。
>>621
??? >>33
合ってない
- shortsとは日本語で何?
@ "Shorts"という単語は、「短パン」という意味になります。
- shortsで下着って意味は無いの?
@ "Shorts" には、下着としての意味合いはありません。 "Shorts" は、主に夏季などに履かれる、膝丈やひざ上の短いズボンのことを指します。下着を意味する英単語は "underwear" や "briefs" などがあります。
- でも日本の女性向けファッション雑誌にはショーツ=アンディーズって意味で使われているが?
@ そうです、確かに日本の女性向けファッション雑誌では、"ショーツ" という単語が「アンダーウェア(下着)」の意味で使用されることがあります。ただし、一般的には "shorts" は、短いパンツを指すことが一般的です。このように、英語の "shorts" と "ショーツ" という日本語の訳語は、異なる意味合いで使用されることがありますので、文脈によって判断する必要があります。 >>628
本当に一行?そのまま貼ってみてよ、パスは***で隠していいから accelerate launch --num_cpu_threads_per_process 1 train_db.py --pretrained_model_name_or_path=<.ckptまたは.safetensordまたはDiffusers版モデルのディレクトリ> --dataset_config=<データ準備で作成した.tomlファイル> --output_dir=<学習したモデルの出力先フォルダ> --output_name=<学習したモデル出力時のファイル名> --save_model_as=safetensors --prior_loss_weight=1.0 --max_train_steps=1600 --learning_rate=1e-6 --optimizer_type="AdamW8bit" --xformers --mixed_precision="fp16" --cache_latents --gradient_checkpointing
実際にこうなってる? pantiesはアメリカで一般的に使われている単語なのになぜか日本では使いたがらない人が多いよね 日本のアパレル業界って言語的に正しいかより語感がカッコいいかとか親世代との差別化が出来るかとか商業面を優先してるんで、
結構意味不明な単語になってたりする あとはpowershellじゃなく、コマンドプロンプトでやったらどうなるかな
なんか知らんけど 日本人は男も女も精神的には子供だから性的表現を毛嫌いするからじゃないの?
欧米じゃセクシーは誉め言葉だけど日本じゃセクハラだろ
日本じゃ可愛いって言えばおばさんでも喜ぶけど成人した外人に可愛いとか言ったら馬鹿にしてんのかってなる。
パンティだと女性用下着ってなるしパンツじゃズボン
それで短いパンツでショーツって感じじゃねえの この手の根拠も無しに自信満々なのはどういう教育受けて生きてきたんだろう すいません
Stable Diffusionと拡張機能を最新にアップデートしたらOpenpose Editorのsento to 機能が使えなくなりました
クリックするとsento to t2iならt2i画面に映るんですけどcontrol機能の所にポーズが反映されてません
これ何が原因でしょうか?またバージョン落とす方法はありますか? >>642
ttps://seesaawiki.jp/w/kou1okada/d/20211018%3A%20git%20-%20commit%20hash%20%C3%CD%A4%C7%20shallow%20clone
特定のCommit Hashを指定してfetchすれば良い。Openpose Editorの最終更新は3週間前みたいだから、3週間前くらいのCommitで取ってくればいいんじゃない? generateボタン自動で押す方法でありますか? >>644
右クリックしてgenerate forever >>645
助かります
連打しすぎて腱鞘炎なるかと思ったw エクセルでプロンプト管理してるんだけど、
i2iとかcontrolnetとかイメージ貼り付けたあとに、エクセルからプロンプト貼り付けるとイメージがどっか行って、プロンプトが画像データ化して差し替わっちゃいます。
エクセルから貼り付けた場合、最後に改行が入っててコレが起因してるようだけど回避方法知ってる方います?
地味バグっぽいけど鬱陶しい。 セクシーやホットやクールも英語圏で意味が変わってるからな 数日前からSDを始めて現在ド嵌りしてるんですが、
ちょっと調べてもわからない疑問が……
・プロンプトを書き換えた後も前のプロンプトの影響が残っている気がする。
(血がついたりすると暫く残るような気が……)
残るとして、リセットの方法などはあるのでしょうか。
・負荷が強め(?)のワードを使うほど絵柄と画質が急速に劣化する。
全身像に近づけたり、cryingなど強い表情の変化など。
これは環境(1060/6G)によるものでしょうか?
(上手い人の作例を見てると複雑なのに画質も恐ろしく高いので……)
これも最初は効果も少ないかわりに劣化も少なく、
数を出力するほど次第に劣化が進んでいくような気がします。
よろしくお願いします。 言葉の意味なんてのは正確さよりニュアンスの方が優先されて時代と共に変わるもんなんだよ
じゃねえと今の日本でもおじゃるとかござるとか言ってないとおかしいって話になるのよな
少なくともstable diffusion においてはdanbooruと言う絶対基準があるから表現ブレで困る事はねえし >>608
そのwikiのURLや内容を張らないで下さい
トップページの赤字内容をよく読んで下さい
質問スレが立つ度に発生してるなこれ… >>650
プロンプトの影響が残る(ような気がする)現象は各所で多数報告されており『いわゆるバグ』として認識はされているがハッキリとした原因は不明
おそらくメモリやキャッシュの問題であると思われている
おかしいと思ったらまずは再起動
それ以外でのワードによる画質の変化はあくまでもモデル依存であるとしか言えない
遠景が得意なモデルや苦手なモデルなど、得手不得手は多岐に渡るので目的にあったモデルを選ぶほかない
またタグの強調も数値を増やしすぎるとノイズになるので、2.0あたりが限界値と考えたほうがいい
ひとまずはmajinaiなどで設定をまるごとコピーしてみよう
ただ、1060ではおそらく公開されている絵と同じ絵にはならない
画質が下がるという意味ではなく、1000番台と3000/4000番台とではシード値の結果が一致しないからという意味で >>629-630
実際は半角になっております。
>>632-634
一行で貼ろうとしたら改行してくださいとして貼れませんでした。なっているはず、ですが他のテキストエディタに貼り付けて再確認します。
アウトプットはフォルダだけでネームはないです、入れてみます。
>>636
調べてみます。
>>637
やってみます。
今出先なので帰宅後上記試してみます、ありがとうございます。 >>654
ありがとうございます。
これを機に3060あたり検討してみます。
前のプロンプトの影響があるような気がしたり、
妙に有機的というか、
『その日の流れ』みたいなものがあるのが
面白さに繋がっている気はします…… >>653
ピンクの板なんぞ勝手にテンプレに追加しようとするアホまでいたからなあ このAIてどこまで進化するんですか?
プロンプトの指示だけでもどんどん成長してるんですが 脳波を察知して入店前に牛丼が出てくるところまで行くよ Train Toolsってマルゼン式みたいに、フォルダとタグ分けして学習って出来ないの? 使いたいLoRAのトリガーワードそのものを要素から取り除きたい場合って、プロンプトを弱めるのとネガティブにも同じワード打ち込むのどっちがいいんですかね なけなしの金で買った4070tiがスゲーカリカリコリコリ異音がするんだが
コイルってやつか?
マジかよ…
萎えた
マザボや電源との相性だったりとかあるらしいが
ただここまでの大きな音は流石に出ないとは思うんだが
交換するか返金するか迷うわ
こういうのまじで鬱々とした気分になるわ >>662
コイル鳴きはもっとジジジ…とかジー…って感じの音
んでコイル鳴きならホットボンドで固めてしまうとかだが
その音だとPCケース内の配線がグラボのファンに物理的に接触して干渉してる音じゃないか? 2次元と3次元、両方色々試してるんですが、3次元のほうがうまく作れない。
2次元の方は小さい画像でもそこそこ見れる絵になるけど、3次元はある程度大きい画像にして緻密に書かないと美しくならないように思えます。
なので、マシンスペックが低い私の場合、大きい画像のが作りにくくて、実写系はきついと考えていいでしょうか?
それとも私のやり方が下手なのでしょうか? >>665
でもグラボの表面を触っても振動とか一切ないんだよね
表面は全く静か
少なくとも音の大きさに比例した振動はないのよ
電源きってチョット降ってみたけどカタカタぶつかる音がすることもないし 前のプロンプトの影響が残る現象うちでも出たわ
年齢7歳指定して生成→年齢17歳指定して生成したら(恐らく)7歳の画像ができた
→年齢7歳指定に戻して生成したら、今度は17歳の画像ができた
すぐ上の書き込みのお陰で気付いたわけだけど、気付かなかっただけで
以前から出てたかもしれん >>667
グラボじゃなくて、取り付けのときに配線が動いてCPUファンかケースファンに
接触してるのでは? >>669
それだった…
アホみたいだけどビデオカードに沿って配線してた線が干渉してた
低負荷だとファンが回っても無音だったから見えてたけど気づかなかった
高負荷に応じて異音がすると思い込んでしまった
アホですまん
でもありがとう!!!!!!!!!!! >>670
割とある
あと安いFANだと軸ブレとかで異音がしたりする
よくわからないFAN使ってたら見た方がいい 組んだらまずケースの中が見える状態で動かした方がいいよ
異音がするなら音がどこから出てるかを確認する >>666
基本的に3次元の画像作成は恐ろしく難しい
とらのあなの作例を見て研究してください ここで聞くことじゃないかもしれませんが
イラストACというサイトに、生成したイラストを投稿する際に
使用したAIツールのURLを貼り付けないといけないのですが
ローカル版の公式サイト?みたいなのってあるんでしょうか stablediffusion触り始めたんだけど3080の10Gじゃ不足?
グラボの性能が足りてないとどうなるとか足りてるとどうとかよく分からん >>677
性能的には不足ではないと思う
VRAMが不足していると感じたら
多い ものに買い換えればいいと思う >>607
Chrome がダメっていうわけじゃないんだけど
Chrome の場合 メモリー とか VRAM が余ってると
どんどん使っていっちゃうから
どれぐらい使っているのか確認した方がいい >>677
3080は生成速度はそれなりに快適な部類
学習や高解像度出力を快適にやりたいなら本来VRAMは最低12GBが推奨ではあるが、10GBでも普通に遊ぶぶんにはそこまで困らないとは思う >>678
回答ありがとう
VRAM不足って実際どういうとき起こる?
画像のサイズクソデカにしたりすると作成されないのそのせいかな?
ロラに学習させるのとかに影響する?
質問多くてすまん
ネットで調べてもいまいちハッキリわからなかった >>681
LoRAによる追加学習や4K生成とかはだいぶ厳しくなるけど、やってやれないこともない >>680
回答ありがとう
生成速度は確かに気になるほどではないかも
一応今は自分で遊ぶ程度だけど結構ハマりそうだからどうなのか気になった
学習機能使うのにVRAM足りないと何か不便なことあるかな? StableDiffusionやりたいがグラボが高い
おまえら俺の分まで頑張ってやりこんでくれ
AIを学習させればさせるほど社会に変革を起こすことができる
これは間違いない webui1111の最新バージョンを使用しているのですがインストール済みの拡張機能の更新ができません。
「アップデートを確認」ボタンを押しても、明らかに古いバージョンでも「最新」と表示されてしまいます。
この場合はどうすればいいのでしょうか? >>682
Upscaleっつーかhirefixで3倍だの4倍だのやれば不足するんじゃねえの >>683
ありがと、3060 12 買おうかなぁ >>682
>>685
破綻せずに生成出来る解像度は本来SDの仕様的にも640x960あたりが限界なので、通常生成でHDサイズが生成出来なくても気にすることはない
今はhires生成か、生成後にアップスケールをかけるのが一般的
それらについても低VRAM起動オプションを追加することでそれなりに対応可能
LoRAは低VRAM学習モードがあるので8GBあれば可能
高VRAMに比べて精度が落ちるということはないが、ただひたすら時間がかかる >>687
場合によってはextensionフォルダに入ってる該当フォルダを消して再導入 いつもの事だろ
3週間くらいあけて溜まったPRをマージしまくってExtension作者達が阿鼻叫喚してまた休止するまでがテンプレ これ人口AIて、stab.novel.chatgpt違いますよね?なんで急に普及したの? 昨日俺がいなくなってからもアップスケーリングの話に追加でレスありがとう
Chrome使ってるからそこが影響してそうなら他のブラウザを使うことも検討してみる
とりあえず>>598のmultidiffusion-upscaler-for-automatic1111使ってみます >>695
緑色のCODEボタンの下あたりにある時計マークをクリック
○100 みたいなやつ 絵柄Lora を作りたいのですがタグはどうすればよいのでしょうか
調べた限りでは
キャラLoraの場合は自動でタグ付けされたものから学習させたいものは消してに学習させたくないものは残すとありますが
絵柄の場合はどうすればいいのかわかりません >>690
学習に影響するのは時間か
ありがとうよく分かった RTX3060 12GBを購入予定ですが、お気に入りの絵を学習させるにはVRAM24GB必要そうなのですがRTX3060 12GBを二枚刺しでVRAM24GBと認識してくれるでしょうか >>704
まずその24GB必要というのはどこの情報なんだ
学習なんてcolabでもできるぞ >>666
私は2000回くらいプロンプト推敲してようやく満足行くスーパー洋ロリ軍団を生成出来るようになりましたよ >>704
現行のメインとして使われている追加学習方法(LoRA)であれば24GBなくても大丈夫
DreamBoothによる追加学習のみ24GB以上が推奨
また2枚指しでVRAMを合計で認識させることは不可能
二つ同時に別の作業が出来るというだけ >>700
いや、人口AIのシステムの話です
急に一年前くらいから進化しましたよね これ同じモデルで、同じプロンプトなら
全く同じものができますか? >>704
24gbとして扱うのは無理だけど3060の12gbでもLoraなら学習は可能だから安心しろ >>708
それはここではなく他所で聞いて
>>709
シンプルな生成であれば可能
ただし、最近は生成方法が複雑になってきたので、プロンプトやモデルのみならず、各所設定、追加学習データやその他の環境や細かな全て揃えても他人には再現不可能になることはある
またGPUの世代差によっても結果が変わる Google Colabで起動してるけど、ここで質問してもいいんですか?
Colab proだけど、generate を押しても生成されない時がたまにある。
画面更新や、Colabを再起動すればまた使えけど、一度なると4-5回の生成でまた動かなっちゃう。
午前中や夜中だとあまり起きない気がするけど、ネットワークの混雑の影響などかな?
いちいち設定直すのがめんどいんです、、 Chrome以外のブラウザって何がオススメ?
bingはChromiumベースだけどChromeとは違うのかな
Firefoxは新しくなってから重くなったイメージだけど >>705
NMKD stable diffusion guiの紹介ページで24GBでできると書かれてたので他の学習方法みてませんでした…
>>707
>>712
情報ありがとうございます
3060 12GB単品にします >>716
もしかして
正規化画像不要!たった数枚の画像でDreamBoothのキャラ学習。ローカル(Windows)で実行する方法
という記事?
何ヶ月も前の記事を信じるのはオススメしないよ ああ、ごめんレス版間違えた
>>717あてね
とにかく古い記事を鵜呑みにするのはダメ >>717
NMKDはオススメしない
少数派であり上級ユーザーも少なく情報が得られにくい
そしてプロンプトの記述方法も違う
AUTOMATIC1111の導入を強く推奨する stable diffusionをワイのPCに入れようとしてエラーが出るんやが
グラボが1660Tiなのがダメなんやろか?
ちなみにワイPCのスペックは
OS Win10
CPU Ryzen 5 5600G
グラボ GTX1660Ti
システムストレージ M.2 SSD PCIe Gen 3 >>682
もし 10GB で不足する時は作成してる画像が大きい時とか
ロラとかを作成する時とかぐらいだと思うけど
とりあえず 不足がないのであればそのままでいいと思う インストール中のエラーならスペック関係無いかもな
実行時のエラーならGPU切れって事じゃね? >>722
何かよくわからんがエラーコード2てのが出る >>725
メモリは?
自分は8Gだと駄目だった
仮想メモリ増やせば一応行けたけど >>727
メモリは32GB
これだけあれば足りるよね? 流れとしてはPythonとGitは普通に入れられるけど
WebUIを入れようとするとエラーが出る感じ >>716
Firefox一択では?
むしろそれ以外を選択するのって、どこかで推奨されてたっけ? >>730
まずはエラーを全て張れ
エラーなんて山ほど種類があるんだよ
やり取りが無駄に増える AIイラストやりたくて今月中に1660Tiから3060に買換えるつもりやったんやけど
買換えてもエラーは出るんかな?
今はワイのローカル環境でStable Diffusionを出来ないからGoogle Colabでやってるわ
>>732
今は近くにPC無くて無理やから
近いうち貼って改めて相談さして貰うわ
すまんな >>733
どこで紹介されている方法を参考にしたかを言ったほうがいいよ
ついでに言えば、違う人の方法を試せばそのうちいけると思うよ >>677
俺もそれだけどHires.fixでサイズを大きくしたら、エラーになるよ
1.5かギリ2倍が限度
だけどそれ以外は不満がないから、以降4090にする以外はこれで頑張るつもりよ VRAM節約術
・ギガジンの古い記事などを見てckptを使ってるなら、safetensorsに変える。
モデルファイル全体がVRAMに配置されるので、ckptだと7Gくらい専有されてしまう。
・i2iやCNの時は、元画像のサイズを必要最低限に小さくしてから使用する。
自分もまだ触りたてなので、大きな所で知ってるのはこの二つくらい。 >>736
モデルファイルの読み込みに使われるのはメインメモリであってVRAMじゃない
モデルマージで使用するのもメインメモリ
何より大事なのは必ず低VRAM用の起動オプションを設定すること じゃあ2gbぐらいのモデルならVramを5ギガも低く生成できるのかって
んなわけねーじゃん
ちょっと考えればわかりそうなものを >>731
Firefoxでいいのか
FirefoxをSD専用にする方が使い勝手も良さそうだからちょっと試してみる
ありがとう >>734
youtubeで日本一わかりやすいStableDiffusionをインストール方法とかいう動画を
見ながらやったけどエラーが出てダメだった
他に分かりやすくて方法があったりするんかな?
ワイそこまでPCに詳しいくないから分かりやすい方法があるなら教えて欲しいかな
今の所はGoogle Colabである程度快適に出来てるから良いんだけど
難点は無料版では3〜4時間フルで使ったらすぐに制限が掛かってしまう事かな
まあ副垢を4つ作ってローテで回して対応してるわ >>740
だからさ、「日本一わかりやすいインストール方法とかいう動画」じゃ困るんだよ
具体的に話せ
仕事でもねえのに一々俺らが君のすっくない情報から推測しながら答えなきゃいけないの?
勘弁してくれよ >>740
colabそれやるとやばいぞ
規約で書いてある >>736
ついでに言うと、safetensorsに変換すればモデル軽くなるというわけではなく、safetensorsだと読み込みや切り替え速度が速くなる
ただ、結局のところ使用しているストレージの速度依存になるのでモデルの保存先はSSDが望ましい
また、モデルにはフルバージョンと無駄を削ぎ落した軽量化バージョンがありサイズは大きく違う(fp32が7~8GB、p16が2~4GBぐらい)
メインメモリが16GBなど少ない場合はモデルの容量を抑えることでエラーを避けることが出来る >>736
間違った事を自信満々で書くと怒涛の勢いで訂正されるっていうライフハック >>742
確かにPCに詳しいか詳しくないか以前の問題ではあるな
ひとまずワンクリック導入を試してみて動作確認してみたほうがいい
ttps://note.com/uunin/n/n715256399038 なんでcolabで環境作れるやる気はあるのに複垢やエロ画像生成とか下調べせずにやるかな >>750
interlocked fingers はどう? >>752
ありがとう
一発でそれっぽいのが出ました >>750
hans on own chestとown hands togetherとprayingでそれっぽいものが出たり出なかったりする
ある程度はガチャ >>652
Colab民でローカル版は使ってないけど、gitチョットダケクワシイのでエスパーしてみるよ。
1. openpose-editorのインストール先を確認
例: C:\stable-diffusion-webui\extensions\openpose-editor
2. スタートメニューから「Git Bash」を起動
3. "cd" に続けて 1 で確認したフォルダに移動
例: cd C:\stable-diffusion-webui\extensions\openpose-editor
4. 以下のコマンドを実行
git reset --hard a63fefc (実行後に "HEAD is now at a63fefc .." と出てればOK
5. webuiを起動して結果を確認 youtube見ながらやったら俺もできなかった
どっかのブログの通り手順を追ってかっちりやったら
嘘みたいにすんなり導入できた。 >>756
答えは出とるやろ
その動画が間違ってるだけや もの凄く布面積の小さいおパンツを穿かせる場合って皆さん何てプロンプトを入れていますか?
tiny Bikiniでは少々大きめになってしまって息子が困っております >>740
インストールは>5の公式簡易インストーラも試してみて
> https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
> 解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる >>760
返信ありがとうございます
息子は「大事なところしか隠れていないくらいの小ささでなければ到底やる気にはなれない」と不貞腐れておりまして…
どうにか上を向いてもらえないかと此処を頼らせて頂いた次第です
大事なところ以外は「コンニチワ!」とご挨拶していても構いませんので、どなたかもの凄く布面積の小さいおパンツを穿かせられる呪文のご教示お願いいたします! https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
これ便利だから使ってるんだけど、すでにある文章の間に挿入したいとき、
カーソルが前後に触れてると、そいつらも一緒って判断してenterでもクリックでも一切出ないのって何とかならない?
仕方なしにいちいち今のカーソルの前後にスペース入れてから挿入ってやってる
例えば
aaa,|bbb
ここにカーソルがあって「boy」って入れようとboってうつとサジェストにboyって出るけど何やっても入らない
aaa, | bbb
って一旦前後を開けてから、boって打たないといけない >>763
だからそれ男なの?
絵で書いて読み込ませたら? >>761
ありがとうございます!
ですがまだまだ大きいみたいです 3次元系だと無いんだけど2次元なモデルだと髪の裏面?頭側の色が表側と全然違う色になるのは解消可能なのかな
黒髪だと陰を表現するのにそうなってしまうのかもしれないけど >>766
Low-rise string bikini? >>766
Thong 言うみたいやでプロンプトできくかわからんけど あと
G-string T-stringとかも言うみたい
布面積的にはThong>G-string>T-string みたいやね 英語表現がわからんときは「type of 何とか」でググるといい感じに画像が出てくる。(呪文で効くかは別として)
"type of bikini"で調べてると extreme micro bikini とか。 >>765
もの凄く小さいおパンツを穿いている女の子が見たいようです
有用性の問題?でプロンプト探索に力を入れております >737
>745
繰り返し生成してたら、"VRAM一杯で生成できません"、みたいなエラーを吐いてたのが改善したので勘違いしてました。
ありがとう。 皆さんありがとうございます!
slingshot bikiniで何だか漲り始め
Low-rise string bikiniで上向きに転換して
Thongでエレクチオン致しました!
stringシリーズのおパンツすごくちっさいですね!
涙を流しそうなくらいの喜び様です!
後はやる気に満ちてくれた息子をじっくり激励したいと思います!
重ね重ねありがとうございます! >>772
> extreme micro bikini
息子「TARGET、LOCK!!」 colabのkohya-LoRA-dreamboothを使ってるんですが、最新の更新で設定方法が変わって いまいちよくわかりません
instance tokenと class tokenが削除されactivation wordに変更となっているのですがactivation wordに今までinstance token とclass token として設定してた単語を入力すれば大丈夫ですか?
今まで instance→shs class→1 girl だったら activation word→ shs 1 girl という感じです 公共の場に!
出せる年齢か!!
怪しい!!!(実写風) 遂にChatGPTなどAIの力で英語出来なくてもなんとかなりそうになったかと思いきやStable Diffusionのタグで必死に英語表現を学ぶ事になってしまったw
huge!huge! stable diffusionで2枚目以降の画像生成すると最初に生成した1枚目が右に出てくるんだけどこれどうしたらいいの?
フォルダには生成されたのが入ってるから見れるけど一々確認するのが面倒で almost naked outerwear
エロ下着の可能性探ってたら全裸にコートの変態prompt見つけたのでお裾分けするわ
>>780
着てればセーフなのでは?
全裸コートはアウトだけど下着なら隠れる所隠れてれば タグにウェイト付けられるLoRA学習ってどれのことですか? 3060のパソコン使うと発火して壊れる可能性あると
このスレで聞いたんですが
どんな使用方法で壊れるのでしょうか? >>788
4090の話じゃ無い?
電源コネクタが差し込み不足で燃える奴 人物のみの背景やオブジェクトなしにするにはなんで入力すればいい?
white background
だと白っぽい場所に白っぽいオブジェクトが配置されちゃう >>779
学習にキャプションが利用される場合にはactivation wordは学習に使われないって書いてあるからなんでもいいじゃないかな
なんか気になるなら前バージョン使う手もある >>788
その報告リアタイで見てたけど低容量の古電源でぶん回して焦がしたって SD上で簡単に局部にモザイクもしくは海苔貼れる方法ありませんか?
やはり別の画像編集ソフトで加工必要ですか? 間違えてました
使われているモデル Anime_7th-Heaven
でした ものすごい今さらだけどpromptでワードの下に出る赤い波線て何の意味? >>796
英語的に間違ってる表現だったかな
smilkとかの造語やアンダーバー繋ぎはまあそうだよな webuiがフリーズした時ってどうやって終了させたらいいの?
タスクマネージャー開いても応答なしになるわ >>797
やっぱそうなのか、japaneseとかでも出るの不思議だったんだけど
調べたら大文字で書き始めるのが正しかったってこと今知ったわ…
いや習ったけど忘れたのか ローカルでやってるとタイプミスの波線出ないけど設定があるのかな >>800
言語設定のスペルチェックでオンオフできるよ
まぁDanbooruタグの入力補助拡張入れてればあまり必要ないと思うけど >>758
with string wrapped around her body
紐水着どころか体に紐を巻きつけただけの女が出る
with ribbon wrapped around her body
リボン
with plastic wrap wrapped around her body
サランラップ
nude/nakedと組み合わせて適度に強調をかけるといい感じ
布面積の小さいエロ下着とは微妙に違うけど
裸同然の薄着?を求めてるなら同様に使えると思う 和製英語を英訳するのしんどい
イメージに近い服装の写真を入れたらタグを教えてくれるソフトがあればいいのに >>799
調べなくても右クリックで正解候補が出てくる 608です。radeon 6700XTでなんとか学習をしたいと試行錯誤しております。
いろいろいじってたら違うエラーになりました、rcomあたりがぶっ壊れたかもです。
pastebinにはりましたのでご確認いただけたらと思います。
https://pastebin.com/EdwgHRj1
stablediffusionwebuiもいれるのに苦労したので、もうrcomとかどうしてたかもわすれました・・・
完全な解説法は当然助かりますし、詳しく詳細書かれてるサイトありましたら教えて
いただけたら幸いです。
お手数おかけします、よろしくお願いします。 >>808
1日12時間働いて手取り12万のブラック企業社畜です。今のグラボ価格だと無理です・・・ >>809
なんか、すまん…
難しいかもしれないけど転職をオススメするよ… >>810
コロナで前の会社が倒産して削られた退職金でやっと買ったPCです。
それ以後半年仕事探してやっと2年、他の仕事も探してますがなかなか見当たらないです。 >>807
mixed_precisionでエラー出てるよね
これradeonならnoじゃないと駄目なんじゃない
あとxformersてあるの? 5ch wiki ハローカエルベンチでググるとradeon使った人の測定結果も出てくるので参考にしたら 1111使うのにcuDNNって必要?
GPUが少ししか動かずCPUの1コアが100%に張り付いているんだけど >>814
mixed_precision=no
に変更したら少し進むようになりました、ありがとうございます。
先ほどのところに追加でmixed_precision=noにした後の全文も貼り付けました。
またわかりましたら教えていただけると幸いです。 >>815
拝見しましたが、測定結果からどうやって今回にいかせばいいかわかりませんでした。
すいません。
ふらふらしてきたので仮眠をとります。 xformarsでエラーかな?Radeonには無いのでは?
Radeonの人のコメントとoptionで代わりに何とか入れるって書いてるから真似てみては?
このままだとCPUで動作する気がする
Radeonで学習させてる人のblogあったよ
必要なモジュール確認したら
ttps://mkb-toolbox.hateblo.jp/entry/2023/03/26/185217 >>809
手取り12万円で それで足りているんだろうか
貯金を取り崩しているんだろうか 実写系lora作って顔は大分似てきたんですが 衣装とか髪型のプロンプトを入れたり引きの画になる途端顔が崩れるのは学習が足りないのか タグ付に失敗してるのか 教師画像が少ないのか原因わかりますか?
教師画像 50枚程度(顔アップ20枚 上半身20枚 全身10枚)
キャプション/タグ付はBLIPとWDtaggerでつけてほぼそのまま
でやってます >>805
extensionにwd14-taggerというものがある
danbooru基準のタガーだが、画像を入れたらその画像のプロンプトを作ってくれる >>824
そもそも全モデル、遠景の学習が足りてないので基本的に遠景に弱い
実写系だとbasilmixあたりはまだ遠景で崩壊しづらいかも civitaiってたまにページが404になってて、ダウンロードしたものの詳しい使い方がわからない時あるけどみんなもありますか?
というかサイトごと閉鎖される可能性もあるんでしょうか まさか画像生成にハマると思ってなくて、年末にメモリ32あればこの先数年くらい大丈夫やろって20万くらいのPCポチッて実はVRAMが3060ti(8GB)で、
そういえばなんか3060(12GB)ってのあるらしいけど何違うん?3060tiの方がGB低いけど性能良いんだ。そういう事あるよねーって鼻ほじりながら買ったんだけどこれはあれか、やらかしてる感じか? 素人なので教えてください!
途中まで良い感じでキレイな女性になるのですが、最後の最後にドワっとリアルになリ過ぎてガッカリしてしまう
これを回避する方法はないでしょうか? >>827
ありがとうございます
正直画像生成の原理を理解してなくて アップの顔を覚えさせれば 引きの時の顔にも適用されると思ってたけど違うんですね…
全身画像増やして学習させても無意味ですか? >>831
Hires. fix使っててHires steps上げてるならそれをを0にしてみるとか? >>833
ありがとうございます、でもHires. fixは使ってないです >>834
Cfg scale はどうですか?これも高すぎるとそうなると思う
基本7から9の間でやってます >>829
完全にやらかしてるし
何のために3060Ti 買ったんだよ >>819-820
切ってみました
そこはチェック済みで、多分そのサイトが一番詳しく書いてたとおもうのですが、具体的
なやりかたがさっぱりで・・・
>> PyTorch TensorFlow bitsandbytes をROCmに置き換える・・・?
わからない・・・
>>requirements.txtで必要なモジュールをインストールした後に置き換える、requirements.txtを書き換える等すれば良いと思います。
やっぱりわからない
>>bitsandbytesですが、以下にフォークバージョンがあるのでcloneした後にビルドしてインストールする必要があります。
フォークバージョン?ビルド???
>>make hipでビルド後、pip install ./bitsandbytes-rocmでモジュールがインストールされます。
make hip使ったことないし調べてもなんのことかわからない
こんな状態です。そして
pip3 install --upgrade torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/rocm5.1.1
なんか進んだ気がする
pip install ./bitsandbytes-rocm
エラー
pip3 install tensorflow-rocm==hoge_tensorflow_version
エラー openposeの棒人間を直接いじる方法ってありますか? >>832
察しの通りSDは学習画像を内部的に拡大したり縮小したりできない
大きな顔を1枚覚えても遠景の顔は描けない
基本的に512x512で学習しているため、生成解像度を上げると同じ絵が並んだり分裂のような破綻が起きるのはそういった理由
服装込みでやりたいなら同じ絵でいいのでサイズ違いパターンを沢山入れておく(学習時に自動でトリミングしてくれるが3000pixelとか大きいのはやめたほうがいい)
いまいちな写真を入れるよりは良写真のサイズ違いを何パターンも入れたほうが効果は高い可能性もある
ただし再現度は上がるがある種のコピーのような結果にはなりがちなのでバランスは必要 >>831
その話題はよく出るのだが、正直な話、生成途中の過程は気にしないほうがいい
あれを途中で止めたところで良い絵になるわけではないので、最終出力の絵を基本としてプロンプトを練り直すほうがよっぽど早い
リアルになりすぎるというならネガティブにrealisticや3Dを入れて回避してみる
そもそも途中経過表示はオフにしたほうがマシンの負担も減る >>829
少しばかり運がなかったね
ゲーム用途であれば問題ないのだが
まぁ3080tiでも遊べないわけではないので、次の買い換えは5000シリーズを待とう >>838
openpose editorというものがある
ただ、webuiの更新でちょいちょいバグったりエラーが出ることが多いので注意
https://github.com/fkunn1326/openpose-editor >>835
いろいろトライしてみます、ありがとうございます
>>840
参考になりました、感謝です 解像度小さい顔の画像を入れると引きの画像での顔は綺麗になる率上がるけど
ぐちゃぐちゃがブサっくらいにしかならんし
そもそもとして解像度小さい画像はクオリティ低いから
アップの画像のクオリティ落ちるよ
多分、解像度小さい画像を入れるんじゃなくて解像度同じで顔だけちっちゃいとかにしないと駄目 解像度って、dpiの事か単に画素数の事か迷う
物理的に出力しないから画素数の事だと思うけど >>828
civitaiが不安定なのはよくある
俺の場合、昨日はパソコンからは接続できなかったけどスマホからは接続できたので
環境の問題もあるかもしれぬ >>845
画素数な
素人向けの説明なんだから知識有るやつはうだうだ言わないで察しろよ >>828
ロリ系やcivがロリと判断したものは割とすぐ消されるよねえ
花札かLoRAならAdditional NetworksからInfo確認するのと、あとはファイル名から入れるべきワードを察するとかかなあ civさんはやくjpでホスト取って……
それかLoliDiffusionの管理者がjpホストでCivitaiみたいなの作ってるので
コーヒー買って応援してあげて >>839
>>844
詳しく教えて頂いてありがたいです
全身画像を用意して追加で学習させたいと思います civitai昨日からdownloadの反応がめちゃくちゃ悪い
閲覧は普通にできるから鯖別にしててDL側の負荷凄いんだろうな Civitaiは三次ロリは特に厳しい
二次ロリはnsfwのスクショはダメよーって注意されてるの見たことあるけどその程度や もうどこかの自由な国にサーバーを置くしかないなw
実は著作権絡みはロシアが日本などの著作権を停止しているから…… >>854
サンプル画や他の人の使用例が見られるから >>836
>>841
買う時点だと多少ゲームやるかなでちょっと高い方がええやろ程度で良くわからんかったんや。
ハードの知識はCPUとか数値低いけどコア数が多いから良いとかにわかに知ってる程度だったから、tiの方が高いなら良いんだよねーって……罠やろこんなん。 >>859
3060も出た当初は『役立たずの低速vramを無駄に積んだ中途半端グラボ』って言われて評判悪かったので、当時の感覚で言えば3060tiという選択は間違いではないんだよ
ところがAI需要で大容量VRAMが見直されて、4070シリーズが発表された今もなお低価格でコスパのいいエントリー機種として君臨中
こんなの誰も予想出来なかったと思う 服装のLora使うと顔が変わっちゃうのどうしたらいいんだ? 0.2~0.4とかだと顔はキープできるけど、服装の再現度が下がっちゃうし VRAM気にするなんてAI絵やるときくらいしか気にしないし予測不可だったろ >>863
完璧には切れないけどLoRA Block Weight 初心者です
アイドルグループみたいに同じ衣装を着た複数人のキャラを描きたい時はどう呪文を書けば良いですか? civitaiわかった
downloadボタンクリックじゃなく、右クリックして名前を付けてリンク先を保存で一発で落ちてくる >>867
たまたまだよ
裏側の通信はどちらも同じ >>867
WireSharkで確認したけどどっちも環境変数一緒だったよ >>853
つい数日前に印西市に大きなデータセンターが出来たぞ >>861
AI 需要というか ゲームでも VRAM の多い方が
逆転現象 起きてたから 今は VRAM だよ >>846
いや、自分が言ってるのは多分投稿者が削除したんだと思う、その時ほかのページは見れたので
ダウンロードしたものの、vaeとか推奨される設定が見れないのは悲しいからそういう説明ごと全部保存できないものかな 現時点で5000シリーズとか6000シリーズの販売ってどういう動きを見せてますか?
自分が知ってるのは5000が16GB、6000が24GBのバカ高い値段のがすでに売ってるっていう認識なんですが
効果検証した人いるんでしょうか
下三桁がゼロの型番は一般向けじゃないのかな? >>868
いやFirefoxで実際そうなるんだが・・ボタンは無反応
原因は分からないけど、俺環かな? CIVITAIまたなんかおかしいな
DLはできるけどFollowとかLiked❤が反応しない
おま環かもしれないから誰か試してくれませんか? >>875
それはQuadroシリーズのことであってRTXシリーズとは全然違う別物
CG用途のワークステーション向けGPUであって、お値段は高いが別に飛び抜けて性能がいいというわけでもない
一般ユーザーが買うようなものではないよ >>879
すまん、RTXシリーズじゃなくてGeforce RTXシリーズとQuadro RTXだ うーん、openpose editor教えてもらったのでつかってるけど、顔の向きを変えても反映されないですね
向こう側を向かせでも絶対カメラ目線になる >>882
Geforce と Quadro の違いですねなるほど >>883
学習内容の組み合わせで再現出来ない姿勢は自動的に学習内容に沿った姿勢に矯正されてしまう
looking backとか強調してもダメなら姿勢系のLoRAと組み合わせてみる
あとはcontrolnetのセッティングで一度に使えるcontrolnet数の変更が出来るので、手書きとか深度とか他の方法を重ねて使ってみるとか
どちらにせよ、結局のところモデルごとの学習内容頼みではある 絵柄Loraの作り方わかりやすい解説サイトないですか?
colabでできるやり方でお願いします PCから火が出たら何をぶっかければ良いんだ水は勇気がいるなあ stable diffusionで最初に出した1枚は表示されるけど、2枚目以降はプロンプトとか変えても変えなくても、最初に生成した1枚目が出てくるんだけどこれどうしたらいいの?
フォルダには生成されたのが入ってるから見れるけど一々確認するのが面倒で そもそもaiイラストで普通のメモリー増やす意味はないの? >>887
男がぶっかけるって言ったらアレしかねーだろ! 主メモリが必要になるのは、
出力したモノがどのようなのか確認するときぐらいやな >>887
二酸化炭素缶スプレーを噴射して酸欠状態にすれば消える >>891
vramのほうが大事になる時代になるとはなあ >>888
その質問書くの2回目だと思うけど
質問の意味が分からないんだよね Linarていう画像ビューアで生成されたファイル開くと、ファイルにプロンプト情報が含まれてるせいかアプリ落ちるのだが他の画像ビューアでもアプリ落ちてる? >>889
>>891
メインメモリはモデルデータの読み込みに大きく関係してる
メモリが8GB~16GBだと、fp32の7GBぐらいのモデルを扱うとメモリオーバーでエラーが出るので軽量化された容量の少ないモデルを使う必要がある
また、マージモデル等を作る場合はさらに同時にモデルを読み込んだりもするので、フルで楽しみたいのなら最低32GB程度は欲しい ブラウザが最初の絵をキャッシュして、以降もその絵をずっと表示し続けてる感じじゃね >>888
おそらく新規に生成した画像がプレビューに表示されず前の画像が出たままになる症状のことかと思われるが、環境によるバグなのか現行バージョン固有の問題かは不明
キャッシュやメモリなどブラウザ依存の問題の可能性もあるので頻発するようなら再起動を これからはloraじゃなくてlohaの時代らしいな 蒸し返すようでごめん
上の方で、モデルにそもそも児ポ入ってる、て熱弁してる人いたけど
それがほんまなら、そもそもmodelをPCに入れてる段階でK札に押収されたらアウトとちゃうのか >>902
蒸し返すなボケ
そもそも仮にモデルに違法なものが学習されていようと児童ポルノが学習されていようと、学習モデル所持で逮捕なんてことは現段階では100%ありえない
そんなものを裁く法律は現段階ではなにひとつ存在しない
NovelAIのリークモデルでさえ流した人間も使用した人間も誰ひとり逮捕も起訴もされとらん >>902
モデルには解析して集計したデータが入ってて
画像そのものが入ってるわけではない >>902
モデルに入ってるなんて言ってる人はいないよ
裸の絵を描ける人の頭の中に裸の画像が入っているわけではない 直前まで丁寧に返答してたID:yQKmwZM+がいきなり豹変してて笑う うんまあそうだよな
ごめんふと思っただけ ごめんよ 草
まぁでも「~~してごめん」を免罪符に面倒くさいことしだす奴はアカンだろ どのモデルが児ポを学習してるのか知りたくて仕方ないんだろう 調べりゃすぐ出てくるよ、Cstaberっていうモデル
たまに4chでバラ撒かれる
他と違って普通にリアルガチな生成が出来るけどリアル過ぎて普通にブス
chillとかbasilとかの顔だけ大人とは全然違う
クレって?オレは持ってねーなー はい、次の方質問どうぞ
質問の際は、マシン環境や使用モデル等必要情報を明記しましょう
エラーの場合はスクリーンショットを貼りましょう >>902
中華製ラブドールはcatdoll製とかのリアル幼女のドールを販売しているとこは
今でも「幼女から直接型取った?」って感じの少女や幼女のドールを商品説明で
無修正の裸体を公開してるからな・・・
そういうをクロールして学習している可能性はある。
学習といってもその程度だろうな うぜぇ・・無視しろよ
構う奴も同罪、つかID変えて自分でレスしてね?
次スレからワッチョイお願い PC買い替え時って、ローカルからどのフォルダを移植したら良いんだっけ。
ダウンロードが面倒なsafetensors形式ぐらい? >>837
>>820に書いたblogの人はLinuxみたいね
そしてPyTorch,TensorFlow,bitsandbytesの入れ替えが必要とあるがTensorFlow-rocmのWindows版は見つけられなかった
directML版というのもあるみたいなんでこれを使うのかもしれない
後はRadeon詳しい人に任せます >>917
国内ではイラスト、漫画については性器の隠蔽をしていればロリでもOK
実在のモデルを使った写真や動画はその期の年齢でアウト。
その写真を使って加工したものもアウト
過去にはマイクロビキニを使って卑猥なポーズ撮影もアウトにされた。
だけど欧米は上記全てアウトだね
国内のAIを使った児ポの法整備はこれからだな。実際にモデルを撮影したわけでもなく
CGの一種と言えるけど一見写真に見えてしまう精度がある
国内の投稿サイトではクレジットカードがらみの関係で欧米基準にしているとこもある
まあとにかく基準があいまいで検挙する側の判断次第ということになる
危うきに近寄らずなスタンスがベターだろう 半目にするのにhalf-closed eyesを使うと両目を閉じるか片目を閉じるかになっていい感じに半目になってくれないけど皆はどうしてる?
squintingにすれば半目にはなるけど怒り顔になるし、ネガにangryを入れても微妙な表情されるしで半目だけ調整が出来ないムズカシイ 復旧!と思ったら即503とかみんな待ち望んでるんだな https://blog.hapins.net/entry/2023/03/18/095246
ここを見てLora を作ろうとしているのですが
手順3で
CalledProcessError:Command '[' /usr/bin/python3',
というエラー止まってしまいます
どうすればよいでしょうか
もしくはこの記事以外でColabでの絵柄Lora の作り方についての解説があったら教えてください >>921
我々が「絵やろ」と言い続けなきゃならんな
あとは投票に行く
低投票率だと固定票の壺の方向しか見ない UIのアップデートしたせいなのか生成速度が急に落ちた……
変化点が多すぎて何が原因か分からんw 衣装Loraを詳しく解説しているブログなどがあれば教えてください >>887
火が出てるなら水でいい
電気火災は不在時に起きる >>825
あれ?
それで合ってるかと思ったんですが、そのモデルで生成してる人の使用モデル見ると
corneos7thHeavenMix_v2になっててAnime_7th-Heavenではないんですよね…
https://civitai.com/images/429255?period=AllTime&sort=Most+Reactions&modelId=4669&postId=129323
同じモデルなんでしょうか… https://note.com/ddpn08/n/n99516e6db0d9
こっちもやってみたけど
こっちはエラーは出ないけどローカルのURLしか出てこない
パブリックURLが出てこない
コメントに同じ状態の人がいるみたいだけど返事がない civitaiでLoraとか見てるとv1とv2とv3があったりしてとりあえず数字の大きいのだけいれてみてますが数字が大きいものは小さいのも内包してるという訳では無く中身別物なんですかね?
物によっても違うとは思いますが概ねの傾向といいますか色々試された皆様の御意見をお聞かせいただければ 効き方悪かったりおかしかったりを改善してバージョン上がるから基本的に上入れてて問題無いよ
ただ当たり前だけどシード値同じでもバージョン変わると結果変わる可能性有る >>936
文字で検索させてくれないんだよね、タグオンリー
設定での除外もタグだけ
加えてタグがトンチンカンな人が多い
タイトルKorean Dollなんたら
タグ woman sexy female
とか
タグにもkorean入れろやボケ >>938
データセットや設定から違う事が多く概ね別物だと思っていいが
新しい方が良い結果を出す傾向はある
ただあくまでも「製作者感覚」での良い傾向なので実際使ってみると過学習してたり使い難くなってる事もある
その辺の違いを細かく書いてる製作者も多いので説明文をちゃんと読むに越したことはない >>939
>>941
全部のバージョン試すのは面倒なので基本的に新しいの使ってみて気になるのは一応バージョン違いも落としてみるって感じでよさそうですね
ありがとうございます! >>944
標準の7か少し下げて6くらいが破綻少なくちょうどいいと感じる
モデルやloraにもよるから一概には言えないけどね LORA学習始まらなくて、ValueErrorってやつなんだけど、ファイル内のREADMEにあったエラー対処で、accelerate configの6番目の質問に0って答えても駄目だったんだ…。誰か解決法知ってる人いたら教えて下さい!
https://i.imgur.com/JUbxHUc.png みんなはディスプレイはオンボードの方につないでGPUをstable diffusionに専念させるとかやってる? このアプリにはdGPU、こっちはiGPUと割り振りできるんだっけ Paperspaceが止まるのってgradioが原因ですか?
gradioってこれ何なんですかね >>953
画像生成AI知る前にPC新調したからGPU機能なしCPUにしてしまった
数千円しか変わらないし少し後悔してる 3070tiとお古の1070ti繋いで片方ゲーム用専念とかできるんかな。それならめっちゃ便利だけど >>953
どうやんの?
俺のPCグラボ挿した時点でマザボの映像出力無効になるけど BIOS で オンボードGPUを有効にして
GPU で AI を使うようにする >>953
そんなん出来るのか...どのくらい変わるのよ 凄いレベルの低い話なのかも知れないですが3060VRAM12なのにhiresでアップスケール1.7以上にするとイラスト破綻するんですが何ででしょう?
なんか皆さん同じグラボで2倍とか作れてますよね。
CPU5600xでメモリも32gb 3200なので性能十分だと思ってるのですが…、
もしかして、HDDに入れてるから……? Loraの学習ガイドによく、”タグ付けする際は学習させたいものを切れ”って書いてありますけど、それってキャラクターの顔を覚えさせたいときのみ有効ですよね?
キャラ衣装もセットで覚えさせたいときは、キャラの特徴タグを切って衣装タグはそのままにしたほうがいいんでしょうか?
そうすれば衣装タグ(shirt, bottoms)の概念を上書きできる? >>963
アップスケールが影響したことないなあ
Denoising strength とcfg scaleはあげすぎると破綻する >>963
・upscalerがlatentだと破綻しやすいけど高精細にもなりやすい
・denoising strengthが強いと破綻しやすいけど高精細にもなりやすい Denoiseってデフォで0.7とかなんだよね・・ 絵が全く別物になるけど
それがもともとの絵だと思ってガチャする分には問題ない
ポーズや複数人の絡み指定すると100枚ガチャしても当たりこないけど300枚ガチャすれば一枚くらいはまあ >>954
Windows10以降?ならできるっぽい
システム→ディスプレイ→グラフィックの設定のグラフィックスのパフォーマンスの基本設定で >>970
もう出来てるみたいだが
2023/04/15(土) 13:09:15.20に >>971
あら本当だありがとう
うっかり更新してなかった危ない危ない >>969
なんかそこにあるハードウェアアクセラレーションて有効にした方がいいのかな
AI画像生成関連で見かけたこと無いから関係ないのか 誰も!(自分も)次スレのURLを貼っていないのである
【StableDiffusion】画像生成AI質問スレ8【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1681531755/ >>973だけど試しに有効にしてみたら
タスクマネージャの「3D」のところが常にフルになるようになった
生成速度は特に変わらなかったので元に戻した こんな絵ってどうやって作るの?
https://moro-ai.com/
ログインしたら呪文は出てくるんだけど
どこのAIで使えるとかは書いてないのね。 宣伝?こんなゴミみたいなサイト見てるうちは作れないよ あんまたいしたのないね・・そこらの人が適当に作ったみたいなのばっか
修正ありだけど、pixivに貼ってる人たちの方がはるかに格上 これ、何のアプリで画像改造したの?
気になるんだけど・・・
ttps://twitter.com/NTAS_TKST_OTK/status/1600088093125582848
ttps://twitter.com/NTAS_TKST_OTK/status/1645054195060584448
ttps://twitter.com/NTAS_TKST_OTK/status/1645055022357692416
https://twitter.com/5chan_nel (5ch newer account) i2i系列でできるけど、その人はAIわーわーって感じでもないから
https://forest.watch.impress.co.jp/docs/shseri/toolsd/1472525.html
ここらのなんかかな
このスレは基本的にそのリストの11・12番が集ってるスレ(タイトルに7もあるか)
>>2の通り、それ以外の質問もOKだと思うけど、アプリは知らない人が多いと思う lycolisを入れたんだけど花札を押してもloraの隣に表示されてない
エクステンションを見にいくと最新版が入ってるとあるのに
原因わかる方います?
宜しくお願いします >>986
loglogloglog for in the world Lora集め&作例集めにはまってるところですが皆さんLora何個くらい入れてますか?
私は今のところ300弱くらいでまだまだ増えそうです
Lora自作楽しそうとか思ってたのですが、その前に既存のLora漁りだけで大変楽しいです PNG infoで出てくる情報にVAEが無いんですが、どこに使用VAE書いてありますか? エロはStableDiffusionのローカル環境じゃないの >>989
PNG InfoにVAEの情報は入らない
入れてくれたらいいんだけどね VAEってそんな選択肢の幅ある?同じ奴ずっと使ってるんだけど変えたらどうなるかとか試したことない open poseでEnableにチェックを入れprocessorをopenpose、modelをcontrol_openpose-fp16を選択して画像をドロップしても棒人間が生成されなくなってしまいました
原因分かりますか? 前回初めて導入したのですが問題なくできました
二度目から生成されなくなりました
5GのほうのモデルをDLし選択すると再び表示されるようになったのでこちらを使用しようと思います。 >>987
質問スレでそういうオナニーはやめような ChatGPTくんも理解できなかったようだ。
Q:loglogloglog for in the worldとは何のネタですか?
A:「loglogloglog for in the world」というフレーズは、明確な意味やネタを持っているわけではありません。このフレーズは、おそらくタイプミスや言語の混乱が原因で、意味不明な言葉が並んでいます。具体的な質問や文脈があれば、より適切な回答ができるかもしれません。どういった情報を求めているのか、もう少し詳細にお聞かせいただけると助かります。
>>998
Step by Stepで解説してくれ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 5日 20時間 23分 16秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。