【StableDiffusion】画像生成AI質問スレ11【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
↑次スレ立てる時は行頭にこれいっぱい置いとけ
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んで
インストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。
どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://mevius.5ch.net/test/read.cgi/cg/1683421154/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1 https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
導入方法2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→
run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。
サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで ■FAQ
Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい?
A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像
(特に幼児)の生成でBANされる可能性がある
Q2:ローカル環境でパソコンの性能はどのくらいがいい?
A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。
ストレージはNVMe SSDのような早いものにすると
モデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい
Q3:NMKDと1111、どちらをインストールしたらいい?
A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q4:画像を出力したら色が薄い、または彩度が低い
A4:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-
クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの 切り換えが楽になる ■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい
A4:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。
止めるには生成ボタンを再度右クリックして止める
Q5:アニメ顔を出力したら目鼻がなんか気持ち悪い
A5:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q6:設定を変更したのに反映されない
A6:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても
「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q7:消去したプロンプトがまだ効いている気がする
A7:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や
まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている 【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという
Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり
SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で
処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり
この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを
源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが
混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりも
CLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので
両方試しつつ好みの絵柄を探ってみるのが良いと思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である 起きた
前スレのVRAM6GBの話だけど、G1660 6GBで
1024x1024画像でリアルな人間つくれてます
基本512で作ったあと、拡大描画のときリアルにする
その方法は1つではなく、5つくらいあるんじゃないですかね
メモリよりも、AI画像やるようになってCドライブのSSD 256GBを圧迫するようになった
生成済画像や動画はHDD1TBに退避しててもこれ
次は512GBクラスを買ったほうがよさげ こっちはワッチョイありで人が少ないから↓のがいいよ
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/ >>9
安いけど一度に100枚とか作らなければ1TBでも十分だわ xformersを使うとVRAM 6GBでいけるらしいけど、そのかわり少し画質が落ちるらしいぞ?
というかxformersオンでは12GB積んでても6GBしか使わなくなるようだ
高速化のメリットと画質が落ちるデメリットの両天秤 YouTuberがタスクマネージャーの画面見せながら言ってたんだから確かだろ
RTX4070Ti使用で12GB中5.9GBしか食ってなかった xformersは6GB以下で使うためのものなんだろうな
4070持ってる奴は今すぐ試してみろ 間違いないと思うぞ YouTuberが言ったんだから確かだろ
…なんて世の中になったんだなw >>15
ほんとにそれしか食わないのか
3840x2160にサイズ指定して生成してみてよ >>17
今の若い世代にとってyoutuberの言葉は神の言葉みたいなもので、youtuberが間違ったことを言っても「本やウェブサイトの情報の方が間違ってる」という認識になるらしい xformers入れる前はプレビューの出力でも12GBマックスまで食っていたけど、入れてからは5~6GBくらいしか使わなくなったな。
てっきり速度とメモリ効率の最適化だと思ってたんだけど、なんか違ってるの? Hires. fix使うと768x512の2倍でバッチサイズ2でも12GB使い切るから
みんながやりたいサイズと枚数だと48GBでも足りないだろうな >>20
ざっくりいうと再現性捨てて高速化、メモリの開放とfp32→fp16ってくらいかな
最近黒画像の悲鳴を聞かなくなったけど、昔は副作用でVAEがらみで黒画像出やすくなってたからオプション指定必須だった チビタイ以外に生成サンプル見れるモデル置き場ってないの? サンプル偽装が多くて評価が付くcivitaiにみんな流れたわけでな あそこキモオタの巣窟感があってなるべく見たくないんだよな
ここもだけどなw 例えば幅600高さ800で出したイラストの帽子部分が見切れていて、全部出したいとき、
i2iで幅600高さ1200とかで指定すると、書き足してくれるのですが、帽子がめちゃくちゃ長くなったりします。
Denoisingとかの設定とかのせいなんでしょうか、上手く書き足してもらうにはどうすればいいでしょうか。 >>26
Poor man’s outpainting クラウド利用してるんですけど
普通に出力する分には問題ないんですけど
ワイルドカード利用しようとすると、止まってしまうのですが
なにか仕様が変わったりとかしました?
というかどうすりゃ直るんでしょう・・・ v1.3.0でメモリの管理方法変わった?
同じ設定でやってるのにメモリが足らんて言い出したよ 1111のTrainToolsでBeginTrainを押した後、Error caught was:No module name "triton"とコマンドプロンプトに出るけど、このモジュール何者か分かります?としあきwikiだとエラーではなく警告と書いてあるけど定かではないそうな Linux環境じゃないと使われないオプティマイザー、じゃなかったっけ
Windows環境だから無視して大丈夫 そもそも Lion を使ってるなら Triton はいらないし すみません超初心者です、昨日まで動いていたStableDiffusionが急に最後の実行で
エラーでとまってしまいます長いエラー文の最後は`ModuleNotFoundError: No module named 'tomus'
という内容です。環境はグーグルコラボでfast_stable_diffusion_AUTOMATIC1111.ipynb ラストベンというバージョンを使用しています。
少し前にも同じ様に動かなくなったことがあり、その時は訳も分からず削除して再インストールしたのですが
モデルやLORA等が全て消えたため元に戻すのにとても時間が掛かりました、なので簡単に上書きインストールとか
出来ないのでしょうか? 宜しくお願いします 自分で答え書いてるやん
tomusという名前のモジュールがありません i2iでタイルドデフージョン使って拡大すると小さな顔が変なところに出てくるという厄介な副作用があるね >>37
Denoising strength強すぎ問題
3~4位でいいと思う >>37
>>38
違うわw
0.3-0.4だわwww >>39
それが0.4なのよ
今度顔出たら0.2にしてみっかな また別の画像で小さな顔が出たので0.2にしてみたところ顔出なくなって全体的にもディティール描き込み過ぎの問題も解決したわ
ちなみに0.3だとまだ顔出たし、0.1だと粗い絵になってダメだった
他の画像でも同様かはわからんけど エラーメッセージについて質問です。
Stable Diffusionのimg2imgなんですが、出力ボタンを押すと'NoneType' object has no attribute 'cond_stage_key'というエラーが出てしまいます。検索しても前例が見当たらず…オブジェクトにcond_stage_keyがないとは、どういう状態なのか判断できる方がいましたら教えていただけないでしょうか。 >>35
colabで新しいセルを開いて、次のコードを入力、
!python -m pip install tomesd
そんでそのセルを実行してから、webUIを起動してみ プログラム知識もないのに色々弄ってしまいエラーが増えたので削除して再インストールしました
ご迷惑おかけしましたすみません >>45
俺もLastBenのノートブック使ってて同じように通った道だから分かるけど再インストしてもしょっちゅう動かなくなるんだよ
LastBenのじゃなくても自動アプデを組み込んだノートブック使ってる以上、
自分が何も変えてなくても、gitで自動でアプデされて必要なモジュールが数日ごとにしょっちゅう見つからないって言われて、マジでウンザリする事になる
あと、本体は動いても、extensionをインストールしてはあれが無い、これがないってエラーが出てextensionが使えなくなる
結局、見つからないって言われるモジュールをインストールするセルを自分で作っておく方法を覚えないと
しょっちゅうエラーでまともに使えない なるほど、とは言ってもあまり理解できてないかもですが
少しでも理解できるようにこのような場所の話題も1から読んでみようみまねで出来るように頑張ります… >>47
そんなに難しかぁないよ
colabの画面の適当な真ん中あたりにカーソル持ってくとコード・テキストって言うボタンが出てくるから、コードをクリックして
上で言ったようなコードを入力して、左の三角ボタンをクリックすれば実行されてモジュールがインストールされる。
モジュール名のところを変更すればどんなモジュールもこの一行でインストール出来る
!python -m pip install モジュール名
まぁ、詳しくなったら君も誰かに何か教えてやってくれ ありがとう、今度同じ様なエラーがでるの待ち遠しくなった(笑)
メモ帳にコピペして待機しておきます >>17 >>19
自分も「〇〇さんってニコ生配信者が言ってた」と反論されて唖然とした事あるわ。誰やそれ?って。
Githubや英語サイトの資料見せても読もうとしない。
自分もそうだが、相手も40過ぎたおっさん。世代は関係ないと思うな。
ネットはスマホの普及で大量に人が増えて、自分で調べていくタイプの人と、
手取り足取りコピペして教えて貰わないと覚えない人の二種類に分かれたと思う。
後者は「もっと丁寧に教えろ!」と逆ギレするだけで、関わるだけ時間の無駄だと思ってる。 >>41
そもそもtiled diffusionはRegion Prompt Controlに何も入力してない状態だと
普段生成するときに使ってるプロンプトとネガティブプロンプトのボックスに書き込んだ要素を
分割したすべてのタイル一つ一つに無理やりねじ込もうとする→結果、小人さんが大量発生する。
単純にVRAM限界以上の画像サイズに拡大したいだけの場合、プロンプトから画風や品質の要素以外を全部消して
『細かい要素の集まりではない、こういう模様をした何か』として最低限の補整と拡大だけしてもらう感じになる。
解像度相応にめっちゃ頑張って描画してもらう場合、これに加えて
i2iする画像をRegion Prompt Controlの方にも放り込んでEnableとDraw full canvas backgroundをどっちも有効化、
Region 1はこの範囲でこのプロンプトが入って、Region 2はこんなので〜って細かく注文する。
ここまでやっておくといつものi2iみたいにDenoising strengthを上げてもちゃんと出してくれるようになるけど、
正直毎回これやるのはすごい大変だからこっちはお気に入りの一枚が出た時だけでいいと思うよ… any4.5でマスピ標準なつり目じゃなくてアーニャとかそういう感じのまんまるおめめにするにはどうすればいいんだろ >>51
うーん?
そこまで酷くなかったような・・・
最近は常にCNのtile併用してるから素のTiled Diffusionの状態忘れてるなあ
ちな4kサイズでDenoising0.7とか0.8で妖精さん皆無(な事が多い)
CN tileすげえ
ただし手足の先が怪しかったりするけど・・・ 昨日から突然、生成中に止まってしまうようになりました。
100%|??????????????????????????????????????????????????????????????????????????????????| 30/30 [00:10<00:00, 2.93it/s]
100%|??????????????????????????????????????????????????????????????????????????????????| 10/10 [00:52<00:00, 5.29s/it]
Total progress: 1%|? | 40/4000 [05:26<8:05:35, 7.36s/it]
この状態でずっと止まってしまいます。webui-user.batを起動し直してもだめで、PCを再起動すると直りますが、またちょっと使っていると何かのタイミングでこの状態になってしまいます。
特にこの数日アップデートしたり新しいソフトを入れたりはしていません。何が原因でしょうか? Disk fullとかじゃないよね?
appdata\local\tempにいっぱいファイルできるけど、みんなどうしてるんだろう? フェラうまくいってる方いますか?
どうしても顔が崩れます
LORAつかっても・・ 意外なプロンプトが影響してる可能性があるから最小のプロンプトで試す
あとモデルでも出やすさ変わる >>58
シンプルな呪文で崩れ続けるならモデルの問題じゃないかな
エロに強いモデルで試してみてそれでもダメなら別のところに問題がある事になる
もしくはAIにとって難しい体位を要求してるか
念のために確認するけど、呪文が長すぎたりScaleが高すぎたり画像サイズが縦に長すぎたりしないよね?
75トークン以内、Scale7、縦が832以下
呪文内で複数の要素の顔の指定や2種類以上の行動を指定してると矛盾して崩れやすくなる
真横や逆さまの構図はSDにとって鬼門なので我慢する 最近興味を持った初心者です
このスレを読んでいると時々トークンという言葉が出てきますけど、サイトークンでしょうかイトークンでしょうかそれともカトークンはたまたゴトークンでしょうか >>62
そのトークンをどこで使ったのか
そもそも トークン使うっていうことは
コラボとかだろ automatic1111 token limit
とかで検索したら出る ChatGPT先生や5chwiki としあきwikiでもどうにもならなくなってきたので
Loraについて質問させてください!
2月頃に導入したsd-scriptsは上手く動かせて学習もできてたのですが、
lora_train_command_line.py への手入力がめんどくさいなと思い
昨日から最新のkohya_ssとsd-scriptsを入れたら、以下の状況になりました。
■現状1
Loraで何も学習されてないように見える
web UI でトリガー入れて画像生成しても再現度合いに何も変化なし
拾ってきたLoraや古いsd-scriptsで今日作ったLoraは普通に効く
学習に使っている新しいsd-scriptsは sd-scripts+ としあきwikiにあった LoRA_UI_0522
これでしか動かなくなった。動くと言っても学習できてないけど
元々2月頃から今まで(古いバージョンのまま)Lora出来てたので、Loraが分からなすぎて学習できていない訳では無いと思います。
■現状2
いくつかのgitなどを入れてあるが軒並みエラーで学習実行できなくなった
色々やってるうちに以下の状態に
kohya_ss → web uiから操作、caching latents で 0%で実行が止まる
ちなみに起動時に、気になるエラーっぽい表示があります
・WARNING Torch reports CUDA not available
・Info headless: False
最新のsd-scripts → datasetconfig.toml が見つからないとエラー出て止まる
(当然所定の位置に正しく制作して配置している。何度も確認した)
2月頃に入れた古いsd-scripts →学習出来る
2月頃から浦島太郎状態で、全くわからないです。。。
ヒントだけでも頂けると嬉しいです 何もLORA入れなくても割と完成されたキャラが出てくるのってどんなのがありますか?
例えば初音ミクや博麗霊夢などはLORAがなくてもプロンプトだけでいい感じのが出る
そういう情報が乗ってるページとかでもいいんだけどあったら教えて欲しい
ちなみに使用モデルはany aom cf にbraを少しだけ混ぜたマージモデルを使ってます >>67
「いくつかのgitなどを入れてあるが軒並みエラーで学習実行できなくなった」ってあるけど
もしこれがいろいろやってるうちに関係ないものも動かなくなったということなら各ツール毎にvenvつくろう、そうすればお互いに干渉しない
あと、手抜き回答で悪いがkohya_ssが動かないということなら、とりあえず、なんJにいるニキのGUI使ってみたらどうだろう
フォルダ構成とかの間違いチェックもある程度してくれるみたいだし、kohya_ssのコマンドラインも吐いてくれるので
もし嫌なら一度動いたらあとはGUI使わずにkohya_ssだけ使えばいい
Kohya_lora_param_gui で検索すればGitにあるのがヒットするはず、もちろん自己責任でだけどね >>69
回答ありがとうございます!
いやほんとおっしゃるとおりです。
venv作るのが一番だと身をもって感じてます。
中途半端な知識で色々やってあとで爆弾抱えてる感じありますよね。。。
自動でvenv作って仮想環境用意までしてくれるツールはほんと神
Kohya_lora_param_gui ちょっと試してみます
目に入ってるようで入ってなかったので改めて見てみて、試す価値ありそうでありがたいです
ありがとうございます!! >>68
danbooruに行ってキャラ名のタグで検索、件数が数万以上あれば出る。ウマ娘ていどの件数では出ない。かなあ。二次元限定 >>54
Combinatorial generation 切るべし asunaはSAOとブルアカの特徴持ったのがランダムだったり混じったりで出る気がする AUTOMATIC1111のckptデータを外付けSSDに保存して使うことってできますか? >>74
可能
mklink使うか、webui側の設定で指定する >>75
ありがとうございます。
ですが、うまくいきませんでした。
mklinkは認知されませんでした。
webuiの場合はどこを触れば良いのでしょうか?
Settingsではそれらしいのがわかりませんでした。 hires.fixを使うとフェラ顔が濃い別顔になるのですが、対策方法ないでしょうか
フェラ用のアップスケーラー >>78
顔を変えない方法はある
ただまずそっちの生成方法を把握してないと助言しようがない >>78
denoising strengthを0.3とか小さめにする
その際アップスケーラーをLatentシリーズ以外にする 実写系でビキニや裸にするとアバラが浮くのですが、出ないようにするうまい呪文ないでしょうか?ribsをネガティブに入れても駄目でした >>81
ファットとかビッグブリースとか
そういうの入れてみたらどうだろうか どうしても浮き出るならLamaCleanerで消す >>82
でもfatとかthickを入れたら本当にデブになるし >>81
cfgを3~4ぐらいにするとましになることがある 自分は二次だけど
fleshy, meaty (肉質、肉感)
これをネガに入れて軽減させてます ドリームブースで学習やってたら
exception training model winError 5
でるようになって困った >>56
これ本当に邪魔なんだけど生成されなくする方法ないの? >>89
https://mevius.5ch.net/test/read.cgi/cg/1681973770/956
このあたりだね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3278
の「webui-user-temp-delete.zip」を上げてる人のが使える
user部分は自分の名前に変更
sd起動時にtemp内をフォルダ含めて全消去することになる
自分は似たのをタスクスケジューラでPCをロックとかログアウトする瞬間に実行するようにしてる
sd起動時だと、次の起動までそのままってことになるので >>89
自分はwebui-user.batの頭でTEMPの中にSD専用のTEMPを再設定してそのフォルダを削除&作成で消してる
set TEMP=元のTEMPの絶対パス\SD
if exist "%TEMP%" (rd /s /q "%TEMP%")
md "%TEMP%" temp消してもダメでした
Exception training model [winError5]アクセスが拒否されました
local\\temp\\tmpjatrag4x\\text_encoder\\model.safetensors 2人以上の絡みってどうすればいいか誰か教えてくだせえ
Region Prompt Controlとかじゃ無理よね? >>96
初心者で申し訳ない。
チチプイを参考にしろってこと?
プロンプトで解決すんのか、RoLA次第でできるのか、それとも拡張機能でどうにかすんのか教えてほしい >>97
秩父にある2人一緒のやつを探してそれを真似すれば良い >>95
Region Prompt Controlで人物枠を重ねると人と人がくっつきやすいみたいなことはどこかで読んだ気がするよ
出したい構図が決まっているならプロンプト一発で出すことにこだわらず、雑コラをimg2imgやControlNetにかけるとか
>>98
civitaiを見ろってのはプロンプト欄に書く内容でできる=img2imgやControlNet、Region Prompt Controlの類は使わない、と言っていることに等しいんだけどそれで正しいの? >>99
2人は 簡単に出せるよ 3人までぐらいなら
あとは 画像の大きさを調整するだけ 後ろから尻を写した画像作ると、高確率(というか、ほぼほぼ)マンコが逆さまなんだが、
これを改善する方法ってあるのかな? >>102
どうせモザイク処理するから雑に修正してモザイク処理でいいんじゃない? >>104
> どうせモザイク処理するから
しないだろ Stable Diffusionでフレーム補間できないでしょうか?
またはクラウドでフレーム補間を使えるのないですかね? i74070K使いのハズウェルおじさんなんだけど、グラボを(現行770から)3060 12Gにしてメモリを24~32Gに増設すれば行けそうな感じ?
バリバリ画像を作るとかでなくて
NAIレベルの画像作成時間、PS4レベルのゲームとフルHD動画視聴がヌルヌルできればそれ以上のことは望まないんだけど >>107
電源容量が足りているか確認しておきましょう >>108-109
ありがとうございます。
電源は去年に亡くなって700Wのものに買い替えたので多分大丈夫かなと
来週ボーナス出たら3060を買おうと思います。 >>110
i5-4590s 32MB GTX1060の俺としては気になる話
よかったら換装後にどの位変わったか教えて 4月の末に1650→3060-12Gに換装した私は若干の後悔を込めながら
700Wの電源あるなら4070,4070tiを強く勧めるなぁ
まあ沼に落ちなければ3060で十分なんだけど 生首学習させた自作LORAにt2tでAdetailerを絡ませて使と、本人再現度高いので
この方法を採用しているのですが、
Adetailer修正後の顔の境界線が目立ってしまったり、額から急に髪の毛が出現したりする
現象の対応方法がわかる方いませんか?
どの数値をいじってもあまり変わらず、、 4GB超えるサイズのモデルが1111のモデルリストに表示されないんだけど、仕様? と思ったらもう1台のほう(2台のPCで稼働してる)は表示される
どういうこっちゃ stable diffusionで簡単に画像作れるって聞いてYouTubeにアップしたんだけど全く登録者増えません
どうしたらいいですか? >>117
素で聞いていい? YouTube って画像アップする所だったっけ? こんな画像作りましたー みたいな感じ?韓国人みたらめっちゃ再生数あったので真似したんだけどさ >>118
>>117を読んで心にかかったモヤが一瞬で晴れたぞ >>121
釣りレスじゃなければロビンみたいな解説系じゃないから
スルーされただけとかな >>120
寝たにマジレスすると簡単に出来るということは同じことをやる競合が山ほどいるということ。
そのなかで目立つためには誰よりも先にやるか誰とも違う特別な何かが無いと無理。 image2imageでマスク姿の女性を素顔にするにはどうすればいいですか? >>126
導入のしかたが違ったかな
おすすめの導入サイトってある? >>128
おすすめかは分からないが自分はここの>>2テンプレ見ながら導入して特に問題無く出来たよ >>127
インペイントで
CFG Scale:1〜1.5(ほぼ最小)
Denoising strength:1(元画像の影響ほぼ無し!?)
でガチャしてたらなんとなく自己解決しました >>129
横ですけどちなみにどんなスペックですか?
背景も同時に出力できますか? >>130
どう自己解決したかをちゃんと書いてくれるのはとてもいい人 >>131
MSIゲーミングノートPC GF65 を使ってる
1girl,roomで今生成した画像がこれ
https://i.imgur.com/6rgTEi6.jpg レオタードの子描こうとすると何故か乳首飛び出すんですけど、どういう事ですか? >>134
えっ子猫の乳首?
冗談はさておき、nsfw度が高いモデルだとむりやりにでも乳首を出そうとしたりはする
ネガティブにnipplesを入れたりしてみては >>133
VRAM6GBあればそのサイズでも作れるんですね
ありがとうございました NovelAIで画像読み込んで何回も加工していくとだんだん光が強くなっていくような感じで絵がぼやけていくのはローカル環境用意すれば発生しないのかな
プロンプトの方でいろいろと弄ったけど無理だった >>134
ネガにpink nippleで万事解決や 気に入ったキャラloraがあるんで学習とかいうのはやってないんだけど、それで満足してたら学習とやらはやる必要はないですか? >>139
逆に聞くが何の為に学習に手を出したいんだ? いや、学習は全く手を出してない
作りたいキャラとかいないんで
それでも学習やる意味ある? 俺も特定のキャラを作ることはないけど画風を好みに寄せるためにLoRA自作してるよ アイデア次第でflat2のような効果系のLoRAを作ってもいいしね リアル系でおすすめのアップスケール方法教えて。クオリティー(顔)上がりつつ、構図は変わらないやり方 >>129
起動しようとすると
RuntimeErrorでuse GPU
とかでて起動出来ないんだけどやっぱりノートPCがしょぼすぎる? >>145
Adetailerで顔にLoRA適応して小さい画像の段階で顔を完成させてExtrasタブでアップスケール >>147
即レスなかったのが不満なのかワッチョイなしの方にもマルチしてたせっかち野郎だぜ >>146
エラー全文をAIに投げたらだいたいは解決出来ると思うよ
だけどたまにRuntime Errorはパソコン自体を再起動しないと何しても駄目な時は有る >>149
RadeonVega8で4GB
>>150
AIに投げるとは? >>152
>>2
> 実行にはパソコンにNVIDIA製のGPUが必要
radeonでもやる方法はあるらしいけど、まず
> RadeonVega8で4GB
が古すぎて無理
こんな世界
https://i.imgur.com/Rf7u2xn.jpg
3060でも遅いとか言われてる >>141
土と肥料が揃っててもう欲しい野菜が作れてる
そこからわざわざ土のブレンド、肥料の自作に手を出すかどうか まぁ無理は言いすぎか、なんとかやる手段はありそうだけど茨の道と思われ
出来ても512x512を1枚で何分かかるのやら・・確実に苦労に見合ってないかと
ノートだからGPUだけ換装もできないしね ありゃりゃ、やっぱり今のノートPCじゃ無理みたいね
諦めがついたよありがとう CPUがRyzen 5 2500Uなら、512x512を1枚のSTEP20なら14分くらい掛かりそう?
STEP5で検証してるサイトからCPU差を加味した計算で215秒 >>157
取りあえず触るだけなら
webui-user.bat
set COMMANDLINE_ARGS=--no-half --use-cpu all --skip-torch-cuda-test i2iのADetailerで表情差分は簡単に作れるんですが、着衣差分って難しいですか?
着衣の状態からAdetailerのプロンプト欄に下着等を入れ、Negative欄に
着ていた服を入れても透けるだけだったり、絵が崩れてしまいます。
t2iからcontrollnetのrefarence-onlyを使えばキャラは維を維持し下着には
できるんですが、構図が微妙に違ったりしてむずい・・・ openposeのこと忘れてました。これでできそうです Dynamic Promptsが機能しなくて困ってます
インストール後、一度起動しなおしてからExtensionsのInstalledのタブ調べると
読み込みのマークが出たまま永遠終わらず、Dynamic Promptsのプラグインが出てきません
Availlableタブを調べても、インストール済みだからなのか、Dynamic Promptsもなくて困ってます
ちなみに既に3回ほどSDもインストールしなおしたんですが、毎回同じ現象に悩まされてます
どなたか解決法分かる方いませんか? novelaiの一番高いプランに登録したのですがimage2imageしてもアンラス減らないのは一番小さい画像で生成しているからなのでしょうか? >>166
普通サイズの640×640まで無限ガチャ可能 モデル毎の出力例を管理してくれるエクステンションて無いですかね
サムネ上書きは抵抗が >>169
ないけど既存の花札に近い機能なわけだから作るのは簡単な部類というかコピーして画像ファイル名別にして別タブにするだけじゃん、プログラムデビューがんばれ
と言いつつ個人的にはエクステンションである必要性感じないので単にスプレッドシートでいいのではとも思うが、SD起動してない時も見れるし 回し蹴りを正面から見てるような画像が作りたくてopenposeediter使って棒人間作ってるんだけどさ
これ蹴り足だけ大きくとかできたよな?
前に一度棒人間の球体関節部分を大きくしてた覚えがあるんだがやり方忘れちゃった
誰かわかる人いない? openposeの棒人間は遠近感は考慮しないと思うよ
なんなら色も関係ないらしい
けっこうテキトーな作りしてる >>173
そうなん?
じゃああの球体関節の拡大は何の意味があったんやろ。
偶々操作してたらそうなっただけで出力はしなかったから、何の意味もなかったんか?
とにかく躍動感ある絵を作りたいんだよね。
プロンプトで漫画的な動線は作れるんやけどもやっぱ遠近は付けないと微妙じゃない?
なんか方法あるかね 質問というか有識者の識見を聞きたいです
現状GTX1650-VRAM4GBでギリ動かしてるんだけど、やっぱり3060とか導入した方が良いですかね?
今のとこ512*512なら不満ない速度では出せるんで、出した後に別ソフト:Real-ESRGAN-GUIで4倍拡大してます
SD上で高解像度出すときも、基本は512*512で出した後に拡大処理と聞いたので5万円ポンと出す理由付けがしたいのでござる >>175
一度512で出さなくて一発でHiresで1024で出しても本人が品質的に問題ないと思えばいい
ただ一般のアップスケーラーやSDのExtrasと、SDでプロンプトを有効にしたアップスケール方法(Hires含む)とは品質が全然違う
ただ一般的なAI推測での拡大と、細部をプロンプトを元に再描画するのとの違い >>176
なるほど……そうすると自分の目で判断するしかなさそうですね
説明用のサイトで実際に試している画像を比較して、有効度合いを確認したうえで導入の判断します
ありがとうございました もう少し待てばAUTOMATIC1111で共有メモリを使えるようになって、VRAM量を気にする必要がなくなる
GTX16xx系だと問題はメモリよりも、処理速度自体だろうね >>178
マジですか!
それはすごくありがたい情報です、処理速度はどちらにしてもネックなので考えないといけないのは確かなのですが >>175
俺はGTX1650TiだったけどRTX2060 12Gに乗り換えた
もう生成速度がダンチだよ
多分GPUの性能よりも純粋に搭載VRAM量
に依存しているんだと思う、中古で3万円で購入した
RTX2060 12Gは出たのが遅くて、当時マイニングしてた人は
もっと別のモノを買っていたと思われる、コレ狙い目だと思うよ もちろぐみるとRTX2060(VRAM6G)とRTX3060(VRAM12G)だと生成速度にあまり差はないっぽい >>180
VRAM容量もそうだけど Tensorコア の有無の方が大きい >>178
>>179
RAMとVRAMじゃあGPUからのアクセス速度が段違いだから、一応使えてもさすがに別物ではあるよ。 VRAM が大きいと2枚同時 作成 3枚同時作成が可能
当然 処理能力が同じでも2倍 3倍の速さになる >>184
いや処理能力を枚数分振り分けるから
ものによるけどいうほど早くならん >>185
コアが余っているなら速くなるよね
少なくともウチの環境じゃ9*1より3*3の方が断然速い
でも3倍にはならないか 学習したいなら最低限VRAM12GB欲しいって感じでしょ
生成だけならそんないらんかな
動かない拡張機能はあるだろうけど Novel AI で三次元っぽい絵の限界ってどの辺? >>175
不満が無いならそのままでよくない?
理由付けしないと買う理由が見出だせない程度には現状に満足してるってことでしょ?
大丈夫だよ買わなくても fast_stable_diffusion_AUTOMATIC1111が毎度一発で立ち上がらなくて何度かgradioを複数ver入れたり再起動したりてやっと立ち上がる状態なんだけど、なんでだろ オンラインで誰々に似ている画像生成してって入力すれば勝手にその画像ググって学習して
新しい画像つくってくれるAIはないの? 大物が釣れて喜んでる女の子を出したいのに、
半裸で謎の生物を持っている女の子になる。
頑張ると顔が魚になって怖いし、、、 タ○ノくん作れば望みの美少女が突然変異でできるかもしれない OS再インストールと環境再構築したらハローアスカベンチマークで見本と少し違う絵がでるようになったんだけど
誰かエスパー出来る人いませんか? 浦島ってるから環境構築し直してるんだけどまるっと設定保存切り替えできる拡張とか無い?
Config Presetsだとシードやプロンプトやサンプラーあたりは保存できるけどモデルやclip skipやENSDとかのsetting関連は保存出来ないようで
みんなモデル切り替える度に細かい設定変更手動でやってるん? 設定切り替え用の画像を作っておくと便利なのかもと考えたことはある
プロンプト欄にドラッグ&ドロップして↙するだけ、みたいな 画像のメタデータ読み込みだとモデルやclip skipまでは再現できるけどバッチカウントとかは保持してないらしくENSD等もありませんでした
絵の内容に直接大きく関係してない情報が切り捨てられるのは仕方ないっちゃ仕方ないのかもしれませんね
メモ取りながら手動でやるかぁ… >>199
数種類くらいなら1111複数インストールすればいんじゃね >>199
アニメ系とリアル系でVAE切り替えてるくらい >>201
settingsのUIの「txt2img/img2img UI item order」が今のversionって上手く動いてないのかな?
デフォで
inpaint, sampler, checkboxes, hires_fix, dimensions, cfg, seed, batch, override_settings, scripts
これになってるけど
ENSDはファイル内には記述されてるけどsendしたときにCLIP Skipと違ってoverride表示されないね
昔はちゃんと×ボタンと一緒に出たはず ああ違うや・・orderはUIのただの並び順だった、すまん
でもENSDが出ない件はおかしい >>202
シンプルながら目から鱗な解決方法だった
変更項目少ないと普通に設定弄るより時間かかるけど多ければ時間はかなり短縮できそう
>>203
手動で気楽にやるにはそのくらいだよね
>>204
必要無いけどアスカベンチしてる時にふと楽かなと思った
>>205
sendしても反映されないだけでENSD保持はされてたんか
不具合なのか上書きで残っちゃうの不便でわざと外されたのか謎だ
みんなアドバイスありがとう
そういう全保存拡張無さそうなのはわかったんで
需要少ない=設定毎回細かく変えてないってことだろうから
自分もなるべく無難な設定値で固定運用していくことにします
どうしても極端な個別設定増えてきたら複数インストールで乗り切る >>207
わかって言ってるのかもだが、1111は複数起動できるので一度起動したら切り替え時間はほぼゼロだよ
各プロセスのモデルがVRAMに常駐するかどうかはわからんが >>210
大丈夫だよぶつからない
自動で末尾1づつ増えるから >>205
え、今の1111はENSDの上書きがシード値のあたりに出ないの?
確かめてみたいが手元の画像の中からENSDが違うのを探すのは大変すぎる あっ、頻繁に切り替えて比較したい場合は多重起動で良かったんか
どうにも1111の機能に頼ろうとして視野が狭くなっちゃう
ではそれでやってみますありがとう tile_resampleを導入してみたんだけど
ValueError: too many values to unpack (expected 3)
ってエラーが出ちゃって機能しません
どなたか解決策ご存知ないですか? >>212
ごめん勘違いだった、ちゃんと出たよ
上の人はなんか勘違いしてるかバグってるver使ってるとかかな? >>215
無事動きました!
こんな単純なことだったんですね
ありがとうございました A1111の終了時に Style.csv が勝手に保存されて、しかも余計なのが追加されるバグがある
解決策はないですか 自分で直すか諦めるか公式に報告して直してもらうか安定版に戻す 昨日4070tiを入手してウキウキでGenerateボタン押したけど何か遅い。
もともと1070+i7 6700kで1枚生成するのに20秒だったのが、4070Ti+i5 13500で3~4秒かかる。
起動時引数にxformars入れてるけどこんなもんなんだろうか。
アスカベンチもみんなの16秒という結果に対して26秒と遅め。
こまった やったこと
windows11クリーンインストール
automatic1111を新規でクローン
python3.10.6インストール
cuDNN 8.9.2 for cuda11のbinをsdの奥の方のlibに上書きコピー
なにが足りないんだろう。。 >>223
--opt-sdp-attention
--opt-sdp-no-mem-attention
これも試したけど変化なしでした。 CUDA,cudnn,tensor まで必要だから TensorFlow がどうなっているかわからないとなんとも みんな色々考えてくれて助かります。
>>228
あたらしくPC組んだからまっさらなマザボなんです。
>>231
上で書いたopt-sdp2つのパターンと、xformarsオンリーのパターンはためしました。それ以外のオプションは特に書いてないですね。 >>233
初回だけ遅いことよくあるけど何度かベンチは試した? >>234
アスカベンチはバッチサイス10を5周させてみたけど、特に変化なかったですね。 >>219
保存したプロンプトに改行が沢山入ってる奴があるとたまにバグる気がする
確証は無いけど >>233
変化なしはおかしい
なんていうファイルに書いてどのファイルを実行してる? >>237
webui-user.batの以下の行に書いてます
set COMMANDLINE_ARGS=
cuda toolkitのインストールしたか記憶があやふや。。これかも。。
戻ったら試します!ありがとう! >>239
webui-user.bat
に書いて実行しているのが webui.bat というオチじゃないよな… 起動時にxformersがちゃんと利いてるかコンソール画面で確認した?
書き方間違えて効いてないだけだったりして live previewをfullにしてるとか
これはわざわざそんなタイミングでデフォからいじるわけないのでまぁないだろうけど >>236
逆に一行にどれだけまとめていいんだろう?
見やすさの為にある程度カテゴリわけ改行して書いてるんだけど >>241
さすがにそのボケはしてなかったです。
皆様のおかげで色々と見直してなんとかハローアスカ20秒切りました。ありがとうございます。
対処として、memtest86+再確認、各種ドライバのアップデート、BIOSアップデート、biosの設定値のoc関連をすべてオフにして定格動作へ。
これで達成できました。
toolkitはこれから入れますが、どうやら必須では無いようです。
助かりました。 >>245
Windowsをクリーンインストールしてから1111を使い始めるまでに、本体のほかに何のインストールが必要かはわかりますか?
お使いの1111とあわせて、わかる範囲でかまいませんので教えていただけますでしょうか >>246
それくらい自力で調べられないとこの先辛いのでは…
難しくないって 完全新規で作って--xformers --no-half-vae有効にしただけで
うちのギガバイ子4070TiちゃんはTime taken:17.50sだけどな >>247
インストールを他人に説明するのに、なるべく手順が少ない方法を知りたいのです
いきなり1.3.2を解凍→webui-user.batでいいのかとか
1.0.0→update.batならgitやPythonを入れなくてもいい? とか
インストール解説のブログはCUDAを入れろと書いてあったりしますけど本当に必要なの? とか 自分自身で理解できていない事を人に説明するの?
というかそれ導入した後の方が大変な気がするけど windowsは「お手軽インストーラー」的なやつがあってそれで一発でしょ?
俺はmacだから色々大変だったな 前にノートPCで起動すらできないって書き込んだんだけど結局Stable DiffusionやるためにデスクトップPC購入しようと思ってる
今はスマホでNovelAIをちまちまやってるんだけどリアル感が物足りなくて...
Stable DiffusionができるPCスペックは3060、メモリ32G、SSD1T、CPUはi5以上でいい?
実売15-18万円くらいかね >>253
そんなもんでいいんじゃない
3060は値段下がってきてるけど値段につられて8GBモデル買わないように気を付けるぐらいか
個人的にはSSDはSD用にシステムとは別に1TBは欲しいけど 3060ならCPUは10年前のでもOK
新品購入なら関係ない情報だけど・・ >>253
それで良いけど、SSDの空きスロットが最低1つ以上あるのを確認しとくように
SSDは確実に足りなくなるから >>254
システム用じゃないのは外付けHDDでもいける?
>>255
Ryzen5でもi5でもどっちでもいいと
NovelAIに月額3000円も払い続けるくらいならPC買っちゃった方がいいよね >>253
メモリは16でもいいぞ
足りなきゃ後から足せば良いだけだし >>257
>>システム用じゃないのは外付けHDDでもいける?
いけねーよwSD用って言ってるじゃないかw
生成した画像の保存先はHDDでもいいけど、欲しいのはモデルデータの格納場所だから
HDDにしたら死ぬほどだるいぞ >>251
自分のPCはもういろいろ入れちゃっているのでこれに1111をインストールするのは簡単なんですけど、一番シンプルなインストール方法を調べることができないんですよね
(と最初から書けばよかった)
次に自分でOSを再インストールする機会があったら、いろいろ検証したいとは思っています >>257
>>259が言いたいのは「モデルデータをSSDに置くことがなによりも大事」ということで、SD本体はHDDに入れても大丈夫、ということ 2TBのSSDが1万で買える時代にHDD云々とか頭おかしいのかな IdeaCentre Gaming 570i Core i7 12700F・16GBメモリー・1TB SSD・RTX 3060 LHR搭載 90T100HAJP [ブラック]
https://kakaku.com/item/K0001533011/
例えばこれ買って元の1TBはCシステムドライブにしてSSD2TBを別途購入して取り付けてStable Diffusion 専用Dドライブとしてってことでもいける?
それプラス保存用ドライブか 学習画像からLoRAを作る資料やマージしてCheckpoint作る資料はたくさんあるけど
学習画像からCheckpoint作る資料はどこを見ればいいんでしょうか
LoRA作ってCheckpointにマージすると結果がいまいちなので直接Checkpointを作りたいんですが >>263
それVRAM12GBか?
確認したほうがいいぞ
完成品で12GB採用してるのなんて少ないぞ
あとレノボとかHPとかメーカーのデスクトップは絶対やめろ
まじで後で死ぬ
ツクモとかドスパラとかのBTOにしろ >>267
12GBだけどBTOの方がいいのか...
>>263
M.2に空きが無いとダメなのね...
ちょっとBTOで探してくる >>264
asukaベンチの結果が、最新に近いCPUとうちの2015年CPUとほぼ変わらないので
4070より上とかだとボトルネックになる模様
CPUの計算がGPUへの受け渡しに間に合わなくなるんだろう ドスパラでカスタマイズしてみた
179,980円 + 送料
リモートデスクトップしたいので11Proにしてみた
【カスタマイズ】Windows 11 Pro 64ビット + 7,000円
CPU インテル Core i5-13400F (2.5GHz-4.6GHz/10コア/16スレッド/内蔵グラフィックス非搭載)
グラフィック機能 NVIDIA GeForce RTX 3060 12GB GDDR6 (HDMI x1,DisplayPort x3)
電源 650W 電源 (80PLUS BRONZE)
メモリ 16GB (8GBx2) (DDR4-3200)
SSD 1TB SSD (NVMe Gen3)
ハードディスク/SSD 【カスタマイズ】2TB SSD (NVMe Gen3) + ヒートシンク
内蔵グラフィック搭載のCore i5-13400も選べるけど必要ない?
これで当分は不自由なくいける? >>270
SDは出来合いPCだと値段に見合わない結果になる。
BTOのほうが細かくパーツ指定できるから欲しい仕様を狙いやすい。
できれば店で店員と会話しながら構成するといい。
例えばSSDはNVMeはもちろんだが、gen4のものを選ぶとかできる。(とにかくモデルがでかいのでシーケンシャルリード強いほうがいい。数千円しか変わらんし。)
マザボも最近のゲーミング用ならNVMeのスロット複数あるし。
グラボは3060みたいな罠メモリ仕様を回避できる。
グラボは100%で回しても効果少ないので70%リミットで安定&電気代かけないから、オーバークロック仕様のZチップセットとか選ばない&グラボもOCモデルにしないとか、こういう芸当できるんで自作orBTOおすすめ。 ここのガチ勢には物足りないんだろうけどぶっちゃけ大抵の人には>>263ので十分なんだろうなと思う F無しは仮にグラボだけトラブってもiGPUで画面写せる
iGPUなくても対応できる環境ならまあF付きでいんじゃね >>273
安いのでもいいから予備のグラボ持ってるならFでも良いと思う
F無しだと5000円くらい高くなるんだっけ?
実務でPC使う生活してるなら
とりあえずグラボが壊れても動かせるから
保険として5000円程度なら安いかなって思うよ >>271
3060より帯域幅と価格で負けるけどアーキテクチャが新しくてTSMCで消費電力少な目だけどVRAMは多めの4060は境界線の上なのか下なのか
勝馬に乗りたい… >>279
4060は選外だよ、メモリが多いのは4060Tiでこっちもまだ発売はされてない >>280
ASUS4060ti-8GBで7万3,800円前後ってわかってるから待つって言ってもそう先のことじゃないしね
わたしまつわ~ >>281
言い方が悪かったかな
態々高い金使うのに中途半端な8GBモデルは論外って話ね
SDはちょっと使えればOKって感じならいいけどそうじゃないなら最低12GBモデルにはしたい
4060Ti 16GBモデルは約9万~って感じだ
それ以外なら3060 12GBがベストだろ安いの求めてる場合は >>284
待つと3060が消えそうなのがネックね 流れと関係ないけど、内蔵GPUなしのRyzen5500と3060で組んだデスクトップに出張先からリモートでSDを使うと生成中にリモートデスクトップが頻繁に切れる。ローカルだと問題なし。
どうもVRAMが全部Pythonに持って行かれてリモートの画面表示維持出来てないっぽい。知らんけど。内蔵GPU付きの買えばよかったのかなー。 >>286
リモートでグラボ発火したとか聞いたら怖くない? VRAM要因なのかネットワーク要因なのかを切り分けるためにLANからリモートデスクトップで接続して試す
ネットワークならリモートデスクトップの接続をTCPのみにするとか、WebUIのみngrokとかでトンネルするとかに変えてみる
とかかなぁ >>286
5600G+3060でWindowsのリモートデスクトップ(VPNルーター使用)だけど
切れることはまず無い
描画は全部RyzenAPUが持って行ってると思う >>286
--litsenオプション付けてリモートのブラウザでアクセスしたら改善しないかな? >>282
FRGAG-B550/WS608/NTK
OS
変更Windows(R) 11 Pro 64bit版 [正規版]
CPU
AMD Ryzen 7 5700X プロセッサー (3.40GHz [最大4.60GHz] / 8コア / 16スレッド / 32MB L3キャッシュ / TDP 65W)
メモリ
変更32GB(16GB×2) PC4-25600(DDR4-3200) DDR4 SDRAM
NVMe SSD [1st]
【NVMe SSD】1TB SSD
変更NVMe SSD [2nd]
【NVMe SSD】2TB SSD
グラフィックス
NVIDIA GeForce RTX 4070 12GB【HDMI x1 / DisplayPort x3】
マザーボード
【ASRock製】AMD B550 チップセット搭載マザーボード
750W ATX 3.0電源 80PLUS GOLD (日本製コンデンサ仕様
4070、メモリ32GB、SSD1TB、2ndSSD2TB
もうこれにしちゃう?
22970円
20万円位までと思ってたけどPS5使ってないし売っちゃおうかな そもそもグラボぶっ潰すくらい使いこんだら、次のCPU買い替え検討するからFとかいらん 自作loraとかで限界感じるし自分も3070(8G)から乗り換えなきゃ行けない気になってきたんだけどやるとしたら4070tiくらいで良いよね…それ以上のグラボはそもそも今の箱に入らなさそうだし
VRAM12Gで不満感じてる人いたら知りたい >>291
安いな、覚悟決まってんなら行ってええで >>291
来月の4060ti16GBを待たなくていいならいんじゃね 4060tiはlora+hiresで生成すると劇遅になって3060と大差ないってちもろぐで結果出てたから
3060相当でいいからVRAMがもっと欲しい人以外は選択肢にならないよ >>296
見てきたわ、セカンドPC用に買おうか悩んでたがどうしようかな、16GBは魅力なんだが。。 今現在生成楽しんでる程度で将来見越して大容量の3060-16GB買うより3070-12GB買って快適な生成速度手に入れるほうが絶対良いぞ
将来の事は将来考えればよくて今の待ち時間が減る方がよっぽど重要 >287-290
レスありがとうございます
ひとまず --listenオプションで調子良さそうなので様子を見てみます。 >>290
質問は出張先からだぞ?ブラウザーアクセスさせるにはIP固定とかルーターポート解放やらなんやらいろいろなハードルがある >>300
そう言われれば自宅LANしか確認してませんでした
さっき出張用のタブレットをスマホのテザリングとVPN経由でWANから自宅LANに入り直してデスクトップのWoLとIPアドレスとポート7860にブラウザからアクセスしてSDが起動したので大丈夫かなと思います。 VPNルーター経由ならLANにいるのとほぼ変わらない使い方が出来る
>>301
ふと思ったんだけど
VPNアダプターのデフォルトゲートウェイはどこになってる?
WindowsのVPN接続の初期値だと
「VPNアダプターのプロパティ」-「ネットワーク」-「インターネットプロトコルバージョン4」-「プロパティ」-「詳細設定」-「リモートネットワークで~」
にチェックが入っててVPN接続すると通信が全部テザリング先(自宅)になる >>294
覚悟決めるのに半日かかったけど今ポチッた
到着まで20日くらいかかるみたいだからそれまではNovelAIでもやっておく
呪文入れて徐々に自分好みになっていくのは楽しいね 全く安くはないけど自分で組めない人の選択肢としては悪くない Google colabで試してからでも良かったのに。
iPhoneから遊んでるぞ。俺もNovelAIを今月頭に入って3次元描写のゴミさに気づいた口だけどなw3000円払うならcolabでも一ヶ月ぐらい遊べるわ。Loraが偉大すぎる。 今更colabとか馬鹿だろ
遅いGPU、一定時間でリセットされる環境、よほどの乞食以外はあんな環境耐えられんよ だからお試しっていってるじゃん。Lora作らんければ十分。ガチはそらパソコンいいの買えよってなるでしょ。 日進月歩でどんどんプラグインとか出来ていってるのに余計な事で時間潰すの勿体なくない?最新追うだけでも日々忙しいのにcolab環境とかないわ スマホやタブレットでポチポチ作れる分にはcolabもアリやで。 そういやcolabはsd規制になったとか前に話題になってたけどまだ普通に使えてるの? >>304
ええぞよくやった
20万ちょいでメモリもSSDも含めミドルハイくらいの生成環境手に入るのは悪くないと思うわ
どハマリしたとしてもSSD2TBはしばらくは埋まらんし
何しろ4000番台だからほとんどのゲームは快適に遊べるようにもなるし、熱問題とも無縁、電気代も優しい colabは選択としてはいいんだろうけど、ちょっと離席したらポチポチやり直しがうざくて使い物にならない
ローカルならPC休止してからでもすぐgenerate開始できるのに
あと作ってるものをすべて検閲もされてるんだよな、自動検出から最後は人間が判断してるだろう
監視してるやつらが作ってる画像見てゲラゲラ笑ってる可能性まである 15万とか20万で全て解決するんだから3060でPC組んだ方がいいよ
クラウドはマジで時間の無駄で勿体ない colabとかのクラウドサービスが月1,000円だとすれば、15万円の出費に150ヶ月=12年以上かかるのだから、つよつよPCを買わない選択も全然ありだと思うよ
PCは場所をとるし、これから排熱問題も深刻になるしね(ううっ) >>317
クラウドサービスで月1000円だけど
1日でそれ使い潰すんだわ
1ヶ月3万円は見とかないと 出て来る絵の9割が使い物にならない現実を知らないだけだろ なんかgoogleアカウントがバンされるって聞いてこわくてできない >>318
そりゃ厳しい。毎日使うならPCを買う方向だね
>>320
イラストレーターが添削する画像を募集するのにGoogleドライブを使ったら、嫌がらせで児童ポルノ画像をたくさんアップロードされてBANされたという話はある
一方でずっと昔から児童ポルノを含むエロ画像をけっこうため込んでいるがBANされないと言っている人もいた
なのでBANチェックは出入りが激しいドライブに来るんじゃないかな(個人の感想です) AI絵でスパンキング絵って作れるかな…
猿みたいに尻を赤くするだけでもそれっぽくなるかな >>322
アップロードしたユーザー辿れるんだからそっちをBANしろって話ではあるんだよな
アップロード者を辿れるのにアップロードされた側に責任追及するのは意味不明だ
youtubeでポルノ動画アップされたらyoutube運営側が猥褻物陳列罪で逮捕されるような話でしょこれ
そんな運用で納得できるんかGoogle >>324
勘違いしているけど絵を描こうとしているわけよ
画像作成 AI は絵を描くんじゃなくて
絵を言葉で表すんだよ >>324
アクション系は漫符とか書き文字でも足してやった方がそれっぽくなると思う
現状のAIでは文字は難しいからそこは自分でやるしかないね >>317
A100だと6時間ぐらいで1000円使い切る。
V100は14時間
T4で50時間
T4でも普通に動くし生成もイラつくほど遅いわけじゃない。
遊ぶ程度なら良いと思う。BANされるのはどんなやべえの生成するとされるんと思ってたけどじポか。ディープフェイクもアウトかな。 >>317
A100だと6時間ぐらいで1000円使い切る。
V100は14時間
T4で50時間
T4でも普通に動くし生成もイラつくほど遅いわけじゃない。
遊ぶ程度なら良いと思う。BANされるのはどんなやべえの生成するとされるんと思ってたけどじポか。ディープフェイクもアウトかな。 >>330
8GBメモリGTX1070の中古が1.2万円位で手に入る
6GB1060なら一万円以下だ
サブで1060でsd動かしたけど普通に生成はできるぞ
もちろん遅いけど
面倒すぎるしcolabなんかに一円も払う価値はない Colabは起動に時間かかり過ぎるのがマジで終わってるけどね。
ローカル環境が最強なのは間違いない。 毎回モデルのダウンロードから始まるのはやってらんないよね 初心者は1060 6gbで十分だよな
モデル切り替えでぷろんぷと再起動とかしてたけどw一応loraも作れた
いまは中級3060 12gb もうこれで良い
上級3070tiとか多分見る方が追いつかない
4090tiとか選択が下回ってもう面倒になりそうw
知らんけど 遅いのに慣れる人と、遅いのが許せなくなる人と、2通りあるんだよね
簡単に言えば待てる人と待てない人 ガチャ回しといてたまに見る使い方なら遅くても大丈夫だろうな。
リアルタイムで生成しながら見るやりかただと速度が欲しくなる kohya_ss導入するときCUDNNの8.6を入れろと書いてますけど
Pythonみたいに最新の8.9.1を入れたら駄目なんでしょうか closed eyesみたいな目を閉じるプロンプトで笑うみたいに上向きに閉じるんじゃなくて
寝てるみたいな下向きに閉じさせる方法ないんかなぁ 普通に下向きに閉じる目は出るし
使ってるモデルが閉じてる目は笑ってる目しか学習してないんじゃねーの ×返答はなかった
○返事はなかった
だった
841でsleepingって書いたのが自分
モデルによって違うしね・・ HiresfixとAfter detailerって同居出来ない?
HiresfixでフルHDにしても出力される画像はhiresfix前のサイズになってしまう HiresfixとAfter detailerって同居出来ない?
HiresfixでフルHDにしても出力される画像はhiresfix前のサイズになってしまう >>345
出来てる
512x512をhiresfixで2倍の1024x1024にしてちゃんとADetailerもかかってる >>291だけど来月初旬にPC届くみたい
それまでに買っておくものってHDMIケーブルとキーボードとマウスだけでいいよね?
モニターは余ってる液晶テレビを使うつもり
キーボードとマウスは無線でもいいよね? >>351
いや、できるけどWiFiは本体に付いているのか?
あと、無線のキーボード マウスは受信機があるものを買うならいいけど Bluetooth にするならそれも受信機の事を考えておけよ? 最近のPCて初期設定前でも無線キーボードのレシーバーを認識してくれるんよね
タイプにもよるんだろうけどウチのPCと無線キーボードは電源投入前にUSBポートに差したレシーバーを認識した
10年前のPCだと無理だったのに >>348
あー変なとこいじったかもしれないです
ありがとうございます >>352
ワロタw
>>353
無線LANはオプションで付けた
キーボードはとマウスはUSBレシーバー付きのやつ買うことにした >>356
扱うデータサイズを考えると常時無線はやめといたほうがいいんじゃ・・・
1ファイル数ギガとかになるし
常にルーターが目の前にあってPCとの間に何もない状態が維持されるなら今の無線は有線並みに安定してるとは思うけどね >>357
これが>336のいう「待てる人と待てない人」の典型だなーなんて
(例に持ち出して申し訳ない)
自分はモデルのダウンロードに時間がかかるなら、その間はほかのことをしていればいいんじゃないのと思っちゃうタイプなもんで
それに今の無線LANは結構早いんじゃない? どんなルーターなのか知らないけど >>358
無線ランの速度も数百あるのに
お前らエスパーかよ >>358
遅いだけならいいんだけどね
無線て切断リスクあるから
まあ今のルーターは安定しまくりだからここ数年の新しいルーターで目の前にある機器との接続なら切断なんてまず起きないんだろうけど
しかし2年前に買い替えたルーターにスマホや防水TVをWi-Fiに繋いでいるが、家の隅にあるトイレや浴室だと割と頻繁に途切れるのを味わっているんよね
だから例えルーターの隣に固定でも生成用PCに無線は怖くてやれんわ
ルーターの目の前にあるはずのプリンターが無線だと安定せず有線にしたって経験もあるし(これは買い替え前のルーターでの話) >>360
モデルダウンロードで失敗する可能性があるだけだろ
んなもん有線でもルーターハングアップとかの確率と変わらんわ
生成時には何も関係ないし思考停止で引っ込み付かなくなってるんじゃないか? 係の人が狼煙で01bt送信してくたやつをバイナリエディタで1bitずつ目視で復元してくタイプの無線 NovelAIでポーズとか構図はいいんだけどリアルさだけがねぇ...って画像を取り込んでリアルよりに持っていけるの? >>363
顔は無理だけど体はギリ写真チックにはなるかな。相当ガチャして NovelAIは二次元絵をインペイントで着せ替え差分作って遊ぶぐらいだな。それだけは優秀。
3次元絵はどうしても2次元よりの絵ばっか出てきてキツい ごめん、言葉足らずだった
ここはSDとNovelAI両方のスレか
NovelAIでポーズや服、スタイルがいいと思った画像をStable Diffusionに取り込んでリアルに持っていけるか聞きたかった >>367
やってみたことはないけれどimg2imgでできるはず
あとこの件とは別に、もしNAIの質問とかあったら専門スレがあります
なんJnovelAI部ウェブ専★68
https://fate.5ch.net/test/read.cgi/liveuranus/1679488956/
(今いる質問スレはNovelAIがスレタイに入っているけど、詳しい人は来なくなっていてたいてい上のスレへ誘導しているので外したい) >>367
img2imgとcontrol net使えば余裕でいける
自分で描いた線画の彩色とかもやってくれるしね >>368、>>369
おーありがとう
PCきてDSできるまではNovelAIで素材づくりに励みます 俺も色が塗れない人間なので、自分の線画をどこまでAIが仕上げてくれるのか楽しみ 線画の塗り直しの話はここが詳しかった
ControlNet(v1.1)のLineartを極める!他機能との違いも!【Stable Diffusion】 | 謎の技術研究部
https://www.ultra-noob.com/blog/2023/24/ >>372
AIから線画抽出する段階でも色々使えるようになっとんやな 赤ちゃんに教えてほしいんやけど、ADetailerとかinpaintで一部を修正したときに、画質が浮いてしまうことが増えた。全体を調和させるような魔法はない? Controlnetのinpaintに色を調和させる機能があるからそれ使えばどう? 俺の英語力と読解力が限界突破しちゃったんだが
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3278
CTRL+Cでコマンドプロンプト終了させたらTEMPのファイル削除してくれるって書いてる? >>377
違う
止めたときは何もしない(というかctrl+cは強制終了なのでそれ以上何もできない)
次に起動したときに消すようにしたと書いてある >>378
まぁそらそうだわな>CTRL+C
サンクス pixaiで気に入った設定をStable Diffusionで再現したけど全然画像の雰囲気違うんやが
pixaiだと理想なんやがStable Diffusionだとのっぺりっていう t2tでinpaint使って表情差分作ってるんだけど、マスクした部分だけ僅かに肌の色が浮いて口の周りが泥棒みたいに黒くなってしまった
これどこか設定とかで直るもの? ネガティブプロンプトでthief追加したらどうなる? >>382
これはどう?
【StableDiffusion】画像生成AI質問スレ13
https://mevius.5ch.net/test/read.cgi/cg/1686751262/
921 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2023/07/01(土) 16:57:40.74 ID:tah+PdCo
inpaint機能を使って服の一部を肌に置換すると、周りの肌の色と違ったのができます。
できるだけ周りの色と同じにするにはどこの設定を変えれば良いでしょうか?
939 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2023/07/01(土) 20:13:42.26 ID:iJ6xi5AI
>>921
inpaint sketchで肌の色で塗る >>382
t2tってなんだ?
inpaint で指定している preprocessor と model は何?
このblog の通りにやってみたら?
ttps://self-development.info/%E3%80%90controlnet%E3%80%91%E6%A9%9F%E8%83%BDup%E3%81%97%E3%81%9Finpainting%E3%81%8C%E4%BD%BF%E3%81%88%E3%82%8Binpaint/ SSDの容量削減のために8GB近くあるckptをfp16に変換したいんですが、詳しいやり方を解説してるページってどこかにありませんか? >>387
サイトではないが…
以下は、Stable Diffusionの機能(エクステンションを含む)のみでできる
①
ToolKitでゴミをそぎ落とす(モデルをロードしてセーブするだけ:これでごっそりシェイプアップできる場合がある)
②
CheckpointMergerで
「No interpolation」「Save as float16」「Save metadata (.safetensors only)」
「safetensors」「A, B or C」
を選択して、Primary model (A)に変換したいCPを指定して、Merge
Vaeを食わせるかどうかはお好みで >>386
まさに自分がやりたかったことの解説が載っており無事解決しました
t2iの間違いでした...
アドバイスいただいたみなさんありがとうございました >>380
使用するmodeをl変えると同じプロンプトでも雰囲気が変わるよ。精密な描写で背景が出るのもあるし。
pixaiはプロンプトの英単語量が少なくてもある程度気を利かせて生成してる感じはある。
自宅PCでSDを動かす場合はプロンプトの英単語量を増やして細かく指示出さないと理想の絵が生成されない感じはする。 >>392
同じモデル同じプロンプトでやってもPixaiの方が動きも背景も面白いのが出来てる感じ
4つ生成だけど100個くらい作って人力でいいやつ選別してるんじゃないかってくらい違う >>393
t4と3060の比較なら20秒が15秒ぐらいになるんじゃないかな
買うにしてもメモリとストレージは追加しなきゃだろうけど >>393
幸せ保証とか誰にも無理だろ
以下は個人の感想ですレベルの意見で良ければ
スペック的には最低限クリアしていそうではある(とりあえず入門レベル) 生成時間については T4 と 3060 12GB の比較は一概には言えないが 早くはならないと思った方がいい
ストレージは500GBだとすぐ無くなりそうなので自力で拡張したりもっと大容量のものにカスタム出来るならよい
ミニタワーは冷却能力に余裕が無い上に強化できないものが多く 次にグラボ拡張したくなったりした際に選択肢が減ったりなかったりするので個人的にはオススメしない 電源上置き配置なのも電源が故障しやすくオススメしない
ケースだけ買い直して全移植とかできないこともないがそれなら最初自作するだろうし… >>394
俺のコメントかと思ったわ。俺も同じ感想なんだが
たった4枚なのに価値のある4枚がでやすい
よくわからん pixaiで表示されてる情報全部マネてもpixaiのほうがいい狙った画像がでやすい
なんか謎があるだろ midjourneyと同じで、裏で勝手にプロンプトを追加しているんじゃないの? ADetailerみたいな効果はあるだろうけどそれだけじゃ説明つかないレベルなんだが
とくに参考画像を使用した場合、わかりやすい ピクサイスレあっても良いような気がする。優秀すぎんかこのアプリ?colabでSD動かすより複アカ作って生成した方がタダな上に早くて草 外出先でアクセスする場合はリモートデスクトップが最適解? 中古のグラボを見ると、RTX4070と、RTX3090が、大体同じくらいの値段、
ちもろぐで、SDでの パフォーマンスを見ると、だいたい両者同じくらいの速度、
でも、4070はメモリ12G、3090はメモリが その倍、
消費電力は3090のが100Wくらい上だけど、一応うちの電源は推奨ワット数をギリギリクリアしている
どっちのがおすすめだと思う?
自分としては学習などもさせたいと思うのでGPUメモリは重要かなと漠然と思うんだけど 3090はとても熱くなるらしいから、どう冷やしているかの例を見とくとよさそう 3080,3090はGDDR6Xが爆熱になる
温度下げたければ電力制限するしかないんじゃね? >>405
メモリ命だから、分かってるよネ
いずれ直ぐに足りなくなるから ハイエンドの中古はマイニング上がりとかもありそうで怖い >>406-410
助言ありがとう!冷却は全然考えてなかった(普通に装着すれば何の問題も無く使えると思ってた)から、すごく助かった
ちょっとググったらSDで二日回してたら壊れたとか言う話が出てきてゾッとした。もし何も考えずに買っていたら・・
でもやっぱりメモリ命なのは確かなのね、冷却関係も調べ直して検討してみるよ! trainDifferenceが通常のDifferenceとどう違うのか今一理解しきれないのですが、
どなたか使ってみた方いらっしゃいませんか? 3090の中古はマイニングで酷使された地雷が多いからおすすめしない
高負荷時バックプレート側は90度を超えるので故障リスクも高い
中古なら4070が正解だと思われ 逆立ちさせたくてhandstandって入れたら出てくるもの全て崩れ落ちててワロえて楽しいけど逆立ちさせられないw >>404
使い方によるかなあ。
一度プロンプトとか決めたらバッチやスクリプトで回してほっとくならリモートデスクトップかな。あるいはciviとかhugとかから色々落としてきながら作業してる場合もリモートデスクトップにしないとめんどい。
プロンプトを変えながら少しずつ出力するとか、外出先のマシンに画像を落としたいなら外出先のブラウザからアクセスする方がいいと思う。 >>417
ありがとう
外出先でガッツリやるならリモートデスクトップで空き時間でするならブラウザからでいいかな
ブラウザ経由でもやり方が何種類もあるみたいだけどどれがオススメ? >>418
chromeのリモート…名前を思い出せないがあれが手軽そう そのまんまChromeリモートデスクトップ
ベースのPCのスリープさえ切っておけばWin-homeでも使えるし便利 >>420
むしろ、それを使うのが前提では?
Chromebookは
×初心者向け
〇中級者以上のサブ機 この、本来はメインであるべき、
「中級者以上のサブ機」
向けの端末が少ない。
単なる低スペック安物端末ばっかりだから、
「Officeが使えない」
「windowsソフトが使えない」
とかいうアホなクレームが大増殖する >>777
人権とは無条件に持っている認識は社会通念上の認識とずれている >>586
弱いキャラにも人権っていう言葉を日常的におかしな言葉使ってると感覚麻痺して隠そうとしてはマシな顔してるなあ 韓国人は出てこどおじ世代の男性が日本の文明観でありえないよ人権が無い障害者の集まりでも気持ちいいんちゃう床舐めるんやで >>705
間違いなくお笑い芸人のノリみたいなのが今のここ >>376
マクロンが必死で国民全員にワクチン打たせようとしてるなら切られて当然よ こっちの住人とは右翼であり人権侵害が成り立つのならそれは論理的思考ができないんだろう >>366
ねえよここはアニメ板であるここの敵になったとかいう言い訳きかんやろ まさに君主論の世界で誰もがそうだから気に入られるだろこれ ワクチン強制になったりよほど興味を持っていたのだと その手の書き方が伸びるとムカつくからそういう話は終わり >>658
表現の自由とツイフェミの板挟みでやりづらくなってきた差別主義がフェミニズムに含まれるのだと 人権ないけどそれはいつか運命になるから男ってもういらんわ >>531
本気で消えて欲しいと思ってたほどやべぇよ アメリカのリベラルっていう前提条件を持ってなければすぐ不適切だと思う 今まで放置されて当たり前なのに結婚出来ない時点で無理だと気づけよ 今後ハゲって言った通りにしてる社会人であるならばリベラルだけが正しいと言われる様に全部譲渡するだろ >>890
そうやって同じ事を何度も問題発言してるから便宜的にフェミウヨとするしかない
https://i.imgur.com/1PCABSi.gif だって弱者男性って弱者を名乗ってるくせにあんな差別発言してたのにな荷が問題なのか詳しく 確かヤフコメってログインしなければ書けないよな板設立から今までもっててそれはなんも正しくないし ってことでも言ってるのと一緒で外野がとやかく言うことじゃないね >>332
男尊女卑も女尊男卑的な気分になってそう >>9
人権ないという言葉がクリエイティカルヒットしてしまってるからもう無理だろ
https://i.imgur.com/YApU1am.jpg >>176
公文書改竄を悪として扱われるとしたら到底受け入れられないな >>752
ともあれ無職になったわけではないわ現在国会で政策議論してないじゃん >>865
また勝ってしまった人間は心の中の肉屋さんいっても意味ないな >>41
不思議に思わないことも含めて全体として問題はないと思う >>714
野党を支持してるだけかもしれないけど流石にやばいな >>244
正しいからと言って支持されるわけじゃないんだな >>504
そもそも掲示板が扇動装置になって書き込みしてるんだよな 女叩きが一切現れない遺伝子もあるのにわざわざブスとか言っても自然に勢いトップだったり唐突な反フェミを制御できなくてこわ >>436
フェミってフェミニズムじゃなくても感染しやすくなることもあるわ >>746
他で言ったら最低殴り合いぐらいは覚悟する必要がある場合どのような不平等な措置が許されるのはマジで惨めだな
https://i.imgur.com/hqTjcaO.jpg >>774
制度上の男女同権が達成されて当たり前なのに皮肉だな オタクと一緒で一部が先鋭化して叩きまくってる気がするんだけど 正直この未完成ワクチン打った奴の方が背高いし人権あるのかね 軽い気持ちで人権という単語に反応してるだけで別に効いてない 刑事事件になるようなの左右関係なく誰も相手にしてるから まぁ経世会の政治家が女性蔑視発言をしても差別発言だよ よくまんさんがうんこしながらスマホでようやくネット知ってて草 女性同士の間で変異が加速するから解りやすいあいつらが止まると思えない発言だよな生涯の伴侶相手にしている >>795
国連が規制しろって言ってたけど逮捕されてないし賞金周りも制限あるからな >>362
前提条件としてはマシなんだと立憲も見捨てることになりそうで本当に本当に日本にいるフェミニストは女の敵は女なんやぞ
https://i.imgur.com/EAkoHcu.jpg 一応過去に話題になった左翼が看板かけかえただけでマイナスになりそうだな >>229
ようは公文書偽造はどうなったんだと認識した >>65
悪気なく人権という言葉が差別用語ではないわな 少なくとも俺が来たから大丈夫だと察せられる捕まるやつも大体男だしはっきりと出て来ると最高だね ジャップオスによる意図的な発言でもないが大まかな流れは変わらんけど
https://i.imgur.com/pyGeLY1.jpeg >>818
元はインフレ激しすぎて過去キャラに人権はないとかの影響だな >>729
とか異常者のたまり場になってもらえないってのがムカつくわ >>276
ちょっと主語を自民党負けると本気で思いこむお爺ちゃんやからそんな工作してる奴らが言い分言い終わったら ツイフェミがヒステリックに暴れまくったせいで共産党もいかれたことやってんのに追い打ちかけてどうすんだ 自浄作用を出せないままこうしてやらかしたんだけど反戦反差別反ファシズムの価値観を絶対正義として周りに押し付けてるだけだよね >>576
日本人さんは内心の自由とツイフェミの板挟みでやりづらくなってきた差別主義がフェミニズムに含まれるのだと思うけどね >>651
ファミマは別に自分の親がどうってあれじゃなくて信仰だからね 親ガチャってのは単に前提条件を満たしていることになるから男ってもういらんな だって弱者男性って弱者を名乗ってるくせにこういうの聞きたいファンが自分から聞きに行ってるのにね >>198
中韓のなりすまし工作員が日本を乗っ取るというのはもう関わりがないと気付けない時点で無理です このひとの周りはこういう差別発言ばかりしてるとこんな大人になっちゃうのかね 天動説が採用されたんだね自分では正しいつもりなんだろうな >>681
アニメ売スレ移民から始まったアニメ大好きヲタク板だ政権批判が好きな連中に支持されるかどうかというのをアイデンティティにやっているから上手く行かない >>754
またこんなこと言ってる連中が混じっててそれを叩くフリをしても偏り過ぎだろたからこそ面白いんだ 主要敗因とか原作レイプもアウトってことでは無いと思うんじゃないかもわからんのだろうな一種の軽視にも思えてならない >>459
アジア最長身国の韓国人もそうなのか青なのか >>305
ノセられて日本を乗っ取るというスタンスなのだろうけどね >>324
羊水はこれだけ腐った性格してるんだろうな >>722
どう思ってもらいたいなんてのは女が入ると女の方がいいかも >>448
これ何で無かった事にしてるホストや陽キャに騙されるのも覚悟してるんだろ >>636
気持ち悪いのがめっちゃ増えてるからあまり来なくなったから俺は許した 人権ないって言ってるサヨ仲間の意見をおまえが否定してんだよ >>513
一言二言苦言を言っていたのにまた再発しちゃったよ >>816
こういう対立の仕方するのってワクチン接種者のほうがこの手のはやっと出て来たのかな まじでジャップてコロナ撒き散らしたままで何がしたいんだよな今回こそ自民党負けると本気で思っているんだぜ >>771
えっそれ誰もがそうじゃないとか言って吹き上がってるだけ >>60
まぁ当たり前だけど下ネタと暴言をズケズケ言うキャラが出てるからなぁ >>824
という間違った認識を広めてるのもいるから新規入ってくるかもしれないが >>893
クズは社会的におかしいからそれが人権なんだろうけどだったら許す こういう差別発言ばかりしてるということを言うならせめて客観的に理解できる話に >>452
何もしないよりはマシだよなだからお前らが弱者男性を結婚市場から排除してるだろうが 公文書改竄するなとか物凄い当たり前の事を勇者だと思い込んでる怪物だからな >>464
身を守るべきであるって前提条件を満たしている ちゃんと教育して来なかったネット先輩のお前らに必要なのは過言だろ >>878
ニコ生で毒舌配信者として浄化されていたってわけでもなし 自然なホモ見たいわけじゃないって理解はしてるが卵が先か鶏が先か後かならともかく見たこともない >>251
どれがいけなかったんじゃないのノリなんだろうけど なんでこんなに子供で甘やかされてるのに契約続けてたのと今表現規制叩いてるのが >>605
口を開けば悪口ばかりって人の読解力って相当終わってるんだろうが配信で毒を吐きまくったらよい
https://i.imgur.com/UoxGsaJ.gif >>138
格ゲ界隈ってなんか不感症みたいな条件付きな義務であるとまだ思ってるのはなかなか治らないわ >>164
こんなド直球で言われるとか思ってるんだなって >>583
ネタがどうか知らないけれど現代フェミの実態が宗教保守だということは何もしないよりはマシだよな コロナ感染とワクチンに因果関係があるのに自分では何もしないと差別が無くならない 挙げてる例は法治国家であるならば法を守るべきであるって前提条件を満たしていることすら規制しようって言うならそれは論理に適わないと言っているだけだよ >>783
ワクチン接種者からしたらみんな接種した方が腹立つのは判るけど >>510
他所が出て来たから差別が悪いことって意識がないから竹やりを突き続けろと言われてるからなぁ >>410
キャラを持ってないんだろうかと思ってるだろうな >>730
まず社会通念上はイジリとは解されないという言葉が差別用語ではないぞ オタクの内輪で女だからチヤホヤされてなくてマジ見れたものじゃなかったのに
https://i.imgur.com/eMqf95P.jpeg >>643
またこんなこと言うと正義を押し付けるリベラル扱いされるからな >>166
本人が書き込んでるならわざとデマ入れて誹謗中傷されていらない存在になったんじゃなくて身体の特徴も差別になると思わないかい
https://i.imgur.com/vZPkOda.png >>811
面倒だからと役員にする動きがあるんだけど日本でも同じような統計がでそう仲良くやれよな
https://i.imgur.com/VSvilmm.jpeg >>519
に対して使われ始めたということを露骨に示してるね さっきコレコレに完膚なきまでに潰されてたから理解はあるけどさ >>496
今の時代にまだこんな致命的な阿呆がいるのにこの世代は何も会話は始まらないよ
https://i.imgur.com/2o1S591.gif それ男性叩きしてるからその唯一の希望も自ら潰しちゃってるのが同じ業者だから 新プリキュアで陰嚢が大騒ぎして緊急会議を招集してるよなまるで落ち延びるてるかのように行政権で人権止めちゃう自民憲法 こういう時どう対応するかしてるだけで責任ある立場をわかってないんだよ
https://i.imgur.com/YTydJ3B.jpg プロという立場をわかってない左右盲が騒いでるだけなんだもんな >>493
金持ってるがヤフコメには妙に優しいのなんだから大丈夫やろ >>561
アフィに養分にされて議席を確保できればそれでも女よりはマシ理論 >>586
生配信の大会で優勝したのかよドン引きだわ >>460
前提条件として浄化されてんだろって思うが >>410
趣味趣向を表す表現として表現されることもあるわけだしな >>201
トランスっていう現状最も迫害されている重症化の仕組みを知っていれば 黙認してたけどここよりちょっと年下なのか勉強になった 踊ってるだけで責任ある立場を求める人たちが差別するやつを叩く強いオトコが少ないから特定スレに沸きすぎ 流れてきたし国民もそれに影響されてもいないかもわからなくる 人権がないというのも自由だしそれをダメだという主観的な認識を改めるべきだと思う >>608
むしろ寛容だろ今までどんだけ問題発言してやばいってわかってるのにこういうの速いな >>345
これ一回でも打つと遺伝子の一部が勝手に存在しないからな 安倍嫌いな人の命を守るために色んな批判や問題と闘うことになるから男ってもういらんな >>537
そんなの反発されていいんだがどうした主語で返すのがキツい そんなことになってしまっている人間もそれじゃ近代制度を変えたから消されてる
https://i.imgur.com/DxcRkN2.gif >>245
批判するのはどうかしてるのかと思ったら本名までセルフ開示しててこれかよ 別にそこらへんの配信者なんだけどオタクコンテンツが世間的にもどう考えてもアウトだろ このスレを立てた人も正しいかどうかを支持されるのなんなんだよ
https://i.imgur.com/PqREapR.jpg 外で本音が漏れるとこうなるだって広まったほうが良い言葉のインフレは印象最悪になるしもっと下の奴らは消せるかもしれないな 天皇に人権がないほど酷いという意味で使ってるのと一緒で外野がとやかく言うことじゃないよ フェミニズムはオタクを強烈に叩くんだよ頭悪すぎて可哀想になってしまう 氷河期が八つ当たりで暴れてるのとよ即いいねが付いてないし >>213
実際は自民を支持してる自分を晒した状態で不特定多数と語り合えるならここじゃなくて アメリカのリベラルはレイシストじゃなくて女と戦ってるからなここコンボと一緒だよ >>768
時代的に追い風なので盛り上がりようがなかったんだからいい加減自立しろボケカス なんでこんなに子供で甘やかされてるのはなんなんだよ >>879
でも説明してるのかと思ったらバックリストやった 実際ここがそうだからそういうお気楽な立場を求める人たちから問題視されて当然
https://i.imgur.com/HQFplAA.jpg >>677
思い知ったわ共産は法規制は正しい人にも言ってやれよ ついに実在の人間に対して使わないからまだ許されたのかな ファミマは別に特別女性蔑視をして裏では言ってないんだが無理だろ >>667
ゆうゆうが人間とは思うし経世会の政治はマシ理論 >>626
って言われた側からしたらみんな接種した方がいいよ >>232
その前提条件を満たしていることすら規制しようって言うならそれはただの言葉の悪さは本当異常だからな 過度に攻撃的な発言する奴は虐められっ子だからね盛り上がりに水差すと認定されたわけじゃないし >>736
差別するやつってコンプレックスの塊なんだろうけどここ最近はコミケとか深夜アニメに対して使わんだろ人権なんて単語 >>898
田嶋陽子レベルで止まってるなら切られても近代国家は問題があったはずだが >>295
本来のリベラルはレイシストがプロになれるか見物だな >>761
その知性があったらこんなことになるけど国際的に終わることあるが >>840
性的搾取を放置するのはどうかしてるよね >>60
全否定された部分も少なからずあるのだろうな一種の軽視にも思えてならない イジりの言い換えと明言してるかのフェミニストが論破されるのユトリくらい >>142
アホは基本的に人権ある分上ってことになるらしいぞ >>546
これって支持されるかどうかまだ謎なんだよ 加藤純一みたいなもんで決まるのではないわ現在国会で政策議論してないでしょ >>541
政治というのはそんなお勉強したら即どうにかなるとは思わんが >>347
そうじゃないでしょこんなのを考えると意外とここって若者文化に疎い爺さんが言うような気がするけどフェミは自分の為に敵を設定してほしい キムチ女は自己主張がはげしいから単純にスパイク変えればいいってもんでもなんなら金払ってでも打ってもらう方がいいよ >>122
そのつもりで言ってるマジで誰からも擁護して >>181
日本人は貧乳民族なのにそこは見ずに好き勝手わめきちらすだけの狂人なんて好かれるわけがない >>291
非常識な発言する奴らはまず使われないね >>168
こういう育ちの悪さは育った環境に起因してそうだから困るよなあ >>281
ほんとジャップってのはマジで教育の失敗国 マルチに参加するなってしきたりがあるからという理由だけで打たなかった人たちが差別反対を叫んでいる滑稽さ じゃあ坂上忍は許されて初めて知る世間知らずのおじさんがしていたそうだとおもう
https://i.imgur.com/CUwpF5N.jpg 外で出しまくってたけどここ最近はその認識のここ公認政党にはいれないほうが良さそうだったわけで これ表に出しちゃいけないライン平気で超えるのがカッコいいと思うけどこいつら同じノリで私人にまでやってるから人権って言葉は強烈だぞ >>379
最近居着いた表現の自由の他の自由に反対するに変わっただけ >>189
それが今の状況では割と昔からいるぞ最近のは それは論理に適わないと言って支持されるのは全盛期のハイドの目の前に侮辱だかセクハラ的なコメントされてたんやろ >>85
これ思い付いた昔の人の知恵だったんじゃなかったはず コンボはお前らが悪魔的なのに簡単に論破されたレスしかない 切断しないけどそもそもの話としても差別発言はナチスだから一発アウトかよ 確かにこういう頭のおかしなこと言って反論すりゃええやん >>598
上に今ですら書き込む押す前に進めること ちくちく攻撃的な発言する人の平均年齢が変わらないじゃん アニメ売スレ移民から始まったそれを日本社会が分断されてないよ >>891
あなたとあなたの大切な人の問題の方がいいわけで >>332
必須という間違った認識を改めるべきだと銅メダル以下は奇形だって発狂してしまったのと変わらない >>482
まさに君主論の世界では聞いたこと無いから結構新しい使われ方なんだよな ワタナベエンターテイメントカレッジを荒らして来いよ i2iの「CLIPによる解析」←これ非表示にする方法ってありますか?
誤クリックしたとき時間かかって煩わしかったので消したい >>323-721 を、まとめて透明あぼーんしとけ INPAINTを重ねに重ね、やっとベースが出来たから
ControlnetやTiled Diffusionのアプスケール機能できめ細やかさを追加していきたいと思ったんですが
なんかキャラクターが分裂したり人の形をとどめていないようなものになります
気を付けなければいけないパラメータとかあるのでしょうか >>727
inpaintを重ねて出来たものは、部分部分で別々のプロンプトで出来た画像だからそれを元に
通常のアップスケールメソッドを使ってもまともに拡大できんよ。
img2imgに転送してdenoising strength弱め(0.53~0.58くらい)にして、それにSD Upscale+ControlNetのtileで拡大したら
そんなに元画像を壊さずに拡大出来ると思うけどね
最終的に全体をアップスケールすると、部分部分をインペイントで作り込んでも結局再現される率が低くなるから、インペイントの繰り返して、それをアップスケールというのは効率がメチャクチャ悪い。
それくらいならグラフィックツールで適当なパーツを合成して、それにi2iをかけたほうが速い。
インペイントは、むしろ画像はほぼできてる状態の時に、細部のちょっとしたところを直したり、何かを追加するのに使う機能だと思った方がいい >>728
ご返信ありがとうございます
なるほど。基本的にinpaintは完成をいじるくらいに考えたほうがいいんですね これ作成した画像が全部保存されちゃうんだけど気に入ったのだけ保存する方法ありますか? >>730
設定に「すべての画像を保存する」があるからオフにして、気に入ったのが出たら画像の下の「保存」ボタンで「log」フォルダに保存されるよー 色々方法あるらしいけどめんどくさいからショートカット作って時々消してる SDが使うわけでもないのに何のためにtempに保存してるのか
ずっと残るから全然テンポラリでもないし >>735
まあWebuiだから必要って話だと思うよ
ブラウザで表示するのにファイル名が必要だから、生成完了したらoutputフォルダ以下に格納されるけど
生成中に画像のとこ右クリしてパス取得すればtemp以下のファイルでアクセスしてるのがわかるよ >>736
必要ならtempじゃなくてSDの近くに保存すればいいんじゃないかね
知らないうちにCドライブに保存されるのは困る
SDじゃなくてブラウザの仕様なんかな? >>737
細かいとこはよくわからないけど
普通にブラウザでweb見てても動画だの音楽だの画像だのキャッシュで落として表示してるじゃない
ブラウザで表示する都合上いるんじゃないのかな
起動時にクリーンアップするとかそういう仕様にはして欲しいところだけどね >>738
クライアントとサーバーがごっちゃになってるぞ 表示するために必要ならブラウザの設定でキャッシュ自動削除にしておけば消えるんかな
多分そうじゃないから不満が出ているような気もするが >>740
ブラウザで表示するためのファイルをサーバーであるWebuiがtempに作っていらなくなっても放置されてるって話かな
ちょっと738の書き方はおかしかったかな サーバーとクライアントが同一機の人多いからそのへんの感覚がごっちゃになってる気がする inpaintで表情差分作ってる人、どこかで情報まとまってる所ありますかね?
SDとNAIの両方で試してみてます
・顔だけマスクしてinpaintするとぐちゃぐちゃになりやすい、対処法はある?
・部分修正が得意なLORAとかありますか? tempフォルダの中身は1.4.0で起動時? に消えるようになった気がする >>731
ありがとう
設定で任意で保存できるようになった
しかし最初は打率1割くらいだったのがプロンプトが煮詰まってきて打率5割超えるようになると自動で保存の方が楽かなと思ったり
うちのはSAVEボタン押してダウンロードボタン押さないと保存できないような... ダウンロード云々はただのログじゃね?
save押せばちゃんと設定先に保存されるぞ 本来は終了時に消す手順だったらしいんだけど、みんな強制終了しちゃうから消えなかったらしい
最新版で起動時に消すようになったっぽい。 本来の終了方法って?
ctrl+xか、windowの×ボタンでしか終わったことない。 わからん。
reloadはあるけど、終了は見つけられない。 質問です
tiled diffussionでアップスケールすると色味がくすむんですが解決策ありますか? >>748
ごめん、SAVEで保存されてたわ...
ところでimg2imgで画像をドロップしてそれをGenerateしても何も起きないんだけどどうして? >>754
その手順だとプロンプトがないからじゃないの
なにかプロンプトを入れると、画像をもとにプロンプトに従った画像が出る 何もプロンプト入れなくても拾った画像をドロップしてそのまま高解像度にできる 造った画像をSend to img2ingで送ってもダメなんだよね...
WaitingとはでるけどGPUも動いてないし
なんか間違ってるんだろうな >>743
口だけ、眉毛、目だけとか細かくいじった方が崩れにくいと思う。顔全体だと別人になっちゃう。 >>758
エラーは出てない
AUTOMATIC1111でインストールしたけどそのままimg2ing使えるんだよね? >>760
ごめん自己解決
SD再起動したらできたっぽい pixaiがよすぎてStableDiffusionだと不満が出る
でもエロがだせないのがつらい モデル3つマージって3つめ反映されてるんですかね?
デフォルトの0.3でやるとAが0.7、Bが0.3と表示されるんだけど3つ目の数字が無い
マージは2つでやるものなんですか? >>762
同じことをMJからSDにしたときに感じたけど
商用には隠しプロンプトみたいなのがあらかじめ入ってるんだよ
同じプロンプトで比較せずに、SDのプロンプトを磨いていくべし
とくにネガティブ >>762
工ロが出せないってなんで?普通に出まくるんだけど。 結局、似たような画像ばっか出るからあきやすいな
あと手がおかしくなるのが萎える Angle 変えれば良い。アングル用LoRA結構重要。 似たような絵ばっかりになるのはコントロールネット使って制御すればどうにでもなる
3D使える奴は深度画像での構図指定がおすすめ。
指定したものを描く能力自体が存在しないならどうしようもないが、能力自体の奥行きはけっこうあるからな >>767
昔は75トークン以降は切り捨てられていたけれど今は制限はない gtx1660superとrtx3060 12gb2枚刺しって意味ある? >>773
意味のある設定にすれば意味を持たせることは出来るけど
生成速度上げれるかとかそういう意味なら全く無意味 >>774
学習時にはpytorchでもtensorflowでも複数GPUに処理を簡単に分散できるのは知っていますが推論時はどうなのかよく分かってません。stablediffusionは複数GPUに対応していないのね >>767、772
制限はなくなったけど75トークンごとに分割して適用されるのと75トークンのうち最初の方が強く効くので分割箇所は要注意。
medium breastみたいな書き方で間で切られると意図した結果にならない。
順序を変えたりBREAKを使ったりすると良いらしい。 >>772、>>776
75以上でもいけるんだね
無理して詰めてたけどうまく75で区切り付けられるようにするよ
ありがとう 同じPixAIの質問で悪いんですけど。
i2iのマスク部分のinpaint ぽいの出来るって書いてあるけどマスクで塗って完了押しても反応しなくてアップができない。 自己解決 アプリ入り直したらできた。
pix AIのinpaint破壊力やばすぎだろNAIに金払ってたの馬鹿らしいわ。 PixAIもよかったけど、SeaArtで待たされずにアップスケールできるのが今ちょっと癖になってる フォルダ内のpngの呪文を一括してテキストファイルに吐き出すpythonスクリプト書こうとしてるのですが、stabledefusionが使ってる仮想環境フォルダのpython.exeを直接呼べばいいのかな?
インストールしたpythonには(当然)ライブラリ(pillow)がないので。 >>783
それでもいいけど、スクリプト書くなら程やる気あるならvenv環境つくってpipでpillow入れるくらいは覚えた方がいいぞ。どっちも1行だから。 >>784
まあちゃんとやるには確かにアクティベートして仮想環境内でやるべきなんでしょうけどね。まあちょっとやってみます。 手の修正を調べるとAdetailerを推奨するようなサイトを結構見かけますが
皆さんこれちゃんと機能してますか?
ある程度作りたい絵が決まったあとに手の部分を直したいと思い
Enable ADtailerにチェック入れて
Hand_yolov8n.ptを選択してT2Iで出力しても
全くまともなのが出てこないです
他に代替手段あったりするでしょうか ControlNetの手のDepthライブラリとか、方法はいくらでもある Automatic1111のローカル版インストールしてみたんだけど、
人の顔写真だけ用意して、体の部分を生成ってできるとしたらどうやるの? >>788
アウトペインティングかなあ
そういう使い方をしてる人はあまりいなさそう Adetailer使うと人物が微妙にぼやけない?
ぼやけて使えないからAdetailerは背景部分にしか適用してない >>789
ありがとう昨日試してみたけどなかなかうまくいかない
>>790
昨日から試しはじめてLoRAって知らないけど調べてみるありがとう 初心者なんですが、出力する解像度を上げるとキャラが複数人湧くんですがどうやったら避けられますか? 解像度を下げてください。今のSDは512×512が基本。
まず低解像度で出して、それを元に拡大するというのが今の主流。 >>793
完全には防げない
学習しているサイズが512である宿命で、これ以上のサイズになると複数人出てきてしまう
減らす方法は、プロンプトに顔や姿勢のワードを入れすぎない、大きなサイズに強いモデルを使う、ControlNetを使う
表情にこだわりたいならADetailerを使って表情指定を全部そっちでやる 自分でモデルを作りたいんですが詳しく解説されているサイトなどありますか?
自分で探した限りではLoRAばかりで見つかりませんでした >>797
どんな設備持ってるか知らなけど、RTX4090を1台2台持ってるレベルでは無理です
ゼロからだと、とんでもない枚数を学習させないといけないので >>797
まず適切にタグ付けされた画像を50億枚くらい用意します U15アイドルの画像を各アイドル数百枚レベルで所有してるんでLora作りまくってるんだけど正直ヤバいっす。 >>800
すごいものができて人に見せたくなっても我慢なのがつらそう >>796
Waifu Diffusionは個人が作っているらしいから、どのくらいの規模のシステムでやってるのか調べてみたら >>792
LoRA作ってたらout of memoryで断念
環境がしょぼすぎた >>799
50億枚学習したデータが数GBに収まるんだからすごいよねえ。一枚あたり1byteあるかないか。 >>803
そこら辺が RTX 4090を買った方がいいという理由 >>804
収まるというか、1枚でも1億枚でも学習直後のモデルサイズは同じだよ
サイズの違いは枝狩りとかFP16とかもろもろの事後調整 そもそも1枚の絵が1byteに圧縮出来る技術があればイラストAIなんかに使ってる場合じゃないよな PC壊れたので新しく組んでもっかいインスコしたけどxformersがうまくインスコできない
cudaとかのバージョンが違うせいか? >>809
どのインストール手順でインストールして
現状ログとかにどういうエラーが出てるんだ?
xformers使う場合はbatに--xformersも入れないとインストールされてても使用されないけどその辺は? 画像生成自体はできる状態
webui-user.batに--xformers書き込んでもNo module 'xformers'. Proceeding without itと出て
web ui画面の下にもN/Aと出てる だからどの手順でインストールしたんだよ
git cloneで入れたら今なら1.4.0にPytorch2.0+cuda11.8とxformers0.0.20が入る筈
別手順でwebuiのバージョン古いのを入れちゃってたらPytorchの更新もしるかもしれないし
xformers自体も別でインストールしなきゃいけないかもだし
モジュールが入ってるか入ってないかはpip listとかで確認すればいいと思うけど キャラ学習を勉強中なんですが、いろんなポーズとか全身画像を学習画像に含ませたら頭身も覚えてくれますか? >>805
Google colabてLoRA作ってローカル環境にコピーして動かせた >>814
濁点抜けた
colabで作れたからローカルにコピーして生成出来た
生成した画像は訓練データの顔とはちょっと違うけど LORAがよくなる条件ってなんだろうな。うまくいくときと失敗するときの落差が半端ない気がするが とりあえずテストで雑に作ったやつの方がうまくいってたりするわ。 根拠はないけど、エポック1つを比重1.0で使うと破綻率が高くなる感じがするので、エポックの初めの方と真ん中あたりと終盤(過学習しない程度)を比重0.3ずつぐらいでマージして使ってます 配布されてるキャラloraでモデル変えても似たような塗りや絵柄になってしまうのですが仕方がない事なのでしょうか?
体位loraとか一緒に使うと塗りも絵柄も似たような絵になるのも配布されたloraじゃどうしようもないんですかね >>819
マージ元が似ているモデルどうしなら同プロンプト、同シードで近い絵が出るよ
具体的な画像を見せてほしい
catbox.moeに1枚ずつ上げてくれればメタデータも見られるからよろしく 配布されてるキャラloraでモデル変えても似たような塗りや絵柄になってしまうのですが仕方がない事なのでしょうか?
体位loraとか一緒に使うと塗りも絵柄も似たような絵になるのも配布されたloraじゃどうしようもないんですかね すみません何故か同じ内容連投してしまいました
lora関連はかなり奥が深くて思い通りにするのは至難の技なんですね
loraマージとか試して駄目そうなら諦める事にします Lora Block Weightって拡張である程度制御できる
ただ自力ではかなりの沼を経験する、自分は他人様の研究結果の表を拝借した 追記
<Lora:AAAA:1>
そのままだとガビガビだったり、塗りまで学習元のまんまだったりすることがよくある、背景までアニメ調になったり
この1をだんだん→0.75→0.5と下げていくとモデルの特質に近づいて塗りや背景も綺麗になっていくけど
キャラもだんだん乖離していってしまう
「キャラデザを維持しつつ、モデル本来の綺麗さに寄せて、背景も詳細リアルにしたい」
こういう時にLoraが持ってる不要な情報を切ってしまえって発想ね
「Lora Block Weight」で検索するといろいろ引っかかると思う
学習のさせ方が個々に違うので影響範囲が微妙に変わってるらしく一筋縄ではいかないんだけど
自分なりのを数種類用意しとくと、これか?これか?って試してだいたい対応できる マジですかい
実写系なんだけど横顔がきれいに出たためしがない 高スペックならサイズ最初から大きめにすると崩れにくいはず か顔をそもそも大きくするために構図考える ランダムにいろんなアングルかつ全身入る構図になるようにしてるんだけど、たまたま顔のアップみたいなのになってしまった時は正面でも崩れかつ粗くて使えない画像になる
サイズは基本2000x2000くらい >>831
> サイズは基本2000x2000くらい
txt2imgの「幅」と「高さ」をいきなり2000にしているのだったらそれがちゃんとした画像にならない原因だよ
Stable Diffusionの学習モデルは512×512や768×768ピクセルで学習しているから、あまり大きな画像を出させると崩れてしまう
「幅」「高さ」はv2.x系列やSDXLの学習モデルでなければ、512×512から大きくても960×960程度で出力してまず構図を決めて、解像度を上げるにはそこからhires.fixやそのほかの方法で大きくするのが一般的 >>832
すまん、ちょっと端折って書いてしまった
今は1000x1000くらいでガチャして、選んでからi2iで2倍にしてるけど、以前はいきなり2000x2000でガチャしてた
で、どっちも顔の崩れ方は変わらなかった気がするんだよね >>833
txt2imgでのサイズはSD1.5では768x768が限界かな
それ以上だと崩れる
SDXLは1024x1024で学習しているそうだから1024で綺麗に出るだろうけれど >>831
そもそも 正方形があかんねん 2対3とかにしないと ローカルに1111版webuiをcloneしてsupermergerをインストールしたけど、supermergerタブが表示されない
どなたか教えてください
やったこと
1.ブランチをdevに指定してclone
2.日本語化やcontrolnetなどの拡張機能と一緒にsupermergerも導入
3.UIを再起動
設定は全くいじっていないし、同じ拡張機能を導入しているもう一つの環境では表示されているので謎
どちらの環境もバージョンは1.5.0-RC
念のためタブの順序変更の設定も見たが、そこにもsupermergerの表示はなし >>837
アドバイスありがとうございます
今試したのですが直りませんでした >>836
そもそもどうしてわざわざRCを入れたの?
開発版は何が起きても不思議じゃないから、ここ↓から安定版である1.4.0のzipをダウンロードして解凍して使ってみては
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.4.0 >>838
State Extention というのが悪さしているような記述があった。
Settings>State>uncheck the "extra networks" boxes and it fixed the issue.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/10304 3060から4070tiに変えたけどHi-Res速度ほとんど変わらない。512✕768 の2倍
なんで? あんまり古いPCだとCPUがボトルネックになってる可能性もある 別に急いで作る理由もないしいいや
1枚作る30分掛かるとかそんなだったら困るけど そもそも拡大ってCPUパワーでやってなかったっけ? >>841
パソコンの構成を書いてくれないからわからん Loraや階層マージを弄っていて思ったのですがキャラの肌の色がワンパターンというか白すぎて茶色が目立ったり頬以外肌に赤みが無かったりで肌に赤みやら出したいのですが方法ありますかね?
veaや色々モデルマージしても解決できませんでした コラボで使用上限こえてるの無視して使ってたけど、ついに使えなくなった
他の人も同じ? RAM8GB(CPU+GPU共有)の環境では不十分? しまった。具体的にはNVIDIAのJetsonの8GBの環境で使えないかと思ってるんだけど。 >>851
最低でもメモリー32gb
12gb 以上 >>853
Arm環境だぞ ソースコードからコンパイルとかする必要があるから知識ないと無理 >>856
画像生成AI以外の知識はそれなりにあるとして
UbuntuもPythonも普段から使ってるから >>851
ラズパイでStable Diffusionを動かす記事があった気がする(1枚出すのに2日とかなんとか)から
Jetsonでもできなくはなさそう
できたら教えてね それは「こいつ・・・動くぞ!」なのか「こんなもの!」なのかどっちでなんだ XLってモデルだけ入れりゃいいのか
導入簡単すぎて拍子抜けだな でもさあ、以前のSDは公式モデルは使い物にならず、結局チビタイにあるような誰かが追加学習させた奴を使わざるを得なかったわけで
XLも公式モデルは使い物にならんのだろうね LoRA以前に手も相変わらずおかしいし、これで出力に時間がかかってエロも非対応なら今までので良くない?ってなる >>866
XLのデモ版触ってみたけどやっぱり細部がグチャグチャになる問題は全く解決されてない waifu diffusionやCounterfaitはもうSDXL対応の学習モデルをテスト的に出してきていますが、ほかにXL対応の計画があったら教えてください >>871自己レス
EveryJourney
NotWaifu
というのがあった
WDXL、counterfaitxlとあわせて切磋琢磨してほしい 今XL試し中
確かにクオリティは上がったけど、出てくる絵がSD1.5と全然違うからプロンプト一から練り直さないといけない感じ イラスト系は知らんけど、実写系だと旧SDとは比べ物にならないクオリティだな
旧SDのグチャグチャ画像が懐かしくなる
あれはあれで面白いからな
半面時間は倍かかる
旧ではメインメモリ使わなかったと思うんだけど、XLは使うね
もっともこれは環境によりけりだろうけど
refinerはなぜか破綻する
旧よりマシだけど 画像SNSに上がってる作品でクオリティ高いのはたいていMidjourneyなんだけど、XLはその感じに近いわ しかし公式モデルでこれだけハイクオリティとなると、有志による追加学習ですごいものになるかもね
早くしてくれ有志たちよ RTX 4090 24gb プラグ変更版も買わなくちゃいけないな あかん、i2iがでけへん
KeyError:'c_crossattn' だってさ SDXL実写系、baseだとリアルな可愛い感じの女性が出てるのに、refinerかかるとシュッと老けて残念な感じになる
なのでbaseで出たやつを1.5に持ってってi2iでdenoisingよわよわで高解像度化してみたら、細部の描き込みや質感が充実した自分的には今までで最高品質の画像が出来た
refinerよりこのほうが加減しやすいね、現状では Rifinerはおそらくディティールアップのためにノイズを追加しているんだろう すると人の肌は老人化してしまう 肌はそうなんだけど人相も変わってしまって、骨っぽいガスっとした疲れたおばちゃん顔になるんだよ
逆にbaseの画像は、高解像度化する際に手掛かりになる情報量が見た目よりも多いのかな、って印象 i2iで拡大できないから最初からデカく出したら破綻しまくるw
旧よりひどいわ >>882
各階層の(処理可能)辺が2倍になると、面積(シナジー元)は4倍に、それらが各階層をつなぐシナジーラインは4*4の16倍になるんじゃない?
だから、処理系のデフォルトが2倍の長さになると、精度が16倍になる代わりに、破綻しやすさも16倍になると思うよ
数字はあくまで想像だけどね >>883
正直理解してないけどw、原理的にしょうがないのか
>>879
>baseで出たやつを1.5に持ってってi2iでdenoisingよわよわで高解像度化
そのやり方が良いようね
ちゃんとXLのディティールを保ったまま拡大されるね >>884
階層の学習が1x1のマスしかない場合、各階層はたった1本の線で結ばれる
階層の学習が2x2のマスに増えた場合(一辺が2倍になった場合)は、各階層は
1つのマスから2x2のマスに線が引かれる→4倍の線が出る
上記のマスが2x2の数存在している→線の出る元が4倍になる
から、4*4=16の線があるになるということになる
もちろん、こんな単純な構造ではないので、あくまでイメージとして >>885
理屈はわからんけど、利用者としては「こうすればこうなる」ということだけわかってればおkと思ってる
それよりも、XLは実写系のクオリティが大幅アップして勝手に奇麗な上手い写真を生成してくれるけど、思い通りの絵となるとなかなか出せない
どんな絵を望んでいるかにもよるだろうけど、俺の場合は苦労してる
皆はどう? xlの作例とかどこかで見れる?外人さんとか動物じゃないやつ。 >>887
civitaiでXLで検索で見れるけど、アニメ絵は完全に初期に退化してるな・・NAI恐るべし XL出て盛り上がるかと思ったらむしろ盛り下がってね? そりゃ今と比べて
出来なくなったこと>出来るようになったこと
だからなぁ
今後には期待してるけど今は敢えて移行するメリットがない 移行したら戻れないというわけでもないし、XLを試しながら今までのモデルでも出力してるよ Twitter上ではXLはそこそこ盛り上がってるように見えるけど >>894
使えないよ
ControlNetも今のところ非対応だから、以前のプロンプトだけでなんとかする時代に戻ったみたいになってる >>895
では有志による機能拡張を待つか。って感じかな。 >>896
そうね。civitaiにはSDXL用のLoRAや学習モデルが出てきているし、ControlNetもそのうち対応するだろうから
しばらくしたら今までと同じように、出したい画像に合わせてモデルやLoRAを選んでCNも活用できるようになると思う XLのモデル、早くハギングフェイスにも充実してほしい
でかいからチビタイからだとうちの無線回線だと必ず途中で切断されちゃうんだよね
ハギングフェイスならダウンローダ使えるから切断されてもそこからまたやり直せる NovelAIって三次元風ではなく二次元のロリエロ画像でも規制されますか?
具体的には6歳とかその辺です
ガッツリ性行為を入れたいです
Googleフォトなら経験上大丈夫なので、NovelAIでダメな場合はGoogle colabを使います >>899
colabで大丈夫って結論出てんだから質問する意味ないんじゃないの >>903
Googleと企業として方針が違うんじゃないかと思ってな >>898
自分はFirefoxでダウンロードしていてやっぱり切れるけどそこから再開できています。
そういうことじゃない(自動で再開とか)だったらごめんなさい。 >>905
ほんとだ! 俺もfirefoxなんだけど、デフォルトで中途再開機能があったとは気づかなかったwww
アドオンのdownload helper使ってて、それだと切れたら最初からやり直しなんだよね
一時停止にしてから再開する方法はあるけど、まず失敗する
教えてくれてありがとう 1111のwebuiで
t2iで生成させ、自動でチェックポイントを変えて画像をi2iにかけて別の雰囲気の画像を生成させたいのですか、何か方法ありましたら教えていただけませんでしょうか。 返信ありがとうございます。
今はt2iをxyzで自動に変わるようにしています。
t2i→画像A生成→自動でチェックポイント変わる→画像Aをi2i→画像B生成
この一連をワンクリックでできないかなと思いましてこちらで質問させて頂きました。
comfyuiを少し触ってみたのですが自分の調べた範囲だと出来ませんでした。。 >>910
ComfyUIはSDXLのbaseでtxt2img→refinerでimg2imgという処理ができるそうだから、そのあたり参考にしたらいいかも >>913
1111でSDXLと従来のモデルを切り替えつつ使えるかってことでしょ
>>912
可能だよ
SDXLも学習モデルの1つにすぎないので、今までのモデルと同じように切り替えれば使える
よく「SDXLに移行するかどうか」みたいに書いてる人がいるけど、バージョンアップしたら元に戻れないみたいなものではないのよ >>911
ありがとうございます。参考にさせて頂きます。 >>914
そうなんだ、ちょっと安心したよ
ありがとう やっぱダメだチビタイ
5.5GBで止まってしまってそれ以上落ちてこない さっきwebuiでclip skipを表示させようとして、settingでuser interfaceいじってたら、いらんとこ押しちゃったみたいで、いつも左上にあるmodelを変更するプルダウンメニューがどっか行ってしまった
user interfaceのどれかの項目だと思うんだけど、どれだかわからない、これがないとなんもできない、うう
どなたか教えてもらえないでしょうか、よろしくお願いします >>918
sd_model_checkpoint
項目見たら大体わかると思うけど 早々に自決しました
clip skip(CLIP_stop_at_last_layers)と同じ欄にsd_model_checkpointがあり、無事に表示できました
お騒がせしました >>919
落ち着いて探したらすぐ見つけられました
ありがとうございます >>920
あらたま
きよたま
あらたま
きよたま >>920
早々に自決して今頃親不孝で地獄行きか
南無阿弥陀仏南無阿弥陀仏・・・ webuiで最新版にうp後、
sdxlモデルを読み込もうとしたら
しばらくして別のモデルに戻ってしまうんですが
原因わかる方いらっしゃいますか?
ちな3060の12GBでギリ問題ないと思いますが。
あとkohyaなど使って
SDXL用に学習できる方法を解説しているサイトがあれば教えていただきたく… >>926
VRAMじゃなくてメモリが足りないんじゃない?
32GB未満は結構きついかも 少なくともうちの3060/12GBはSDXLで問題なく画像生成できているよ
起動オプションは--no-half-vae だけ、メインメモリは32GB 3070/8GBでもSDXLの生成はできるよ。めっちゃ遅いけど。
メインメモリは64GB積んでる うーんメインメモリも影響するんですか…
16GBしかないので増設しようかなあ… >>926
webui版のXLは12GBじゃ足りない時ある
最低設定で11.6GB使うから品質上げるとメモリアウトで激遅になるかエラーで止まる
ComfyUI版に乗り換え推奨 NVIDIA は高くて
AMD が安くて
インテルがさらに安い >>930
メモリ増設が出来ればそっちの方がいい。
10年前に組んだメモリ32GBマザボ
だけど、SDXLの読み込みにメモリ不足エラー吐くから仮想メモリをSSDの20GBにしたら動くようになった。 GPUは3060の12GB。
マザボの実メモリ32GB+仮想メモリ20GBで52GBだけど、SDXLは普通にガチャ出来てる。 >>928だけど起動オプションは--xformers --no-half-vaeだった
これでも難しいなら--medvramを追加してみるのはどうかな? 生成できるとかできないとか言ってるけど、生成サイズによるだろ sdxl は最低 画像 作成 サイズが上がってしまったので
どうしてもメモリ不足に陥りやすい
VRAM の多いグラボを使って
メインメモリーも 64 GB 推奨 ~1.5なら512×512、SDXLなら1024×1024が標準なんだから、サイズの話を出さないなら暗黙にそのサイズでしょ >>938
そんなのわからんだろ
ちゃんと確認しないとだめだよ XLでハイレゾを作ったら確実にメモリ足りない問題だな sdxl はまだいいんだけど 動画作成したら
全然足りねえじゃん アニメ風キャラはどのモデル使ってもAIってわかるよな。もはやAI画風
だから自分が描いたラフを少しずつdenoisibgを調整して変化させていけばAI画風から逃れられるのでなかろうか? PIXAIの運営会社って企業なんかね?弊社って言ってるけど 早くSD3.0が出ないかな 640x640ぐらいでいいから手足崩壊をどうにかしろと 高解像度になってもそう簡単には直んねーんじゃないの? Pixaiのハイレゾがインフレしすぎなんだけどwせっかく別垢で貯金してたクレジットがあっという間に消し飛ぶ消費量 そろそろ次スレをどうするかなんだけど、ワッチョイなしの↓に合流でいいよね?
【StableDiffusion】画像生成AI質問スレ15
https://mevius.5ch.net/test/read.cgi/cg/1689744226/
(向こうもそろそろ950で、こっちより先に次へ行きそう) 正直言ってワッチョイあろうがなかろうがGC板が機能してないw
好きにしてどうぞw キモヲタがピーピーうるさいNAIリークやお絵かきサイトぶっこぬきが含まれていない(と公的に言われている)モデルを探してんだが、生成物の商用利用とかそんなページしかでてこない。
SDXLの公式モデルを利用するのが今のところ最も素性が安全なのかね。v1.5にはそういうのないのかな。 そんなん気にしてもしかたない
そもそも著作権法でAI学習が合法言うても日本国内で学習(物理的に)した場合に限るし いくら日本が合法って言っても
AIでミッキーマウスのパクリ出したら
ディズニーに訴えられて終了だからな 他人の著作物と類似した画像が出てきたら使わなければいいだけ 生成画像見すぎて完全にポルノジャンキーだわ、脳がぶっ壊れた うーん、絡みがさっぱり上手く行かないからオカズにはなかなかならんなあ
作り続けてるけどツボる絵は出来ない 質問じゃなくて愚痴だけど、XLだとプロンプトがうまく反映されなくて困る もしかして重み指定の書式が1.5と違うってことないよね? >>957
(hoge:1.5)みたいな強調の書式はSD1.5でもSDXLでも変わりません >>957
sdxl_photorealistic_slider_v1あたりだと推奨値が0〜5になっていて、人によっては-7〜7で使っていますね。
他のパラメータも触ってみた感じSD1.xよりも強めに設定するみたいですね。まだ2週間くらいの経験ですが。。。 ワッチョイなしの方は新スレが立った
【StableDiffusion】画像生成AI質問スレ16
https://mevius.5ch.net/test/read.cgi/cg/1692012289/
>>947に書いたように、今いるワッチョイありの11スレは次を立てずに↑へ合流ということで 前は同じワードでも毎回違うイラストが生成されてたのに
今日使ったらまったく同じ絵が生成されて驚いた
AIが手抜きし始めた? >>965(>>951)
単に出しただけなら誰からも怒られない
(例:ミッキーのポスターを複写機で複写する)
頒布陳列を無断でやったら怒られる
(例:複写機で複写したミッキーのポスターを友達に譲る)
この差は重要ぞ Stable DiffusionでLoRAを使った学習をしたく、下記サイトの手順に従ってWindows(ローカル環境)でのインストールを試みているのですがどうにもうまくいきません。
まず引っかかったのが、手順Part1のxformersのインストールで、「ERROR: xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl is not a supported wheel on this platform.」
とういエラーが返されました。
この内容は別のスレで「pip install xformers==0.0.16rc425」で大丈夫?という内容を見た気がしたので、これでいったん先に進みました。
次に引っかかったのは、手順Part2でWeb UIに、Taggerのタブが表示された後、「Batch from directory」のディレクトリ入力部分で、正しいディレクトリを入力しても「input path is not a directory」と返されて進みません。
どなたか解決方法ご存じでしょうか。。。?
taggerのほうに入力したパスは「C:/TrainingData/reference_image」です。バックスラッシュでも試しましたが同じ結果になりました。
参考にしたサイトは下記のとおりです。
手順part1:https://murasan-net.com/index.php/2023/05/23/sd-scripts-install/#index_id5
手順Part2:https://murasan-net.com/index.php/2023/05/25/sd-script-lora-train/#index_id4
よろしくお願いします。 正規表現が間違ってるから存在しないとエラーが出てる >>969
ありがとうございます。
正しくはどのように修正すればよいのか教えていただけないでしょうか。 >>967
使う気もなくて回答するだけのために拡張入れてやってみたけど普通にcmd窓にfound 0 image(s)って出て動いたよ
無茶苦茶なパスだと確かにnot a directory
まさかと思うけど、C:/TrainingData/reference_imageってフォルダをまだ作ってないってことはないよね・・ 初歩的な質問で申し訳ないのですが、太もも鼠径部から局部にかけてのパーツを出力しようとすると何故かいつも尻が描写されてしまいます。
何かいいコマンドはないのでしょうか? 初歩的な質問で申し訳ないのですが、太もも鼠径部から局部にかけてのパーツを出力しようとすると何故かいつも尻が描写されてしまいます。
何かいいコマンドはないのでしょうか? さすがに尻が出ちゃってるprompt書かないと答えようがない
できればchunk付きの画像を、モデルにもよるだろうし >>974
鼠蹊部はgroinなのでプロンプトに入れてみては >>967
確認いただきありがとうございます。
ファルダは確かに作成済みで、パスは「C:/TrainingData/reference_image」を入力しています。
区切り文字はバックスラッシュでも同様です。
別の場所に同じ名前のフォルダを作っても試しましたが、うまくいきませんでした、、、 >>970
フォルダ名やファイル名にメタ文字を使うときはエスケープしないとエラーになる あの欄ってregex対応してるの?
つか自分の環境では「C:/TrainingData/reference_image」で普通に動いてるんだけど・・ ミッキーを複製するよりも
現金を複製した方が罪は軽い PixAIについて質問です
先日Google コラボで自作したLoraモデルをPixAIのモデルマーケットに登録しました
しかし自分で生成する分には問題なく出来るのですが他の人の環境ではうまく機能しないようです
具体的な問題としてはLoraを適用する設定にしているのにトリガーワードが自動的に挿入されないことや生成された画像が全く似ないということが挙げられます
またLoraには4つのタグが付けられていますが検索してもそのうち1つのタグでしか結果が表示されないという現象も起きております
pixaiにもメールを送ったのですがなかなか返信が無く…どなたか解決方法を教えてください 最近になって急に、Tiled Diffusion の生成速度が激遅くなったんですが、同じ症状の方、心当たりのある方いらっしゃいませんでしょうか?
MultiDiffusionをONにしたときだけ、以前の20倍くらい時間がかかってしまいます。
特になにかアップデートをした覚えもありません。最初はモデルやプロンプトを切り替えた影響かと思ったけど戻しても回復しません。
WEBUIをクリーンインストールして最小構成にしたけど戻りません。
WEB-UI ver.1.5.2
python 3.11.4
tourch 2.0.1+cu118
xformers N/A (以前からずっとN/Aです) >>980
でも日本では殺人より偽金作りのが罪が重いんだぜ? >>984
でも偽金づくりしても死刑にならないじゃん? 出力時にGRID表示する際、サイズを変更する方法はありますか?
具体的には横4縦2で表示したいのですが3x3の1余で表示されます。 >>983
ありがとうございます。
ドライバは 2023/07/12 で最新でした。
更新ログを見ると8月23日に「ドライバー管理により、デバイス インスタンス ID PCI\xxxxxx 用のサービス nvlddmkm を追加するプロセスを次の状態で終了しました: 0。」とあってタイミングとしては近いですが、同じログが5月にもあってどうかなーというところ。 >>987
最近のドライバはVRAMが足りない場合に共有メモリ側にデータを振っちゃうんだけど
これが起こると速度が劇的に遅くなるんよ
生成中にタスクマネージャーのGPUでどの程度VRAM使ってるか見てみたら
共有メモリの使用量が増えてるならほぼそれの影響
回避するには古いバージョンに落とすしかないけどその場合はメモリ不足なら生成が止まるので
遅くても生成できる方が良いと考えるか遅いぐらいなら止まってくれと考えるかは人それぞれかな >>987
> ドライバは 2023/07/12 で最新でした。
これが問題なのです・・
> nVidia ドライバーのメモリ管理の変更
https://github.com/vladmandic/automatic/discussions/1285
> 新しい動作は、GPU vram が使い果たされると実際に共有メモリを使用するため、
> 大幅な速度低下 (ゆうに 10 倍) が発生することです。
> OOM の可能性ははるかに低いため、良い面もあります (その点も考慮する必要があります)。
> ただし、パフォーマンスが 10 倍低下するという代償を払って、その可能性はありません。
・・・・
> バージョン 531 が影響を受けていない最後のバージョンのようです
OOMにならない範囲で使ってると気付かないけど
本来OOMになる場合にメインメモリ使用して無理矢理生成を続けて激遅になるとか ああ被った・・次スレどうする?
ここワッチョイありだけど、なしに統合でいいかな? >>988
>>989
レスむっちゃありがとうございます!(T_T)
ほんとに困っていたのでありがたいです。
で、結論から言うと、自己解決しました。というか自然解消しました。
NVidia Controller でディスプレイ設定とか3Dパフォーマンスの設定をこねくり回していたら解消したという感じで、結局何が根本原因だったかはわかりません……。
> 共有メモリ側にデータを振っちゃうんだけど
これが起こると速度が劇的に遅くなるんよ
これは、直接の原因として当たってると思います。
激重だったときは共有メモリの使用量が結構増えていましたが、
解消した後では全然使用していません。
結局、同じ現象に悩んでいる人がいても経験値として弱い結論でしかありませんが、個人的には勉強になりました。 > GPU vram が使い果たされると実際に共有メモリを使用するため
シンプルに、VRAMを使い果たさないような使い方をしていれば問題にならない、ということかもしれませんね。
medvram オプションを追加したりしたのが効いたかのせいもあります
(もともと使っていたオプションなんですけど、再インストール時に外したりしていて……) paperspaceで以下のエラーが出て動かないです
原因わかりますでしょうか?
OSError: /usr/local/lib/python3.10/dist-packages/torchtext/lib/libtorchtext.so: undefined symbol: _ZN2at4_ops10select_int4callERKNS_6TensorElN3c106SymIntE このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 97日 20時間 53分 12秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。