【StableDiffusion】画像生成AI質問スレ3【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ02【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1677430973/ ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
【StableDiffusion】AI画像生成技術15【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1677728397/
【StableDiffusion】AIエロ画像情報交換16【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1678056538/
なんJNVA部★168
https://fate.5ch.net/test/read.cgi/liveuranus/1678402781/ 初心者向けのスレも欲しいと思うの
低レベルすぎて申し訳ない気持ちはある >>6
申し訳ない気持ちなんてゴミ箱に捨てろ
質問スレはある程度の人口を確保しないと機能しないんだからしょうもない理由で分割するもんじゃない >>6
今やどこのスレも初心者だらけだし気にする必要もないと思うよ
そもそも詳しい人だってたかが数ヶ月先にやってただけ
むしろ情報が出揃ってる後発組のほうが色々知ってることもあるだろうし 期間に関わらず、ただぽちーで画像出てくる事に喜んでる人とアルゴリズムに突っ込んでる人では次元が違うと思う あかちゃんloraを使いはじめたのですが
win error ページングファイルが小さすぎるため操作を完了できませと言うのはどう言う事なのでしょうか? >>11
ひとまずエラー文は全て書いたほうがいいよ
何が理由でそのエラーが出てるかは、全文を見ないとわからなかったりするから 画像を生成するときに途中でこの段階で出力してほしいという瞬間があるのですが
ここはどこを変更したらよいのでしょうか?
生成するまでに二段階変化があり、そのあと最終的な画像が生成される状況で、
とめたいのは二段階目です
説明下手で申し訳ないのですがよろしくお願いします
https://i.imgur.com/VEn4lM6.jpg >>14
単純にメインメモリが足りてないか、もしくはcusolver64_11.dll がちゃんと導入されていないか
ひとまず余計なアプリを全て落として再度確認
それでダメなら導入し直し
そもそも今LoRA周りはアプデが重なってて色んなエラーが出てるっぽい >>17
PC内のアプリを消してみます
あかちゃんlora多分動くだから今出来ないのかな >>15
生成を途中で止めるという機能はないけど、ここだ!というところで中断すれば生成途中のまま保存はしてくれる
ちなみに、内部的には連続的に形成されていく画像の途中途中をプレビューとして見せてるだけなので、そううまく目的の絵で止められるかはわからない
ただ、途中で止めることにあまり意味はないしクオリティは下がるので、基本的には別の設定を見直して対応したほうがいいとは思う 途中で止めるなんて、高ステップやアプスケ回してる時に あ、これもういいやつにならんわって判断した時くらいっしょ >>19
わかりました ありがとうございます!
JapaneseDollLikenessとKoreanDollLikenessを入れたあたりから
途中で「めちゃくちゃ好み!」→最終画像はちょっとバタ臭い
みたいな感じになってしまっていたので、Loraの数値から見直してみます
勉強になりました! 俺も同じこと思うことはある
最終化はチェックポイントのモデル影響も大いに受けちゃう(顔の造形が濃くなる)ので、プレビューで良さげな顔になった時に止めたいってことだと思うよ
その瞬間のアクティブウィンドウスクショするしかないわな たった今ここhttps://yuuyuublog.org/stablediffusion_local/#toc2を
参考に導入してみたんだけど起動しない
すでに記事が古かったのかな?色々アップデートしなきゃだめですか? 途中で止めちゃうと再現出来ないからねぇ
まずはプロンプトや設定、サンプラー、step、CFG、等々を詰めるほうが後々良いんじゃないかな
やり始めの頃って『奇跡の1枚』に拘って「これをもっと良くしよう!」って試行錯誤するんだけど、慣れるとガチャでバンバン出せることに気付いて、絵そのものよりもプロンプトや数値のほうを大事にするようになるかも 2.5次元系でエロが得意なオススメモデルありますか? ありがとうございます…!
>>22 さんのような事が言いたかったのですが、書き方が悪くすみません……
chilloutmixを使用しているのでもう少し幼い顔が作りやすいmuseV1_v1の方も試しつつ
>>24 さんがおっしゃるようにプロンプトや設定もいじって試行錯誤しようと思います
ありがとうございました stderr: ERROR: Error [WinError 2] w??t@C??B while executing command git version
ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?
[notice] A new release of pip available: 22.2.1 -> 23.0.1
[notice] To update, run: G:\GAME2\sd.webui\webui\venv\Scripts\python.exe -m pip install --upgrade pip
こんなエラーメッセージなんですけど解決できる人いますか? 新スレに後れを取った。FAQを作っておいたのよ
●FAQ
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。SD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを減らしたい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオンにしていないかチェック。「顔の修復」は実写の顔の修復専用 >>21
sd_save_intermediate_images
てエクステンション入れれば、途中の画像を保存してくれる
解像度は128x128
ここと思う画像を512x512に拡大してi2iとかどうだろう >>23
解凍したフォルダ内のupdate.batを実行してからrun.batを実行するとうまくいくと思います
解凍し直さなくてもたぶん大丈夫 >>29
乙!
あとは『なんか彩度低いし色が薄い』→VAE
かなw >>32
壺は、主として、食糧の貯蔵や水や酒などの飲料の運搬に用いられる器である。
焼き物が多いが、ステンレス鋼製やプラスチック製もある。 一般的に丸い袋状で、
通常は、器体に頸の部分を伴う開口部や注口を持ち、1人で運搬可能な大きさの
器のことを壺と呼ぶ。 >>32
5chになって消えたけど、2chの間はずっとトップページが壺の画像だった
としあきの所で見かけたなら、ほぼ壺=なんUのスレだろうね >>33
>>28が導入したのは公式のワンクリ版だから本来はgitいらないのよ 昨日その公式版を初めて入れたんだけど、そのエラー出てしまって、結局python10.6いれてgitいれてなんかしてできたんだよね。 >>39
updateすれば大丈夫だと思ったけどそれでもダメだった?
ていうか結局pythonもgitも入れたのならむしろ通常版を入れたほうがいい
あのワンクリ版て通常版と構造違うから何かと不便になるよ update.batファイル見たけど
updateしてないからだね。
今、動いてるからこのままいくよ。
問題を認識したら直すよ
今は、本業がおろそかになってるから updateとgit両方、ついでにとしあきのRuntimeErrorの解決法もやったけどほぼ同じエラーですね
以下全文
venv "G:\GAME2\sd.webui\webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: <none>
Installing gfpgan
Traceback (most recent call last):
File "G:\GAME2\sd.webui\webui\launch.py", line 360, in <module>
prepare_environment()
File "G:\GAME2\sd.webui\webui\launch.py", line 275, in prepare_environment
run_pip(f"install {gfpgan_package}", "gfpgan")
File "G:\GAME2\sd.webui\webui\launch.py", line 137, in run_pip
return run(f'"{python}" -m pip {args} --prefer-binary{index_url_line}', desc=f"Installing {desc}", errdesc=f"Couldn't install {desc}")
File "G:\GAME2\sd.webui\webui\launch.py", line 105, in run
raise RuntimeError(message)
RuntimeError: Couldn't install gfpgan.
Command: "G:\GAME2\sd.webui\webui\venv\Scripts\python.exe" -m pip install git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379 --prefer-binary
Error code: 1
stdout: Collecting git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379
Cloning https://github.com/TencentARC/GFPGAN.git (to revision 8d2447a2d918f8eba5a4a01463fd48e45126a379) to c:\users\y\appdata\local\temp\pip-req-build-8l3xhmhx
stderr: ERROR: Error [WinError 2] w??t@C??B while executing command git version
ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?
続行するには何かキーを押してください . . .
Cドライブに入れると解決するケースってありますか? >>42
もしかして一度pythonとか入れた?
とにかくパス関係でおかしくなっちゃってるね
もう一度最初から導入し直してみるか、特にこだわりが無ければワンクリ版ではなく通常版の導入をオススメするよ
もしくは、同じようなのであればスタンドアローン版を試してみるか
https://note.com/uunin/n/n715256399038 python入れましたよ
3.10.06入れろって書いてあったんで
これがまずかった??
最初からやるとしてpythonアンスコしたほうがいいですかね? 自分のグラボが1660Tiなんでこの記事がバッチリだとおもって
この通りにやったんですよね もう取り返しつかないかな
https://yuuyuublog.org/stablediffusion_local/#toc2 >>44
そのブログの解説ダメだわ
なんかいらん手順踏んでるし
どうせpython入れたのならgitも入れてテンプレのwiki見ながら普通に導入したほうがいい
別段特殊なことしなくても普通に導入後に起動オプション付けるだけで1660で使えるから >>21
すっげーわかる
完成品見たら「なんでやねん!!」ってなる aom3てchillout入ってるから2.5次元出しやすそ 四つん這い、正面じゃなくて背面で出したいんだけど
実写系だとどのモデルでも全然出ないな
せめておしり突き出しポーズでもいいから背面で出したい 2.5次元とか言う発言者によって匙加減が変わる概念止めろ
CG感ある程度でほぼリアルと変わらなかったり写実要素があるだけでほぼ二次絵だったり幅広すぎる
ちなGoogle様が考える2.5次元はこれや
https://i.imgur.com/GBFIo94.jpg >>50
backでガチャれば出ないことはないけど
いっそLoRAに頼ったほうが早いかも
基本的に背面は圧倒的に学習が足りてないから >>51
草
たしかにそれは2.5次元と呼ばれてるが多分そうじゃねぇw
確かにみんな主観で変わるからなぁ
質問時はmajinaiあたりから参考画像引っ張ってきて欲しいとは思う 猫とか女豹のポーズって描いた方がよかったかな
エロなら18禁板で聞いてるよ
全年齢板のloraがない citivaiのサンプルと同じようにプロンプト、スケール、シードすべて同じにしても同じ人物にしかならず、同じ絵になりません。
構図や光の具合などもサンプルとそっくりなものを作るにはどうしてら良いのでしょうか? >>56
それは全て同じになっていないからだと思う
同じにするには、ホントに全ての数値をまったく同じにする必要がある
もちろん使用モデルのハッシュ値も含めて全て >>34
いいですね
>29>34のほかにFAQに入れておくとよさそうなことがあったらご提案ください>みなさん それなりのスペックのPCは買う予定なんだけどポケットWiFiでも問題ない?
シンプルWiFiっての使ってるんだけど セットアップ中にギガDLするし
追加機能やモデルなんかもギガだし
ギガの方がよくね? >>61
導入もその後もダウンロード量めちゃ多いよ
あまり遅いとストレス溜まるかも 最大2.7Gbpsでオンラインゲームもできるって記載されてたけどどうなんだろ
固定回線無理だからポケットWiFiでどうにかしたい
1つのDLに1時間かかるとかだったら嫌だな まあモデルデータを片っ端にダウンロードしていく使い方をしない限りは、、
苦労するのは最初のセットアップぐらいじゃね。
モバイルWi-Fiの場合は月単位か3日単位かで通信量の上限がある場合もあるが、
不満に感じたらそこで改めて上位の海鮮契約を行えばよろし。 高齢者向けの「美味しい海の幸定期購入」プランみたいだなw スマホでスピードテストしたら今の時間でも142Mbps強出たから、
うちはもし固定回線解約するとしたら楽天のテザリングかな 通信制限無いしオンラインゲームできるくらいだから大丈夫だといいな
固定回線使えないのは痛い だいぶわかってきた
モデルで画風が決まってしまう、ということで合ってる? >>56
そもそもGPUの型番が違うだけでも多少は変化するらしいから
それらの値だけじゃ完全に一致はせんのじゃないかね >>69
画風も含めたおおまかな得意分野の違いかな
なので、モデルだけで画風が決まってしまうわけでもない
アッサリ塗りのエロが得意、濃いイラスト系が得意、実写系が得意、バランス型、一部の性癖特化、キャラ特化、みたいな感じでモデルごとに得意分野が違う
イラストモデルでもrealisticを強めにかけると実写っぽい塗りになったりもするし、その逆も出来たりもする
そのうえで、プロンプトで画風そのものを指定したりもできるし
なので、いろんなモデルを試してみるといいよ
ひとつのモデルだけでも、プロンプトやCLIP、サンプラーの違いだけでも生成結果が大きく変わったりするから、自分の究極を求め続けると泥沼だけど 学習の質問なんですが、例えば悟空を覚えさせると
ツンツン頭もセットで覚えますよね
じゃあクリリン頭の悟空を覚えさせれば、生成時の髪の毛の自由度は上がるんでしょうか
ブルマヘアーの悟空を作りたい、とかの時に
それともツンツン頭セットでも特に気にしなくても大丈夫なんでしょうか >>73
それは悟空を学習する時に髪の毛をセットで考えるか、それとも髪の毛を別で考えるかで変わる
悟空という名前の、黒い髪の毛がツンツンとがった人っていうタグで学習すれば、悟空要素に髪の毛が入らないかもしれない
まぁだいぶ特徴的な髪型なのでどうなるかわわからないけど >>72
画風という表現は語弊があったかも
モデルってデータベース的なものではないの?
例えば「old car」と指定したとして、データベース内にある車の画像が全部最近の車だったら、T型フォードみたいな形の車は絶対に出てこず、汚れて錆びて凹んだ最近の車になってしまう、と理解したんだけど >>74
ははあなるホモ!
そうか、そう言えばタグ付けるんですもんね
それを考えると特に気にせず覚えさせても大丈夫そうですね >>69
civitai.comへ行ってユーザー登録済ませて
右側のフィルタで「Model types」を「Checkpoint」だけにして
左側のソートで「Highest Rated」とか「Most Liked」とかいろいろ並べ替えて
世界で人気のモデル(=Checkpoint)がどんなものか見てみるだけで
アニメ調、リアル調、イラスト調など、いろんな種類があることがわかる
百聞は一見に如かず >>75
そうだね、むしろそれに近いかもしれない
学習してないものは、どう頑張ってもでない
ただ、そこまではっきりと分かれてないこともある
追加学習でold carばかり学習した結果、逆に薄汚れた車が苦手になってしまってたりもするし、両方バランス良く出せるモデルもある
なので実際はパキっと分かれてるというよりは、グラデーションのように違うイメージかな >>75
それはその通り
ただ、基本的に人気のモデルは100%オリジナルじゃなく
SD.xのようなベースモデルがあってそれに追加学習させたり
他のモデルとマージさせたりしたものだから
モデルによって「アニメ調が得意」「リアル調が得意」「日本人好みの顔が出やすい」
といった特徴はあるものの、「ちょっと画風が違うが似たような絵」になることもかなり多い
>>78
だとしたらもうちょっと別の質問の仕方(何故モデルによって絵柄が違うのかその理屈を
知りたい、とか)をしてくれないと困るわ
「完全な初心者です」的なことをキミが言ってるから>>77のように説明したわけでさ >>84
そりゃもう環境が用意出来るならぶっちぎりでローカルです
NovelAI以外だとcolabとかに自分で環境作ることになるのだけど、その場合サーバー上に画像を保存することになるので内容によってはBANされる危険もある
ローカルでは環境さえ作ってしまえばオフラインでも出来るので安心安全
ただしそれなりの機材が必要なのでお金はかかります >>85
gpuガッツリ使うみたいだけど
ゲームやるのと変わらん?
ryzen5 3600のRadeon RX 5700 XT メモリ64 >>86
5700XTなら辛うじてローカルかな
ただラデオンには最適化されてないから、不意にコケたり解決方法が見つからない事も多々あるかと思うラデ選んでるならわかるよね
5700XTは処分して3060の12GBあたりにしといたほうが後々楽かもね Radeonさんもう動くようになってたんか
日々進化するな >>86
残念だけど基本的にRadeonでは厳しい
動くには動くけど、単に無理矢理動かしているだけなのでGeforceとは比べ物にならないぐらい遅い
RadeonにはAI学習に関する機能が無いのでな そもそも導入自体は無料なんだしとりあえず気になったならやってみりゃいいんじゃねえの
ダメならダメでいいじゃないか etr_Odysseyのチェックポイントの入手先分かる方いたら教えてください… lora-block-weightについて詳しく説明されてるページってないですかね?
ReadmeやWiki見てもさっぱり意味がわからない
識別子ってなんぞや… としあきwikiをみて導入したんですが
このようなエラーが出てしまいます
何が原因なんでしょうかhttp://imgur.com/callDcp.jpg >>91
多分メモリ不足だな
学習モデルの容量を小さいものに変えて、少しでもメモリ消費を抑えたら動くかもしれない AIリソリューションが時代になってんのにコピペもできん人間がまだおるんか、終わってんな webuiインストールしたんだが起動オプションって使えないの? colabで初loraしてみたんですが、-000005とファイル名が追加されたsafetensorsファイルも出来ましたがこれはなんでしょう?
同じファイルサイズなので予備みたいなものですかね
あと実写系だとVAE無い方が良いとかなんかコツはありますか
基本は各人、沼で色々やってみるしか無い世界ですかね >>104
モデルとバエの組み合わせを全てやってみる
それが一番の近道 >>70
GPUとSDのバージョンやろね。そもそもバッチ生成毎に違うの出るからね。 >>25
試した中ではduchaitensupercuteとneverendingdreamが良かった >>104
多分、5エポック毎に保存する設定にしているのだと思うけど、そのファイル使えば
そのエポックでの学習状況が確認できる。学習回数増やすと -000010 -000015 と増えていくよ。
今日、ファイル更新したらそこの設定するの忘れてて60エポック分全部出力してたわw >>108
あーなるほどサンクス
ならある程度増やしておいた方が丁度良い頃合いを見つけられるのかな
生成だけでも沼なのに、学習の方が遥かに沼感あるな‥w このPCなら一生スペックには困らないだろと思って2年前に購入したマイPC、AIイラストの前に無事撃沈 >>102
>29
>>103
使えます
「webui」フォルダにある「webui-user.bat」の「set COMMANDLINE_ARGS=」に起動オプションを書く
set COMMANDLINE_ARGS=--xformers
など
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
>>109
起動オプションに「--medvram」と書く。それでもだめなら「--lowvram」
がんばれ! ぐちゃぐちゃ絵の量産にうんざりしてきた
これさ、一生懸命プロンプト工夫してどうにかこうにか整った絵ができたとしてもさ、結局それってモデルに入ってる原画的なものそのものに近いってことじゃないの?
そんな疑惑が頭もたげてきた
それと、人物画の整った作例見ると大抵まっすぐ立ってるだけだよね
動きのあるポーズとかは難しいのかな >>115
簡単に可愛い子がドアップで出てくるモデルは、要するにそういうのばかり学習してるので自由度が低い
自由度とクオリティは基本的にトレードオフ checkpointやVAE含めて情報を保存する方法ってある?
画像メタ情報だと含まれない。。。。 >>120
設定>UI設定
モデルの名称を生成情報に追加にチェック 学習させない限り誰かが作ったモデルに色んなポーズ取らせるだけって感じだな 着衣巨乳を量産したくて爆乳にするんだけど必ず谷間が出る服になる
絶対に谷間を出さない呪文ってありませんか >>122
ありがと
vaeは無理なのね
そんな数ないしいいか >>115
ポーズもある程度ならプロンプト指定できるよ
でも確実にやりたいならcontrolnetを導入しな
自由度爆上がり >>123
そこまで幅は狭くない
画風や細かな調整も出来るし、モデルも色々混ぜ合わせて好みのモデルも簡単に作れるよ
追加学習すれば好きなキャラも出せるし >>128
control net やると顔のクオリティ落ちるのはなぜ? >>117
GPUがなんだかわからないけど、とりあえず画像を出せたんだ、よかったよかった
あとは4090を買うだけだ! >>130
『モデルが学習してないポーズ』を無理に取らせると崩れてしまうことはある
身体はわりと強引に生成してくれるんだけど、顔は正面顔ばかりで学習してるので『振り向き顔』『逆さま顔』『見上げ・見下ろし』『シャフ度』なんかはどのモデルも苦手なので崩れやすい
あと、顔が遠ざかるほど崩れる
これは単純に遠景顔の学習が足りてないから >>124
思いついたこと
簡単にできそうな順に
・cleavageをネガティブプロンプトに入れる
・公式学習モデルは谷間服が出にくい気がする(根拠はないけど)ので、胸の部分だけ公式学習モデルでimg2imgする
・谷間がない服の画像を集めて学習させて「谷間が出ない服LoRA」を作る >>133
なるほど、で>89でもあると…
お金がたまるまで、エロを出さずにWebサービスで練習しとくといいかもね
Google ColabだとRX5700よりはずっと早いし >>135
novelはやってたけど有料だったのがなー やっと休みやぞ
paperspaceってエロ絵学習につかったらぬっころされるかなあ ぬっころされるまではぬっころされないよとしか言えん
無敵の人ならともかく守るべき生活がある人間は
目隠ししたまま崖っぷちを歩くゲームはしない >>98
メモリ増設とかなんかないんですか?
サイトに書いてあるモデル使ってるのに >>139
指定通りにしていたとしても、PC環境が整っていなかったら動くものも動かない
エラーの内容は、メインメモリ不足時に使用される仮想メモリが確保出来ない、というWindowsのエラー
単純にメインメモリが足りてないか、仮想メモリとして使うドライブの空き容量が無い(おそらくCドライブ)等も考えられる
Windows10 仮想メモリ(ページファイル)を正しく設定してパソコンを最適化する
https://pc-kaizen.com/win10-virtual-memory
あと、エラーの相談時は自身の環境も細かく書くと良いかも
書き方 例)
OS:Windows 10
CPU:intel?
メモリ:16GB
グラボ:GeforceRTX3060
ストレージ:SSD 1TB ダウンロードしてきたloraって上手く反映させるまでに時間(試行回数)必要だったりしますか?
いつも導入当初はクソだなーって思って失望するんですが、数百枚生成しているうちに「結構良いかも」レベルになっていて、どうして??って思っています。 昔好きだったAV女優を今見ると、うわっなんでこんなの好きだったんだろ?ってなるのの逆の現象だな ひとつ気になってるんだが
Loraの呼び出しってlora+トリガーワードが正しいのよね?
例えば
<lora:gatimuti:1>gatimuti
という記述式
でも
<lora:gatimuti:1>
だけでも出て来るんだけど
どちらが正しいの? >>141
Cドライブどれだけあればいいんです?
ゲーム多く入ってます
3060ti
Windows10
メモリ8
HDD2Tかな 教えてください。
NMKDのDreamBoothで追加学習してるんですが、
学習率、ステップ同じで、画像少な目と、画像多めで学習すると、
画像少な目だと、稀にドンピシャの顔が生成されるのですが、
画像多めだと、よく似た人が永遠出てきます。
全部とは言いませんが、ドンピシャ率を上げるにはどの様な学習方法が良いですか?
リアル系画像です。
あと、NMKDのDreamBoothで作成したモデルデータは、automatic1111でも使えますか?
Lora?で、再学習した方が、ドンピシャ率あげれますか?
よろしくお願いします! >>146
圧倒的にメモリが足りてない
むしろメインメモリ8GBでゲーム動くんだ…
さすがにメモリの増設をオススメします
最低でも16GB、出来れば32GBへ >>145
呼び出しタグが設定されているものもあれば、無しでも動くものもあるので、どちらも正しい
呼び出しタグに関してはダウンロード先の説明をちゃんと読むしかないので、面倒だけどテキストでローカルに保存しておいたほうがいい GUI版のLoraですが、training parametersのnetwark weightsの部分に前回完成したLoraを入れて新しいtrainingを実行した場合、
それは「前回の結果に追加で学習する」ことになる、であってますか? >>146
普通に動くで、多少足を引っ張るかもしれん部分は見えるが、スペック厨に負けずにまずやってみる事だ
VRAM4GBでもwebuiで拡張使えばFHDくらい出せる時代だし3060あるならある程度の学習もできるしな >>148
ゲームによるけどhoi4なら最小設定でも動くよ
あと幸運の大家様みたいなのは余裕のよっちゃん >>148
ゲームによるけどhoi4なら最小設定でも動くよ
あと幸運の大家様みたいなのは余裕のよっちゃん こう言うのでスペック厨とか言い出す奴ってみんなが自動車で来てるのに一人だけ自転車で来てる感じが否めないんだよなぁ… >>151
元々はLoRA学習でメモリが足りないというwindowsのエラーが出たっていう相談の流れだよ
割り込むなら話の流れを全部読んだ上でにしてくれ メモリ8GBでエラー出てんだから増やせっていうのは当然だろ
8GBじゃモデルデータもほとんどが読み込めないしそりゃエラー出まくるわ
質問板は居着いた初心者がさらに初心者にアドバイスを始めるからタチが悪いわ そもそもメインメモリ8Gって健康で文化的な最低限度以下じゃん キャラ再現したいんだけどマイナーキャラってどうやって生成すればいいの
詳しく解説してるサイトか動画とかない? 推奨スペックをテンプレに入れてくれよ
そんな省吾ない質問スレ崩壊するで CPU は4コア8スレッド以上
メモリーは16 GB 以上
SSD
RTX 306012 GB 以上 >>157
嘘やろAIするまで8Gで困ったこと無かったぞ
学習中でも11Gくらいまでしか使われてないし このスレに来てちょうど2週間だけど
なんか急にけんかっぽい人が増えたね
前はマウントとる人なんていなかったのに 「動く」と「快適に動く」は山のように大きな隔たりがあるんやで >>162
RAM
2GB→てめえのPCラズパイ以下か?
4GB→人道上の深刻な危機。著しい人権侵害。
8GB→基本的人権が得られる最低限、健康で文化的かって言われるとすこし怪しい
16GB→健康で文化的な最低限度以上のPC
32GB→ゲームとか3D CG、動画編集に困らない
64GB→かなり余裕がある
128GB→8K編集とか以外ならなんでもできそう
1.5TB→何に使うんや 別になんでもいいけどメモリ不足のエラーが出てるんだからメモリ増設が一番楽で確実な対策だ
8Gは既に言われてる通りAI回すなら相当少ないので自力で対策できる人じゃないならスペック上げるのが吉 i76700
gtx560ti
SSD500gb
8g
動きませんか? >>168
ローカルは諦めてcolabなりで遊んでくれ >>170
スマホでもハイエンドじゃなきゃないな
この場合は家電量販店の吊るしのパソコンレベル メモリー8 GB 男とか
HDD 男とか
GTX 1050男のせいでスレが進まへん 20fpsでも気温34℃でもTNモニターの視野角でもメモリ8GBでも問題ないって言ってしまう奴いるからな
大勢の意見に耳を傾けた方がいい webui使用時において、メインメモリはモデルデータやLoRAファイルの読み込み時に大量に消費するので実はかなり重要
通常学習モデルは2~7GBぐらいなので、メモリが少ない人は容量の少ないモデルを使用したり、他のアプリケーションを終了させるなどの工夫が必要となる
搭載メモリが8GBだとWindowsそのものを動かすメモリも含めるだとさすがにメモリ不足に陥りやすい
最低限16GBは欲しいところ
ちなみに各所の報告ではモデルのマージなんかを始めると16GBでも不便を感じるという意見は多い
…推奨スペックや質問テンプレも必要になりそうだね >>158
マイナーキャラは学習内容に入っていないことが多いので、自分で追加学習させるしかないかも
『kohya版LoRA キャラ再現』について調べてみることをオススメする メインメモリ8GBってインテル第6世代ぐらいかな
その辺のマシンだとそんくらいだった
DDR4の最初期か >>176
出てきたけどわかりづらいな
日本語で解説動画出るまで頑張っていじってみる >>148
ここで相談するのは違うだろうけど
どこのメーカーのメモリがいいとかなんかあるんですか?調べ方あれば教えてほしい >>151
ありがとう確実に足は引っ張ってるからメモリ変えます モデルの並び順をファイル名変えずに変更する方法ってある?調べても意外と出てこない >>179
確かにスレチだな
ただ、マザーボードによって対応メモリが違うし、相性があるからかならず交換保証があるものにしたほうがいいぞ >>178
正直LoRAはかなり入りづらいし敷居高い
一応簡単導入とかはあるけど、結局ガチでやるとなると数値設定とか素材集めとか結構めんどいからなぁ なんかパラメータ膨大でよくわかんないまま使って
過学習せずまあ9割ぐらい再現できたからよしの奴が大半だろLoraて >>183
pixivで海外っぽい人が素材少ないキャラ完全再現してて羨ましかったわ
YouTubeで解説動画出してほしいレベル webuiもLoRAもniel氏のやつ使ってるからgitもpythonもまったくわからないままでやれてる 全くわからないけどとりあえず使えてる
素材画像を用意編集するのが多分一番大変だと思うわ loraで再現したいキャラほどだいたい資料ないからなw 古いjpg素材で無理やりLora作ったけど案の定ボケボケだったよ… 学習させたいキャラの画像が1枚しかない上に後ろに別の生物がいたりエフェクト多かったりで編集が大変なんだけど有識者は何のツールで作業してるんだ
編集ガチ勢がいたら助けてほしい ControlNet入れたらメモリ不足になった
5諭吉のグラボで2060.12gと3060.8g
どっちがいい? >>194
今新規で買うのに、アーキティクチャが前世代の2060を買うのは安物買いの銭失い
流れ的にすぐに切り捨てられる
3060はvram12版があるのでそっちを買うよろし >>194
2000番台は地雷でしょ
3060 12GB頑張ろうぜ 3060.12gも同じぐらいの値段で買えるのね
ありがとう 512*512と512*768だとどっちが扱いやすいの? Loraを下の方のadditional networkで使ってるんですが🎴の方にも入れてプロンプトを出すべきですか?
トリガーが<○○○>←こういうやつだけ入れるんでしょうか? cstaber死んだらしいのでおすすめのロリモデルおすすめおしえてください >>200
それやると二重に適用されてガビガビになるのでAdditionalNetworksか🎴かどちらか片方で >>204
ありがとうございます見つけられませんでした 1111のi2iで画像に精液を追加する手順を教えてください 二次はかなり再現できるようになったけど、リアルがミリも再現できない
出来てる方どんな学習でやってるんですか? AI に学習させるのもいいが
自身が学習しないと
目的は達成させられないぞ >>193
フォトショで消したり切り抜いたりする
人物だけ切り抜いて、複製して大きさ変えたりして数を稼ぐ
このあたりはぐぐればいくらでもてでくるよ
なんjなんか便利なAI部のまとめとか見ればいい 初歩的な質問で誠に申し訳ありません
Civitai Helperって指定のフォルダが
sd.webui\webui\models\Lora
になってますが
実際使っているフォルダって
sd.webui\webui\extensions\sd-webui-additional-networks\models\Lora
なので使えない状態です
設定方法あるとは思うのですがどーすれば 猫耳生やすためにanimal earとかcat earとかのプロンプト入れるとイラストに猫が出てきちゃって肝心のキャラに猫耳生えないんだけどいい方法ありませんか?
ネガティブプロンプトにcatとanimalいれても駄目でした😭 >>213
最新のloconでも使ってない限りは🎴でいけるんだし普通にmodelsのloraフォルダにLoRA入れては? >>213
全部のLoRAを models\LoRA に移動して
setting→AdditionalNetworkの1行目
>Extra paths to scan for LoRA models, comma-separated. Paths containing commas must be enclosed in double quotes. In the path
の欄に models\LoRA と書いてApply settings→Reload UI
AdditionalNetworksが見るLoRAフォルダを models\LoRA にする設定ね 簡易版Loraを導入して
必要な情報を書き込み、いざ学習…としたらこのようなエラーメッセージが出てくるのですが何が原因でしょうか
http://imgur.com/U2tbKLa.jpg >>214
cat earsにすると猫耳が生えて来ると思いますよ >>217
KANIって何を学習しようとしてたのか >>215
civitaiに上がってるの使えなくなるのがあるのもアレなので現行で行きたいっス
>>216
ありがとございます
コピペしたら「 \ 」 が 「 / 」の向きが反対になってるのに置き換えられて入力できないス… すいません
別に\になってなくっても適用できてたんですね
ありがとうございました 自分で学習データ用意するときってフォトショとかで加工し他方がいい? >>218
>>220
ありがとうございます!
無事生えました😭 epoch10でLoraを作成したらファイルが10個できたのですが違いはありますか? >>227
そりゃもちろん
デフォルトだと学習途中のファイルを1epocづつ保存する設定になってるから、10epoc回せば学習練度順に10個出来る
最終版で「過学習だな」と思ったら、いくつか番号を戻ればいい NovelAI的な、普通のエロ漫画・アニメみたいな絵柄が好きなんですが
ローカルでそれに近いモデルは無いでしょうか?
見かけるものはどれもハイカラすぎて >>229
プロンプトに漫画風、アニメ風のような文言を入れるのは? >>30
>>96
おふた方ともありがとうございます!やってみます! >>217
このエラーメッセージは、train_network.pyスクリプトに渡された引数が正しくないことを示しています。エラーメッセージには、3つの引数が表示されていますが、2番目の引数に誤字があるように見えます。 "KANI\LORA_I y_Training_Scripts"のように、途中でスペースが挿入されています。
この問題を解決するには、2番目の引数を修正し、KANI\LORA_Iy_Training_Scriptsのように正しいフォルダ名を指定してください。また、引数にスペースが含まれている場合は、引用符で囲む必要がある場合があります。
また、スタックトレースに表示されている情報を確認することをお勧めします。これにより、エラーが発生した場所や詳細が分かる場合があります。 1111のLunch.pyにデバッグオプションつけると
生成中のもやっとした画像とプログレスバーが出ない
気がつくのに1週間かかった >>233
tanpopo_mixが気になるけどリンク切れ
再up待つしかないですかね PC知識皆無だから本当難しい
YouTubeで導入方法は見て理解できたけど1から丁寧に解説してるチャンネル1つしかなくて辛い
ブログとかで初心者でもわかる解説してるとこないかな? 何を解説して欲しいのやら分からん
テンプレのwiki位見てから言ってんだろうか >>236
まだ一般化されてない未知の分野を物好きが金と時間を引き換えに遊びながら試行錯誤してるってしろものなんで、
自力でなんとかできないやつは踏み込まないほうがいいかもよ
少なくとも、一般化されてないといいつつめちゃくちゃ親切にはなってるんだから
必要なのはその親切さを引っ張ってきて集める能力だけ
ほとんどのコマンドや機能の導入はクリックとコピペで済むほどになってるんだし
それすらわからないんじゃたぶん先に進むたびに行き詰まる
この分野は1から教えてもらうよりもちょっとしたコツに気づくことができるかどうか、教えてもらい易い質問の仕方にできるかどうか そもそも絵出したいならNovelAIで十分だしなぁ 昔Linuxのwebサーバーを作った程度の知識だけど、
1111入れてみて気が付いたのはエラーんときに吐くアラートが凄い親切
英語の平文ところだけ読めてそれをググるだけで7割がた解決する気がする >>241
それ読めん奴いっぱいおるよ
Twitterでも定期的に話題になる 公式のissueと5chwikiととしあきwikiが役に立つ感じ
blogとかは陳腐化早いので検索に日付指定入れるといいよ >>236
やりたい事が人それぞれ違うので、丁寧に解説される方が混乱する気がする
一から、の何が一なのかって話になるから
論文や歴史から読んで無いと話が分からん事もあるし
webサービスで満足出来ないなら、その時点で何をやりたいのか明確なはずなので
局所的に調べた方が良いよ
もはや1番詳しい奴なんて居ない世界だから 説明ブログといっておきながら他人のブログのリンクを貼り付けて
ゲーミングPCの広告ばかり貼り付けてる奴もいるからな
まぁ本来のWebLogの使い方なんだろうけど >>236
今の段階でなにが難しいのかがわからんてやつがここの大半だと思うぞ
まずはどこまで進んだがここからできねえんだってスクショ付きで貼るところからスタートしろ >>234
そんなことしなくてもsettingの中にあるぞ >>250
--gradio-debug
このオプションつけて起動するとsettingsのチェックが効かない もやっとした画像を表示したくないんじゃなくて
もやっとした画像が出なくなった原因が分からなかったってことか >>241
わざわざ超初心者だらけの質問板に来てLinuxうんぬん言いながら「オレには簡単だったぜ」的なコメントするアホってかなり恥ずかしいからやめたほうがいいぞ なんとなく思った素朴な疑問なんだけど
AMDのAPU載せたマザーにRTX3060挿してAIお絵描きしようと思って
RTX3060を1枚通販したトコなんですが
APUでモニターへ出力して、RTX3060を2枚挿しにして
処理マシマシで、とか出来るんでしょうか? 英語を翻訳するのに初心者かどうかは関係ないしなぁ。 つーてもpythonやgitが何かわかってなければ翻訳しても意味がわからんからな >>254
hugで直接tanpopo_mix検索しても出てこない? NAIリークのときも著作権でレスバになってたけどアカンモデルは〇ポにあたるんだろうか
〇ポを大量に飲ませてるわけで圧縮ファイルと変わらないし なんJ系の解説を見ているとえせ関西弁にイラっとします
どうすればいいですか? >>262
学習モデルは画像をまとめた圧縮ファイルとはまったく違うものだよ
問題は生成された画像の使い方 >>263
あれのせいで頭の中でモデルの評価をしてるときは猛虎弁になってしまう >>263
関西弁ではなくなんJ用の猛虎弁だと思って閲覧してください >>256
今のところ処理能力アップというか2枚を別々に使うことはできると思う
(automatic1111なら起動オプションつけて別ポートでそれぞれのグラボに振るとかの形でね)
あとメインメモリも32GB程度は欲しいかも 大きな肩当て付けてるビキニアーマーを生成したいんだけど良いプロンプトやLoRAなど知りませんか?
西洋甲冑の白くて丸い肩の部分が理想だけどなかなかうまくいかなくて majinAIでmodel nameがundefined、model未記載になってるのを真似る方法はありますか?
一応hashでググったりはしてみたけど引っかからなくて…
いい感じの絵だから真似してみようと思っても、たまに上記のようなことが合って環境を揃えられない。 >>267
レスd
32GB!! てことはシステムやらAPU分やらへの割当て分も加味して…
64GB飼ってきます。 ごめ、文字化けした。
>>267
レスどもでした。 >>268
甲冑のあの部分は「 pauldron (もしくは powldron)」って名前なので、この語句を入れてみては。
どう解釈されて出力されるかはわからんけど。 >>272
ありがとう、さっきその名称にたどり着いてやってみました。
甲冑を連想するせいか他の部分の鎧も着けちゃうけど露出部分を細かく指定してもう少しやってみます。 >>269
pngを保存してローカルのa1111とかテキストエディタなりでpng情報見ればモデル名見れることもある >>269
ハッシュで検索しても何も出なかったのなら、個人がマージしたモデルの可能性が高い
似たような出力のモデルを探してみるしかないね 今までずっと「人物、動物、物、環境」みたいなプロンプトでぐちゃぐちゃ奇形画像オンリーだったけど、試しにうんとシンプルに「人物」だけにしてみたら元画像そのまんまみたいなのが出てきたぞ
やっぱりこれさ、整った絵が出た≒元画像に近づいたってことじゃねえの?
だとするとかなりガッカリなんだが 整っていようがいまいが元画像まんまな時はまんま、でも末端の人間が判別することは出来ないので気にしても仕方ない
https://zenn.dev/shinya7y/articles/6442b1350418ef 新調したPCにWebUIを1クリ使わずに手動インストールした所、
venv "C:\Users\~~~l\Documents\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: <none>
エクスプローラ・コマンドプロンプトからbatファイルを実行するとCommit hashと言うのが noneになりエラー、
エクスプローラから管理者権限で実行すると一瞬で窓が閉じ何も見えず、
管理者権限で開いたコマンドプロンプトからbatファイルを実行すると Commit hashに文字列が入り
動くのですが、この状態でエクスプローラから実行出来る様にするにはどうしたら良いのでしょうか
助けてエスパー! >>277
いやむちゃくちゃ気になるよ
致命的な問題だよ >>278
pythonにログ書き出し用のモジュールがあるよ >>278
ちゃんとgit cloneしてない
直下に.gitフォルダがあるか確認
git logでcommit履歴見れるか確認 >>279
前コメントもそうだけど現段階のAI生成に君は向いてない
大人しくやめたほうがいいと思うよ >>282
なんか棘があるなあw
なにはともあれ、そう言うということは、やっぱりAI画像というものは俺が危惧した通りのものだと認めたということだね なんか昔のVPN質問スレみたいな雰囲気が漂ってきてるな >>276
まあそうだろうね
リアル系の顔なんかモデルデータの中の人まんまだろうね
CFGスケール下げ推奨な時点で
俺も少し冷静になったよ >>283
モデルは何を使ったの?
シンプルなプロンプトで出る整った絵は学習元の画像に近い、という仮説が正しいかも検証したいところだね
(まずそんなことはないと使っていて思うけど)
気になるなら公開するとか仕事で使うとかの前に、一応画像検索で「事前に調べましたよ」のアリバイを作っておくくらいかねえ >>278
まずUsers以下には入れるな、windowsのセキュリティ絡みで面倒な事になる
他に\windowsや\programfiles~も同様
まずCドラ直下にフォルダを作れ >>286
今んとこグラボ無しのCPU運用で超スローペースでやってるんで試したばかりだけど、realisticVisionV13でいわゆる「学習」に使った素材写真そのまんまみたいの出てきた
大枚はたいていいグラボ買おうかと思ってたけど、この件でちょっとブレーキかかったわ としあきwikiなんてものがあったのか教えてくれた人ありがとう
pixivとかで高画質だったり塗りが他と違って綺麗なのがあるんだけど
あれはどうやってるの?PCのスペックとか関係ある? >>289
君の思い込みと事実は違うのだけど、別に無理にやる必要もないし買わないのならそれでいいんじゃない? >>289
逆に聞きたいんだけど、シンプルなプロンプトでどういうのが出てくれば満足するんだ? >>291
モデルの数もロラの数もプロンプトの数も
ほぼ無限だから答えられへんよ
PC が良くなれば設定を詰め込めて
画質は良くなる >>291
ハイレゾやアップスケールなのは確実
でも単に一発出しではなく外部ツール使ったりwebUIのダウンスケールも駆使したりして手が込んでるものもある
研究と実践をより多くできているものが他者より先に行ける
そもそもガチャに耐える根性も必須だし >>289
このモデルって学習に使った素材って公表されてる?
マージしたモデルは公開されてたけど
まずは学習に使ったモデルと出力された画像とプロンプトを貼ってくれ 1030ではフルHDにもできないと知ってびっくりしたね >>297
フォトショとかクリスタが代表
カタヌキも、webUIに組み込めるけど外部のまま使ってるやつも多いらしい
あとlama cleanerもあると便利かね 例えばプロンプトに girl とだけ書いて出てきたものは、学習した画像そのままなのかと言われれば、基本的にそれはありえず、覚えたgirlの平均値を出しているに過ぎない
グラビア画像のようなものばかり学習したモデルは、当然ながらありきたりなグラビアのような画像を生成する
ただ、モナリザとプロンプトに書いたら皆も知っているあのモナリザが出てしまう
それはモナリザという人物をあの絵画でしか学んでいないから
だからといってお絵描きAIが単なるツギハギコピーツールなのかと言えばそれは違う
何十数億という画像情報をたった2~3GB内に複製して持つことが事実上不可能なことからもわかるように、あくまでも概念を学習しているというだけ
その点はある意味人間の記憶の仕方に近いとも言える
もしもソックリ画像を出してしまったとしても、それは人間側の指示が悪かっただけ
ありきたりなものも出せれば幅広いアレンジも出来る、それが可能なツールというだけ >>300
フォトショとかの事だったのね
生成された画像の解像度って上げるには何かDLして設定する必要ある?
pixiv見てると解像度凄い綺麗なのあったけど >>291
スペックは関係あるがそれが全てではない
100万を超えるカメラを持っていても撮る技術や構図なども備わっていないとクオリティが上がらないのと似てる
一つの手法として高画質化することによりAIは人手と違って詳細に書き込むことができるがスペックがいる
例えばリアル系は質感が全てで
https://pbs.twimg.com/media/FpEHgY1aMAAmHv1?format=jpg&name=4096x4096
がどうやってこの質感が出せるか分かってからスタートラインに立ててると言える
いろんな裏技あるけどまずは高画質のpromptをパクって経験を積むしかないな
(高画質は誰も設定を公開してない&ハイスペックの画質は低スペックには出せない) 画像aiをコラ扱いで非難してる奴って本気でそう思い込んでるのかai叩きたくて言ってるだけのかよくわからん
実際コラじゃないんだからいくらコラと言い張ってもコラと認められることはないし
コラじゃないと言っても問題は色々あるんだから責めたいなら他の責め方したらいいのにな >>301
VRAMが不足してるんじゃね?ブラウとかのハードウェアアクセラレーターOFFとか動画視聴とか全部落としてやり直し
8bitAdamを切ったりとかもやってみたら >>301
これはさっぱり分からんね
難しい非常に難しい
これを解決するように10万円ぐらい必要だわ >>302
うん、言ってることはよくわかる
確かに「girl」で出てきた画像は「モナリザ」でもなければ「山田花子」でもなく、それら素材となった人物全員を平均した人物「GIRL」なのかもしれないけど、その「GIRL」を作ったのはモデル作者ってこと 結局本当の創造をしたいなら、自分でモデル作るしかないね 逆にあえてそのまんまを楽しんでもいいけどね
しずかちゃんとのび太が絡むみたいなw >>309
プロデューサーか、それに指示を出したディレクターか、最後に手を動かしたクリエイターか
で言えば、我々はディレクターの立場に近い
それで不満なら全て自分でやればいいというだけ
オレはディレクターで十分
立派なクリエイターが手に入ったのでね としあきwiki見ながら学習試してみたんだけどメモリエラー出てしまった。3070程度で学習はどうあがいても無理?それともどこかの設定下げたりすれば出来るもんですか? いうても歴史に名を残すような超天才以外
誰かの何かをパクってそれを自分の創造だといってるんだから大差ない
パクるってのがいやなら参考にする見て学んでるだな
まあつまりは気にすんなってことだ 絡ませるのは難しいか
途端にぐちゃるから結局元画像付近に収束してしまう 誰からも影響を受けずなにひとつ模倣もしてないことがそ本当の創造なのだとしたら、それはこの世に一人二人いるかいないかってレベルじゃないかな
まぁ志がお高いことで >>301
8GBのVRAMのうち
PyTorchで7GB以上予約されてる
気がする >>301
学習中のエラーならバッチ下げればいいと思う >>306
>>318
VRAMは増やす事は出来るんですか? >>320
初めての起動でそのエラーだったらどっかのコンフィグ記述が間違ってる
途中で出たのならおそらくメモリの解放に失敗してる
PyTorch VRAM 解放
で検索すると詳しいページ出てくるから参考にしてみて >>316
言っておくが元画像なんてものは基本的に出ないぞ
もう少しやってみればそれもわかるとは思うが、たいして触ってもいないし詳しく調べてもいないのに知ったふうなこと言ってるのはさすがに滑稽 >>319
Train batch sizeってのですか?1とかでいいんですか? 昨日から始めた初心者です。
画像を生成するところまでは一通りできたのですが生成される画像の画質が悪いです。
生成中は綺麗だけどボヤけた状態で表示され、生成が終わると一気に粗い画像が表示されます。
色々プロンプト入れてみましたが結果は変わりませんでした。
解決方法ご存じの方いましたら教えていただけると助かります。 >>325
CFG Scaleを下げ過ぎると粗い画像になるし
Hires.fixでDenoising strengthが低すぎるとノイズだらけになるけど
どんな設定で生成してるの? >>326
CFG Scaleは7になってます。
Hires.fixのDenoising strengthは0.7です。 >>325
どんな絵が出したいか、どんなモデルを使ってるかで話は変わる
まずは人の生成した画像を真似してみるといいかも
majinaiとかで好みの絵を探して、プロンプトや設定その他を丸パクリする
で、そこから自分好みに手直ししていけばいい >>328
ありがとうございます。
majinaiで探して設定とプロンプトまるごとペーストしたら嘘みたいに高画質になりました。
設定はそこまで変わってないのでプロンプトがほんとに重要なんですね。 再現したいキャラのイラストが探しても5枚くらいしかないんだけど
これ再現難しい? web uiつこうてるけどモデルの追加って配布されてるsafetensorsファイルだけ落とせば良いの? >>317
んなこと百も承知だよ
>>323
>>309を読め >>325
Step, CFG, Denoisingなどの数値は結果に関わってくるからよくテストしたりする
使用してるモデルもわからないからスクショでも貼ったらみんな答えやすいと思う >>331
基本的にはそう
落としてフォルダに入れて再起動するだけ
ただ、safetensorsってなってるファイルが全てモデルファイルってわけではないのでダウンロード先をよく読んだほうがいい
あと、SD2系モデルの場合は設定ファイルもダウンロードして同じフォルダに入れる必要がある majinaiにあるmodel nameがundefinedって何使ってるんだろ >>330
極端に素材が少ない場合、下手に画質や雰囲気、服装や表情が違うチグハグな画像で学習するぐらいなら、同じ方向性の数枚をサイズ変更で水増ししたほうが成功率が上がることもある
もちろんキャラだけ切り抜いて白背景に変える等の下準備は入念にしたほうがいいけど >>338
背景消して服装とか同じにしたほうがいいのね
ありがとう >>333
そうトゲトゲすんなよ
どうしてそうやってすぐ喧嘩腰になる?
AI画像ってこういうものだよねって話をしてるだけなのに、何かちょっとでも否定的な意見があれば自分が否定されたかのように感じて感情的になってしまう弱すぎる自我を自覚しなよ >>340
服装が特徴的でそれ込みのキャラだったら服装は統一したほうがいいかも
初音ミクみたいなキャラとか 俺的には結構がっかりしたけど、まだまだ始まったばかりの技術だから近い将来にはもっといいものになるだろうね
今でも限界を分かったうえで楽しもうと思えば楽しめることは否定しないし >>341
CPU運用でどれほどのことが試せるかはだいたい想像がつく
そんだけ浅いくせに「ようはこうだよね」とかトンチンカンなこと言い出すから叩かれてるんだぞ
もうちょっと勉強してこい >>341
都合の悪いツッコミは無視しておいてよく言うわ >>343
いい加減うっとおしい
もう特に質問はないんだろ?
それ以上の雑談は技術板にでも行ってやってくれ
頼むから 初めて学習してるんだけどステップ数っていくつぐらいがおすすめ?
デフォでやったら10万で終わらん。。。 >>249が教えてくれてる導入で、「パスが通っていない」状態って、後々重要になったりしません? 話変わるけど、プロンプトの件
NMKDの場合、単語と単語の間が空白だろうがカンマだろうがピリオドだろうが全部アンダーバーに変換されてフォルダ名として記録されるんだけど、1111も同じ? >343
質問スレへの最初の書き込み>276が実は問題を解決したいわけじゃなかったのならそりゃ文句も言われるよ
>290>292>293>298にはだんまりで、自分に都合のいい書き込みにだけレスして見下して>341のように煽ってくるし
>309の「素材の人物全員を平均したものが『GIRL』のプロンプトで出てくる」という理解は間違っているんだけど謙虚に聞くでもない
雑談スレは今はこのへんなのかな?
AIイラスト 愚痴、アンチ、賛美スレ part35
https://mevius.5ch.net/test/read.cgi/illustrator/1678602257/ >>344
だったら「それはCPU運用のせいだようんぬんかんぬん」と言えばいいじゃん
どうして喧嘩腰になるの? 冷静に話しようぜ >>325
Hires.fixをONにすると画像生成の終盤で
その効果が一気に加わるので、たぶんそれが原因
Hires.fixをONにしてもHires stepsをデフォルトの0のままにしていると
選んだUpscalerによってはノイズだらけの画像になる
Hires stepsを最低でも15~20に
Denoising strengthを0.25~0.7くらいの幅で
自分が選んだUpscalerでの最適な値の組み合わせを
探ってみるといいよ >>283
棘があるように感じたなら謝る
でもSDも現段階ではまだまだだし、君が想像してるもの以下だと思うからまだ手を出すには早いって言いたかった >>350
おいおい待てよ
最初に嫌味言われたのはこっちだよ
ここは割と難しい話題を扱うスレだから5ちゃんの中でも比較的優秀な人間がいるっぽいと思ってたけど、やっぱいつもの5ちゃんか? >>354
いいってことよ
まともな人がいて安心した
すでに書いたけど、限界を分かったうえで楽しむことはできると思ってるよ >>347
画像数10〜20でバッチ1換算なら二次絵で3000、リアルは3万弱くらいだけど
素材の品質や数によって変わると思うよ >>357
ありがと
ピカチューだから3000でよかったのか。。。。
パラメータの参考値みたいなのってどこかにあったりしますか? この人↓が言ってるLoRA学習時のCaptionタグの選別方法がイミフだったんだがやってみてなんとなくわかった、かも。
https://dolls.tokyo/about-kohyas_gui-setup/
>『それら「キャラらしさ」を表す全てのタグを、”すべてのタグファイル”から手作業で消します。残すんじゃなくて消す。』
自動キャプションで付く座ってるとか走ってるとか背景とか関するタグはキャラ学習にどうでもいい情報だから消せ
ってことだよな?効果はまだよくわからんけども >>347
LoRAで1キャラ画像100枚で学習なら総ステップ数6000くらいで十分だよ
フォルダ名につける繰り返しの数は5~10ぐらいにして最終的に6000ステップやって最後から2~3エポックの出力したやつを比較する
とりあえず10万は以上だから即停止でおk >>359
逆!
キャラに関係ないものは残す
Black hair, blue eyesとかキャラの特徴に関係するものがあるならそれを消す
絶対にアクセサリーつけてるキャラならそういう類のものも消す >>359
キャラを学習したいならキャラの特徴だけを消してAIにキャラを推測させて学習する
ポーズとか背景とか他の覚えなくても良いものはそのままでいい
絶対に欠かせない特徴を消してAIに推測させるんだよ >>362 >>363
なんだ逆かぁ、理解できたありがとう
うーん勝手な思い込みって怖いね グラフィックドライバって更新しても1111使えなくなるなんて事は無いよね? >>348
何か緊急でパッチをあてなきゃいけないってなった時とか、独自のバッチファイルを書く必要が出てくるかもしれない
困ったらあとからpythonとgit入れればいいだけよ ハニセレとかで構図スクショして応用できたりする?
聞いた事ないからやっぱ無理なのかな >>366
今のところドライバ周りでのトラブルは全然聞かないね
ゲーム関係で問題がないのなら最新版(使用してるグラボにとって)を入れておけば間違いはないはず >>368
むしろ出来まくる
controlnetで調べてみるといいよ
うまく使えば面白い活用が出来るんじゃないかな 3人並ばせて左から赤髪黒髪金髪とか
そういう個別に指定をすることはできますか?
もっと具体的に左はjapanesedolllikeで真ん中はKoreanで右がChinaのloraを使うとか >>371
自分だったら一発で出すことにこだわらず、一人ずつimg2imgで処理するかなあ 金曜にwebuiインストールしてからリアル系生成して遊んでる
上の方でも出てたけど、生成後より生成途中のぼやけたサムネのほうがよさげに見えるんだよな……
これってぼやけてるから脳が補完してるだけなんだろうか >>368
背景はなるべくシンプルにしたほうがいいのと肌が黒かったら認識しにくい >>374
まあその気持ちは分かる
くっきりしすぎると嘘くさくなるからな
VAEの効き具合とか調整出来れば良いのだが 512x512で作ったのはパッと見できがよく見えるけど
アップスケーリングすると違和感すごくなる >>379
いいなー。
私は4日目なのに今日中にそこまでたどり着けるかどうか。 ほんの数ヶ月前に>>379の書き込みを見てたら
「フーン右の写真から左のCGが自動作成されるんだスゴいね」
って感想だったのに
…逆なんだよなぁ、未来きちゃったなぁ >>381
ごめん嘘、2枚目は6日目ぐらいだったわ
背景Map探すのと実写感増そうとすると衣装を余計な変換しようとするから苦労した。
Don't change the details of clothes が通じた?ちな通知表の英語は2 >>373
構図は指定せずにその3人の絡みを大量に作りたいんですが
i2iで3人3枚読み込ませてとか出きる? SDの方は大丈夫だろうけどモデルファイルの方はいつ配布禁止になるか解らんから集めといた方がいいような気がする loraで有名人の学習データ作ったんですが、これが驚くほど似ない!
色々設定いじってポートレートで1枚だけ本人出てきたので
学習データ自体は上手くいってると思うんですが
少し呪文変えるとそっくりさんか超そっくりさん止まり
みなさん設定見直しながら1枚1枚生成してるんですか?
なにかコツとかあるんでしょうか 実写系こんなできるんだな
俺やったときとんでもねえ不細工ばっかり量産されて
電気の無駄だってあきらめたのに >>393
Majinaiでbasilやchilloutとか実写系モデルに限定して検索すると写真系画像ばかり出てくるよ
そっから設定やプロンプトをコピーしたり自分好みに調整するだけでも十分楽しめるんじゃないかな
https://majinai.art/index.php?&model=bbf07e3a1c,4de704d8,4eb81f6e23,b6ed865817,58841f67,7234b76e42,3a17d0deff,95afa0d9ea,fc2511737a,53da46c440,9c59842129,0d27c62ffa&mode=all&order=rnd&safety=normal,mild,sexually,graphic >>393
俺も一番最初に触った時はよく分からないままインスタグラマー?のモデルいれてバケモン産み出す嵌めになってたな
今はcivitaiで「コレやりたい!」ってのを見つけてからの方が挫折少なくて済むとも 最近ローカル版を使用し始めたのですが
novelaiに比べると、I2Iで全然違う絵になることが非常に多いんですが何が原因と考えられるでしょうか >>393
chillout + アニメLoRAでコスプレ写真作るのもオヌヌメ >>393
>>394
>>397
レスありがとう。ハマりそうでこえーけど
ちょっと興味出たわ。軽く見たけど
なんか凄いことになってんね。桃源郷あったわ >>391
「ハニーセレクト2リビドー」という聖人向けエロゲに付属のスタジオ機能
ゲーム本編とは関係なく自由にキャラ配置して色んなポーズや構図が作れる機能です モデルダウンロードし過ぎて容量一杯になっちゃったんだけど、SSDじゃなくてHDDに入れたら生成速度とか下がったりします? >>401
生成はほぼ変わらないけど、モデルの読み込みとか切り替えがクッソ遅くなる novelAIと同様のモデルというのは存在するんでしょうか?
ローカルで同じのを使いたいのですが… >>402
マジすかーモデルの切り替えSSDでも遅いですもんね。せめて生成画像の保存先だけでもHDDに出来ないか調べてみます。 Loraなんとか出来たっぽいけど汚い絵とか
絵になってない塗りたくった物がでてくる
なんでなの? >>406
lookがAIで簡単に作れるようになれば良いのにね
以外と直ぐに出てきそうな気もするけど もしかして手とか足だけinpaintで修正したい時って人体に強いモデルに切り替えたりしたほうがいいんでしょうか?手が全然上手く再生成できない >>404
ある
NovelAIサービス開始3日後に、違法にリークされて流出してる
そもそもそのNovelAIのモデルこそが今あるイラスト系モデル群の始祖
novelAI ハローアスカ で検索すれば環境を完コピすルやり方が出てくるよ このグラボでも解像度高いの生成できる?
NVIDIA GeForce RTX 3060 12GB GDDR6 (HDMI x1,DisplayPort x3) >>406
絵からモデルくらい作れるようになってくれないと2.0が出ても引っ越さないだろうなぁ いつかはこのクオリティで動画にできたりするのかなw >>411
どのぐらいを高解像度と呼んでいるかはわからないが、hiresとか使えば2~4kぐらいいける なんかほんとにあぶないとこまできてそうだな
そのうちお偉い方さまの画像がおもちゃにされて真偽の区別もつかないような遊ばれ方して規制されんだろうな モデルの置き場所って、別のドライブとかに簡単に変更出来ますか?
保存フォルダは設定から変更出来るけど
まさか生成物よりモデルの方が容量圧迫するとは思わなかった >>416
既に洪水のデマ画像で一悶着あったしね
それを超える勢いで実用化されれば問題ないと思うけど
ネットみたいに >>415
iPadで見て綺麗に見れるくらいかな
PC買い換えるつもりだけど高性能グラボは20万もするし予算オーバーで無理だ >>418
シンボリックリンクを使うといいよー
コマンドプロンプトを【管理者で】起動して、今のc:¥sd.webui¥webui¥modelsフォルダをたとえばdドライブのルートに移動したとするじゃない
mklink /d c:¥sd.webui¥webui¥models d:¥models
とするとcドライブのwebuiフォルダにd:¥modelsへ行けるシンボリックリンクができるんよ
ファイルのシンボリックリンクを作るときは/dはいらないからね pixivに上がってるイラストのプロンプトってわからないのかな
凄い好みのイラスト生成してるからマジで知りたい >>420
統計とったわけじゃないが、今現在のお絵描きAI界隈だと3060vram12GB使用者が一番多いと思うよ
なによりコスパが一番いいからね >>384
いや、今でもそれが出来るならSDより凄いと思う >>421
おおっ、サクッと出来ました詳細マジありがとうございます!
これで環境と分けられて安心です プロンプト一発とも限らないからねpixivは。手描きで描いて仕上げにAIで少し盛るとかもAI生成で投稿しないと警告なしBAN対象だから。 その人は全てtxt2imgって言ってるけど凄い好みの絵柄と塗りだからどうやってるのか本当知りたい
Fanboxとかやってないのが意外だった ずっと幅512、高さ768で画像作ってて正常だったんだけど
今日幅と高さをそれぞれ2倍の幅1024、高さ1536とか解像度上げたら
頭が2つとか体が3体連続してるようなクリーチャーばかり描画されるようになった
解像度の変更って何か制限あるの?
https://i.imgur.com/yWfwWFi.png
https://i.imgur.com/zuTZJrW.png モデルの切り替えってもっと高速になったりしない?
あの時間が一番ムダだと思うわ >>428
個人的な感想だけど
一定のサイズで書こうとして、解像度が大きいキャンバスだと余白になる部分がおかしくなるような感じがする sd_civitai_extentionは何するやつなんです? >>428
プロンプトによるが学習元が512x512で、そのサイズで人を描こうとするから、それ以上のサイズは奇形しやすい
そのための機能が半年近く前からあるから、Hires.fixにチェック入れて512x512の2倍にすると幸せになれると思う >>301
もう見てないか解決してるかわからないけど、
そのエラーはインストールしたストレージの
仮想メモリを増やすと解決する可能性があるよ。
物理メモリと仮想メモリが合計80Gくらいに
調整すれば動く可能性が高い。
まあ物理メモリを増設すれば解決するかも知れんけど。 あと連投するけど、pytorchのダウンロードと
インストール時にCUDAのバージョン確認させてたと
思うけど、バージョン合ってないと
同じようなエラー出て起動しないよ。
少なくともCUDA最新バージョンはまだ対応してないからCUDAからインストールし直しかも。 >>433-434
そういえば、俺どっちとも引っかかったわ
今は普通に動いてるけど
>>432
HiresFixは512x512で作って、768x1024に手動設定して、0.5-0.6くらいでanime6Gってヤツで伸ばしてる
もっと伸ばすときは0.5とかに落とすんだけどボケてくるんだよね、うーん 詳しい人はどのモデルで生成してるのかイラスト見ただけでわかるの? >>430>>432
なるほど学習元のサイズにも影響受けちゃうのね
納得したありがとー 宜保愛子全盛期時代の、手が一本多いとか指がめちゃくちゃ多いとか言う心霊写真は
AI画像のオーパーツだったんじゃね LoRAって複数組み合わせて使うことできます?
ポーズと画風とか >>442
ポーズのloraと画風loraの組み合わせはよくやるけど、両方効いてはいるよ sd_scriptもここで良いのかな
loraのrankとalphaってどういう意味?
どれくらいの設定値がいいの? シンボリックリンクってやつ超便利だったんだけど
2つの場所から1つのものを参照しにはいけないのか
ぐぬぬぬ >>447
>>448
ジャンクション
ありがとう!やってみる! 学習が難しすぎて(俺の知能&グラボ性能)色んな方法試したけど学習が走るとこまでたどり着けなかった。
脳死で指示通りやってるから動画や解説とちょっと違う状態になるとワケワカラン。
もう少し時間が経てば簡単になるのかな? >>450
毎日のように変化しているから
ちょっと前の説明の表示が違う 解説サイトは100まで出来てるものの使い方とか
80まで出来てるものを100にする流れぐらいしか無いから
0から80にする流れが分からない感じ 生成した画像の選別でなにかよいツールってありますか? 生成した画像に横からダメ出しや点数付けて「欲しい絵」を理解させる的な機能あるといいんだけどな
50枚の駄作ができるの待ってるより最後の数枚でもいい感じになった方が有益だと思うの loraのバッチ今まで何となく2くらいでやってたんですが、
もしかして上げると精度も上がりますか?
あと、結局正則はいらないんですかね?
特殊な場合以外いらないって言われてたり、
ある方が上手くいくって言われてたり >>455
バッチ増やすと速度が上がる、けどvram消費量も増える
vramが少ない場合はむしろ遅くなる
LoRAはDreamBooth方式(元画像と正則化画像、キャプションを使う方法)とfine tuning方式(元画像とキャプションを使う方法)がある
たぶんほとんどの人は後者でやってる >>456
グラボ2台さして
1台は生成1台は検出って使い方ができそう >>458
ありがとうございます!
作られる学習データ自体は大して影響無いって事ですね
とりあえず2でエラーも無いのでそのままにしときます
正則は学習させるキャラによって試すしか無さそうな感じですね
透明pngでやってたんですが、無し試してみます
難しいなー こういう記事はあった
AI生成画像の美しさをAIに評価させてみた|IT navi|note
https://note.com/it_navi/n/n92f94bfb20fb
>>454
これはいい、これはダメと分類したのを学習させるとして、具体的にどこがいい/悪いかを説明しなくても
こちらの好みを適切に学習できるようになったらすごいね AIで判定って、
単に五体満足か指はちゃんと五本か左右間違えて無いか
を判定するって事?
判定出来るなら画像作る時点で判定しろと すみません、最近調べ始めたばかりでわからなくて教えていただきたいのですが
どこかで画像生成AIは有能なコード?ソース?が非公開になっちゃったから〜みたいなレスを見かけたんですが、これは何の事を指してるんでしょうか? >>463
最初にNovelAIって言う有能なAIが居た、小説生成の活字向けのヤツね
それは商用でもとから非公開だったのがハッキングか何かで流出して
小説とか認識したり書いたりするアルゴリズムを応用し、今の画像生成にも派生した
つまり「novelai とは」とか「novelai 流出」で調べると色々わかるぞ ところで1111でローカル環境作ってガッツリ使ってるんだけど
google colabと両刀の人って居る?
出先で何となく思いついたプロンプト試したいときやcolab環境へのアドバイスに役立つかなって思ったんだけど >>463
それだけじゃわからんけど、人気のあるcheckpointが色々な問題で消えたり復活したりしている話のことかな >>466
あぁ、あるあるだ。
chilloutmixなんか正にソレ >>465
colabでしかやってない
なんか今朝までやたらと重たかった あっちでは誰かが「これは児ポだ」と言ったら消されるからな
誰が言ったかとか根拠は必要ない >>450
ニコニコでloraで検索してみな
緑のキャラの動画で紹介されてる方法が最も簡単
学習画像選んでクリックするだけだから絶対に誰でも出来る 自動ポルノ作れるモデルが問題というだけでSDは問題ない >>464
ぜんぜんチガウよ!
もっと調べたら色々わかるぞ そうそう、chilloutmixでNSFW loliみたいなことさえしなければ
Stable Diffusionの本家のモデルで当たり障りないプロンプトで1枚ごとに確認して消せば十分でしょ pixivでゆんゆんって人が生成してるような解像度良くて綺麗な塗り表現ってどうやって出力してるんだろ
どんなモデル使ったらあんな感じになるのかわかる人いる? >>464
>>466
ありがとう!
そこら辺調べてみる
話の流れとしては
グラボだかゲーミングPCだかのスレだったんだけどAIイラストの話になって
「遅いよ 有能なのが非公開になったから」みたいな書き込みに「自分はDLしといたから良かった」みたいなレスがついて
名前が出ないまま話が終わったので気になったんです >>475
完全にそれchilloutmixだわw
完成版がアップ先変えて再公開されてるぞ
ただ著作権がグレーなんで落とすだけ落としといた方が良いな、有能モデルは大体そうだから >>475
あーそれはchilloutmixの話だね
簡単に可愛い娘を出せる人気のモデルだけど、商用利用が云々で一時期だけ入手不可になった
まあ今後もっと有能なモデルはたくさん出てくると思うけど、規制規制でディストピア化する可能性もあるし、持っておいたほうがいいかもね >>476
>>477
ありがとうございます…!
思い返せば萌え系エ○系AIイラストビジネスについての話も混ざっていた様な気もするし簡単に可愛い子が〜みたいなキーワードもあったと思うのでそれだと思います
もっと根幹の部分かと思って焦っていたのでスッキリしました、本当にありがとうございます
もちろん可愛い娘も生成したいので入手してきます >>475
代替が一杯出てるから好きなの使えばいい
今は全権移譲でCivitAIにあるけど、一部Clip壊れたままだった気がするから直してから使ってな(huggingのほうはほとんど盛大に壊れてるし)
商用利用やめて!も、リアル系の芸能人コピー機のベースにされて、ビビッて後から付け足したもので
Bajilやフォトリアル系のただのMixが勝手に配布ルール変えてんじゃねーよ!
AIの発展阻害だろうがっ中国人なめんな、勝手に消すんじゃねーよ!って叩かれただけ 芸能人のLoRaを有償で公開してるのは
事務所に報告しとけばいいのかね >>482
金取るとか余程しにたいのか
雑アイコラですら捕まるというのに 二次元の似てるのと違ってだいたい許されないからなあ
危険が危なすぎる 質問です
この罵倒系の人のIDが出ていないのは、なにか事情があるのでしょうか? >>478
米大学が発表した研究成果で、画像AIをオーバーライドできるバックドアによって
特定の画像やキーワードを生成しようとした場合に妨害する技術がある
それを画像AIに実装することを義務化しようという運動がある >>486
その人はすごくかわいそうな人生を送っているとてもかわいそうな虫ケラのような人なのでそっとしといてあげてね
はい、次の質問どうぞ! モデルはOrangeMixs使って一緒にLoraのモデルって使える? >>490
LoRAがどのモデルを学習モデルに使ったかによるので、LoRA次第ではある
とはいえ、Orangemixならイラスト系のLoRAはそれなりに効くと思う >>491
ありがとう
自分で学習させたLoraにもOrangeMixsは効くんだろうか 基本的にどのモデルでもLoraの効果は有効だけど、場合によっては体が崩れやすくなったりするらしい >>492
ベースモデル何で作った?
そのベースモデルに対しては効くけど他はお祈り
ベースモデル忘れた?
stirlingで「sd_model」で検索して >>496
それが最終版
作者が権利問題や著作権絡みの問題に巻き込まれるの嫌ってcivitaiに譲渡した 動画のキャプチャだとブレてるから生成画像もブレてる
かといって自由度を変えると元の構図も変わる
助けてください >>482
そいつを潰すのが目的ならそれで正解だけど
事務所にとっては有償でも無償でも駆逐対象だから
それは有名人LORAの規制を早める行動だと思う >>498
元のぶれた画像をシャープ加工してControlnetを使うとかは 本スレで誤爆してしまって恥ずかしいのですが改めて
元絵をざっと彩色してそれをリアルに色づけしてくれる機能はありますか? 質問
stable-diffusion-webui+novelaileakでエロ絵が生成できないんだけど、何が原因か分かる人いますか?
nsfwとかsexとかも全く機能しなくて、nippleと入力することで辛うじて乳輪らしきものが描かれるようになった
局部表現無しのシチュも避けられてるらしくて、床オナとかも生成できない たぶんSFWのモデル使ってる
ファイル名が紛らわしいから要再確認 >>503
NAI(NovelAIの略称)にはエロモデル(NSFW)と非エロモデル(SFW)が存在するのだ >>504
本当にありがとう
よくよく見たらanimefullじゃなくてanimesfwって書いてあった
相談しなかったら一生気付けなかったなこりゃ >>501
このあたりの解説がとてもわかりやすい
ttps://kurokumasoft.com/2023/03/10/colorize-drawings-with-controlnet/
ttps://iosworld.blog.2nt.com/blog-entry-559.html AUTOMATIC1111版をcolabで動かしてたんけど、さっきからUIのURL開いても504 Gateway Time-outになる
コードも変えてないのになんでだろう
ファイアウォールとかセキュリティソフト関係ないよね? 初音ミクのloraってありませんか?
雪ミクとか2015ミクとか千本桜とか普通じゃないのしか見つかりません MUSE_v1ってライセンス緩そうに見えるけど
生成した絵を売ってもいいのかな >>508
まさしくこういうのを探していました
きのうからはじめたばかりでまだ手探りですが助かります!
ありがとうございました >>510
ノーマルのミクはキャラ名だけで安定して出ることが知られているのでloraの需要がないんだと思う 初心者でも簡単かつ無料で画像から呪文を検出してくれるツールとかないんですかね AI絵なら1111のpnginfoでプロンプト他でるよ >>509
昨日というか今朝から重い気がする
たぶん接続してるサーバーの問題だと思うんだが
colab リージョン
で調べてもらうとどこのサーバー使ってるか調べるコマンド書いてるブログが出てくる >>513
やっぱりそういうことですかぁ…
強調したかったけどしょうがない、ありがとうございます >>516
ありがとう
ちょっと色々試してみてるけど
AUTOMATIC1111版じゃなくてcamenduruってやつを入れたら動いたわ
ただこれ古いバージョンなのかLoraが使えない
重いせいなのかAUTOMATIC1111なのかよくわからんなー LoHAやった人どんな感じ?LoLAと比べていい?
まだフォルダ名でLoRA作るバージョンのkohya sd_scripts guiなんだけど導入したほうがいいかな majinai初めて使ったけどアニメキャラ打っても出てこないのか... 今日初めて、stable diffusion使って感動してるんだけどさ。。。
openpose-ediotorっていう拡張機能をインストールしたはいいものの
openpose editorのタブがでてこないのよね。。。
インストール済欄にはちゃんとインストールされてるもののタブが出てこない。。
エロい人対策おしえて。。。 >>522
GUI閉じてサーバも終了して再起動
あとは裏でsd_scriptを実行していた時似た現象があった >>523
返信サンクス。
PC再起動かけてもタブがでてこないんだよね。。。。
Cドライブで作成しないかったのが駄目だったのだろうか。。。 >>522の方と同じだわ
openpose editorのタブ出ない
自分は3週間ぐらい前から始めてここまで特に躓くところはなかったんだけど 自己解決したけどこっそりここに書いておく
コンドーム腰蓑は「prompt condombelt」で検索したら見つかった >>514
『画像から自動でタグ(プロンプト)を生成』という機能拡張やツールはある
WD1.4 tagger で検索 >>219
名前はとりあえず適当につけたので気にしない方向で
>>232
スペースがよくないんですかね?
そのあたり意識してやり直してみます tanpopo_mix どこにもない泣
誰かポスケテ http://imgur.com/VTpjMsD.jpg
色々修正して、やっと学習できたかな?と思ったら
画像のような画面になって止まったんですがこれは学習失敗したんでしょうか?
outputフォルダにも学習データはありません Stable-Duffusion-webuiのインストールをgitというのを使ってHDDでやってしまって
モデル読み込みが早くなると言われているSSDの方に移動したいんだけど
どうやったらいいのだろう? >>533
まるごとコピー
それで動かなかったらvenvだけ消して再導入 >>534
ありがとう
丸ごとコピーなんて乱暴な方法でいけるものなのか
なんかパスとかなんとか色々ゴチャゴチャしてそうなイメージだったので >>522
メインのControlNetを入れてないて可能性は流石に無いか
入れて無くてもEditor入れればタブは出そうだけど これから学習し始める場合、Loraで良いの?
Loraはもうこれだけ普及したから鉄板で、新しい鉄板が定まってもLoraはLoraで続くのかな? openpose editor
githubのページのissues#72に書かれていた
main.pyの77 行目に余分な括弧がある
hasattr.pyの前の ( を削除
をやったらタブ出ました >>532
AIによる回答になりますが、、
このエラーは、学習が失敗したことを示しています。エラーメッセージには、多くの情報が含まれているため、問題の特定に役立つことがあります。
このエラーの最後にある「non-zero exit status 1」というフレーズは、train_network.pyスクリプトの実行に失敗したことを示しています。多くの原因が考えられますが、エラーメッセージから推測するに、メモリに関する問題が発生している可能性があります。
エラーメッセージには、「CUDA out of memory」というフレーズが含まれています。これは、GPUメモリが不足していることを示しています。学習中に使用されるGPUメモリが、PyTorchがGPUメモリを予約する方法に関連して、不足していることが原因かもしれません。エラーメッセージに「Try setting max_split_size_mb to avoid fragmentation」という指示があるため、これを試すことができます。
また、エラーメッセージには、「--train_batch_size=6」という引数が含まれています。バッチサイズが小さすぎる場合、学習が失敗する可能性があります。これは、GPUメモリが不足している場合に特に顕著です。バッチサイズを増やすことを試すことができます。
最後に、学習が失敗した理由を特定するために、出力ログを調べることが重要です。ログファイルには、学習中に発生した問題の詳細な説明が含まれています。ログファイルを確認して、より詳細な情報を取得することをお勧めします。 最近lora学習を始めたのですが、上手くいきません...(´・ω・`)
学習させて出来上がったモデル(safetensors)に中身が入っていない(?)みたいで、webuiで適用させてみても全然変化しません。
同じプロンプトで学習させたloraモデルを有り/無しで試してもどちらも同じイラストが出力される感じです。
理由が分かる方いますでしょうか...?
ちゃんと変化の度合い(?)は1にしているのは確認しています。
学習の設定は100枚ほどを10step、10epochで回しています。学習元のモデルはAbyssorangemix2_sfw.ckptです。
よろしければ教えて頂きたいですm(_ _)m Loraでキャラ再現したいんだけどサイトごとに説明が違ってて正解がわからん
どこ見ればいい? >>539
すげえ!昨日酒飲みながら「タブ消えてんだけどおおお!!クソがあああ!!」って発狂してたww >>542
そもそもの学習手順や適用手順があっているのかどうか >>541
なおPC Watchにも記事が出てさらにご新規さんが増える模様
ttps://pc.watch.impress.co.jp/docs/column/nishikawa/1485422.html いま導入も簡単になったし破綻も少なくなったし規制も緩いし
始めるにはいいタイミングだと思う RTX3060 VRAM12GB バッチサイズ4でLoRA_Easy_Training_Scripts使って見たけど、3000stepで1時間越えるんだが 数十分で学習終わるっていうのはどういうやりかた何でしょうか? 新しく組んだPCに導入してるんだけど
NAIの配置についてアドバイス欲しい
将来的にはlinuxとwindowsのデュアルブートにしたいんだが
その場合それぞれのOSのシステムドライブに1111の本体を入れておいて
モデルは別ドライブに入れておいて参照すればシステムドライブの容量はそんなに要らないんかな?
とりあえず1TのSSDなんでまずはCドライブを200GBぐらいで切ろうと思っているんだが >>552
モデル、lora、VAE、保存はシンボリックリンクで別ドライブにしてるけど、本体は全く容量食ってないから問題ないかと サンプリング回数って参照する元絵のデータの数のことでいいのかな?
いま40~60にしてるけど40で充分かな? novelaidiffusionってnovelaiの事か?なんかNovelaiの別のモードか何かあるの? >>552
まぁ、そこに至るまでにさ、検証環境で異なるOSをインストールして、ローカルでファイル受け渡しをしてみる事だ >>556
なんだろ普通のmodelがマージされたようにしか見えないが
指は安定して出てるのかなあ >>536
すまんな
その人じゃない人で公開してた人がいたの見つけたんだけどそっちも削除されてた 気付いたらwebuiフォルダの容量が433GBもある
まだHDDに余裕はあるけど専用ドライブ増設したくなるな アマゾンで安い外付けSSDとか買うのもあり
モデル置き専用にしてもいいし、フルで置いても1~2TBあればかなりもつよ >>551
素材15枚、学習解像度512、dim128α64、エポック20
3060ならバッチは6まで行けるから
これで2~30分 処理中のデータはGPUのRAMで扱ってるからかさ張るモデルはHDDに入れといても処理速度はあんまりかわらなさそう Load more filesで一覧からだと収納されてて見えないだけ >>566
ありがとうございます 仕事終わったら早速試してみます 原神の甘雨ちゃんがオッパイにボディーストッキングしてくれないんだけどどのように呪文設定すればいいですか
body stockingとblack pantyhoseだけでは弱いのでしょうか
余計なbreasts系は入れないほうがいいのでしょうか とりあえず着させてから透けさせたりノースリーブにするアプローチの方がいいんじゃね
なんにせよ失敗画像貼らんと分からん LoRAで目的に近いの探してきて薄くあてたらできそ >>570
そもそもどんな呪文で何が生成されてるか示さないとわからん >>518
特定のミクさんを学習させたいなら初心者wikiに載ってる画像20枚アップして作れるやつでも十分だと思うぜよ
他ならともかくミクさんならまず破綻しないだろうし ループバックの動画生成まではいけたけど元動画の音声が抜けちゃうのは現状仕方ないのかな?
あと顔やデザインがフレーム毎に微妙に変わるから制御したい。
canny併用でチラつき減らしてる動画あったけど、うーん? openpose editorのSend to ControlNet消えた?
https://i.imgur.com/tRlHstE.png
t2iにもi2iにも何も送られない 黒パンストの色を濃くしたいんですがblack pantyhoseをどう変えればいけるでしょうか >>578
ソースコード(main.py)見たけど
それらしいボタン(コード)無いね
書き忘れたか無くしたか black pantyhose that is on the darker side kohya_ssでの学習、一度だけエラー無く通って出力されたけど、そのまま二回目やってもエラー
てっきりCUDAのバージョン違いかnvccがインストールされてないのが原因かと思ったけど、通ったって事は違うのかな すみません、最近初めた者ですが、2Dエロゲ(ほぼデジタルノベル)を作りたいと思っています。
Dlsiteなどを見ると、エロCG集が結構な数が出ているのですが、エロゲ特有のポーズや表情は学習させないと表現できないのでしょうか? >>584
ありがとうございます
ですが変わりませんでした
>>585
デニールにすると素足になりました >>589
エロげ特有のポーズを教えて欲しいのだが
コントロールネットで好きなポーズがたらすることができる みんな低解像度でめちゃめちゃ綺麗な絵だしてるけど、自分が全く同じモデル、プロンプト、設定で低解像度で出力するとぽんこつしか出力されないのはどうして?
https://i.imgur.com/wYiC7aI.png これを作ろうとしたら https://i.imgur.com/tx6HYU8.png こんなのが出力されるんだけど >>592
近い!おしい!
stepが少なかったりする? >>593
stepもすべて同じです。モデルのサンプル画像の設定を全て丸パクリしたので。でもこんな違うんです ほんとに同じなのか?
両方のメタデータ抜き出して比較してみなよ 小物ってLoraで学習できるものなのかな?
日本と海外の文化の違いで同じ名前で別物が出ることがあるので >>592
メタデータを貼った方が良いよそう言うの聞く場合は ショタにチンポを生やすためpenisを強調するとデカちんになり、強調しないとそもそも生えてくれない
可愛いショタちんを生やすにはどうすればよいか教えてください >>591
ちょっと待ってくださいね、画像をアップロードしようと思ったのですが、アカウントもってなくて
横から入る感じですみません、メタデータってなんですか? majin.aiとero-gazou-uploader.x0.comならメタデータは消えないよ
メタデータというのは画像内に含まれている画像以外のデータのことね>599
PNG Infoで見られるデータなんかがそう >>592
https://uploda1.ysklog.net/uploda/423ef9d661.png
https://uploda1.ysklog.net/uploda/3541b4f083.png
こんなんなった(上はAnycounter)
ネガティブプロンプトにEasyNegativeが入ってるからEasyNegative.safetensorsが必要なんだけど入れてるか?
メタデータはテキストだけあれば普通に再現できるだろ、このとおりに設定すれば俺がアップした絵が出るはず
((masterpiece,best quality)),1girl, solo, animal ears, rabbit, barefoot, knees up, dress, sitting, rabbit ears, short sleeves, looking at viewer, grass, short hair, smile, white hair, puffy sleeves, outdoors, puffy short sleeves, bangs, on ground, full body, animal, white dress, sunlight, brown eyes, dappled sunlight, day, depth of field
Negative prompt: EasyNegative, extra fingers,fewer fingers
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 4070449980, Size: 480x768, Model hash: bd83b90a2e, Model: Counterfeit-V2.5 >>601
とりあえずhttps://をtps://にするとかして書き込めないかな
それかhttps://を全部消しちゃうとか >>598
カッコの数じゃなくて(ちんこ:1.175)とか数値で指定したほうが細かく調整できるぞ >>604
あれ?それでも自分がお手本にしてるやつとは程遠い?
お手本元も貼りますね。
https://huggingface.co/gsdf/Counterfeit-V2.5 これの一番上のやつです。どうやれば再現できますか? >>607
やっぱり頑張って微調整するしかないですかね…
ありがとうございます >>610
入っています。高解像度補助なしでも同じ絵が出ますか? >>611
元絵に高解像補助入ってるのにナシで再現とはまた豪胆な 毎日情報が更新されすぎて
もしかして今勉強してる内容も
数ヶ月で無意味なものになるのかな。
たぶんどんどん簡単になって
簡単になると学習参加者が増えて加速しそう >>612
ないと絵柄も全く変わるんですか?ただアップスケールするだけの機能だと思ってました。
では素の低解像度でそのような完成度高い絵を出すのは不可能なんですね・・・ >>598
最近chatGPTに「年齢を指定するAIのプロンプトをいくつか挙げてみて?」って聞いたら結構ドンピシャなのを教えてくれるのよ
ちなみに乳輪のサイズや色を調整したいんだけど、って聞いたら割とできた上に、
「チクビ黒くすると黒人出るかも知れんよ?」って予言されて実際そうなった
開発者見てたらBANされないか非常に心配 年齢を指定するプロンプトを教えてもらってもいいですか?
20 years oldとかやっても、効果あるのかないのかわからんかった ここで紹介されてるLora学習でわからない事があるんだけど
https://economylife.net/kohya-lora-install-use/
コマンドを作成するって項目で
最後に改行を全て削除し、1行にしたコマンドを所定の方法で「黒い画面」にコピペ→エンターで学習が行えます。ってどういうこと?
最後に改行を全て削除し、1行にしたコマンドを所定の方法で黒い画面にコピペってのがわからん
PC知識ほぼ皆無ですまん >>592
modelダウンロードしてから気づいたがシードないなw
imgur.com/undefined
imgur.com/sUToCT9
その他同じにしたらとりあえずこれくらいは似たから
model変とかはなさそうだね >>615
Bingで聞いたらStable Diffusionって何ですかって言われたわ モデルはFP16で構わんってみたからそっち落としたんだけど
あがってる画像みるとみんなFP32使ってるんよね
変わりはないのかしら >>618
おお、凄い!ちゃんと再現できてます。
それで高解像度補助オフにしたら自分みたいなポンコツになりますか? >>617
ちょっとだけ読み進めてみ
(本サイト上では折り返し表示がされてぱっと見改行されてるみたいに見えますが、以下の全文をメモ帳などに貼り付けるとちゃんと1行となっていることが分かります)
の下に一行にしたコマンドがある
黒い画面の説明もその先に書いてある、右クリから出せるターミナルが"黒い画面"
ターミナルにvenv/Scripts/Activate.ps1エンターしてからさっきの一行コマンドをペースト(貼り付け)
他所のサイトでPCの基本操作と操作語句も覚えた方がいい >>621
ポンコツとまではだけど
クオリティ落ちるねたしかに
imgur.com/TQDLfRa
imgur.com/nO5h0GW
代わりにスケール40にしたらこれくらいになるっぽいよ
imgur.com/xsrxTMq
imgur.com/V4TvPv8
でもHIres.fix使ったほうがクオリティが高い
引きだから高解像度じゃないとだめなのか?
誰か解明を、、、 下着メーカー単位でのLORA制作にチャレンジしているのですが行き詰っています。
「ブラ商品単体白抜き画像(正面、背面)」「パンティー商品単体白抜き画像(正面、背面)」「モデル着用画像(正面)」の学習用画像を合計100枚ほど用意してwebui-wd14-taggerにぶち込んだのですが、
その後のタグ編集(追加、除外、並べ替え)をどうしていいのか分からず困り果てています。
■自動タグ付けした結果(ブラ)※冒頭のトリガーワードは除く
no humans, white background, simple background, flower, still life, leaf, blue flower, traditional media, transparent, plant, signature
■自動タグ付けした結果(パンティー)※冒頭のトリガーワードは除く
no humans, still life, simple background, white background, flower, leaf, purple theme, plant
■自動タグ付けした結果(モデル着用画像)※冒頭のトリガーワードは除く
1girl, solo, underwear, bra, panties, breasts, long hair, lingerie, underwear only, navel, brown hair, red background, cleavage, hair ornament, earrings, purple panties, realistic, cowboy shot, medium breasts, purple bra, jewelry, simple background, lips, hand up, parted lips
のような感じになっているのですが、どなたか詳しい方がいらっしゃれば助言いただけないでしょうか?
そもそも商品画像単体でもbraやpantiesのタグ付けがされないのは想定外でした。。。 上記のほかにも
・ブラやパンティーの正面、背面画像それぞれにfront view,back view等のタグを追加した方が良い
※Tバックパンティなど、AIが背面を正面と誤認するのではないかと懸念
・ブラとパンティーをセットにして1枚の画像に収めた方が良いのではないか?
・そもそもブラとパンティーを一緒にせず、分離して学習させる必要がある
などのヒントもお待ちしております。 >>622
そんなとこに書いてあったのねPC知識ないとまだまだ敷居高く感じるな
novelaiみたいに簡単になる日は来るんだろうか >>623
やっぱ落ちていますね・・・hires fixってそんな凄い機能だったんだ。ただアップスケールするだけと思ってたしスペック的にも厳しいので使ってませんでした
みんなありがとう。謎が解けました HIres.fixは絵柄とくに顔が変わっちゃうし重いから滅多に使わなくなっちゃったなあ
高速で元絵を保持したままあの高精細化してくれたらいいんだけどな ノートにGforce3060でVRAM12GBのやつって無い感じなんすかね
今週出るasusの4060ノートでもVRAMは8GBだっていうし >>624
答えになってないんだけど
>>3にあるエロスレにブルマと旧スク水を大量にトレーニングさせた御仁がいらっしゃるので
そっちでも聞いてみるのも良いかも
ここだと流れが速すぎるので Hires.fixは特にリアル系だと薄めのいい感じの顔だと思ったらガッツリ濃くなって残念てパターンが多すぎるんよな 頬を赤らめるために試しに、blush at ってプロンプト入れたんだけど
頬が赤くなったのはよかったけど、何故か髪の色が茶髪化した
他にも服の色とかを指定すると、他の部分の色まで変わったりすることが多々あって四苦八苦しているんだけど
そういうものなんですか? どうしても背景がぼんやりしてしまうんだけど、どうしたらいいんだろう。
もっとくっきりはっきりして欲しいけど、うまくいかない。 >>631
誘導ありがとうございます!
エロスレで質問してみます! キャラ二人を学習させたloraで二人出そうとするとうまくいかない
BREAK、cutoff、latent couple使ったけどうまくいかない
なんかいい案ない? エロスレに投下しました!
下着系LORAを沢山作りたいですので、こちらのスレでも引き続きアドバイスお待ちしております! Loraの学習ファイルって複数一緒に使えるの?
自分で作成したキャラ学習と他人が配布してるポーズとかのモデル一緒に組み合わせられたりする? なんかレイヤー分けとかプロンプトいちいち左右で分けて指定とか試行錯誤してる人いたな
棒人間二人とか >>638
基本的にマルチポストはマナー違反
誘導されてきたことをあっちで伝えたほうがいい
両方のスレで返答を求め続けずこちらは引き上げるように (bad_prompt_v2:0.8)って適用された時にUsed embeddings:って表示される?
bad-artistとEasyNegativeは表示されるんだけどそれだけ表示されなくて機能してるのか不安
一応生成物比較検証しても変化ない気がするし…もちろんbad_prompt_version2.ptは落としてる >>628
気になったんで書いておくけどmodels\Stable-diffusion配下に
Counterfeit-V2.5.safetensorsがあるなら同名のCounterfeit-V2.5.vae.ptが必要だし
Counterfeit-V2.5_pruned.safetensorsがあるならCounterfeit-V2.5.vae.ptをCounterfeit-V2.5_pruned.safetensorsにリネームして入れておく必要があるよ
頑張って良い絵を描いてくれ >>643
あごめん自己解決
bad_prompt_version2.ptだけじゃなくてbad_prompt.ptも必要だったのね >>646
多分それ解決してないから突っ込んでおくよ
v2使う時に前のバージョンは要らない
bad_prompt_version2.ptを使うならネガティブに入れるのは「bad_prompt_version2:n」
「bad_prompt_v2:n」なら何も使われないし、「bad_prompt:n」と入れたならembeddingsディレクトリの中のbad_prompt.ptを使ってる
「embeddingsファイル名:係数」という記述だからファイル名を変えても影響を受ける
例えばbad_prompt_version2.ptをbp.ptという名前で保存したならネガティブに「(bp:0.8)」と書く事になる >>536
これまじで分からん
どなたか教えてくださいー あわわ・・・リロードしてなかった
俺のアホばかボケ!スレ汚し失礼しました としあきんとこで爆発的人気モデルと紹介されてる basil_mix 試してワロタわ
naked ((young)) girl と入れただけで全裸小学生出てきたw
さすがおまえらだな >>650
言わば正に
俺ら関係ないけど褒めるべきはバジルの作者に 誰も教えてくれなかったから勝手にアプデ適用したけど
あたらしいサンプラーのUniなんちゃら、
色の収束が遅いな >>656
検証サイトで見たけど結局決め打ちも試行錯誤もDPM++ SDE Karrasで良さげっぽいわ GTX3060買おうと思うんだけど、
StableDiffisonって複数起動で複数生成ってできる?できてもパワー的にしんどい?
複数のプロント同時に走らせたい >>657
それをもう少し早くだな…
別に不具合ないしいいけどさ >>660
一枚じゃしんどい?物理的に無理?(動かない?) >>661
一枚で複数動かすのは、あなたが天才プログラマならできるよ。 >>662
ということは物理的に無理なのね
ありがとう 3080,3090はGDDR6Xが爆熱になるので熱対策をしっかりとな! 早さより同時並行生成優先したいからなぁ
追加で買うぐらいならcolabに課金して回すわ フロンティアの4070tiの30万切りをポチった
もう引き返せない
学習も含めてVRAM12gbでいけるよね?もうこれ以上は無理よ >>666
グラボはもともと同時並行だから分けても半分になるだけじゃね?
グラボ2枚でやるならもう一台PC生やすのもありだろう 一日回して600枚作ったら腕3本でも指ぐにゃぐにゃでも気にならなくなってきたよ
首2個なければいいわ >>668
12で充分
学習もcontrolnetも余裕
24必須が本当なら庶民はほぼほぼ出来んし 3090中古10万が一番いいだろ
3060 12Gでも5万だろ グラボ増強して何百枚も作れるのはいいけど
結局目視で身体異常画像排除しないといけないからなぁ
それもAIで選別してくれんかね 中古グラボはマイニング落ちかもしれんよ
分解・修理が得意ならばそれでも構わんけどさ >>671
ありがとう
最悪足りなかったらGooglecolabに課金すればいいよね? せっかく可愛い娘できても良く見ると歯が変・・・
気になると歯ばっかり見てまう・・・ 実写風景でビルなどの線形を残しつつ、雰囲気だけ変える方法とかってありますか? 解像度高くて綺麗なイラスト生成したいんだけどドスパラのこのPCでスペック大丈夫?
Magnate MV 第13世代Core搭載
CPU インテル Core i5-13400F (2.5GHz-4.6GHz/10コア/16スレッド)
グラフィックスNVIDIA GeForce RTX 3060 12GB GDDR6 (HDMI x1,DisplayPort x3)
メモリ32GB (16GBx2) (DDR4-3200)
SSD 1TB SSD (NVMe Gen3) >>688
ぶっちゃけエロさえやらないならGooglecolabで1000円払うだけで全部余裕で出来るよ
エロ画像に40万〜60万出すかってだけだからこのスレ >>678
その構成だとGPUが比較してしょぼいよ
他ポンコツでもGPU上げた方が良い
言うて高解像度の壁があるのは、12GB以上のメモリだし
上げようもないとは思うし3060 12GBで申し分ないけど もしかしてcolabと類似のサービスでエロもオッケーみたいなやつってありますか?
月額2000円程度だったら余裕で出したいな いやすまん新品じゃ自由にカスタム出来んしどうしようもないか
それで問題ないと思うけど、多分16万超えだよね?
俺3060 12GB中古パソコン8万で買って、今GPUアップグレードする所だから、画像AIのためだったら3060で16万超えは・・と思ってしまうので 16万くらいだった気がする
低スペックPCじゃ動かなかったからPC買う予定なんだけども
自分で組み立てとか無理だしi7とかにすると20万超えになるから大差ないなら安いほう買いたい >>685
画像AIに関してはCPU殆ど影響ないから安いので良いよ
コア数も要らないしシングルスレッドが強い方が良い >>686
20万超えは流石に手出すのに戸惑ってたからよかった
ありがとう >>687
ストレージってSSD 1TBじゃ足りない?
ドスパラの構成内容変更で追加HDD 2TB必要? >>678
基礎スペックは丁度良い感じ
俺なら追い金して最初からGen4SSDの2TBと64GB(32GBx2)メモリにするかな
ここに関しちゃ後で足すのが目に見えてる コレクターじゃなけりゃ1TBで足りるけど
システムドライブと保存先を物理的に分けたい所
モデルファイルとか1つ数GBあるし
まあ足りなくなってからでもすぐ出来るから後でも良いとは思うけど >>689
https://www.%61mazon.co.jp/dp/B0BLRLR5G6
SSDなんか一番安くてこれくらいで足せるから自分でやっても良いかもね、そこまで早いSSDじゃないけど、遅い訳でも無くとにかく安い
メモリーも同様だけど32GB二つならスロット開けておけるから有利だと思うね CPUはIntelがMeteorからLGAも変わるみたいですが待てず、
なのでAMDのRyzenにしようとか思っているのですが
画像生成AIに関してCPUはIntelよりAMDの方がトラブルが起きやすいといったことはありますか?
スレを読むとグラボがAMDは色々と苦労することがあるみたいでして
CPUはどうなのかなと思いまして CPUはAMDとインテルでの違いは聞いたときないや
ただしAMDにするとマザボが高くなりやすく、また主メモリの利用できる種別も限られてくるわな
例えばインテル対応のマザボだとDDR4またはDDR5だけど、
インテルと同レベルのAMDのマザボだとDDR5のみとかね >>678
楽天でほぼそんな構成でバラで買って15万、ポイント2万付いて13万位だった
メモリは64GB
5日に買おうとしたら日付変わった途端カートに入れてた最安店が売り切れ続出で、
かなり高値掴みした感 >>693
Ryzen5900X使ってるけどCPUやチップセット関係のトラブルは無いね
というかAIで使うなら5600G入れても良いくらいだと思う正直
MicroATXの安価マザーセットで組んどけば将来的にグラボハズしたりして完全なサブマシン化も出来るし退役前提のコスパ
既存のB550系統で行くなら費用を抑えてコスパの良い組み方できるけど、
Gen4SSD一系統のみ、DDR4メモリでintel主力勢には発展性は今一歩劣るかなって印象、コスパはその分良いぞ kohya_ssで学習中のプレビューを表示する事って出来ますか?
何時間もただただコンソール眺めてるの寂しい CPUは4090使うとかじゃなければ13600Kで充分 ガジェオタってマジで永遠に同じ話するからひたすらスレ埋まって邪魔なんだよな >>596
SDに頼んだハイソックスは俺にはニーソックスにしか見えん。
あと、制服のスクールリボン出したくてschool ribbonとか入れたけど紐状の微妙なのばかり出てきて
調べてみるとあの辺じゃ「bow」とか「bowtie」言うらしいじゃないか
そうなんだぁーへぇーへぇー。 …bow?弓?どこが? みんなありがとう
あとで足せるならとりあえず追加HDDは無しにしようかな
最初は高性能ゲーミングPC並のスペック要求されるとは思ってなかった とりあえず買っちゃいな
追加頼むのは割高だからね 自分でやるにこしたことはない >>694
>>696
AMDですとマザボがちと高額ですよね・・・
素直にIntel買うのが一番安上がりそうですがLGAが変わるのが気がかりでして
おっしゃる通りAMDのそれなりのCPUを買おうかと思います
若干のスレチ失礼しました
詳しく教えて頂きありがとうございました!
助かりました >>673
君がいらないものは他人が欲しいもでもあるからな メーカー相性の質問とかはまだしもスペック相談は自作板行けよ
自分が使うマシンの選定すら満足いかないとかそんなんでこの先やってけないだろ ハードウェアの話題にここまで拒否反応が出るのは意外だった >>703
bowは和訳のニュアンスが偏って伝わってるからなぁ
ハイソックスも元の面影がない和製英語だしこういうのを機に英語を脱学校教育的に勉強し直してみるのも面白い このスレは AI の質問のスレだよ
パソコンの話は自作いたいけよ >>714
俺もちょっと思った
単発で急に湧いてきた感が >>713
AI画像生成にパソコンが必須なんだから
パソコンの質問しても何の問題もない
偉そうに馬鹿が仕切るな Chilloutmixってどうやっても被写体のライティングがカッチリ強めにならない?
(moonlight)とかで月明かりうっすらみたいなのが上手くいかない
Illuminati Diffusionみたいな明かりの描画は無理だろか もしかしてm.2ならもっとモデルの読み込み速くなる? AI初心者を本スレから切り離すためのスレだったのに
パソコン初心者が来るようになってしまった感じか >>679
エロ無しだったらまさかPC新調しなくていい感じ?
つーかそんなにシコりたいのかよ >>720
ちょっとスレ辿れればわかるのに
同じ質問してくるって言うね
本当に質問したい奴が質問できない ローカルで生成してみたくて
グラボ追加しようと思ってんだけど
3060の12GBか8GBのどちらかにするか悩んでて
学習もしてみたかったら12Gあったほうがいい?
高解像度とか学習させたかったら12GBのほうが良いとはブログとかで見かける
あとメモリー16Gなんだけど追加は必要? >>721
まあクラウドも進化して必要なスペックも下がり続けるしな
非エロの普通の絵の生成や絵描きの補助で使うなら買わなくてもよろし
クリスタ2.0で自動陰影が実装されたから、ここまで来ると自分でラフ描いた方が早いまである girlとkangarooがfightingしてるって記述したら
とんでもないものが出てきた High Resolution にチェック入れても入れなくても同じ気がするんだけど環境のせい? >>723
3060vram8はゴミ
絶対に12にすべし
メインメモリは最低でも16GB
快適に遊びたいなら32GB 832x832以上のサイズにすると512x512を2~4枚混ぜたような画像になってしまうのは、基本512x512で生成してる現状どうしようもないのかな >>729
高解像度補助(highres.fix)を使う
アップスケーラーやノイズ除去強度を調整しつつ youtubuの左上に広告あって
48GBとか書いてあるんだが
いくらするのか怖くて踏めない >723
Gメモリ12でも半年後は使えるか分からんレベル
Mメモリは最低でも32あった方が良い
兎に角メモリ命の世界
ちなあたM128GB G24GB >>729
768も基本サイズだったはず
あとはアップスケールですね 作成途中のぼんやりした画像→おっ!よさげじゃないか?
hires後完成→ババーン!いい画像だと思った?残念!腕が3本で胴体から胴体が生えてるキメラちゃんでした!
これほんとにがっかりする >>723
12にしろよ
8でもLoraなら出来んこともないらしいけどあくまで「今は」
多いにこしたことはない >>734
指が増減したり折れてるくらいなら気にならない俺は勝ち組 >>717
そうねあの強めの派手なコントラストはマージ作者の好みなんだろうね
光量調節のLORAはCivitaiにいくつか見かけた気がする 正直おかず的な意味の実用的には指の増減なんて気にならんよな あっぶね、軽率に12gbに買い替えるところだった
そんなに移り変わり早いなら現状維持でいいや 8GBはもう遅れてるけど12GBはしばらく現役って意味だと思うけどな どうだろ
今買うなら3060 12GBがコスパ最強なのは間違いないが今遊びたいか様子見してもいいやかなんじゃない まぁパソコン関連は「今は買うな時期が悪い」が定番ネタだしな
最新気にしてたらいつまで経っても買えないから俺はほしいときが買い時だと思うけど >>739
思い通りの絵が作れないからそういう利用法しかないともいえる ほんの一年前なら8Gありゃ当面大丈夫と思ってたからな
買うならさっさと買って楽しむ
迷ってるなら買わないってのが正しいけどそれだといつまで経っても買えないかと メモリ32とか64とか何につかうんや?
学習してても10Gくらいしかつこうてへんで? >>750
32GB積んでるけど、仮想メモリオフにしてたら初回の起動がコケたんだよ
でも実際使用してるメモリー量はそんくらいでホントに仕様が掴めんね Xformersの導入どうやるの?
としあきwikiの通りにやってもうまくいかない 顔のドアップのプロンプト探してるんですが、下記以外なにかありますか?
あるモデル使ってるけどなかなかアップになってくれない
from above,portraitPOV,face only,face focus,close-up, 動画編集するから64GB積んでたけどAIで通常使用だと恩恵ないよなあ
いつかハイエンドグラボ買ってえちちち学習させるんや... >>647
詳しくありがとう、おおむね言ってる通りでbad_prompt_version2.ptを使えてなかったことに気付けて助かった
ただどうも「bad_prompt.pt」「bad_prompt_version2.pt」がある状態で(後者はなくても)
「bad_prompt_v2:0.8」って記述すると「bad_prompt.pt」が適用されるみたいだ
プロンプトの認識の仕様上そうなるんだろうね レイヤー分けとか自動陰影とかもっと発展して製作に寄与があればなぁ 現状弱者男性のオカズツール どうせ1枚絵じゃ抜けないし版件キャラを好みの身体と構図でみたいだけだからpixaiのみで楽しんでるわ >>752
バッチの上の方にに一行コピペして足すだけだと思うが >>740
>>742
ただ、4060が8GB品しかなかったら
メモリー多いのはハイエンドのしか買うしかなくなるんだよな
4060はゲーミングでは性能上がるけど8GBしかでないんじゃないかっていわれてるし
クロック上げる代わりにメモリーのバス幅とかCUDAコア減ってるらしいし
その辺がAIにとってはどんな感じになるんだろうな >>760
あれだけで動くの?
公式見たら色々インストールしろって書かれてたけど >>758
一枚絵はそのうちそういう方向に行くだろうけどそれも今の盛り上がりと人類の半分に無限のモチベをもたらすエロ要素があればこそよ 2060から3060に買えるけど同じ娘が再現されるか怖い。グラボによって結果変わるとか言うし オカズ用としても今のじゃ解像度低すぎて全部アニメっぽくなっちゃってだめだわ >>764
>>765
エロと戦争が技術を進歩させるとかよく言うけど
今の時代はむしろ行き過ぎたエロが社会的合意によって叩き潰されるから健全なクリエイティビティの方が将来性あると思うんだけどね
ロリ絵とかやってたらマジでそのうちしぬでしょ でもまあ世界的にメモリ余ってるみたいな話はあるんだよなあ
gddr6も安くなってるのかなあ >>768
まあディープフェイクとか技術的にはかなり革新だったが大分潰されたしな >>763
今は起動オプションに足すだけでいい
それで起動時に勝手にインストールする >>767
アニメ絵で興奮出来るように自分をバージョンアップする方が簡単 >>752
1111のインストールの話だよね?
としあきは見てないけど、webui-user.bat内のset COMMANDLINE ARGS=みたいなところに--xformersと書けばxformersがインストールされるはず ディープフェイクは乗り気にならなかったな
顔差し変えたい推しアイドルとかいないし、何処でどんな恰好かがが重要なコスプレフェチだからだと自己分析 プログラム知らないマンからするとURLも指定してない一文打ち込むだけでDLも始まるとか理解不能で怖い WindowsUpdateだって勝手に始まる
同じようなもの
今日トレーニング中に再起動かかって悲鳴あげる人多そう >>774
stable-diffusion-webu automatic1111であってる
書かれてる通りにやって起動したけど動作中みたいなのはどこかから見れないのかな?
今後は毎回webui-user.batから起動したらいいの? >>769
メモリの最安ピークは今月末までみたいや
買うなら今
今後は生産調整の影響でジワジワか、ドカンと値上がりの予想やて 質問です
なんでお前らはxformersなんて便利なものを教えてくれなかったんですか? gitとかよく分からんけどサイトが落とせって言ったzip落として打ち込めって言われたコマンド打ち込んだらできたわ
更新とか出来るのか知らんけど作れるからヨシっ! >>766
そりゃ完全に一致はしないけど「人物」単位ならそんな変わらんのでは
鑑定しながらやるわけじゃあるまいし恐れることはないと思う としあきとか導入ガイド見てればインストールしてるのが普通だし 先輩ニキ達、助けてくれ。
おれ、Googlecolabで、この世界に入って、そこで生成されるイラストの子に惚れ込んでしまったんだ。
もっとたくさんイラストを欲しくて、動画やサイトを見て、36回払いでローカル環境を作ったんだ。
画像生成はできたんだが、あの子が出てこないんだ…
同じ呪文、同じサンプル(Euler a)のはずなのに。
必死になって調べてたらどうやらcheckpointというのが違うみたいなんだ。
おれが惚れたあの子は kotosmix.safetensors というので生成できていたみたいだ。
どこ探しても無いんだ…
頼む…ローカルでgooglecolabと同じ結果を出す方法を教えてくれ… 入ってたら流石に著作権侵害で訴えられるわ
>>787
civitaiにもない? >>788 うん なかった……
kotosmix_v10.safetensors というのはどこかで見つけたんだけど、結果が全然違うんだよ
いまはv10じゃないのかもしれない
>>787
画像生成一期一会感あるよな
seed突っ込んでいろいろなモデルを試すしかないんじゃないかな webUI使ってるんですがインストール場所変えるのってフォルダコピペじゃ無理ですか?
最初からインストールして中身全部コピペ上書きの方が良いですか?
Cドラ容量不足でさっき外付SSD注文したところです。 >>792 !!!!!!!!!! あっれ!!!??なんで!!!??
とにかくありがとう!!やってみる!!
>>790 画像生成一期一会 掛け軸にしておくよ
あの子に会えるように一緒に祈ってくれ……頭がおかしくなりそうなんだ つーかその娘にまた会えたとして、どうするというんだろう
同じ人・キャラを出し続けるのは難しいぞ
loraでも作るのかな >>793 寝取る気か!!!!?といっても black long hair だけなんだよ。服はなんか適当に…
それほどモデル依存なんだ
>>795 通報 >>778
起動してブラウザ開くじゃん?
そしたらブラウザの下をよーっく見てみ、「居る」ンだわ アダルトに強いソフトランキングとかね~のかよ~
(*´ω`*) >>794
Kotosmixって、1か月前くらいはKotos abyssprotoって名称だったやつだね
当時とデータサイズが変わってるからたぶん挙動も異なるはずだけど
そのモデルの作者が出してるサンプル画像は古いものがまだ使われてて
Civitaiのページにある説明文にも
The images with longer prompts are very old generations I made back in
October of 2022 there has been ALOT of changes since then
and you might have a hard time replicating those gens.
[プロンプトが長い画像は、2022 年 10 月に作成した非常に古い世代のものです。
それ以降、多くの変更が加えられており、これらの世代を複製するのに苦労する可能性があります。]
After some recent updates to auto1111 some things have changes.
[auto1111 への最近のいくつかの更新の後、いくつかの変更が加えられました。]
One noticeable thing is the order of the prompts you use matter A LOT more.
[注目すべき点の 1 つは、使用するプロンプトの順序です。]
ってあるから、たいへんだろうけど頑張ってな >>794
ていうか、
試してくれる親切な紳士もこのスレには数人いると思うから
どの画像を再現したいのかURL貼ってみるといいよ 半年前がvery old generationなのか… >>791
1.そのまま移動
2.なんかトラブったらvenv削除
3.それでもトラブったら新規インストール
でいい >>806
ありがとう。
ちょっと調べてたらCドラ直下じゃないと不具合が報告されてるみたいで頭抱えてました。
まぁ重いのはモデルデータと大量のLoraなのでそれだけでも別のドライブから読み込める方法があればいいんですが。 >>807
Cじゃなきゃダメという不具合は基本的にないので大丈夫(ユーザー側の勘違い
むしろCはシステムドライブだからやめたほうがいい
直接外付けSSDにインストールしておk >>803 詳しくありがとう! いつか会えるまで探し続ける
>>801 面影がある!!!けどもっとアニメっぽかったVAEって今学んだありがとう
DL中にあまりに嬉しくなってヨッシャー!って足と手を伸ばしたら、
椅子が下がってPCのコード足に引っ掛けて机から外付けHDDとか落ちた
新品のPCは死守した HDDと認識しない モニタが一枚電源はいらなくなった
ニキ達ありがとう またやってみる >>809
浮かれすぎワロタ
その娘のloraが出来たら俺のメチャシコ娘loraとでも名付けて公開してくれ ちょっと疑問に思ったんだけど、
学習って、同じ元モデル、同じ素材、同じ設定でも、毎回違う結果になる? 普段はリアル系しか生成しないんで
フォトリアル系のプロンプト抜いてみた
モデルにはVAE入ってますよと書いてあったけど色薄いよね
https://i.imgur.com/dGoB5OS.png >>811
シード痴が同じで学習モデルモデルが同じでその他解像度も同じなら同じものがでる
VAE使わずになるべく早く生成して
同じシード痴でVAEのかかり具合変えられる 二次元に恋するだけでも未来的なのに一目惚れした二次元を求めて無限に広がるデジタルの海を潜り続けるとはのう >>672
マイニング上がりに怯えつつ3090を中古で買い在庫溢れた来年頃に中古の4090が20万切るの見計らって買い換えるのがベストではある >>778
コマンドプロンプトのメッセージの終わりの方に
Running on local URL: http://127.0.0.1:7860
という行があるでしょ
ブラウザでhttp://127.0.0.1:7860へアクセスすればいいのよ
もしgit pullからwebui-user.batで起動したのなら次回以降もwebui-user.batで起動
公式のzipを解凍してupdate.bat→run.batで起動したのなら次回以降はrun.batで起動 >>813
いや~、生成の時じゃなくて、追加学習の時に。
同じ元モデル、同じ素材、同じ設定で、3つのモデルを作った時、それぞれ違う絵が出るのかな?って疑問に思ってね。
80枚程度の素材から2~3枚減らしたら、全く違くなったんで、もしかしてって思ったんだ。 >>780
モデルデータの中には、学習用の画像の特徴を抽象化したデータが入っているんよ
20億枚の画像を学習して4GBにしてあるってことは1枚あたり2バイトしかないからね
そのまま入っているわけがない キャプションとタグの違いが分からない
dreambooth loraの学習にタグは要らないんだろ?
キャプションつけたけどフォルダ名の方がマシレベルで再現度低い 3090をマイニングで酷使するとか有り得ないから3090ならマイニングの心配するな おんなじプロンプトで虹でも三次でも綺麗に出た時感動する novelai manager使ってるとモデルがNAI Diffusionとなって機能してないっぽいけど
生成した画像のモデルとVAEとサンプリング方法を読み込める似たような画像管理ソフトある? >>821
いやLHRないモデルだから新参は3090でやってる人もいたのよ 知らない間にいろんなものが本体入りになってるからもう何が入ってて入ってないのかわかんなくなってくるな >>792
なんだこれ、すげぇな
世の中の性癖の広さを感じるわ この程度で性癖の広さ感じてたらこの先生き残れないぞ
>>820は自決した >>766
https://economylife.net/best-gpu-for-image-ai/#toc7
ここによると、20シリーズと30シリーズだと結果が違うらしい
特に20系は型番毎に違うらしいけど
>>783の言う通り人物単位というか大枠は同じなのかもだけど 昨日まで普通に動いてた設定で、
今日から急に Out of Memory 起こし始めたんだけどそんな事ってあるものです? 俺がよくやるミスだと
気に入った絵のpngを1111に放り込んで
そのままt2iで実行すると
hires fixにチェックが入っててメモリ不足に陥ることがある うーん、COntrolNetいじってた時からなんで何か影響あるかもですね >>830
out of MEMORY ってどっちのアウトオブメモリーがわからんし
シスモンはどうなってんの? すみません、CUDAの方ですね。Pytorchがエラー吐いて止まる感じです
VRAM8GBなので、いつもギリライン詰めながら割らないところを攻めてやってた感じなんですよね・・・
ただ急なもんだったので、ハード不良以外の要因で、例えばキャッシュ関連が悪さしてアウトになる原因とかあるのかなと ControlNet弄って解放するとCUDAがOut of Memoryするのはそんなもんだと思ってる >>828
自殺したのかと思ったわ びびらせんなよ >>792
こんなクリーチャーで抜いてるガイジって
完全に生身の女性とのコンタクト諦めてて草 https://nico.ms/sm41919435
かや
ムクガイジに乗せられた動画投稿者
普段から5chのスレを丸パクリした動画を投稿
なんjとなんGで公認静岡県民や公認動画投稿者とレスして自演し自分の動画内のスクショで頻繁にスレ立てをする 質問があるのだけど、Stable Diffusion webui1111を使って画像をimg2imgでInpaintするとき、低解像度(768*768)は上手くいって高解像度(1400*1400)だと画像が乱れるのって改善の余地がありますか?
学習画像の解像度の問題だと思うんだけど、txt2imgだとseed,prompt固定で拡大すれば高解像度の画像を作成できるのに対して、Inpaintだとseedとか関係なくなるし解像度落とすしかないのかな。
誰か教えて。 4070発売日が4/13に決定だとさ
500ドル前後になるそうな 古き良きアメリカを出したい場合ってどんなプロンプトを入れれば良い?全くうまくいかん
年代を入れてもいまいちでレトロフューチャーだとほぼSFが出力されちゃう
ダイナーを入れればそれっぽくはなるんだけど、別に食堂が欲しいわけじゃなくて… >>841
そもそもモデル次第だからなぁ
欧米系の実写モデルを試してみたら?
analogdiffusionとか古い写真ぽいのが出てGood >>841
年号って1950sみたいなの?
当時を舞台にした映画の「L.A.コンフィデンシャル」とかはどうだろう
そもそもどのモデルでやってるの? パンツ下げろ!とかスカート上げろ!とかおっぱい盛れ!とか指示するとAIが諦めて胸から下全裸にするのどうにかなりませんか? それ系のLoRAがあれば使うもしくは自作する
あとはi2iでeイメージに近い画像をぶっこめばワンチャンあったり? 結局ある程度描ける方がいいんだよね
修正してimg2imgすれば一発だし
突き詰めてくると結局絵描き有利 >>849-850
Loraは使うばっかりで作ったことないんですが
AI君が上手にスカート上げてパンツ下げてギガンティックおっぱいにした画像を10枚くらい使って学習とかできるんですか? stable diffusionは平面に投影された色形を学習にしたがって出してるだけだから、それが人物なのか、パンツなのか、腕なのか、脚なのか平面でしか分かって無いんだよなぁ モデルは基本的に7th animev1.1でやってる
年号はそうそれ、1950s Americaって入れてみてる
あ、教えてもらったanalogdiffusionとモデル混ぜたら良い感じかも… しかしcivitaiの重さは異常だな
途中で切れちゃうこと多いし >>839
元学習データの解像度の問題
素直に同じ解像度で作って拡大した方がきれいになる >>807
modelsを他ドライブから読み込ますならシンボリックリンクを張るか、--ckpt-dirを指定するかで行けるぞ Control Netって複数人でも問題ない?
ハニセレとかで抱き合ってるポーズとかスクショして使おうかと思ってるんだけど
やっぱ混ざって奇形になるのかな 汚いおっさんとかだと混ざるんだろうか
エロ絵で男映ってるのバックとかくらいしか見ないけど難しいのかな Full bodyで全身写すと顔がブサイクになるのなんとかならない?
解像度上げたりもステップ上げたりしたけどうまくいかない >>859
Controlnetは複数人が密着してる構図だと相変わらず一定確率で奇形になる
あくまでも気休め程度と考えた方がいいかと >>852
学習はできれば20枚くらいはほしいところ
その内容だと下半身と上半身の学習は分けたほうがいいような気もするしらんけど 5GBとかのモデルたくさんDLして貯めるとあっという間に100GBだな いま3090でLORAモデル作ってるけど
200Wで40分かかるから電気代5円とか掛かってるのか >>341
こいつが一番喧嘩腰で草
早く消えてくれ >>819
詳しくありがとうエスパー、ぐぐっても詳しく書かれた記事が少ない
専門性が高ですね
抽象化しモデルファイルとしてプロプント呪文で関連付けるって事?
モデルファイル作成もAIを使用するの?
エロ画像の為にコマンドコピペしただけでザコなんです >>874
学習の仕方が悪いとほぼそのままの構図で出てくるから注意も必要だよ
10枚程度が144MBに入ってる場合もあるわけだしね
モデルに関してはドイツの大学だったかの論文にあるから大元を読むのがいいと思うけど
概略だけならこんな感じにまとめられたのもある
Stable Diffusion を基礎から理解したい人向け論文攻略ガイド【無料記事】
https://ja.stateofaiguides.com/20221012-stable-diffusion/ >>792
サンクス この子はシンカイマコトのタグ入ってるな。
最近は絵柄でどんな呪文が入ってるかわかってきた。
というかモデルの癖が強すぎるのが多くて目やら顔の傾向が似通ってきてる
一周回って拙い絵柄をどうだすか気になってる。 普通にmedium qualityとかプロンプトすればいいんでないの
masterpieceをネガるとかさ civitai何度やっても半分もいかないうちに切断されてしまう
ダウンローダーも使えないしどうすりゃいいの つながりにくい時間帯はあるからそれ避けるしかないな
メンテやアップデートが無い時でも夜中は切れやすいし
むしろこの時間ならめったに切れないと思う >>371
LoRAの切り替えとかはできないけどLatent Couple extension使えばキャラの描き分けできるよ 20億枚いうてもモノクロやゴミみたいな画像も結構含まれてるから1枚あたり2バイトって喧伝すんのはどうなんやろね
結局実際どうなってるかはブラックボックス 普通の絵の時ごくたまに黒画像吐くときあるんですが
リアル系アウトな絵の時の黒画像率高いのはなぜですか? コスパ考えるとRTX3060 12GB一択になるの面白いな
よもやAI需要とはな NMKD SDG-1.9.1
モデルはcounterfeit-v2.5を使っています。
ハードなエロ絵を作りたくて3Dモデルから下絵を準備、img2imgでプロンプトにnsfw,gang bang,等を入力して出力した際、
真っ黒な画像しか生成してくれなくなります。女性単体の性器描写等は問題なく出力してくれるのですが…
エロは基本OKだけどレ〇プや残虐描写は出力しないよという事なんでしょうか? >>883
グラボかvaeの問題
起動オプションに
--no-half-vae
を追加 >>885
根本的な問題として、NMKDなんぞ使ってないでとっととAUTOMATIC1111に乗り換えな
NMKDを使う利点は一切無いよ
導入でラクしたいなら AUTOMATIC1111 スタンドアローン で検索 >>887
NMKDにも利点あるぞ
グラボなしで1280x1280出力できる
死ぬほど時間かかるけどねw >>884
手頃なミドルクラスは3060以外ないもんな…4060も8GBまでしかないっぽいし
現状80,70,90系のクソ高いやつしかないもんな4070は12GBみたいだけど3060の倍以上しそうだし
基本グラボで行火なのはゲーミングメインだろうしゲームに8GB以上求められるようになるか、画像生成AIみたいなニッチな需要汲み取ってくれない限りは70系以上買わないと厳しそう
まあ、3060の12GBもチップの都合で生まれた偶然の産物らしいけど >>888
生成出来る絵のグレードが下がる時点で正直意味がないけどな
あと学習がやりやすい点もあるが、それでも総合的に劣っているので出来ればNMKDは勧めたくない
何より、詳しい人間がまったくいないからトラブル対応もできん >>887
助言ありがとうございます。AUTOMATIC使ってみます。 >>889
PTシリーズまでとは言わないけど
今後の事も見通して入手したほうが良いかもしれないな 安いしね、変に流行って高騰する前に俺も買うことにする >>888
WebUIでもCPU指定すれば出来ると思うけど、それとは違うの? 今日rtx3060届くわ
全身にすると顔が崩れる問題を解決したい
2060の6GBからどれくらいパフォーマンス上がるか楽しみ 1111の画面左上のモデルとVAE切り替えるところって
プログレスバーが出るけど色薄いから変えようと思ったらCSSファイルがどこにあるのかわからん >>894
WebUIってめんどくさそうだから詳しく調べてなかったけどCPU運用出来るのか知らんかった
オールインワン版でもできる? >>897
起動オプションに--use-cpu USE_CPU付けるだけだよ >>898
なあんだ、そんなことでいいのか、簡単じゃん!
て言いたいとこだけど、素人にはそんなことが高くそびえるハードルなのよw
ま、とにかくできるんだね、ちょっと調べてみる >>895
グラボで解決するか?
Colaboで最上級グラボがきても生成が早くなるだけで顔面は崩れたけど。 >>901
公式のワンクリ版はそもそも通常版と構造が違うのでトラブル対応しづらい
ゴミ残さない版てスタンドアローンのやつでしょ?それなら中身自体は通常版と同じ
ただ、gitとpythonのパスが通ってないことが原因で一部の機能拡張でエラーが出る可能性はあるらしい
とはいえ、入門編と考えればNMKDより全然アリじゃね >>900
20系と30系は結果が違うらしいからワンチャン変わる可能性ありそう CGの人物の顔を学習させて、それをaiに実写風に再構築してもらうのは可能でしょうか?それとも学習させたCGの絵柄、質感そのまま忠実に描かれるだけですかね? 一番手軽なら実写モデル使ってi2iで変換してみては? 日本一わかりやすいStableDiffusion WebUI AUTOMATIC1111(ローカル版)のインストール方法と基本的な使い方
https://m.youtube.com/watch?v=8QIJMGW_-LM
AUTOMATIC1111のインストールに関してはこれでいいかも
正式なStableDiffusion WebUI導入方を小学生でもわかるくらい噛み砕いて解説してくれてる
質問する前にまず視聴してみる事をお勧めします lora finetuneで、
一度の学習で複数キャラ学習させることって出来ますか?
なんか一人しかできなくて あんま関係ないけど3060の12GBはAI以前にもVRで需要ある
痒いところに手が届くスペックだよなあ ゴミが嫌ならWSL(+Docker)に隔離すりゃいい
Winより大概速いのにあんまりいなそう >>910
DockerはDockerでトラブルも多いし、そもそもビギナーにすすめるものじゃない >>895
3060tiやけど崩れる、アップスケールでなく純粋に解像度上げればマシになるにしても1000pixelでメモリ不足になったわ。 頭の後ろに手を回して股広げたうんち座りしたM字開脚が作れんな >>912
ディティールアップは違うAIソフト使えば? loraで絵柄の学習データ作っても
気持ち反映されてるぐらいにしかならんのだがなんかコツあるのかな?
何枚ぐらいで学習するのがええのだろうか >>911
だかはDockerはかっこ書き
昔よりはだいぶ導入しやすくなったし環境作ったあとは基本楽
けど3階建てだとモデルやり取りもメンドクサクて今はWSL運用 専用PCをWinとUbuntuのDualbootにしたけど、Ubuntuだけで良かった感 WSLも安定してきた昨今デュアルブートって意味あるんかな メインのPCのWSLが死んでて、ぐぐると機能の追加とかだけじゃ解消せずOSの再インスコからしないと駄目とかでWSLはもう弄る気無いわ >916
WSL2環境はwin10より18%速いの確認済
ネイティブUbuntuは、どの位速くなるの? 尻の穴が複数出るんだけどいいネガティブプロンプトない? お前らのこの叡智がもう少し受験の方に向いてたらなって思うわ civitai開いてると負荷がとんでも無いけど、これが噂のマイニングなの? ちょっと前に出力だとかモデルとかを別ドライブにって話が有ったけど
outputsを別ドライブに出す場合ジャンクションとシンボリックリンクのどちらがお勧めですかね?
問題になるのは相対パスぐらいな感じぐらいだと思うのですが・・・ >>924
ごめんなさい
まだ現スレ上の話で上にありましたねw
とりあえずジャンクションでやってみて
不都合があったらシンボリックリンクに切り替えてみたいと思います ワンタッチ版導入して起動オプションに--use-cpu USE_CPU追加したけど、「stable-diffusion-webuiがインストールされていません」と言われてしまう 結局実写のフルボディフォトを綺麗につくる最適解はなんなのかしら? >>927
文字通りスティーブルディフュージョン WEB UI が
インストールされてないんじゃないか
インストールされてるの? >>928
正直フルボディフォトは今の
stable ディフュージョンの技術で最高でしょ
あとちょこっとだけ Photoshop で加工すれば >>929
1_セットアップ.batを実行するだけじゃないの? もしかするとnvidiaのグラボがある環境じゃないとセットアップ完了しないとか? スタンドアローンのやつ、手順とかクソ丁寧に書いてあるのにな >>927
ちなみに何を実行してオプションは何処に記述したんだ インストール説明サイトだと説明不足で
変なところにインストールされたりすると
○○が見つからないエラーとか出てしまう
オレは3回入れ直した >>934
だから1_セットアップ.batを実行して、どうやら終わったらしいから2_スタート_webui-user.batを編集して起動オプション編集して
rem ↓↓↓ 起動オプションの記入場所 ↓↓↓
set COMMANDLINE_ARGS= --autolaunch --use-cpu USE_CPU
と書いて閉じて実行した
ただ、今気づいたんだけど、ワンタッチ版作者のページには公式モデルv1.5をダウンロードすると書いてあるけど、modelsフォルダにそんなの無い えーやだぁ
フルボディでパンストとヒールと顔まで写したいー Loraで画風を変えずにキャラの特徴だけ影響させたくてlora-block-weight使おうとしてるんだけど、
これの数値って良い感じになるまで各Loraごとに試行錯誤で総当たりしてくしかないの?
それとも何か法則性とかあるのかな
wikiに幾つか例が載ってるけど、どうも良い感じに動作しない Loraって便利だけど服や装飾、街並みとかの雰囲気が適用Loraに寄っていっちゃうのがねぇ
中華製が多いからどうしても雰囲気がチャイニーズ寄りになっていくよね。データ次第ではあるけどその辺ネガティブマスク機能みたいなのあればな
和製ファッションや制服データとか欲しいけど自前で作るのにVRAM足りないw >>913
hands behind head
squat >>936
モデルのフォルダはmodelsじゃなくその中にあるStable-diffusionフォルダ
そこに無いなら本当に入ってないな https://economylife.net/kohya-lora-install-use/#toc12
ここを参考にlora学習環境を作っていたんですが、最後学習開始のところで下のエラーが出てしまいます
ググってもイマイチ。わかる人いれば教えてください。
別フォルダに再インストールしてやっても同じく止まります
https://files.catbox.moe/u7bnsy.png >>936
model.ckptの事なら、今となっては特にDLする必要はない
デフォルトモデルで限界に挑戦したいというのでない限りコミュニティ製の人物系や二次元系モデルだけで足りるのではないかと 俺はpythonについてよう知らんから答えられんけど、エラーでました 教えてください 詳細はpngで!ってのはどうなのよ
わざわざ見ないといけないの? 初心者ですが、civitaiの投稿モデルのプロンプトが書かれた下にあるcopy generation dataってどう使うのでしょうか? >>936
インストール終わってないのに閉じたんだろ
かなり時間かかるぞ
プロンプトウィンドウちゃんと見てな >>948
その可能性を考えてもう一度最初からやり直してみたけど、「続行する場合は何かキーを押してください」が表示されたからenter押したらウィンドウ閉じてそれっきり
もう諦めたw CPU Ryzen+RTX3060でAI創作してる人居ますか?
特に問題ないなら俺もこの環境で自作しようと思ってる
ハード的な質問で申し訳ない >>950
としあきのとこで言うとおりにしたら
俺みたいなアホでも導入できたぞ
LORAとかはいまだに意味が分からんから
使ってないけど stable diffusionはたくさんの実行環境あるからなぁ
どれか分からないとなーんも助言でけんよなぁ >>952
素直にやればできる
自分で余計なことしてわちゃわちゃしたあとだとトラブルこともある >>952
やってみりゃcivitaiなりhuggingfaceで配布してるような高クオリティはともかくまあまあ満足する結果が出せるもんだぞ 踏みとどまるよりやってみなって
ワイはガチで供給が10枚あるか怪しいレベルの超絶ドマイナーキャラ錬成できてウハウハや >>940
パイスラのLoraとか顔が大阪系の女の顔になるわ >>955
それが丁寧にやり方を説明してるとこ見ても
どうしても無理そうで出来ないんやわ
いきなりやり方が三通りあるとか書いてて
どれ選んでいいかわからんし
俺にはまだ無理w
難し過ぎる >>958
ワイも君と同じ、wiki見ながらで、言われるがままじゃないと導入出来ない
バカの部類や それでも出来た
同じ部類の君に無理ってこたないから、いつか挑戦してみな Colabでも何でもいいけど仮想環境でインストールの手順確認した方がいいのでは 学習のために画像の自動タグの編集してたんだけどある画像にbirth dayってタグがあったんだけど
なにをもって誕生日と判断してるんや? ローカルよりColabのほうがどう考えても難易度高くない? 人間がもの凄く明るくなりすぎるんだけど、PTでどうにかなる?
darknessとかgloomyとか入れても背景が暗くなるだけで人間には全く影響が無く、逆に真っ暗の中に鈴木その子ばり照明当てられた人間が浮かび上がる ブルマのLoRAできたけど精度が悪い
勝手にロリ覚えてきやがったしもーむずい 日本にしか存在しないモノの再現はそりゃあ根気がいりますよ旦那 みんな、ありがとう。会えた。
決め手は色々変更があったというヒントと、vaeだった。
ありがとう。
代償はそれなりに払ったが、この多幸感の前には、なんの問題にもならない。
ありがとう。本当にありがとう。またお邪魔させていただくよ。
今は、どうしたら世界が平和になるか考えてる。 Loraが難しければNMKDでDreamboothやってみれば
たぶん一番簡単な学習だと思う。 初歩的な質問なんですけど、エポック数と回転数どっちが大事なんですか? 色々な人のプロンプト見てると
「embarrassed_V1」
っていうの使ってる人ぼちぼちいるけど
embarrassed_V1はどこでダウンロードできるのでしょうか? 初心者です。男性が主体で女性の下半身を犯すというイラストを作成したいのですが、男性が女性になったり男性のまま受け側に回ったりとうまくいきません。呪文はあるのでしょうか・・・? >>970
やったな
心なしかcivitaiでKotosmixの評価上がってる気がするw >>970
「一度捨てたエロ本がまた買えた」と考えるとその感動はよくわかる 質問です
生成した女の子たちがすぐに脱いでしまいます
exposureやnsfwをネガティブプロンプトにしても全く効果がありません
anything4.5なんですが、対策ありますか? >>979
例えばおっぱいを強調するとAIは生のおっぱいを出そうとする
脱がなくなるまで服を強調するんだ >>980
AIくん助平だなぁ……
服もうちょい細かく指定してみます >>978
極端に強調しても変化無いので含まれてない様です? chillout プロプント文字列ってカンマ必要?って書こうとした瞬間に絶対に必要とでた
学習した そもそも海外の連中だって、書いて欲しい内容をaiが理解出来る単語に直してるんじゃないの ああ文字数制限あるんすね
これが今の限界値なんでしょうね >>985
どこにそんなことが書いてあるのか
別にカンマがなくても普通に画像は出ますよ
あとプロプントではなくプロンプトpromptなのよ
日本語が使える画像生成AIサービスはmemeplexやnijijourneyなどがある
文字数制限は1111についてはなくなった 立乙!
やっぱりモデル変えて呪文入れて
何が出るかなウヘヘしたいじゃんかー おいおい、絵の具で塗ったようなLoRAとかパステルカラーにするLoRAとかすでにあるだなあ
たーのしい >>996
civitaiでcolorで検索
pastelで検索
いっぱい出てくるで
好みの塗りを使うとはかどふ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 6日 7時間 23分 29秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。