【StableDiffusion】画像生成AI質問スレ01【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に ■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/AUTOMATIC1111/stable-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://github.com/carson-katri/dream-textures
Krita https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能) ■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
【StableDiffusion】AIエロ画像情報交換12【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1674431064/
なんJNVA部★136 ※約1日で1スレ消費する
https://fate.5ch.net/test/read.cgi/liveuranus/1674488413/
【雑談】CG総合関連60【AI】
https://mevius.5ch.net/test/read.cgi/cg/1673490335/ 関連スレは>1に入れたほうがよかったかも
あと>2のNjijjourneyの特徴に「日本語プロンプト可」を入れ忘れた 【ナマポ】 在日受給者の方が、ホームレスより多い
://rio2016.5ch.net/test/read.cgi/okiraku/1612919788/l50
>>6
絵コンテなどのラフをもとにきちんとした絵に仕上げることなら可能です
img2imgについて調べてみてください
プレビュー段階ですがこういうものもあります
style2paints/V5_preview at master ・ lllyasviel/style2paints
https://github.com/lllyasviel/style2paints/tree/master/V5_preview >>8
ギフハフなんか分からんよ
ちゃちゃっと描いて、アプリでポンと出来んの Stable DiffusionなどAIに最適なGPUを調査したベンチマーク結果が登場 NVIDIA製GPUが最適解
まず、512x512解像度において最も高い反復回数を記録したのはNVIDIAのGeForce RTX 3090 Tiになっています。
このテストにおいては上位はRTX 3090 Ti、RTX 3090、RTX 3080 TiなどRTX 3000シリーズが軒並み上位を独占していますが、この結果についてはRTX 4000シリーズへの最適化が行われていない事が原因である可能性があるようです。
解像度を2048x1152へ上げた場合の結果については512x512と少々異なる結果になっています。最も高い性能を記録したのはRTX 4090となっており、次点でRTX 3090 Ti、3位にRTX 3090となっています。
Toms Hardwareでは2048x1152解像度でのテストについてはRadeon RX 7900シリーズやRTX 4070 Tiに関してはデータが取り終わっていないとのことですが、これらStable Diffusionの結果についてはソフトウェア側の最適化次第で性能が大きく変わる可能性があるため今後、定期的にベンチマーク結果を更新するとの事です。
\( 'ω')/ウオオオオオオアアアアアアーーーーッ! 4000系の設定できない奴がベンチマークとかひどい話だ 7th_anime用のvaeってなにかいいのある?
Anythingのvaeに使ってるんだけど、少し暗い感じになってしまう 明暗や色調補正だけならフォトショとは言わんけど
画像系のソフト使って修正したほうが好みに微調整できると思うよ >14
今はなにを使っているの?
今あるVAEについて、https://mercury.bbspink.com/test/read.cgi/erocg/1674431064/80 によると
80 名前:...φ(・ω・`c⌒っ[sage] 投稿日:2023/01/24(火) 18:53:20.54 ID:/7HozBhc
Vaeは SD1.5 WD1.4 とりんあーと NAI の4種
リアル系ならSD向いてる
アニメ系はお好きにどうぞという感じになってるな >>16
Anything v3.0のVAE
貼り付けてくれてありがとうちょっと試してみる GAINWARD GeForce RTX 2060 Ghost 12GB / PCI Express 3.0 x16 グラフィックスボードNE62060018K9-1160L-G
会員様web価格 39,800 円 (税込) 送料無料
在庫状況: 在庫あり 限定「おひとり様1点」 NMKDの1.9、ONNX変換にエラーでるみたいですけど
みんなそうですか?
特定のモジュールが足りないみたいです Google colabのAUTOMACHIC1111使ってきてたんですが
この度マシンを購入しローカルに移行します
コマンドはまだ知識がなく出来ないのでこれから学ぶとすれば
やっぱりAUTOMACHIC1111から始めて学んだほうが良いのかな?
それとも新しく出たNMDKでも十分使えるんですか? >>21
ちょうどAUTOMATIC公式からお手軽ワンクリックインストーラーが出たからこれで導入すればいいよ
NMKDより機能も格段に多いしスレ民もほぼ同じなので基本的にはAUTOMATICで覚えることをオススメする
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre >>23
グッドタイミングですね
教えてくれてありがとうございます Dreamboothトレーニングを走らせたら、80分かかると出ていますが
この学習結果は蓄積させるものですかそれとも使い捨てですか
キャンセルするか迷っています Anything4がいつものGooglecolabから読み込んで起動出来なくなったんだが何かあったの?
URLが出てもアクセスすると「502 TIME OUT」と出てしまうんだが? Anything UPした人がV3モデルを出したり引っ込めたりしてるよ
V4もなんかやってるかもね NMKDのONNX版使ってみたけどRadeonは遅すぎてCPUと変わらんな Counterfeitのひとも1つすぐ消したモデルあったりよくわからんわ 質問すみません
Stable Diffusion = SD、NovelAI = NAI、Dreambooth = DB
こんな感じで略されているのをよく見るのですが「DA」というのは何の略でしょうか?
追加学習をしたくて自分なりにスレ等で出たワードを調べてるんですけどこれだけ何のことかわかりません… >>32
なるほど!初めて聞くものでした!
ありがとうございます! 呪文の単語の綴りが間違っていないのに赤い波線出るのですが、無視しても大丈夫ですか? ぜーんぜん問題なし。Chromeのスペルチェックは厳密で、ちょっと書き方が違うとすぐ指摘してくる感じよね
それにStable Diffusionはスペルミスがあってもわりと理解してくれてます(わざとスペルミスしてみるとわかる)
もちろん赤線が出たら念のため検索でチェックする機会になって頼もしい モデルデータの配布ページに「fixed」と付いてるものがあるんですが、これはどういう意味ですか?
「修繕された」という意味で開発版みたいなニュアンスなのでしょうか?
<例>
・Basil mix.safetensors
・Basil_mix_fixed.safetensors ときどき画像のすみにサイト名やロゴが出現しますよね。これって写真をWeb検索してコラージュしてるってことですよね。ちょとがっかりです >>36
10~11月に多くのモデルが作られましたがプロンプトの単語を無視する不具合があり
なぜ起きるかの仕組みもわかったので修正版モデルが出てる状況です
従来モデルでも絵は出るし自分で修正も可能ですがモデル配布元の修正版があれば使うのが無難です web検索でコラージュではない
そもそも生成する作業では基本外部ネットと通信してないので
元のモデルを作る際にインターネット上にある幅広い写真や絵を数十億枚対象にしてるので、
例えば山の写真素材を売ってるサイトが同一のロゴを全体に入れた山の風景サンプル画像を大量にネット公開していたりすると
その無料サンプル画像をランダムに複数学習した結果、モデルに汚染が起こって「山」の学習結果に、たまに謎のロゴ風モザイクのようなものが表出する場合があると言う事 >>37
画像を切り貼りしているわけではなくて、画像の特徴を学習して模写しているんだよ
これ読んでみてよ
イラスト生成AIに対するよくある誤解 - Qiita
https://qiita.com/Robot-Inventor/items/b01786235978a0bc38d9 同じことやん
JAVのロゴのピクセルは元画像にあったピクセルなんだろ
コラージュと模写とどう違うってんだ
もちろんそこを批判するつもりはなくて、素直に認めればいいやん >>42
全然違うしアホすぎるので勉強してから来なさい 認めれないならその先はないやろ
もちろん現状の素晴らしさは認める 冷静に考えればモデルデータなんてあって数Gなのに、収集した膨大な画像を全部内包できるわけがない 元のマークやロゴがそのまま出てこない時点で別物だよ、それを学習した結果を出力してるだけだ
マンガ雑誌の表紙っぽいものは無限に生成できても快楽天の表紙がそのまま出てくることは無い 素直に
「アホだから拡散モデルの解説を読んでも理解できないので
ママの様にやさしく教えて下さい」と書けばいいのに…
自分がアホだと認められないと先はないぞ
まあ俺もアホだから教えられないし理解できないけどな!
こういう理論とかプログラムを考えられる人ってすごいよね 1111のHires. fixでResize width toやheight toがグレーアウトしていて使えないのは当面の仕様なのでしょうか? >>46
いやいや
URLつきのロゴがそのままでてくることがあるって話をしとるんだが?
まあイラストや絵画調だと出てこないのかもしれんね
写真だとよく出てくる(2%くらいかな) 結局のところ絵というのは有限なのだから
既存の画像にある程度似るかもしれないと言う点に関しては仕方がない >>42
元画像にあったピクセルではないね
画像生成する際の初期ノイズをどう変換するのかが学習だから
ロゴのような何かが生まれるのは、山と言う概念に大量に紛れ込んだロゴパターンを同時に学習した結果、
山と生成する際に指示されたときに、その初期値のノイズ分布の一部分に、ロゴのような集合を見出して新たに変換しているだけ 昨日から始めたばかりなんですが
NMKDで「Generate!」押すと「Failed to load model.」とエラーが出てしまいます
助けてください
いろいろ試して何回か再インストールしたら正常に生成できたんですが
そこから設定はいじってないはずなのですが
アプリを再起動したらまた同じエラーが出てしまいました
ググっても全然引っかからないし、
WebUIの方もググっても出てこないエラーになるしで困ってます
modelsフォルダにbasil mixを置いて使用しています >>51
当たり前のこと訊くけど、既成ロゴの出現については自分も経験がよくあるんだよね? >>54
全然ないな
初期から話はたまに聞くし学習の原理からも起こる理由は理解出来るけど
そして当然ロゴが出るわけではない
サンプル表記等のロゴを類推させるような形状が現れることがあるだけ >>55
えっ
自分で確認してない現象をあれこれ解説しとったんか? いい加減ウザいから消えろお前
頭悪すぎるから、勉強してから書き込め loraで学習したモデル動かす時にInstance PromptやClass Promptで指定していないワードを入れても学習した絵の特徴を含んだ絵が出来てしまうんだけど、他に何か設定する必要あります? >>56
デマではなく確認できる事だし、報告も珍しい話でもないしね
特定モデル入れるとよく出る場合とか(雑誌のロゴ風なもの) >>58
インスタンスプロンプト指定無しで絵が変わるのは過学習かクラス参照してないかだろうから<lora:xxxx:0.8>とか強度弱めるしかないんじゃないの >>48
グレーアウトしてるけど入力できるんよ、あのフィールド nai の最初の頃のやつだけど
defenderがトロイ検知するように
なったと小耳に挟んだ。
後から検知される場合って、権利元の
申請とかなのか、セキュリティが更新されて
未検知だった物が検知可能になったのか
どちらなんだろ >>61
グレーアウトしていても構わずに動かすと今度はUpscale byがグレーアウトするのか!そんなのわかるわけないよ
本当にありがとう Auto-Photoshop-StableDiffusion-PluginってGooglecolabでもインストールとプラグインできる? >>53
ありがとうございます
他のものを閉じてから起動したら正常に動作しました 最近AIアートやり始めた初心者質問です
Stable Diffusion Webuiをローカルに導入して動かす所まではできました
主に自作絵をi2i運用したいです
スマホアプリのMeituでAIアートをした時の加工が理想なんですが
Stable Diffusion Webuiで再現できるでしょうか
それに適した学習データ、パラメータ設定、手順等わかる方いればご教授頂きたいです
初心者すぎて質問内容自体がおかしかったり、そもそも根本的な認識間違いあったらすみません AI アート人口、そこまで多くないから
ニッチな知識は自分で探すしかないと思う
記事さえ見つからない場合も多いけど >>66
どういうことをしたいのかわからんけど、絵描きのi2iならあぶぶ氏のnoteが参考になるかもしれない
https://note.com/abubu_nounanka/all
でも基本的には自分でいろいろ試行錯誤する道だと思います >>68
まだ一部しか読み込めてないけど、とても参考になったありがとう
「お絵描きAIとの付き合い方を研究してみた」がやりたい事と完全一致してました
Meituは絵を読み込むだけで構図や要素を大きく残してくれてたけど
waifuいれてプロンプトをうまく扱う練習から始めてみます 有識者に聞きたいです
https://youtu.be/h2LHkoL_8KMのような画像は、どうやって作っているのでしょうか?
試したのですが、明らかにブサイクか、もしくはクリーチャーになって生成されたりします
確率として100%そうなるのですが、stable diffusion guiの場合load imageを使わないとそうなるのでしょうか? >>71
画像の生成に使う学習モデルによって、どんな画像が得意かは変わってきます
たとえばStable Diffusion公式の学習モデルはオールマイティな作りにしているようですが、Pixivにあるようなアニメ系イラストはとても苦手です
エロ系の単語もかなり弱められているので、実写の水着女性は出にくいのかもしれません
こういう実写の白人ビキニ美女が得意なモデルを探してみるのがよいでしょう
学習モデルはhuggingfaceやhttps://civitai.com/にいろいろあります
検索してみてください NMKDで質問なんですが、赤色背景、被写体は人間の画像をロードしています
更に青い海をキーワードに指定すると赤色の海になります
()で指定しても変わりません
この場合とうすれば青い海に変えられますか? 青色背景にすればええんじゃない、AI絵なんて基本ガチャと思っておいた方がいい 人間マスクして海だけ回数ガチャしたらいつかは青くなりそう 全くの初心者で申し訳ないんだけど
出力されたイラストを元に手直ししてくれ!みたいな指示は可能?
環境はNMKD?にanythingv4.0入れてます
類似した質問で、用意したイラストのうちこの人間をもっとデカく描いてくれっていうのは可能?
やっぱり全て自分で呪文を打ち込むしか無いのかな? i2iでランダムガチャすれば多少の修正出来る事もあるんじゃないか? Masked InpaintingかInstructPix2Pixの話とちゃうか
1は可能で2は多少切り貼りしてi2i頑張れば出来るよ GoogleコラボでStable Diffusionのimg2imgをやる場合これ使っとけっていうのありますか?
出始めの頃結構触ってたけど、今調べてやると全部エラーになってしまうんです >>21です
ローカルは全くの初心者で
>>23 のリンク
をインストールしてみたのですが下記の表示から終了して進みません
・No module 'xformers'. Proceeding without it.
No checkpoints found. When searching for checkpoints, looked at:
- file C:\Users\○○○○\Downloads\sd.webui\webui\model.ckpt
- directory C:\Users\○○○○\Downloads\sd.webui\webui\models\Stable-diffusion
Can't run without a checkpoint. Find and place a .ckpt file into any of those locations. The program will exit.
ここから何か対処すれば動くのでしょうか?○○○○はユーザー名で伏せてあります
どうかよろしくおねがいします エラー内容はとりあえず翻訳してみたらいいんじゃないかな
今回も書いてあるでしょ >>77です
なるほど、俺が求めてる動作は難しいみたいね
ありがとうございました >>82
モデルが無いんだよ
指定の場所に入れろよ NMKDで美人作ってる人いたら教えてほしい
model、VAEでおすすめってないでしょうか??
全く作れない
あと、プレビューできるサイトってないでしょうか? 学習モデルに「pruned」と付いたものがあるのですが、
これはどういう意味ですか?
<例>
YuzuGinger_v4-pruned.safetensors 画像作るのに余分なデータ削って軽くしたモデルやっけprunedたぶん NMKDは好きな美人さんを学習させたほうが早い
感性的なものを求めるならAUTOMATIC1111版を使って趣味の合う好きなモデルデータを見つけるべし >>90
色々調べても見つけられなかったので助かりました。ありがとうございます。 「Automatic1111」なんですが、
自動的に各モデルに切り替えて生成するようなバッチ処理的なことってできないですか? >>93
Automatic1111のWebAPIでできるはず
ttps://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/API
モデルをgape60.ckptに変えるならcurl等で
http://127.0.0.1:7860/asapi/v1/options
にJSONで
{"sd_model_checkpoint": "gape60.ckpt"}
を投げればいいはず
PythonならAPIクライアントライブラリもあるよ
ttps://github.com/mix1009/sdwebuiapi だいたいのことはX/Y/Z plotで自動化できる
難しく考えすぎじゃないの i2iで生成すると顔と言うか両目の黒目の大きさが違ったり口がうねった線になったりするのですが、こういう時はどんなプロンプトを追加した方がいいんでしょうか?それともクオリティ上げ系のプロンプトが悪さしていたりするんでしょうか?(目に関しては視線指定を強くすることで気持ちマシにはなったのですが他にこういうことはしておいた方がよくなると言うものがあれば教えていただきたいです。) i2i時だけ元絵に引きずられて歪んだり溶けたりしてるのが原因ならDenoising strength調整すればええんやない >>95
>>96
御二方に感謝します。大変勉強になりました。 >>98
申し訳ありません。i2iメインでやってたのですがt2tでも同様になるようでして。 とりあえずRestore facesにチェック入れるか別のモデルに変えてみたらええんやない >>93
プロンプト固定ってことなら、scriptsからX/Y/Z plot使えばいけるよ >>102
ありがとうございます。試させていただきました。 画像生成ってどのモデルでも大なり小なりエアインテークみたいな古臭いババ臭い髪型を生成してくれるんだけど
ネガティブに(hair intakes:1.3)くらい入れる程度じゃマジで全然消えてくれなくてゲロ萎えなんだけど
なんか良いモデルとか良い呪文とかないんですかね >104
ネガティブプロンプトに1990s 2000s 2010sみたいに年号を入れるとか
>106
ネガティブプロンプトに、胸回りだったらcleavageを、体全体だったらrevealed skinを入れるとか AttributeError: module 'tensorflow' has no attribute 'Tensor'
ってエラーがstable diffusion で出て
困ってるんだけどおまかんかな? NovelAIのサブスクについて質問です。
きのう始めたけど、なかなか良いの出来ないから、Anlasゼロにして小さい画像で練習がてら生成してるんだけど、サブスク期間終わってもAnlasは残るんですよね?
じゃあサブスク期間いっぱいまでAnlasゼロで練習してから、サブスク終わったらAnlas使って生成するのがお得ってことですか? >>107
サンクスな。実はネガティブに1990s styleと順に入れてくの、前からやってて、たしかに影響がでてきて
ウマ娘の子みたいなでっかいあからさまなエアインテークはでなくなるんだけど、やっぱ小さく突起は出るんだよね、消えない
これが衣服や背景との組み合わせ次第では全然出ないんだけど、組み合わせ次第では逆に出続ける。この辺がAI画像生成の難しいところだな。俺は全部において消したいんだが。 >>108
おまかんっていうかおまverっぽい気がするわ
pythonかtensorflowのバージョンが合ってないと思うお前の環境知らんけど NovelAIの画像サイズについて質問です
Customで1280x768にしたら画質めっちゃ落ちたりしますか?
やっぱりテンプレサイズ推奨なんでしょうか ファイル名のカスタマイズで[prompt_no_styles]と[prompt_spaces]の違いがわからない
プロンプトをいろいろ変えてみているが結局同じファイル名になってしまう
なにが違うんだろう?
Custom Images Filename Name and Subdirectory ・ AUTOMATIC1111/stable-diffusion-webui Wiki
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Images-Filename-Name-and-Subdirectory/ >>114つづき
[styles]という指定があるがStylesからスタイルをプロンプトに入れて生成してもファイル名では「None」になる
[prompt_no_style]はプロンプトからStylesを省略した文字列なのだろうが、Stylesからスタイルをプロンプトに入れて生成してもそのまま出てきてしまう
そもそも1111はプロンプトのどこがStylesから挿入されたものかを理解しているのだろうか? NovelAIで生成した画像をまた素材にしてimg2imgすると出てくる画像がめっちゃボヤけるんですが対策ありますか? 「同じ絵柄で、同じ人間の絵」を量産するにはどうしたらいいんでしょうか…。
「近いけど絵柄や顔がちょっと違う」みたいなのがたくさん出るので。 >>117
それがAIの仕様なので…
現状では完全に同一の絵柄やキャラで出させるのは不可能 seed入れて数ぶん回して砂漠から一粒の砂金を探すんだ seed入れたら似たようなの出てくるけどなんか画像が劣化するんだよなー
1発SSR引くしかないわけか >117
そういうのは今LoRAが大人気だよ
キャラクターの画像を10枚くらい用意して学習させると、そのキャラクターを出せるようになる
こういうのとか
https://fate.5ch.net/test/read.cgi/liveuranus/1675709429/39
> 39 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff8c-nUaN)[sage] 投稿日:2023/02/07(火) 05:43:38.25 ID:qicKSoOj0
> こんなタイミングやが初めてLORAやった
> 適当でもなんとかなるもんやなたのC
> https://i.imgur.com/HfkABg7.png
> https://i.imgur.com/iy1sUJi.png
> https://i.imgur.com/1DrgWfH.png
> https://i.imgur.com/dnRKgzO.png
> https://i.imgur.com/EFRgFD1.png
WebサービスのNovelAIとかHolaraしか使っていないなら無理 NovelAIのサブスクって解約しなかったらそのまま次の月も勝手に継続される? そうなん?
だって、今までサブスクやったことないもん!ありがとう!
Holaraってエロ絵弱いの?原○キャラの着衣ケツとかならガンガン作れる? 118〜121のみんなありがとう!LORA見てみるす!
漫画作りたいんすよねー…
やっぱり同じキャラで同じタッチが必須かと思うので 夏野企画さんの実写と2次の中間みたいなモデルって何なんだろう?探したけどそれっぽいのも無いし自分で学習させた物なのかな? >>114
まずpromptがGenerateボタンの左にある長い二つのテキストボックスのうち上の方をさしていて
stylesがGenerateボタンの下にあるStylesというプロンプトとネガティブプロンプトをプリセットとして保存しておける機能という話で
そのうえでこれがprompt_no_styles
ファイル名にスペースが入っていてたまに文字列として扱いづらいことがある
https://i.imgur.com/T9WCseK.png
これがprompt_spaces
ファイル名の末尾にstyles「Loli」の中身もついている
https://i.imgur.com/QxmmGkb.png
最後にこれがprompt(デフォルト)
ファイル名のスペースはアンダースコアになっていて、styles「Loli」の中身もついている
https://i.imgur.com/gp5pVXe.png
stylesとアンダースコア付きであるpromptからstyles部分とアンダースコアをすっぱ抜いたものが[prompt_no_styles]
promptのアンダースコアをスペースで置き換えただけで、stylesに関するものはないのが[prompt_spaces]
このややこしさはもはや命名ミスだと思っていいと思う >>115
で[style]がこう
styleにつけた名前のみがファイル名につく
https://i.imgur.com/TeLZZKW.png
プロンプトからStyles名を省略も何も
そもそもStylesはプロンプトに入れて使う機能じゃない
ここでの[styles]はStyle LoRAとかStyle HNとかStyle TIとかとは一切関係ない
最近LoRAとかHNもプロンプトになった弊害か誤解を招いてるのかもしれんがそういうことだな 会話の途中で水をぶっかけてアレだけど
長いファイル名だと読み込めないソフトもあるからファイル名にプロンプト入れないほうがいいよ
なんか壊れるファイルがたまにできるなぁと悩んでた過去
1111の設定に「保存する画像とともに生成パラメータをテキストファイルで保存する」ってのがあるからそれで外部に保存するか
PNG埋め込みを確認かメモ帳とかで保存だね 124お願いします
○神キャラのケツ画像作りたいんです それもそう
おすすめはシード値を消して[model_name]だけにしておくこと
ただしwebui\models\Stable-diffusionの中にフォルダ作って深く深く仕分けてる場合はそれらを別のところに退避させて
それらのシンボリックリンクだけ置いておくことを強くおすすめする
Stable-diffusion以下のフォルダ名ごと名前にぶち込まれるからな 今のままだと使い物にならんから
参考画像をぶち込む→参考画像をもとにどのような画像にしたいかを入力
こんな感じのもの出来たらよんでくれ キャラ人物の得意なものはわかったんだけど
ミッドジャーニーみたいな背景が得意なモデルでオススメあるかしら Custom modelってなによ
どちゃくそ綺麗なキャラばかり
AI生成してから、自分で描いたとか?
同じNAIなのにエンジンが全然違うんだけど モデルはマージしたりファインチューニングしたりなどでカスタムすることが出来て
区分できないからカスタムモデルという名称にしてひとまとめにされている >>131-132
なるほどわかった
stylesはプルダウンメニュー内でアクティブにしておけばよくて、その上のクリップボードボタンでプロンプト欄やネガティブプロンプト欄に挿入する必要はないのか
その勘違いがあったからわからなくなっちゃったんだ
確かにそれなら、styles名やその内容をファイル名に含めるかどうかという話になってくるのはわかる
どうもありがとう!! >133,135
フォルダ分けした画像をEverythingで串刺し検索したいことがあるから、[sampler]-[model hash]-[prompt_spaces] を入れてる
特定のモデルで作った画像を一覧したいときなんかに便利
(モデルを混ぜたりはしてないのでハッシュ値があれば混乱しない)
プロンプトもファイル名に含めておくと、プロンプト全部は無理でもある程度ならファイル名で検索できる >>142
マージってなんですか
ファインチューブってなんですか
説明が面倒なら詳しく書いてるうらる教えて🧡 画像AIスレって、なんjと絵描き板とCG板だけですか?
凄いハマってるんだけど、こんなに面白い割に盛り上がりが無さすぎるような
Twitterも、やらない人は騒いでるけど、遊んでる人って実は物凄く少ない? 結局モデルはめちゃくちゃ混ざってるし学習も噛んでるしi2iレタッチまで基本技術になってきたら
もう呪文とパラメーター揃えても何も同じもん出てこないから
初期にnaiマスピ量産して喜んでた層がだいたい飽きてきた なんUのガチ勢は秘密コミュニティで活動してるらしいから実態は不明だけど
マイニング用の超ハイスペックPCを数台フル稼働させてカスタムモデルを作成してるらしい
金持ちの道楽だろうな >>146
テンプレのどれですか?
これが最後なんで詳しく教えてください >>153
いや本当の話
なんUで最初期から活動していたガチ勢だけが参加できた一切非公開のDiscordコミュニティが存在する
そこで少数精鋭のメンバーだけがカスタムモデルなどの研究成果を披露しあって運が良ければ外部にも公開されるという そんな与太話は興味ないのでカスタムモデルの簡単な作り方を教えてください
動画でも歓迎です AUTOMATIC1111/Stable Diffusion WebUIの導入に失敗します
Gitを使う場合と公式の簡単インストーラーではRuntimeError: Cannot add middleware after an application has startedとなり
あかちゃんインストーラーだとブラウザが立ち上がったあと接続できませんとなります
どなたか解決法わかりましたらよろしくお願いします なんでそんな陰謀論みたいになってるのよw
普通にWikiとかで公開されてるDiscordで研究やモデルの話してるよ
本スレでもそうだけどなんかDiscord恐怖症か異常に嫌ったり敵視してる人いるよね
なんなんだろう >>157
たぶん159と同じエラー最新のバグらしい pip install --upgrade fastapi==0.90 それをどこにどうしたらいいんです?
sdファイル直下でGIt Bushに打ち込んでみたらcommand not found って出ます;; >>163
win10です
cmd、ふつうに開いて打ったら以下出ました
'pip' は、内部コマンドまたは外部コマンド、
操作可能なプログラムまたはバッチ ファイルとして認識されていません。 たぶんすぐ修正されるよ
なので時間置いて再導入が無難かと >>165
ありがとうございます
ローカルに落としてたらいじらなければ半永久的に使い続けれると思ってたんですが、サ終てきなので使えなくなったりすることあるんですかね?あるなら回避とかってないのか >>166
安定してる時に導入してそのままにしてればずっと使える あるにはある
webui-user.batの1番上にでも
git branch master
git pull
っていう2行を追加すればいい
webui-user.bat起動時に毎回最新版をインストールし(ちゃっ)てくれる 更新するならAUTOMATIC1111が動いてない今がチャンスだぞ あぶないよー、オートは
あのwebuiよく更新でバグるから webui自体より主に拡張の更新追い付いてなかったりやマナーの悪い実装しているのが原因でな
拡張やvenvを手動で操作や削除できない人には確かに危険かもしれんが・・・ カスタムモデルの作り方はよ
ボクはパソコン詳しいぞ
きみより早くシェア出来るかもしれない >>174
こんだけ時間あったのに自分で探せない時点でたぶん君には無理だよ NovelAI、なんかどれも必ず胴が長いんだけど短くする方法ない?
short torsoとかそういうのじゃ全く通用しない >>175
ボクはスロースターターなんだ
まぁSEは残業多いんスよ web-uiでトレーニング回そうとすると
assert os.path.isdir(data_root), "Dataset directory doesn't exist"
AssertionError: Dataset directory doesn't exist
って言われるのがどうしても直らん・・・ 自己解決した
新しい問題は生えてきたが一歩前進した 学習がまだ足りないなぁってときlrを上げるのとepoch数増やすのどっちが正解ですか? Holaraの無料配布ジェムって有料プランに入ったらカスタム生成に使える? モデル名に「evbm-light-half」とある作品をたまに見かけるのですが、
これってどこかで配布されてるものですかね? それはカスタムモデルだから配布されてないだろうね
おそらくマジナイだろうけどあそこは同じ人が投稿してたりするから
多く使われてるように見えてるだけさ あー、わかった
白ドレスの2.5Dのロリばっか生成してるやつだろ?
ベースはおそらくElysiumV1(アニメじゃないほう)に何か足したマージモデルだな
Elyでも似たようなの出るんじゃない?
それにしてもさすがに似たようなもん生成し過ぎだよな
少し自重しろって思うわ 現状RTX2060 を使っていてサイズ700×500 ぐらいが限界なのですが、3090だとどれ位の大きさが出せるようになりますか?
また解像度が高いほど描き込み増えるらしいのですがローカルでもHolaraぐらいの画像が出せますでしょうか? とりあえず高解像度にしたいだけならどっちかというとスペックよりもinpaintを使うといい
全体を高解像度化するのはモデルデータの依存が大きいからイラスト系だと1024x1024くらいが限度でそれ以上は崩壊しやすいし
小さい解像度の画像をまず作ってアップスケール、それをinpaintに送って細かく描きたいところをマスクして描けば高解像度化出来る web ui 1111の場合ならアップスケールした画像をinpeint に送ったら inpaint areaを only maskedに変える、それから画像サイズをスペック限界程度に設定しなおして描き直したい箇所をマスクして生成
出来た画像をinpaintに送ると画像サイズがまた変わってしまうからスペック限界程度に直してマスクして生成の繰り返し 調べたらオプションで画像サイズを送らないオプションもあったからそれ使えばひと手間減る ちょうど3090持ってて高解像度化で悩んでる
イラスト系だとt2iを1024x1024で一発生成、細かいところはinpaintで解像度そのままに修正してから、gigapixelで拡大するのが一番安定してる気がする
もっとも、これではガチャにかなり時間がかかるので512x512で数を回して選別、i2iに回して1024x1024に拡大、gigapixelでさらに拡大という手順を試してる
今のところ1024x1024までの歩留まりはいいんだけど、今度はi2iで拡大した画像の選別に自分の処理能力が付いていかない問題に直面してる
1024x1024以上の解像度でオブジェクトが化けないのが一番良いけど現状難しいみたいだね
ということで3090にしてもガチャが速くなるだけだと思う 今はハイスペパソコン買う金がないんですが、ネットカフェに行ってLORAとか出来ますか?
色々設定時に再起動とか必須でリセットされてしまうでしょうか 特定キャラのloraじゃなく特定の絵柄のloraを作りたい場合、
その絵柄のイラストを"girl"みたいなあらゆる生成の時に汎用的に引っかかるワード1つだけに学習させるって認識なんだけど合ってます? >>186
2060ならVRAMは12GBだよね? 768×768すら出ないってのは変だなあ
それだと公式の2.1も使えないよね
同じ12GBの3060で1920×1920も出てるよ
描き込みの密度はモデルによる
それか、highres.fix(高解像度補助)でLatent系のアップスケーラーを使えば、画像を大きくしつつディテールはある程度上がるよ >>184
>>185
ありがとうございます。ElysiumV1あたりを参考にして色々試してみます。 >>194
まじか。そりゃ厳しいなあ
VRAMが6GBでも起動オプションに--medvramをつければ、少なくとも1280×1280までは可能みたいだよ>186
Stable Diffusion VRAM 6GBメモ|滝川海老郎|note
https://note.com/takigawa_ebirou/n/nbfb97411f24d 2つ質問させて下さい
【PCスペック】
i7-8700k
3060
32GB
Windows11
上記にstable diffusionのローカル環境を構築してみて一応動く状態にはできました。
ただ、インストール途中でPythonのバージョンが3.9.13のままだという警告が出たので、Python3.10.6をインストールしたのですが以前としてstable diffusionはPython3.9.13の認識のままです。
Pythonをサイトから普通にダウンロードして普通にインストールする以外の方法で改善しなければならないのでしょうか?
また、モデルにCounterfeitを追加してみたのですが、絵柄に反映されません。
試しにCounterfeit-V2.5はsafetensorsで、V2.0はckptでmodels>stable-diffusionのファイルに突っ込んでみてやってみたのですが、stable diffusion checkpointの選択肢としては反映するのですが絵柄には反映しない状況です。
ざっくりとした状況で申し訳ないのですが、何かこの状況で試せる改善方法などあれば教えていただけるとありがたいです。 【追記】
automatic1111でやってみています >>197
まずはPython3.10.6インストールし直して(もちろんパスも通す)webui全て導入し直しかな
AUTOMATIC1111は更新時期によって再導入し直すのはよくあることなので、この際再導入には慣れとこう
あと、大抵のことはwebuiの再起動で直ることもある >>191
自前のマシンスペックが低くて学習関係厳しいなら学習だけcolabでやればええやん
ぱんだくんがcolab版のwebui作ってるよ
https://note.com/ddpn08/n/n99516e6db0d9 >>200
これつかったもののRUNボタンの上にボックスなんてでないんよな >>201
バージョン変わってコンソール窓が別タブになってる >>199
ありがとう
ちょうど別のスレにファイルの消し方も書いてあったし一回全部消して再導入してみます python入っていてもpythonの古いバージョンをvenvに入れてくれるしな >>194>>196
6Mのでしたが画像サイズ上げれました!ありがとうございます! >>188
何とか使えましたありがとうございます
>>190
ありがとうございます、少し様子見てみます wd1.5ってVRAM6Gでも動きますか?
SD2.x系がエラー出て動かなかった記憶があるので(yamlはセットしている) >>206
よかったよかった
>>209
>196に書いたように、VRAMが6GBでも起動オプションに--medvramをつければ、少なくとも1280×1280までは可能みたいだよ
Stable Diffusion VRAM 6GBメモ|滝川海老郎|note
https://note.com/takigawa_ebirou/n/nbfb97411f24d
WD1.5は768×768の画像を学習しているのかな? だとしても大丈夫でしょ 何もかも同じ設定(モデルハッシュが同じ)でも、生成サイズによって内容が大きく変わってしまうのですが、
これはそういうものなんでしょうか? >>211
残念ながらそういうもの
奇跡の1枚絵より、それを高確率で生み出せるプロンプトやモデルや設定を詰めていく感じだね どっこいHires.fixとかいう機能のSettingsの所にある旧式のサイズ指定のものを使ってdenoising strengthを0.6前後にすれば比較的保てる
なお思った通りになるとは言っていない とはいえ、1枚絵にこだわるの最初だけなんだよね
こなれてくるとプロンプトでばんばん好みの絵が出せるようになるから、1枚に対する執着がなくなっちゃう スレ見てて疑問に思ったのですが、なぜ正方形サイズで出力してるの方が多い感じなんでしょうか?
イラストって、縦長だったり横長だったりが多いと思ったのですが 512x512が学習元のオリジナルサイズ
だから解像度2倍にして生成すると結構な頻度でキャラも二人に増えたりする >>212,213,214
みなさんご返信ありがとうございました。「Hires.fix」などいろいろ試してみます。 基本512だから512の正方形で生成した方が良い結果出やすいって事ですか?
ひょっとしてDREAM BOOTH?での学習も512正方形でやった方がいいのでしょうか?長方形のでかい画像そのままフォルダにぶっ込んでサイズ入力する所は512のままでやったら一応学習して感じにはなりましたが ある程度なら左右に大きくしても大丈夫
プロンプトによって調節してみるといいよ
横長や縦長が合うプロンプトもあるので
でも学習は512x512じゃないとあかん
ちなこれはあくまでもSD1.x系モデルの場合
2.x系はもうちょい大きい画像で学習したモデルなのでまた別のルールになる CPU:i7-11800
GPU:RTX3060Laptop(6GB)
RAM:64GB
OS:Win11
としあきdiffusion Wiki見てAutomatic1111はローカルで動かせてます。
で、LoRAでの学習がしたくて、
https://wikiwiki.jp/sd_toshiaki/LoRA#x5a23f01
見ながらやってるんですが、エラーが出ます。
エラー出たログのちょっと上を見てると
RuntimeError: CUDA error: out of memory
CUDA kernel errors might be asynchronously reported at
some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
みたいなのが、あるんですが、3060の6GBじゃ、やっぱ無理なんでしょうか。
あと、正則化画像のフォルダに入れる画像やテキストファイルって、どんなものを用意したらいいのでしょうか。 >>221
このエラーは、CUDA (Compute Unified Device Architecture) が GPU (グラフィックス・プロセッシング・ユニット) のメモリ不足によって実行中に失敗したことを示しています。このようなエラーが発生すると、プログラムの実行が停止され、指定されたメモリ領域にアクセスできないといったエラーが発生する可能性があります。
この場合、"CUDA_LAUNCH_BLOCKING=1" を設定することでデバッグが可能になる可能性があります。このフラグを設定すると、 CUDA API が同期的に実行されるようになり、エラー発生時にエラーのトレースを行うことができます。
だそうな >>221
さんざんVRAMの話は言われてたろ学習だけCOLABでするか買い換えるか
減メモリ技術を待つか K_euler_ancestal
K_euler
って具体的に何が違うんでしょうか? なんやっけancestal付いてるサンプラーはstep数上げると構図が変わるとかちゃうかったかなたぶん >>224
設定かえたら、6GBでもギリ動かせるものなのかな?と思った次第で。
気持ち新たに、
https://note.com/ddpn08/n/n99516e6db0d9
上のでCOLABでやってみたんですが、
RuntimeError: Couldn't install xformers.
Command: "/content/kohya-sd-scripts-webui/venv/bin/python3" -m pip install xformers==0.0.17.dev443 --prefer-binary
Error code: 1
stdout: Looking in indexes: https://pypi.org/simple, https://us-python.pkg.dev/colab-wheels/public/simple/
stderr: ERROR: Could not find a version that satisfies the requirement xformers==0.0.17.dev443 (from versions: 0.0.1, 0.0.2, 0.0.3, 0.0.4, 0.0.5, 0.0.6, 0.0.7, 0.0.8, 0.0.9, 0.0.10, 0.0.11, 0.0.12, 0.0.13, 0.0.16rc424, 0.0.16rc425, 0.0.16, 0.0.17.dev444, 0.0.17.dev446, 0.0.17.dev447, 0.0.17.dev448, 0.0.17.dev449)
ERROR: No matching distribution found for xformers==0.0.17.dev443
と出て、xformers.がインストル出来ずに、止まります。 >>228
このエラーは、xformersというパッケージのバージョン0.0.17.dev443が存在しないため、インストールできなかったことが原因です。表示されているバージョン一覧から選択できるバージョンは、0.0.1から0.0.17.dev449まであります。しかし、必要なバージョンが見つからなかったため、インストールに失敗しました。
このエラーを解決するためには、xformersパッケージの別のバージョンを指定する必要があります。たとえば、利用可能なバージョンの一覧から、最新の安定版を指定してインストールすることができます。または、開発者に連絡して、バージョン0.0.17.dev443が利用できるようにするように要求することもできます。
と、chatGPT氏は申しております
ていうかnoteの主のぱんだ氏に聞いたほうが早いのでは >>227
K_euler_ancestalとK_euler
どっちで出力するか迷うんですがあんまり重要じゃないって事ですかね? 「diffusion sampler 比較」みたいな感じでぐぐれば先人が纏めてくれてあるから
自分の制作スタイルや目的、環境に合ったサンプラーを選べばいいと思うよ CGやアニメっぽくなってしまう人物画像を、写真っぽくするソフトとか無いですかね
アップスケールすると完全に塗り絵になってしまうしリアルっぽくならないので >>232
用途がいまいちわからん
元の画像があったうえでそれを実写化したいの?
それとも、SDを使って実写を生成したいの?
どちらにせよSDで出来るが waifとAnythingくらいしか商用利用可能と明言されてるモデルは無いと認識しているんですがDLsiteやpixivfanboxを覗くとモデル表記無しの作品が多い
商用利用に関しては皆その辺無視して好きなモデル使ってやってる感じなんですかね
それともちゃんとに守ってるのか loraなんだけど1111のwebUI上で済ませてModelの結合?まで済ませるのと
kohyaで学習させてから🎴から読み込むのとどっちがおすすめ?
webUI上では動かせてるけどkohyaのがいいのならインスコしようかなと t2iの「Highres. fix」オプションのように、
i2iでディテールアップさせるにはどうすればいいですか?
リサイズ(latentアップスケール)やスクリプトのSDアップスケールだと、
描画される内容が大きく変わってしまい困っています。 kohya_ss 版のLoRAを導入しようとしている若輩者ですが、wikiやらを参考にしつつ、
準備を終えてrun_popup.batで起動し、設定入力していくと、最終的に
mean ar error (without repeats): 0.03981685235516161
prepare accelerator
Using accelerator 0.15.0 or above.
load StableDiffusion checkpoint
Failed to train this set of args.
Skipping this training session.
Error is: Error(s) in loading state_dict for UNet2DConditionModel:
size mismatch for down_blocks.0.attentions.0.transformer_blocks.0.attn2.to_k.weight: copying a param with shape torch.Size([320, 768]) from checkpoint, the shape in current model is torch.Size([320, 1024]).
size mismatch for down_blocks.0.attentions.0.transformer_blocks.0.attn2.to_v.weight: copying a param with shape torch.Size([320, 768]) from checkpoint, the shape in current model is torch.Size([320, 1024]).
size mismatch for down_blocks.0.attentions.1.transformer_blocks.0.attn2.to_k.weight: copying a param with shape torch.Size([320・・・
とエラーが出て終わってしまいます。学習用画像が悪いのか、学習元のモデルがまずいのか、お手上げになっております。
何かわかる方ご教授をおねがいします。 >>240
モデルだと思う。最近なら最新で環境作ったばかりよね? >>241 先週からローカルやりだして、今週から学習やろうと四苦八苦しております
学習もとにするモデルに原因ということは、使えるモデルに何か条件あるんでしょうか?
とりあえず利用者多そうなモデルは試してみたんですが・・・ >>242
利用者が多い有名なマージモデルは過学習になりがちで学習素材にはむいてないよ
学習に使うならリークNAIかSD1.5がベスト >>221
6GBだと、xformersと8bit_adam使えばresolution 512のバッチ2なら動きそう
バッチ1なら確実だ 学習用モデルにはACertainty使えって母ちゃん教えてくれなかったか?
https://huggingface.co/ckpt/ACertainty controlnetの線画塗りってもう非公開になったん? 4080で学習やってるけど、ほんま4090かっとけばよかったと後悔してる
ゲーム用途だとほとんど困らないんだけど、VRAMサイズでこんな泣かされるとは思わなかった DiffusionBeeっていうmacのアプリでモデル落としてやってるんだけど、リアル系は総じてメガネが曇ってるみたいなぼやぼや画像なんだけど、windowsのちゃんとした環境だと違うのかな?
顔もホラーみたいにグネる事が多い 貼ろうと思ったらアク禁された
大人しく金貯めてwindows買うしかないか‥ サンプラーとVAEの問題だと思うわ
実写系ならサンプラーはEuler aとかDPM++SDE Karras(うろ覚え)とか
VAEは定番の5種類くらいしかないから色々切り替えて試してみな なるほどですね
仰る通り1.5で、samplerも変更できず何を使ってるのか分かりません
設定項目も殆ど無く
素直にwimdows買います
お三方サンクス! >>254
お金あるなら買うのが手っ取り早いけど、今はオンラインのgoogle colabでも色々試せるよ
やり方はまぁ検索してくれ automatic1111のdream boothで作ったckptが 一緒に生成されたyamlの有無で
画像が微妙に変わるんですけど、ckptに統合する事とかできますか?
ベースはorangemixなので1.5系です。 昨夜、2〜3日ぶりに1111立ち上げようとしたら詰まり、今改めてpython(3.10.6)や1111のLauncher(Ver.1.6.1)を入れ直してみたんだけど、torchの読み込みで詰まる
ここ数日で何か変化あったりした…? >>258
同じような症状?
Installing torch and torchvision
のあと、URL参照してるけど、そこで固まったり(さっきも2時間ほど待った)、再起動掛かったりして先に進まない。
今週初めまでは普通に使えてたんだが… これってプロンプトで頭身変えられないんですかね、、
キャプ翼くらい極端なのが欲しいわけじゃないんです >>260
プロンプトで「30 years oldとか「early teens」みたいな年齢指定するとキャラの背丈も変わる
後「full body」指定で画像の高さを縮めると描かれてるキャラの背丈も縦に縮むよ NAIのローカルに挑戦してるんですが、モデルが925997e9ではなく、89d59c3ddeと表示されます。
参考サイトの通りにしてるはずなんですが、どなたか原因わかりませんか…? >>262
ハッシュは計算法が変わって違う数値が出るようになったのでそれであってるよ >>263
そうなんですね!ありがとうございます!! 生成する時、高解像度で出した方が結果が良くなりますか?
その後アップスケールしたいわけですが
元々を高解像度でやった方が良いのか、それとも破綻しやすくなるとかどっちなんでしょう? >>265
1.5系は解像度上げるだけだと破綻する
500~800ぐらいの範囲内で生成してアップスール、もしくはhires使う
2.x系ならわりと普通に高解像度で出しても破綻はしない >>260
プロンプトで指定するのはガチャになる
モデルによっては既存の作品の特徴を学習しているから、captain tsubasaと入れればあの頭身で出るものがあるかも
いま話題のControlNetなら、出したい頭身の画像を用意すれば同じポーズで出力はできるよ >>266
なるほどサンクス
そういう仕組みもあるんすね
高解像度の方が全てにおいて良いのかと思ってましたわ
弱弱パワーでもいけるのは夢があるね その2.x系とは何?
なにかモデルかなにかを示してるの? >>269
今現在、stablediffusionの学習モデルには公式バージョン1.4~1.5を元に学習された1.x系モデルと、公式2.0~2.1を元に学習された2.x系モデルがある
今主流になっているのはほぼ1.x系
理由は、オンラインサービスであるNovelAIが1.4で学習されたモデルで、それが流出して現在の2D系モデル群が作られているから
2.x系は学習素材の解像度が大きいから高解像度生成が可能、ただしエロもイラストもかなり弱い
今後に期待 1.xでもnai使ってnai2dモデル結構あるんだけどな
ベースnaiに追加学習させてる奴らが技術もガチ勢すぎて負けとる NMKDで線画着色しようとしても出来ないけどやる方法教えてください なんUで回答なかったので質問させてください
このエラーの対策教えてください。
https://i.imgur.com/ZpHqcHP.jpg >240 の人と同じエラーかな…?
自分も丁度そのエラー出て困ってるので教えて欲しいです。
学習用モデルにACertainty使っても駄目でした。 やたら本スレに出てくるLoRAとはいったい?
どのようなもので、どんなふうにつかうものなの? >>276
やたら出てくる分、過去ログとかblogとかnoteとかその他配布元でもやたら説明あるぞ >>275
近そうですね手順通りにやってて出来ないので
知ってる方いたら教えてください >>274
メモリ足りてない時出ることもある
仮想環境か、pc自体再起動したら治るかも >>257 = >>259 だけど、ひとまず自己解決
Wikiにあったnoteのやり方でとりあえず生き返りましたわ >>279
KohyaLoRAだよね?導入はどれ使ったんだろう
ポップアップ版とかかな
エラー読む限りはモデルにまつわる何かなんだろうけど明確な理由はわからなかった
いっそ一旦設定含めて全部消してやり直してみたほうがいいけど、もし面倒じゃなければwebui版とかも試してみては?
https://github.com/bmaltais/kohya_ss
コマンドライン版やポップアップ版よりはわかりやすいとは思う python周りはタイミング悪いとインストール失敗するんだよなぁ
色々バージョン縛りがあってややこしいんだよ 何もしてねーのにある日突然起動しなくなるとか一回あったな >>282
kohya loraです全然出来ないから一旦全部消しました
webui版とやらは次できなかったらやってみます。 loraの特化モデルやりすぎだろw
世に出せるレベルを軽く超えてる LoRAの学習について、DreamBoothの手法を用いる場合とキャプションを用いる場合の2つあるみたいだけどどちらが主流なの?
それとも2つ使えるようにして使い分けた方がいいの? controllnetをWebUIに入れたらエラーで起動しなくなった…
仕方ないから別フォルダにインストールしなおしたけど
VAEとモデル、imageを移植したら昔のフォルダはもう消してもいいよね? >>288
場合によってはcontrollnetに入れたモデルと、あと追加したLoRAも忘れずにね >>289
ありがとうございます!
extentionフォルダも退避しておきます
もしかしてそのまま新しい方に入れても普通に動くんでしょうか?
またエラーが出たら悲しいので今は一旦様子を見ますけど… https://i.imgur.com/TjHul0P.png
すぐにこうやっておっぱい露出してくるんだけど
1枚目の青いドレスのままでこの2枚目の画像くらいまで胸元隠すようにはできない?
https://i.imgur.com/b45WZNN.png >>291
ネガティブにcleavageを入れるとか? >>291
このドレスのデザイン凄いな
特に胸の部分
少し硬いワイヤーで下から乗ってるんだろうけどかっこいい loraの学習を実行しようとしてrun_popup.batを実行したのですがNo python at '"C:\Users\〜\python.exe'となってしまい実行する事ができません
webui自体は起動するのですが… pythonのインストール時にpathを通さなかったのでは
上書きで再インストールするときに、インストーラーの最初のページで下の方にある
「Add python.exe to PATH」
のチェックボックスをオンにする 設定の「サンプラーのパラメータ」にある項目の意味を知りたいです
・DDIMで用いるeta(noise multiplier)
・Ancestalサンプラーで用いるeta(noise multiplier)→「Ancestalサンプラー」はEuler aのような「a」がつくサンプラーのことらしい
・sigma churn
・sigma tmin(X/Y/Z Plotにあるsigma min/sigma maxとあわせて)
・sigma noise
今までに見たページ
What are "Sampler Parameters"? ・ Discussion #1162 ・ AUTOMATIC1111/stable-diffusion-webui
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1162?sort=new
X/Y Plotについて - NovelAI 5ch Wiki
https://seesaawiki.jp/nai_ch/d/X/Y%20Plot%A4%CB%A4%C4%A4%A4%A4%C6
このページのほかの項目も知りたいけど、とりあえず上の5項目 単純な質問で申し訳ないんだけど
webuiのブロンプト保存呼び出しのデータはどこに格納されているの?
いらなくなった名前付けたスタイル?を消したいんだけど >>297
webuiフォルダ直下のstyles.csvをメモ帳で編集 >>298
発見しました
フォルダの中とか漁ってました >>295
そう思って環境変数加えてみたり再インストールしてみたんですけど変わらず…
結局別のフォルダにloraをインストールし直したら動きました
そのうちまた止まりそうで怖い controlnetをAutomatic1111版で使いたくて、
extensionsから拡張入れて、再起動してモデルも全部所定のファイルに入れて、
UIはちゃんと表示されるしモデルの選択とかもうまくいくんだけど、
一通り設定して生成押すと
AttributeError: 'NoneType' object has no attribute 'convert'
って出て生成されない
Automatic1111は最新版だし、再起動も何回も試したけど直らない
どうすればいい?何かし忘れてるかな? >>301
ミクビル版?
モデルはちゃんとextension内のmodelsに入れた?
pip install opencv-pythonもした? >>302
ミクビル版?かどうかはわからないけどとりあえずこの記事の通りに入れた
https://gigazine.net/news/20230216-stable-diffusion-controlnet/
modelはちゃんと8つ全部認識されてる
opencvは今コマンドプロンプトで確認したけど入ってる、
ただ別のライブラリ(Torch)の話だけど、なぜかコマンドプロンプトで確認した時は入ってるのに
Automatic1111の起動時に入ってないって言われたことがある
結局batファイルにコマンドラインフラグ書いて入れられたけど >>303
ならあってるね、おそらく
あとは運悪くextensionのアップデートでダウンロードエラーとか起きちゃったかな
extensionのタブで最新か確認して、それでもダメだったらもう一度入れなおしてみるしかないのかも? anyとかNAIリークのVAE使うと生成エラーでるの自分だけかな?
ただVAE配置だけじゃなくて他にやらなきゃいけないことってあったっけ?
no half vae入れてもエラーが出なくなるだけでボケた画像が出力される
ちな環境はpaperspaceです イラレ板でAI派とアンチAI派が戦争してて草
アンチAI派の絵師様たちがフェミみたいになってきてるのも草生える 誇り高き蛮族とヒョロガリ科学屋が強さについて語りあってる感じに置き換えて読むとたのしい webuiの簡易インストーラー版で使ってるんですが、Cドライブ直下に置くとモデルの切り替えにさほど時間がかからないのにDドライブに置くと著しく時間がかかってしまいます
CドライブがSSDで、DドライブがHDDなんですがそこらへん関係してるんでしょうか? AOM3って3つのモデルが合わさってるみたいだがどうやって使い分けるんですか? >>308
そりゃ、もちろん
ssdって速いんです >>304
ControlNetごと入れなおしてみたけど、同じエラーが出る......
ちなみに、コンソールの方のエラーメッセージ全文はこんな感じ
Traceback (most recent call last):
File "D:\stable-diffusion-webui\modules\call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "D:\stable-diffusion-webui\modules\call_queue.py", line 37, in f
res = func(*args, **kwargs)
File "D:\stable-diffusion-webui\modules\img2img.py", line 85, in img2img
image = init_img.convert("RGB")
AttributeError: 'NoneType' object has no attribute 'convert' >>311
やっぱりAutomatic1111ごと入れなおすべきなのかな........ >>312
自己解決しました
入れなおしたのになぜかExtensionsのUpdateの欄がbehindになってたからアップデートして、
txt2imgの方に変えたら生成できるようになった >>311
単にimg2imgのタブでやってエラー出てるだけじゃないのそれ いくら蛮族が自分の刀の切れ味を良くしてもヒョロガリ科学者が銃を発明した時点で終わりなんよ .ckptと.safetensorsってどう違うの?
Hugging Faceで両方あったらどっち入れたらよい? safetensors一択
ファイルサイズでLoRAかHNかTIかCheckpointか分かるようになっとけ
今全部safetensorsにできるようになってる kohya LoRAってなんかコカコーラみたいだな >>310
wiki読んだらSSD推奨って書いてありました、ありがとうございます ついでにもうひとつ質問させてください。
プロンプトは半角カンマで区切って改行せずにズラズラって並べているようですが、改行入れると問題ありますか?
できればワードの分類ごとに改行入れれると目視しやすいかなと。
試しにやったら別に問題なさそうだけど。
あと、()で囲う意味は? >>323
改行はおk
()はそのタグを強調してタグのパワーを強める機能
AUTOMATIC1111を使用しているのなら、タグを選択してctrを押しながら矢印キーの上下で数値入力できる
(tag:1.5) 強度1.5の場合 >>324
なるほどです、ありがとうございました。 すみません全くの初心者の質問なんですけど、
loraを使いたくてインストールのやり方とか色々調べてるんですけど、
わかり易く説明してるサイトとかありますか?
間違えて質問スレじゃないところに書き込んでしまい迷惑かけてしまいました…。
とりあえずここを見て四苦八苦しております
https://self-development.info/%E3%80%90stable-diffusion%E3%80%91lora%E3%81%AE%E3%82%A4%E3%83%B3%E3%82%B9%E3%83%88%E3%83%BC%E3%83%AB/ 言ってることがほぼフェミで草
こいつが表現規制に関してどう思ってるか知りたいわ
NAIリーク問題を考える
@2d62144a74f24f8
https://twitter.com/2d62144a74f24f8/status/1626773533492903936
https://twitter.com/5chan_nel (5ch newer account) >>326
それ全然ちゃうよ
今主流はkohya氏が手を加えたkohya版LoRA
ここのサイトの解説がわりと前から人気
https://economylife.net/kohya-lora-install-use/ >>328
え…そうなんですか!?
なんか色々とインストールまではしたんですが、大丈夫ですかね…。
それでやってみます!本当にありがとうございます!!! >>329
この界隈()って進化や更新のスピードがすごく早くて、1週間前の情報ですら『古い』になっちゃったりするから、出来るだけ新しい記事を参考にしてね 質問失礼します。
ミッドジャーニーやnovelaiが席巻してた時で
自分の知識が止まってるんですが
今の生成aiの主流って何かあったりしますかね?
それとも主流などなく
風景やアニメ調のものなど得意分野がそれぞれ異なる形で
沢山の生成aiが共存してる感じですかね? >>331
MJもNAIもwebオンリーのサブスクだったけど、今はローカルPC上でstableiffusionを動かすことが主流といえば主流
NAIも元々はSDなんだけど、どういうわけか中身が流出、それを元にした派生品が大量発生
そしてそうやって作られたものがまたオンラインのサービスになったりもしている
今はまさに大お絵描き無法時代 無法な奴がさらに無法なやつに成果横取りされるからなw >>333
教えていただきありがとうございます。
良くも悪くもすべてをオープンにするのが
インターネットの文化みたいなところありますし
止められない流れなんでしょうかね…
商用には使えなさそうですが
個人的に触って見ようと思います 274で質問した者です
やり直したら別のエラーが出ましたkohya loraブログの
まんまやったんですけど理解できる方いたら教えてください
https://i.imgur.com/2HXxxTb.jpg 昨日からsb webui初めて学習やってみたくてDreambooth入れてName Souce Checppoint Schebuler入力して
Create Model押してもエラーがでる…
ググっても同じような症例出てこないしおま環ですか?
File "D:\AI\Counterfeit-V2.5\sd.webui\webui\extensions\sd_dreambooth_extension\dreambooth\sd_to_diff.py", line 341, in convert_ldm_unet_checkpoint
new_checkpoint = {"time_embedding.linear_1.weight": unet_state_dict["time_embed.0.weight"],
KeyError: 'time_embed.0.weight'
Pipeline or config is not set, unable to continue.
Restored system models. >>339
エラーについては調べてないのでわからないけど、そもそもDreamBoothってマシンスペック結構いるよ
今は低スペックでも学習時間も短く精度の高いKohya版LoRAが主流なのでいっそそっちを導入してみては
導入ちょいややこしいけど新し目の解説サイト見ればわかるとは思う 回答ありがとうございます。
言われたやつ導入してみます。 Lora動かそうとsd-scriptsのrun_popup.batを叩いても正常に動かない
指定されたパスが見つかりません...
で動かない >>338
そもそもの公式版がアプデしたからかな
ブログのやつってのがkohya_ssなのだとしたら、
↓公式のやつをひとまずひっぱってきて
git clone https://github.com/kohya-ss/sd-scripts.git
sd-scriptsフォルダの中身を丸ごと全部kohya_ssに上書きコピーで動くかも? >>342
スクショ貼ってくれー
でもパスっていうとだいたいpythonのパス通ってない問題な気もするが >>345
そもそもインストールが完了してないか、Pythonのパスが通ってないか、の可能性 <lora:koreanDollLikeness_v10:0.3>
↑
こういう<>で囲って別のモデルをロードするプロンプトで読み込めないんだけどどうすればいいのでしょう? >>347
日本語でおk
エスパー系スキル必要な質問か……
多分lora使う環境構築出来てないんじゃね? バカですみません
2点教えて頂きたいことがあります
1.偶然とてもエッチで完成度の高い画像ができたのですが、それが「1枚当たりの枚数」を「2」に設定したときの2枚目になります
検証したいので設定を「1」に変更して、2枚目のエッチな傑作だけを常に出せるようにしたいのですが
2枚で生成した場合の2枚目を1枚設定で1枚目に出す方法はあるのでしょうか?
2.1050Ti(4GB)というびっくりするくらい低スペのグラボで作っているので512ピクセルが限界なのですが
これをもう少し解像度高くする方法はあるのでしょうか?(高解像度補助の項目にチェックを入れると必ず落ちます) >>348
言葉足らずですみません。
多分自己解決しました。
show extra networksボタン押してloraタブでリフレッシュしたらロード出来たみたいです。 >>349
1.生成した画像には全てinfoといってプロンプトやシード値の他あらゆる情報が書き込まれてるので、その画像をinfoタブに投げると中の情報が見れる
それをt2iに渡してあげればいい
上記の例であればシード値だけでもいいとは思うが
2.低グラボ用の起動オプションを盛々にしてもダメなら諦めるしか >>351
ありがとうございます!
これで倍えっちがはかどります!
グラボ・・・高いの欲しいです3060とか >>351
画像をinfoタブに投げるとは
どういう操作をすればいいの? >>353
WebUIの話ならPNG Infoタブのことだろう
起動したらすぐ見える画面上のタブの中にある
そこ開いてD&Dして終わり あんまりにもあんまりなスペックの人はColabo使ったほうがいい気するんだけど
低スペでもローカルじゃないと出来ない事ってなんかあったっけ 始めまして、画像生成AIに興味があって参加させて頂きました
質問は二つ
1 novelAIとstableを比較した際のnovelAIのメリット
2 stableを快適に使用するため、低スぺPCの人は何のプランに入るべきなのか
まず1の詳細について
現状この二つが画像生成において特に優れていると思いますが、stableの方は拡張できる分
novelAIより圧倒的にできることが多いです。
そんな中でnovelAIを使っていく意味はあるのかどうか教えてください
次に2について
本格的に画像生成を楽しみたいならstable一択なような気がしますが、調べたところGPUの都合でかなりの制限があり
自分のような低スぺの人には辛い部分があります。
無料でGPUを使わせてくれるところもあるようですが、一時間程度で上限に達してしまいそれ以上使えません。
平日はそれでもいいのですが、土日となると数時間、何百枚と生成したいと考えています。
この場合GPUを借りれるpaperspaceや他の物において、どのプランに入るのがいいのでしょうか?
長くなってしまいましたが、アドバイスの方宜しくお願いします。 >>356
ある日突然BANされたりとか手帳持った人にPCを押収されて
社会生活が終了する事へのリスクヘッジ
家族や知人にも見せられる健全な画像しか生成しないならColaboでOK >>357
NovelAI(以下NAI)も中身はstablediffusion(以下SD)なので、ローカルPC環境(以下ローカル)で完全再現出来る
今NAIに金を出す意味は無い
オンラインならpaperspace、エロならローカル一択 ローカルというのは高スぺPCが持ってる人しかできない
という認識でいいでしょうか?
月5000円までなら月額でなら払えますが、低スぺ&改造などはできないため、GPUを購入して取り付け というのができないです汗 >>360
ミドルスペックのゲーミングPC相当(グラボ3060vram12gb)
15万前後といったところ
あと電気代結構かかる
paperspaceでやるならオンライン上に環境を構築する必要がある
https://wikiwiki.jp/sd_toshiaki/Paperspace%E7%89%88%E5%B0%8E%E5%85%A5
どれも無理なら諦めてNAIに金払うのが一番簡単ではある
決まった方向性の絵で拡張性もないが快適ではある >>360
昨日からやり始めました
ガチロリでUPすら危険な画像を作りたくて
ローカルでやりましたけど
今のとこデフォルトでやってますが負荷とか全然ないです
Ryzen 5 5600X
GeForce GTX 1660 Ti 6GB
メモリ32G >>360
俺は中古で37000円のRTX 2070S (VRAM8GB)で今のところギリギリ結構楽しめてる
でもやっぱもうちょっとスペックに余裕ほしいと思った >>362
1600ってなんか特有のエラーでなかったっけ? >>364
画像が真っ黒になってしまうエラーらしいですが
自分はなりませんでしたが
導入は面倒でした
日ごろ使わないコマンドプロンプトの
コピペのやり方もわかんなくてw 「Diffusers」とは、何をするために使うものなのでしょう?ネットの情報を参照しました(現在、ローカルPC環境で生成できています)が、いまいちよくわからないです。 >>343
こちらダウンロードしましたがrunpopなどは入ってないですがその辺りは使い回しで良いのでしょうか? 自分の写真100枚をもとにLora作ったら、自分の顔で色んな画像作ってくれるの?
学習ってそういうこと🙂? すいません。導入してみたのですが、127.0.0.1 7860がアクセス拒否でwebuiが立ち上がりません。ポート開けばいけるのでしょうか? それだけで行けるかどうかは知らんけど
まずはポート開けないことには先に進まん 案の定まんさんで草
もう少し泳がしとくか
706 名無しさん@お腹いっぱい。 2023/02/20(月) 11:49:29.33 ID:VMf29Ydg
まんさんは創作の文脈にお気持ちカルチャーを持ち込むからなあ…
710 名無しさん@お腹いっぱい。 2023/02/20(月) 12:07:56.71 ID:wZ/e39li
>>706
そういう性差別をするから、
お前ら無職ハゲゴミは共感されんのやで?
汚い顔に少ない貯金と髪の毛、不潔、無職
それがおっさんやで? たぶんそれportじゃなくてwebuiが立ち上がってないんじゃないかな
webui立ち上がってない状態でアクセスすると
「申し訳ございません。このページに到達できません
127.0.0.1 により、接続が拒否されました。」
って表示出るよ 導入後、セットアップ終わったと思ってプロンプト閉じちゃう人は結構いる
でも実はあれが起動中のプログラム本体っていう >>370
そういうこと
顔だけなら30枚ぐらいで大丈夫
悪用しちゃダメだよ 何度も聞いてばかりですみません
モデルを選択する際、モデル用のフォルダにckptやsafetensorsをいっぱい入れておけば
選択で選ばずとも、トリガーになる呪文を唱えると出てくるor出てきやすくなるのでしょうか?
具体的には、実在する背景を学習させたモデルを入手したのですが
そこに人物を登場させようと思うと、モデルの合成が必要になりますか?
それとも2つのモデルをフォルダに突っ込んで、
背景の呪文と人物の呪文を両方唱えると両方召喚できるのでしょうか? >>378
モデルは用途や目的に合わせて自分で1つだけ選択して使用する
モデルによって生成する絵に向き不向きがあるので、実写は実写用、イラストはイラスト用と分けて使う
背景特化モデルと人物特化モデルをマージして、うまいこと目的のものを作れないこともないかもしれないけど、かなりの知識と試行錯誤が必要かと思われる
ただ、わりと近い将来には可能になるとは思う >>377
未来ってすごいんだな😯
悪用なんて絶対にしません!写真集買ってきます! 写真集買わなくても推しがTwitterにアップしてる写真だけでイケる
オレはイケた 素人質問で恐縮なのですが
以前はローカル導入の際に
トレントを介してファイルを落としてたと思うんですが
としあきwikiを見てる感じ必要なさそうなのですが
実際どうなのでしょうか その用途だと、LoraとDreamboothどっちが高品質に出せるん?
アニメ絵の話が多くてリアル系がいまいち謎 >>383
それはローカル導入というより、NovelAIのリークデータをダウンロードしてNovelAiをローカルで再現するという話
ローカル環境でお絵描きAIをするだけなら、別にNAIを再現する必要があるわけではないので、好みのモデルをダウンロードすればよいかと >>384
すごい暴論だけど、だいたい後から出てきて流行ってるものが高性能なのがこの界隈
LoRAはとても優秀
実写系もとても多い
https://civitai.com/ >>384
kohya loarで学習
あとはmodel次第 >>359
なるほど、ロラによるアニメキャラ再現が魅力的でぜひともやりたいんですよね……
えろというのは裸も含めたすべてですよね?
なぜそのあたりが禁止されているんでしょうか?
生成はできるようですけど…… size mis match for down block
とはどんなエラーなのでしょうか?どう解決すれば良いのでしょうか? ド正論で草
669 オーバーテクナナシー 2023/02/20(月) 11:15:07.70 ID:dn9GLfZ6
言っちゃ悪いが人間の描いたアニメ萌え絵だって先人のコピペしてる様なもんだろ?全くの独学で描いている人なんていないだろうし
それにしても一次創作してる絵師ならともかく二次創作してる絵師やらがラッダイト派になってるのを見ると笑ってしまうわ、グレーゾーンの二次創作者がそれ言うか?って >>390
ここは質問スレなので、出来ればよそでやってください >>386-387
なるほどサンクス!ならVRAM12GBで良さそうだね
ポチって後でDreambooth使えない奴wとなるの嫌だし >>388
追加学習やLoRAはローカルじゃないと使えない
かといってcolabやpaperspaceでGoogleDriveにエロ保存するとBANされる可能性がすごく高い >>392
話題になってから数か月、今もオススメは3060vram12gb
お金があるのなら、3090、4090で 3060.12GBがコスパは最強
もちろん3090 4090をお気軽に試せるならそれはそっちがいい >>393
あ 保存はエクスプローラにやるのでグーグルドライブに保存することはないです
後、友達に教えてもらったところ普通に教えてもらってブラウザのstableをcolab経由で試してみました
普通に学習されたloraファイルも使用することができ(自分で学習させたわけではない)
好きなアニメキャラも生成することができました
ローカルというのは一体どういう意味なのでしょうか・・・? >>396
なんだそこまではやってるのね
そう、厳密に言えばオンラインを駆使すればそうやって出来ないこともないのだけど、基本的には自分のパソコンでやったほうが安全だよという話
colabの中身にもよるけど、生成した瞬間に画像ファイルがgoogle上に保存はされる作りになってる可能性もあるし
googleはエロに厳しいので
BANといっても別に逮捕されるとか通報されるわけではないよ ただしBANされると当然GoogleアカウントもGmailも永久凍結ということだし
他に持っているアカウントも芋づる式に使えなくなる可能性が高い 使えなくなったらその時諦めてPC購入しますかねぇ
とりあえず半年後であれば買う目処がたつので、それまで月五千円で学習やら生成やらができればいいんですけど…… ロリなんて生成しまくったりなんて不可抗力でもなったら確実に怒られるからなあ
やりたい放題やるならローカルの方がいいでって話だろう >>399
半年後は確実に今と大きく状況が違う
とんでもなく進化してるかもしれないし、大きな社会問題になって今以上にコソコソしなきゃいけなくなってるかもしれないし
多分誰も予想出来ない
君にとって良いタイミングだといいね >>401
否定できない……マジで去年の終わり頃にAIが急速に一般に普及したのに、もうこれですからなぁ 質問です。
ローカル環境の画像生成や学習目的で
i7-6700K
GTX 1060 6GB
メモリ16GB から
i9-13900KS
RTX 4090
メモリ32GB に買い替えを検討中です。
この構成の場合、
空冷クーラー(120mmデュアルファン)だと冷やしきれず
生成や学習の効率が大きく落ちたりすることはありますか?
もし詳しい方がいましたら教えてください。
よろしくお願いします。 >>403
冷えるといえば冷えるし冷やしきれないと言えば冷やしきれない
このスレ視点の回答で言うなら、冷やせるクラスのCPUにすればいいと思いますよ あらゆるCPUは1万円台のハイエンド空冷なら十分説を信仰してる
というかつまり、その構成でクーラーとか誤差でしょ >>379
お礼が遅くなってしまい、申し訳ありません!
メチャメチャ参考になりました!
1モデルのみ召喚可なのですね・・・ gtx1060 6gbじゃあLoraの学習は無理ですかね?
できてもしょうもないのしかできませんか >>401
アメリカの大学が画像AIの生成できる画像に制限を加えられるようバックドアを義務化すべきと提案してるし
誰でも無制限にエロでもグロでも画像を作れる時代は後数年かもね
近い将来に一般人の利用可能な画像AIは制限フィルターとパフォーマンスリミッターでガチガチに固められたものになるだろう >>409
数年ももたないんじゃないかな
むしろこういったものはアングラに帰るのがベターだと思ってる モチベーションを阻害するだけの無用なルールなんて作ったら進歩シナシナですよ しかし性器の描写何とかならんかなぁ
スジマンならいいけどクパァで可愛いオマンコも
見たいんだが 修正めんどくさいから最初からモザイク入れといて欲しい ChilloutMixのようなモデルで泣き顔出すことってどうやれば出来ますか?
tear,sad,sorrow,crying,等いれてもまったく泣きません 救援をお願いします。
【PCスペック】
i7-4770k
1660TI
24GB
Windows10
としあきdiffusionを参考に環境構築をしているところですが
webui-user.batからうまく進みません。
対処法にあった.\venv\Scripts\activateを試したところ
C:\sd\stable-diffusion-webui>.\venv\Scripts\activate
'.\venv\Scripts\activate' は、内部コマンドまたは外部コマンド、
操作可能なプログラムまたはバッチ ファイルとして認識されていません。
こちらのメッセージが出ました。
pythonは正常にインストールされてパスも通ってるとは思うのですが
どうがご助力をお願いします。 キャラ物じゃなくて、例えば和小物とか和服の精度をあげたい、みたいな目的の学習でもloraでいいんでしょうか? >>421
和服ってキーワードで和服を覚えさせれば和服ってキーワードを入れたときに和服が出力される認識です
和服を覚えるときに和服以外の要素は出来るだけバラけさせないと和服ってキーワードに他の要素が混じると思います >>422
例えば学習した和服画像の人が全て下駄を履いていたら
和服には下駄が含まれる、と学習する
みたいな感じでしょうか? >>424
反応ありがとうございます。
モデルデータはダウンロードして適切な場所に入っていますし、出力されるエラーメッセージも異なるものになっています。
次のようなテキストが出るのですが……
venv "C:\sd\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: 0cc0ee1bcb4c24a8c9715f66cede06601bfc00c8
Installing torch and torchvision
C:\sd\stable-diffusion-webui\venv\Scripts\python.exe: No module named pip
Traceback (most recent call last):
File "C:\sd\stable-diffusion-webui\launch.py", line 360, in <module>
prepare_environment()
File "C:\sd\stable-diffusion-webui\launch.py", line 269, in prepare_environment
run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch", live=True)
File "C:\sd\stable-diffusion-webui\launch.py", line 89, in run
raise RuntimeError(f"""{errdesc or 'Error running command'}.
RuntimeError: Couldn't install torch.
Command: "C:\sd\stable-diffusion-webui\venv\Scripts\python.exe" -m pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117 としあきの所の方が情報あるんでね?
いい時代になったもんでwebuiなら公式使うのが王道だろうし、何かアップデートあった時は配布してるところに聞かんとわからんこともある
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tags >>426
やっぱそれ使う感じになりますかー。
身の程をわきまえてまずそこから試してみます。
ありがとうございました。 試した事はないが
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
公式の自動インストールはいかんのか?
>>427
検索したら出てきた
>C:\sd\stable-diffusion-webui\venv\Scripts\python.exe: No module named pip
>>Python に pip がインストールされていないようです
>>cmdで実行してみてください
C:\sd\stable-diffusion-webui\venv\Scripts\python.exe -m ensurepip –upgrade
とのこと khoya版lora学習中低スペックでとまっちゃうんだけど数値いじったりすればどうにかなる? 私も勧められて導入を試みたんですが
うまくいかなくて
いったん全部捨てて
としあきのとこのまじでPCなんもわからーんって人はここから
で言うとおりにしたら上手くいきました >>428
公式の自動インストール試したらうまくいきました。
逆に探していただいた方法だとまだ……。
Pythonも弄ってみたかったので今後の為にと試していましたが
しばらくこのまま自動インストールの方で遊んでみます。
ありがとうございました。 pythonは「3.10系」を使う事とインストーラーの最初の画面で下の「PATHの所にチェックを入れる」または手動で追加する2点くらいしかミスしようがないものな
そこがこけたら全部こけるっていうか… 気になってたんで調べたら
これで作った画像って保存してないのに
output内にしっかり保存されてるんですね
やだなぁ困るw
ここ見られたら変態ロリ野郎ってばれちゃう https://economylife.net/kohya-lora-install-use/
こちらのサイトを参考にしてkohya版Lora入れてポップアップ版で学習をしようとすると以下のようなエラーが出てきます
なにか足りていない設定があるのでしょうか?
make buckets
number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む)
bucket 0: resolution (320, 704), count: 40
bucket 1: resolution (384, 640), count: 60
bucket 2: resolution (448, 576), count: 80
bucket 3: resolution (512, 512), count: 200
bucket 4: resolution (576, 448), count: 20
mean ar error (without repeats): 0.03136541640204971
prepare accelerator
Using accelerator 0.15.0 or above.
load StableDiffusion checkpoint
Failed to train this set of args.
Skipping this training session.
Error is: Error(s) in loading state_dict for UNet2DConditionModel: ここのスレでおすすめされていたこのサイト
(ttps://economylife.net/kohya-lora-install-use/#toc1)
をみながらキャラの追加学習に挑戦しているのですが
タグ付け(キャプションファイル作成)の項目で
「呼び出しトークンを先頭に置いておく場合、「Additional tags (split by comma)」に
呼び出しトークンを記入してから「Interrogate」クリック。」
という手順が書かれているのですが
呼び出しトークンとはどういう意味なのでしょうか?
調べてもよくわからなかったので
わかる方がいましたら教えていただけないでしょうか? 現状novelAIでできることは全てstableの方でできるんでしょうか?
motion線やoil shinyskin等詰めまくったぬるてかボディ、特定のアニメ作画によらす等 >>434
学習モデルが2.0ではないのに、2.0系モデル用の設定を選択してしまったとか
もしくはその逆か >>436
そもそも学習データが違うから無理じゃね? >>436
完全再現できる
NovelAIのデータは完全に違法流出していて、わりと誰でも簡単に入手できる状態になってる
違法だけど、すでに世界中で愛用されている
あとは自己責任で >>435
そのLoRAに紐づける、呼び出し用のタグ
今は別に無しでもいい 古いモデルが捨てられなくて溜まっていく一方なんだが
みんなどうやって保管してる? 容量の大きいHDD用意してそこに色々突っ込んでるからまだ平気だけど画像の整理とか全く追いついてないしそのうちまとめてゴミ箱に突っ込みそう
ckptは容量デカいし古いなと思ったやつはどんどん捨ててる なるほどなあ
やっぱり捨てるが最良だよな
よっぽど思い出補正のあるもの以外は捨ててどうしてもは大容量HDDか 学習で使いたいと思うんだけど
Colab有料プランで使えるGPUってメモリ何GBが一般的なんですか? ガチャで割り振られるのは一緒じゃないの?15GBで不満はないけど ありがと
3090の24GBにくらべて見劣りしてるけど実行時間はローカルと比べてどうなのかな?
学習だとRAMが重要って聞いてるから購入しようとしている3060では無くまずハイスペックなColabで学習させようかなって思ってたんだが i7-6700 GTX1650 4GB でやってるけどいばらの道だわ・・・
解像度低いと生成される絵もいまいちだし >>439
了解です、ではnovelAIは完全に引退し、これからは
stableに専念します
そこで質問なんですが、低スぺPC故多分ローカル
(具体的にローカルが何なのかわかってない)
が組めないので、paperspaceを使おうと思うんですが、平日は数十枚、土日に数百枚と使う場合はどのプランがいいのでしょうか?
現状見方がわからず、GPUがどれほどあればどれ程使えるのか、というのがわからなくて……
学習等もさせたいと考えており、予算は月5000円程度
また、colabの方もプランがあるようですが、こちらはあまり良くないとのことでpaperspaceを検討しています >>450
NovelAIはまた今日新しいサンプラー追加されてかなり良くなったよ
ローカルではNovelAIのようにサクッと良い絵を出すのは少し面倒
ファンも回ってうるさいし
併用がおすすめ colabで学習させたいんだけど環境構築の参考になるサイトが見つからない >>450
ごめん、まさに今日アプデがあったみたいw 低スぺだからちょびっとだけ金払って遊ぼうってのが意味わからんわ
COLABで毎日3時間くらい無料で遊べばええやんけ >>450
novelよりも改造モデルの方(orangemixなど)が綺麗な絵を出せるっちゃ出せる >>454
学習もさせたいのでどうしても厳しいんですよね
無料で学習もさせれるなら話は別ですけど、調べたところ見つからなくて汗 >>456
ここまでのやり取り見てると
学習環境構築できるようになるまで相当時間がかかりそうに見える
まずはcolab無料の範囲でt2iできる環境作ってみるのをおすすめしとく
使いながら少しずつ前進よ お金払ってNAI以上にどんな目的をもって挑んでるつもりになってんだよ
学習学習っていうけどどれするつもりだよ目標はなんだ
CoLab無料でLoRAもほぼ最新棒人形も動いてるぞ? 結局のところgitやたターミナルの黒画面にコピペコードポチー行程必要なだけでメチャクチャ振り落とされるんやな 現状ローカル環境のcontrolnet+loraの組み合わせを一回使い出したら、もうwebには戻れんわ…… LoRAは割と面倒よね
Python、Pytorch、CUDAのバージョン合わせないと動かないし
win環境だとbatはwindowsが呼び出すから
環境変数いじったりもしないとだし
一個つまずくと結構たいへん プログラミング学習ない世代との格差なのかな
コード書いて実行して結果が出るをなんだと思っているのか
WEBUIは開いてしまえばスマホアプリと変わらんからな そんなビギナーにオススメワンクリ導入版
個人的には公式版より好き
AUTOMATIC1111 WebUI 簡単導入!他環境と競合しないスタンドアローンセットアップ法
https://note.com/uunin/n/n715256399038 Dreamboothの学習を試してみたいのですが、1111とNMKDの2種類の方法がありますが、どちらがいいのでしょうか? >>465
どっちも使ったことないならAUTOMATIC1111で覚えることをすすめるわ
どうせあとでもっと色々やりたくなって乗り換えることになるし >>464
Kohya版LoRAについて
スタンドアローンのまま導入方法が確立した(ような気がする)ので、近いうちに更新出来ればなーと思います。
こんなこと書かれたらワクテカしちゃう >>466
ありがとうございます。AUTOMATIC1111でいきます。 https://i.imgur.com/MrVkAmt.png
https://economylife.net/kohya-lora-install-use/
このサイトを参考にやっているんですけど、
「ポップアップ版で学習」の項目で、
run_popup.batをクリックして起動させると、この表示が出て落ちちゃうんですよね、
なにか足りないかアップデートしないといけないんですかね?
python3,10,6を使用しています。 >>469
どうやらバージョンアップでエラー出るようになっちゃったみたい >>470
まじすか…なにか落とさないとできないんですね…全くの素人には敷居が高すぎました… >>471
教えてくれてありがとう
明後日グラボが届くので、そのタイミングでバージョンが噛み合ってることを祈る >>448
触ってないです
どうせやるなら最初から有料でやるつもりなので
まあ最初に3090や4090買えば一番なのはわかりますので折衝案なのは理解しています すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました すみません自己解決しました…。
トシアキさんのところの初回準備をPowerShellでコピーし直したらできるようになりました!
ご迷惑おかけしました スペック不足でloraが止まってしまうのですがGooglecolabで学習データだけつくれますか?
ローカルでないときの導入のしたかが調べてもわからないので参考になるサイトのヒントとか教えて欲しいです。 書き込みエラーになったので連投みたいになってしまいました…。
なにわともあれ良かったです。
また何かありましたらよろしくお願いします >>492
train_lora_dreambooth.pyが見当たらねーぞって怒られてやめちゃった ぶっちゃけコレ
飽きた人おる?
俺ガチャばっかりしてたけど正直2~3日で飽きた
もっと出したい画像が出しやすくなれば
話は別だけど 2~3日で飽きるほど浅くはなく、極めようとすれば何日あっても足りない
今はガチャだけでなく追加機能によって構図や人物のポーズも自由に決められるし
LoRA学習で好きなキャラや背景、絵柄も思いのまま
ただただ、むいてなかっただけかと そんなあなたの珠玉の作品をひとつUPしてくんないか? NAIがパワーアップしたようですけど
どうですか? 個人的にはとても素晴らしく感動しているよ
お遊びの域を超えた >>496
そんなプレッシャー掛けちゃかわいそうですよw
大抵は言うほどクオリティ高くないから
誰もUPしてないのはそういう事 ここは質問スレだよ
画像が見たいのならMajinaiでも見ておいで >>494
出したい画像が簡単に出せるのも逆につまらんくない?自分のためなら尚更
こんな画像を出してーなと思うじゃん?んでちょちょっとプロンプト書いて出すじゃん
はい思ったとおりの画像が出てきましたと
楽しいか? >>501
思ったとおりの画像が、つまらないのは、あなた自身の想像力がその程度だということです笑 >>500
質問スレだけど
べつに画像をUPするのは問題ないと思うよ
画像投稿スレではないのは留意したうえです
あなたは思いのままに作画できる熟練者みたいなので
参考までにどれくらいのレベルの作品を作ってらっしゃるのかと
思ってぜひ見せてほしいとお願いしたのですが >>501
思った通りの画像が出来るようになれば
楽しいとは思うけど
やっぱ3日で飽きそうな気がしてきた
モデルに飽きる
自分で作った画像とか動画で抜ける気がしないw
リアル嵌め撮りとかは別ですけど >>503
昨日も夜中まで重かったような
日本時間の夜中に何がやってんじゃね >>425
venv以外関係ない
構築中に待ちきれなくなったとかで1回取り消したとかで大方失敗してるんだと思う
1回webuiフォルダのvenvを消してもう一度webui-user.batを実行
念の為COMMANDLINEなんとかは一旦--xformersのみで
ちなみに1つ前のエラーにはwebuiフォルダ\venv\scripts\activate.ps1が無いって言ってる
次のエラーはvenv内にpipがインストールされてないって言ってる
そもそもvenv/scripts/activateが効かない時点でwebuiに使う物の一切が上手くいってない
venvはwebuiまたはwebui-user.bat実行時に無かったら勝手に再構築されるので一旦削除して起動して気長に待て
installing torchのところ画面が動かなさすぎてフリーズしたのかと思ってターミナル閉じる愚か者が多いからそれが原因だと思ってる あとPythonのインストール間違ってる説もあったかもしれん 展開したファイル全消ししてダウンロードからやり直し 動くかわからない不安なブログのやつ
試したんだけどこれどうやって起動して
どうやって使うんですか?同じ様に試した方います? 「高解像度補助」適用すると、絵柄がガラっと変化してしまうのですが、防ぐ方法はありますでしょうか? >>513
> 423 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 3da4-BTrK)[sage] 投稿日:2023/02/20(月) 21:52:46.12 ID:R67kCy3t0
> >> 395
> アップスケーラーは「Latent」がつくのとそれ以外で傾向が違う
> 「Latent」は拡大時にディテールアップしてくれるがノイズ除去強度を下げるとボケたり絵が破綻したりする
> それ以外はディテールアップはほどほど、ノイズ除去強度を下げて元絵と変えずにスケールアップもできる
> ESRGAN_4xとSwinIR_4xがよく使われている気がする
https://fate.5ch.net/test/read.cgi/liveuranus/1676865326/423 ローカル環境でのCPUの必要スペックってどのくらいなんだろ?
GPUさえあればwin10が動くぐらいなら問題ないんですかね? gpu命だから、corei3くらいでも全然問題ない >>516
ただ、問題はそのPCの電源容量がグラボの負荷に耐えられるか、です
大抵の場合はゲーミングPCでもない限り大容量の電源なんて積んでいないので BTOPCに17万出せない
GPUに5万出せない
NAIに5000出せない
Googleアカウントが宗教上とれない
頭使うのと金使うのどっちが好きだ? LoRAで素材画像30枚弱だと学習回数どれくらいがいいのですか
100回→正面アップも壊れている
50回→正面アップはまとも、9割以上真っ黒画面
10回→正面アップはまとも、半分以上真っ黒画面
プロンプトで割合下げると真っ黒画面は回避できるのですが
再現率が低いです
どれくらいが適当なんでしょう 今日帰ったら試してみようかと思ってるんですが
1年半前に買ったこいつでも戦えますか?
やっぱGPUを最新のものに入れ替えたりしないとって感じでしょうか
https://i.imgur.com/1ZFObLC.jpg >>523
それでもやれんくはないけど、グラボだけ変えたらもう完璧や >>515
参考にさせていただきます。ありがとうございます。 >>523
まず問題なく出来ると思う
速度も人と比べなければそこまで気にならないかもね
今後どうするかもわからないだろうし、ひとまず試してみるといいよ
あまりPC周りに詳しくないのなら、>>464あたりも良いと思う >>519-520
了解
お古の3400Gで遊べそうで良かったです >>523
850w詰んでんじゃん
3060ぐらい余裕だよ wikiにあった「学習用タグの編集を速く楽にするやつ」ってタグ編集アプリ
時々読み込めない時あるんだけど原因がわからない… 他の構成にも依るけど3060でAI処理時(CUDAがMaxでCPUは鼻ホジ)
システム全体の消費電力は精々250Wくらいで
500W電源の効率が一番高くなる50%辺りなのでむしろ正解 Stable Diffusion WebUIについての質問ってここでいいですか?
モデルによって求めるVAEが変わるので毎回モデル変えるたびに「Settings」を開いてVAEを変えているのですが
モデルとVAEを紐づけることってできますか?
VAEの選択窓に「Automatic」ってのがあるからできそうな気はするのですが >>534
俺も知りたいこれ(1111環境)
今は abc.safetensors ってモデルで anything-v3-full.vae.pt を使いたいときは
anything-v3-full.vae.pt を複製して abc.vae.pt とリネームして
abc.safetensors と同じフォルダに放り込んでる >>534
エロスレから転載
もしも使っているのがAUTOMATIC1111なら
SettingのUser interfaceにQuicksetting listってのがあるから、そこに
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
と入れてApplyしてwebui再起動しておくと、ほんの少しだけ幸せになれる
↑
これをやっておくと、モデルみたいにVAEも簡単に切り替えられるようになる
ついでにCLIPも
それでも面倒なら、>>535みたいにリネーム
とはいえ、VAEなんて中身は4~5種類しかないので切り替えでいいっちゃいいかなと >>536
こんなのできたのかすげえ
534じゃないけどありがとう! CLIPとモデル紐づけられるようになってたのかと思ったら違った >>536
ありがとうございます!
試したらうまくいきました
非常に便利です >534-535
Automaticを有効にするには、
vaeを.ckptや.safetensorsと同じフォルダに入れて、vaeのファイル名を.ckptや.safetensorsと同じ、拡張子を.vae.ptにする
v2-1_768-ema-pruned.safetensorsだったら
vae-ft-mse-840000-ema-pruned.ckptを
v2-1_768-ema-pruned.vae.ptにするってことね
これでモデルを選ぶだけでvaeも自動的に切り替わるようになる クソ初心者で申し訳ない
まずグラボってのがよくわからないんだ
外付けのグラボってのがあるらしいけど、イメージがわかない
外付けHDDみたいに付けたら動くんかな
ローカルでやってる人たちはみんなゲーミングPC使ってやってんのか?
gigazinでcolabのやり方が記事になってたけど
一番最初のトークンを発行するところで、リンク押してもライセンスに関する確認事項が表示されないから詰んだ…
どこにいけばそのライセンスに関する確認事項ってのは出てくるんだ?
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/#2 stable Diffusion web UI(AUTOMATIC1111版)
をインストールして使えるようになるまでになったんだけど、
女の子を脱がすにはどうすればいい?
img2imgというのをやっても顔変わってしまうし、おっ〇いが反映されない >>541
記事を探すなら、今年2月以降に書かれた・更新された解説記事を探したほうがいい
それより前の情報はすでに古い
>>542
i2iはあくまでも元絵を参考に新しく絵を描く機能
一部だけ変えたい場合は変えたい部分だけマスクしたり、それなりにテクニックがいる
まずは剥ぐより基本的な使い方から覚えたほうが良さそうではある >>541
外付けグラボって、超マニアックなデバイスで、動作条件限られてて、しかも数十万規模とかくっそ高いから、そんなマニアックなことをいきなり気にしても意味ないぞ
外付けグラボ実装できるようなマニアックな知識ある奴は、20~30万円つかって自分の好きなパソコン1台自作出来るレベルや
というか、どんな機種にも使える外付けグラボのボックスなんてあったけか?
基本外付け系のグラボって、ゲーミングPCのメーカー固有製品のイメージしかない
な >>540
丁寧にありがとうございます
最初はそれが欲しかったんですけど536さんの方法が便利なのでそちらを使わせていただきます >>543
ありがとう、お礼にこれを授けよう
https://i.imgur.com/VGTrO54.png
>>544
たしかに初めから目的を達成するのは無理があるな。
まずは初歩的なところから始めることにする promptをコメントアウトみたいなことってできないんだろうか……
ちょっと一時的にこのワード外したいって時に
1girl,solo,cat ear→1girl,solo,/*cat ear*/でcat earが無視されるみたいな >>548
基本機能としては残念ながら無い
改行で頑張って整理してくれ >>516
GTX 1660だけど作画しても2%しか負荷がかかってないわ
512×512だからかな? ソース書き換えるなりプロンプト用のテキストボックスを新たにExtensionとして作るなりしてそこで好き勝手やればいい PythonでExtension書くから検索置換結合分離入れ替えの基本機能から正規表現を使ったそれらの指定も余裕余裕 どうみても初心者向けの質問板でいったい何をイキってるんでしょうね… >>541
グラボはグラフィックボードのことでビデオカードともいう
デスクトップパソコンのふたを開けてマザーボードに増設して使う
外付けGPUはとてもイレギュラーだからおすすめしない
参考 https://katsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419
Stable Diffusion公式の学習モデルをダウンロードするのに今はトークン発行が不要になっている
モデルの配布ページへ行けばhuggingfaceにログインしていなくてもダウンロードできるよ お前これはヤバイだろw みたいなモデルやLoraって
今のところcivitaiくらいでしか調達できませんか?
他にあったらおしえてください くろくまさんを見ながらweb UIをインスコしようとしたらエラー? で止まった
Counterfeit-V2.5.safetensors と Counterfeit-V2.5.vae.pt を所定の位置に入れてrun.bat を実行したけど
データをダウンロードしてインスコがほぼ進んだあたりで「何かキーを押してください」が出て、再度実行しても以下の表示で進まない
とりあえずどうしたらいいんですか、お願いします
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: 48a15821de768fea76e66f26df83df3fddf18f4b
Installing requirements for Web UI
Launching Web UI with arguments:
No module 'xformers'. Proceeding without it.
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Loading weights [bd83b90a2e] from C:\sd.webui\webui\models\Stable-diffusion\Counterfeit-V2.5.safetensors
続行するには何かキーを押してください . . . >>557
くろくまさんが何なのかをよくわからないが
超タイムリーにオートマチック1111を使ってみたんだけれど
俺の場合ははじめにsafeセンサーズを入れないで実行して
途中で詰まった時に入れて完了したんだけど
そのメッセージの場合はじめに入れてるでしょう?
一旦消して実行し直すか
そのまま進んでもいいと思う 生成繰り返すたびに顔の造りが収束していく気がするんだが
何故? >>557
update.batを実行してからrun.batを実行するといけるかもしれない >>548
1girl,solo,cat ear→1girl,solo,[:cat ear:999]
とか駄目? >>548
ctrl+↓で(cat ear:0.0)にすりゃいいんじゃないの? >>559
safeセンサーズって何ですか?
くろくまさんはここです、この通りにしました
ttps://kurokumasoft.com/2023/02/06/stable-diffusion-web-ui/
>>560
フォルダ名を変えてみましたが変わりません
>>563
ちょっと変化ありましたが、結局「何かキーを押してください」で終わります >>568
それのどれでやった?
ZIP版でやってみた? >>569
ZIP版です
モデルファイルのファイル形式がよくわからなかったんですが、これで合ってるんでしょうか? >>571
じゃあおそらく無事に導入は出来ていて、モデルの読み込みでトラブってる可能性があるかな
ひとまず別のモデルも試してみては
Anythingとか有名どころを落としてみて
あと、可能性は低いけど、モデルの読み込み関連のトラブルでいえば、極端にメインメモリが少ないとエラーが出ることもある >>572
わかりました、とりあえず他のを落としてみます
RAMは16Gbですが、やっぱこういう用途には少ないんですかね?
ノートだけどせっかく2060積んでるから試してみたかったんだけど >>573
スペック的には一応動くはず
メモリは画像生成に直接関係があるわけではないけど、16GB内でOS動かして他にも色々処理して、そのうえでモデルデータを読み込むわけだから処理としては結構ギリギリかもしれない
次に落とすモデルは出来る限り容量を削ったものにしたほうがいいと思う >>573
Counterfeit-V2.5もフル版から容量削減版までいくつか種類があるね
ぶっちゃけ容量を削ったモデルでも生成結果が悪くなることはほぼないので、基本的には一番軽くなってるもの(モデルによっては2gbちょっと)をダウンロードで大丈夫だと思う >>574
>>575
なるほど、キャラより風景目的だったのでコレを選んだんですが、軽いのにすればいいんですね
また落として試してみます、ありがとうございました 導入で一日自分でイジイジしても画像作るとこまでいけないので教えてほしいです
インストーラ:A1111.Web.UI.Autoinstaller.v1.7.0.exe GPU:rtx3050
使おうとしたモデル:SD v2.1 .ckpt(v2-1_512-ema-pruned.ckpt、v2-1_768–ema-pruned.ckpt)
真似したページ:「WebUI(1111版)を超〜簡単にインストール」でぐぐると一番上にくるとこ
エラーぽいメッセージ:
Cancel
venv "C:\gazoai\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: 0cc0ee1bcb4c24a8c9715f66cede06601bfc00c8
Fetching updates for Taming Transformers...
Checking out commit for Taming Transformers with hash: 24268930bf1dce879235a7fddd0b2355b84d7ea6...
Traceback (most recent call last):
File "C:\gazoai\stable-diffusion-webui\launch.py", line 360, in <module>
prepare_environment()
File "C:\gazoai\stable-diffusion-webui\launch.py", line 301, in prepare_environment
git_clone(taming_transformers_repo, repo_dir('taming-transformers'), "Taming Transformers", taming_transformers_commit_hash)
File "C:\gazoai\stable-diffusion-webui\launch.py", line 156, in git_clone
run(f'"{git}" -C "{dir}" checkout {commithash}', f"Checking out commit for {name} with hash: {commithash}...", f"Couldn't checkout commit {commithash} for {name}")
File "C:\gazoai\stable-diffusion-webui\launch.py", line 105, in run
raise RuntimeError(message)
RuntimeError: Couldn't checkout commit 24268930bf1dce879235a7fddd0b2355b84d7ea6 for Taming Transformers.
Command: "git" -C "repositories\taming-transformers" checkout 24268930bf1dce879235a7fddd0b2355b84d7ea6
Error code: 128
stdout: <empty>
stderr: fatal: reference is not a tree: 24268930bf1dce879235a7fddd0b2355b84d7ea6 以下は表示される文言の上半分です
(長いし関係ないかなと思ったのでさっきのレスには入れませんでした)
Loading A111 WebUI Launcher
i Settings file found, loading
→ Updating Settings File ✓
i Launcher Version 1.7.0
i No Launcher launch options
→ Checking requirements :
i Python 3.10.6150.1013 found in registry: C:\Users\(伏せ)\AppData\Local\Programs\Python\Python310\
i Clearing PATH of any mention of Python
→ Adding python 3.10 to path ✓
i Git found and already in PATH: C:\Program Files\Git\cmd\git.exe
i Automatic1111 SD WebUI found: C:\gazoai\stable-diffusion-webui
i One or more checkpoint models were found
Loading Complete, opening launcher
i No arguments set
i No arguments set
WEBUI LAUNCHING VIA EMS LAUNCHER, EXIT THIS WINDOW TO STOP THE WEBUI
! Any error happening after 'commit hash : XXXX' is not related to the launcher. Please report them on Automatic1111's github instead : >>577
さすがにそれはここではなくブログで聞いたほうがいい
導入に独自のプログラムを使っているのでここでは正確に対処できないと思う
正直、そこまで独自なものはあまりおすすめはしない
どうしても簡単導入がしたいのなら、
上ほうで出ていたくろくまさんが紹介している公式版のZIPワンクリ導入か
niel氏のスタンドアローン版あたりにしといたほうが良いよ
どちらもpythonやgitをインストールせずに導入する方法を紹介してる なんか、過去に試した環境構築で、環境変数で変なところにpath通ってたりする可能性
まぁ上の内容チラ見してそう思っただけなので違うかもしれんが >>580
確かに、ブログを見るとgitとpythonをインストールしないことうたっているのに、>>578の環境はCドライブにしっかりPythonが入ってるね
自身で入れたのか、インストーラーが入れるのかはわからないが
もしもそれが原因で狂うインストーラーなのであれば尚更オススメはできないかなぁ >>580 >>581
ありがとうございます。結論から書くと今入れたものはアンインストして教えて頂いた方法含め
別のもっとメジャーな方法の中からどれがいいか検討して一から導入してみます
gitとpythonは過去に入れた覚えなくてPC内検索しても関連ファイルフォルダも出てこないんですが
コンパネのアンインストの項目には上記のインストーラを使った同日付でインストールされてることになってますね Lora構築でつまづいてたんですが
上の方にあった一発インストールでやったら出来ました
ありがとうございます >>582
そりゃ公式の方法が一番さね
普通にpythonとgit入れて
それか公式ワンクリ版か
その2つが何よりメジャーな方法だよ 前までちゃんと生成出来てたのに崩れた画像しか生成できなくなりなっちゃった
Chilloutmixと韓国人形loraの組み合わせなんだけどガビガビになる
VAEは不使用、こういう時って他に思い当たる原因ある? 1111でrun.batしてWebUI起動したときいちいち顔の修復と高解像度補助にチェックつけて
アップスケーラーをSwinIR_4xにしてサンプリングアルゴリズムをDPM++ 2M Karrasにして
解像度の高さを768にとか設定するんだけど
この設定した状態でWebUIが起動するようにできないのかな? >>585
サンプルアルゴリズムの選択が違うとか
前に生成した画像読み込んで同じの出るか試してみれば LoRAとか呪文のどこかで0.7のつもりが7になってたりでもガビガビになるからPC壊れたかと思ってびっくりするわ サンプラーも大丈夫だしLoRAの数値も普通なんだよね
生成した画像保存してないから読み出せないわ… >>584
としあきに沿って進めたら簡単に導入できました。
最初としあき開いたときに何となく難しそうに感じて他のやり方を探しにいってしまったのが間違いでした
よく見ると凄い丁寧に解説してくれてるし…ともあれありでした >>586
ページを開いた時の初期値はbatと同じフォルダにあるui-config.jsonをテキストエディタでいじれば全部設定できる
highresチェックだけはなぜか反映されないけど他はいける
よく使うNegative promptもあらかじめ入れておけるしめちゃ便利 たまにXboxについてるやつを取り付けて使ってます
参考になれば幸いです >>592
できた!ありがとう!
jsonって拡張子のファイルが設定ファイルのこともあるのね 上でサンデーおじさんでもAIガチャ絵できるって聞いたけど本当?
本当なら3060買ってタンスのこやしになっている2700k一式に積んで
とりあえずやってみたいんだけど・・・ Xbox stable フュージョンズ買えばええやん LoRaもとしあきのバッチがわかりやすくて使いやすい
としあきさんはほんま有能やで >>597
サンデーおじさんに
グラボとグラボの拡張させて
メモリ増設すればええねん おなじ設定でも解像度上げただけで破綻しやすくなるのはどういう仕組みなの? >602
学習元の画像サイズが512×512とか768×768なので、画像生成もその単位で行われる
学習元と同じ画像サイズだといい感じに出るけど、出力解像度を上げると学習元の解像度の画像をいくつか並べることになり破綻しやすくなる
そこをうまくやってくれるのが1111のhighres. fix(高解像度補助) ControlNetの棒人間で腕が背中側に隠れてるような構図にしたい場合はどう表現すればいいんだろ? 2つのモデルを同時に使いたい場合、マージしないとダメでしょうか? >>604
胴体の2本の棒の後ろに腕を描いたらいいのでは? そういう話じゃないのかな >>606
現状、同時使用は出来ないよ
人物と背景で分けて使いたい、とかそういう意見多いけどさ
待ってたらいずれ対応してくれるかもな マンガ喫茶でローカルでやってるやついる?
てかできる? >>609
満喫じゃないけどSSDに入れて会社のPCで動かしてる←
これのWindowsにゴミを残さないという言葉を信じて使ってるがバレたらやべえなw
https://note.com/uunin/n/n715256399038 >>595
ありがとうございます。
1660だと一分
3660だと5秒
ネットではこれだけ差が出るらしいです
cpuを変えたら変わるでしょうか? >>609
なるほどお前面白いこと考えるな、PC性能も電気代も熱も気にしないで成果物を これスタンドアロンで動くとか言ってマイニングプログラム混ぜられてたら多分わかんねえよな >>614
不安ならなんUで聞けばいいんじゃね?本人いるぞ >>610
職場のPCで毎日エロ動画観続けたのがバレて懲戒免職くらってた役場のおっさん思い出すから
くれぐれもバレ無いよう頑張れ >>610
よほど小さな会社じゃなければ即バレる🙂 会社のPCでエミュレーター入れてRPGクリアした強者もいたな てか会社のPCでそんなにいいグラボ入ってるんだええな 隠しフォルダに有料エロサイトの画像たんまり保存してた奴いたわ
派遣がエロサイト見てバレたときにそいつのせいにしてた これみんな専用PC組んでやってるの?
常用PCにグラボ入れてぶん回したら
ブラウザだとかofficeソフトとかも重くなるんかな? >>609
適当にググってみたけど
漫画喫茶だとゲーミング仕様とかでも
大したグラボ乗っていないから難しそう
e-sports系の店舗なら何とかいけるかもしれないが
そんなところでAI学習して絵を生成してたらかなり浮きそうww
https://imgfp.hotp.jp/IMGH/15/27/P034921527/P034921527_480.jpg >>625
この絵図で真ん中の席ぐらいでAI画像生成でエロ画像量産とかしてたら、最高にクールで惚れてしまいそうになるわ…… >>625
仮にスペックが足りてたとしても敷居が高いなw ファンをブオンブオン言わせながら生成してるとこ想像したらワロタ >>625
ゲームやってる隣席の奴が遊んでるキャラのエロ画像をドヤ顔で生成する遊び流行りそう、そんな妄想をした 未だにcolabの無料版から抜け出せないでいるんだけどローカルっていいのかね?
ウン十万出すほどメリットない気がするんだけど >>624
生成中にyoutubeがカクカクして泣いた でも、家で素材作ってここでlora高速で回すとか最高では?
ネカフェとかならその間マンガ読めるし
端で見たらcmdプロンプト画面出し続けてマンガ読んでるだけの変人なのは変わらんが……w cpu作成でまったりアマプラで映画見てるわ
かくつきはない >>631
それは世の中にある全ての趣味に言えることだろ
何にどんだけ金出すかは人それぞれよ
メリット感じないなら出さなきゃいいだけじゃね >>632
やっぱり専用で組んだ方がよさそうだな
ryzen5700Gだからそっちのグラボ使えば行けるかな?とか思ったけど
ググると元々の相性問題も有りそうな感じだね >>632
youtubeぐらいオンボに切り替えて見れるだろうに >632
chromeのHWアクセラレーター切れば良いよ どーせCPU遊んでるし
SDも15%位速くなるし RTX3060 5万円で
後はオンボード CPU のまさと
メモリーと
SSD と
ケースと
電源で10万で行けるやろ LORA学習したいけど難しいです
run_popupbatもcreate_json.batもエラーでる
疲れた >>640
このスレに書いてあるワンクリックの人が作ったやつ試した?
ワイ赤ちゃんはそれで行けた パソコン中古で買おうと思うんですが、windowsは10と11どっちが良いですか?11の方が早く安定しますかね >>643
質問の感じからパソコン初心者さんかな?
まず買ったパソコンで何をするのかと、予算を言おうか
その内容次第では「10だろうが11だろうがそもそも無理です」って解答になる恐れが高い
OSは完全に誤差レベル >>644
いや勿論画像AIです
macとradeonで頑張ってるけど流石に限界なので
3060 12GBを金ないんで中古パソコンごと買おうと思うけどwinバージョンに何か左右されるのかはググっても分からなかったんで なるほど
ぶっちゃけ話題に上がらないレベルで「どっちでも」なんだと思う
win11からUIまた一気に変わってるから、今からwin機慣れるなら11の方がオススメ 10は2025年でサポート切れるのに今から導入する意味はない
現状10を長く使ってて環境壊すのが嫌な人が10がいいって言ってるだけ
11のuiは使いにくいけど避けられぬ運命だと諦めろ >>646-647
なるほどサンクス!
金ないんでちょっとでも安い方が良いかとも思い
素直に11にします >>630
「〇〇ちゃんはそんな事しねえ!!!」で切れられてケンカ勃発しそうだな Civitaiみたいのにみれない…
プロンプト見れるとこどこかないかな stylesの内容や名前を間違った場合に削除したいんですが、どうすれば削除できますかね? ローカルで使っててネット回線切り離しても
ちゃんと作画出来るのは確認して安心してたんですけど
プロンプトにshinzo abe, って入れたら安倍さんが
作画されたんですけど、これネットで通信して
持ってきたんでしょうか?
モデルにこんなの入ってるとは思えないんですが >>652
styles.csvを直接編集するしかない >653
在任期間歴代1位だよ
日本の歴史に残る有名人だよ
教科書に乗るレベルなのに 世界的有名人は公式のStableDiffusionの時にそこそこ学習されてる
日本人は少ないけどな
で、全てのSD学習モデルは公式の1.xか2.xに追加学習をしたものなので、あべちゃんはどのモデルでも生成出来る スペルミスがあるとクリーチャー吐き出す確率多い気がする automatic1111のimg2imgでsketchを押下するとindex error吐くんですけど原因わかりますか
inpaintとかは問題なく動くんですが
https://i.imgur.com/F47brrg.png Automatic1111の導入記事見てるとDocker、Pytorch、NVIDIA CUDAの導入がまるで必須かのように書いてある記事を見かけるんだけど、別に入れなくても動いたわけだがアレらは何か意味あるのか? >>665
今はいらんけど出た当初は必要だったんだよ
あと、Dockerはどうしても独立環境で導入したい人向け
自前で開発環境持ってたら追加で古いpythonなんて入れたくないだろうしな >>664
多分もうちょっとエラー文面の出だしのところ見たらわかるかも?
エラーって大体最初の躓きから芋蔓的に量産される印象だし ここでも出てたと思うんだけどネガティヴブロンプトずらずら入れなくても一発でクオリティ上がるアドオンの名前なんでしたっけ? >>668
EasyNegativeかBadPrompt ttps://wikiwiki.jp/sd_toshiaki/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%AB%E7%89%88%E5%B0%8E%E5%85%A5#nanmowakaran
こちらのサイト見てなんとかCG作成できてるんですが
例えばゲームCGとかイラストから、特定キャラの実写コスプレ風を召喚させるって可能ですか? >>671
まずその目的のキャラが学習されてることが前提
なければ自分で画像集めて追加学習
そのうえで実写系モデルで生成すれば出来る、かもしれない >>671
まずこれを落としてローカルに配置、配置方法はchilloutmixでググればいくらでも
stable-diffusion-webui/models/Stable-diffusion/ 内ね
https://civitai.com/models/6424/chilloutmix
ui起動時に一番上のcheckpointをchilloutmixに切り替えるのを忘れずに
そんでこのloraファイルを落として同じくwebuiインストール先のloraフォルダに配置
stable-diffusion-webui/models/lora
https://civitai.com/models/6669/st-louis-luxurious-wheels-azur-lane
適当にアズレンのlora落とすところスクロールしてって気に入った写真の作例をクリックして
Prompt TXT2IMGの欄の「1girl,~~」の呪文を参考にあとNegative promptもコピペしてやれば大抵できる
pngファイル読み込んでtxt2imgに設定丸写しした方が早いけど分かってきたらやればいい
上のアズレンの例だとpromptの呪文に<lora:stLouisLuxuriousWheels_v1:1>のlora読み込ませますよみたいな独特の召喚呪文が必要な感じ
loraは自炊して共有したら誰かは喜ぶかもしれない
すまん今手元に実機ないからディレクトリとか記憶を元に適当に書いてる ちなみにlora無くて呪文やimg2imgでもだけでもそれっぽいのは出来るが、それっぽいだけで正確に再現するのはやはり学習が必要 >>664
indexエラーはバグだと思っていい
リストに入ってる引数多くねってエラーなんだけど大抵意図しない変数がfor文で押し込まれたりして予期しないリストの大きさに音を上げる
issueに状況書いてエラー出たって言っとけばいい ホーチミンがやらかしてるか
他のお行儀の悪いExtensionが原因かどっちだろうな
後者がめんどくさいパターン そもそもGradioのinputsにリストで渡すしか複数の値渡す方法ないの厄介なんよ……
俺が無知なだけで他に方法があるのかもしれんが 念のためpythonもgitもアンインストールしてから公式のインストーラを試してみたらこれだけでいけたよ
ダウンロードしたzipを解凍
モデルファイルを配置
update.batを実行
run.batを実行
ほかに何もインストールする必要はなかった >>672-674
どうもありがとうございます。
まずは家帰ったら例のアズレンでチャレンジしたいと思います。(あれは凄いと思ったのがキッカケなので)
自炊っすかー自分のGPUは今3GBしかなくてすぐメモリオーバするんで
本腰入れてやるならやはり買い換えないと駄目ですよね >>678
zipのrun.batのヤツはpre版だから精度悪い感じに思えたけど、特に背景が
pre版のupdate.bat押すとver1.5>2.0に上がるのかね? としあきバッチで学習を行いたいのですが
モデルとか画像とか何をどこに置けばいいか全然
わからないので教えてください うつ伏せの人間をメインとして、手前に顔のどアップ 奥に足といった構図が何故か上手くできません・・・。
何かコツありましたらご教示頂きたく これからRTX3060買ってdream boothするつもりなんやけど、モノが届くまでにすべきこととしては学習元の画像は512×512にリサイズしとくくらい? >>683
LoRAでええやん
そっち調べとき
Dreamboothは多分Vramギリギリだと思うぞ 皆さんに質問なんですけど、
画像サイズはどれくらいで作ってますか?
デフォルトの512×512ですか? 大きいと顔だらけのオバケがたくさん描き出されるからなぁ >>680
公式のワンクリ版は通常版と導入構成は違うけど、アップデートすれば基本的に中身は同じ
生成結果で劣るようなことは起きない
ただ、pythonが無い環境だと動かないextensionとかはある
あれに同梱されてるpythonはwebuiを動かすためだけのパス設定しかしてないから 最初のseedとか決めるtxt2imgtの段階では低解像度4:3だね、800x600とか1024x768とか
そこから解像度上げるときはそっからimg2imgでアップスケール
あんま高い解像度だとデフォ設定だと多脚化したりモヤ生成になったり時間かかったりメモリサイズエラー(12GB) なるほど、
リサイズがよくわからなく大きいサイズで作ってました
960×1260です。
やはり小さいサイズで大量に作ってそこからリサイズがベストなんですね。 >>687
ありがとう、そうなるのか、中身が一緒なら良いか
確かに、ワンクリ版使っててちょっと凝った事しようとしてエラーで読み込ませれなかった事あった
それが契機で最近公式を自力で翻訳して面倒な通常版入れなおしたんだよね >684
LoRAのつもりやった、サンクス!
>688
LoRAは512x512だと思てた…。
4:3なんや、、、そっちで準備しますわ! >>691
ごめんアンカー忘れたけど>>685宛なんだワ
LoRAは週末にでも学習対象見つけてやってみるよ 各画像サイズはバラバラでもOK?
あと生首(首から上の画像)ってどんなサイズにしてます?
300x300くらいのしかないんやけど、、、
フォトショとかでアップスケールしなきゃダメ? chilloutmix
sunshinemix
モデルデータはこれしか入れて無いんだけど
shinzo abe,のデータまで入ってんの? >>680
1111のバージョンと学習モデルのバージョンは別のものです
1.5とか2.1は公式の学習モデルのバージョンのことで、両方入れておいてどちらかを選んで使うこともできます
1111はバージョン番号で管理されていません(よね?)
公式のインストーラのはupdate.batすればgit cloneからuser-webui.batでインストールしたのと変わらないでしょう
>>687
> pythonが無い環境だと動かないextensionとかはある
えーそうなんか、今ちょうどpython入っていないからなにか試してみよう
zipインストーラ版で対策はあるのかな >>694
SDの公式モデルSD1.5か2.1は色んな著名人が学習されてる
当然アメリカ人のほうが入ってる率は高いけど
トランプ元大統領とかハリウッド俳優とか結構いっぱい出てくる
なので、そこから派生している全てのモデルには当然遺伝子として受け継がれてる
NAIなら二次元化したあべちゃんが出るよ >>695
そもそも中身のwebui部分はアプデ出来ても、追加でgitしろとかpipしろとかは全部出来ないからそこが一番不便かもな
バッチ書けば出来るけどそこまでする人はそもそもワンクリなんぞ使わないだろうし
そんでもNMKDよりは推すがね >>695
automatic1111のpreと通常版でインストールされるStable Diffusionのバージョンが1.5ベースか2.0ベースかの違いと思ってて
Stable Diffusionのバージョン違いはいう通り学習データは違うし、
バージョンによってpromptの解釈が違うみたいな記事を読んだ気がする
automatic1111そのものはGUI化を手助けする便利なツールって認識 lora使うためのモデルや学習画像などのフォルダ
をどこに置けばいいんですか? >>702
毎回単発IDになってしまいますが同じ人です
お願いします >>703
日本語フォルダとかじゃなければ基本どこでもいい
どうせ学習時にパスを指定するから
モデルもwebuiで使ってるモデルのパスを指定するし
>>704
それかなりビギナー向けの導入方法だから、本格的にやるならとしあきあたりを参考にしたほうがいいよ >>699
>automatic1111のpreと通常版でインストールされるStable Diffusionのバージョンが1.5ベースか2.0ベースかの違いと思ってて
そういう関係ではないと説明しているつもりなんだけど、どうすれば誤解が解けるのか…
学習モデルの1.5と2.1はどちらも自動ではインストールされず自分でダウンロードしてフォルダに入れるでしょ
zipインストーラ版に公式学習モデルのバージョン2.1だけをを入れて使うこともできるし、
git cloneするほうに公式学習モデルのバージョン1.5だけを入れて使うこともできるのよ
>Stable Diffusionのバージョン違いはいう通り学習データは違うし、
>バージョンによってpromptの解釈が違うみたいな記事を読んだ気がする
確かに、公式学習モデルの1.x系統と2.x系統はプロンプトの解釈が違ってて、出てくる絵が全然違うのはその通り
でもそれはAUTOMATIC1111/WebUIのインストール方法の違いとはまったく関係ない話だよ ちょっとここで聞いていいのかわからないんだけど質問させて
civitaiでモデルのレビューを画像付きでアップすると1日くらいでアップした画像が削除(image removed)されるんだけど理由がまったく分からないんで理由わかる人がいたら教えてください
具体的にはこんな画像でR18タグも念のためつけてる
i.imgur.com/8wxTmXF.png
i.imgur.com/QVqyYAd.png
i.imgur.com/5t9P2O8.png
i.imgur.com/V0hdQBZ.png
20枚中生き残ったのはこの1枚。どうして…
i.imgur.com/tZyjkdx.png >>707
なんか確実じゃないけど分かったかも
Promptに loli って入ってるから消されたかもしれない
次からこの単語を入れてない画像をアップするようにしてみよう >>705
そのとしあきのが導入まではわかりやすいけど
その後使い方の説明が雑でわからない AIのChatGPTに聞いた方が簡潔にまとめて教えてくれるぞ >>696
画像は全部モデルデータの中にあると
思ってたんだけど
Stable Diffusion web UIの中にも
入ってるの?
ネット切断してもトランプ大統領が出るってこと? >>712
画像と言う形では入って無いんじゃないかなぁ >>712
学習したデータとしてモデルファイルの中にいるんだよトランプさんは
あべちゃんも初音ミクもレディー・ガガもスパイダーマンもみんな一緒にね
オンラインにアクセスしているわけではないよ >>712
画像データを作るベースの基本となるNovelAIに世界の著名人が一通り入ってる
モデルデータを作るときにはイチから作らずにその基本ベースの情報を使用する
そのためあらゆるモデルデータには、超薄いながらも著名人のデータが入ってる
なんで安倍とかトランプみたいな話するんだよw >>714
入ってないデータはソフトが探してきてるの?
chilloutmix
sunshinemix
モデルデータはこれしか入れて無いんだけど
shinzo abe,のデータまで入ってんの?
安倍さんがアニメ画像で出てきて驚いたんです
ロリ画像とか作ってるから外部と通信するのがなんか嫌なんで
気にしてるところです >>714->>716
なるほど安心しました
ありがとうね >>717
通信もしてないし何か情報をダウンロードして生成してるわけでもないから心配すんなw
オフラインでも動くしどこにも通報されないから好きなだけ好きな画像を生成すればいいぞ
>>716
NovelAIはStablediffusion公式モデル1.4にdanbooru産のイラスト画像を追加学習して作られたものだよ
なのでNovelAIで出力される実写っぽい背景もトランプもあべちゃんも全てSD時代に学習されたものなのだ 生成された絵をGoogleの画像検索に掛けても同じ絵は見つからなかったよ Loraで近いと似てるのに、離れると全然別人になるのは
どう回避すればよいのでしょうか
素材は全身のバージョンを80枚、顔のアップを40枚程で学習したものを
それぞれ呼び出したりしてるんですがどう調合しても離れると顔が壊れてしまって
GPUの性能の問題? 基本、よっぽど古いGPUじゃない限り、性能で絵は変わらんよ
遠近で同じ顔学習してない問題だと思う >>722,>>723
ありがとうございます
遠近で同じ顔の素材準備して学習してみます >>698
考えてみたら、そうなったらgitやpython 3.10.xをインストールすればいいだけの話だった >>711
ChatGPTは2021年9月までしか学習してないから普通に無理だと思うぞ。まぁでもコマンドプロンプトとか周りの問題ならいい感じに答えてくれるけど。 >>683
LoRAの成果画像を見ておくことがまずやっておくことだろうな RTX3060のパソコンが
アークで129800円で売ってるんで
それ買えばいいよ >>722
グラボの世代で変わるって話はどうなったんや かたくなに多人数出してくれない時と出してくれる時の差は何なんだろう 512.512で40秒くらい掛かるけど
いいグラボだと5秒でスパっと出るんですね >>730
変わるってだけで処理が極端に劣化してるわけでもあるまい
あとあれは性能(処理速度)じゃなくてもっと根底の問題なはず (なんで生成速度の話で解像度もサンプリングステップも無しで何秒何枚とか言うんやろ) それは簡単
ベースモデルで測らないと物差しにならないから
物差しがバラバラだと指標にはならないのです >>735
始めたばかりの人にとってはAUTOMATIC1111の初期設定で回した場合なんじゃね
最初は多分変更しないだろうし >>740
常識で考えたら普通はデフォ設定での話なんだけどねw >>735
アスカベンチって言葉はメジャーじゃないですもの 正直アスカベンチって単語を完全に理解した頃には、初期設定欠片も記憶にないぐらい使い倒した後だった 最近のコントロールネットだの学習だのかませてる環境に比べたら
アスカベンチって軽すぎて
ベンチマークというよりはギリ動作するかどうかの確認用だよな 1111版で画像が灰色になるのはどう直すのでしょうか? >>746
vae入れてなくて色褪せてるんじゃなくて? http://imgur.com/4xJNdva.png
ローカル版使おうと思いPCを新調したいんですが
このスペックだと余裕で使える感じでしょうか? >>749
Ryzenやめた方が良くない?CUDAの問題で グラボがNvidiaなら大丈夫
CPUは同じの使ってるわ loraの設定っていちいちやらないといけないんですか?
失敗ばかりなので毎回やるたびに英語の質問が多くて疲れるんですけど… >>749
正直、vRAM量的には余裕ではないけど、平均値は越えてる 2年前に3060Tiが同じ値段だったと思うと感慨深いな >749
正直VRAM命なので12MBは使えるのが1年あるか無いかだと思いますよ
1年後にこの言葉を思い出してください
それが革ジャンの戦略だし みなさんありがとうございます。
>>757
言ってることがよくわからないのですがどういう意味でしょうか?
1年後にはAI技術が進化するからVRAM12だと1年後の技術にはついていけないという意味でしょうか コマンドライン版なら一発なんじゃないか
試したことないけど
てかEasy Training Scriptsがまた更新されてるな おい!先輩術士!SD-WebUIの拡張にDreamBooth入れて学習しようとしてるんだが
うまくいかないぞ!PCスペックは満たしている。学習も完了する。
だけど学習完了したカスタムモデルを使って画像を作成するとflortの値が間違ってる
ってエラーが出る 助けてくだしゃぁ 学習途中のサンプル画像も真っ黒だ
学習前はちゃんとサンプル画像でた >>752-753
そーなんか、俺もちょうどmacから新調する所だからradeonにビビってた
まあ安牌でIntelにするけど >>758
とりあえず
「AI画像生成におけるvramの優位性」について調べた方がいい
こだわりぐあいによっては半年経たぬまにグラボ買い換える羽目になる
少なくとも12GBは「何も気にせず生成できる」っていうスペックでは、ぜんぜん無い そうとも、どちらとも言えない
なので答えは誰もわからない
何気に、ものすごい少ないVRAMで色々出来るようになる可能性も無いわけではないから
ただ、今は3060vram12gbあたりが一番コスパ良く楽しめるグラボだってだけ パイソンのソースコード読める人ってSDがどうやって動いてるとか分かって使えるの?
それとも読めようが関係なくワイと同じように「なんかえっちな絵出てくる😊」って感じなん? Python云々以上にAIの知識がないとちんぷんかんぷんだろうね Python 自体はめちゃくちゃ読みやすいから何を呼び出してるかぐらいわかるだろ
その呼び出してるものの中身が全然わけわかめだろうけど >>749 で書いてる「余裕で」のニュアンス次第で選ぶVRAMの量は全然変わってくるしな
因みに今3060(12GB)使ってるけど、現時点では生成時の処理速度はそんなに困ってないけどメモリ足りないで今まさに困りまくってる
なので使い方にも依るしなぁ パイソンだけじゃなくて論文も読んで理解できないとダメなのね
改良してる人たち凄まじいわ感謝します🙏 >>762
反応してくれてありがとう;;
--precision full --no-halfは16x0系の描画バグ対策
だと文献で読んだが3080tiもあてはまるんだろうか
通常のt2iで作る画像が黒いわけじゃなくて
学習途中に経過をサンプルとして出力してくれる
もの(そうだと思ってるだけかも?)がすべて真っ黒なんです
とりあえず試してみます ありがとうございます 因みに
--no-harf-vaeは
4090でも効果あったよ 単純にVAEに何かしら問題があってlatentから画像に出来てないんじゃないの >>768
でけえに越したことはないだろうけどたけえww
3060 12GBかなやっぱりコスパてきに進めちゃうのは 遅くても良いから普通のメモリも使わせてくれれば良いのに
それなら32GB追加出来る Mac m1環境でWebUIをインストールして立ち上がるとこまで行ったけど
生成ボタン押しても反応ない
To create a public link, set `share=True` in `launch()`.
Error completing request
からはじまるエラーがずらーとでてChatGPTにきいたらアクセス権限じゃないかと言われ
みてみたけど問題なさそうでこのエラーがでるのは変わらず HR用GPUみたいに、AI用GPU作ってくれないかな。できるよねnvidiaさん? >>772
VAE消したけどダメだった;;
--no-harf-vaeも×
--precision full --no-halfも×だった
もちろん起動しなおしてる
途中経過のサンプルが真っ黒でいいわけないよな
と思って止めてるんだけど実は大丈夫だったりするのかな
実際に使ってる人いたら教えてほしい nvidiaは前のマイニングブームの時にそういうの作ってして大損ぶっこいたことあるから
AIガチにやりたきゃ汎用品の高いやつ買うてくれやで作らないと思うけどな 5ちゃんもTwitter見渡しても、2次元イラストの話ばかりでリアルな3次元を追求してモデル作ったり学習する話を全く聞かないんですが、
それは暗黙の了解でこっそりやってるだけ?
それともAI詳しい界隈では実写のニーズが無いのかな Stable Diffusionで質問です。
Loraのデータを反映させる部分を限定的にすることは可能でしょうか。
何がしたいかと言うと、キャラクターの実写化(いわゆるAIコスプレイヤー)を試行錯誤しており、顔以外(服装や髪型)の部分にだけLoraを反映させたいです。
スプラトゥーンのアオリちゃんで頑張ってるのですが、
なんか顔がどうしても楕円になり過ぎてしまって… >>780
当然、ガチロリとかロリ寄り勢が情報交換とか画像UPとか
やり始めれば100%当局が出しゃばってくるのは確実だから
みんな口をつぐんでるんだろうなぁ
どう見てもこれはヤバいって言う画像が簡単に出来ちゃうんだもん
作ってて思うもんこれはあかんやつやって >>780
最近ユーザーに一般人も増えてきたのでニーズはかなり高まってる
が、実写はディープフェイクに繋がりかねないし児ポもあるしで、基本的には危険物扱いなのさ
なので現状は恐れを知らぬ中国人頼みかね >>781
あるにはある
層別LoRAといって、うまくやれば細かくLoRAの適用ができる、が、難易度は高い あと、大体この話の流れになったら色々なお気持ち表明合戦になって荒れ始めるので、みんな避けてそうな気もする 一昨日からgoogle使ってwaiuで遊び始めて1.4と1.5を動かしてみたんだけど
1.5の方がエロが少なくなったのはプロンプトの互換性があまりないため?
1.4は露骨に局部露出みたいなのを出力させたんだけど1.5は乳首すら出てこないことも >>781
WebUIの話だったらだけどi2iのレタッチでプロンプトにLora入れて
顔(髪の毛含む)をマスクして、マスクされていない場所をレタッチでいけないか? >>787
その2つは一応公式モデルなので全世界向けのおとなしいモデルなのです
エロに期待しちゃいけない
なので今や誰も使ってないんじゃないかな 納車式のチンピラが笑顔のやつも実写AIの仕業でしょ? ご回答ありがとうございます。
>>784
やはりプロンプトでどうこうできる話ではないんですね。
ただ、進むべき方向性が見えた気がします。
ありがとうございます。
>>788
レタッチ機能使ったことなかったです。
試してみます。ありがとうございます。 マジレスすると実写系は公開すると逮捕まであるからね
たまたま似てしまいしたは通用しないので
児ポ系はモデルとなる人物が存在しなくても一発でアウトだし 絵でも逮捕された話し合聞いたことがあるけど
一体どんな絵だったんだろなw 膝の下まである白いエナメルブーツ履かせたいんだけど、大抵腿まであるロングブーツになってしまい上手くいかない…。
ふくらはぎはカバーされてて膝は見えてる状態が良いんですけど、なんか上手いワードないですかね。 >>789
ありがとう
もうちょっと勉強してみます
1.5の実写に近いのには驚いた
1月頃のブログに書いてあるのだと西洋顔だけど
今使ってる奴は日本人の顔で出力してる すみません、loraの下準備の正則化画像ってどうやって用意すればいいんですか? VRAMが足りない分をRAMで使用するようにできないのかね >>800
別に無くても大丈夫よ
言うほど大事じゃないの
dreamboothの時はあったほうがよかったけど
そこよりこだわって調整すべき部分多し >>798
ブーツ系は現状では長さが非常に不安定なのでガチャしかない
ロングブーツと指定しても他の要素に引っ張られるのかデザートブーツぐらいのが出てくることも珍しくないし >>792
ご丁寧にありがとうございます。
難しい話してますね。頭が熱を帯びてきました。 >>801
無理
速度が圧倒的に違い過ぎる
仮に使えたとしたら間違いなく逆効果になるだろうな kneehighs 入れて
negative に knee boots 入れる >>804
あれだけ高度でハイレベルなことやってエロ画像生成してるのがなんだか面白いよね
好きなら頑張れるってことだなw >803
ありがとうございます。やっぱそうですよね。
自分でLoRAで学習させるしかないのかな。 >806
ありがとうございます!
何度か試してますが、結構いい確率で出てる気がします。 まだ3060が手元に来てないので分からないんですが、hiresはやたら時間かかるみたいだけど、これは高解像度ソフトで高画質にするのとは違って、
i2iの要領で再生成してるからって事ですかね?
必ず高画質にしたいので、だとすると3060でも普段は512で沢山出して良いのだけを高画質にするっていう運用ですかね >>780
実写はあぶないからなあ
言い訳がしにくいと言う意味で
アニメ絵で練習してほしいならそれこそ自分だけで楽しむほうがいいとみんな思ってるんだろう 質問です
loraにおける学習や生成は、GPUを消費させて使用してるわけですが、これはどのように消費されているんでしょうか?
例えば契約の場合、上限が100としたらそれを1か月自由に使い、来月また100まで使える
という感じだと認識しているんですが、これが自分のPCの場合、上限1万なのを回復せずに使い続けるという感じなのでしょうか?
その場合、GPUの種類によっては契約よりも割が高いのでしょうか? 一旦サーバーの契約は忘れて下さい
ローカルで掛かるコストは電気代だけです
比較出来るとすればトータルコストだけです >>780
俺も三次元やってて
ろりには興味がない人間だけど
やっても単純に実写にしか見えない civitaiにあった有名人のlora試してみたけどこれヤバいな
イマイチな出来になることも多いとはいえ今後もっと洗練されていくと考えたらさっさと法整備されるべきだわ トリガーが<lora:Muk>のLORAをご存知ないでしょうか? たまに.binファイルをみかけますが、これは、そのまま使用できるのでしょうか? 芸能人の精巧なコラなんて何十年も前から作られてる
ただ、それが一部の人にしか出来ない職人技だったというだけ
そしてなにより問題はそれを世に出すかどうかなんだよ >>813
トータルというと、パソコンの初期費用を本来の寿命(3から5年、つまり36から60ヶ月)を割った金額と、契約での月払い金額
という感じですか? 1111で生成と拡大処理をt2iで一緒にまとめてやりたいのに
数件回すとNansExceptionで止まりやがる
Try adding --no-half-vae commandline argument to fix ths.
って言われてるんだけど、どこに追加すりゃいいんだか
ちな拡大にはR-ESRGAIN 4x+ 本スレでみんな答えてくれるし、このスレいるか?みたいな気持ちはある >>826
どんな環境でインストールしたかわからんが、いったんWebUIを閉じて、WebUIのフォルダにあるwebui-user.batをメモ帳で開いて
set COMMANDLINE_ARGS=
を
set COMMANDLINE_ARGS=--no-half-vae
にするってこと
set COMMANDLINE_ARGS=--no-half-vae --xformers
にすると出力が毎回ちょっと変わるが省メモリになる >>827
そもそもどこでどう住み分けてるのかわからん >>827
質問に対して答える率が違う
少なくともこっちはかなり高い確率で真面目な回答が来る
何故ならここが質問の専用スレだから >>828
おお、--xformers謎のメッセージもそう言う意味か
解決した >>828
そういやxformersの引き数って何でwebui-user.batに書くんだろうね
webui.batの序盤の方に記入してる >>832
webui-user.batって環境変数初期化してwebui.bat読んでるだけの奴? ステップ20で学習させてpromptにも表示されるのですが、
作る画像がただ色がついたものになるのはなにか間違っているのでしょうか?
その色のついた画像を素材にはしてないのですが…。
人物を覚えさせたいのに、人物の字の字すら出ないないんですよね >>835
指定の仕方間違ってるだけなのは間違いないな
他の人が同じものを再現しようとしたときに、「ステップ20」以外の情報がないわけでな
圧倒的に情報不足だ、ここで伝わらんものはAIにも伝わらんし、それ以前のUIの段階で何か抜けてる ユーザーに書いた方が何追加したか管理が楽って以外に理由ないでしょ >>825
どなたかこれについて回答よろしいでしょうか?
急かすようで申し訳ないです ごめんやけど >>812 読んでも何のこと聞いてるのかさっぱりわからねぇ
もっかい最初から質問して? 契約ってなんや?Colabとかpaperspaceの話? すごい初歩的質問でもうしわけないけれど
AUTOMATIC1111のプログラムは
Cドライブじゃなくて他のSSDの任意のフォルダでも動きますか? 動く。ワイは1111はHドライブで動かしてる。ちな生成してるものとは関係ない >>827
あんまり答えてくれないと思うレベル低いと下に見てる
wiki読めが多い >>812
多分契約より自前のGPU使い潰す方が絶対にコスパいいよ
レッツローカル! >>839
>>840
簡単にまとめると、自分でGPU使う場合、どれ程の性能ならどれくらい使えるのか(つまりコスパはどれ程か)
Colabとかpaperspac等のプラン購入(proの場合だとチャージ性)の場合、上のコスパと比較するとどんな感じなのか
の2点ですかね おれはEドライブとRドライブとOドライブを使ってる。ちな生成してるものとは関係ない >>845
3060は5万円+電気代
Colabは無料 or 課金(1,179/m or 5.767/m)
金だけ考えたらColab
自由度はローカル >>845
サブスクは罠だ
パソコンは買っても売れるし、知識も無駄にならない
クラウドで必死こいてやっても、知識もパソコンも資産にならずコスパが悪い
エラーやノウハウで置いていかれるし
と思って3060 12GBポチったよ ぶっちゃけローカルでやる最大の理由は
アウアウな画像を作成したいからクラウド側の自動検閲の仕組み次第で
今日はセーフでも明日は人生アウトになるかもってビクビクしたくない
というコストに変えられない理由な人が多いと思うけどねw 有料鯖で一枚幾らでやってると、手足モンスター出たら金返せって殴りたくなるからなぁ 基本画像の保存は全部名前を付けて保存 でエクスプローラにやってますが、安全策をとるならやはりローカル使うしかないですかね
GPUで選ぶなら3060をすすめられましたが、やはり皆さんも3060を使ってるんですね
分割にはなってしまいますが、自分も3060のPCを新しく買うか……
AIとは関係のない質問ですが、GPUの3060以外に見たほうがいい項目とかってありますか? > 本画像の保存は全部名前を付けて保存 でエクスプローラにやってます
めんどくさすぎて死ぬだろこれ
> GPUの3060以外に見たほうがいい項目
メモリは12GB
それだけ
メモリは12GB
いいか、メモリは12GBだぞ 一応書くけどメモリはVRAMのことな
3060でも8GBのやつあるから注意しろ >>853
3060は2種類あるが、vram12GBのほうを選ぶ
メインメモリは32GBないとモデルの読み込みや切り替えでエラー吐かれる可能性が高い
HDDよりはSSDのほうが快適、外付けでもいい 内容かぶりまくったw
でもやっぱそこだけは気をつけて欲しいよね
あれほんと酷い罠だよ >>854
元々数万単位で画像を、名前を付けて保存でやってるので、あんま苦ではないですね
メ
3060のVRAM12GB
メインメモリ?が32GB
SSD
これが最低条件ですね ちょっと探してみます あかちゃんインストーラーで無事インストールできたんですけど
generateボタン押しても、プログレスバーがすぐ止まったりで生成できません
何が原因かわかりますか? 価格.comで検索中
ビデオチップ詳細:GeForce RTX 3060 メモリ容量:32GB〜64GB未満
ビデオメモリが12GB以上
ということでいいんでしょうか・・・?
RTX 3060tiというのもあるようですが、これは無視していいんでしょうか? >>853
最終的な出力ファイルはローカルに持ってきたとしてもそれ以外の
生成処理や変換処理で生成される(かもしれないし、されないかも知れない)
中間ファイルやサムネイル等はクラウド側に置かれたままの可能性がある
仮に全ファイル大丈夫だと確認したとしても
SD等の機能アップで作成される中間ファイルも増えるかもしれないので
アウトになる可能性はゼロにはならない ローカルでやんない人って
ロリやんない人なんだろうね
まさかサブスクしてガチロリ作る猛者も
いるんかな >>859
グラボの性能が低い可能性
場合によっては起動オプションの追加でなんとかなるかもしれない
>>860
tiは3060の格上ではあるんだけど、vram容量が少ないのでAI用途ではオススメ出来ない
3060、どんどん市場から減ってる気がしないでもない >>860
残念ながら、RTX 3060tiのラインナップに12GBのVRAM積んでいるものがない
機械学習はやらないし高解像度の画像を出力するつもりもないのであればそれでも構わないんだろうが、
12GB以上がデファクト・スタンダードになりそうな昨今の情勢を踏まえると、
わずかに処理が早くなる程度の違いならVRAM容量を優先したほうが賢明 3060の12GBが全部はけたら何が起きるんですか なるほどです
ならtiはなしですね
今PCについて調べていたんですが(初歩過ぎて飽きられられたらすまん)
CPUスコアというのが3万以上の方がFPSや3Dなどやる場合は必要と
すいません、確認も込めてわかったことをここに書き込んでいます >>862
言っておくが、日本人的には普通だと思ってる2Dイラストも欧米基準だと全てロリ扱いだぞ
なのでエロやってる連中のほとんどが該当することになる コミックLoを堂々と本屋で売れる国がどれほどあるんだろうな >>866
それはゲーム用途の場合の話
3DCGのゲームだとCPUも重要だから
AI用途のみならCPUは高い性能はいらない
金銭面で抑えたいのなら、選べる中で一番安いのでも大丈夫 >>869
残念ながらFPSもやっているんですよね、寿命でGPUぶっ壊れてるので今はできてないですが
新しいパソコンになったらあの なんでしたか『どんかつ食う』ために最後まで生き残る
TPS&FPSの有名な奴 スマホ版もある
とにかくスペックが要求されるゲームを見越して、それなりのものを買ってはおきたいです CPUはどんぐらいまで下げられるんだろう…
別スレでオンボードCPUでも動くんじゃないか?と議論になってたが、ならi3でも余裕か >>871
ちなi3 8100で何の問題ない今のところ >>870
あのゲームにグラボパワー必要か?
GTX2060でお釣り来るだろ >>870
正直AAAタイトルでもCPUはそんなに使わないからなぁ
生配信とかやらない場合なら、少し余裕持たせてi5の新しいの買っておけばそう不満は無いと思う
それよか電源に金掛けた方がいい。別スレでPCから破裂音と共に煙が出た人も居たんで >>873
あれじゃなくてもいつか必要なのくるかなぁと
今後はAI以外にも3Dも始めてみようかと思ってますし
低スぺで不便なことはあっても、高スぺにすることにデメリットはないので
まぁスペックが高くなる分高くはなりますが、大体20〜25万以下のを買う予定ではあります すいませんさらに質問なのですが 何度もすいません
M.2 SSD、またはSSDの容量はどれくらいの方がいいとか はあるのか
windows 11 Homeとproで性能の上限?が違うようですが、どっちがいいとかはあるのか
GeForce RTX 3060 LHRのLHRについて 仮想通貨が関係しているようではありますが、これを選んでも問題ないのかどうか
本当にすいません<(_ _)> intelならCore i5 12400Fあたりがコスパ最強でスタンダードかな
あとそうだよ電源!
少なくとも750以上あったほうが安心 >>877
SSD→最低1TB、出来れば2TB以上
Win11→Homeでいい
LHR→関係無いので気にしなくていい。 >>875
欲張りだなぁ、二兎を追う者は一兎をも得ずだぞ >>877
いろいろな用途で使う想定かつ先々スペック要件が上がっていくことを見据えてっていうなら、システムファイル入れるSSDは2TB欲しいな
ちなみにデスクトップでならM.2というよりNVMe規格の方を意識した方がいい。M.2は端子の事でNVMeが高速データ転送のキモ。
Windows11Proは個人的にはサンドボックス機能を使えるところが魅力だけど、特にそういうのないなら個人用途PCに入れる意味がない
LHRはマイニングクソ野郎共対策の応急措置みたいなもんだから、VRAM容量にだけ気をつけてればOK そのうちAI生成専用PC欲しくなってくるからなんでもいいよスペックなんて >>867
そういえばそうだね
ヤバいねw
2次元なら大丈夫と思ってガンガン
生成してそうね
>>868 日本と台湾くらいかも >>880
す、すいません汗
ただ妥協すると後悔しちゃわないか心配で civitaiのようにプロンプトを参考にできるようなところないですか? >>884
決して安い買い物じゃないしな
しっかり悩んで買うでいいんよw 正直5chで過去に質問した時、結構ggrks って言われたことが多かったので
ココの人はかなり優しく、丁寧なのでとても安心して質問できます
本当にありがとうございます<(_ _)> file:///C:/Users/Owner/Documents/Screenshots/screenshot.3.png
file:///C:/Users/Owner/Documents/Screenshots/screenshot.2.png
とりあえずここまでは絞れました CPUスコアを考えると 1枚目の範囲で選ぼうかなぁと思ってます CPUの速さはそれ程高く無くても良いが、メモリ管理のために最適なのは4GB につき1コアらしいので
8コアなら32GB以上
10コアなら40GB以上
16コアなら64GB以上が好ましい >>885
ちちぷい、majinai、lexica、mage.space、5ch wiki(https://seesaawiki.jp/nai_ch/)…ほかいろいろ >>888
お、ローカルのアドレスだぞそれは
そこにアクセス出来たら怖いぞある意味 >>888
パソコンのスキルがとてもよくわかっちゃう書き込みだなぁ~
いいのいいの、最初はみんなそんなもんだから
アップローダーはimgur.comなんかがいいよ
サインインすれば自分が上げた画像を一覧で見られるよ safetensorsのファイルだけ持ってて
発動プロンプト見る方法って何かある? >>850
まさにそれ
グラボも対応してないし速度も求めてないからcpuでオカズ作ってるぜ 顔が真っ赤です はい
まぁ質問の時点で初心者ってことはばれてるし うん うん うん……
https://imgur.com/aZ6qdHd
こ、これでいいのかな? Nくん、スクショで名前が出てます・・・。別にいいけども・・・ ローカルアドレスを貼るとか20世紀のネタやないかw
それがクラウドでLora学習するとか知識がチグハグな感じが今時やな >>895
え、CPUでも作れるの?
どうやってるんだ >>902
PCにも円安とか価格高騰の波が来てるからね >>908
まぁ最初は誰でも初心者だw
むしろこれを機会に色々覚えて、ほんで苦労したことはいつか後進に伝えてあげればいいのさ 似たようなモンが多い中から選ぶとしたらあとはそうだな、対応している映像/USB端子の数と種類だとか、
メモリ拡張する予定あるならスロットの数とか、ケースの開け閉めのしやすさとか、
そういうスペック以外の部分も見た方がいい。
特にケースはサイズが小さかったり配線ケースを裏から通せない奴だったりすると、
将来デカいグラボに換装するとき干渉してうまく挿せない事があるからその辺も注意が必要化 フロンティアPCの糞電源
買って半年で壊れやがった
保証期間中だが
PCなんて送るわけないじゃんよ そういやサポートがどうなってるかも重要だわな
現物まるごと返送しないと対応してくれないとか、近くに実店舗がある場合はそこで見てくれるとか、
○○○○○円まで無料で保証とかサポートあるけど海外企業だから英語のみ対応とか色々 22歳の頃なんてネットのエロ画像に辿り着きもしなかった >>910
分厚いグラボと交換したらサイドパネルとの距離が殆ど無くなって酷い風切りノイズ出すようになったぞ
サイドはフルオープン仕様にしたわ わからんことをわからんと聞いてわかるようになろうとする
これだけで立派やとおじさんは思います >>915
今までの5chのイメージが反転する程ここの人達が温かい件について >>907
20万ちょいですけど、これ高いんですか? BTOは不定期にセールあるから急がないなら狙うのもあり、BTOメーカーのHPなりスレに張り付くといい
AI用途メインで3060の12GBに絞ってるのは分かるし3060もグラボなしからしたらゲーミング名乗れるスペックだけど最新世代ではないローエンドであるのも確か
だからAI絵生成みたく気長に待つ使い方にはコスパがいいけどゲームにも使う長く使うというなら予算出せるなら4070ti行ってもいい(30万いくと思う)
まあゲームはFHDや低画質設定でしかやらんVR興味ないホントにAI絵生成しかしないし必要になったらグラボ入れ替えるわというならいいけどね >>910
そういうのって実際に見ないとわからなそうですけど、とりあえず小さいのはだめそうですね >>918
VRには正直興味があるんですよね……
今まで一度もやってなかったんですが、最近のVRはレベルが高いと聞くので
ゲームは最悪低画質で普通に動くなら問題はないのですが >>904
簡単なのはNMKDStableDiffusionGui
導入時に少し手加えるけどAutomatic1111でCPUで生成できるよ
1枚3分40秒とかかかるけど
https://i.imgur.com/saF21G3.png >>917
別スレの話ばっかで悪いが、3060 12GBでAI絵を遊ぶことに特化させて15万切るぐらいの構成上げてる人がいたんで、
そういう目線から見るとまだまだ費用落とせるはず。
個人的にゃCPUここまで良いの積む必要無くね?とは思った >>922
でもゲームとかにも使いたいんだと
ほんでその先の寿命とか、いつかグラボ載せ替えるとか考えると結局は20万ぐらいの構成にはなるんじゃないかね >>922
FPSとかもっと上の子とする場合、CPUスコアは3万は欲しいと記事にあったので
必然的に結構上がっちゃった感じですね
ただ聞いた感じGPUもうちょい上げたほうがいい気がしてきましたが 初歩的な質問で申し訳ないんですがLora学習をコマンドラインでやる方法のArgsList.pyはどう開くものなんでしょうか?
普通にダブルクリックすると一瞬cmdが表示されてすぐ消えてしまうんですが何か導入でミスがあるんでしょうか
一応ポップアップ版だと最後まで行けるんですが >>928
編集とか開くにメモ帳なかったんですよね…
勘違いしてるかもしれないんで明日以降もう一度見てみます >>929
関連付けてないと出ないね
もしくは、空のメモ帳を開いてその上にファイルをドラッグ&ドロップでも開けるよ LoRA学習始めたばっかなんで教えてくださいな。
実物をなるべく忠実に再現したくて全身画像と部分のアップ画像を複数(顔だけ、胸だけ、股間だけ)を詰め合わせにしてみたらバケモノ大会になっちゃった。
すべて全身にするとかの統一感ある画像じゃなきゃダメ? >>929
.pyを.txtに変えるだけでも開けるはず
てかこの辺りはwindowsの使い方の問題だなw loraで学習させたやつのWeight 1どのぐらいで使ってる?0.5ぐらいにしないとぼやけて話にならないんだけど
普通なのか過学習なのか判断に迷ってる >>931
何が原因かはいくつも要因はありそうだけど、衣装とか込みでやりたいのなら、まずは欲張らずに全身か上半身ぐらいをメインにしたほうがいいかもね
step数も500程度で回して様子見ながら進めな >>933
0.5まで減らして丁度いいって時点でやや過学習気味かも
ただ、それでそれなりに安定してるんならオレは気にせず使っちゃうけど >>902
VR関連の話がなかったらこれでもよかったかもなんですが、VRに思った以上のスペックが必要とわかり、悩んでますね
ただ自分がやりたいのってアクションとかじゃなくて、アレ、なのとかですし、そんなにスペックは要求されない……か? これPC質問みたいなスレあればそっちに移動したほうがいいかも・・・?
トリマ今日は寝ます また明日見に来ます(多分スレ変わってる気がしますが 下半身優先しすぎだろw
VRやるならRTX4070くらい積んでもいいんじゃね?
fanza見るだけならmeta quest2単体でもいいけど >>935
そっか、とりあえずそのまま使ってみるけど
昔のゲームキャラクターで一枚しか書かれてないから差分も難しいなぁ生首理論も使ってみたけども
繰り返し回数200は多すぎたかな? >>940
さすがに200はゼロが1個多いかもなw >>937
まぁそれなりに金出しといたほうがいいんじゃね
ゲームやVRとかやりたいのなら
いいの買っといて損はないはず >>675>>667
時間空いてしまいましたがありがとうございます
img2imgのsketchがerrorで使えない件ですが新たにこのようなログが出てます
原因が特定できず困ってるのですがわかる方いますか
i2iの画像はD:\Pictures\nからアップロードしてます
https://i.imgur.com/WiXTiiy.png NVIDIAのGeForce RTX 4090はゲーミングにおいて高い性能を発揮するもののこの性能を活かしてコンテンツ制作や機械学習などエンタープライズ向けに活用しすることを思いつく人も居そうですが、NVIDIAでは先回りしてエンタープライズ向け用途で需要が高いP2P機能についてGeForce RTXシリーズから削除されている事が明らかになりました。
という記事あったんですけど
AIイラスト作成にも何らかの制限してくることありえます? RTX4090の4枚差しでA6000超えを狙おうとするなら関係ある いつのまにか、生成できなくなりました。カラフルなノイズ模様しか生成されません。この場合、どうすればいいでしょうか? https://civitai.com/models/13356
こういうトリガーワードのないLoRAって
呪文にTagsにあるGIRLとかPHOTOREALISTICとかあれば
勝手に適用されちゃうってこと?
すごい使い勝手悪いような・・・ ???
要らないなら適応させなければ良いだけでは?
むしろ呼び出しキーワードが欲しい場面ってあるのか? >>949
一般的にはwomanとかgirlとかfemaleとか指定しないもんなの?
もしかして必要なLoRAファイルだけLoRAフォルダにいちいち入れ直すのが普通の使い方?
俺loraファイルはLoRAフォルダに全部放り込んでた・・・ もしかしてLoRAってTagsのワードだけじゃ適用されないってこと?
japaneseDollLikeness_v10.safetensors
japaneseDollLikeness_v15.safetensors
この2つのLoRAを入れてあったとしたら <lora:japaneseDollLikeness_v15:1.0> とか呪文に書いてはじめてv15のLoRAだけが適用されるってこと?
>>948のリンク先のサンプル呪文みたいに <lora:〜〜〜:x.x> がないものが結構あるのは分かってて省略されてる?
TagsやTrigger Wordsはなんのためにあるんだ・・・ auto1111環境だと生成ボタンの下の花札ボタン押してLoraタブで
使いたいLoRAをクリックしたら呪文テキストボックスに <lora:〜〜〜:x> が入力されるのか
今までサンプル呪文にある <lora:〜〜〜:x> とトリガーワードをコピペして適用してた・・・
つうか950踏んでた
次スレ立てられるからやってみる 【StableDiffusion】画像生成AI質問スレ02【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1677430973/
980踏んだら次スレだった・・・先走ったわ
LoRAの使い方も勘違いはなはだしいし次スレ先走るしさんざんだな
すまぬ 学習画像を200枚用意したけど、連番にしないといけないんですよね?
かなりめんどくさくないですか?
もしかしてこーゆーアナログ作業やってるの自分だけですかね? >>939
おはようございます
まぁ男ですから……そもそもAIの主たる目的も、ねぇ? >>947
たいてい変なプロンプト(unchi:10)とか入れてる
強調がでかすぎるか過学習すら超えたLORA使ってるか
そうでなければPC再起動 >>947
>>957
プロンプトのスペルミスコピペミスってたまにあるよな
何か崩れるなってって思ったら1文字消えてるヤツ 色々とありがとうございました
とりあえずこれで
https://kakaku.com/item/J0000040312/
最初は18万のを買おうと思ったんですが、ちょっとくらいいか ということでこちらの少しお高い方で
また、冷却タイプは高スぺの場合水冷タイプがいいと書いてあったのでこのタイプを
とりあえず最後になるとは思いますが、こちらカスタマイズできるようで、何かやっといたほうがいいものとかはありますか? 少しお高い方の理由として 以前見せた上二つの分以外が、全部同じスペックだったからというのもあります
カスタマイズできるようなのでそれしてもよかったのかな・・・? SSD1TBのみなのがモデルとかLoraダウンロードしまくってたらちょっと少なく感じるかも
予算にもよるけどHDDなり付けといたら? >>960
値段に関しては何とも言えないけど、載ってる3060は12Gで合ってる? >>960
CPUを下げてでも追加ストレージが欲しい
1~2TBSSDで
システムドライブと作業ドライブは分けるべき >>897
長浜さんちょっとこれだと高いね
安いやつ買ってパーツ追加した方がよっぽど安い >>960
SSD欲しいねぇ
でもそこで追加すると結構割高
自分でつけたほうが安上がりだけど情弱ならやってもろたほうがいいかな
ためたデータぶち込むHDDも欲しいところ SSDは今どんどん値下がり基調だから
足りなくなってきたら買い足しでもいいと思うけどね
CPUは作業的にもコスト的にも後からは上げにくいが
SATA SSDの増設は素人でもできる
むしろそっから自分でPCいじる事を憶えるのが吉 まぁ1TBあれば当面は困らんだろうし使ってみてから買い足してもいいけどね Loraの学習で画像同時処理枚数ってどこまで上げられるの?3060で
皆さんはどのくらいの数値にしてます? なんで花札ボタンの坊主なんだろ?
なんか意味あるのかな gradio.liveが数時間落ちっぱなしだよな? まったくもう >>972
バッチサイズの事?
学習解像度とかdimにもよるだろうけど解像度512、dim128ならVRAM12GBはバッチサイズ5くらいならいけるんじゃない?
ワイはVRAM8GBだから確かな事は言えんけど同条件でバッチサイズ3が限界だったから多分それくらいだと思う >>975
その条件で5でやってたんですけど
もうそれが限界値っぽいんですね
ありがとうございます >>977
そこそこ楽しめる
贅沢言えばメモリは32欲しいかな
16だとモデル読み込みで落ちる可能性もあるので、サイズの小さいモデルを使ったり工夫が必要になるかも 現状SSDは1テラが最高だったので、カスタマイズの項目にあれば追加する感じですね
仕事中のため今は見れませんが……
あとやっぱもう少し安いのかって、追加アイテムつけるほうがいいんですね 何をどこまでやりたいのかでしょう
なんかみんながやってることをそこそこやって楽しみたいなら提示のスペックで
本体メモリ増やせばだいたいできそうだよ 始めて1週間でそろそろloraを始めようと色々調べてるけど、日進月歩過ぎて何が正解か分からない…
今始めるならinstall_sd_scripts_v5.batで導入するのが正解なんだろうか…? 一昔前の2070でもそこそこやれてるから
あんまり気張って大枚叩いても、ゴミが高速で大量発生するだけだぞ 初期状態だと自分の好きな分野の絵が出ないから
巷でデータ拾って試すもやっぱり納得出来なくて
Loraに手を出すもやっぱり限界が見えてしまって
参考画像として使うくらいになり
高スペックパソコン買った事を後悔する >>981
たぶんそれが一番無難
もしくはもっと初心者向けだと>>704とかもある >>978 さん、ありがとうございました。
このお店で安くてメモリ32GB/RTX 3060を見つけました。
今にもポチりそうになってますが、大丈夫かな・・・。
https://store.shopping.yahoo.co.jp/buxton-web/i125f-g306n-m.html >>985
やめといたほうがいいかも
電源:550W BRONZE ←コレ
さすがに少ない
3060なら最低でも650W以上はあったほうがいい https://original-game.com/how-to-try-stable-diffusion-web-ui-on-colab/
すみません
こちらのサイトにある通りColab上で以下を実行するとものすごい時間がかかって
一向に終わらないのですが所要時間どれくらいでしょうか?
!python launch.py --share --xformers --enable-insecure-extension-access >>986
いや十分だろフルロードしても180WくらいなんだからCPUがi5なら100Wでしょ
どんな盛っても余りまくるって 今後たいした増設しないしグラボ買い替えとかもしないのならそれでいいかもだが
そんでもオレはBTOの550WBRONZEは怖くて使えんわ >>981
https://github.com/bmaltais/kohya_ss
ブラウザの翻訳機能使って読み進めると良いけど要点を掻い摘んで
・Required Dependencies項で前提の3ソフトを入れる
個人的にはCuda11.7環境だったので、11.6を入れてシステムの詳細設定からパス順位を11.7優先にする
・Installation項
インストールしたいフォルダでShift+右クリでpowershel起動し、Set-ExecutionPolicy Unrestricted スクリプト実行許可
続けてgit clone https://github.com/bmaltais/kohya_ss.git以下を一行ずつコピペしてじっくり実行して閉じる
・Optional: CUDNN 8.6項
RTX30XX環境なら続けてhttps://b1.thefileditch.ch/mwxKTEtelILoIbMbruuM.zipをダウンロードして解凍
cudnn_windowsフォルダをインストールフォルダ(gui.bat)にあるところ置く
再度、install時と同様にパワーシェル起動で項目指定の2コマンドを実行
あとはgui.batを起動したらautomatic1111みたいなのが起動する、細かい指定オプションはとしあきwikiと大体一緒
デフォルトの設定だと大体コケるからいくつかチェック外さないと動かないね、kohya_ss GUIで調べたら解説サイトあると思う >>989
3060ならって自分で言った前提崩すのズルい
最初の数万を出来るだけ抑えたい人にそんな後の付加価値なんぞ付けんで良い、買換えの時に電源とセットで提案したりや
>>990
あ、書き忘れてたけどautomatic1111インストールしたフォルダ以外の方が良いよ Kohya版LoRAも作った本人が
エラー続出と書いてるし
躊躇するわ >>992
実際めっちゃエラー起きるぜコレ
やっぱCUIライク戻ろうかな 別に対抗したいわけでも口論したいわけでもないのにズルいとか言われてもなぁ
オレは電源ケチって故障して結局無駄に金使ったことが何度かあるのでかなり慎重になるわ
せめて1年サポートとかはケチらずにつけて欲しい >>986 さん
>>988 さん
またまたご丁寧にありがとうございました。動くけど、将来的な拡張性は疑問、ということで、大変参考になりました。安物買いの銭失いが得意なのですが、そんなに頑張らない気もしていて、もう少し考えます!ありがとうございました。 LoRA学習で○○ステップが良い、良かった等の話がありますが、これはバッチサイズ影響してるのでしょうか?
6000ステップが良いと言う場合、もしこの話がバッチサイズ1だったら、バッチサイズが6だと1000ステップがいい、と捉えていいんでしょうか? このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 34日 2時間 28分 44秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。