【StableDiffusion】画像生成AI質問スレ01【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。 次スレは>980が立ててください。 テンプレは>2以降に ホーチミンがやらかしてるか 他のお行儀の悪いExtensionが原因かどっちだろうな 後者がめんどくさいパターン そもそもGradioのinputsにリストで渡すしか複数の値渡す方法ないの厄介なんよ…… 俺が無知なだけで他に方法があるのかもしれんが 念のためpythonもgitもアンインストールしてから公式のインストーラを試してみたらこれだけでいけたよ ダウンロードしたzipを解凍 モデルファイルを配置 update.batを実行 run.batを実行 ほかに何もインストールする必要はなかった >>672-674 どうもありがとうございます。 まずは家帰ったら例のアズレンでチャレンジしたいと思います。(あれは凄いと思ったのがキッカケなので) 自炊っすかー自分のGPUは今3GBしかなくてすぐメモリオーバするんで 本腰入れてやるならやはり買い換えないと駄目ですよね >>678 zipのrun.batのヤツはpre版だから精度悪い感じに思えたけど、特に背景が pre版のupdate.bat押すとver1.5>2.0に上がるのかね? としあきバッチで学習を行いたいのですが モデルとか画像とか何をどこに置けばいいか全然 わからないので教えてください うつ伏せの人間をメインとして、手前に顔のどアップ 奥に足といった構図が何故か上手くできません・・・。 何かコツありましたらご教示頂きたく これからRTX3060買ってdream boothするつもりなんやけど、モノが届くまでにすべきこととしては学習元の画像は512×512にリサイズしとくくらい? >>683 LoRAでええやん そっち調べとき Dreamboothは多分Vramギリギリだと思うぞ 皆さんに質問なんですけど、 画像サイズはどれくらいで作ってますか? デフォルトの512×512ですか? 大きいと顔だらけのオバケがたくさん描き出されるからなぁ >>680 公式のワンクリ版は通常版と導入構成は違うけど、アップデートすれば基本的に中身は同じ 生成結果で劣るようなことは起きない ただ、pythonが無い環境だと動かないextensionとかはある あれに同梱されてるpythonはwebuiを動かすためだけのパス設定しかしてないから 最初のseedとか決めるtxt2imgtの段階では低解像度4:3だね、800x600とか1024x768とか そこから解像度上げるときはそっからimg2imgでアップスケール あんま高い解像度だとデフォ設定だと多脚化したりモヤ生成になったり時間かかったりメモリサイズエラー(12GB) なるほど、 リサイズがよくわからなく大きいサイズで作ってました 960×1260です。 やはり小さいサイズで大量に作ってそこからリサイズがベストなんですね。 >>687 ありがとう、そうなるのか、中身が一緒なら良いか 確かに、ワンクリ版使っててちょっと凝った事しようとしてエラーで読み込ませれなかった事あった それが契機で最近公式を自力で翻訳して面倒な通常版入れなおしたんだよね >684 LoRAのつもりやった、サンクス! >688 LoRAは512x512だと思てた…。 4:3なんや、、、そっちで準備しますわ! >>691 ごめんアンカー忘れたけど>>685 宛なんだワ LoRAは週末にでも学習対象見つけてやってみるよ 各画像サイズはバラバラでもOK? あと生首(首から上の画像)ってどんなサイズにしてます? 300x300くらいのしかないんやけど、、、 フォトショとかでアップスケールしなきゃダメ? chilloutmix sunshinemix モデルデータはこれしか入れて無いんだけど shinzo abe,のデータまで入ってんの? >>680 1111のバージョンと学習モデルのバージョンは別のものです 1.5とか2.1は公式の学習モデルのバージョンのことで、両方入れておいてどちらかを選んで使うこともできます 1111はバージョン番号で管理されていません(よね?) 公式のインストーラのはupdate.batすればgit cloneからuser-webui.batでインストールしたのと変わらないでしょう >>687 > pythonが無い環境だと動かないextensionとかはある えーそうなんか、今ちょうどpython入っていないからなにか試してみよう zipインストーラ版で対策はあるのかな >>694 SDの公式モデルSD1.5か2.1は色んな著名人が学習されてる 当然アメリカ人のほうが入ってる率は高いけど トランプ元大統領とかハリウッド俳優とか結構いっぱい出てくる なので、そこから派生している全てのモデルには当然遺伝子として受け継がれてる NAIなら二次元化したあべちゃんが出るよ >>695 そもそも中身のwebui部分はアプデ出来ても、追加でgitしろとかpipしろとかは全部出来ないからそこが一番不便かもな バッチ書けば出来るけどそこまでする人はそもそもワンクリなんぞ使わないだろうし そんでもNMKDよりは推すがね >>695 automatic1111のpreと通常版でインストールされるStable Diffusionのバージョンが1.5ベースか2.0ベースかの違いと思ってて Stable Diffusionのバージョン違いはいう通り学習データは違うし、 バージョンによってpromptの解釈が違うみたいな記事を読んだ気がする automatic1111そのものはGUI化を手助けする便利なツールって認識 lora使うためのモデルや学習画像などのフォルダ をどこに置けばいいんですか? >>702 毎回単発IDになってしまいますが同じ人です お願いします >>703 日本語フォルダとかじゃなければ基本どこでもいい どうせ学習時にパスを指定するから モデルもwebuiで使ってるモデルのパスを指定するし >>704 それかなりビギナー向けの導入方法だから、本格的にやるならとしあきあたりを参考にしたほうがいいよ >>699 >automatic1111のpreと通常版でインストールされるStable Diffusionのバージョンが1.5ベースか2.0ベースかの違いと思ってて そういう関係ではないと説明しているつもりなんだけど、どうすれば誤解が解けるのか… 学習モデルの1.5と2.1はどちらも自動ではインストールされず自分でダウンロードしてフォルダに入れるでしょ zipインストーラ版に公式学習モデルのバージョン2.1だけをを入れて使うこともできるし、 git cloneするほうに公式学習モデルのバージョン1.5だけを入れて使うこともできるのよ >Stable Diffusionのバージョン違いはいう通り学習データは違うし、 >バージョンによってpromptの解釈が違うみたいな記事を読んだ気がする 確かに、公式学習モデルの1.x系統と2.x系統はプロンプトの解釈が違ってて、出てくる絵が全然違うのはその通り でもそれはAUTOMATIC1111/WebUIのインストール方法の違いとはまったく関係ない話だよ ちょっとここで聞いていいのかわからないんだけど質問させて civitaiでモデルのレビューを画像付きでアップすると1日くらいでアップした画像が削除(image removed)されるんだけど理由がまったく分からないんで理由わかる人がいたら教えてください 具体的にはこんな画像でR18タグも念のためつけてる i.imgur.com/8wxTmXF.png i.imgur.com/QVqyYAd.png i.imgur.com/5t9P2O8.png i.imgur.com/V0hdQBZ.png 20枚中生き残ったのはこの1枚。どうして… i.imgur.com/tZyjkdx.png >>707 なんか確実じゃないけど分かったかも Promptに loli って入ってるから消されたかもしれない 次からこの単語を入れてない画像をアップするようにしてみよう >>705 そのとしあきのが導入まではわかりやすいけど その後使い方の説明が雑でわからない AIのChatGPTに聞いた方が簡潔にまとめて教えてくれるぞ >>696 画像は全部モデルデータの中にあると 思ってたんだけど Stable Diffusion web UIの中にも 入ってるの? ネット切断してもトランプ大統領が出るってこと? >>712 画像と言う形では入って無いんじゃないかなぁ >>712 学習したデータとしてモデルファイルの中にいるんだよトランプさんは あべちゃんも初音ミクもレディー・ガガもスパイダーマンもみんな一緒にね オンラインにアクセスしているわけではないよ >>712 画像データを作るベースの基本となるNovelAIに世界の著名人が一通り入ってる モデルデータを作るときにはイチから作らずにその基本ベースの情報を使用する そのためあらゆるモデルデータには、超薄いながらも著名人のデータが入ってる なんで安倍とかトランプみたいな話するんだよw >>714 入ってないデータはソフトが探してきてるの? chilloutmix sunshinemix モデルデータはこれしか入れて無いんだけど shinzo abe,のデータまで入ってんの? 安倍さんがアニメ画像で出てきて驚いたんです ロリ画像とか作ってるから外部と通信するのがなんか嫌なんで 気にしてるところです >>714 ->>716 なるほど安心しました ありがとうね >>717 通信もしてないし何か情報をダウンロードして生成してるわけでもないから心配すんなw オフラインでも動くしどこにも通報されないから好きなだけ好きな画像を生成すればいいぞ >>716 NovelAIはStablediffusion公式モデル1.4にdanbooru産のイラスト画像を追加学習して作られたものだよ なのでNovelAIで出力される実写っぽい背景もトランプもあべちゃんも全てSD時代に学習されたものなのだ 生成された絵をGoogleの画像検索に掛けても同じ絵は見つからなかったよ Loraで近いと似てるのに、離れると全然別人になるのは どう回避すればよいのでしょうか 素材は全身のバージョンを80枚、顔のアップを40枚程で学習したものを それぞれ呼び出したりしてるんですがどう調合しても離れると顔が壊れてしまって GPUの性能の問題? 基本、よっぽど古いGPUじゃない限り、性能で絵は変わらんよ 遠近で同じ顔学習してない問題だと思う >>722 ,>>723 ありがとうございます 遠近で同じ顔の素材準備して学習してみます >>698 考えてみたら、そうなったらgitやpython 3.10.xをインストールすればいいだけの話だった >>711 ChatGPTは2021年9月までしか学習してないから普通に無理だと思うぞ。まぁでもコマンドプロンプトとか周りの問題ならいい感じに答えてくれるけど。 >>683 LoRAの成果画像を見ておくことがまずやっておくことだろうな RTX3060のパソコンが アークで129800円で売ってるんで それ買えばいいよ >>722 グラボの世代で変わるって話はどうなったんや かたくなに多人数出してくれない時と出してくれる時の差は何なんだろう 512.512で40秒くらい掛かるけど いいグラボだと5秒でスパっと出るんですね >>730 変わるってだけで処理が極端に劣化してるわけでもあるまい あとあれは性能(処理速度)じゃなくてもっと根底の問題なはず (なんで生成速度の話で解像度もサンプリングステップも無しで何秒何枚とか言うんやろ) それは簡単 ベースモデルで測らないと物差しにならないから 物差しがバラバラだと指標にはならないのです >>735 始めたばかりの人にとってはAUTOMATIC1111の初期設定で回した場合なんじゃね 最初は多分変更しないだろうし >>740 常識で考えたら普通はデフォ設定での話なんだけどねw >>735 アスカベンチって言葉はメジャーじゃないですもの 正直アスカベンチって単語を完全に理解した頃には、初期設定欠片も記憶にないぐらい使い倒した後だった 最近のコントロールネットだの学習だのかませてる環境に比べたら アスカベンチって軽すぎて ベンチマークというよりはギリ動作するかどうかの確認用だよな 1111版で画像が灰色になるのはどう直すのでしょうか? >>746 vae入れてなくて色褪せてるんじゃなくて? http://imgur.com/4xJNdva.png ローカル版使おうと思いPCを新調したいんですが このスペックだと余裕で使える感じでしょうか? >>749 Ryzenやめた方が良くない?CUDAの問題で グラボがNvidiaなら大丈夫 CPUは同じの使ってるわ loraの設定っていちいちやらないといけないんですか? 失敗ばかりなので毎回やるたびに英語の質問が多くて疲れるんですけど… >>749 正直、vRAM量的には余裕ではないけど、平均値は越えてる 2年前に3060Tiが同じ値段だったと思うと感慨深いな >749 正直VRAM命なので12MBは使えるのが1年あるか無いかだと思いますよ 1年後にこの言葉を思い出してください それが革ジャンの戦略だし みなさんありがとうございます。 >>757 言ってることがよくわからないのですがどういう意味でしょうか? 1年後にはAI技術が進化するからVRAM12だと1年後の技術にはついていけないという意味でしょうか コマンドライン版なら一発なんじゃないか 試したことないけど てかEasy Training Scriptsがまた更新されてるな おい!先輩術士!SD-WebUIの拡張にDreamBooth入れて学習しようとしてるんだが うまくいかないぞ!PCスペックは満たしている。学習も完了する。 だけど学習完了したカスタムモデルを使って画像を作成するとflortの値が間違ってる ってエラーが出る 助けてくだしゃぁ 学習途中のサンプル画像も真っ黒だ 学習前はちゃんとサンプル画像でた >>752-753 そーなんか、俺もちょうどmacから新調する所だからradeonにビビってた まあ安牌でIntelにするけど >>758 とりあえず 「AI画像生成におけるvramの優位性」について調べた方がいい こだわりぐあいによっては半年経たぬまにグラボ買い換える羽目になる 少なくとも12GBは「何も気にせず生成できる」っていうスペックでは、ぜんぜん無い そうとも、どちらとも言えない なので答えは誰もわからない 何気に、ものすごい少ないVRAMで色々出来るようになる可能性も無いわけではないから ただ、今は3060vram12gbあたりが一番コスパ良く楽しめるグラボだってだけ パイソンのソースコード読める人ってSDがどうやって動いてるとか分かって使えるの? それとも読めようが関係なくワイと同じように「なんかえっちな絵出てくる😊」って感じなん? Python云々以上にAIの知識がないとちんぷんかんぷんだろうね Python 自体はめちゃくちゃ読みやすいから何を呼び出してるかぐらいわかるだろ その呼び出してるものの中身が全然わけわかめだろうけど >>749 で書いてる「余裕で」のニュアンス次第で選ぶVRAMの量は全然変わってくるしな 因みに今3060(12GB)使ってるけど、現時点では生成時の処理速度はそんなに困ってないけどメモリ足りないで今まさに困りまくってる なので使い方にも依るしなぁ パイソンだけじゃなくて論文も読んで理解できないとダメなのね 改良してる人たち凄まじいわ感謝します🙏 >>762 反応してくれてありがとう;; --precision full --no-halfは16x0系の描画バグ対策 だと文献で読んだが3080tiもあてはまるんだろうか 通常のt2iで作る画像が黒いわけじゃなくて 学習途中に経過をサンプルとして出力してくれる もの(そうだと思ってるだけかも?)がすべて真っ黒なんです とりあえず試してみます ありがとうございます 因みに --no-harf-vaeは 4090でも効果あったよ 単純にVAEに何かしら問題があってlatentから画像に出来てないんじゃないの >>768 でけえに越したことはないだろうけどたけえww 3060 12GBかなやっぱりコスパてきに進めちゃうのは 遅くても良いから普通のメモリも使わせてくれれば良いのに それなら32GB追加出来る Mac m1環境でWebUIをインストールして立ち上がるとこまで行ったけど 生成ボタン押しても反応ない To create a public link, set `share=True` in `launch()`. Error completing request からはじまるエラーがずらーとでてChatGPTにきいたらアクセス権限じゃないかと言われ みてみたけど問題なさそうでこのエラーがでるのは変わらず ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる