【StableDiffusion】画像生成AI質問スレ23
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。 次スレは>>970 が立ててください。 質問する人はなるべく情報開示してください ・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する ・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く ・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ ・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く テンプレは https://rentry.co/aiimggenqa に ※前スレ 【StableDiffusion】画像生成AI質問スレ22 https://mevius.5ch.net/test/read.cgi/cg/1708834240/ まず再現ってんのは素材の精度と学習量で同じものは出る 描写できないものをCheck Pointで補うから妙に小綺麗にカバーされてるのは 学習が足りてないというだけだ。そしてCheck Pointにないものは濃い学習はできない StabilityMatrixはComfyUIだけ入れて付属のInference使うと軽くて良いよ checkpointにTurboとかLightning版使うとi7 7700 16GB GTX1050でも 動いてビックリした >>500 たまに質問であるけど、線画がレイヤーのごとくカッチリそのままで色だけ塗られるみたいなのは 厳密には無理、ほぼほぼなら普通にできる、特に1.5のNAI派生モデルが得意とするところ 白黒原作漫画がそのままアニメ絵(アニメのキャラデザではない)や2.5D絵になったりする 1年前の古いloraだけど、原作絵学習させてる(チェンソーマン2部はまだアニメ化してない) ttps://civitai.com/models/18425/chainsaw-man-mitaka-asa 作例が面白い >>504 なるほど、原作絵を学習させて出力がそれって言うことは、確かに「かっちり線画を再現してる」ってわけじゃないみたいですね。 「LoRAの線画を参照しつつ、ベースモデルの絵柄で再解釈して描き直す」ようなイメージでしょうかね そしておそらく参照度合いの重みぐらいは数値入力で変えられる、と。 作例の最初二枚がモノクロなのはLoRAの重みが強くしてるとかかな しかし、LLMの方にもLoRA次作について質問を投げていたんですが、CGアニメモデリングのモーフセットの作成に似てるところあるみたいですね 深い深い沼が待っている気配がする… >>497 もはや自分で上から塗ってしまったほうが早いかもしれないw AIが普及することで人間に求められるのは専用LoRAのように一芸特化の技術になってくるのかもしれない 乳首絵師応援しています AI生成を鍛錬するにつれレタッチソフトの技術も上がったわ 1日30枚修正して数ヶ月、目とか乳なんて完全に綺麗で魅力的な絵に修正できるようになった 既に生成してある画像のメタデータを一括で削除できる方法って何かありませんか? SNS等にアップロードする際に今は1枚1枚画像編集ソフトで編集やってて中々手間がかかってしまうのですが >>510 Photoshopで自動アクション組めば全自動だよ 誘導すみません こっちは画像生成AI本体の技術のスレだったようで プロンプトの質問や共有などは情報交換スレですね SD1.5なら乳首消しローラの強度を弱めて使うと乳頭無し乳輪になるんですけど XLとかponyだとどうもうまくいかなくて。 https://github.com/Takenoko3333/remove-meta-alpha >>510 remove-meta-alphaというメタデータを削除するツールがあります つぎは本スレでどうぞ ttps://mevius.5ch.net/test/read.cgi/cg/1711170980/ 目をできるだけ同じようにするプロンプトってどうしたら良い? プロンプトで形を指定するのももちろんだけど、ネガティブの方でなって欲しくない形を入れて行けば大体同じようになると思うよ。 >>518 目の形状は気にならないけど、どちらかと言えば虹彩が揃った方がいいかなと >>519 虹彩も同じ要領で指定できるよ。 虹彩というか目の中に関するプロンプトを集めて試すのじゃ。 まぁ特殊なもんだったらLORA作った方がいいかもね >>520 おけ、虹彩に関する色々やってみてダメだったら相談するわ 色々増やすと75トークン以内に収まらないけど SDXLの1024ならあまり気にせず超えてもいいの? WebUIの拡張機能更新して再起動したらインペイントでAdetailer使うとマスク範囲外まで修正されるようになっちゃったんだけど元に戻す方法ないでしょうか……v1.9.3でADtailerはv24.5です うつ伏せで膝から下をぷらぷらしてるようなのってどういう呪文が適切でしょうか? raise one legとかone leg upだと反応しなかったり骨折してることが多くて >>521 ネガティブプロンプトもBREAK使えばいくらでも書けるよ noteで詳しく触れてるのがあるんだけど、文章も画像もきつすぎて読む気にならん・・ 要らん事ばかり水増してるわりに日本語が下手すぎて全く内容が頭に入ってこない ああいうのもほんと才能だな BREAKをほぼ改行記号として大量に使ってるけどあんまり悪影響ない気はしてる 大文字というのは知ってるけど、小文字のbreakでも意外と効いている感じがするんだよな、トークンも1つしか増えないし AnimagineでやってるんですがAIが光の当たり方を判断しているのか from belowの様な角度だと顔がいつも陰で暗くなってしまいます 影なしで明るく描写出来る方法ってありますか? 小文字のは普通に英文としてのbreakになると思うよ。 ANDとandも同じ動作だと思われ。 github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/prompt_parser.py ↑ このコードを調べると、大文字と小文字の判定はちゃんとやってると思われる 素人で申し訳ないのですがforge版では1.5用、XL用とされているmodelは正常に動作しないんでしょうか? >>526 1年前見たワイ「noteの記事すげぇ」 いまのワイ「嘘ばっかり書いてるやないか」 forgeのone click packageを使用して導入しているのですが、 機能拡張機能のアップデートを行ってからjax,jaxlibのバージョン不一致が発生して起動出来なくなりました。 バージョンアップを行いたいのですが、venvファイルがどこにあるか分かりません 無印版A1111使ってた時はホームディレクトリにあったと思うのですが、venvはどこに作成されていますでしょうか ADetailerに要する時間が画像本体を生成する時間と同等なんですがこんなもんなんでしょうか? faceのみなんですが 設定を変更すれば時間短縮できるとかないですかね ADに使ってる使用モデルや 自分の余力メモリにもよる >>541 venvはpythonの仮想環境だからforgeは多分wevuiとは別にあるsystemてフォルダにあるpythonフォルダかと >>541 forgeで全く同じことになったけど、>>354 読んでeverythingでjax探したら、 D:\webui_forge_cu121_torch21\system\python\Lib\site-packages にjaxとjaxlibがあったので、真似してとりあえずjaxフォルダだけ消してforge起動してみたら なにやらDLしだして一発で動いた で、jaxはそこからは消えちゃって C:\Users\***\AppData\Local\Programs\Python\Python310\Lib\site-packages の中のが新しく更新されたみたい?jaxlibもかな? ここら挙動が全く分からんけど、動いたからなんかヨシw >>544 >>545 system/pythonが代わりしてるんですね… ありがとうございます、解決しました! SDで連続生成開始してしばらくすると 有線ネットワークが繋がってませんと出るようになったが 流石におまかんか Pv再起動したら治るんだけど forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけどならないようにする方法ないですかね Forge+XLなんだけど black eyesがADetailer通すと色指定が無効になって色々な色が出るんだけど何か良い方法無い? Adetailerのプロンプトにblack eyesを入れると目が少し崩れて誰?みたいになるし、Adetailerは使わないとそれなりになるし悩む >>547 聞いたこともない症状 ネットワーク切れてからPC再起動しなかったらそのままずっと切れたままなの? その状態で他のPC用途は普通に使えるの? 少な目メモリ+forgeあたりのメモリリークがガッチャンしてPC不安定になってるとか? 断線しかけのLANケーブル踏んでない? >>548 変な拡張入れてない? その手の質問の9割はKohakuBlueleafってやつのいい加減消せって糞拡張 lycoris使おうとした人が1年以上前の解説サイト見て入れて対応済みのデフォとバッティングしてぶっ壊れる ちょうどワッチョイスレの質問者(491)がまんまこれ >>549 なったことないなぁ adetailer側に黒目だけいれたらそれだけで部分生成しようとするのでそりゃそうなる 基本何も入れないか、ネガ含めて全部入れてちょっとだけ変えるのが筋 >>550 sd_forge_kohya_hrfix なら内蔵で入ってるけどそれと同じ名前のものはないです… ローカル版です いろいろ調べてインストールが終わり、1度目は起動成功したのですが、2回目から起動しようとしてwebui-usea.batを叩くと以下のエラーが出て起動できなくなりました。 対策等知ってる方いたら教えていただきたい AttributeError: 'NoneType' object has no attribute '_id' >>551 試しに拡張を一時的に停止して動かしたらどうだろう? extensionsのDisable all extensionsをallにすると全部停止する これで連続生成で同じようになるなら、拡張のどれかが悪さをしてるという切り分け >>552 できればエラーの前後も貼ってください そこで「続行するには何かキーを押してください」で終わっちゃうの? あと、2回目の前にsetting内の設定とかあれこれ触った? 参考サイトとか見てると結構一気に設定変えてどれかわからない場合があるので・・ >>553 おっしゃるとおりこのあとは何かキーを押してくださいで終わりです 設定は変えてないけど、強いて言うなら画像を食わせようとしてた→そういえばコマンドプロンプト開きっぱなしだなー閉じていいのかなー→☓押したら落ちちゃったー からの2回目起動失敗ですね 画像貼れないのですが いめーじゃー の X0jZO5G です >>553 とりあえずはやってみますが… AnimateDiffを有効にして生成しても前の1枚絵から変わらないですがそこから何か分かったりします?生成時間はしっかりとAnimateDiffの時間取られてます >>554 https://github.com/Mikubill/sd-webui-controlnet/issues/2136 ・ui-config.jsonとconfig.jsonを一旦消して起動してみる ・全く別のフォルダに新規にもう一度入れなおす くらいかな、controlnetとかsettingsのタブあたりは触ってないだろうし >>555 animatediffの話か・・触ったことないのでわからないw そこらさすがにちゃんと書かないと > forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけど 普通のt2iのバッチ生成の話かと >>550 基本的にAdetailerには何も入れないんだけど ポジプロンプトの目の色がadetailerで消えるのは、他のモデルでは発生しないかもしれないので、 そこ検証してみます。 x/y/zを使うと思うけど 例えばなら、smilingプロンプトがあると無いを出したい場合どうしたら良い? 置き換えならS/Rなんだろうけど、有る無しってやり方わからんです >>547 自分は学習の最中に何度か発生したけど原因不明だわ Windows11のせいにしてるけど >>559 なるほど、指定して無指定なのですね ありがとうやってみます >>547 今のマザボNICの制御はメインCPU使ってるからじゃね >>563 いい学習素材を用意できればLoRAを作れると思いますよ >>563 civitaiに丁度良いのがあるからsaitoで検索してみな ワイの時代は同級生のアイコラなんて作れたら神だから今の子はオナ猿神と化すやろ >>567 好きな子のツイやインスタ漁って数十枚用意すれば脱がし放題、仮想でやりたい放題やぞ 最近のチー牛キッズは凄いな、犯罪一直線やん >>568 SNSで集めるんだろうな こんな場所でキモいこと言ってる学生が直接撮影なんて無理無理w 謎のマウントおじさん 何に対してマウント取ってるのかすらよく分からん >>547 だが ルーターの場所を変えてLANケーブルがPC裏の排熱をあまり被らないようにしたら治った 治ったが それなら連続生成終了したら冷えるだろと思ったので釈然としない 笑った ケーブルじゃなくLANボードの口が熱の跳ね返りで高温になってデバイス自体がハングするとかだろうか ハングなので冷えても再起動しないと戻らない Q このイラストのモデルわかりますか? A わかりません、本人が本当のことを教えてくれるか画像にメタデータが残っている場合だけわかります これテンプレに置きたいレベル >>577 すみません、本人に聞いても教えて貰えなかったので…自分で試行錯誤します スレ汚し失礼しました 上手い人は基本隠すと思っていい、見せた時点で誰でも作れちゃうようになるので努力が水泡 下手はほいほいバラす >>578 キャラものかどうか知らないけど まぁそんなに大したものでは無いと思うよ 本当に想像もつかないようなプロンプトで作る人もいるし たまにキャラ名だけ入れると似たような顔で似たような色合いの画像出てくることあるから それに耳だとか尻尾生やすと結構再現できる場合もあるよね。 モデルに入ってる場合は名前だけで固有の特徴やアクセサリーも完備した キャラそのものが出てくるけど Animagineぽいけれどね VTuberキャラは中身がいる以上、変な画像やLoRAは公開しづらい プロンプトのキャラ名指定で出せるモデルを使ったと考えるのが妥当 本人にしか見えない顔が(Adetailer使用ではあるが)安定して出力される有名人Lora作りの名人みたいなのがcivitaiに居るけど 何が違うんだろうなぁ 俺の自作有名人Loraは何度も生成してやっと1枚似てるかな?ぐらいなのが出るようなのしか作れない 名人にどっかで講座みたいなの開いてほしい 似通った構図5枚くらいでadamw使って過学習 汎用性はなくなるけどね 汎用性があって似ているLoRAは凄いよな 学習画像が厳選されているのか枚数勝負なのか… ttps://news.yahoo.co.jp/articles/9088f0425e4ecca9adf7f7f85c37a43053d283b3 こういう生徒は平気で好きな子盗撮してるだろうな 前使ってたグラボは排熱がイマイチだったんで水冷化したんだけど最近のはちゃんと冷えるしね ケースの排熱に難があるなら効果はあるかも 何万円もするスピーカーケーブルと鉄ハンガーで 音に違いがわからなかったとかあるもんな ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる