【StableDiffusion】画像生成AI質問スレ21
■ このスレッドは過去ログ倉庫に格納されています
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/ >>547
https://itdtm.com/sd-sdpa/
見た限り--opt-sdp-~がSDPAなんだろ
もうやってるからどうなると書かれてもな SDPA入ってての--opt-sdp-attentionと
単なる--opt-sdp-attentionがあるのよ
SDPAでそんな差が無い奴もいるのか Pytorch2.0入ってるからインストール云々て要らないだろと受け取ったんだけど
俺の読解力が無かっただけか
今弄れないから後でやってみるか --opt-sdp-attentionと別物でSDPAっていうのがあるの? SDPA入れて計り直したらこんな結果(設定は一緒)
--opt-sdp-attention
経過時間:1 min. 0.3 sec.
A: 8.99 GB, R: 12.20 GB, Sys: 12.0/11.9941 GB (100.0%)
--opt-sdp-no-mem-attention
経過時間:1 min. 3.6 sec.
A: 9.00 GB, R: 12.21 GB, Sys: 12.0/11.9941 GB (100.0%)
少しだけど速くなったし仕様メモリも少なくなってるな bing image creatorってエロ駄目なの?
ハイレグ衣装ですら引っかかるっぽいんだが その程度で出ないならだめなんじゃね?
オンラインの生成サービスはエロにうるさいことが少なくないし >>553
bingはなんならwomanを指定しただけでだめ、水着なんてもってのほか
短期間に複数回NGになるとBANされるので気を付けて ちょっとエッチな画像はたまに出来るけどウェブ系全般もう駄目っぽいよね LoRAで学習させてみたんだが、教師画像で顔とかの学習させたくない要素を白塗りしたら出力結果も白塗りの顔が出てくる…
白や黒に塗って学習すると出力結果には出ないと解釈してたんだけどそういうわけじゃないのか?どうしたらいいか誰か分かる? あれCivitai HelperからLoraがダウンロード出来なくなってしまったんだけど原因はなにかわかる方いますか? >>558
コマンドプロンプトのログにエラーメッセージとか出てない? >>553
やっぱエロ画像も作りたければローカル環境よ
自由! ローカルならswimwearだろうがnude、nakedなんでもあり Loraファイルがあって、readmeなくしてトリガーワードわからなくなったときって
どうすればわかりますか? 1111ならLoRAのedit metadataでTraining dataset tagsが見られる automatic1111(ver.1.7)で
コマンドプロンプトのウィンドウ最小化にすると生成速度30%ほど落ちるんやけど
おま環?
それとも最小化することでGPUさぼりがちなのかな 個別のLoraについて聞くのもあれなんだけど
<lora:1660462226233910119>ってLoraがどれに当たるのか分かる人いませんかね…?
削除されてたらこんなハッシュ値みたいなことになるのでしょうか。 まさか……と思いうちの1.6でやってみたけど変わらなかった >>572
ぬぅ…おま環っぽいですね…
よろしければ参考までにOS、CPU、GPU、メモリ規格、聞いてもいいですか?
自分はwin11と
今ボロカス言われてる
Corei5-14600kとRTX4070tiで
メモリはDDR5です
下手したらOSごとクリーンインストールしないと直らんかも…つらたん 最近のintelcpuはタスクによってPコアEコア割り当てる仕組みだけど
アクティブウィンドウじゃないコマンドプロンプトとブラウザで動く1111を軽作業と勘違いするボケかましてくれてる説 あーそれはありそうです
BIOSでEコア切ってPコアのみでやってみっか
にしても仕事でしばらく帰れんからモヤモヤがとまらん… >>570
なんだっけpixai製のLoRAをダウンロードした場合そんなのがふられるんじゃなかったかな >>579
「1660462226233910119」で検索するだけでも分かるぞ バックグラウンドプロセスでもマックスパワーの設定にしてしまえばいいだけでは? LoRa作成難しそうで敬遠してたんですけど検索したらSDの拡張機能だけでできるらしいですがみなさんがLoRa作ってるのってKohyaみたいなソフト使ってるんですか?
わざわざ外部ソフト使うということはクオリティが違うんですか? 背景抜きなんてツールで一発なんだし、背景白抜きくらいやっとけよ、ってレベルのloraが公開されてるからね >>584-586
SDの拡張機能でいいってことかな。
これなら初心者でもできそうだありがとうございました 今だと何で背景除去してるんだろう
前に手作業でやった時は泣きそうになった SDXL魔神でlora作りにチャレンジしたいのですが、基礎的なことがわかってません
キャラlora、構図lora、小物追加lora
などあると思いますが、
それぞれで作り方かわると思うんですが、
基礎学習によさそうな動画でもブログでも
参考サイト教えていただけないでしょうか? >>579
>>578
おそくなったけどありがとうございます >>594
いつもの能無しコメント乙
普通の画像な >>593
ここに貼る理由と他スレでそのレスする意味が分からん >>595
imgurの貼り方知らない時点でNG推奨
見る必要もない 後書き忘れたが、ここはは議論するスレであって、何の気なしにはっていい場所じゃないぞ
画像を貼ってコメントが欲しいのか技術的な話なのか全く分からん。
いずれにせよNG推奨 いろんなcheckpointを試して
プロンプトで日本人指定してもなんか外国人っぽい顔ばかり生成される
圧倒的に日本人サンプルが少ないのかこれじゃない感ばかり
後、指定性別とは違う生殖器になる
この基本を教え込むのそんなに難しい事なのか 使用モデルによる
あとセックス系Loraは大体外人ベースだから、そういう顔になる >>605
質問だけOKで回答はしてはいけないスレだぞいい加減にしろ >>608
リーゼントに代表面されるのはちょっと… 日本製のAI向けPCが15万4800円で発売!GeForce RTX 4090相当のビデオメモリを搭載 3060 12GBを2枚搭載しました
じゃねーだろーな 8000GはメインメモリをVRAM代わりに利用できる >>617
簡単だよそんなの
内蔵GPUはどのメモリ使う? 日本製のAIってあったっけ?って記憶を辿ってみたが動画動かしてた研究者しか思い出せん AI向け日本製(パーツは輸入・組み立ては国内)PCってことだろう さっきスマホでAKUMAAIってのをお試しで触ってみたらかなり面白かったからこれからPCでAI生成しようと思うんだけど、アニメ調もリアル調も作りたいならこのSDってのがいいのかな?
版権キャラに強いらしいNovelも気にはなるけど NovelAIは京アニアニメに強かったな
強いとこはSDじゃどうやっても太刀打ち出来ん RTX3060を魔改造してVRAM 24gbにしたとかだったらロマンあるけどな 3060買ってRyzen 8700G買えばVRAM20~24GBになる >>603
>>609
basil血統の純国産モデルやな
シビに沢山あるこの作者の顔lora当てるだけでも化けるで
https://wikiwiki.jp/sd_toshiaki/モデル紹介 PONYというのはSDXL用のチェックポイントのことでしょうか?
1.5系では使えない? 今ってchatgptはネットから情報拾ってきてくれるからstable用のワードを聞けば教えてくれるの凄いわ。
お風呂に入ってて水面下も見えるワードを聞いたら、
objects are visible through the clear warerと返答があって入力したらちゃんと見えるようになった。
ただの翻訳じゃなく使えるワードを提示してくれるみたい(GPT-4) AMDはAIからもPythonからも取り残されてるなあ Radeonは性能云々よりどうにかしてCUDA互換にしろ CUDAはnvidia用に最適化されているから無理じゃない?
そういう事もあるからOpenCLが…… そもそもNitパフォーマンスでグラボ1ランク上ぐらいのパフォーマンスの差が出るLinuxだってほとんどのやつは使わんし
その上そこにめんどくさいトラブルまみれのRoCmなんてまじでやるやついないんよ >>635
CUDAは言語の種類としては高級言語で、ハード構造とはかなり遠い命令群だからハード構造はほとんど関係ない。
CUDAをコンパイルすると、PTXって命令群になるんだが、この段階になってもまだGPUハードの構造と直結した命令にはなってない、つまり抽象化された中間コードでしか無い。PTXをさらにコンパイルするとSASSという言語になり、ここまで翻訳されるとようやくアセンブラ相当のハード直結命令になるが、nVIDIAはこれに関してはほとんど資料を公開してないので、大半のアプリ制作者はPTXで並列処理の最適化や高速化を行う
ただ、AMDがCUDAを導入するならnVIDIAに頭下げてお願いしないとならんけどね。AMDコンパイラとドライバの両方にnVIDIAの技術使用許諾がいるからね。
少なくともタダではOKしないだろうな
消費者的にはAMDのグラボがAIで使えるようになると価格競争が起きるからメリットあるけどnVIDIAは損しかないもんね >>636
ワンランク上になるの!?
wslじゃ駄目? >>637
そうするとPTX→SASSかそれ以降が高速化のキモなんじゃないの
そこにAMDがポン付けしたところで… Radeon公式に書いてある通り「メモリを増やせば、可能性は無限大」のRadeonRX7800以上にVRAM48GBや64GB積んで
10万前後の製品が出せばいいのさ。CUDAなんて相手にならんくらいヒートアップする
バス幅の拡張とメモリの対応は必要になるがGPUロジックに関係ない部分だから今の技術でもできることだしね
結局使いにくい、性能もよくて同レベル、Windows何それ、情報の欠如、手元にないっていうあたりでやる気が出ないのは仕方がない ガチ勢の一部はlinux使ってるみたいだけど、
そんなによいの? >>639
いや AMDがAI関連で全く使われないのはCUDA非対応と言う時点で互換性問題で誰も使おうとしないんだから
速度が遅い速いって次元の話じゃねーべ
互換性がなきゃ性能云々以前に、選択肢に入れようがない >>641
単に python とか docker いじるのに linux の方が楽だからという説あり >>640
いっそdimmスロット生やして欲しいな
PyTorchならCudaじゃなくてもROCmで動くんだよね
一点突破のコスパ最強キラーハードが出れば流れなんて簡単に変わる
AMDもそれでインテルに何度も勝ってるし ■ このスレッドは過去ログ倉庫に格納されています