X

【StableDiffusion】画像生成AI質問スレ21

■ このスレッドは過去ログ倉庫に格納されています
2023/12/22(金) 22:08:25.19ID:dav92z68
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。

質問する人はなるべく情報開示してください

・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く

テンプレは https://rentry.co/aiimggenqa

※前スレ
【StableDiffusion】画像生成AI質問スレ19
https://mevius.5ch.net/test/read.cgi/cg/1697439745/
【StableDiffusion】画像生成AI質問スレ20
https://mevius.5ch.net/test/read.cgi/cg/1700315721/
2024/02/01(木) 16:43:35.76ID:5HIGLcCG
>>593
グロ
595名無しさん@お腹いっぱい。
垢版 |
2024/02/01(木) 16:48:04.62ID:43dUTWjU
>>594
いつもの能無しコメント乙
普通の画像な
2024/02/01(木) 19:03:45.89ID:AkXWwMIs
>>593
ここに貼る理由と他スレでそのレスする意味が分からん
2024/02/01(木) 19:12:49.37ID:5HIGLcCG
>>595
imgurの貼り方知らない時点でNG推奨
見る必要もない
2024/02/01(木) 19:15:54.42ID:5HIGLcCG
後書き忘れたが、ここはは議論するスレであって、何の気なしにはっていい場所じゃないぞ
画像を貼ってコメントが欲しいのか技術的な話なのか全く分からん。

いずれにせよNG推奨
2024/02/01(木) 19:23:51.41ID:uXtfbtB5
もはや雑談スレだからねここは
2024/02/01(木) 20:28:40.98ID:8Easufgc
ワッチョイもここも雑談ばかりだな
601名無しさん@お腹いっぱい。
垢版 |
2024/02/02(金) 01:30:54.04ID:KCUfZ2UO
>>598
議論でなく質問スレだぞ
2024/02/02(金) 02:19:08.54ID:RjAsrvFP
>>601
そうやって揚げ足とるスレ
2024/02/02(金) 10:16:26.64ID:6Vsd5j90
いろんなcheckpointを試して
プロンプトで日本人指定してもなんか外国人っぽい顔ばかり生成される
圧倒的に日本人サンプルが少ないのかこれじゃない感ばかり
後、指定性別とは違う生殖器になる
この基本を教え込むのそんなに難しい事なのか
2024/02/02(金) 12:29:24.95ID:5oFr8spQ
使用モデルによる
あとセックス系Loraは大体外人ベースだから、そういう顔になる
2024/02/02(金) 12:33:47.28ID:kOldam2v
>>602
スレタイが読めないって自己紹介かw
2024/02/02(金) 14:15:17.10ID:RjAsrvFP
>>605
質問だけOKで回答はしてはいけないスレだぞいい加減にしろ
607名無しさん@お腹いっぱい。
垢版 |
2024/02/02(金) 14:16:31.82ID:ZiSQ3uyk
>>603
日本人に関してはzipang系使えば
2024/02/02(金) 15:52:57.69ID:5F+3Opwc
日本人タグはイレブンにしてほしいよな
2024/02/02(金) 19:08:36.63ID:+/rp7DuI
zipang系って何だよ
610名無しさん@お腹いっぱい。
垢版 |
2024/02/02(金) 20:40:54.91ID:3S9jk+FY
>>608
リーゼントに代表面されるのはちょっと…
2024/02/02(金) 22:43:25.82ID:lDW4h8Dh
日本製のAI向けPCが15万4800円で発売!GeForce RTX 4090相当のビデオメモリを搭載
2024/02/02(金) 23:12:32.25ID:0WMMeSbU
相当(RTXじゃない)
2024/02/02(金) 23:21:30.05ID:ZRQoXxY0
環境が全く整ってないのがな
2024/02/02(金) 23:49:49.58ID:3S9jk+FY
3060 12GBを2枚搭載しました
じゃねーだろーな
2024/02/03(土) 00:30:10.06ID:CM9IBHJA
相当のビデオメモリ

ビデオメモリだかんな!
2024/02/03(土) 00:30:50.28ID:1mTlLtij
AI向けと言いながらラデオン積んでるとか
2024/02/03(土) 00:32:36.47ID:9ExYu2oU
4090相当のビデオメモリってなにw
2024/02/03(土) 00:36:55.82ID:UbjW2J5w
8000GはメインメモリをVRAM代わりに利用できる
2024/02/03(土) 00:42:41.65ID:tzTcvUGf
>>617
簡単だよそんなの
内蔵GPUはどのメモリ使う?
620名無しさん@お腹いっぱい。
垢版 |
2024/02/03(土) 00:53:58.62ID:SayxcvkY
日本製のAIってあったっけ?って記憶を辿ってみたが動画動かしてた研究者しか思い出せん
2024/02/03(土) 08:58:17.98ID:u66emqw4
AI向け日本製(パーツは輸入・組み立ては国内)PCってことだろう
2024/02/03(土) 09:25:19.55ID:7C4ta/1r
さっきスマホでAKUMAAIってのをお試しで触ってみたらかなり面白かったからこれからPCでAI生成しようと思うんだけど、アニメ調もリアル調も作りたいならこのSDってのがいいのかな?
版権キャラに強いらしいNovelも気にはなるけど
2024/02/03(土) 10:57:47.77ID:3cZOzaCt
NovelAIは京アニアニメに強かったな
強いとこはSDじゃどうやっても太刀打ち出来ん
2024/02/03(土) 16:35:16.85ID:1nMwQFmE
RTX3060を魔改造してVRAM 24gbにしたとかだったらロマンあるけどな
2024/02/03(土) 17:45:42.68ID:yeR/pgJg
3060買ってRyzen 8700G買えばVRAM20~24GBになる
626名無しさん@お腹いっぱい。
垢版 |
2024/02/03(土) 18:03:58.25ID:qO5EA/Os
>>603
>>609
basil血統の純国産モデルやな
シビに沢山あるこの作者の顔lora当てるだけでも化けるで
https://wikiwiki.jp/sd_toshiaki/モデル紹介
2024/02/03(土) 19:30:28.16ID:B6RwfsO+
なりません
2024/02/03(土) 19:43:36.11ID:KSwQ7+VM
PONYというのはSDXL用のチェックポイントのことでしょうか?
1.5系では使えない?
2024/02/03(土) 22:02:57.70ID:N/1vN6EH
今ってchatgptはネットから情報拾ってきてくれるからstable用のワードを聞けば教えてくれるの凄いわ。
お風呂に入ってて水面下も見えるワードを聞いたら、
objects are visible through the clear warerと返答があって入力したらちゃんと見えるようになった。
ただの翻訳じゃなく使えるワードを提示してくれるみたい(GPT-4)
2024/02/03(土) 23:53:02.29ID:ZYP24fX3
>>628
どちらもyes
2024/02/04(日) 00:19:20.21ID:3mwxz1NG
>>616
AMD頑張れよ……
632名無しさん@お腹いっぱい。
垢版 |
2024/02/04(日) 00:21:35.51ID:JEX3CCIA
画像生成AI・Stable Diffusionのエンコーダーに見つかった致命的な欠陥とは?
https://gigazine.net/news/20240202-stable-diffusion-vae-critical-flaw/
2024/02/04(日) 13:27:12.20ID:3Z6evWz6
AMDはAIからもPythonからも取り残されてるなあ
634名無しさん@お腹いっぱい。
垢版 |
2024/02/04(日) 17:58:44.63ID:8ZUvB7CS
Radeonは性能云々よりどうにかしてCUDA互換にしろ
635名無しさん@お腹いっぱい。
垢版 |
2024/02/04(日) 21:12:14.39ID:wfFPTv84
CUDAはnvidia用に最適化されているから無理じゃない?
そういう事もあるからOpenCLが……
2024/02/05(月) 01:13:23.76ID:mEEtmvw3
そもそもNitパフォーマンスでグラボ1ランク上ぐらいのパフォーマンスの差が出るLinuxだってほとんどのやつは使わんし
その上そこにめんどくさいトラブルまみれのRoCmなんてまじでやるやついないんよ
637名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 08:35:36.90ID:34AzW3Bm
>>635
CUDAは言語の種類としては高級言語で、ハード構造とはかなり遠い命令群だからハード構造はほとんど関係ない。
CUDAをコンパイルすると、PTXって命令群になるんだが、この段階になってもまだGPUハードの構造と直結した命令にはなってない、つまり抽象化された中間コードでしか無い。PTXをさらにコンパイルするとSASSという言語になり、ここまで翻訳されるとようやくアセンブラ相当のハード直結命令になるが、nVIDIAはこれに関してはほとんど資料を公開してないので、大半のアプリ制作者はPTXで並列処理の最適化や高速化を行う

ただ、AMDがCUDAを導入するならnVIDIAに頭下げてお願いしないとならんけどね。AMDコンパイラとドライバの両方にnVIDIAの技術使用許諾がいるからね。
少なくともタダではOKしないだろうな
消費者的にはAMDのグラボがAIで使えるようになると価格競争が起きるからメリットあるけどnVIDIAは損しかないもんね
638名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 09:58:22.79ID:HC8muIGx
>>636
ワンランク上になるの!?
wslじゃ駄目?
2024/02/05(月) 10:01:32.53ID:+mOGFeM9
>>637
そうするとPTX→SASSかそれ以降が高速化のキモなんじゃないの
そこにAMDがポン付けしたところで…
2024/02/05(月) 10:30:31.53ID:YzaxHncN
Radeon公式に書いてある通り「メモリを増やせば、可能性は無限大」のRadeonRX7800以上にVRAM48GBや64GB積んで
10万前後の製品が出せばいいのさ。CUDAなんて相手にならんくらいヒートアップする
バス幅の拡張とメモリの対応は必要になるがGPUロジックに関係ない部分だから今の技術でもできることだしね
結局使いにくい、性能もよくて同レベル、Windows何それ、情報の欠如、手元にないっていうあたりでやる気が出ないのは仕方がない
2024/02/05(月) 11:55:12.84ID:5PeIZY6c
ガチ勢の一部はlinux使ってるみたいだけど、
そんなによいの?
2024/02/05(月) 12:16:28.11ID:34AzW3Bm
>>639
いや AMDがAI関連で全く使われないのはCUDA非対応と言う時点で互換性問題で誰も使おうとしないんだから
速度が遅い速いって次元の話じゃねーべ
互換性がなきゃ性能云々以前に、選択肢に入れようがない
2024/02/05(月) 13:11:28.78ID:Rd2IwAA/
>>641
単に python とか docker いじるのに linux の方が楽だからという説あり
2024/02/05(月) 14:58:07.15ID:ayF5jEQg
>>640
いっそdimmスロット生やして欲しいな
PyTorchならCudaじゃなくてもROCmで動くんだよね

一点突破のコスパ最強キラーハードが出れば流れなんて簡単に変わる
AMDもそれでインテルに何度も勝ってるし
2024/02/05(月) 15:55:07.10ID:bUH+BAUp
半年くらいぶりにWebui更新したらなぜか更新前より明らかに画像の精度が落ちちゃった…
何出そうとしてもなんか初期dall-eみたいなグチャグチャ画像になってしまう…
いっぺんアンスコしてダウンロードし直しても治らないんだけどこういうときどうすればいいかとか心当たりある人いませんか
646名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 16:03:52.28ID:A3E3uCj3
「AMDは、Al向けオープンソフトウェアエコシステムの価値についての認識をPyTor⊂h Foundationと共有しており、PyTor⊂h向けのAMD ROcmサポートを推進しています。」らしいです。
勿論、ROCmでPytrochは動きます。
公式通りにインストールするとCUDA用のPytrochが入るのでROCm用に入れ替え必要があります。
2024/02/05(月) 16:13:43.43ID:TZ7xunNo
>>637
アメリカ政府が独禁法うんぬんでAMDに無償で技術供与しないかな
2024/02/05(月) 16:27:18.87ID:Dmn1LMPC
>>641
Linuxで4倍速くなるよ☺
2024/02/05(月) 16:33:56.77ID:Z4Xv23tA
>>630
ありがとうございますXL移行検討します
2024/02/05(月) 16:41:30.46ID:hIAR8x/k
>>645
それは過去に生成した画像を
同じSeed、同一のプロンプトでやっても全然別の仕上がりになるってこと?
2024/02/05(月) 16:50:29.00ID:jl/C+Fdp
>>645
環境・設定・プロンプト・画像等具体的なデータを載せた方がアドバイスもらえるよ
2024/02/05(月) 18:50:55.83ID:0W2AHZ/Z
>>645
普通にやればそうはならない
普通にやれ
2024/02/05(月) 19:02:51.21ID:mEEtmvw3
単純にWSL2上で動かすだけで10%ぐらいnit多いから
アーキ同一の無印とtiぐらいの差はある
654名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 19:05:44.49ID:1l0BnWyq
>>642
互換性ならCUDAのほうがおかしい訳で
OpenCLだろ

つまり互換性の話ではない
2024/02/05(月) 19:07:24.91ID:wT+qxKMY
>>647
中国向けで抜け道を探るnvidiaにブチ切れて……とか
2024/02/05(月) 22:21:21.51ID:bUH+BAUp
>>650,651,652
回答どうも
なんか色々試してたら割とマシになってきたわ
657名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 23:25:52.04ID:34AzW3Bm
>>654
いやそれ、3Dアプリが、オープン規格のDAEやgITFに対応してれば互換性に問題は無い、FBXが事実上標準になってるのはおかしいのだから!
とか言ってるのと変わんねーよ。市場見てない奴の理想論でしかない
実際のAIアプリのほとんどで対応してるのがCUDAのほうだろ
658名無しさん@お腹いっぱい。
垢版 |
2024/02/05(月) 23:39:09.49ID:34AzW3Bm
そもそも論としてOpenCL C++が各ベンダーの対応に依存してて、まるで対応が進んでないんだから話にならない
プログラム言語の基礎ライブラリではホストコードとしては速度が出るC++が使われるが、デバイスコードはCUDAでもOpenCLでもどっちでも記述できる
だが、更新がされて無くて問題だらけのOpenCLを使ってプログラム言語のローレベル関数を充実させようなんて奴がいるわけが無い
ライブラリレベルで普及しないわけだから、その土台の上に立つPython等、高級言語で普及しないのは当たり前

道路が出来てない土地に、この土地に家を建てるべきと言ってるのと同レベル
2024/02/05(月) 23:56:03.71ID:mEEtmvw3
いつも最適化すればとか吠えるだけでCUDA批判するだけで無責任なのがAMD
ROCmすらwindowsに降ろしてこないだ
660名無しさん@お腹いっぱい。
垢版 |
2024/02/06(火) 07:39:32.97ID:CtKMrcNm
>>659
いやほんまにそれだわ、死ぬほど同意

CUDA対応するにしてもROCm普及させるににしても結局はAMD次第なんだが、
CPUでもAMDオリジナルのコードってほとんど普及した事ないし(AMD64だけは別。IntelがIteniumで64ビット対応にゴタゴタしてたからマイクロソフトが採用した)
今からAMD側のロビー活動でROCm普及させられるとはとうてい思えない

そもそもAMDは、GPGPUの将来をかなり早くから予想してATI買収に動いた。あの当時、これは本当に英断だった。
科学技術計算やビッグデータ解析でGPUがキーになる事を、ATI買収の数年前から予想してたからな。AIまで視野にあったかは分からないが

IntelがGPUで余りパフォーマンスを出せてない、nVIDIAの方はx86高速アーキテクチャを持ってない、
だからAMDがCUDAのような規格を普及させられる有利なカードはかなりたくさんあったはず
ところが現在でもCPUとGPU、両方で優れたアーキテクチャを持ってる優位性がまるで活きてない。
AMDダメすぎだろ

だからAMDがROCmを普及させられる可能性よりはAMDがCUDAの軍門に降った方が現実的と思えちゃうんよね
AMDの場合、x86だってそういうビジネスなわけだし、それでいいじゃんと思うわ
2024/02/06(火) 07:55:00.61ID:rmOHFPx1
LORA作成にはまってるんだけど、初期の頃作ったLora設定が思い出せない
ファイルの設定数値がみれる方法ないかな?
662名無しさん@お腹いっぱい。
垢版 |
2024/02/06(火) 09:03:49.82ID:CtKMrcNm
webuiのLoRAの選択画面でiってアイコンをクリックすれば学習時の設定が見られる。
自分が作ったLoRAで無くても分かるよ
見られない奴はメタデータを何らかの理由で削ってある奴なので見る方法はない
2024/02/06(火) 09:11:26.15ID:rmOHFPx1
ありがとうございました、本当に助かります
664名無しさん@お腹いっぱい。
垢版 |
2024/02/06(火) 09:56:34.54ID:fdnyqf58
プレステとサターンみたいだな
性能より普及ってことか
2024/02/06(火) 19:52:47.91ID:9ZGpDeZD
すみません質問させてください

MacにStability Matrixをインストールしようとしても画像のエラーが出て失敗してしまいます
Portableモードにしても同様でした

どなたかお分かりになる方、解決策をご教示いただけませんでしょうか

OSはSonoma14.3 CPUはM1 インストールしようとしているStability Matrixのバージョンは2.8.0です

https://i.imgur.com/IwDFRJs.png
2024/02/06(火) 21:13:08.43ID:OpZbdKdJ
macはワッチョイスレのほうが答えてくれるかも
2024/02/06(火) 22:01:11.49ID:OzEuueXv
また荒らしが来てるわ
668名無しさん@お腹いっぱい。
垢版 |
2024/02/07(水) 01:28:48.57ID:f0uzBknk
画像のエラーが出てって……
尻切れになってるし
2024/02/07(水) 06:15:19.86ID:4e6ZRhrU
>>666
ありがとうございます
ワッチョイありの方でも聞いてみます
2024/02/07(水) 07:56:56.01ID:YghcTDm8
Gitのインストールが出来なかった
って書いてあるのはわかる
2024/02/07(水) 08:56:07.14ID:rImew+w8
多分、大元は一番下に書いてあるんだろうけどw
672名無しさん@お腹いっぱい。
垢版 |
2024/02/07(水) 17:35:50.74ID:40IH277m
>>665
前提となる、.net FrameworkのランタイムをMacにインストールしてないか、ギット入れるためのパッケージソフトウェアがないんじゃないかな。
後者はマックだとHomebrew。
ワンタッチインストールはWindowsだけなんじゃないかと思う。
673名無しさん@お腹いっぱい。
垢版 |
2024/02/09(金) 10:08:42.58ID:qJn6L1yH
音沙汰無し
674名無しさん@お腹いっぱい。
垢版 |
2024/02/09(金) 15:51:25.75ID:Cjswvlt/
Chromeがstable-diffusion関連のニュースをお知らせしてきてうっとうしい
2024/02/09(金) 16:41:41.06ID:7CIkDkfY
モデルやLORAのキャプションリストを見る方法はありますか?
676名無しさん@お腹いっぱい。
垢版 |
2024/02/09(金) 17:44:08.24ID:apKh6ZTv
3060からステップアップするとなると今なら何が良いんだろうね
3060が丁度良すぎな気もするけど
2024/02/09(金) 19:52:52.93ID:gtbkUQ/i
TiS
678名無しさん@お腹いっぱい。
垢版 |
2024/02/09(金) 20:03:05.56ID:XdrQGkJV
>>675
LoRAなら >>662
2024/02/10(土) 07:53:47.04ID:M1b2a6hH
>>678
ありがとうございます
680あぼーん
垢版 |
NGNG
あぼーん
2024/02/10(土) 16:13:02.58ID:pq3g2kkM
結局こっちは重複ゴミスレだったのか
2024/02/10(土) 21:09:22.32ID:uJjzP7rc
SDXL ForgeというのはVRAM 8GBでも足りるでしょうか?
学習はしないし1024x1024程度で動かせればいいのですが
PCケース的に4060かtiぐらいしか入らないようなので…
2024/02/10(土) 21:12:51.55ID:T/5tlQJc
>>682
6gbですら動くから余裕よ
2024/02/10(土) 21:27:49.35ID:uJjzP7rc
>683 ありがとうございます
6GBでも大丈夫なら4060Tiの8GBでもいけそうなので探してきます
2024/02/10(土) 22:29:32.22ID:uXh56gqh
今ってみんなXLなの?
LORAなんだかんだ全然なんだけど
686名無しさん@お腹いっぱい。
垢版 |
2024/02/10(土) 23:09:57.04ID:6OTJ53QR
質問したいけれど、こうどなおはなしばかりで
質問しづらい(´・ω・`)
2024/02/10(土) 23:22:46.90ID:wvInJxxi
グラボ買ってForge入れてponyで遊ぶ。それだけ。
688名無しさん@お腹いっぱい。
垢版 |
2024/02/10(土) 23:34:46.79ID:6OTJ53QR
もしかしてWEBUIはお門違い?(´・ω・`)
2024/02/10(土) 23:37:13.29ID:1VoAnsmN
全然お門違いじゃないから質問しろ
じゃなけりゃ出荷
690名無しさん@お腹いっぱい。
垢版 |
2024/02/10(土) 23:48:56.94ID:nruxVBsi
自分で脱がしたほうが
幸せになれると思う
691名無しさん@お腹いっぱい。
垢版 |
2024/02/10(土) 23:51:23.96ID:6OTJ53QR
あざます!

Colab Proに入ってるんですけど、最近
「GPU バックエンドに接続できません」が頻発して
繋げても一時間強くらいしか繋げなくなってしまって・・・

Colabの仕様とか変わりました?
もしくは単に使いすぎただけ??
2024/02/11(日) 00:07:07.78ID:iLna306S
単に使いすぎでユニット枯渇してるんじゃね
メッセージ出る時にもうちょっと何か書いてあるんじゃないか
2024/02/11(日) 00:08:08.23ID:6ecLdVEy
>>691
ただの使いすぎじゃね
どのGPU使ってるか知らんけど
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況