【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/ >>949
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり >>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。 >>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい 前スレの>>797
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど >>955
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。 >>956
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで sfwでエロが出ないって当たり前だろ
わざとやってる? >>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い >>961
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg >>960
>>963
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。 >>960 >>964
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>960
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの?? >>967
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます! 既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください よく調べずに質問してしまいました...
Hypernetworkという凄い機能が付いてるんですね... >>973
dreamboothのほうがええんちゃう
指示通りやっていけば終わるgoogleのcolabってサービスあるし hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー HN俺も上手くいかん
変に全身入れるより顔アップ多めの方がいいのかな? 学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど 自分も上手くいかないので脱落組だ
顔だけとか背景切り抜きまでやったが hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6
色々倍率は試したけど0.6倍が個人的には丁度良かった >>982
SettingsのHypernetwork strengthを0.6にするのじゃ駄目? 画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。
かっこいい... SDについて調べてもわからなかったので質問させてください
最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか? >>984
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配 >>983
しばらく更新してなかったから気づかんかったけど既に設定でいじれるようになってたわ
その設定でOK dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…
[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
↓
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings
○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。
1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]
これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。 >>988
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。 >>871
俺的hypernetworkの学習率の結論はこれだわ >>985
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る ドリブスのモデルデータダウンロード中に限界きてデータも消えた… 今知ったけどこの無限生成できる裏技便利すぎだろ
このスレでも知ってる人いたんだね >>536
webページへの出力も一枚ごとだからGradioに大量表示されて負荷がかかる心配もない
https://i.imgur.com/R6kCtsS.jpg Google Colab
OpenVINO
Docker
Anaconda
…etc
Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね? colab以外は少なくとも低スペが解決策として使う手段にはならない このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 16時間 42分 30秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。