英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換2【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661146705/
探検
Midjourney】AI画像生成技術交換3【StableDiffusion
レス数が1000を超えています。これ以上書き込みはできません。
1名無しさん@お腹いっぱい。
2022/08/29(月) 17:36:26.27ID:ZNZ0831c2022/08/29(月) 17:37:42.05ID:ZNZ0831c
■関連リンク
【Midjourney】 https://www.midjourney.com/
【StableDiffusion】https://stability.ai/
【DALL・E2】 https://openai.com/dall-e-2/
【craiyon】(旧DALL・E・mini) https://www.craiyon.com/
英語スキルはあるといいですが、別に今時なくても何とかなります
【Google翻訳】 https://translate.google.co.jp/
【DeepL翻訳】 https://www.deepl.com/translator
【Midjourney】 https://www.midjourney.com/
【StableDiffusion】https://stability.ai/
【DALL・E2】 https://openai.com/dall-e-2/
【craiyon】(旧DALL・E・mini) https://www.craiyon.com/
英語スキルはあるといいですが、別に今時なくても何とかなります
【Google翻訳】 https://translate.google.co.jp/
【DeepL翻訳】 https://www.deepl.com/translator
2022/08/29(月) 17:38:33.20ID:ZNZ0831c
StableDiffusionの人の他社製品比較
https://twitter.com/EMostaque/status/1561349836980584455
・StableDiffusion、DALLE2、midjourneyは全て異なるものだ
・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった
これにより画像生成のガイドが可能になった
●DALLE2
・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。
・来年にはコストが10分の1以下になりAPIも公開されると思われる
・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう
●MidJorney
・VCの資金提供を受けたベンチャー、ではなく研究所
・非常に独特な絵画のようなスタイルを持っている
・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能
・オープンソースとそうでない部分がある。
●StableDiffusion
・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる
・まもなくDreamStudioプロシューマーサービスを発表する
・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない
これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた
・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている
そのため、誰もがこのモデルを改良し、構築することができる
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/EMostaque/status/1561349836980584455
・StableDiffusion、DALLE2、midjourneyは全て異なるものだ
・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった
これにより画像生成のガイドが可能になった
●DALLE2
・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。
・来年にはコストが10分の1以下になりAPIも公開されると思われる
・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう
●MidJorney
・VCの資金提供を受けたベンチャー、ではなく研究所
・非常に独特な絵画のようなスタイルを持っている
・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能
・オープンソースとそうでない部分がある。
●StableDiffusion
・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる
・まもなくDreamStudioプロシューマーサービスを発表する
・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない
これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた
・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている
そのため、誰もがこのモデルを改良し、構築することができる
https://twitter.com/5chan_nel (5ch newer account)
2022/08/29(月) 17:39:08.56ID:ZNZ0831c
【ツイッター】
https://twitter.com/hashtag/midjourney
https://twitter.com/hashtag/dalle2
https://twitter.com/hashtag/stablediffusion
こんなのができます
【Midjourneyお役立ち情報】
https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference
調べてみたら使いやすいPrompt wordはここに全部まとまってたわ
https://docs.google.com/spreadsheets/d/10i9Ip8tVSERAuMWbc6-H6BUFCoUGOQ91YzDvX--c4bk/edit#gid=0
各アーティストのまとめ
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/hashtag/midjourney
https://twitter.com/hashtag/dalle2
https://twitter.com/hashtag/stablediffusion
こんなのができます
【Midjourneyお役立ち情報】
https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference
調べてみたら使いやすいPrompt wordはここに全部まとまってたわ
https://docs.google.com/spreadsheets/d/10i9Ip8tVSERAuMWbc6-H6BUFCoUGOQ91YzDvX--c4bk/edit#gid=0
各アーティストのまとめ
https://twitter.com/5chan_nel (5ch newer account)
2022/08/29(月) 17:40:01.08ID:ZNZ0831c
テンプレはとりあえずそのままにしました
「これ入れて」がいろいろあると思うので>1へ提案しておいてください
「これ入れて」がいろいろあると思うので>1へ提案しておいてください
2022/08/29(月) 18:05:58.48ID:ayWOlSNk
StableDiffusion各種
●ローカル環境用
公式 https://github.com/CompVis/stable-diffusion
basujindal版 https://github.com/basujindal/stable-diffusion (省メモリ・WebUI有・フィルタ解除済み)
hlky版 https://github.com/hlky/stable-diffusion (一番人気・WebUI有・フィルタ解除済み)
GRisk版 https://grisk.itch.io/stable-diffusion-gui (GUI・DL→解凍→実行だけ)
●Google Colab用
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
https://colab.research.google.com/drive/1AfAmwLMd_Vx33O9IwY2TmO9wKZ8ABRRa
フィルタ解除版 https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17
●ウェブサービス
Demo https://huggingface.co/spaces/stabilityai/stable-diffusion
Demo https://huggingface.co/spaces/huggingface/diffuse-the-rest
DreamStudio http://beta.dreamstudio.ai/
●ローカル環境用
公式 https://github.com/CompVis/stable-diffusion
basujindal版 https://github.com/basujindal/stable-diffusion (省メモリ・WebUI有・フィルタ解除済み)
hlky版 https://github.com/hlky/stable-diffusion (一番人気・WebUI有・フィルタ解除済み)
GRisk版 https://grisk.itch.io/stable-diffusion-gui (GUI・DL→解凍→実行だけ)
●Google Colab用
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
https://colab.research.google.com/drive/1AfAmwLMd_Vx33O9IwY2TmO9wKZ8ABRRa
フィルタ解除版 https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17
●ウェブサービス
Demo https://huggingface.co/spaces/stabilityai/stable-diffusion
Demo https://huggingface.co/spaces/huggingface/diffuse-the-rest
DreamStudio http://beta.dreamstudio.ai/
2022/08/29(月) 18:11:50.56ID:l6B+4duJ
ついにイラストレーターの絵を学習させて似たようなイラストを作るAIが現る
https://greta.5ch.net/test/read.cgi/poverty/1661760616/
https://greta.5ch.net/test/read.cgi/poverty/1661760616/
2022/08/29(月) 18:15:58.49ID:XSEhAwvZ
>>1
乙!
hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・
乙!
hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・
2022/08/29(月) 18:31:54.02ID:zrVIZvjl
たて乙
現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、
最適な方法が流動的すぎて無理だよなぁ
現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、
最適な方法が流動的すぎて無理だよなぁ
2022/08/29(月) 18:37:44.98ID:l6B+4duJ
誰か燃えてるミミックの画像つくってwAIでw
2022/08/29(月) 18:43:33.07ID:OshC99AO
まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?
とりあえずファインチューニング(textual inversion)メモ
追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する
・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision
・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
利用時は例えば"In the style of * , <other text>"となる。
これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。
・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
https://sd-textual-inversion-models.tumblr.com/
・学習方法
https://github.com/hlky/sd-enable-textual-inversion
Stable Diffusionをいらすとやでファインチューニングする
まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
とりあえずファインチューニング(textual inversion)メモ
追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する
・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision
・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
利用時は例えば"In the style of * , <other text>"となる。
これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。
・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
https://sd-textual-inversion-models.tumblr.com/
・学習方法
https://github.com/hlky/sd-enable-textual-inversion
Stable Diffusionをいらすとやでファインチューニングする
まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
2022/08/29(月) 18:44:01.16ID:OshC99AO
>>9
書きたいけどNGワード連発されすぎて心が折れたw
書きたいけどNGワード連発されすぎて心が折れたw
13名無しさん@お腹いっぱい。
2022/08/29(月) 18:45:29.98ID:Iew5QnKr ぶっちゃけ飽きてこないか?
2022/08/29(月) 18:48:28.31ID:6+Vx5IWt
とりあえずcolabで動かしたい人はここがおすすめかも
コマンドは公式のリンクと同じ。hugging face とかの部分が最初わかりにくいかも
https://zenn.dev/k41531/articles/2459bbbe8e5cf3
コマンドは公式のリンクと同じ。hugging face とかの部分が最初わかりにくいかも
https://zenn.dev/k41531/articles/2459bbbe8e5cf3
2022/08/29(月) 18:51:08.34ID:TrEphkRn
>>13
最初だけだよな楽しいの
最初だけだよな楽しいの
2022/08/29(月) 18:51:29.03ID:XSEhAwvZ
NGワードはすぐわかっちゃうと荒らしが対応するから秘密らしく、条件はよくわからない
「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど
微妙に変えたり、2レスに分割するしかない
「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど
微妙に変えたり、2レスに分割するしかない
2022/08/29(月) 18:57:48.55ID:adcon1OP
MANGO板で絞り込め
2022/08/29(月) 19:03:55.25ID:ayWOlSNk
Stable Diffusion hlky版の構築手順
1 https://github.com/hlky/stable-diffusion/archive/refs/heads/main.zip をDLして展開する
Git使える場合更新に追従しやすいcloneの方が良い
git clone https://github.com/hlky/stable-diffusion.git
2 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
モデル(sd-v1-4.ckpt)をDLして model.ckp にリネームして models/ldm/stable-diffusion-v1/ に置く
3 minicondaをインストールする
https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe
4 webui.cmd を実行する
5 http://localhost:7860/ をブラウザで開く
●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth
をDLして src/gfpgan/experiments/pretrained_models/ に置く
2. RealESRGAN(高解像度化)の有効化
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.2.4/RealESRGAN_x4plus_anime_6B.pth
をDLして src/realesrgan/experiments/pretrained_models/ に置く
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように追記する
python scripts/webui.py
↓
python scripts/webui.py --optimized-turbo
上記の原本(英文)
https://github.com/hlky/stable-diffusion
他の解説(英文)
https://rentry.org/GUItard
1 https://github.com/hlky/stable-diffusion/archive/refs/heads/main.zip をDLして展開する
Git使える場合更新に追従しやすいcloneの方が良い
git clone https://github.com/hlky/stable-diffusion.git
2 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
モデル(sd-v1-4.ckpt)をDLして model.ckp にリネームして models/ldm/stable-diffusion-v1/ に置く
3 minicondaをインストールする
https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe
4 webui.cmd を実行する
5 http://localhost:7860/ をブラウザで開く
●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth
をDLして src/gfpgan/experiments/pretrained_models/ に置く
2. RealESRGAN(高解像度化)の有効化
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
https://github.com/xinntao/Real-ESRGAN/releases/download/v0.2.2.4/RealESRGAN_x4plus_anime_6B.pth
をDLして src/realesrgan/experiments/pretrained_models/ に置く
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように追記する
python scripts/webui.py
↓
python scripts/webui.py --optimized-turbo
上記の原本(英文)
https://github.com/hlky/stable-diffusion
他の解説(英文)
https://rentry.org/GUItard
19名無しさん@お腹いっぱい。
2022/08/29(月) 19:12:06.94ID:Iew5QnKr Stable Diffusionの人、Crypto界隈をめっちゃ煽っててワロタ。
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw
https://twitter.com/5chan_nel (5ch newer account)
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw
https://twitter.com/5chan_nel (5ch newer account)
2022/08/29(月) 19:13:01.86ID:TrEphkRn
NGワードは単純にリンクURLが引っかかってたりとかではなく?
2022/08/29(月) 19:14:11.89ID:OshC99AO
●StableDiffusionの情報ソース等
・Discord https://discord.gg/stablediffusion
・中の人のtwitter https://twitter.com/EMostaque
・海外情報reddit https://www.reddit.com/r/StableDiffusion/
・https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので>>18を見たほうが良いが、その他TIPSは有用情報あり
・今後
・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account)
・Discord https://discord.gg/stablediffusion
・中の人のtwitter https://twitter.com/EMostaque
・海外情報reddit https://www.reddit.com/r/StableDiffusion/
・https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので>>18を見たほうが良いが、その他TIPSは有用情報あり
・今後
・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account)
2022/08/29(月) 19:18:48.10ID:OshC99AO
StableDiffusion TIPS
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
サンプラの差は大きい。k_euler_aとk_heunでは2倍差
k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
●ハード
・ローカル動作性能 https://i.ibb.co/yd7SZ32/chartthin.png 出典:https://rentry.org/GUItard
・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
サンプラの差は大きい。k_euler_aとk_heunでは2倍差
k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
●ハード
・ローカル動作性能 https://i.ibb.co/yd7SZ32/chartthin.png 出典:https://rentry.org/GUItard
・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう
23名無しさん@お腹いっぱい。
2022/08/29(月) 19:24:29.39ID:anj+Z8s0 MJはもう別スレがいい?ここじゃあまり語られないし
2022/08/29(月) 19:24:36.38ID:XSEhAwvZ
>>22
> サンプラの差は大きい。k_euler_aとk_heunでは2倍差
> k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと
> サンプラの差は大きい。k_euler_aとk_heunでは2倍差
> k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと
25名無しさん@お腹いっぱい。
2022/08/29(月) 19:28:27.11ID:Iew5QnKr2022/08/29(月) 19:30:25.84ID:OshC99AO
>>24
「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti
k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image
l_lms 5.89 it/s 10.08s per image
k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image
進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね
「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti
k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image
l_lms 5.89 it/s 10.08s per image
k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image
進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね
2022/08/29(月) 19:32:33.25ID:ayWOlSNk
k_euler_aはSampling Step 20くらいでいい感じになるのでなお早くできる
2022/08/29(月) 19:33:33.24ID:E2pAsSUt
--turboの効果凄いな、ちゃんとメモリ節約出来てるのにオリジナル版並の速度が出る
2022/08/29(月) 19:36:30.39ID:zP/KY5ha
img2img、バリエーション起こすのにいいわこれ
この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる
この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる
2022/08/29(月) 19:39:43.35ID:adcon1OP
>>27
18で大丈夫
18で大丈夫
2022/08/29(月) 19:47:54.82ID:XSEhAwvZ
>>26
めっちゃ参考になる、ありがとう
>>27
これだね
https://twitter.com/Ethan_smith_20/status/1562644246150418432
https://pbs.twimg.com/media/Fa-gppeXoAAYpQH.jpg
redditだけど直画像貼れないので小さめのこっちでいいや
https://twitter.com/5chan_nel (5ch newer account)
めっちゃ参考になる、ありがとう
>>27
これだね
https://twitter.com/Ethan_smith_20/status/1562644246150418432
https://pbs.twimg.com/media/Fa-gppeXoAAYpQH.jpg
redditだけど直画像貼れないので小さめのこっちでいいや
https://twitter.com/5chan_nel (5ch newer account)
2022/08/29(月) 19:51:15.79ID:OshC99AO
法律、権利関係の議論は熱くなりそうで別でやって欲しいんだけど、このサービス、技術的にどのぐらいのレベルなのか気になる
https://illustmimic.com/en/
本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!
mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。
https://illustmimic.com/en/
本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!
mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。
2022/08/29(月) 19:53:40.67ID:TrEphkRn
2022/08/29(月) 20:02:09.48ID:E2pAsSUt
img2imgは構図維持するよりstrengthを大きくして
元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな
例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる
元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな
例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる
2022/08/29(月) 20:04:17.39ID:hJAn0cka
2022/08/29(月) 20:09:08.05ID:XSEhAwvZ
>>26
ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ
ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ
37名無しさん@お腹いっぱい。
2022/08/29(月) 20:13:39.45ID:msp2zX7O 日本昔ばなしの絵を画像生成AI「Stable Diffusion」に描いてもらいました。
「桃太郎」
https://www.youtube.com/watch?v=uJVlrErpFXE
「かぐや姫」
https://www.youtube.com/watch?v=vr5i7EIbx48
「桃太郎」
https://www.youtube.com/watch?v=uJVlrErpFXE
「かぐや姫」
https://www.youtube.com/watch?v=vr5i7EIbx48
2022/08/29(月) 20:14:05.70ID:ckaqNUs2
>>32
今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない
今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない
2022/08/29(月) 20:21:17.66ID:3oD6d6E1
>>32
waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう
waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう
2022/08/29(月) 20:26:00.47ID:LcgOCUAl
はつねみくできたかわいい
https://i.imgur.com/j4Kqb4X.jpg
https://i.imgur.com/j4Kqb4X.jpg
2022/08/29(月) 20:26:48.25ID:TrEphkRn
>>40
絵心あるように思えてしまうのが凄い
絵心あるように思えてしまうのが凄い
2022/08/29(月) 20:28:58.53ID:E2pAsSUt
2022/08/29(月) 20:37:20.43ID:OshC99AO
>>38
9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ
学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった
>>42
1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい
2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる
StableDiffusionもバージョンアップで性能上がっていきそうですが
9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ
学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった
>>42
1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい
2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる
StableDiffusionもバージョンアップで性能上がっていきそうですが
2022/08/29(月) 20:45:10.83ID:d4YOjC0c
初音ミクは前スレのこれがめっちゃ良かった
turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ
https://i.4cdn.org/g/1661704624784564.jpg
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
1段目 turquoise -> green -> red 色違い
2段目 twintail -> ponytail -> bun 髪型違い
3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ
turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ
https://i.4cdn.org/g/1661704624784564.jpg
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
1段目 turquoise -> green -> red 色違い
2段目 twintail -> ponytail -> bun 髪型違い
3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ
45名無しさん@お腹いっぱい。
2022/08/29(月) 20:50:05.21ID:3SqGfZxt SDは既存アニメキャラは意図的に出ないようにしてるみたいでそういう用途ならdalle miniのほうがええね
2022/08/29(月) 20:56:04.90ID:XSEhAwvZ
前スレの
> でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい
これ--optimizedだったら1024x1024行けるかな?
> でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい
これ--optimizedだったら1024x1024行けるかな?
2022/08/29(月) 21:00:44.38ID:E2pAsSUt
Craiyonのanimeエンハンスモデルが3090のシングルで数時間学習しただけで
あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな
あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな
48名無しさん@お腹いっぱい。
2022/08/29(月) 21:01:30.47ID:XY/qzhrx49名無しさん@お腹いっぱい。
2022/08/29(月) 21:02:32.32ID:Mj57dzyO まだデータ集まってないけどベンチマーク
https://github.com/hlky/stable-diffusion/wiki/Benchmarking
https://github.com/hlky/stable-diffusion/wiki/Benchmarking
2022/08/29(月) 21:14:50.14ID:E2pAsSUt
どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
MJの高解像度出力ってどういう仕組みでやってるんだろう?
あれがSDに降りてくれば凄いんだが
MJの高解像度出力ってどういう仕組みでやってるんだろう?
あれがSDに降りてくれば凄いんだが
2022/08/29(月) 21:18:44.13ID:hJAn0cka
512x512で作ってから
同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい
同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい
2022/08/29(月) 21:32:53.11ID:1He7nitR
逆に絵から「このテキストで作る絵に近いですー」って出してくれれば
好みの絵つっこみまくったら共通ワード出せるのか
好みの絵つっこみまくったら共通ワード出せるのか
2022/08/29(月) 21:32:56.71ID:oTgFwqmv
>>46
3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。
VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。
VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
2022/08/29(月) 21:36:59.23ID:XSEhAwvZ
55名無しさん@お腹いっぱい。
2022/08/29(月) 21:37:38.43ID:3SqGfZxt2022/08/29(月) 21:43:57.09ID:ayWOlSNk
>>52
自分は試してないけど、画像から認識されたテキストを出してくれる CLIP Interrogator というものはあるよ
https://zenn.dev/knok/articles/cef8ee0697a040
https://colab.research.google.com/github/pharmapsychotic/clip-interrogator/blob/main/clip_interrogator.ipynb
自分は試してないけど、画像から認識されたテキストを出してくれる CLIP Interrogator というものはあるよ
https://zenn.dev/knok/articles/cef8ee0697a040
https://colab.research.google.com/github/pharmapsychotic/clip-interrogator/blob/main/clip_interrogator.ipynb
2022/08/29(月) 21:46:10.20ID:XSEhAwvZ
>>53
最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済
> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど
最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済
> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど
2022/08/29(月) 21:47:53.47ID:oTgFwqmv
やっとGoogle ColabでGPUつかめた。
Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd
事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK
起動がかなり遅いのがデメリットだけどWeb UIはやはり便利
こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab
Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd
事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK
起動がかなり遅いのがデメリットだけどWeb UIはやはり便利
こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab
2022/08/29(月) 21:53:37.99ID:E2pAsSUt
例の炎上サイト、Tesla P100×1台分程度のリソースしか用意してないな
逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか
逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか
2022/08/29(月) 21:54:30.29ID:XSEhAwvZ
貧弱なローカルPCでやってたらMJって凄いことしてるよなぁってヒシヒシと・・
①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示
②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加
③さらにupscaleで2048x2048化、これも作り直しで情報増加
②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど
①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示
②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加
③さらにupscaleで2048x2048化、これも作り直しで情報増加
②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど
2022/08/29(月) 21:58:09.87ID:1He7nitR
>>56
凡人の考えなんて3周遅れなんやね……、情報サンクス
凡人の考えなんて3周遅れなんやね……、情報サンクス
2022/08/29(月) 22:04:58.37ID:BGowXRRl
AI勉強するか、と思ってサイト検索して、Python基礎、微分、線形代数、この辺まではまあ高校数学だから、そういうのあったなーでいいけど
行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い
俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事
行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い
俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事
2022/08/29(月) 22:06:02.96ID:TCiw6MU5
>>59
画像ちっちゃいし顔だけだからじゃね
画像ちっちゃいし顔だけだからじゃね
2022/08/29(月) 22:08:34.26ID:E8Z3REee
2022/08/29(月) 22:13:25.30ID:3oD6d6E1
2022/08/29(月) 22:17:21.62ID:hJAn0cka
anatomical chart(人体解剖図)という
入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した
あと真正面向く
入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した
あと真正面向く
2022/08/29(月) 22:17:47.43ID:E2pAsSUt
>>60
MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代
MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代
2022/08/29(月) 22:21:46.52ID:2HTDZ+Ml
2022/08/29(月) 22:32:21.36ID:TrEphkRn
流速すげーなこのスレ
70名無しさん@お腹いっぱい。
2022/08/29(月) 22:38:23.03ID:iBMQZq8O AI、最初はおもろかったけどミミックだっけか、あそこまで露骨なの出てくると完全に無法地帯と化してきて引くわ
イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ
イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ
2022/08/29(月) 22:40:03.41ID:xxlplGvh
>>66
ヴィンチ村のレオナルドさんですか?
ヴィンチ村のレオナルドさんですか?
2022/08/29(月) 22:43:43.05ID:Bu0cS+84
2022/08/29(月) 22:44:04.77ID:SoyTJ9pR
ミミックの話題はこっちでよくね?スゲー盛り上がってて笑う
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
2022/08/29(月) 22:45:58.43ID:NO5p2Mwt
あんなありがちな顔だけ生成マシンがここまで荒れるとは
2022/08/29(月) 22:50:36.98ID:S6ujtIKh
hlkyにDokcerファイル、docker-compose.yml他が追加されて、Windowsでもdocker compose updだけで使えるぽい
https://github.com/hlky/stable-diffusion/discussions/93
WindowsのDocker Desktop って NVIDIA GPUの準仮想化に対応してんのね。知らなかった。
便利そうではあるけど、なんかトラブりそうで誰か人柱が欲しいw
https://github.com/hlky/stable-diffusion/discussions/93
WindowsのDocker Desktop って NVIDIA GPUの準仮想化に対応してんのね。知らなかった。
便利そうではあるけど、なんかトラブりそうで誰か人柱が欲しいw
2022/08/29(月) 23:06:18.19ID:biZ5LJNt
2022/08/29(月) 23:17:14.73ID:E2pAsSUt
どのみちファインチューニングしたファイルがどんどん配られるようになるから反対しても無意味だよな
配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな
配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな
2022/08/29(月) 23:18:47.75ID:IQAZJxZC
2022/08/29(月) 23:25:26.62ID:hJAn0cka
この板にもAI愚痴スレ立てた方がいいの?
物申したいだけなら余所でやってほしいんだけど
物申したいだけなら余所でやってほしいんだけど
2022/08/29(月) 23:32:15.28ID:l6B+4duJ
賛美を抜いた愚痴アンチだけのスレが欲しい
または賛美スレもこの板に立てるとか
または賛美スレもこの板に立てるとか
2022/08/29(月) 23:32:18.72ID:SoyTJ9pR
>>50
> どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど
> どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど
2022/08/29(月) 23:33:31.85ID:l6B+4duJ
賛美がCG板で
愚痴アンチが向こう完走次第イラストレーター板
でいいんじゃないかな
板の特性的にその方が住み分けできる気がする
愚痴アンチが向こう完走次第イラストレーター板
でいいんじゃないかな
板の特性的にその方が住み分けできる気がする
2022/08/29(月) 23:34:35.34ID:ZaNZyrQ+
midjourneyが期間限定で--test,--testp,--creativeオプションを実装してるね
2022/08/29(月) 23:34:35.86ID:SoyTJ9pR
ID:l6B+4duJ
>>1
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
>>1
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
2022/08/29(月) 23:41:27.63ID:SoyTJ9pR
>>83
また定期的に期間限定やりやがってくやしい・・でも
> 1) A general purpose artistic mode you can use by typing --test
> 2) A photo-realism mode you can use by typing --testp
> If you want it to be more creative type --creative after your prompt
https://twitter.com/ro1was/status/1564256480701730816
マジかって感じ
https://twitter.com/5chan_nel (5ch newer account)
また定期的に期間限定やりやがってくやしい・・でも
> 1) A general purpose artistic mode you can use by typing --test
> 2) A photo-realism mode you can use by typing --testp
> If you want it to be more creative type --creative after your prompt
https://twitter.com/ro1was/status/1564256480701730816
マジかって感じ
https://twitter.com/5chan_nel (5ch newer account)
86名無しさん@お腹いっぱい。
2022/08/29(月) 23:43:39.19ID:i6Xjeo/62022/08/29(月) 23:44:33.14ID:l6B+4duJ
2022/08/29(月) 23:45:39.73ID:SoyTJ9pR
https://twitter.com/kohya_ss/status/1564253194644992000
ねんどろまで・・
https://twitter.com/5chan_nel (5ch newer account)
ねんどろまで・・
https://twitter.com/5chan_nel (5ch newer account)
89名無しさん@お腹いっぱい。
2022/08/29(月) 23:48:21.08ID:OhzhbyC+ midjournyはこの先きのこれるのか?
2022/08/29(月) 23:49:16.88ID:ZaNZyrQ+
手軽なAIで生き残れるでしょ
スマホでも出力できるし
スマホでも出力できるし
2022/08/29(月) 23:49:24.96ID:y65qW5Ek
Google Colabで現在のサンプラーを確認したりサンプラーを指定したりするのはどうやればいいのかしら
2022/08/29(月) 23:50:03.67ID:7D7ffgYT
MDのtest、girlって入ってても結構な確率でオッサンとか出るな
2022/08/29(月) 23:56:07.08ID:AriPWpHx
midjourneyて適当に単語入れてもなんかいい感じ(雑!)になるけどあれってどの段階でどんな感じに調整してんだろ(あやふや!)
2022/08/29(月) 23:58:34.01ID:SoyTJ9pR
MJの勝手にいい感じになるのが面白いし、本来の創作からはかけ離れてるなとも思う
たまたまこんなの出たぞ!って自慢する遊びって感じ
「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの
たまたまこんなの出たぞ!って自慢する遊びって感じ
「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの
95名無しさん@お腹いっぱい。
2022/08/29(月) 23:59:06.57ID:Jng3I3Cs 作成した画像だけで指定したプロンプトってわかったりする?
2022/08/30(火) 00:04:36.88ID:i3bEcJXE
人間には無理だと思います
2022/08/30(火) 00:05:46.88ID:siAV3f7f
2022/08/30(火) 00:10:06.04ID:siAV3f7f
--testで久々に入ってみたけどMJのrelaxモード遅っせぇ!
つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる
ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな
ようはすべての有料キューの後回しにされてる
つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる
ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな
ようはすべての有料キューの後回しにされてる
2022/08/30(火) 00:18:27.77ID:5JqWD+FJ
デコーダーもあるから一見出来そうに思えてやっぱり出力→入力への逆変換は不可能なんだよな
逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい
まあそれ用のAI学習すれば出来てしまうんだろうけど
逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい
まあそれ用のAI学習すれば出来てしまうんだろうけど
2022/08/30(火) 00:22:41.38ID:5JqWD+FJ
ちなソースの中身見ると最初から各自で自由に改変・拡張できるように
滅茶苦茶親切に色んな機能があらかじめ用意されてるのな
短期間に機能追加が進むわけだ
滅茶苦茶親切に色んな機能があらかじめ用意されてるのな
短期間に機能追加が進むわけだ
2022/08/30(火) 00:25:43.51ID:siAV3f7f
>>99
seedが違うんで完璧に逆は無理だね
なおSDでseedまでわかる検索サイト
https://lexica.art/
日付が8月上旬に集中してるので、その頃のDiscordのβ情報だと思われる
seedが違うんで完璧に逆は無理だね
なおSDでseedまでわかる検索サイト
https://lexica.art/
日付が8月上旬に集中してるので、その頃のDiscordのβ情報だと思われる
102名無しさん@お腹いっぱい。
2022/08/30(火) 00:29:03.97ID:Ao1XJMlW ローカルだと、エログロやロリも出力出来るの?
2022/08/30(火) 00:39:37.50ID:DnpTt9/H
2022/08/30(火) 00:59:18.12ID:5JqWD+FJ
MJのファインスケールの技術がSDに降りてきたら凄いんだけど
MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな
MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな
2022/08/30(火) 01:05:31.14ID:giggbkOT
2022/08/30(火) 01:15:50.76ID:/Y6pdVi2
2022/08/30(火) 01:17:28.04ID:/Y6pdVi2
ローカルだった、間違えた
まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い
まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い
2022/08/30(火) 01:17:48.62ID:ucLumWkP
MJのtestでオリジナルねんどろいど試したがクオリティ高いな
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
https://i.imgur.com/V8aG77Y.png
認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
https://i.imgur.com/V8aG77Y.png
認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい
2022/08/30(火) 01:41:36.82ID:/Y6pdVi2
--testで適当にアニメキャラ出したら色使いや絵柄がパンツ先生ってのにやたら似てる気が・・
まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか
まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか
2022/08/30(火) 02:33:57.47ID:5JqWD+FJ
ちょっと間違うと?平気で事故画像になるな
赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか
google driveに画像保存するタイプのnote bookは危なくて使えんわ
img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし
赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか
google driveに画像保存するタイプのnote bookは危なくて使えんわ
img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし
2022/08/30(火) 03:09:28.94ID:zPkJV8Uj
分かる
メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ
実写の人間の顔が生成されるのも怖いときある
メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ
実写の人間の顔が生成されるのも怖いときある
2022/08/30(火) 03:18:39.40ID:Lr1R2Bus
ツイッターの#midjourneyの外人を何人かミュートしたことある
どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか
数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか
どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか
数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか
2022/08/30(火) 05:10:35.62ID:gDEnwbht
110みたいなのはあるな
気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら
ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ
気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら
ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ
2022/08/30(火) 06:35:45.34ID:PHdMpsmT
memeplex.app使っている人はいる?
2022/08/30(火) 06:39:54.18ID:SEeBbxDW
>>66
plastinationおすすめ
>>75
この際WSLおよびDockerはオーバヘッドになるだけなのでおすすめできない
>>95
https://replicate.com/methexis-inc/img2prompt
plastinationおすすめ
>>75
この際WSLおよびDockerはオーバヘッドになるだけなのでおすすめできない
>>95
https://replicate.com/methexis-inc/img2prompt
2022/08/30(火) 07:08:27.63ID:RPiMnBkh
ロリどころか赤ちゃんから老人まで全裸にできるし、他に倫理的な問題がある表現もワード次第で大抵出せるから、今まで一般流通のなかった特殊性癖な人にとっては供給量が砂漠から海になるくらいの地殻変動が起きてる。
117名無しさん@お腹いっぱい。
2022/08/30(火) 07:14:18.44ID:+BrlyjDS 下手に国内法で規制とかしたら外国AI企業が発展して日本の著作権法で検索エンジン開発できませんでしたの再来になるな
クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺
クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺
2022/08/30(火) 07:34:03.00ID:lm5QlxyM
>>116,117
その辺も重要だと思うけど、別スレで
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
映像作品の倫理、権利関連は専門的な話なので専用スレがあってもいいと思うけど法律板かどこかに必要なら立ててください。
その辺も重要だと思うけど、別スレで
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
映像作品の倫理、権利関連は専門的な話なので専用スレがあってもいいと思うけど法律板かどこかに必要なら立ててください。
2022/08/30(火) 07:37:44.28ID:DnpTt9/H
huggingfaceとかColabに面白いツール結構あるんだが、一応学術的な用途のサイトをエンタメ乞食目的で拡散していいのかめちゃくちゃ悩むな
2022/08/30(火) 07:45:49.20ID:Pe+jJ0d+
VRAM足りないって言われる、GPUでコスパのいいのなに?
2022/08/30(火) 07:54:41.69ID:PHdMpsmT
>>120
3060 12gbかな
3060 12gbかな
122名無しさん@お腹いっぱい。
2022/08/30(火) 07:57:07.37ID:zIEyYU7A Colab pro使ってるけど512、ステップ数50、5枚一括生成辺りからもうプレビュー読み込めなくなってしまう
やっぱり1枚ずつ生成した方がいいのかな
やっぱり1枚ずつ生成した方がいいのかな
2022/08/30(火) 08:30:48.98ID:Pe+jJ0d+
>>121
thx
thx
124名無しさん@お腹いっぱい。
2022/08/30(火) 08:41:53.85ID:8qhX8eo3 なぁ今やっとローカルに環境構築できたんだがcmdで一行ずつコピペするの大変だからpythonで①作業ディレクトリの設定、②promptの入力、③保存して次行くかor保存して次行くか、くらいまで人がやる作業減らしたいんだが誰かヒントをくれんか。
俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。
俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。
125名無しさん@お腹いっぱい。
2022/08/30(火) 08:47:26.10ID:kv64WKVJ2022/08/30(火) 09:32:47.09ID:5JqWD+FJ
背景が得意と言ってもちょっとイラスト風に指定すると
いかにもAI君が描きましたって画風になってしまって使いにくいな
最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ
いかにもAI君が描きましたって画風になってしまって使いにくいな
最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ
2022/08/30(火) 09:33:31.51ID:RSDJfmWl
pythonって環境汚れるから嫌なんだよな
dockerに出来るなら移行させるか
dockerに出来るなら移行させるか
2022/08/30(火) 09:36:12.17ID:KijvYrKn
AIはイメージボード的に考えて自分でさらに描きこめる人じゃないと活用しにくいかもね。
2022/08/30(火) 09:38:31.47ID:SEeBbxDW
>>127
anaconda/minicondaでもか?
anaconda/minicondaでもか?
2022/08/30(火) 09:46:51.92ID:5JqWD+FJ
環境が汚れるというかソフトによって細かくライブラリのver調整しないといけないから
共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる
condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから
色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな
共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる
condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから
色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな
131名無しさん@お腹いっぱい。
2022/08/30(火) 09:50:59.51ID:kv64WKVJ 単純に複数フォーク使う場合はDockerの方が気分的にいいね
性能が気になるけどまだ動かしてみたって報告見つからないな
性能が気になるけどまだ動かしてみたって報告見つからないな
2022/08/30(火) 10:04:41.54ID:mluQAcfl
#stablediffusion が使えるPhotoshopプラグイン登場
https://video.twimg.com/ext_tw_video/1563160807847841794/pu/vid/640x360/6qT8U5WkKFck8BAT.mp4
https://video.twimg.com/ext_tw_video/1563160807847841794/pu/vid/640x360/6qT8U5WkKFck8BAT.mp4
2022/08/30(火) 10:24:39.31ID:5JqWD+FJ
>>132
例のサイトなんかより遥かに凄いな、もう誰でも絵を作れる時代
例のサイトなんかより遥かに凄いな、もう誰でも絵を作れる時代
2022/08/30(火) 11:14:07.66ID:xGJiBerf
>>127
Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね
Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね
2022/08/30(火) 11:18:11.10ID:TFHgXV2V
>>131
うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う
うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う
136名無しさん@お腹いっぱい。
2022/08/30(火) 11:20:25.88ID:kv64WKVJ137名無しさん@お腹いっぱい。
2022/08/30(火) 11:23:57.78ID:kv64WKVJ2022/08/30(火) 11:40:54.58ID:TFHgXV2V
>>137
うちの場合、
・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ
あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった
うちの場合、
・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ
あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった
2022/08/30(火) 11:45:27.55ID:TFHgXV2V
一応参考資料
Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48
うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ
Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48
うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ
2022/08/30(火) 11:47:40.85ID:TFHgXV2V
一応念のためだけどVSCodeは拡張が便利だから使ってるだけで別に必須ではないよ
もちろん自分でdockerコマンドを叩いても問題なくいけるはず
もちろん自分でdockerコマンドを叩いても問題なくいけるはず
141名無しさん@お腹いっぱい。
2022/08/30(火) 11:54:40.02ID:qYpiRjsk2022/08/30(火) 12:04:42.27ID:TFHgXV2V
>>141
正直dockerにはあんまり詳しくないんだけど、理屈としては
・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]
ということだと思う
たぶん
知らんけど
正直dockerにはあんまり詳しくないんだけど、理屈としては
・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]
ということだと思う
たぶん
知らんけど
143名無しさん@お腹いっぱい。
2022/08/30(火) 12:05:37.25ID:Ao1XJMlW ローカルで動かすには大変なんだね
DLしてポンと行けるようになるまで待つしかないか‥
DLしてポンと行けるようになるまで待つしかないか‥
144名無しさん@お腹いっぱい。
2022/08/30(火) 12:06:07.82ID:fvdhM1jP >>58
これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?…
これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?…
145名無しさん@お腹いっぱい。
2022/08/30(火) 12:12:21.02ID:qYpiRjsk146名無しさん@お腹いっぱい。
2022/08/30(火) 12:14:40.77ID:fvdhM1jP >>145
ありがとございます(^o^)/
ありがとございます(^o^)/
147名無しさん@お腹いっぱい。
2022/08/30(火) 12:15:05.99ID:8qhX8eo3 >>125
ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。
ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。
2022/08/30(火) 12:16:37.98ID:sNQGir2i
2022/08/30(火) 12:17:24.50ID:/LwOjr1W
Pythonのみ環境だったらあぶぶニキのnoteの手順がわかりやすいかも
2022/08/30(火) 12:21:12.88ID:TFHgXV2V
ちなみに上の話の確認をする過程で軽くTwitterを検索してたらなんかGPUなしで(CPUで)StableDiffusionを動かせるDockerコンテナを作った人がいるみたいなので興味がある人は試してみてほしい
dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456
[引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法 https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496
dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456
[引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法 https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496
2022/08/30(火) 12:30:22.21ID:4yzbKvvT
>>18
アカウント登録不要のモデルデータ直リンク
https://www.googleapis.com/storage/v1/b/aai-blog-files/o/sd-v1-4.ckpt?alt=media
Docker版の参照先はここっぽかった
アカウント登録不要のモデルデータ直リンク
https://www.googleapis.com/storage/v1/b/aai-blog-files/o/sd-v1-4.ckpt?alt=media
Docker版の参照先はここっぽかった
2022/08/30(火) 12:32:25.62ID:giggbkOT
キム・ヒョンテ(Hyung-tae Kim)とかも結構ヒットする
2022/08/30(火) 12:46:18.62ID:1F0iAG9b
2022/08/30(火) 13:28:56.22ID:/LwOjr1W
直リンクはあかん
2022/08/30(火) 13:51:10.79ID:f/JtqVqk
マッチョな赤毛イケメン描いてって言ったら想像以上にリアルなエロいの出てきたんだけど、しかも1枚エロすぎて?黒塗りされてた
これローカルだとエロ画像も作成してくれるんかな
https://i.imgur.com/kOFUhyU.png
https://i.imgur.com/D6J0hVg.png
https://i.imgur.com/l2s3twu.png
これローカルだとエロ画像も作成してくれるんかな
https://i.imgur.com/kOFUhyU.png
https://i.imgur.com/D6J0hVg.png
https://i.imgur.com/l2s3twu.png
2022/08/30(火) 13:58:38.62ID:TFHgXV2V
>>155
ローカル版ならエロいのも出し放題だよ
ローカル版ならエロいのも出し放題だよ
2022/08/30(火) 14:43:28.22ID:Ja/K8fYt
2022/08/30(火) 15:18:07.18ID:/28TUU0I
今写真か画像から3DCGにする技術あるって見たけどそういうソフトって知ってる?
組み合わせれば3DCGモデル作れそうなんだけどなぁ
組み合わせれば3DCGモデル作れそうなんだけどなぁ
2022/08/30(火) 15:20:41.98ID:71rL3/c/
仮に世界中全ての画像生成AIがサービス停止したとしても、ローカルに構築しておけば生成し放題。GPUと速度は比べ物にならないがIntel CPUのみでも動かせるようになったし、環境だけは持っておくべき。
https://zenn.dev/karaage0703/articles/4901bf68536907
https://zenn.dev/karaage0703/articles/4901bf68536907
2022/08/30(火) 15:23:13.13ID:KijvYrKn
フォトグラメトリーってヤツ、アップルスマホで動くらしいけど
まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい
リトポアプリで家具なんかは割と簡単にモデル化できるよ
まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい
リトポアプリで家具なんかは割と簡単にモデル化できるよ
2022/08/30(火) 15:24:50.21ID:kv64WKVJ
>>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした
Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした
Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
162名無しさん@お腹いっぱい。
2022/08/30(火) 15:44:04.82ID:Ao1XJMlW macでローカルに試みてみたけどPyTorchのインストールで早くもつまずいた
こんなややこしい事よう出来るなみんな
こんなややこしい事よう出来るなみんな
2022/08/30(火) 15:44:11.02ID:Fo+VsDM0
凄いおもろいんだけど呪文周りが大変だねこれ
タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい
タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい
2022/08/30(火) 15:49:51.81ID:giggbkOT
>>158
NVIDIA Instant NeRF: NVIDIA Research Turns 2D Photos Into 3D Scenes in the Blink of an AI
https://www.youtube.com/watch?v=DJ2hcC1orc4
NVIDIA Instant NeRF: NVIDIA Research Turns 2D Photos Into 3D Scenes in the Blink of an AI
https://www.youtube.com/watch?v=DJ2hcC1orc4
165名無しさん@お腹いっぱい。
2022/08/30(火) 15:53:38.35ID:kv64WKVJ NeRFは複数角度からのイメージが必要で、それをSDが生成できるならその時点で3D生成できてることになる気がする
166名無しさん@お腹いっぱい。
2022/08/30(火) 15:55:19.67ID:kv64WKVJ >>162
3DとかAIとかをMacでやってる人尊敬するわ
3DとかAIとかをMacでやってる人尊敬するわ
2022/08/30(火) 16:00:10.07ID:TFHgXV2V
>>161
うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう……
うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう……
2022/08/30(火) 16:01:30.71ID:pgnjJfpT
>>164
グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも
グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも
169名無しさん@お腹いっぱい。
2022/08/30(火) 16:06:12.08ID:31uMl/6n2022/08/30(火) 16:14:48.13ID:fboSUaai
>>169
2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった
2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった
2022/08/30(火) 16:17:43.86ID:kv64WKVJ
>>167
いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw
多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)
●WSL2(ubuntu20.04)
・cuda-toolkit ?
●Dockerコンテナ
・Docker fileをbuildすればOK
cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)
また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw
いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw
多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)
●WSL2(ubuntu20.04)
・cuda-toolkit ?
●Dockerコンテナ
・Docker fileをbuildすればOK
cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)
また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw
2022/08/30(火) 16:19:24.67ID:ENzpNyMS
マイニング需要減退に4000番前の買い控えとが合わさったうえ
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな
> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。
4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html
> 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。
(ローカルSDのための技術交換です)
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな
> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。
4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html
> 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。
(ローカルSDのための技術交換です)
2022/08/30(火) 16:19:45.81ID:fboSUaai
ZBrushでVroid弄った方が早いかなぁ
たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい
0→1は無理でも手直しできるレベルなら使いこなせそうだし
たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい
0→1は無理でも手直しできるレベルなら使いこなせそうだし
174名無しさん@お腹いっぱい。
2022/08/30(火) 16:29:15.30ID:31uMl/6n2022/08/30(火) 16:29:28.01ID:I2/q+u8z
2022/08/30(火) 16:37:00.59ID:ENzpNyMS
ローカルSDはゲーマーと視点がずれてるのが面白い
「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか
自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな
ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど
SDで生成されたのは512x512で大抵見向きもされてない
ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度
「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか
自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな
ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど
SDで生成されたのは512x512で大抵見向きもされてない
ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度
2022/08/30(火) 16:37:13.60ID:PhE/1lBB
2022/08/30(火) 16:38:12.60ID:fboSUaai
179名無しさん@お腹いっぱい。
2022/08/30(火) 16:45:17.40ID:qYpiRjsk 164までは分かるけどその後のレスの意味は俺も分からないなw
NeRFとかはスレの趣旨としていいと思うけど
NeRFとかはスレの趣旨としていいと思うけど
2022/08/30(火) 16:47:24.25ID:SEeBbxDW
2022/08/30(火) 16:48:52.99ID:ENzpNyMS
自分で言うのもなんだけどGPUの話題は問題ないでしょ
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ
ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?
>>180
いいGPUがあればね・・
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ
ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?
>>180
いいGPUがあればね・・
182名無しさん@お腹いっぱい。
2022/08/30(火) 16:50:26.11ID:hEWVLVDt ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
これ3DCGと関係ないじゃん
ここCG板だよ?
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
これ3DCGと関係ないじゃん
ここCG板だよ?
2022/08/30(火) 16:54:02.67ID:giggbkOT
Stable Diffusion
https://egg.5ch.net/test/read.cgi/software/1661568532/
https://egg.5ch.net/test/read.cgi/software/1661568532/
184名無しさん@お腹いっぱい。
2022/08/30(火) 16:55:26.65ID:hEWVLVDt そっちって2D絵描いてるイラストレーター向けってかイラストレーター板に立ってるスレだよね
こちらはCG板に立ってるから3DCGも扱うんじゃないの?
最近のAI話題も大体2D絵の事だと思うし
こちらはCG板に立ってるから3DCGも扱うんじゃないの?
最近のAI話題も大体2D絵の事だと思うし
2022/08/30(火) 17:01:37.98ID:QtIBnaoD
一般の使用想定者は2D、いわゆるハンコ絵や背景の生成目的に使うが
ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか
そうした用途で使用する人も想定できるんでないか、CG板だし
ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか
そうした用途で使用する人も想定できるんでないか、CG板だし
2022/08/30(火) 17:10:55.21ID:ENzpNyMS
まぁ、AIは3DCGゲームデータをかなり学習してるようで密接ではあるんだよねぇ
MJでレンダリング系呪文使ってる人の多いこと
MJでレンダリング系呪文使ってる人の多いこと
2022/08/30(火) 17:13:50.50ID:0x/KrfJz
>>181
2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね
2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね
2022/08/30(火) 17:13:51.66ID:/LwOjr1W
猫の人(たかなんとかさん)が紹介してたバイドゥのお絵描きAI動作確認してみたけど
GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった
GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった
2022/08/30(火) 17:20:08.27ID:fboSUaai
クリエイター目線で雑談質問含めて総合スレにした方が伸びると思うは分かる
技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし
クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな
技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし
クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな
2022/08/30(火) 17:21:14.93ID:5JqWD+FJ
フォトショのプラグインのあのデモ見る限り
ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが
既にリリースされてるんだっけ?
ペイントツールと直接連携できるのはやっぱ強いわ
ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが
既にリリースされてるんだっけ?
ペイントツールと直接連携できるのはやっぱ強いわ
2022/08/30(火) 17:24:46.18ID:fboSUaai
操作方法のマニュアルでなくて絵自体を上手くするテクニックとか?
AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは
自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな
コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする
AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは
自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな
コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする
2022/08/30(火) 17:33:18.91ID:hEWVLVDt
3Dプリンタでフィギィア造形とか
AIが完全な絵を描くにはむしろ立体的理解が必要なのか
3DCGがさらなる進化のカギを握るはありそうだ
3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く
実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある
AIが完全な絵を描くにはむしろ立体的理解が必要なのか
3DCGがさらなる進化のカギを握るはありそうだ
3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く
実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある
2022/08/30(火) 17:42:36.07ID:ENzpNyMS
2022/08/30(火) 17:47:53.87ID:fboSUaai
Adobe化せずセットでも安価なサブスクにして欲しいなぁ
全部従来のクリスタみたいにオフラインでも使える感じで
全部従来のクリスタみたいにオフラインでも使える感じで
2022/08/30(火) 17:48:48.90ID:Q/I/WEL9
途中の生成過程よく見てるとフラフラして面白いよね
腕が出たり消えたり、顔つきがふっと変わったり
腕が出たり消えたり、顔つきがふっと変わったり
2022/08/30(火) 17:51:24.00ID:7lE/VvUQ
フォトショもオフラインで使えるけどフォトショ自体少し高いよね
フリー含めたAI普及しそうな今なら尚更
まぁ代替え自体は同じようにあるけど
フリー含めたAI普及しそうな今なら尚更
まぁ代替え自体は同じようにあるけど
2022/08/30(火) 17:53:24.20ID:Q/I/WEL9
なんでフォトショの話してんだ?って人でそうだから、一応貼っとくね
https://twitter.com/wbuchw/status/1563162131024920576
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/wbuchw/status/1563162131024920576
https://twitter.com/5chan_nel (5ch newer account)
2022/08/30(火) 17:53:49.41ID:5JqWD+FJ
解像度を高めるほうほうが見つからんな
一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから
img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img)
これやってもぼやけたままで細かいパターンが作られたりしないんだよね
img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい
一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから
img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img)
これやってもぼやけたままで細かいパターンが作られたりしないんだよね
img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい
2022/08/30(火) 17:58:08.89ID:7lE/VvUQ
ってかこのソフトだけでは何もできないことぐらいCG描いてる人なら知ってるよね
出来たら〇dobe辺りが黙ってないと思うw
結局全員が使い出したら差別化が必要になるから
出来たら〇dobe辺りが黙ってないと思うw
結局全員が使い出したら差別化が必要になるから
2022/08/30(火) 18:00:13.24ID:Q/I/WEL9
2022/08/30(火) 18:04:18.74ID:0x/KrfJz
従来の才能知識技術必要なのと違って呪文の運用方法のマニュアル覚えれば誰でもできるからね
そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない
そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない
2022/08/30(火) 18:11:12.20ID:KO8MrCqs
明確に禁止だっつってんのに未来の話をしたがる奴は日本語が不自由だと思うしかないなもう
2022/08/30(火) 18:16:42.22ID:ktt9Dn9w
もともとイラレ板から分離して出来たスレみたいだけど
あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある
そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる
実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど
あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある
そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる
実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど
2022/08/30(火) 18:17:25.76ID:ktt9Dn9w
〇そういう民度なのか~
2022/08/30(火) 18:23:53.04ID:Yug2NA1p
いまいち分かりにくいよな
イラレ板は業界の話とか職業とか金絡みの話じゃないのか?
技術や学び全般はこっちな気がするが
イラレ板は業界の話とか職業とか金絡みの話じゃないのか?
技術や学び全般はこっちな気がするが
2022/08/30(火) 18:27:31.62ID:HJJsHPQ+
2022/08/30(火) 18:28:21.59ID:0x/KrfJz
>>198
あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう
あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう
2022/08/30(火) 18:28:49.66ID:HJJsHPQ+
1人か2人かしらんけどかなりのアホが迷い込んできてるな
悪意はなさそうだがそろそろ黙って
悪意はなさそうだがそろそろ黙って
2022/08/30(火) 18:31:46.74ID:B4PDTVQw
メジャー紙(?)も続々取り上げてて乱用待ったなし
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ
文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/
「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ
文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/
「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
2022/08/30(火) 18:34:50.31ID:0x/KrfJz
この板に雑談スレないからじゃ?
ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ
単純に立て方の失敗
NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う
イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない
ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ
単純に立て方の失敗
NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う
イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない
2022/08/30(火) 18:35:19.56ID:Q/I/WEL9
> Photoshopで動かすプラグイン「alpaca」
一切に意に介されないfire alpacaさん・・
一切に意に介されないfire alpacaさん・・
2022/08/30(火) 18:37:21.09ID:spMnej94
質問スレと雑談スレに分離するか質問スレをどちらかに含ませるか辺りか
金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか?
金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか?
2022/08/30(火) 18:42:01.90ID:ktt9Dn9w
質問に答えられるような層ってこのスレの住人だろうけど過疎ってたから質問はこっちでいいのでは
次からテンプレート入れてスレタイに組み込めば?
まだその段階ではない気がする
次からテンプレート入れてスレタイに組み込めば?
まだその段階ではない気がする
2022/08/30(火) 18:47:18.57ID:fIsOyvn6
イラ板のアンチスレについに勢い負けたどころかこっちの3倍w
あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない
あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない
2022/08/30(火) 18:48:40.14ID:5JqWD+FJ
AIの背景見過ぎて一発でAI背景のおかしなとこ見つけられるようになってしまったw
萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな
もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな
萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな
もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな
2022/08/30(火) 18:49:41.34ID:v7+RMFMP
●CLIP-guidingって何?
Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104
CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。
近日中に公開予定です。
Vit-Hは完成前でも特にロックです。
---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq
プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]
#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]
#Negative prompts for Latent Diffusion
latent_negatives = [""]
image_prompts = []
どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account)
Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104
CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。
近日中に公開予定です。
Vit-Hは完成前でも特にロックです。
---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq
プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]
#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]
#Negative prompts for Latent Diffusion
latent_negatives = [""]
image_prompts = []
どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account)
217名無しさん@お腹いっぱい。
2022/08/30(火) 18:50:12.85ID:EbiIO4wi このスレではMJよりSDの方が人気?
2022/08/30(火) 18:53:00.91ID:v7+RMFMP
>>217
MJ綺麗で好きだけど、単純にSDの方がオープンソースで技術的にも色々変わっていくから話題が多いね
MJ綺麗で好きだけど、単純にSDの方がオープンソースで技術的にも色々変わっていくから話題が多いね
2022/08/30(火) 18:55:33.06ID:fIsOyvn6
>>217
人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ
MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる
人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ
MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる
2022/08/30(火) 18:58:04.52ID:SEeBbxDW
プロンプトに絵文字を入れられることはここでは知られてる?
2022/08/30(火) 18:59:36.76ID:fIsOyvn6
>>220
かなり初期にcraiyonあたりで話題になったよ
かなり初期にcraiyonあたりで話題になったよ
2022/08/30(火) 19:01:13.27ID:v7+RMFMP
>>220
Unicodeは何でも入るけど、これはこういう効果があるって情報があれば役に立ちそうね
Unicodeは何でも入るけど、これはこういう効果があるって情報があれば役に立ちそうね
2022/08/30(火) 19:02:10.01ID:fIsOyvn6
https://knowyourmeme.com/photos/2388192-dall-e-mini-craiyon
最初に気付いたのは外人だったと思う
最初に気付いたのは外人だったと思う
2022/08/30(火) 19:02:45.85ID:SEeBbxDW
2022/08/30(火) 19:03:50.15ID:fIsOyvn6
上のリンクは文字だから違うな、ごめん
https://www.reddit.com/r/weirddalle/comments/wqb8td/happy_dumpster_fire_emoji/
これとか13日前だけど、1か月前にすでに見たことあるよ
https://www.reddit.com/r/weirddalle/comments/wqb8td/happy_dumpster_fire_emoji/
これとか13日前だけど、1か月前にすでに見たことあるよ
2022/08/30(火) 19:06:10.28ID:fIsOyvn6
227名無しさん@お腹いっぱい。
2022/08/30(火) 19:12:45.40ID:arqZR3Jp 【Midjourney】AI関連総合【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1661853927/
分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで
https://mevius.5ch.net/test/read.cgi/cg/1661853927/
分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで
2022/08/30(火) 19:14:02.46ID:o89xhKkR
2022/08/30(火) 19:15:48.13ID:5JqWD+FJ
仕事の観点からだと実用性のある背景にはMJみたいなアートに振った画風よりも
そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど
平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね
イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな
コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし
そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど
平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね
イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな
コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし
2022/08/30(火) 19:16:18.20ID:DnpTt9/H
2022/08/30(火) 19:18:48.17ID:SEeBbxDW
>>228
Caiyonだと桃だった
Caiyonだと桃だった
2022/08/30(火) 19:19:52.20ID:80MNGGFZ
2022/08/30(火) 19:20:29.85ID:v7+RMFMP
>>226
なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった
なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった
2022/08/30(火) 19:26:20.51ID:SEeBbxDW
🏺と⚱の区別ついててすごい
2022/08/30(火) 19:27:25.32ID:DnpTt9/H
絵文字ってどういう認識なん?
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから>>226で
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから>>226で
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか
2022/08/30(火) 19:31:11.32ID:HGbily5w
以降スレに反するのは全部そっち誘導でいいな
ここは雑談なしの純粋な技術スレにしようぜ
ここは雑談なしの純粋な技術スレにしようぜ
237名無しさん@お腹いっぱい。
2022/08/30(火) 19:35:00.62ID:SEeBbxDW >>235
💩は絵文字の画像になる
💩は絵文字の画像になる
2022/08/30(火) 19:36:40.50ID:80MNGGFZ
webuiのgenerateのボタン位置・・馬鹿なのか
2022/08/30(火) 19:37:17.02ID:B4uVJLlD
>>235
Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる
Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる
2022/08/30(火) 19:37:17.72ID:v7+RMFMP
ぼんやり理解だけど、
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
https://i.imgur.com/RZr0oGw.jpg
プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
https://i.imgur.com/RZr0oGw.jpg
プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。
241名無しさん@お腹いっぱい。
2022/08/30(火) 19:37:23.96ID:SEeBbxDW2022/08/30(火) 19:42:29.64ID:80MNGGFZ
2022/08/30(火) 19:48:19.48ID:80MNGGFZ
2022/08/30(火) 19:50:25.08ID:DnpTt9/H
2022/08/30(火) 19:52:11.73ID:1o6g5FEf
別に絵文字と特別に認識している訳ではない
ただの文字の一つで扱いとしては漢字一文字とほぼ同じ
そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので
絵文字を入れると絵文字の画像が出てくるという話
🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため
ただの文字の一つで扱いとしては漢字一文字とほぼ同じ
そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので
絵文字を入れると絵文字の画像が出てくるという話
🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため
246名無しさん@お腹いっぱい。
2022/08/30(火) 19:57:34.61ID:31uMl/6n 画像共有用discodeたててもいい?
2022/08/30(火) 19:58:11.27ID:v7+RMFMP
248名無しさん@お腹いっぱい。
2022/08/30(火) 19:58:13.30ID:dr5tbs4r tomieって入れると黒髪美女出る
富江だと風景画になってしまった
富江だと風景画になってしまった
2022/08/30(火) 20:07:32.63ID:1o6g5FEf
2022/08/30(火) 20:07:45.18ID:80MNGGFZ
https://github.com/hlky/stable-diffusion
最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート?
最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート?
2022/08/30(火) 20:14:10.01ID:v7+RMFMP
>>249
使われてますよ
使われてますよ
2022/08/30(火) 20:20:40.02ID:80MNGGFZ
verup前は俺環の最大解像度で1枚はいけるのに、2枚からバッチ回すとout of memoryなってたのがちゃんと治ってる
自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ
無償で開発してる人たちにほんと頭下がるわ
自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ
無償で開発してる人たちにほんと頭下がるわ
253名無しさん@お腹いっぱい。
2022/08/30(火) 20:21:21.95ID:Y3qJ/WiJ 前スレで出てた
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる?
image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0]
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる?
image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0]
254名無しさん@お腹いっぱい。
2022/08/30(火) 20:23:01.98ID:cJ9kV8hW 日本人女性っぽい名前を入れると日本人が出てくる
akikoとか
akikoとか
2022/08/30(火) 20:25:04.47ID:/LwOjr1W
アッコニキ「出番の聞いて」
2022/08/30(火) 20:25:19.30ID:1o6g5FEf
2022/08/30(火) 20:28:04.74ID:vYyH+zie
258名無しさん@お腹いっぱい。
2022/08/30(火) 20:36:49.67ID:31uMl/6n >>246
スレチ?それとも誰も興味ないだけか
スレチ?それとも誰も興味ないだけか
2022/08/30(火) 20:37:14.83ID:DqH2aZi7
260名無しさん@お腹いっぱい。
2022/08/30(火) 20:40:58.08ID:qYpiRjsk2022/08/30(火) 20:41:07.33ID:DnpTt9/H
>>258
わからんけどTwitterあたりでやったほうがいいと思う
わからんけどTwitterあたりでやったほうがいいと思う
2022/08/30(火) 20:53:55.86ID:MpLLHlhW
webuiのimg2imgでsrengthを小さくしてloopbackで回すってのがよくわからん
str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない
str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない
2022/08/30(火) 20:57:48.07ID:1o6g5FEf
>>257
脇から文のおかしい奴に突っ込んでこられても困る
脇から文のおかしい奴に突っ込んでこられても困る
2022/08/30(火) 21:02:34.31ID:NlA3TJFF
EmadさんDISCORD情報 2022/8/30
・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど
→ ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない
・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。
OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。
・V3は1週間以内にできる。多分チェックに2週間かかる
(注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味?
・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、
腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。
→ ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。
@Dango233が対応してます。
・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。
・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど
→ ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない
・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。
OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。
・V3は1週間以内にできる。多分チェックに2週間かかる
(注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味?
・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、
腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。
→ ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。
@Dango233が対応してます。
・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。
266名無しさん@お腹いっぱい。
2022/08/30(火) 21:12:27.82ID:DyU6uiZ7 この画像からプロンプト出すやつ、実際に作成者が打ち込んだテキストが
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt
画像から推測してるだけっぽいんだけど。
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt
画像から推測してるだけっぽいんだけど。
2022/08/30(火) 21:12:49.92ID:1o6g5FEf
>>262
プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?
で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる
んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する)
プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?
で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる
んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する)
2022/08/30(火) 21:18:34.35ID:MpLLHlhW
>>267
なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する
なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する
2022/08/30(火) 21:21:03.84ID:fW+GqRKg
>>253
Google Colabでやってる人かな。それだとエラーになるでしょ
import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]
みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど
Google Colabでやってる人かな。それだとエラーになるでしょ
import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]
みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど
2022/08/30(火) 21:21:19.56ID:DnpTt9/H
>>266
AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ
AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ
2022/08/30(火) 21:21:31.32ID:NlA3TJFF
>>266
画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする
最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど
画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする
最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど
2022/08/30(火) 21:24:22.14ID:MpLLHlhW
> Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエスト
これ欲しい!yamlファイルの山マジ勘弁して
縮小版と並べたら一瞬どっちの隣のかわかんねーよ
これ欲しい!yamlファイルの山マジ勘弁して
縮小版と並べたら一瞬どっちの隣のかわかんねーよ
2022/08/30(火) 21:36:51.60ID:SEeBbxDW
手足とか指がぐちゃぐちゃでも大丈夫なホラーとかダークファンタジーに向いていることに気づいてしまった
2022/08/30(火) 21:40:20.55ID:pfyegmNS
>>265
ほーん
ほーん
2022/08/30(火) 22:02:03.23ID:1o6g5FEf
2022/08/30(火) 23:00:37.45ID:giggbkOT
初音ミクさん
https://i.imgur.com/NtCokk0.jpg
髪型
Verdigris and Turquoise hair, thin double pigtails hairstyle
https://i.imgur.com/NtCokk0.jpg
髪型
Verdigris and Turquoise hair, thin double pigtails hairstyle
2022/08/31(水) 00:12:15.44ID:hcBoUQTA
detail系って前に入れる派?後ろに入れる派?
2022/08/31(水) 00:22:07.44ID:HbV0Uggc
テーマだったらsubject(主語)より前のほうがいいと思う
detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない
detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない
2022/08/31(水) 00:34:39.04ID:hcBoUQTA
なるほどありがとう
2022/08/31(水) 02:56:37.45ID:H11m8WOT
めちゃくちゃ奇妙なこと入力しても何らかの絵にして出力してくるんだからすごいな
2022/08/31(水) 04:51:36.09ID:DcFdWx70
無料colabでファインチューニングする人はコンフィグのbatch_frequencyを2500くらいにしようね😭
batch_frequencyに指定したstep数ごとにプレビューを出力するんだ
2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭
batch_frequencyに指定したstep数ごとにプレビューを出力するんだ
2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭
2022/08/31(水) 06:37:06.71ID:YwNJW/mv
ファインチューニングってアニメ絵も学習できるの?
2022/08/31(水) 06:56:38.99ID:LMHjjJ7D
ローカル環境でStable Diffusionのimg2imgを動かす
https://self-development.info/%e3%83%ad%e3%83%bc%e3%82%ab%e3%83%ab%e7%92%b0%e5%a2%83%e3%81%a7stable-diffusion%e3%81%aeimg2img%e3%82%92%e5%8b%95%e3%81%8b%e3%81%99/
バカでもわかりやすいように回りくどく説明してくれてるんだけど
バカすぎて途中から全然意味わからん
じゃあどうやってそのコードを実行すんねん
途中まで無駄に回りくどかったのに一番大事なとこはしょんなや
https://self-development.info/%e3%83%ad%e3%83%bc%e3%82%ab%e3%83%ab%e7%92%b0%e5%a2%83%e3%81%a7stable-diffusion%e3%81%aeimg2img%e3%82%92%e5%8b%95%e3%81%8b%e3%81%99/
バカでもわかりやすいように回りくどく説明してくれてるんだけど
バカすぎて途中から全然意味わからん
じゃあどうやってそのコードを実行すんねん
途中まで無駄に回りくどかったのに一番大事なとこはしょんなや
285名無しさん@お腹いっぱい。
2022/08/31(水) 07:14:36.78ID:6l/NJAAU hlkyさんTwitter始めたよ!
@hlky__
@hlky__
2022/08/31(水) 07:25:20.95ID:7JXzYhek
2022/08/31(水) 07:41:10.87ID:LMHjjJ7D
あぁ >>18 ってローカル環境で動くやつなんか
仕事が片付いたら試してみよう
仕事が片付いたら試してみよう
2022/08/31(水) 08:02:44.06ID:7JXzYhek
●動画での服の着せ替えについて
https://twitter.com/karenxcheng/status/1564626773001719813
・Dalleでマスクすることで服を変更することができる
・しかし一貫性がないためフレーム毎に服が変わってしまう
・これを解決するツールとしてEbSynthがある
EbSynth https://www.youtube.com/watch?v=eghGQtQhY38 https://ebsynth.com/
※以下の手順は私の補足
1.ビデオをPNG連番ファイルに変更する
2.キーフレームを他の画像に変更する(1枚。複数も可)
3.ビデオPNGをマスク(白黒)にする ※自動もできる?
→ 全ビデオがキーフレームの画風になる
・他の方法としてDAINというAIフレーム補間もある
https://twitter.com/karenxcheng/status/1552348027834118144
Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。
https://grisk.itch.io/dain-app
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/karenxcheng/status/1564626773001719813
・Dalleでマスクすることで服を変更することができる
・しかし一貫性がないためフレーム毎に服が変わってしまう
・これを解決するツールとしてEbSynthがある
EbSynth https://www.youtube.com/watch?v=eghGQtQhY38 https://ebsynth.com/
※以下の手順は私の補足
1.ビデオをPNG連番ファイルに変更する
2.キーフレームを他の画像に変更する(1枚。複数も可)
3.ビデオPNGをマスク(白黒)にする ※自動もできる?
→ 全ビデオがキーフレームの画風になる
・他の方法としてDAINというAIフレーム補間もある
https://twitter.com/karenxcheng/status/1552348027834118144
Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。
https://grisk.itch.io/dain-app
https://twitter.com/5chan_nel (5ch newer account)
2022/08/31(水) 08:22:27.26ID:UCPx4zKR
デフォで散らかってるwindows側にごちゃごちゃ入れるのは嫌なんでWSLに普通のdockerとdocker composeをインストール
webuiを起動した時に出たエラーメッセージで検索してtoolkit更新
無事docker composeで起動確認
さよならanaconda君のことは好きじゃなかったよ
webuiを起動した時に出たエラーメッセージで検索してtoolkit更新
無事docker composeで起動確認
さよならanaconda君のことは好きじゃなかったよ
2022/08/31(水) 08:44:37.45ID:TWdEygjj
アニメマンガ系で浅く再トレーニングされたモデルが出てた
https://huggingface.co/naclbit/trinart_stable_diffusion
ただ劇的革命的って訳じゃなさそうだし
環境側の設定変更が要るんで試したい人が試せって感じかね
https://huggingface.co/naclbit/trinart_stable_diffusion
ただ劇的革命的って訳じゃなさそうだし
環境側の設定変更が要るんで試したい人が試せって感じかね
2022/08/31(水) 08:45:05.51ID:CFJyKlPj
18ってimgtoimgも出来る?
2022/08/31(水) 08:55:43.06ID:HU9icYfL
>>291
できるよ
できるよ
2022/08/31(水) 09:21:18.98ID:7JXzYhek
>289
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・
girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/LqvrGRM.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/OZY3HE1.jpg
基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・
girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/LqvrGRM.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/OZY3HE1.jpg
基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね
2022/08/31(水) 09:21:37.09ID:YwNJW/mv
>>290
早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ
早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ
2022/08/31(水) 09:26:17.99ID:+sJmCfbd
途中でめんどくさくなったんやろな
2022/08/31(水) 09:31:07.81ID:Ab7ayGWM
>6の
>公式 https://github.com/CompVis/stable-diffusion
のimg2img版はないのかな?
Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ
>公式 https://github.com/CompVis/stable-diffusion
のimg2img版はないのかな?
Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ
2022/08/31(水) 09:33:12.79ID:Ab7ayGWM
>>296
リンク間違えた!
> >6の
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
>
> のimg2img版はないのかな?
> Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ
です
リンク間違えた!
> >6の
公式 https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb
>
> のimg2img版はないのかな?
> Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ
です
298名無しさん@お腹いっぱい。
2022/08/31(水) 09:36:02.70ID:TGVLwwJu299名無しさん@お腹いっぱい。
2022/08/31(水) 09:37:18.86ID:0+/wzyQN アニメ調って、日本人が言うアニメじゃなくて
ディズニー系の事か
ディズニー系の事か
2022/08/31(水) 09:44:19.27ID:7JXzYhek
>>289
追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/ShbMRq8.jpg
>>299
プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう
追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/ShbMRq8.jpg
>>299
プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう
2022/08/31(水) 09:45:08.53ID:a80df6CR
hentai調まだ~
2022/08/31(水) 09:45:18.39ID:7JXzYhek
肝心な画像リンク間違えた
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/FeCmWYc.jpg
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/FeCmWYc.jpg
303名無しさん@お腹いっぱい。
2022/08/31(水) 10:14:56.73ID:0+/wzyQN 一部アナ雪感があるね
単品で見れば良い感じだけども
単品で見れば良い感じだけども
2022/08/31(水) 10:22:23.56ID:TWdEygjj
恐らくこのモデルの本領を発揮させるGreg Rutkowski的存在が居るんだろうけれども
それこそ魔術の実験のごとくトライアンドエラーでやるしかない
Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし
それこそ魔術の実験のごとくトライアンドエラーでやるしかない
Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし
2022/08/31(水) 10:24:29.88ID:zN1glaQU
彼らの言うアニメ調と我々の求めているアニメ調が違う可能性はある
ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは
ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは
2022/08/31(水) 10:25:29.13ID:7JXzYhek
SDのDicordでベータ版として、1.5でBOT生成できるようになった。 https://discord.gg/stablediffusion
#gbot-** チャンネルで /dream すれば使える
https://i.imgur.com/j6qyNHi.png
プロンプトは>>300と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。
体がおかしくなる場合があるのが直っているのかが気になる。
後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。
#gbot-** チャンネルで /dream すれば使える
https://i.imgur.com/j6qyNHi.png
プロンプトは>>300と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。
体がおかしくなる場合があるのが直っているのかが気になる。
後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。
2022/08/31(水) 10:40:41.37ID:TWdEygjj
>>305
このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない
それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない
このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない
それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない
2022/08/31(水) 10:42:18.44ID:7JXzYhek
2022/08/31(水) 11:18:48.82ID:H11m8WOT
美少女でやすい
illustration by Hyung-tae Kim, illustration by Shunya Yamashita, illustration by Ilya Kuvshinov.
illustration by Hyung-tae Kim, illustration by Shunya Yamashita, illustration by Ilya Kuvshinov.
2022/08/31(水) 11:35:30.68ID:XYW7XEtA
StableDiffusionがCPUでも動くみたいだから試してみよう…
と思ったんですけどこちらのやり方ってフィルタも外してくれるか分かる人いますか?
https://zenn.dev/karaage0703/articles/4901bf68536907
と思ったんですけどこちらのやり方ってフィルタも外してくれるか分かる人いますか?
https://zenn.dev/karaage0703/articles/4901bf68536907
311名無しさん@お腹いっぱい。
2022/08/31(水) 11:36:23.28ID:ZEEZAdV1 img2imgのsteps数て例えば20と70で大きく完成度が変わるとかありますか?
ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが
細部の描き込みがアップするとかなら上げまくるのですが
ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが
細部の描き込みがアップするとかなら上げまくるのですが
312名無しさん@お腹いっぱい。
2022/08/31(水) 11:44:59.08ID:LDGpq/xh ベータ版がもう使えないのにいつまでも設定にベータが残ってて 新しく画像生成しようとすると「ベータ版がもう終わってるから無効!」って言われて作れん・・・セッティングで見てみても消せないし なんじゃこりゃ
2022/08/31(水) 12:04:39.24ID:7JXzYhek
>>311
これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard
このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925
https://i.imgur.com/3bnugiT.gif
デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも
これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard
このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925
https://i.imgur.com/3bnugiT.gif
デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも
2022/08/31(水) 12:08:04.67ID:YwNJW/mv
img2imgにイラストレーターが描いた複雑な背景絵を読ませてstrengthを強めにすると
元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね
人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど
世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな
元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね
人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど
世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな
2022/08/31(水) 12:14:21.52ID:CFJyKlPj
2022/08/31(水) 12:15:45.49ID:7JXzYhek
>>313
同じプロンプトで、サンプラだけk_eular_aにした例。 こちらはどんどん変わっていく。
この例は高精細化して良くなっていると思うけど「良い」かどうかは絵で違いそう
https://i.imgur.com/uTkzawm.jpg
https://i.imgur.com/RZ0xTo2.gif
同じプロンプトで、サンプラだけk_eular_aにした例。 こちらはどんどん変わっていく。
この例は高精細化して良くなっていると思うけど「良い」かどうかは絵で違いそう
https://i.imgur.com/uTkzawm.jpg
https://i.imgur.com/RZ0xTo2.gif
317名無しさん@お腹いっぱい。
2022/08/31(水) 12:15:50.23ID:ZEEZAdV12022/08/31(水) 12:19:22.65ID:HU9icYfL
基本は低いステップ数でたくさん試行して、良さげなの来たらシード固定して別のステップも試す感じでやってる
319名無しさん@お腹いっぱい。
2022/08/31(水) 12:19:35.19ID:ZEEZAdV1 >>316
この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます!
この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます!
320名無しさん@お腹いっぱい。
2022/08/31(水) 12:19:53.19ID:2CePEBWP >>284
https://yukishigure.booth.pm/items/4118603
省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。
https://yukishigure.booth.pm/items/4118603
省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。
321名無しさん@お腹いっぱい。
2022/08/31(水) 12:25:17.12ID:ZEEZAdV1 サンプラー選択もシード表示や入力も出来ない環境は止めた方がいいっぽいですね…
めっちゃ不便な気がしてきた…
めっちゃ不便な気がしてきた…
2022/08/31(水) 12:25:56.95ID:R4mtum0X
2022/08/31(水) 12:32:50.00ID:7JXzYhek
>>310
質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。
(我が家のゲーミング core i7) 0.31 it/s
(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s
質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。
(我が家のゲーミング core i7) 0.31 it/s
(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s
2022/08/31(水) 12:34:24.10ID:7JXzYhek
325名無しさん@お腹いっぱい。
2022/08/31(水) 12:38:24.59ID:YRaUvVtm >>322
ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな
ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな
2022/08/31(水) 12:42:26.02ID:652PsMA5
2022/08/31(水) 12:43:06.19ID:3pewwyta
そろそろハァインチューニンできるようになった?
328名無しさん@お腹いっぱい。
2022/08/31(水) 12:46:18.18ID:0Y62Qr9h2022/08/31(水) 12:47:53.96ID:7JXzYhek
2022/08/31(水) 12:58:05.95ID:TWdEygjj
Textual-Inversionはメチャクチャに強力なのにTrainできる環境が限られてるからあまり触れられないな
コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか
コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか
2022/08/31(水) 12:59:06.71ID:HU9icYfL
Windowsでファインチューニングに挑戦したけど「NCCLが無い」的なエラー
そこでバックエンドをNCCLからglooに変えたりWindowsで動くように調整したのが以下のForkみたい
https://github.com/nicolai256/Stable-textual-inversion_win
ただこれでも自分の環境では動かせてない(3060だからダメ元だけど)
そこでバックエンドをNCCLからglooに変えたりWindowsで動くように調整したのが以下のForkみたい
https://github.com/nicolai256/Stable-textual-inversion_win
ただこれでも自分の環境では動かせてない(3060だからダメ元だけど)
2022/08/31(水) 13:00:38.33ID:UCPx4zKR
cpu版導入できる人ならPC自作した方がトータルの時間は短い気がする
2022/08/31(水) 13:13:45.14ID:TWdEygjj
どうしてもローカルで試したい人か
VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない
VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない
2022/08/31(水) 13:23:30.38ID:JOlEfRpH
335名無しさん@お腹いっぱい。
2022/08/31(水) 14:05:24.06ID:7cXyioL32022/08/31(水) 14:05:39.14ID:qanyxD9p
数枚のイメージでちゃちゃっと学習して参考にしますよって感じのを
一気にするから20GBなんかな
そのうち便利になって少RAMでいけそうだね
一気にするから20GBなんかな
そのうち便利になって少RAMでいけそうだね
2022/08/31(水) 14:11:21.65ID:HbV0Uggc
AIのべりすとの開発者がアニメ漫画モデル出してる
https://huggingface.co/naclbit/trinart_stable_diffusion
https://huggingface.co/naclbit/trinart_stable_diffusion
338名無しさん@お腹いっぱい。
2022/08/31(水) 14:12:20.36ID:jSDS99QG >>18の手順のWebGUIが機能豊富だけど画像複数出したタイミングでコマンドプロンプトが固まってしまう(エラーも何も出ない、optimized-turbo設定は有り)
同じような事象出てるかたいらっしゃいます?
OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion
同じような事象出てるかたいらっしゃいます?
OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion
339名無しさん@お腹いっぱい。
2022/08/31(水) 14:14:37.62ID:jSDS99QG >>338
固まるのは繰り返しの1回目が100%になったタイミングです
固まるのは繰り返しの1回目が100%になったタイミングです
340名無しさん@お腹いっぱい。
2022/08/31(水) 14:15:49.90ID:dBoz9MHm 真面目に聞きたいんだけど
ぺこらとか吉岡里穂のエッチな奴作れますか?
作れるなら30万のPC買って頑張ろうと思う
ぺこらとか吉岡里穂のエッチな奴作れますか?
作れるなら30万のPC買って頑張ろうと思う
2022/08/31(水) 14:19:26.83ID:a80df6CR
PCスペックは毎年更新されていくから買い時が難しい
少なくとも今は時期が悪い(マジで)
少なくとも今は時期が悪い(マジで)
2022/08/31(水) 14:20:25.01ID:JOlEfRpH
2022/08/31(水) 14:22:07.37ID:FeqUuVXi
今のところ顔は何とかなっても体がぐにゃぐにゃなんで
バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい
バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい
2022/08/31(水) 14:22:30.20ID:JOlEfRpH
345名無しさん@お腹いっぱい。
2022/08/31(水) 14:24:25.49ID:LDGpq/xh midjourney やっぱベータ版が消えねんだがどうするべこれ・・・分からん
2022/08/31(水) 14:30:26.97ID:IYmA/OkF
電子透かし、高解像度化すると跡形もなく消え失せるな
これなんの意味もないだろ…
これなんの意味もないだろ…
2022/08/31(水) 14:36:55.62ID:HU9icYfL
>>338
最新版(今日の13:44)でoptimized-turbo+複数枚試したけど再現しなかった
最新版(今日の13:44)でoptimized-turbo+複数枚試したけど再現しなかった
2022/08/31(水) 14:39:57.34ID:YwNJW/mv
>>338
hlky版は機能豊富な代わりに結構不安定で俺の環境でも同じエラー起きるよ
hlky版は機能豊富な代わりに結構不安定で俺の環境でも同じエラー起きるよ
2022/08/31(水) 14:47:29.41ID:JOlEfRpH
nightlyどころじゃなくmainからそのまま引っ張ってきてるだけだしなぁ
時間単位で新機能やバグが盛られていくからそこはどうしようもない
時間単位で新機能やバグが盛られていくからそこはどうしようもない
350名無しさん@お腹いっぱい。
2022/08/31(水) 14:55:58.96ID:fO/vpwbQ 4ちゃんとかここと比べてツイッターの日本人連中がプロンプト秘匿すんの陰湿だなぁと思ってたけど特定絵師の名前とか入ってたらそら我が身可愛さに秘匿するか
2022/08/31(水) 14:56:45.50ID:HU9icYfL
>>338
不具合報告あった
[BUG] optimized version endlessly hangs with batchsize > 1
https://github.com/hlky/stable-diffusion-webui/issues/337
不具合は不具合っぽいけど、書いてある通り複数枚出す時BatchCountの方を増やせば良いとも思う
不具合報告あった
[BUG] optimized version endlessly hangs with batchsize > 1
https://github.com/hlky/stable-diffusion-webui/issues/337
不具合は不具合っぽいけど、書いてある通り複数枚出す時BatchCountの方を増やせば良いとも思う
352名無しさん@お腹いっぱい。
2022/08/31(水) 14:58:35.83ID:dBoz9MHm2022/08/31(水) 15:01:35.12ID:JZUb2p3q
草
2022/08/31(水) 15:02:22.90ID:zUWDSbVs
サイズの大きさと必要VRamの量の関係明らかにおかしいよねバグってんの?
それとも指数関数的に伸びてんのか
それとも指数関数的に伸びてんのか
2022/08/31(水) 15:05:04.47ID:UCPx4zKR
ssdの寿命をマッハにしてdirectstrageでTBサイズのメモリ領域とか出来んのかな
2022/08/31(水) 15:11:22.54ID:YwNJW/mv
VRAMとメインメモリ間の転送速度はVRAMアクセスに比べたら地獄のように遅いから
仮想メモリって訳にはいかないだろうなぁ
仮想メモリって訳にはいかないだろうなぁ
2022/08/31(水) 15:12:14.13ID:zpJRZegl
2022/08/31(水) 15:15:35.78ID:HbV0Uggc
1.5ベータがあまり良くないらしい
2022/08/31(水) 15:19:54.00ID:HbV0Uggc
by Makoto Shinkaiでよかったのがpainted by Makoto Shinkaiでなければなくなった可能性
https://boards.4channel.org/g/thread/88374906#p88375987
https://boards.4channel.org/g/thread/88374906#p88375987
360名無しさん@お腹いっぱい。
2022/08/31(水) 15:28:50.77ID:v+o9JuZK2022/08/31(水) 15:50:02.23ID:D3y2Mqc1
みんなしてcolabでSD動かしたせいでGPU使用制限入るってよ。ゲーミングPC買っとけ。
2022/08/31(水) 15:51:53.74ID:YwNJW/mv
pythonのエラーで出たエラーメッセージをコピペミスで知らない間に貼り付けたら
めっちゃそれらしい絵が出てワロタ
多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな
めっちゃそれらしい絵が出てワロタ
多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな
2022/08/31(水) 15:56:23.30ID:7JXzYhek
>>354
VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね
●解像度、オプション別メモリ使用量
https://i.imgur.com/oua3N5o.png
●解像度、オプション別速度
https://i.imgur.com/foHVTGQ.png
やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない
余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw
今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo
測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5
2080Ti
VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね
●解像度、オプション別メモリ使用量
https://i.imgur.com/oua3N5o.png
●解像度、オプション別速度
https://i.imgur.com/foHVTGQ.png
やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない
余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw
今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo
測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5
2080Ti
2022/08/31(水) 15:58:09.66ID:jIyX+Yoe
プロンプト魔術はまだまだ未開
うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる
アーマードコアにそんなに人間の顔出てないだろと
メカメカしくなるからかわいい絵を出したいときに使えんし
うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる
アーマードコアにそんなに人間の顔出てないだろと
メカメカしくなるからかわいい絵を出したいときに使えんし
365名無しさん@お腹いっぱい。
2022/08/31(水) 16:01:14.82ID:7cXyioL3 --optimized-turbo付けると画像が変わってしまうのは普通?
2022/08/31(水) 16:03:15.36ID:ZhQ0I+2T
やっぱ制限入るのかw既視感のある流れだな
グラボ買うか迷うな今は時期が良いとか聞くけど
グラボ買うか迷うな今は時期が良いとか聞くけど
2022/08/31(水) 16:05:25.23ID:MOoOO0TP
colab proにしたら24GBのGPUで月1000円か
Proでも制限入るのかな?
Proでも制限入るのかな?
2022/08/31(水) 16:05:38.42ID:niavZolB
2022/08/31(水) 16:07:05.62ID:jIyX+Yoe
Proが使用量制になるみたいだな
今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど
これからは使用時間がカッチリ決まっててそれ以上は追加料金
無料は元々完全無保証なんでこれからどんどんキツくなるだろう
今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど
これからは使用時間がカッチリ決まっててそれ以上は追加料金
無料は元々完全無保証なんでこれからどんどんキツくなるだろう
2022/08/31(水) 16:10:05.62ID:XndxSfH7
グーグル「あと、為替変動の連動制だから値上げしますね」
2022/08/31(水) 16:10:27.80ID:7JXzYhek
>>365
今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5
●オプションなし webui.cmd
https://i.imgur.com/qOxRWQT.png
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%
●python scripts\webui.py --optimized-turbo
https://i.imgur.com/fxpSKJU.png
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988%
今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5
●オプションなし webui.cmd
https://i.imgur.com/qOxRWQT.png
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%
●python scripts\webui.py --optimized-turbo
https://i.imgur.com/fxpSKJU.png
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988%
372名無しさん@お腹いっぱい。
2022/08/31(水) 16:11:59.42ID:7cXyioL32022/08/31(水) 16:12:37.89ID:7JXzYhek
2022/08/31(水) 16:19:06.68ID:jIyX+Yoe
optimizedは所々の演算精度を若干落としてるんでバイナリ一致は無い
けれども本当に若干なので出る結果に大きな影響も無い
それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい
後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい
こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる
けれども本当に若干なので出る結果に大きな影響も無い
それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい
後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい
こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる
2022/08/31(水) 16:20:34.06ID:niavZolB
2022/08/31(水) 16:23:47.00ID:uM0bhwjb
2022/08/31(水) 16:24:29.49ID:HbV0Uggc
webuiは本流にしかない機能もあるのでお試しあれ
https://github.com/AUTOMATIC1111/stable-diffusion-webui
https://rentry.org/kretard
https://github.com/AUTOMATIC1111/stable-diffusion-webui
https://rentry.org/kretard
2022/08/31(水) 16:39:03.98ID:7JXzYhek
>>374
ありがとうございます。
python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu
での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。
速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。
https://i.imgur.com/YWiQ5NS.png
https://i.imgur.com/Yrfkp4w.png
ありがとうございます。
python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu
での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。
速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。
https://i.imgur.com/YWiQ5NS.png
https://i.imgur.com/Yrfkp4w.png
2022/08/31(水) 16:45:05.06ID:niavZolB
>>374
有益情報ありがとうございます
有益情報ありがとうございます
2022/08/31(水) 16:45:23.35ID:5drfoS0p
Coladはなんかわかりにくいけどこのコンピューティングユニットってやつが来月から導入されるってことらしい
リソースがどれくらいかわからんからまだ待ちでいいかな
リソースがどれくらいかわからんからまだ待ちでいいかな
2022/08/31(水) 16:51:53.04ID:Cm13UlUY
アーマードコア入れたら顔が整うって書いてあるからまたまた~と思って入れたら
本当に顔が整う率上がって笑う
でもアーマーって認識するのかたまに指示してないのに鎧を着だす
本当に顔が整う率上がって笑う
でもアーマーって認識するのかたまに指示してないのに鎧を着だす
382名無しさん@お腹いっぱい。
2022/08/31(水) 16:52:48.40ID:V0edTUl/ >>310
ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ
ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ
2022/08/31(水) 16:53:35.08ID:7JXzYhek
>>377
流石に流れが早すぎて試す元気ないですけどw
・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?
良さげな機能多いですね。hlkyか公式にマージされて欲しい
流石に流れが早すぎて試す元気ないですけどw
・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?
良さげな機能多いですね。hlkyか公式にマージされて欲しい
2022/08/31(水) 17:00:08.30ID:H11m8WOT
NMKD Stable Diffusion GUI - AI Image Generator
https://nmkd.itch.io/t2i-gui
https://nmkd.itch.io/t2i-gui
2022/08/31(水) 17:11:07.65ID:udNZlD3m
colabは新しく制限が増えるんじゃなくて制限されても追加で買えるようにするって感じじゃないの?
使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし
よくある質問に書いてあることがフワっとしてていまいちわかんないけど
使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし
よくある質問に書いてあることがフワっとしてていまいちわかんないけど
2022/08/31(水) 17:31:22.42ID:cE0mlTk6
絵からプロンプトを逆生成して欲しくなってきた
2022/08/31(水) 17:31:46.07ID:6tkyY/9/
ポーズはこう
絵柄はこう
パースや背景は適当って指定でどれくらい描けるのか
絵柄はこう
パースや背景は適当って指定でどれくらい描けるのか
388名無しさん@お腹いっぱい。
2022/08/31(水) 17:36:12.17ID:jSDS99QG >>351
ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます
ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます
2022/08/31(水) 17:39:42.35ID:H11m8WOT
23億枚もの画像で構成された画像生成AI「Stable Diffusion」のデータセットのうち1200万枚がどこから入手した画像かを調査した結果が公開される
https://gigazine.net/news/20220831-exploring-stable-diffusions/
https://gigazine.net/news/20220831-exploring-stable-diffusions/
2022/08/31(水) 17:45:59.09ID:HbV0Uggc
391名無しさん@お腹いっぱい。
2022/08/31(水) 17:57:07.30ID:Wk6j/3SY2022/08/31(水) 18:06:52.96ID:7JXzYhek
>>390
> hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw
試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
https://i.imgur.com/jGgRIoI.jpg
これは検証便利!
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5
> hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw
試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
https://i.imgur.com/jGgRIoI.jpg
これは検証便利!
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5
2022/08/31(水) 18:12:31.87ID:7JXzYhek
貼り忘れ
DDIM https://i.imgur.com/owdx6pO.jpg
DDIM https://i.imgur.com/owdx6pO.jpg
2022/08/31(水) 18:18:35.73ID:UOiQedJL
2022/08/31(水) 18:20:25.39ID:HbV0Uggc
urlを貼れないのでAUTOMATIC1111版は4chanでヴォルデモート版と呼ばれている
なぜ貼れないのかは作者の別リポジトリを見ればわかる
なぜ貼れないのかは作者の別リポジトリを見ればわかる
2022/08/31(水) 18:21:40.78ID:rEU5H7B1
2022/08/31(水) 18:21:42.46ID:UOiQedJL
398名無しさん@お腹いっぱい。
2022/08/31(水) 18:23:22.99ID:rILdr+fd Mjのtestは整いすぎて詰め込むと色々反映されないな
2022/08/31(水) 18:38:39.36ID:UOiQedJL
知識神と検証神のタッグで捗りまくりだ・・
cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど
あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui
この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど
あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui
この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
2022/08/31(水) 18:44:19.22ID:HU9icYfL
weightについてはhlky版でもMJ風のが使えるらしいんだけど、これで使えてることになってるんだろうか
long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/dsXPJ8K.jpg
long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/Gdy4VRv.jpg
気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど
long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/dsXPJ8K.jpg
long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/Gdy4VRv.jpg
気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど
2022/08/31(水) 18:52:23.00ID:YwNJW/mv
中国のERNIE-ViLG、アニメ絵に格段に強いな
違和感ない初音ミクのイラストが余裕で生成されてる
違和感ない初音ミクのイラストが余裕で生成されてる
2022/08/31(水) 18:58:13.93ID:YqqnkzgM
>>399
> 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする
アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど
AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽)
●AUTOMATIC1111のインストールメモ
https://github.com/AUTOMATIC1111/stable-diffusion-webui
・minicondaで任意のディレクトリを作って以下を実行
python -m venv auto1111 ※auto1111の名前はなんでもいい
auto1111\scripts\activate
・後は、Instructions:を動かす
以下の2つは別途ダウンロードして配置が必要
models\ldm\stable-diffusion-v1\model.ckpt
table-diffusion-webui\GFPGANv1.3.pth
●起動時
minicondaで、
auto1111\scripts\activate
python stable-diffusion-webui/webui.py
> 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする
アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど
AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽)
●AUTOMATIC1111のインストールメモ
https://github.com/AUTOMATIC1111/stable-diffusion-webui
・minicondaで任意のディレクトリを作って以下を実行
python -m venv auto1111 ※auto1111の名前はなんでもいい
auto1111\scripts\activate
・後は、Instructions:を動かす
以下の2つは別途ダウンロードして配置が必要
models\ldm\stable-diffusion-v1\model.ckpt
table-diffusion-webui\GFPGANv1.3.pth
●起動時
minicondaで、
auto1111\scripts\activate
python stable-diffusion-webui/webui.py
2022/08/31(水) 18:58:22.34ID:+U009j/8
>>400
hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
>>399
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い
ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな
hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
>>399
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い
ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな
2022/08/31(水) 19:02:13.10ID:UOiQedJL
405名無しさん@お腹いっぱい。
2022/08/31(水) 19:04:14.21ID:V0edTUl/ hlkyでマスクペインティング実装あついな
Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change
Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change
406名無しさん@お腹いっぱい。
2022/08/31(水) 19:05:14.46ID:1v6mZLS0 この手のサービス海外に持ってかれるとかツイッターじゃ喚いてるけど実際どうなん?
オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが
オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが
2022/08/31(水) 19:11:20.94ID:kwfim+js
2022/08/31(水) 19:17:13.15ID:HU9icYfL
2022/08/31(水) 19:31:13.61ID:H11m8WOT
シド・ミードによる「シャア専用ザク」のデザイン案
https://i.imgur.com/qEP9w7Z.jpg
https://i.imgur.com/qEP9w7Z.jpg
2022/08/31(水) 19:37:46.62ID:UOiQedJL
webuiのスライダーって←→キー効くんだね・・必死にプルプル合わせてた
2022/08/31(水) 19:42:09.99ID:HbV0Uggc
>>409
現状のSDって版権を認識できてもキャラとかはわからないんだよね
現状のSDって版権を認識できてもキャラとかはわからないんだよね
2022/08/31(水) 19:43:52.15ID:YqqnkzgM
2022/08/31(水) 19:51:53.14ID:uM0bhwjb
414名無しさん@お腹いっぱい。
2022/08/31(水) 19:59:12.25ID:V0edTUl/ k_euler_aとか cfgの機能の説明ってどこで読める?
2022/08/31(水) 20:02:39.95ID:3pewwyta
google?
2022/08/31(水) 20:04:56.62ID:HbV0Uggc
417名無しさん@お腹いっぱい。
2022/08/31(水) 20:19:03.24ID:V0edTUl/ >>416
見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど
見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど
2022/08/31(水) 20:31:11.52ID:QPzu56HE
hlky版構築したけどGRiskの方が便利じゃない?
自動で全部保存してくれるんだもの
自動で全部保存してくれるんだもの
2022/08/31(水) 20:32:12.98ID:kyfXRT5N
>>417
正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、
Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか
という数字なので大きい=プロンプト通りになりやすいということだと思います。
portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。
https://i.imgur.com/7gFaxEZ.jpg
普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。
正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、
Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか
という数字なので大きい=プロンプト通りになりやすいということだと思います。
portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。
https://i.imgur.com/7gFaxEZ.jpg
普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。
2022/08/31(水) 20:32:36.61ID:uiWThNTM
手はどうしたらうまくいくのか
現時点では無理なのかな
現時点では無理なのかな
2022/08/31(水) 20:34:36.34ID:kyfXRT5N
2022/08/31(水) 20:37:04.74ID:kyfXRT5N
>>420
手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw
とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね
手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw
とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね
2022/08/31(水) 20:40:57.15ID:niavZolB
手は、今のマスク機能がもっといい感じに動くようになったら
手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど
現状は手書きで治すしかないな
そういう意味でも今はちゃんと使うにはある程度の画力が必要
手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど
現状は手書きで治すしかないな
そういう意味でも今はちゃんと使うにはある程度の画力が必要
2022/08/31(水) 20:41:51.56ID:UOiQedJL
webuiの各種パラメーター情報って保存できないのかな?
ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね
ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね
2022/08/31(水) 20:47:11.43ID:HU9icYfL
>>384
img2imgっぽいのあるし良さそう
https://i.imgur.com/WjEzMBI.png
ただ起動してから追加インストール求められて環境汚れそうなのでここ以降試してない
>>424
configs/webui/webui.yaml が画面の初期状態を決める設定ファイルになってるよ
img2imgっぽいのあるし良さそう
https://i.imgur.com/WjEzMBI.png
ただ起動してから追加インストール求められて環境汚れそうなのでここ以降試してない
>>424
configs/webui/webui.yaml が画面の初期状態を決める設定ファイルになってるよ
426名無しさん@お腹いっぱい。
2022/08/31(水) 20:49:46.15ID:V0edTUl/2022/08/31(水) 20:52:26.37ID:niavZolB
>>425
横レスだけど初期設定情報ありがとう
横レスだけど初期設定情報ありがとう
428名無しさん@お腹いっぱい。
2022/08/31(水) 20:58:35.73ID:v+o9JuZK 手は手だけマスクしてStrength下げながら
ちょっと修正→img2img→ちょっと修正...
を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい
ちょっと修正→img2img→ちょっと修正...
を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい
429名無しさん@お腹いっぱい。
2022/08/31(水) 20:59:23.92ID:E8xhK8gF わしプログラミングとかよくわからんから適当にローカルで組んで一から動いて1枚生成されるのを確認して、それを30個分動かすバッチファイル作ってパワー型な生成作業をやってるんだけどみんなスマートやなすごいわ。
2022/08/31(水) 21:03:49.25ID:wqoaJrTD
EmadさんDISCORD情報 2022/8/31
・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。
100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか?
でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?)
我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる
※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味?
・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。
→ パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。
めっちゃ威勢がいいな
・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。
100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか?
でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?)
我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる
※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味?
・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。
→ パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。
めっちゃ威勢がいいな
2022/08/31(水) 21:04:45.64ID:UOiQedJL
432名無しさん@お腹いっぱい。
2022/08/31(水) 21:07:25.35ID:kBmvzRjm >>422
GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい
GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい
2022/08/31(水) 21:09:44.24ID:0LAKFU7C
>>429
バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui
AUTOMATIC1111インストールして >>402、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code
バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui
AUTOMATIC1111インストールして >>402、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code
434名無しさん@お腹いっぱい。
2022/08/31(水) 21:10:07.84ID:kBmvzRjm >>430
int8使えるなら4000シリーズ発売まで待つのが良さそう
int8使えるなら4000シリーズ発売まで待つのが良さそう
2022/08/31(水) 21:12:10.94ID:HbV0Uggc
AUTOMATIC1111版(本家webui)のUser scripts解説リンク
https://github.com/AUTOMATIC1111/stable-diffusion-webui#user-scripts
https://github.com/AUTOMATIC1111/stable-diffusion-webui#user-scripts
436名無しさん@お腹いっぱい。
2022/08/31(水) 21:14:23.18ID:ithyLEdb >>430
15まてばグラボ新調しなくてよくなるんかな
15まてばグラボ新調しなくてよくなるんかな
2022/08/31(水) 21:20:40.72ID:UOiQedJL
また質問、一応英語で検索したけどわからなかった
img2imgのMaskのヒントに
webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど
マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか?
img2imgのMaskのヒントに
webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど
マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか?
2022/08/31(水) 21:21:28.52ID:kyfXRT5N
1.5は8/29のツイートで6日後=9/4予定なんだよね
予定通りリリースされるのかな
フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど
>>432
へー。ならそこまで時間かからずに実現しそうな気がするね
予定通りリリースされるのかな
フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど
>>432
へー。ならそこまで時間かからずに実現しそうな気がするね
2022/08/31(水) 21:25:18.90ID:6hQSzcZG
モノ持たせるの難しい…
2022/08/31(水) 21:39:10.36ID:5rpNn8CS
サンプラーの選択ってhlky版でしかできないの?
独自実装なのか…?
独自実装なのか…?
2022/08/31(水) 21:48:43.56ID:YwNJW/mv
ERNIE-ViLGってローカル実行できるんだな
初音ミク、可愛い、pixivと入力するだけでこれが出るのやべぇわ
1枚24秒くらいでSDよりやや遅いけどアニメ絵に関しては性能が違い過ぎる
https://i.imgur.com/MZg883B.png
初音ミク、可愛い、pixivと入力するだけでこれが出るのやべぇわ
1枚24秒くらいでSDよりやや遅いけどアニメ絵に関しては性能が違い過ぎる
https://i.imgur.com/MZg883B.png
2022/08/31(水) 21:55:16.88ID:HbV0Uggc
>>440
え?
え?
2022/08/31(水) 22:02:42.98ID:5rpNn8CS
>>442
本家のコマンドの説明とかスクリプトの中身をみてもk_euler_aとかどこにも出てこないんだが
本家のコマンドの説明とかスクリプトの中身をみてもk_euler_aとかどこにも出てこないんだが
2022/08/31(水) 22:03:09.92ID:UOiQedJL
mask壊れてるしRegenerate選択消えたよね?・・って念のため最新にしたら治ってた
つかAspect Ratio指定が増えてた
つかAspect Ratio指定が増えてた
2022/08/31(水) 22:03:42.39ID:YwNJW/mv
ERNIE-ViLG、裸どころか水着すら規制でアウトかよ!
流石中国だな…やっぱSD以外はどこも規制してくるよな
流石中国だな…やっぱSD以外はどこも規制してくるよな
446名無しさん@お腹いっぱい。
2022/08/31(水) 22:05:47.06ID:v+o9JuZK https://ommer-lab.com/research/latent-diffusion-models/
最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな
最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな
2022/08/31(水) 22:07:30.36ID:YwNJW/mv
しかも規制解除とか不可能な作りっぽいな、やっぱ最終的にこうなるのかって感じ
性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも
性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも
2022/08/31(水) 22:07:34.39ID:HbV0Uggc
449名無しさん@お腹いっぱい。
2022/08/31(水) 22:10:24.59ID:ithyLEdb colaboはdeepfake禁止してるのでcolabo使ってる人はじつはやばいかもしれない
2022/08/31(水) 22:11:10.96ID:r2QKYHM5
トランプとバイデンに腕相撲させた俺はアウトですか
2022/08/31(水) 22:12:40.74ID:H11m8WOT
>>441
かわいい
かわいい
452名無しさん@お腹いっぱい。
2022/08/31(水) 22:14:27.39ID:ithyLEdb >>450
banですバンデン
banですバンデン
2022/08/31(水) 22:15:58.75ID:niavZolB
ERNIE-ViLGローカル行けるんか
とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな
GPUメモリがつれえ
とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな
GPUメモリがつれえ
2022/08/31(水) 22:16:03.83ID:5rpNn8CS
455名無しさん@お腹いっぱい。
2022/08/31(水) 22:21:44.68ID:0+/wzyQN ローカルも終了して防がれるのは時間の問題って感じだな
大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする
大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする
2022/08/31(水) 22:22:59.57ID:HbV0Uggc
>>454
webuiの話じゃなかったか…
webuiの話じゃなかったか…
2022/08/31(水) 22:29:49.51ID:t67CBVSY
初心者ですまん
人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい
人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい
2022/08/31(水) 22:30:51.39ID:YwNJW/mv
黒髪の少女、制服、pixivって3つの単語を中国語で入れるだけでこれが出てくるんだよなぁ
プロンプトの秘匿とかすぐ意味なくなるだろって思ってたけど数日でそうなるとはな
https://i.imgur.com/V6kJpnJ.png
プロンプトの秘匿とかすぐ意味なくなるだろって思ってたけど数日でそうなるとはな
https://i.imgur.com/V6kJpnJ.png
2022/08/31(水) 22:31:48.33ID:HbV0Uggc
2022/08/31(水) 22:35:44.01ID:HU9icYfL
2022/08/31(水) 22:36:01.91ID:H11m8WOT
2022/08/31(水) 22:37:24.09ID:t/f1eVtW
pixivをfanboxに変えたらどうなる?
精度がもっと高まりそう
精度がもっと高まりそう
2022/08/31(水) 22:38:54.96ID:HbV0Uggc
2022/08/31(水) 22:39:42.48ID:niavZolB
2022/08/31(水) 22:41:41.32ID:kDPmcmMs
>>457
例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない
例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない
2022/08/31(水) 22:48:53.74ID:t67CBVSY
467名無しさん@お腹いっぱい。
2022/08/31(水) 22:55:28.97ID:pjP7qJCI しかしここまで次々出てくると、絵を描くっていうのは機械にとっては簡単な事なんだろうなと認めざるを得んな
その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは
何かしら宇宙の意図みたいなもんを感じる
その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは
何かしら宇宙の意図みたいなもんを感じる
2022/08/31(水) 22:58:17.89ID:YwNJW/mv
無視される確率高いけど「風呂」は一応ありなんだ、水着はアウトなのに中国の検閲基準謎過ぎんよ
色々研究しないと分からんな
色々研究しないと分からんな
2022/08/31(水) 23:00:04.40ID:zUWDSbVs
いうてこのまま高度化していったらフェイクポルノとかフェイクニュースの画像作成が容易になって規制まっしぐらな気しかしないけどな
Googleが作ったpartiの記事見てて思った
Googleが作ったpartiの記事見てて思った
2022/08/31(水) 23:02:10.04ID:WWZkwmuf
2022/08/31(水) 23:03:10.26ID:UOiQedJL
>>460
あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead.
あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead.
2022/08/31(水) 23:10:27.59ID:kyfXRT5N
>>437,471
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",
とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",
とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど
473名無しさん@お腹いっぱい。
2022/08/31(水) 23:11:51.14ID:ithyLEdb2022/08/31(水) 23:12:18.93ID:kyfXRT5N
2022/08/31(水) 23:14:53.03ID:kyfXRT5N
2022/08/31(水) 23:25:43.98ID:YwNJW/mv
プロンプト秘匿するぞって言ってた連中がたった数日でERNIE凄すぎて
もう隠す意味ない公開しますって言い出してるの受けるわ
でもこっちはオープンソースと言いながらブラックボックス化されてるから
技術系のオタクの間では流行らんだろうな
もう隠す意味ない公開しますって言い出してるの受けるわ
でもこっちはオープンソースと言いながらブラックボックス化されてるから
技術系のオタクの間では流行らんだろうな
2022/08/31(水) 23:29:44.74ID:AHesThil
ERNIEがいいと思ってるのは一人だけな気がする
478名無しさん@お腹いっぱい。
2022/08/31(水) 23:31:11.14ID:v+o9JuZK ERNIEの絵なんかそこまで上手くないんだよ
479名無しさん@お腹いっぱい。
2022/08/31(水) 23:33:40.29ID:U489tiLr2022/08/31(水) 23:33:51.04ID:YwNJW/mv
ERNIEの検閲マジうぜぇな、ワードと生成画像両方に検閲あるみたいだ
やっぱSDがアニメに対応してくれるの待つしかないか
やっぱSDがアニメに対応してくれるの待つしかないか
2022/08/31(水) 23:39:31.81ID:HU9icYfL
>>473
Masking is not inpaintingとあるようにimg2imgの画面で触れるのはインペインティングとは別だよ
インペインティングはこういうの
https://ommer-lab.com/wp-content/uploads/2022/08/article-Figure12-1.png
Masking is not inpaintingとあるようにimg2imgの画面で触れるのはインペインティングとは別だよ
インペインティングはこういうの
https://ommer-lab.com/wp-content/uploads/2022/08/article-Figure12-1.png
2022/08/31(水) 23:41:40.72ID:GLYpgQfF
>>479
分からなくて全くの予想だけど
少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな
それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない
分からなくて全くの予想だけど
少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな
それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない
483名無しさん@お腹いっぱい。
2022/08/31(水) 23:42:30.12ID:V0edTUl/ >>363
24gbあれば10241024いけそう
24gbあれば10241024いけそう
484名無しさん@お腹いっぱい。
2022/08/31(水) 23:45:02.23ID:U489tiLr >>482
ども、どうなるか1.5出るの楽しみに待つか
ども、どうなるか1.5出るの楽しみに待つか
2022/08/31(水) 23:49:52.56ID:WWZkwmuf
今のimg2imgに入っているマスク機能
→指定した部分を処理後に丸ごと戻して無かったことにする力業
インペインティング
→指定した部分を変えないように処理の中身から変えてしまう
処理中も指定した部分は多少劣化する以外変わらない
→指定した部分を処理後に丸ごと戻して無かったことにする力業
インペインティング
→指定した部分を変えないように処理の中身から変えてしまう
処理中も指定した部分は多少劣化する以外変わらない
486名無しさん@お腹いっぱい。
2022/08/31(水) 23:57:00.91ID:ithyLEdb >>481
でもAlmost inpainting-like behaviourともいってんで
https://github.com/hlky/stable-diffusion-webui/pull/308
でもAlmost inpainting-like behaviourともいってんで
https://github.com/hlky/stable-diffusion-webui/pull/308
2022/08/31(水) 23:57:06.09ID:fdFcVPE4
Discordのウエイトが4GBから100MBになる予定って聞いた人が、
自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある
けど100MBはすごい。どうするんだろう、と言ってた。
何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw
自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある
けど100MBはすごい。どうするんだろう、と言ってた。
何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw
2022/09/01(木) 00:00:31.84ID:6M30CA6o
例えば
・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる)
・背景にあるロゴを塗って、ロゴを消す
この2つ混同してた。違う技術なのか
・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる)
・背景にあるロゴを塗って、ロゴを消す
この2つ混同してた。違う技術なのか
2022/09/01(木) 00:13:22.82ID:GThaU77M
ソース見たけど大体一緒じゃない?
本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし
webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで
本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし
webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで
2022/09/01(木) 00:15:00.75ID:QIWR5R19
最近ここでは話題にならないけどMJさんはさすがだな・・
https://twitter.com/bugsing/status/1564800454017572866
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/bugsing/status/1564800454017572866
https://twitter.com/5chan_nel (5ch newer account)
2022/09/01(木) 00:22:57.95ID:6M30CA6o
>>490
MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw
SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど
MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw
SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど
2022/09/01(木) 00:26:44.20ID:TF0w6Xlc
テクスチャ目的の素材が欲しくて最近SD触ってるんだが
いまいち良い感じの物が出ないな
ゆがんでたり細かいところがおかしかったりする
MJと比べたら写真っぽいものが出てくれるだけでありがたいが
いまいち良い感じの物が出ないな
ゆがんでたり細かいところがおかしかったりする
MJと比べたら写真っぽいものが出てくれるだけでありがたいが
2022/09/01(木) 00:28:22.99ID:QIWR5R19
--testとかリラックスマンには順番回ってこないし・・くやしい(金払えよ)
2022/09/01(木) 00:44:52.35ID:CbkORyGo
2022/09/01(木) 00:47:18.76ID:CbkORyGo
2022/09/01(木) 00:49:12.37ID:+Su13zNo
シャッターストック
pixaby
Adobeストック
これらのフォトライブラリーもいらなくなってくるんじゃ
pixaby
Adobeストック
これらのフォトライブラリーもいらなくなってくるんじゃ
2022/09/01(木) 01:00:22.46ID:c88dAiP2
中国版触ってみたけど、銀髪ってやっても銀髪にならねーじゃん
でも、絵柄は好み
SDも早くアニメに対応してくれー
でも、絵柄は好み
SDも早くアニメに対応してくれー
2022/09/01(木) 01:08:14.37ID:c88dAiP2
>>497だけど、ちゃんと中国語にしたら対応したわw
使い方わかってなかった
使い方わかってなかった
2022/09/01(木) 01:12:50.51ID:PdzALkAA
この人達のTwitter(とPixiv)がプロント全公開で色々試してるからおすすめ
https://twitter.com/monja49/status/1564921148122337280
https://twitter.com/td2sk/status/1564974580329943041
https://twitter.com/wkmk06yr1/status/1563884032639004677
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/monja49/status/1564921148122337280
https://twitter.com/td2sk/status/1564974580329943041
https://twitter.com/wkmk06yr1/status/1563884032639004677
https://twitter.com/5chan_nel (5ch newer account)
2022/09/01(木) 01:19:50.23ID:XHkCZM5O
collection of poses(ポーズ集)でバストショットや顔ドアップをほぼ確定的に無くすことができた
(とりんさまモデルで生成)
https://i.imgur.com/iGLSegV.png
https://i.imgur.com/FJsKdqB.png
https://i.imgur.com/goelyjt.png
あとanatomical chartとArmored Coreの悪魔合体とかいう凶悪実験をやらかした時のチェリーピック(オリジナル1.4)
https://i.imgur.com/Sw8Z07C.png
https://i.imgur.com/5tEJTNg.png
(とりんさまモデルで生成)
https://i.imgur.com/iGLSegV.png
https://i.imgur.com/FJsKdqB.png
https://i.imgur.com/goelyjt.png
あとanatomical chartとArmored Coreの悪魔合体とかいう凶悪実験をやらかした時のチェリーピック(オリジナル1.4)
https://i.imgur.com/Sw8Z07C.png
https://i.imgur.com/5tEJTNg.png
2022/09/01(木) 01:24:16.12ID:0fj+eXEr
502名無しさん@お腹いっぱい。
2022/09/01(木) 01:35:15.50ID:hTQNZtKo 今のところ著作権で問題になるのはプロンプトだけかな?
特定の著作物を指定して画像を作成した場合は問題になりそうだけど
プロンプトがわからない場合はセーフって感じ?
画像からプロンプトがわかるようになったらそれを証拠に
訴えられるケースは増えるような気はする。
特定の著作物を指定して画像を作成した場合は問題になりそうだけど
プロンプトがわからない場合はセーフって感じ?
画像からプロンプトがわかるようになったらそれを証拠に
訴えられるケースは増えるような気はする。
2022/09/01(木) 01:40:08.14ID:Dh/0wfLL
>>502
知財に詳しい弁護士に聞くといい。そしてスレチ
知財に詳しい弁護士に聞くといい。そしてスレチ
2022/09/01(木) 02:06:23.45ID:QkBe+6Dp
そのうち最適化が進めば4GBや6GBでも解像度2048や4096くらいの生成が可能なんだろか
ファイルサイズは小さくなってるみたいだけど
最適化進んでグラボ買わずに済むなら良いんだけど
ファイルサイズは小さくなってるみたいだけど
最適化進んでグラボ買わずに済むなら良いんだけど
2022/09/01(木) 02:17:05.63ID:me/Ldzs0
>>500
顔入りの全身見せてくれよってパターンがかなりあったんでコレは助かる
顔入りの全身見せてくれよってパターンがかなりあったんでコレは助かる
2022/09/01(木) 02:34:29.15ID:CbkORyGo
2022/09/01(木) 02:41:45.12ID:Dh/0wfLL
>>506
ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。
買う人いるのかな
ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。
買う人いるのかな
2022/09/01(木) 03:11:17.95ID:FKOT9Ej7
2022/09/01(木) 03:22:23.72ID:FKOT9Ej7
1024x1024のキャンバスをどんどん追加して最終的にデカい画像を作る機能のβがダリEに来たらしい
https://openai.com/blog/dall-e-introducing-outpainting/
i2iも可能、部分マスクも可能
フォトバッシュしやすくなるやつだな
https://openai.com/blog/dall-e-introducing-outpainting/
i2iも可能、部分マスクも可能
フォトバッシュしやすくなるやつだな
2022/09/01(木) 03:29:53.01ID:QIWR5R19
興味深い記事だった
アーティストの権利侵害やポルノ生成などの問題も浮上する画像生成AI「Stable Diffusion」の仕組みとは?
https://gigazine.net/news/20220831-stable-diffusion-process-performance/
総合かと思ったけどこっちで十分な内容
DALLE2のが上なんだな
アーティストの権利侵害やポルノ生成などの問題も浮上する画像生成AI「Stable Diffusion」の仕組みとは?
https://gigazine.net/news/20220831-stable-diffusion-process-performance/
総合かと思ったけどこっちで十分な内容
DALLE2のが上なんだな
2022/09/01(木) 03:40:08.44ID:GThaU77M
2022/09/01(木) 03:45:29.40ID:FKOT9Ej7
>>510
SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの https://i.imgur.com/UL5TV6R.png
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな
SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの https://i.imgur.com/UL5TV6R.png
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな
2022/09/01(木) 03:46:47.52ID:QIWR5R19
上手くアルゴリズム組まないと同じ何かが反復してスタンプみたいにあちこちにポンポンできそう
中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ
中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ
2022/09/01(木) 04:03:47.32ID:I13At7XI
限界を感じてきた
どんなに頑張っても同じようなのばっかり出てくるのは
しょせん学習サンプルを超えられないということなのではないか
真の意味でのクリエティビティや創造はここにない気がする
どんなに頑張っても同じようなのばっかり出てくるのは
しょせん学習サンプルを超えられないということなのではないか
真の意味でのクリエティビティや創造はここにない気がする
2022/09/01(木) 04:32:17.37ID:nqkYlpXR
複数画像出力して一番いい画像選択+テキストで指示を追加を繰り返す みたいな感じにするとかやりたいな…
2022/09/01(木) 04:36:22.00ID:ByM9Ck8F
なんかAIで3Dモデルを起こしてくれるサービスが実は裏で人力を使ってたってニュースなかったっけ
2022/09/01(木) 04:45:24.81ID:hAqsSGJL
AIってのはあくまでも人間の補佐だよ またスレ違いって言われそうだけど
518名無しさん@お腹いっぱい。
2022/09/01(木) 05:21:44.90ID:jmQQ3ISX DALLE2が進化したってメール来た
2022/09/01(木) 05:25:54.45ID:FKOT9Ej7
>>509
これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
https://i.imgur.com/93Kck9t.mp4
これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
https://i.imgur.com/93Kck9t.mp4
2022/09/01(木) 05:45:16.16ID:RgmRIZo5
まだ出て一週間だぞw
モデルもデータもまだまだ進化する
我々が死んだ後も進化は止まらないだろう
モデルもデータもまだまだ進化する
我々が死んだ後も進化は止まらないだろう
2022/09/01(木) 06:28:58.34ID:8ol9Mp+w
以下私の理解・解釈が入っているので気になる方は原文をお読みください。
●k_eular_aが優れた結果を出す不思議さ
https://twitter.com/iScienceLuvr/status/1564847717066559488
https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png
○前置き
・SDは、ディフュージョンモデルの一種。
ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。
・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す
これにより大幅に計算量を減らすことができる。
○サンプラー
・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。
・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。
k_がつくものはキャサリンのk-diffusionリポジトリから来ている。
・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。
なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。
・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。
---
k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな?
https://twitter.com/5chan_nel (5ch newer account)
●k_eular_aが優れた結果を出す不思議さ
https://twitter.com/iScienceLuvr/status/1564847717066559488
https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png
○前置き
・SDは、ディフュージョンモデルの一種。
ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。
・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す
これにより大幅に計算量を減らすことができる。
○サンプラー
・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。
・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。
k_がつくものはキャサリンのk-diffusionリポジトリから来ている。
・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。
なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。
・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。
---
k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな?
https://twitter.com/5chan_nel (5ch newer account)
2022/09/01(木) 06:33:31.62ID:vKGYRvy5
本当に凄い事を体感できるのはまだ一部の人だけ
大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる
大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる
2022/09/01(木) 06:52:22.16ID:5Jvvylgn
推しのグラドルで1晩ファイーンしたらいい感じになった(チラシの裏)
2022/09/01(木) 06:53:14.12ID:KXyxb8am
写真でもイラストでも、顔のアップからバストショットくらいまでは造形良いのに、そこから少し離れると途端に崩れ出すのはなぜなのか。
525名無しさん@お腹いっぱい。
2022/09/01(木) 07:45:07.26ID:IcIXNUdC 学習データが顔のアップとバストショットばかりだから
2022/09/01(木) 07:47:15.63ID:heJVIBPh
>>524
顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ
人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う
顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ
人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う
2022/09/01(木) 09:03:35.16ID:Zv6bHwi8
腕の長さはともかく、たまに腕が3本あったり背中から腕が生えてるもんなあ…
2022/09/01(木) 09:13:27.06ID:D5fw/jUr
AI って腕すら描写できないポンコツなの?
2022/09/01(木) 09:16:21.89ID:BtcIwkr3
というより、顔と体の両方を最適化するのがしんどいんだと。
SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。
SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。
2022/09/01(木) 09:39:37.18ID:e4ZLA3Xy
例えるとAIの描画は画像の局所性を利用して主に担当エリア周辺の狭い部分だけを
それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら)
そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする
座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある
それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら)
そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする
座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある
2022/09/01(木) 10:12:36.01ID:xftaGdXs
D2のがSDよりプロンプトに忠実って話
> Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し
MJはさらに低い次元にしてる?
全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて
初心者を喜ばせてハマらせるみたいな戦略に見える
逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い
まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど
> Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し
MJはさらに低い次元にしてる?
全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて
初心者を喜ばせてハマらせるみたいな戦略に見える
逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い
まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど
2022/09/01(木) 10:18:03.38ID:FC/nfhth
ERNIEViLGが話題になってるみたいですね
あれのローカル版が出るなら今後ほしいなぁ
あれのローカル版が出るなら今後ほしいなぁ
2022/09/01(木) 10:44:18.72ID:tjCsJUxt
ERNIE-ViLGのWindowsローカル起動試した
構築はこことリンク先を参考に数コマンド入力
https://github.com/PaddlePaddle/PaddleHub/tree/develop/modules/image/text_to_image/ernie_vilg
hub run ernie_vilg --text_prompts "初音ミク" --style "水彩" --output_dir ernie_vilg_out
→ https://i.imgur.com/AahVXPB.png
構築はこことリンク先を参考に数コマンド入力
https://github.com/PaddlePaddle/PaddleHub/tree/develop/modules/image/text_to_image/ernie_vilg
hub run ernie_vilg --text_prompts "初音ミク" --style "水彩" --output_dir ernie_vilg_out
→ https://i.imgur.com/AahVXPB.png
2022/09/01(木) 10:48:40.00ID:5Jvvylgn
実はそれローカル稼働してないんですよ(バイドゥのwebAPIにリクエスト投げてるだけ)
2022/09/01(木) 10:51:49.82ID:tjCsJUxt
ほんとだ回線止めたらエラーになった・・・
ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443)
ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443)
2022/09/01(木) 11:02:14.04ID:okjTselo
>>517
創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな
創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな
2022/09/01(木) 11:06:32.40ID:1fpfaD1m
2022/09/01(木) 11:06:33.62ID:g1sOWuLk
写実系限定かもしれんが1.5から顔の表現が安定するようになるみたいだな
2022/09/01(木) 12:02:09.78ID:FKOT9Ej7
2022/09/01(木) 12:14:22.10ID:5Jvvylgn
fine turningのDreamなんたらの方の実装はまだきてなんいんだっけ
541名無しさん@お腹いっぱい。
2022/09/01(木) 12:15:57.37ID:IpZsMc9w 自分が描いた絵の一部だけimg2imgでベクシンスキーに描かせるの面白すぎる
2022/09/01(木) 12:16:26.21ID:tjCsJUxt
簡単なスケッチから「Stable Diffusion」で思い通りの絵を描く手順を解説 - GIGAZINE
https://gigazine.net/news/20220831-stable-diffusion-how-to-draw/
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]
https://note.com/abubu_nounanka/n/n3a0431d2c47a
https://gigazine.net/news/20220831-stable-diffusion-how-to-draw/
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]
https://note.com/abubu_nounanka/n/n3a0431d2c47a
2022/09/01(木) 12:17:57.71ID:5tYffDgB
画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/
544名無しさん@お腹いっぱい。
2022/09/01(木) 12:22:03.21ID:vKGYRvy5 解説読んで手入れしたらパッと見で普通にありそうな絵になったんだけど
今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも
今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも
545名無しさん@お腹いっぱい。
2022/09/01(木) 12:24:25.56ID:jmQQ3ISX2022/09/01(木) 12:36:00.32ID:6LHYNH4u
大文字小文字って認識される?
2022/09/01(木) 12:43:31.79ID:GThaU77M
とくに指定できるポーズを描かせたいなら動作と具体的なポーズ名を使うといい感じに全身が出やすい
nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない
nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch
porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない
clip front で安定した画像群が出るワードなら期待できる
nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない
nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch
porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない
clip front で安定した画像群が出るワードなら期待できる
2022/09/01(木) 12:47:49.80ID:9tlwKFpv
>>546
自分で検証してませんけど、wikiには大文字小文字関係ないと書いてますね
https://wiki.installgentoo.com/wiki/Stable_Diffusion
Capitalization does not matter.
自分で検証してませんけど、wikiには大文字小文字関係ないと書いてますね
https://wiki.installgentoo.com/wiki/Stable_Diffusion
Capitalization does not matter.
2022/09/01(木) 12:48:49.49ID:0fj+eXEr
A.K.A.(〇〇として知られている〇〇)みたいなのどうすれば良いんだろう
2022/09/01(木) 12:49:40.55ID:ulnoWYVM
2022/09/01(木) 13:00:00.97ID:e4ZLA3Xy
ERNIEはたった一晩の間に呪文の研究がかなり進んで上位の絵描きが描いた絵と
同レベルの絵が出力されるようになってるな
同レベルの絵が出力されるようになってるな
2022/09/01(木) 13:00:51.19ID:mRRZbuPO
2022/09/01(木) 13:10:11.79ID:tjCsJUxt
3060でファインチューニングのトレーニング動かせた
Windowsなのでベースのリポジトリと解説はここに従って
https://github.com/nicolai256/Stable-textual-inversion_win
追加で設定ファイルの数値ここまで下げた
https://i.imgur.com/S4GjXx9.png
出来上がったものが使えるのかとかクオリティとかは不明だけどとりあえず報告
Windowsなのでベースのリポジトリと解説はここに従って
https://github.com/nicolai256/Stable-textual-inversion_win
追加で設定ファイルの数値ここまで下げた
https://i.imgur.com/S4GjXx9.png
出来上がったものが使えるのかとかクオリティとかは不明だけどとりあえず報告
2022/09/01(木) 13:12:45.56ID:vrtSQxR0
>>548
ありがとう!!
ありがとう!!
555名無しさん@お腹いっぱい。
2022/09/01(木) 13:25:56.97ID:jgmbGcOX https://twitter.com/_dschnurr/status/1565011278371794944
SDでも実装してほしい
https://twitter.com/5chan_nel (5ch newer account)
SDでも実装してほしい
https://twitter.com/5chan_nel (5ch newer account)
2022/09/01(木) 13:26:32.07ID:mRRZbuPO
>>553
なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)
ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。
2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ
なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)
ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。
2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ
557名無しさん@お腹いっぱい。
2022/09/01(木) 13:31:23.20ID:+Cs2tqBk >>553
おお!うちも3060なんで週末に試してみよう。
おお!うちも3060なんで週末に試してみよう。
2022/09/01(木) 13:41:22.29ID:mRRZbuPO
2022/09/01(木) 13:50:09.83ID:D5fw/jUr
560名無しさん@お腹いっぱい。
2022/09/01(木) 13:59:41.10ID:jmQQ3ISX2022/09/01(木) 14:00:38.80ID:0fj+eXEr
>>559
Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く
Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く
2022/09/01(木) 14:05:22.23ID:D5fw/jUr
563名無しさん@お腹いっぱい。
2022/09/01(木) 14:08:15.35ID:jmQQ3ISX redditにAMD不可って書いてあった
残念だ
残念だ
2022/09/01(木) 14:15:35.51ID:D5fw/jUr
ガーン・・・・・
敷居が高すぎて指くわえてた所に神ソフト来たと感激してたんすよ
敷居が高すぎて指くわえてた所に神ソフト来たと感激してたんすよ
2022/09/01(木) 14:17:14.05ID:QaQh46vL
改造すれば動くんじゃね
俺Macでローカルで動かしてるし
俺Macでローカルで動かしてるし
2022/09/01(木) 14:19:54.09ID:WpAMJAkO
2022/09/01(木) 14:21:57.47ID:QaQh46vL
Radeonで動いてるよ
568名無しさん@お腹いっぱい。
2022/09/01(木) 14:25:57.15ID:jmQQ3ISX AMDでもワンクリックで使えるようになるのは時間の問題なはず
それまで我慢する
それまで我慢する
2022/09/01(木) 14:31:09.84ID:wMrk29Gv
2022/09/01(木) 14:31:57.42ID:0fj+eXEr
こっちも操作は簡単だがアップデート版はパトロンだけ
https://grisk.itch.io/stable-diffusion-gui
https://grisk.itch.io/stable-diffusion-gui
2022/09/01(木) 14:39:05.75ID:QaQh46vL
>>569
WindowsのRadeonはまだ無理だったんですね、こちらこそ失礼しました
WindowsのRadeonはまだ無理だったんですね、こちらこそ失礼しました
2022/09/01(木) 14:42:09.95ID:mxvrxmnT
573名無しさん@お腹いっぱい。
2022/09/01(木) 14:52:13.41ID:jgmbGcOX VRAM usage at different resolutions is something that needs documenting, larger resolutions require more vram, and from my previous tests it's roughly linear, for example, an image that was 512x512 used around 6gb, and an image that was 512x1024 (double the size), used just under 12gb.
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80
24gbで1024x1024いけそうだけどやってる人おらんかな
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80
24gbで1024x1024いけそうだけどやってる人おらんかな
2022/09/01(木) 15:05:22.25ID:0fj+eXEr
2022/09/01(木) 15:12:29.59ID:0X/vhdIY
GIGAZINEだけでもかなり記事でてんなー
コッチ系好きなライターおるんやろな
画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/
画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/
スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw
コッチ系好きなライターおるんやろな
画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/
画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/
スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw
2022/09/01(木) 15:57:08.09ID:ulnoWYVM
GUI操作ってメリットあるのかな
スクリプトで実行したいから全部CUIでやってる
スクリプトで実行したいから全部CUIでやってる
2022/09/01(木) 16:05:35.52ID:tjCsJUxt
>>576
text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ
text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ
2022/09/01(木) 16:17:06.59ID:uqhBsT3Q
>>576
>>577さんの通りGUI版の方が速度が単純に速いし、使いやすい
スクリプト操作は、 >>377,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは >>419みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]
https://i.imgur.com/cDhioYS.jpg
>>577さんの通りGUI版の方が速度が単純に速いし、使いやすい
スクリプト操作は、 >>377,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは >>419みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]
https://i.imgur.com/cDhioYS.jpg
2022/09/01(木) 16:22:53.17ID:uqhBsT3Q
ついでに、>>578の画像を見ると
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
※seed=9も同じ
やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
※seed=9も同じ
やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw
2022/09/01(木) 16:23:58.93ID:D5fw/jUr
Game ReadyドライバーからStudioドライバーに入れ替えました
AMDでも使えるやつ待ってます
AMDでも使えるやつ待ってます
2022/09/01(木) 16:26:37.24ID:uqhBsT3Q
補足
書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。
公式を見ればやり方は多分分かるはず
pというオブジェクトに設定可能な属性は以下の通りです。
'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width'
書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。
公式を見ればやり方は多分分かるはず
pというオブジェクトに設定可能な属性は以下の通りです。
'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width'
2022/09/01(木) 16:41:44.43ID:ulnoWYVM
583名無しさん@お腹いっぱい。
2022/09/01(木) 19:11:19.92ID:1wu7LGKi >>543
Macは?
Macは?
584名無しさん@お腹いっぱい。
2022/09/01(木) 19:59:01.98ID:kbyWGg61 すまん、公式参考にcmd直接叩いて環境構築してtext2imageで吐き出せるようになったんだがimg2imgを利用するためにはgitとやらを用いて環境を再構築しないとできないって認識であってる?
それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。
with autocast("cuda"):
images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0]
それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。
with autocast("cuda"):
images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0]
2022/09/01(木) 20:09:52.03ID:LlY4bR1X
エッシャーの騙し絵は再現できない
2022/09/01(木) 20:12:31.93ID:8U9zbhid
エッシャー「ヨッシャー」
fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら
fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら
587名無しさん@お腹いっぱい。
2022/09/01(木) 20:13:30.36ID:jgmbGcOX2022/09/01(木) 20:21:38.96ID:e4ZLA3Xy
アニメモデルの話ってどこ行ったんだ?
2022/09/01(木) 20:26:08.51ID:4UCSf1A2
>>584
image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ
image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ
2022/09/01(木) 20:32:32.42ID:MfiAYLG4
誰だこのフィリピン人
スゲー売名目的臭いんだけど
画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒
https://gigazine.net/news/20220901-midjourney-win-fine-arts-competition/
スゲー売名目的臭いんだけど
画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒
https://gigazine.net/news/20220901-midjourney-win-fine-arts-competition/
591名無しさん@お腹いっぱい。
2022/09/01(木) 20:32:32.67ID:kbyWGg612022/09/01(木) 20:54:35.25ID:4UCSf1A2
>>591
https://colab.research.google.com/github/patil-suraj/Notebooks/blob/master/image_2_image_using_diffusers.ipynb
これを参考にしていただければ
でもどうせならhlkyとかのGUI版使った方がいいと思う
そっちの方が性能いいので
https://colab.research.google.com/github/patil-suraj/Notebooks/blob/master/image_2_image_using_diffusers.ipynb
これを参考にしていただければ
でもどうせならhlkyとかのGUI版使った方がいいと思う
そっちの方が性能いいので
2022/09/01(木) 20:57:24.14ID:D3H62TGP
ギガジン、むっちゃ記事書くなあ
話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ
https://gigazine.net/news/20220901-lexica-art-stable-diffusion/
話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ
https://gigazine.net/news/20220901-lexica-art-stable-diffusion/
2022/09/01(木) 20:58:11.54ID:D3H62TGP
しかも掲載画像がめっちゃチンポ
2022/09/01(木) 21:02:54.12ID:RyhWOKCj
>>543
これをやってみてるけどかれこれ2時間経過してもインストールが終わらない
これをやってみてるけどかれこれ2時間経過してもインストールが終わらない
596名無しさん@お腹いっぱい。
2022/09/01(木) 21:07:51.50ID:kbyWGg61 >>592
丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。
丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。
2022/09/01(木) 21:20:07.96ID:tjCsJUxt
>>586
試してないけどAUTOMATIC1111版はフォルダに居れたらそのファイル名がプロンプトで使えるようになるらしい
https://github.com/AUTOMATIC1111/stable-diffusion-webui#textual-inversion
hlky版を拡張するやつもあるけど、使おうとするとエラー出て動かなかった
https://github.com/hlky/sd-enable-textual-inversion
試してないけどAUTOMATIC1111版はフォルダに居れたらそのファイル名がプロンプトで使えるようになるらしい
https://github.com/AUTOMATIC1111/stable-diffusion-webui#textual-inversion
hlky版を拡張するやつもあるけど、使おうとするとエラー出て動かなかった
https://github.com/hlky/sd-enable-textual-inversion
2022/09/01(木) 21:31:07.85ID:0fj+eXEr
初音ミクさん書きたい人向け
https://twitter.com/takei/status/1564990874974445569
「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
https://pbs.twimg.com/media/Fbf25agUsAI1YQv.jpg
ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/takei/status/1564990874974445569
「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
https://pbs.twimg.com/media/Fbf25agUsAI1YQv.jpg
ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
https://twitter.com/5chan_nel (5ch newer account)
599名無しさん@お腹いっぱい。
2022/09/01(木) 21:35:07.54ID:HChGsMsJ Lexica改悪してね?…
画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか…
画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか…
2022/09/01(木) 21:40:14.16ID:3gxS4KDl
>>553
このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る?
このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る?
601名無しさん@お腹いっぱい。
2022/09/01(木) 21:51:27.22ID:jgmbGcOX ERNIEははやらんぞ
2022/09/01(木) 21:53:31.27ID:xftaGdXs
>>593
情報のタイミング的にここ見てる気がする
情報のタイミング的にここ見てる気がする
603名無しさん@お腹いっぱい。
2022/09/01(木) 21:56:15.01ID:jmQQ3ISX ここの皆さん凄いね
よくもまあこんな難しい事を試行錯誤出来るものだ
しばらく待ってればワンクリックで動かせるツールが出そうなものなのに
何をそんなに生き急ぎ出力したいのか‥
よくもまあこんな難しい事を試行錯誤出来るものだ
しばらく待ってればワンクリックで動かせるツールが出そうなものなのに
何をそんなに生き急ぎ出力したいのか‥
2022/09/01(木) 21:56:52.76ID:0fj+eXEr
>>603
汗かかないからな
汗かかないからな
2022/09/01(木) 22:03:50.55ID:2R4hTU6p
俺の場合は遊びだから将来触らなくなってる気がする
2022/09/01(木) 22:06:29.40ID:VIOIklKY
2022/09/01(木) 22:11:56.42ID:tjCsJUxt
>>600
> 2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
入力と途中経過がこんな感じで、反映されてる雰囲気あるけど、評価はよく分かってない
https://i.imgur.com/GWkO2Jo.png
> 2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
入力と途中経過がこんな感じで、反映されてる雰囲気あるけど、評価はよく分かってない
https://i.imgur.com/GWkO2Jo.png
2022/09/01(木) 22:29:36.68ID:zkxvIGo9
2022/09/01(木) 22:31:56.04ID:TXOI7+tE
2022/09/01(木) 22:32:01.64ID:3gxS4KDl
611名無しさん@お腹いっぱい。
2022/09/01(木) 22:33:13.13ID:jgmbGcOX2022/09/01(木) 22:45:36.03ID:tjCsJUxt
2022/09/01(木) 22:56:48.59ID:ulnoWYVM
Automatic1111入れてみた
たしかに圧倒的に早い
たしかに圧倒的に早い
2022/09/01(木) 23:00:07.58ID:zkxvIGo9
>>612
なるほど自分で打ち切るんですね。ありがとうございます
あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか
なるほど自分で打ち切るんですね。ありがとうございます
あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか
2022/09/01(木) 23:06:29.86ID:LlY4bR1X
hlkyフォークでもSDアップスケールが使えるようになった
GoBIGとGoLatentがそう
GoBIGとGoLatentがそう
2022/09/01(木) 23:08:16.67ID:nqkYlpXR
>>543
imgtoimgもこれでできるん?
imgtoimgもこれでできるん?
2022/09/01(木) 23:20:14.57ID:0fj+eXEr
>>616
全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。
全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。
2022/09/01(木) 23:23:12.93ID:tjCsJUxt
>>614
タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ
タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ
2022/09/01(木) 23:26:13.50ID:MfiAYLG4
久々に腹抱えて笑ったわ
【悲報】中国産AI絵師にブチギレた日本人絵師、『天安門』と透かしを入れ始めるwwww [462061812]
http://greta.5ch.net/test/read.cgi/poverty/1662031407
【悲報】中国産AI絵師にブチギレた日本人絵師、『天安門』と透かしを入れ始めるwwww [462061812]
http://greta.5ch.net/test/read.cgi/poverty/1662031407
2022/09/01(木) 23:28:36.25ID:zkxvIGo9
2022/09/01(木) 23:37:45.03ID:xftaGdXs
ESRGan方式じゃなく、ちゃんと情報追加しつつ1024サイズオーバーにupscaleするの来ないかなぁ・・
2022/09/01(木) 23:38:51.77ID:LlY4bR1X
AUTOMATIC1111版のインストール手順ははもうcondaを使わないんだな
https://github.com/AUTOMATIC1111/stable-diffusion-webui#installing-and-running
https://github.com/AUTOMATIC1111/stable-diffusion-webui#installing-and-running
623名無しさん@お腹いっぱい。
2022/09/02(金) 00:11:11.94ID:Dpbs1qas >>607
おもしれー
おもしれー
2022/09/02(金) 00:39:13.15ID:xShDt1z/
2022/09/02(金) 02:05:57.95ID:NkZJNwdk
Dall-Eのアウトペインティング、AI生成じゃない普通の画像でも使えるらしい。すご
2022/09/02(金) 03:55:19.06ID:Kh1bWVkc
このスレは火消しが来てないねぇ…
【悲報】中華製の神AI絵師「ERNIE-ViLG」先生が日本語対応 これもう宣戦布告と捉えていいな? [526594886]
https://greta.5ch.net/test/read.cgi/poverty/1662039883/
【悲報】中華製の神AI絵師「ERNIE-ViLG」先生が日本語対応 これもう宣戦布告と捉えていいな? [526594886]
https://greta.5ch.net/test/read.cgi/poverty/1662039883/
2022/09/02(金) 04:11:46.22ID:RstZ5bp4
2022/09/02(金) 04:12:41.71ID:0l/ggawz
アフィだろこいつ
無視でいい
無視でいい
2022/09/02(金) 04:14:09.62ID:Kh1bWVkc
あーなるほどなるほど
業者に頼むとお金がかかるもんね
【悲報】嫌儲 スクリプトだらけ ★2中川翔子 [511335184]
https://greta.5ch.net/test/read.cgi/poverty/1662057890/
業者に頼むとお金がかかるもんね
【悲報】嫌儲 スクリプトだらけ ★2中川翔子 [511335184]
https://greta.5ch.net/test/read.cgi/poverty/1662057890/
2022/09/02(金) 04:16:03.04ID:RstZ5bp4
>>628
了解
了解
2022/09/02(金) 04:25:09.90ID:Kh1bWVkc
632名無しさん@お腹いっぱい。
2022/09/02(金) 06:28:08.17ID:BCtn7z/K 新海誠と竹内崇って絵柄全然違くね?
なんで混ぜるの??
なんで混ぜるの??
2022/09/02(金) 06:40:02.55ID:RstZ5bp4
新海は美麗背景目当てメインで、背景オンリーの人も良く入れてる
2022/09/02(金) 06:48:33.02ID:V0dRgcoB
言ってないだけで新海誠プロンプトにお世話になってる人たくさんいると思う
2022/09/02(金) 06:48:56.78ID:lgOdICSU
ファイーンを理解してしまった、これは確かにいい感じになる
どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな
promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした
個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは
どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな
promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした
個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは
636名無しさん@お腹いっぱい。
2022/09/02(金) 07:19:03.50ID:S+FMJdiY いっさい人が登場しなくなる魔法の言葉教えてください!!!
良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます!
プロンプトの先頭に「Unmanned」って付けても全然効力なかった…
今後こういう「無人」とかを選択出来るようになればいいな…
良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます!
プロンプトの先頭に「Unmanned」って付けても全然効力なかった…
今後こういう「無人」とかを選択出来るようになればいいな…
2022/09/02(金) 07:28:17.35ID:RstZ5bp4
MJなら--no human,man,woman,peopleとかで徹底的に潰すとか
SDはわからない、除去の方法あるんだろうか
SDはわからない、除去の方法あるんだろうか
2022/09/02(金) 07:32:27.73ID:nrfoHCdz
無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/
>>624
重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/
>>624
重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー
2022/09/02(金) 07:33:16.87ID:KVXfAJFA
>>636
ゲームだったらゲームキャラとかnpcとかかな
ゲームだったらゲームキャラとかnpcとかかな
2022/09/02(金) 07:33:19.32ID:PaosEEpo
風景写真に人がいるかどうかってキャプションには載ってないだろうしなぁ
フォトショとかで消してimg2imgが現実的な気もする
フォトショとかで消してimg2imgが現実的な気もする
2022/09/02(金) 07:33:33.62ID:nrfoHCdz
情報はこっちに張ってあっちで雑談しますw
2022/09/02(金) 07:36:51.52ID:t3pPlaK/
アニメ調というか、黒い輪郭をつけるいい呪文ってありますか?
2022/09/02(金) 07:37:04.80ID:RstZ5bp4
2022/09/02(金) 07:38:02.29ID:fiS15HNo
ファイーンはどれぐらいの枚数でどれぐらい回したらいいんじゃろね
とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら
とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら
645名無しさん@お腹いっぱい。
2022/09/02(金) 07:39:12.15ID:S+FMJdiY2022/09/02(金) 07:44:12.76ID:xMVcYvjc
言葉に関連付けられてる参照イメージに人がいるってことだろうから
SDだとマイナスとか「いない」、って指定はできないのかも
liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな
SDだとマイナスとか「いない」、って指定はできないのかも
liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな
2022/09/02(金) 08:07:17.67ID:KVXfAJFA
>>642
unreal 5 enginとか付ける
unreal 5 enginとか付ける
648名無しさん@お腹いっぱい。
2022/09/02(金) 08:10:55.09ID:S+FMJdiY2022/09/02(金) 08:11:31.08ID:y4kvuy0w
>>645
プロンプトをここに載せてくれたらみんなで試行錯誤できるけど難しいかな?
プロンプトをここに載せてくれたらみんなで試行錯誤できるけど難しいかな?
2022/09/02(金) 08:18:39.63ID:GPcBCrK6
ERNIE-ViLG試してみたけど
フォーカスが体の中心部分になるのが気になる
頭全体が映るように調節ってできるのかな
フォーカスが体の中心部分になるのが気になる
頭全体が映るように調節ってできるのかな
2022/09/02(金) 08:22:42.61ID:NkZJNwdk
hlky版だと一応、マイナスウエイト対応していて、
city street:1.0, human:-1.0
みたいなことが可能です。
ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも?
注1
NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。
city street:0.5, human:0.5
注2
city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや
【city street, human:】が -1.0で処理されます
city street:1.0, human:-1.0
みたいなことが可能です。
ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも?
注1
NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。
city street:0.5, human:0.5
注2
city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや
【city street, human:】が -1.0で処理されます
2022/09/02(金) 08:50:22.09ID:6W9bI3rF
日本語対応したernie-vilgでナイスバディ出そうとしてるけど規制に引っかかって中々むずかしい…
乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい
むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな?
乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい
むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな?
2022/09/02(金) 08:55:50.56ID:t3pPlaK/
>>647
何度かしたけど3Dゲーキャラが出やすいくらいで輪郭っぽいのないです…
何度かしたけど3Dゲーキャラが出やすいくらいで輪郭っぽいのないです…
2022/09/02(金) 08:57:10.17ID:nXijxibM
2022/09/02(金) 09:04:58.30ID:V1m1VTx+
>>651
注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある)
注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある)
2022/09/02(金) 09:12:12.18ID:NkZJNwdk
2022/09/02(金) 09:15:29.71ID:8CMrPdN4
厳密には違うけどこのサイトと同じようなデータを参照してるので、
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/
例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/
例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方
2022/09/02(金) 09:41:16.54ID:aeo3Gzkm
>>657
これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ
これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ
659名無しさん@お腹いっぱい。
2022/09/02(金) 10:02:19.86ID:Dpbs1qas2022/09/02(金) 10:07:22.06ID:swwcNo40
アップスケールテスト
hlky 2022/9/2
オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a
ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B
https://i.imgur.com/IzZ3k7y.jpg
アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが
hlky 2022/9/2
オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a
ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B
https://i.imgur.com/IzZ3k7y.jpg
アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが
2022/09/02(金) 10:08:24.39ID:4lEisimr
人がいないシーン(廃墟や夜景)の指定や風景画ばかり描く人の名前入れるとかはだめなのかな
2022/09/02(金) 10:18:06.95ID:Jix31feQ
>>659
()は逆だよ
()は逆だよ
2022/09/02(金) 10:19:17.62ID:BwGriirx
>>659,662
()とか[]とかが使えるのはどのフォークの話ですか?
()とか[]とかが使えるのはどのフォークの話ですか?
664名無しさん@お腹いっぱい。
2022/09/02(金) 10:20:37.10ID:Snqm6sco 何かがsoonらしいけどなんだろ
2022/09/02(金) 10:41:18.80ID:sLe2yvaM
そういえば前からGFPGANとRealESRGANのモデル読み込みしない方がVRAM節約できるよって話があったけど試してみた
1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ
この差はわりとでかい気がする
1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ
この差はわりとでかい気がする
2022/09/02(金) 11:01:41.39ID:W2wFSCKV
おっぱいの画像作るのが日課になってしまった
中国のやつローカル環境で早くやらせて欲しいな
中国のやつローカル環境で早くやらせて欲しいな
2022/09/02(金) 11:06:31.70ID:fiS15HNo
グラドルファイーンするとグラドル感が強すぎてそこから応用効かせにくいかもしれない
あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど
あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど
668名無しさん@お腹いっぱい。
2022/09/02(金) 11:13:57.47ID:Dpbs1qas2022/09/02(金) 11:16:42.18ID:VFjmKM72
いろいろエロいやつ生成して見てたら、服とか下着がズレておっぱいポロンしてるのが性癖だったことに気づいて、AIに新たな扉を開かされてしまった。偶然出た画像だったけど、どんなワード入れると上手くポロンするようになるだろうか。
2022/09/02(金) 11:20:07.65ID:KVXfAJFA
>>669
英語で「オーバーオールを着ている」だが「下着は着ていない」系の奴
英語で「オーバーオールを着ている」だが「下着は着ていない」系の奴
2022/09/02(金) 11:24:17.41ID:YAaH78dh
>>395
なんで?エロコンテンツの開発に熱心な人だから?
なんで?エロコンテンツの開発に熱心な人だから?
2022/09/02(金) 11:24:35.21ID:sVJAkrZx
>>667
あなたAIのべりすとの……
あなたAIのべりすとの……
2022/09/02(金) 11:37:10.36ID:fiS15HNo
着エロスキーだからポロリになるワードは気になる
2022/09/02(金) 11:39:47.33ID:lgOdICSU
上の検索サイトのsafe mode外してnip slipped girlで検索
ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ
ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ
2022/09/02(金) 11:57:28.02ID:KVXfAJFA
tight(タイト)とかskinny(スキニー)ってやると体の線出やすい。ワンピースのドレスとか水着とか。
2022/09/02(金) 12:22:52.13ID:t2wg2M3L
automatic1111版ってデフォルトではエロフィルターある?
2022/09/02(金) 12:38:15.25ID:fiS15HNo
ないあるよ
2022/09/02(金) 12:41:15.41ID:31pEGW2c
>>669
タンクトップとショートパンツ強め
タンクトップとショートパンツ強め
2022/09/02(金) 12:43:19.42ID:4U1TSCPU
>>671
いやちゃんと見ろよ
いやちゃんと見ろよ
680名無しさん@お腹いっぱい。
2022/09/02(金) 13:01:44.19ID:VP2sST9f >>667
人間のファインって顔だけでいける?全身?
人間のファインって顔だけでいける?全身?
2022/09/02(金) 13:04:33.80ID:KVXfAJFA
Idol-looking Japanese 1X-year-old girl wearing a one-piece dress of thin fabric over her nude body in a grassy field,
X=好きな年齢
でまともなやつ
https://i.imgur.com/L9rKRik.jpg
X=好きな年齢
でまともなやつ
https://i.imgur.com/L9rKRik.jpg
2022/09/02(金) 13:05:32.39ID:n18luKxL
ブラがめくれてポロリしてるのが好きなワイも通りますよ。こういう半脱ぎみたいなのはどうやればいいのか。
2022/09/02(金) 13:08:24.36ID:KVXfAJFA
>>669
マイクロビキニはかなり難しいな
マイクロビキニはかなり難しいな
2022/09/02(金) 13:13:45.04ID:mlCSxz/I
>>680
入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない
入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない
685名無しさん@お腹いっぱい。
2022/09/02(金) 13:17:09.92ID:j5tE2D9K686名無しさん@お腹いっぱい。
2022/09/02(金) 13:22:48.28ID:VP2sST9f >>684
なるほど、一応全身推奨って感じか
なるほど、一応全身推奨って感じか
2022/09/02(金) 13:24:00.79ID:KVXfAJFA
2022/09/02(金) 13:28:59.58ID:KVXfAJFA
2022/09/02(金) 13:30:31.93ID:BLSejtKr
なんか怖いなw
2022/09/02(金) 13:33:31.92ID:KVXfAJFA
>>687
>>688
https://lexica.art/prompt/41325fb7-aeb3-4843-b391-51ca565741e4
を改造したのは覚えてる。
overallpants overalls オーバーオール
overall 全裸
でいろいろ試行錯誤してた記憶
>>688
https://lexica.art/prompt/41325fb7-aeb3-4843-b391-51ca565741e4
を改造したのは覚えてる。
overallpants overalls オーバーオール
overall 全裸
でいろいろ試行錯誤してた記憶
2022/09/02(金) 13:42:54.34ID:jlYzDRk2
きたー
画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
https://gigazine.net/news/20220902-run-stable-diffusion-m1-macs-gpu/
画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
https://gigazine.net/news/20220902-run-stable-diffusion-m1-macs-gpu/
692名無しさん@お腹いっぱい。
2022/09/02(金) 13:44:33.05ID:Snqm6sco >>691
intel AMD macの俺はいつになったら動かせるのか
intel AMD macの俺はいつになったら動かせるのか
2022/09/02(金) 13:46:03.01ID:jlYzDRk2
待ってたクセに導入する前から既にAI画像生成に飽きてる
画像生成できたから何?みたいな虚しさを感じてる
画像生成できたから何?みたいな虚しさを感じてる
2022/09/02(金) 13:55:14.16ID:KVXfAJFA
映画や小説やゲームにもなった「ストーカー」ってSFみたいな
現実の時空間に非現実の時空間が紛れ込んできて
既知の物を未知の物にしていくって世界観が好きなので
風景写真とかメインでやってる。出来上がるの楽しみ。
現実の時空間に非現実の時空間が紛れ込んできて
既知の物を未知の物にしていくって世界観が好きなので
風景写真とかメインでやってる。出来上がるの楽しみ。
2022/09/02(金) 13:58:37.33ID:YHkIMMyi
CG業界の人が使ってるGPUは97%がnVidia
https://cgworld.jp/special-feature/8741e57cbd65aa6af072dfcb88b8d78fdae69a34.png
Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない
ゲームならRadeonでも遜色ないと思うんだけどねえ
https://cgworld.jp/special-feature/8741e57cbd65aa6af072dfcb88b8d78fdae69a34.png
Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない
ゲームならRadeonでも遜色ないと思うんだけどねえ
696名無しさん@お腹いっぱい。
2022/09/02(金) 14:19:41.60ID:Snqm6sco2022/09/02(金) 14:21:59.08ID:fiS15HNo
>>680
とりあえず半々でやってるけどノウハウどこ?ここ?
とりあえず半々でやってるけどノウハウどこ?ここ?
2022/09/02(金) 14:23:38.45ID:l2pQFU4Z
SDやMJは言語処理にCLIP(テキスト―画像の埋め込み)を使ってるけど、
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと
https://i.imgur.com/q7uW8wn.jpg
https://www.youtube.com/watch?v=N6lJvkoku9s
「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」
みたいな言語を人間レベルで理解した画像生成ができるらしい
マイクロビキニを着た~とかも多分正確にできるじゃないかと思う
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと
https://i.imgur.com/q7uW8wn.jpg
https://www.youtube.com/watch?v=N6lJvkoku9s
「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」
みたいな言語を人間レベルで理解した画像生成ができるらしい
マイクロビキニを着た~とかも多分正確にできるじゃないかと思う
2022/09/02(金) 14:28:10.80ID:Fu/zVfJs
googleはMJやSDとは文字通り桁違いのリソース使って学習してるんだから
そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな
地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな
そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな
地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな
2022/09/02(金) 14:39:10.70ID:YAaH78dh
>>679
スクレイピングツールを提供してるからってことか
スクレイピングツールを提供してるからってことか
2022/09/02(金) 14:44:26.18ID:CBd8NfsT
woman worriorって入れるとやたらと脱ぎたがる
俺は真面目な戦闘シーンが描きたかっただけなのに
俺は真面目な戦闘シーンが描きたかっただけなのに
2022/09/02(金) 14:46:52.63ID:UNa7SfiI
>>578を見ると、girlだと脱がないが、womanは脱ぐんだよねw
2022/09/02(金) 14:50:30.47ID:4lEisimr
胸に鎧を付けてるって指定してもなぜか脱ぎだす
のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ
のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ
2022/09/02(金) 14:51:52.74ID:CBd8NfsT
脱がしたいときに、nudeって入れると作画が崩壊するから
間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw
間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw
2022/09/02(金) 14:59:54.35ID:KVXfAJFA
>>702
なるほど
なるほど
2022/09/02(金) 15:15:39.92ID:W2wFSCKV
脱がせる呪文はナチュリスト使うことが多いかな
たまに脱がないけど
たまに脱がないけど
2022/09/02(金) 16:07:20.59ID:V1m1VTx+
AUTOMATIC1111版にインストールbatが来た
https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
環境汚れそうだけど
https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
環境汚れそうだけど
2022/09/02(金) 16:08:29.11ID:4ovbDVGE
普通にnakedでいけるしPornograffic Portrait of 〜とかもいい感じになる
2022/09/02(金) 16:47:46.17ID:eWKwVz6j
colab相当ストレスがかかってるのか、超頻繁にロボットじゃないか聞いてくるし
昨日から突然T4割り当ててくるようになった(pro)
他のクラウドは料金怖いしやっぱローカル環境欲しいな...
昨日から突然T4割り当ててくるようになった(pro)
他のクラウドは料金怖いしやっぱローカル環境欲しいな...
2022/09/02(金) 17:04:49.97ID:O9BW2y9P
>>703
とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては
とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては
2022/09/02(金) 17:32:42.17ID:UJ6cE4zz
712名無しさん@お腹いっぱい。
2022/09/02(金) 17:49:45.91ID:VP2sST9f >>698
破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな
破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな
2022/09/02(金) 17:50:25.81ID:KVXfAJFA
XX=好きな数字
A_XX_year_old_Japan_gravure_idol_is_wearing_a_red_super_high_leg_one_piece_swimsuit
made_of_glossy_latex,_standing_in_a_yellow_room_with_her_legs_spread_with_her_hands_up_to_show_her_arm
https://i.imgur.com/iNpLJAA.jpg
A_XX_year_old_Japan_gravure_idol_is_wearing_a_red_super_high_leg_one_piece_swimsuit
made_of_glossy_latex,_standing_in_a_yellow_room_with_her_legs_spread_with_her_hands_up_to_show_her_arm
https://i.imgur.com/iNpLJAA.jpg
2022/09/02(金) 17:55:40.03ID:4U1TSCPU
>>700
いや4chanで名前を出してはいけないあの人になってるんだから…
いや4chanで名前を出してはいけないあの人になってるんだから…
2022/09/02(金) 18:12:22.01ID:4lEisimr
>>710
やってみる
やってみる
2022/09/02(金) 18:14:00.17ID:KVXfAJFA
An_XX_year_old_Japanese_gravure_idol_with_a_cute_muscular_face_is_wearing
a_silver_super_high_leg_one_piece_swimsuit_made_of_resin_that_reflects_light_perfectly,_the_thin_material_clearly
https://i.imgur.com/0a2NrDy.jpg
a_silver_super_high_leg_one_piece_swimsuit_made_of_resin_that_reflects_light_perfectly,_the_thin_material_clearly
https://i.imgur.com/0a2NrDy.jpg
717名無しさん@お腹いっぱい。
2022/09/02(金) 18:21:33.63ID:VP2sST9f >>716
なんでmuscular face
なんでmuscular face
2022/09/02(金) 18:25:22.96ID:KVXfAJFA
2022/09/02(金) 18:27:50.58ID:EKdUfSwH
長めの呪文うつとディレクトリが無いって言われたり出力先の画像ファイルが無いとか言われたりしてたけど
Windows側のパスの文字数制限らしいことに気づいた
なんか起こったら怖いが長いprompt入れたいからレジストリ弄った
Windows側のパスの文字数制限らしいことに気づいた
なんか起こったら怖いが長いprompt入れたいからレジストリ弄った
2022/09/02(金) 18:30:40.32ID:YAaH78dh
2022/09/02(金) 18:33:57.29ID:+KNWnwCK
引き算も覚えないと変に足し過ぎて結局少ないワードの方が良かったってなっちゃう時ある
2022/09/02(金) 18:39:33.32ID:KVXfAJFA
723名無しさん@お腹いっぱい。
2022/09/02(金) 18:39:49.85ID:VP2sST9f >>721
シンプルな方が化け物はうまれにくい印象
シンプルな方が化け物はうまれにくい印象
2022/09/02(金) 18:41:51.79ID:KlH9VLHC
「天安門広場でスクール水着で踊る習近平」と指示してもスク水着た近平が出てきてくれない
2022/09/02(金) 18:46:15.97ID:EKdUfSwH
スク水を学習してないらしいからすぐ上のやつみたいに別の表現でスク水を唱えないと難しいんじゃない
2022/09/02(金) 18:46:33.86ID:xHW/mdv4
>>723
目指すところによるけどdetail系も案外入れなかった方がうまく纏まってくれたりする時もあるしね
目指すところによるけどdetail系も案外入れなかった方がうまく纏まってくれたりする時もあるしね
2022/09/02(金) 18:46:56.63ID:xMVcYvjc
オッサンがスク水着てる画像の学習度が足りないんだろうな
グラビアなどはまあまあ学習してるみたいだが
グラビアなどはまあまあ学習してるみたいだが
2022/09/02(金) 18:51:43.20ID:yBQTKNkg
黒いレオタードでいいんじゃね
2022/09/02(金) 19:17:53.14ID:KVXfAJFA
>>724
80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
https://i.imgur.com/kc23EFx.jpg
プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.
訳
私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。
シード
574805382
80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
https://i.imgur.com/kc23EFx.jpg
プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.
訳
私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。
シード
574805382
730名無しさん@お腹いっぱい。
2022/09/02(金) 19:21:34.71ID:jWK87NOF hlkyのColab版webuiGUIって一度か数回プロンプトのウェイト異常等でバグ画像が出たら延々とバグ画像が生成されちゃうのかな
プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど
画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった
通常運転に見せかけてバグ製造路線に上書きされてる感じ
閉じて構築し直したら直った
hlkyって一番高評価っぽいけどこういうこともあるんだな
プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど
画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった
通常運転に見せかけてバグ製造路線に上書きされてる感じ
閉じて構築し直したら直った
hlkyって一番高評価っぽいけどこういうこともあるんだな
2022/09/02(金) 19:25:27.14ID:OstVi+/E
732名無しさん@お腹いっぱい。
2022/09/02(金) 19:41:03.13ID:jWK87NOF >>731
ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも
ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも
2022/09/02(金) 19:43:39.12ID:MMx8Qi3g
hlkyのは同じ環境を何度も使い回すことで生成時の待ち時間削減してるし
機能は全部実験機能でバギーだから
一度落としてやり直せば改善するのならただのバグだろうね
機能は全部実験機能でバギーだから
一度落としてやり直せば改善するのならただのバグだろうね
2022/09/02(金) 19:44:41.95ID:fiS15HNo
TIファイーンについてんぱかさんが記事出してたけど3~5枚ぐらいの方がいいて内容でよくやからぬん
とりあえず特定絵師5枚ミクさん絵で追試してみるけど
とりあえず特定絵師5枚ミクさん絵で追試してみるけど
2022/09/02(金) 19:53:02.63ID:MMx8Qi3g
embeddingってのはあくまでもAIのモデル本体にコバンザメみたいに新しい概念をくっつけるもんであって
本体ほどの色々覚えるキャパシティが無い
その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話
特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い
投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという
本体ほどの色々覚えるキャパシティが無い
その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話
特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い
投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという
2022/09/02(金) 19:54:34.16ID:CBd8NfsT
なるほどな
呪文も余計な要素を入れると作画崩壊するしな
呪文も余計な要素を入れると作画崩壊するしな
2022/09/02(金) 20:03:11.23ID:fiS15HNo
今時点の手元でーただと実写30枚/10epochとアニメ5枚/8epochで
後者が明らかに特徴抽出失敗してる
ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど
後者が明らかに特徴抽出失敗してる
ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど
738名無しさん@お腹いっぱい。
2022/09/02(金) 20:08:58.46ID:VP2sST9f >>737
他を捨象した画像集められるなら多いほうがいいんかね
他を捨象した画像集められるなら多いほうがいいんかね
2022/09/02(金) 20:11:47.76ID:v4aIq0zr
734の記事を試してみたけどcolabの知識がなさすぎてembedding_pathの指定で詰まってしまった
自分の環境ってGoogleドライブ等のこと?
自分の環境ってGoogleドライブ等のこと?
2022/09/02(金) 20:15:44.69ID:fiS15HNo
2022/09/02(金) 20:28:38.02ID:MMx8Qi3g
後StableDiffusionの場合AutoEncoder(Diffusionを経た後に実際に出力画像にするところ)はファインチューンではいじられないはずなんで
アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない
アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない
742名無しさん@お腹いっぱい。
2022/09/02(金) 21:14:23.22ID:8BfvBdGt2022/09/02(金) 21:29:00.62ID:y4kvuy0w
>>739
記事のURLおしえてほしい
記事のURLおしえてほしい
2022/09/02(金) 21:41:24.29ID:y4kvuy0w
>>743
わかった。これか
Google Colab で はじめる Stable Diffusion v1.4 (3) - Textual Inversionによるファインチューニング|npaka|note
https://note.com/npaka/n/n34412f71cfbc
わかった。これか
Google Colab で はじめる Stable Diffusion v1.4 (3) - Textual Inversionによるファインチューニング|npaka|note
https://note.com/npaka/n/n34412f71cfbc
2022/09/02(金) 21:42:36.73ID:U3kYsLmv
hlkyのwebuiのimg2imgの右のadvancedにある
①Variation Amount (0から1)
②Variant Seed (blank to randomize)
って使い方わかる?
loopしたら勝手にseedを足していくのかと思って
①を1にして②にSeed入れて3つバッチやったけど
同じseedの画像が3つ出ただけだった
①Variation Amount (0から1)
②Variant Seed (blank to randomize)
って使い方わかる?
loopしたら勝手にseedを足していくのかと思って
①を1にして②にSeed入れて3つバッチやったけど
同じseedの画像が3つ出ただけだった
2022/09/02(金) 21:46:53.75ID:t+Me9e73
>>729
草
草
2022/09/02(金) 21:57:42.56ID:4ovbDVGE
コツつかめてきたかも
http://imgur.com/Lf7zBFo
http://imgur.com/Lf7zBFo
2022/09/02(金) 22:09:15.63ID:V1m1VTx+
2022/09/02(金) 22:15:50.62ID:hqs2voQF
もうめんどくさくなってきたから
Ver.1.5来るまでスルーですわ
Ver.1.5来るまでスルーですわ
2022/09/02(金) 22:37:54.88ID:wmiOd1X2
結局大元のモデルが一番大事なんだよな
週末埋め合わせるとかいってたのは1.5のことでいいのかな?
週末埋め合わせるとかいってたのは1.5のことでいいのかな?
751名無しさん@お腹いっぱい。
2022/09/02(金) 22:46:23.98ID:iIoS9uWJ >>742
いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。
いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。
2022/09/02(金) 22:51:13.05ID:RXlo8YlJ
hlkyのアップデートなんだけど解凍したの上書きだけでいいのかな?
2022/09/02(金) 23:08:54.28ID:0l/ggawz
>>745
>Variation Amount
元画像にどの程度の影響を与えるか、これが高いほど変化も大きくなる
>Variant Seed
元画像に影響を与える画像のSeed
ざっくり言うと「Seed 1から生まれる画像A」と「Seed 2から生まれる画像B」を「Amountの数値に従ってブレンドする」ようなもんで
Variant Seedを指定するならAmountを変化させないと結果は変わらない
(Variation Amountを 1 にすると画像Aが画像Bの情報に完全に上書きされるんで無意味)
例1)画像Aをちょっと変化させたい時→Variant Seed指定なし、Variation Amount 0.01
例2)画像Aに特定の画像の影響を与えたい時→Variant Seedを指定あり、Variation Amount 0.01~0.99
出力された画像のyaml見ればseed欄がVariant Seedのものになってるんで、何に影響を受けたかは後から確認できる
>Variation Amount
元画像にどの程度の影響を与えるか、これが高いほど変化も大きくなる
>Variant Seed
元画像に影響を与える画像のSeed
ざっくり言うと「Seed 1から生まれる画像A」と「Seed 2から生まれる画像B」を「Amountの数値に従ってブレンドする」ようなもんで
Variant Seedを指定するならAmountを変化させないと結果は変わらない
(Variation Amountを 1 にすると画像Aが画像Bの情報に完全に上書きされるんで無意味)
例1)画像Aをちょっと変化させたい時→Variant Seed指定なし、Variation Amount 0.01
例2)画像Aに特定の画像の影響を与えたい時→Variant Seedを指定あり、Variation Amount 0.01~0.99
出力された画像のyaml見ればseed欄がVariant Seedのものになってるんで、何に影響を受けたかは後から確認できる
2022/09/02(金) 23:16:30.11ID:W2wFSCKV
なかなかアイスキャンディーしゃぶってくれない
難しいなぁ
難しいなぁ
2022/09/02(金) 23:22:39.70ID:U3kYsLmv
2022/09/02(金) 23:39:19.42ID:4ovbDVGE
エロ関連この要素はこれやったら上手くいくぞとか情報交換したいけど
ちょっとスレの趣旨とずれるかなとも思うし成人専用の板じゃないからなぁ
それっぽい場所あったらそっちでスレ立てたらそれなりに人くるかな?
ちょっとスレの趣旨とずれるかなとも思うし成人専用の板じゃないからなぁ
それっぽい場所あったらそっちでスレ立てたらそれなりに人くるかな?
2022/09/02(金) 23:42:13.69ID:0l/ggawz
>>755
より正確に言うとSeedAの持つ情報とSeedBの持つ情報をブレンドなんで
噛み合えば特定の要素を綺麗に発現させられる可能性はある
https://i.imgur.com/GKZ6p8h.jpg
まぁ人間には見えていない情報も活用されるんで思い通りには行かないが
Promptの重みを弄るののSeed版という感じ
より正確に言うとSeedAの持つ情報とSeedBの持つ情報をブレンドなんで
噛み合えば特定の要素を綺麗に発現させられる可能性はある
https://i.imgur.com/GKZ6p8h.jpg
まぁ人間には見えていない情報も活用されるんで思い通りには行かないが
Promptの重みを弄るののSeed版という感じ
758名無しさん@お腹いっぱい。
2022/09/02(金) 23:45:40.88ID:Snqm6sco >>756
むしろ一番盛り上がると思うぞ
むしろ一番盛り上がると思うぞ
2022/09/02(金) 23:46:55.99ID:0l/ggawz
>>756
bbspinkの創作板あたりに立てればそのうち集まるのでは
bbspinkの創作板あたりに立てればそのうち集まるのでは
2022/09/02(金) 23:47:29.11ID:U3kYsLmv
>>754
そう?
https://i.imgur.com/ovcME3A.jpg
man licking popsicle (cfg15)
・・って自分もやろうとしたからわかってる
呪文長いと完全無視されるんだよね、アイスすら出てこなくなる
>>757
なるほどバストアップだと使えそうだね
体入ると破綻しそうだけど
そう?
https://i.imgur.com/ovcME3A.jpg
man licking popsicle (cfg15)
・・って自分もやろうとしたからわかってる
呪文長いと完全無視されるんだよね、アイスすら出てこなくなる
>>757
なるほどバストアップだと使えそうだね
体入ると破綻しそうだけど
2022/09/02(金) 23:48:52.85ID:KVXfAJFA
pinterest, も良いらしい
762名無しさん@お腹いっぱい。
2022/09/03(土) 00:10:03.91ID:PHKlCLGG >>756
じゃないけどたてるぞ
じゃないけどたてるぞ
763名無しさん@お腹いっぱい。
2022/09/03(土) 00:14:53.20ID:xqs9lnic Stable Diffusionのプロンプトで使える記号一覧と効果みたいなものが記載されているサイトなどありますでしょうか?
プロンプト掲載サイトを見ても『,』しか使われていない感じですが、
「実はこの記号はこういう意味で使えます」という裏技ありますでしょうか?
わかる記号
『,』 カンマ 単語や文章を区切る
わからない記号
『.』 ピリオド 意味や効果がわからない カンマの代わりに使っても問題無し??
『A|B』 縦線? Aが有ってBが無い場合と逆の場合の結果を出してくれる??
『(((A)))』 カッコ 効果を弱くする??
『!!!A!!!』 感嘆符 効果を強くする??
『A:数字』 ウェイト 相対的な効果の強弱を数値で指定??
『A +(B-C)』 数式 BからCの要素を引いた分をAに合体させる??
他にもある感じ??
という感じで全然わからないのですが、識者様お助けください!
プロンプト掲載サイトを見ても『,』しか使われていない感じですが、
「実はこの記号はこういう意味で使えます」という裏技ありますでしょうか?
わかる記号
『,』 カンマ 単語や文章を区切る
わからない記号
『.』 ピリオド 意味や効果がわからない カンマの代わりに使っても問題無し??
『A|B』 縦線? Aが有ってBが無い場合と逆の場合の結果を出してくれる??
『(((A)))』 カッコ 効果を弱くする??
『!!!A!!!』 感嘆符 効果を強くする??
『A:数字』 ウェイト 相対的な効果の強弱を数値で指定??
『A +(B-C)』 数式 BからCの要素を引いた分をAに合体させる??
他にもある感じ??
という感じで全然わからないのですが、識者様お助けください!
2022/09/03(土) 00:17:39.84ID:IzFalRcg
>>760
草
草
765名無しさん@お腹いっぱい。
2022/09/03(土) 00:27:26.48ID:PHKlCLGG Midjourney】AIエロ画像情報交換【StableDiffusion
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/l50
規約読んでて遅れたけどたてたよ
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/l50
規約読んでて遅れたけどたてたよ
2022/09/03(土) 00:31:31.62ID:ltKcaRsN
>>765
756だけどちょっと見ていないうちに動きが早くて助かる
756だけどちょっと見ていないうちに動きが早くて助かる
2022/09/03(土) 00:44:33.80ID:IxRlzbq1
2022/09/03(土) 00:58:41.62ID:WMP9ADEP
ちょっとスケベツールにするの早すぎないか
VRの時より早いかもしれん
VRの時より早いかもしれん
2022/09/03(土) 01:07:05.23ID:dcQSKjm4
背景であっても得意/不得意がやっぱり物凄くはっきりしているな
AIが認識しにくいお手本が少ない構図だとimg2imgでヒントを与えてもさっぱりだ
どいつもこいつも描いてるような君の名は構図的なのとか都市見下ろしとかは得意だけど
オリジナリティの強い構図はラフ食わせても全く理解できない
AIが認識しにくいお手本が少ない構図だとimg2imgでヒントを与えてもさっぱりだ
どいつもこいつも描いてるような君の名は構図的なのとか都市見下ろしとかは得意だけど
オリジナリティの強い構図はラフ食わせても全く理解できない
2022/09/03(土) 01:21:42.17ID:Rh3x3knb
>>745,748
サンプラーによってはうまく動かない
サンプラーによってはうまく動かない
2022/09/03(土) 01:22:44.79ID:yD9RQZTC
背景だと新海誠はローマ字でも認識してないか全然学習できてないくさかった
ジブリも駄目
男鹿和夫は認識してはいるらしくたまにいいのが命中する
日本人名だと浮世絵というか新版画というかのが荒ぶりやすいけど
ジブリも駄目
男鹿和夫は認識してはいるらしくたまにいいのが命中する
日本人名だと浮世絵というか新版画というかのが荒ぶりやすいけど
2022/09/03(土) 01:31:37.16ID:hmoxA2H3
2022/09/03(土) 01:48:18.91ID:V02zKQR9
アニメ画像5枚/10epoch vs 30枚/10epoch
30枚の方はクリーチャーしか生成できない状態で5枚の方は人の形保てるし色合いは元雰囲気あるものの絵柄は再現せず
とりあえず枚数少なめな方がいい傾向があるのは分かった
30枚の方はクリーチャーしか生成できない状態で5枚の方は人の形保てるし色合いは元雰囲気あるものの絵柄は再現せず
とりあえず枚数少なめな方がいい傾向があるのは分かった
2022/09/03(土) 02:13:33.21ID:QsCkfbNW
エロスレダメだありゃ
775名無しさん@お腹いっぱい。
2022/09/03(土) 03:20:14.81ID:nVqI7Hr+ ”””具体的な”””ってつけなかったらああなっちまうのね
だからdiscodeにしようっていったのにー
だからdiscodeにしようっていったのにー
2022/09/03(土) 04:18:44.75ID:3VRHtVkz
discordのことをdiscodeって言うのはなにが目的?
それとも別にdiscodeっていうサービスがあるの?
それとも別にdiscodeっていうサービスがあるの?
777名無しさん@お腹いっぱい。
2022/09/03(土) 04:28:26.47ID:LqC0C0nC hlkyのvariation機能試そうとしてアプデしたら
webuiの連続最大生成数が250から50になっとる…
この数値ってどっかでいじれたりする?
webuiの連続最大生成数が250から50になっとる…
この数値ってどっかでいじれたりする?
2022/09/03(土) 05:10:12.24ID:3VRHtVkz
configs\webui\webui.yamlの19行目
2022/09/03(土) 05:19:02.52ID:fOW+gK8F
ビジュアルプロンプト
https://twitter.com/arankomatsuzaki/status/1565505712494501889
この絵の加工例のように、他の絵も加工して!ができるぽい
輪郭抽出、カラー化、欠落部分の回復(インペインティング)、雪景色化、・・・
データセットとコードが近日公開になってるから、一般的にも使えるようになりそう
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/arankomatsuzaki/status/1565505712494501889
この絵の加工例のように、他の絵も加工して!ができるぽい
輪郭抽出、カラー化、欠落部分の回復(インペインティング)、雪景色化、・・・
データセットとコードが近日公開になってるから、一般的にも使えるようになりそう
https://twitter.com/5chan_nel (5ch newer account)
2022/09/03(土) 06:11:02.84ID:2SzZ8ggf
>>722
ちょいブサが好みなん?
ちょいブサが好みなん?
2022/09/03(土) 06:31:04.77ID:LqC0C0nC
>>778
まじでありがとう
まじでありがとう
2022/09/03(土) 06:42:52.69ID:M8QSP27U
venvも使うようになったしだいぶ簡単になったのでまとめてみた。
Stable Diffusion AUTOMATIC1111版のローカル構築手順
1 https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
で指定されているものをインストールする
2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip をDLして展開する
使える人は git clone でも良い
3 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
モデル(sd-v1-4.ckpt)をDLして model.ckp にファイル名変更して webui.bat と同じ階層に置く
4 webui.bat をダブルクリックで実行する
5 Running on local URL: http://127.0.0.1:7860/ の表記が出たらそのURLをブラウザで開く
●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth をDLして
webui.bat と同じ階層に置く
2. 省メモリ化オプション(VRAM 4GBくらいの人向け)
webui.batファイルの set COMMANDLINE_ARGS= の所に追記して set COMMANDLINE_ARGS=--medvram にする
--lowvram もある
https://github.com/AUTOMATIC1111/stable-diffusion-webui#what-options-to-use-for-low-vram-videocardsd
Stable Diffusion AUTOMATIC1111版のローカル構築手順
1 https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
で指定されているものをインストールする
2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip をDLして展開する
使える人は git clone でも良い
3 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
モデル(sd-v1-4.ckpt)をDLして model.ckp にファイル名変更して webui.bat と同じ階層に置く
4 webui.bat をダブルクリックで実行する
5 Running on local URL: http://127.0.0.1:7860/ の表記が出たらそのURLをブラウザで開く
●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth をDLして
webui.bat と同じ階層に置く
2. 省メモリ化オプション(VRAM 4GBくらいの人向け)
webui.batファイルの set COMMANDLINE_ARGS= の所に追記して set COMMANDLINE_ARGS=--medvram にする
--lowvram もある
https://github.com/AUTOMATIC1111/stable-diffusion-webui#what-options-to-use-for-low-vram-videocardsd
2022/09/03(土) 07:15:35.04ID:CGDVNo+o
これってモデルの訓練はどうやればいいの?
2022/09/03(土) 07:25:05.14ID:ifn1BJbW
stable diffusionは58億5千の画像と文章を対応づけたLAION-5Bというデーターセットから学習させたそうだから、自前で同じようなことをするには膨大な計算が必要かも
2022/09/03(土) 08:06:51.64ID:CGDVNo+o
2022/09/03(土) 08:16:24.27ID:ifn1BJbW
2022/09/03(土) 08:32:00.72ID:CGDVNo+o
>>786
そうかー。って事はデータセットに無さそうなマイナーなモノは期待薄か…
そうかー。って事はデータセットに無さそうなマイナーなモノは期待薄か…
2022/09/03(土) 08:49:24.54ID:M8QSP27U
>>785
ファインチューニングというものがあるよ
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
このスレでもちょこちょこやってる人が居る
ファインチューニングというものがあるよ
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/
このスレでもちょこちょこやってる人が居る
2022/09/03(土) 08:54:00.98ID:2ASFm4+g
2022/09/03(土) 09:56:01.69ID:NQ49L0UI
アニメ3枚/160epochだと過剰適応(過剰学習)でまたクリーチャーになった
epoch回せばいいてものでもないね、やっぱり
epoch26あたりがうまくいってたぽいのでそこら辺のSTEPデータ持ってきたらだいたい雰囲気は取れてたが
やっぱり元絵柄再現とはってないので現状SDのアニメ系のTI fine tuningは難しいぽい
アニメ系SDモデル来たらまた違ってくるかもだが
epoch回せばいいてものでもないね、やっぱり
epoch26あたりがうまくいってたぽいのでそこら辺のSTEPデータ持ってきたらだいたい雰囲気は取れてたが
やっぱり元絵柄再現とはってないので現状SDのアニメ系のTI fine tuningは難しいぽい
アニメ系SDモデル来たらまた違ってくるかもだが
791名無しさん@お腹いっぱい。
2022/09/03(土) 09:56:21.86ID:RmqmTvrG2022/09/03(土) 10:59:17.09ID:PeUhS9iL
>>790
そうかー
AutoEncoderまでアニメ系で訓練されたヤツがあれば小手先の学習でいけるようになるかもな
そうなるとファインチューン要るのかって話でもあるが
ただ、アニメ近日と言ってた例のツイートは、もしかすると動画(アニメーション)生成機能のことだったんじゃないかと思えてきた
そうかー
AutoEncoderまでアニメ系で訓練されたヤツがあれば小手先の学習でいけるようになるかもな
そうなるとファインチューン要るのかって話でもあるが
ただ、アニメ近日と言ってた例のツイートは、もしかすると動画(アニメーション)生成機能のことだったんじゃないかと思えてきた
793名無しさん@お腹いっぱい。
2022/09/03(土) 11:12:10.22ID:sBwsimD4 アニメ系のtextual inversionはバニラSDよりtrinart版の方がよさそう
2022/09/03(土) 11:29:47.65ID:U2SUwU8f
アニメ絵はやっぱAutoエンコーダ自体がアニメ絵の圧縮・復元ができてないように思えるね
Autoエンコーダは食わせる画像が少なければ元画像は簡単に丸覚え出来るけど中間画像の破綻が酷くなる
食わせる画像が増えると中間画像を上手く合成できるようになるけど学習時間がどんどん増えていく
SDの学習はアニメ絵が少なくて前者になってるんじゃないかって気がする
mimicが元絵師の画像を完コピ出来ているのは食わせる画像がせいぜい30枚程度と少ない上に
元画像と極めて近い画像しか出さないから破綻が見えない、技術的には別に進歩していない
SDは多分著作権への配慮で(内部的には)丸覚え状態の元画像からなるべく離れた中間画像生成しようとしてるから
学習不足の絵では余計に破綻が大きくなるんだと思う
Autoエンコーダは食わせる画像が少なければ元画像は簡単に丸覚え出来るけど中間画像の破綻が酷くなる
食わせる画像が増えると中間画像を上手く合成できるようになるけど学習時間がどんどん増えていく
SDの学習はアニメ絵が少なくて前者になってるんじゃないかって気がする
mimicが元絵師の画像を完コピ出来ているのは食わせる画像がせいぜい30枚程度と少ない上に
元画像と極めて近い画像しか出さないから破綻が見えない、技術的には別に進歩していない
SDは多分著作権への配慮で(内部的には)丸覚え状態の元画像からなるべく離れた中間画像生成しようとしてるから
学習不足の絵では余計に破綻が大きくなるんだと思う
2022/09/03(土) 12:22:20.65ID:PKUDtbAt
AIスレはホットだなぁ
はじめてフォトショップが出てきた頃を思い出す
はじめてフォトショップが出てきた頃を思い出す
796名無しさん@お腹いっぱい。
2022/09/03(土) 12:33:18.03ID:wOO3w8/J そうか?もうだいぶ飽きてきてる感あるけど
2022/09/03(土) 12:34:36.00ID:PKUDtbAt
そうなの?
どんどんAIにアプデが入って息つく間もないみたいな印象だった
どんどんAIにアプデが入って息つく間もないみたいな印象だった
798名無しさん@お腹いっぱい。
2022/09/03(土) 12:37:22.95ID:JCLxIAd1 黎明期って感じ
799名無しさん@お腹いっぱい。
2022/09/03(土) 12:38:43.22ID:XKLSRNsv Colab規制前にローカル構築したけど、流石に4GBグラボで640出せるバージョンはまだどこにもない感じですか?…
2022/09/03(土) 12:44:03.03ID:aYG2OiKt
2022/09/03(土) 12:55:41.82ID:M8QSP27U
hlky側で作るパスは最大195文字くらい
Windowsの上限が260文字なので
設置ディレクトリが75文字以内なら大丈夫という方法もある
Windowsの上限が260文字なので
設置ディレクトリが75文字以内なら大丈夫という方法もある
2022/09/03(土) 13:39:54.07ID:eU1PacaK
ようやくバニラSD環境作ったけど既に周回遅れな気がしてきた
冬には皆フルHD画像出力してそうだな
冬には皆フルHD画像出力してそうだな
2022/09/03(土) 13:46:47.57ID:U2SUwU8f
Real-EsRGanはメモリ消費が少なくて極端な高解像度画像でも作れる、でも画質微妙
swin-irは超解像では最高の画質だけどメモリ消費多すぎて高解像度の画像が出力できないという本末転倒
それに比べてMJのファインスケールは高解像度が可能で単なる超解像でなくディテールそのものが増えてる
MJのこの技術だけやっぱ群を抜いて売りになってんな羨ましい
swin-irは超解像では最高の画質だけどメモリ消費多すぎて高解像度の画像が出力できないという本末転倒
それに比べてMJのファインスケールは高解像度が可能で単なる超解像でなくディテールそのものが増えてる
MJのこの技術だけやっぱ群を抜いて売りになってんな羨ましい
2022/09/03(土) 13:55:48.73ID:jQmNLvMR
MJ絵はでかくて情報量多いから大人気よね、画像開いた時の見栄えが凄い
同じ土俵でSDの512とか見せられてもなんだそりゃってなるわ、面積1/4かそれ以下という
同じ土俵でSDの512とか見せられてもなんだそりゃってなるわ、面積1/4かそれ以下という
2022/09/03(土) 14:02:52.12ID:7xPwNK+f
MJは--testと画像参照が同時に使えるようになればいいのに
画像参照だけだとまともにキャラを成さないけど--testだけじゃ色々きつい
画像参照だけだとまともにキャラを成さないけど--testだけじゃ色々きつい
806名無しさん@お腹いっぱい。
2022/09/03(土) 14:24:00.64ID:Rxz1Imjc MJとSDの違いって使ってるマシンパワーの違いだけじゃないの
2022/09/03(土) 14:34:47.52ID:U2SUwU8f
アーマードコア、めっちゃ効果あって笑うな
人体解剖図もプロンプトに加えてスケールをかなり強めにして数を試したら
結構手も破綻してないのが出てくるぞ
人体解剖図もプロンプトに加えてスケールをかなり強めにして数を試したら
結構手も破綻してないのが出てくるぞ
2022/09/03(土) 14:44:38.53ID:ifn1BJbW
809名無しさん@お腹いっぱい。
2022/09/03(土) 14:46:45.06ID:zJJWZ2b7 SD一筋の人生だったけどColabに課金するくらいならMJに課金した方が良いんじゃね?…と気づいた
2022/09/03(土) 14:57:11.94ID:PeUhS9iL
>>807
アレコレ試してるけどなんでアーマードコアがアニメ絵の顔に効くかは全く分からん
アーマードコアの二次創作で人物画描いてた人の作品でも食ってるんだろうか
これの顔の改善効果だけ抜き出したプロンプトワードがあればいいんだけどなぁ
アレコレ試してるけどなんでアーマードコアがアニメ絵の顔に効くかは全く分からん
アーマードコアの二次創作で人物画描いてた人の作品でも食ってるんだろうか
これの顔の改善効果だけ抜き出したプロンプトワードがあればいいんだけどなぁ
2022/09/03(土) 14:58:00.59ID:ifn1BJbW
stable diffusionは、上で教えてもらったファインチューニングや、前や後ろに処理付けたしとかで目まぐるしく変わっていきそう
2022/09/03(土) 15:03:54.21ID:apLSxaam
automatic1111のcolab版がいつまで経っても来ないから自分で作ったわ
なお構築してるだけで制限された模様
グラボ全然使ってなくてもGPUモードで長く接続してると制限されるんだな、知らなかった
なお構築してるだけで制限された模様
グラボ全然使ってなくてもGPUモードで長く接続してると制限されるんだな、知らなかった
813名無しさん@お腹いっぱい。
2022/09/03(土) 15:08:29.45ID:AbY7U37k SDはサイズ小さいのが個人的に一番辛い
出力後に拡大処理してもぐちゃぐちゃな細部が大きくなるだけだし
全然知らなかったけどMJの拡大と共に細部を生成するらしい技術良いな
MJは課金しないとプロンプトも絵も公開されるらしいから初日使っただけで離れちゃってたけどMJすごいな
出力後に拡大処理してもぐちゃぐちゃな細部が大きくなるだけだし
全然知らなかったけどMJの拡大と共に細部を生成するらしい技術良いな
MJは課金しないとプロンプトも絵も公開されるらしいから初日使っただけで離れちゃってたけどMJすごいな
2022/09/03(土) 15:11:29.50ID:PeUhS9iL
>>812
あれお手軽に使えてるけど
実際は大量のコアとRAMを積んだGPUクラスタの1ノードの一部と、そこにぶら下がってるGPU丸ごと1つ接続中ずっと占有してるのよ
なのでGoogleとしては使う使わないは消費電力ぐらいしか関係無い
あれお手軽に使えてるけど
実際は大量のコアとRAMを積んだGPUクラスタの1ノードの一部と、そこにぶら下がってるGPU丸ごと1つ接続中ずっと占有してるのよ
なのでGoogleとしては使う使わないは消費電力ぐらいしか関係無い
2022/09/03(土) 15:15:22.99ID:apLSxaam
2022/09/03(土) 15:16:40.19ID:NQ49L0UI
MJはライトユーザー、SDはある程度パァイソンできるHENTAI向けってイメージ
2022/09/03(土) 15:40:42.57ID:ifn1BJbW
>>816
midjourney遊びはdiscordで他のユーザーのアイデアを見るのも楽しい。
stable diffusionは、プログラムで同じキーワードから20枚とか連続で生成させてその中から選ぶとかプログラミング出来る人達は色々な使い方を工夫出来そう
midjourney遊びはdiscordで他のユーザーのアイデアを見るのも楽しい。
stable diffusionは、プログラムで同じキーワードから20枚とか連続で生成させてその中から選ぶとかプログラミング出来る人達は色々な使い方を工夫出来そう
2022/09/03(土) 15:44:10.23ID:hhZwipzT
Midjourneyを日本語に直訳すると「途中」「中途半端」になる
2022/09/03(土) 15:53:59.62ID:Imu+rHqN
自分の8GBグラボじゃなんか動かなそうだから試してないけど
SDでReal-ESRGANで拡大後に
分割してimg2imgでディテールを上げるってフォークもあるらしい
https://github.com/jquesnelle/txt2imghd
SDでReal-ESRGANで拡大後に
分割してimg2imgでディテールを上げるってフォークもあるらしい
https://github.com/jquesnelle/txt2imghd
2022/09/03(土) 16:38:35.84ID:apLSxaam
公式か公式に近いものでサンプラーの種類を選べるやつはないのかね
自分が必要とする機能だけを実装したコンパクトなものを作りたいんだよなぁ
自分が必要とする機能だけを実装したコンパクトなものを作りたいんだよなぁ
2022/09/03(土) 16:49:55.24ID:ifn1BJbW
2022/09/03(土) 17:13:25.88ID:tbyQSmnr
midjourneyは色々スレみたいなのあるのも面白いね
毎日変わるお題に沿ったスレとか
ジャンル別やみんな一緒に一つの画像作ったりプロンプト開発スレとかもある
あとは自分の画像から勝手にアップスケールしたりバリエーション作り始められたり色々やり始めるカオスな感じも面白い
普通に勉強にもなるし
毎日変わるお題に沿ったスレとか
ジャンル別やみんな一緒に一つの画像作ったりプロンプト開発スレとかもある
あとは自分の画像から勝手にアップスケールしたりバリエーション作り始められたり色々やり始めるカオスな感じも面白い
普通に勉強にもなるし
2022/09/03(土) 17:28:00.09ID:8GqPhJ0/
そろそろ生成した画像が5ケタ行くんだけど画像整理に良いソフトない?
Windows11標準アプリに限界を感じてきた
Windows11標準アプリに限界を感じてきた
824名無しさん@お腹いっぱい。
2022/09/03(土) 17:30:01.75ID:NhWcySXb abobeのプランに入ってるならabobe bridgeがおすすめ
2022/09/03(土) 17:30:18.19ID:hhZwipzT
826名無しさん@お腹いっぱい。
2022/09/03(土) 17:46:02.39ID:Rxz1Imjc あれhlkyのfinetuningってもう既出か?
でてるの気付かなかった
https://github.com/hlky/sd-enable-textual-inversion
こっちより軽く動く(可能性がある)らしい
https://github.com/nicolai256/Stable-textual-inversion_win
でてるの気付かなかった
https://github.com/hlky/sd-enable-textual-inversion
こっちより軽く動く(可能性がある)らしい
https://github.com/nicolai256/Stable-textual-inversion_win
2022/09/03(土) 17:55:07.80ID:wS4x0YSm
>>826
初出だと思う。サンキュー
これ例えば、「月ノ美兎」を学習させる → プロンプト:a photo of * でa photo of 月ノ美兎と同じ様になる
みたいなことであってる?
だとして、もう一つ「壱百満天原サロメ」を学習させたものとマージすると、プロンプト: a photo of * はどうなるんだろう?
基本が分かってない・・・
初出だと思う。サンキュー
これ例えば、「月ノ美兎」を学習させる → プロンプト:a photo of * でa photo of 月ノ美兎と同じ様になる
みたいなことであってる?
だとして、もう一つ「壱百満天原サロメ」を学習させたものとマージすると、プロンプト: a photo of * はどうなるんだろう?
基本が分かってない・・・
828名無しさん@お腹いっぱい。
2022/09/03(土) 18:09:49.32ID:Rxz1Imjc2022/09/03(土) 18:11:15.64ID:M8QSP27U
AUTOMATIC1111版はエンベディングのファイル名がそのままプロンプトに使えるようになってて便利だよ
https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/images/inversion.png
https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/images/inversion.png
2022/09/03(土) 18:12:41.53ID:wS4x0YSm
>>828
なるほど。
やはりそうですね。
TIPSに以下のようにあるからどうなんだろうと思った。
You can train multiple embedding files, then merge them with merge_embeddings.py -sd to reference multiple things.
複数の埋め込みファイルをトレーニングしてから、それらをマージしてmerge_embeddings.py -sd 複数のものを参照できます。
プレースホルダを変えてやればいいのか・・・。まあとりあえず一つでやってみます。
なるほど。
やはりそうですね。
TIPSに以下のようにあるからどうなんだろうと思った。
You can train multiple embedding files, then merge them with merge_embeddings.py -sd to reference multiple things.
複数の埋め込みファイルをトレーニングしてから、それらをマージしてmerge_embeddings.py -sd 複数のものを参照できます。
プレースホルダを変えてやればいいのか・・・。まあとりあえず一つでやってみます。
831名無しさん@お腹いっぱい。
2022/09/03(土) 18:15:43.82ID:LFz+VyKe 実写なら破綻が少ないならまず実写を生成させてそこからimg2imgで好きな画風に変換すればいいんじゃないの
2022/09/03(土) 18:15:49.74ID:wS4x0YSm
2022/09/03(土) 18:19:49.88ID:wxDuhNnd
windows11のエクスプローラーはまじでゴミだよなー
俺は閲覧にneeview使ってるけど整理向きではないかも
placeholderはembeddingをモデルにmergeするときに別の単語に置き換えられるってどこかに書いてた気がする
やったことないけど2つ使うこともできるんじゃないか?わざと同じにしたら融合すんのかな
俺は閲覧にneeview使ってるけど整理向きではないかも
placeholderはembeddingをモデルにmergeするときに別の単語に置き換えられるってどこかに書いてた気がする
やったことないけど2つ使うこともできるんじゃないか?わざと同じにしたら融合すんのかな
2022/09/03(土) 18:29:21.62ID:hhZwipzT
>>825
ごめんRuminaじゃなくてLuminarだった
スペル全然違うやん
これです
https://www.photografan.com/camera-gear/tutorial-for-luminar-catalog/
ごめんRuminaじゃなくてLuminarだった
スペル全然違うやん
これです
https://www.photografan.com/camera-gear/tutorial-for-luminar-catalog/
835名無しさん@お腹いっぱい。
2022/09/03(土) 18:34:31.69ID:LFz+VyKe SD開発者がなんで「オープンソース」でこのソフトを発表したかというと「AIを使うだけ」では搾取される消費者の側でしかないということだよね
つまり「AIを作る側」になれって言ってる
好みの絵が出ないならプロンプトをいじくり回してる間にpythonと機械学習の勉強してSD自体を改造出来る様になったほうが早いぞ
つまり「AIを作る側」になれって言ってる
好みの絵が出ないならプロンプトをいじくり回してる間にpythonと機械学習の勉強してSD自体を改造出来る様になったほうが早いぞ
836名無しさん@お腹いっぱい。
2022/09/03(土) 18:38:00.64ID:POVXdLle オープンソフトなのに日本にはサンプルプログラム説明してるイキリプログラマーしかおらん
本当に終わってるのは絵師じゃなくてプログラマー
本当に終わってるのは絵師じゃなくてプログラマー
2022/09/03(土) 18:42:40.94ID:ksY6pbSL
github、日本人かどうか分かんないんだよなw
SDじゃないけど、作者含め3人でIssue議論していて全員日本人なのに英語で書いてたりする
hlky、automatic1111、basjindalとかのフォークはどれか一つになんないかなって思う
SDじゃないけど、作者含め3人でIssue議論していて全員日本人なのに英語で書いてたりする
hlky、automatic1111、basjindalとかのフォークはどれか一つになんないかなって思う
2022/09/03(土) 19:27:43.43ID:NQ49L0UI
839名無しさん@お腹いっぱい。
2022/09/03(土) 20:04:16.70ID:NhWcySXb とりんさまモデルって既存のmodel.ckptと置き換えればいいのかな?
2022/09/03(土) 20:14:03.51ID:Tp6Stlyd
>>839
そうですね。
trinart_stable_diffusion_epoch3.ckpt をmodel.ckpt にすればとりんさま
sd-v1-4.ckpt を model.ckpt にすればオリジナルに戻る
だけですね
そうですね。
trinart_stable_diffusion_epoch3.ckpt をmodel.ckpt にすればとりんさま
sd-v1-4.ckpt を model.ckpt にすればオリジナルに戻る
だけですね
841名無しさん@お腹いっぱい。
2022/09/03(土) 20:30:36.22ID:NhWcySXb >>840
ありがとう!
ありがとう!
2022/09/03(土) 20:30:57.72ID:U2SUwU8f
AIの時代に対応すべく俺も次にネットに上げる絵はAIで時短しようと思って作業してるけど
やっばムズイわこれ、構図とか細部がどうしても思い通りにならん
上手く出来た所を貼り貼りしてループバックして〜で下絵レベルに1日かかる
そこから線画、目の描き入れ、髪の修正、背景のブラッシュアップってなると普通に数日かかる
手で描くのと言うほど変わらんわ
やっばムズイわこれ、構図とか細部がどうしても思い通りにならん
上手く出来た所を貼り貼りしてループバックして〜で下絵レベルに1日かかる
そこから線画、目の描き入れ、髪の修正、背景のブラッシュアップってなると普通に数日かかる
手で描くのと言うほど変わらんわ
2022/09/03(土) 20:38:44.48ID:4aCXBxuS
2022/09/03(土) 21:05:40.03ID:2Bb1ezrV
>>843
AIさんがものすごい柔軟な発想しててわらう
AIさんがものすごい柔軟な発想しててわらう
2022/09/03(土) 21:09:46.19ID:OfzahMUc
2022/09/03(土) 21:34:14.54ID:g3qe1TfJ
マジでこの挙動何なんだろうな。比較的安定してるステップ数とかあるの?
2022/09/03(土) 21:40:53.07ID:M8QSP27U
ファインチューニングについて思ったこと
・アス比無視して正方形にリサイズしてから学習してるっぽいので入力画像は正方形が良さそう
・入力ファイル名を学習中のプロンプトに使うっぽいのである程度正確にした方が良い?
・アス比無視して正方形にリサイズしてから学習してるっぽいので入力画像は正方形が良さそう
・入力ファイル名を学習中のプロンプトに使うっぽいのである程度正確にした方が良い?
848名無しさん@お腹いっぱい。
2022/09/03(土) 21:43:01.92ID:NhWcySXb redditにはファインチューニングに3090を
推奨って書いてるけど、3060(VRAM:12GB)じゃきついかな?
https://www.reddit.com/r/StableDiffusion/comments/wvzr7s/tutorial_fine_tuning_stable_diffusion_using_only/
推奨って書いてるけど、3060(VRAM:12GB)じゃきついかな?
https://www.reddit.com/r/StableDiffusion/comments/wvzr7s/tutorial_fine_tuning_stable_diffusion_using_only/
2022/09/03(土) 21:45:36.84ID:PeUhS9iL
k_euler_aはアルゴリズムとしては標準のよりさらに単純で誤差が大きいのにstepが20ぐらいで一旦見れる結果になるのが不思議がられている
恐らく誤差とかが揺さぶりとなって最適解ではないが局所解ぐらいにはジャンプできてるという話なんだろうけど
恐らく誤差とかが揺さぶりとなって最適解ではないが局所解ぐらいにはジャンプできてるという話なんだろうけど
2022/09/03(土) 22:24:08.55ID:3VRHtVkz
2022/09/03(土) 22:47:22.11ID:M8QSP27U
852名無しさん@お腹いっぱい。
2022/09/03(土) 22:56:09.92ID:NhWcySXb2022/09/03(土) 23:28:01.74ID:T+vDrj47
環境依存だけどwebui最新版入れたら動かなくなった
tkinterってのが影響してるみたい
frontend.pyからそれを使ってる行を全部コメントアウトしたら一応動いた
参考までに
tkinterってのが影響してるみたい
frontend.pyからそれを使ってる行を全部コメントアウトしたら一応動いた
参考までに
2022/09/04(日) 01:25:18.25ID:af7u80DY
いつの間にヴォルデモートことAutomatic1111版ガイドできてたわ
https://rentry.org/hlkytoauto
https://rentry.org/hlkytoauto
2022/09/04(日) 01:34:34.26ID:pDKGJRy6
2022/09/04(日) 01:35:10.27ID:D2DXEsF7
DiscordでEmadさんの質問ライブやってて自由に質問できるけど、
質問の英語はわりと聞きやすいのに、Emadさんの回答の英語が俺には全然分からないw
質問の英語はわりと聞きやすいのに、Emadさんの回答の英語が俺には全然分からないw
2022/09/04(日) 01:37:55.11ID:0J0xHnH5
>>18
最新版で scripts/relauncher.py が更新されたから省メモリ化の方法が若干変わってる
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように変更
optimized_turbo = False
↓
optimized_turbo = True
ちなみに既にGitを使ってインストール&省メモリ化してる場合は git pull する前に
git reset --hard を実行すれば git pull で更新できる
更新後は3の方法で改めて relauncher.py を編集
最新版で scripts/relauncher.py が更新されたから省メモリ化の方法が若干変わってる
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように変更
optimized_turbo = False
↓
optimized_turbo = True
ちなみに既にGitを使ってインストール&省メモリ化してる場合は git pull する前に
git reset --hard を実行すれば git pull で更新できる
更新後は3の方法で改めて relauncher.py を編集
2022/09/04(日) 01:47:27.00ID:1jQA52I9
M1Macに入れたら10分かかるから流石に無理だな
いずれもっと早くなるだろうか
Google colabは数十枚出すと規制かかるね
Windows買おうかな
いずれもっと早くなるだろうか
Google colabは数十枚出すと規制かかるね
Windows買おうかな
2022/09/04(日) 01:57:23.57ID:BA8X8WLf
MJに金払った方が早いような・・
2022/09/04(日) 02:41:17.90ID:pDKGJRy6
2022/09/04(日) 03:59:17.27ID:0J0xHnH5
hlky版に追加されたRefreshボタン便利だな
複数の画像を生成してる途中で押すとそれまでに生成完了した画像が表示される
途中で生成を断ち切るStopボタンも追加されてる
複数の画像を生成してる途中で押すとそれまでに生成完了した画像が表示される
途中で生成を断ち切るStopボタンも追加されてる
2022/09/04(日) 05:04:25.35ID:BA8X8WLf
変わってないやん、ってフルの方はまだ更新されてなかった
863名無しさん@お腹いっぱい。
2022/09/04(日) 05:51:17.68ID:2SFlIXQ6 reddit民「k_euler_aはステップ数による予測がわかりにくいので使いにくい」
うむ
うむ
864名無しさん@お腹いっぱい。
2022/09/04(日) 07:38:29.20ID:qhXXkwdk hlky版、インストール手順がかなり変わってる気がする。
2022/09/04(日) 07:40:42.12ID:BA8X8WLf
gigazine今頃黒塗り解除とかやってて笑った、何周遅れだよ
2022/09/04(日) 08:22:22.69ID:AXVN1F1D
マウント取るの楽しいな
2022/09/04(日) 08:24:51.20ID:qLZhpzc7
他人をバカにするためにこの技術に触れてるのか?
分かったらさっさと効率の良いおっぱい生成方法を見つける作業に戻れ
分かったらさっさと効率の良いおっぱい生成方法を見つける作業に戻れ
2022/09/04(日) 08:34:56.65ID:Zyk6EVRR
ノートパソコンにオフライン環境は流石に無理だよな?
869名無しさん@お腹いっぱい。
2022/09/04(日) 08:46:59.24ID:2tWjR/gK 現在のAIがどのように画像を生成しているかはサイコロで解説するとサイコロを回して6を出しているのではなくAI1がサイコロを振って写真を撮りAI2がその写真の中から6の目が出ているのを選ぶというのを繰り返している
似たポーズばかりになるのはAI2が「横になった6」や「逆さまの6」を6と認識できないから
逆にサイコロではない「6と書かれた紙」が紛れ込んでもAI2はokを出す
似たポーズばかりになるのはAI2が「横になった6」や「逆さまの6」を6と認識できないから
逆にサイコロではない「6と書かれた紙」が紛れ込んでもAI2はokを出す
2022/09/04(日) 08:54:05.49ID:ryPdOZkl
女性の股間から舌や唇のようなものが出てる画像が結構な割合で出てしまうんだけど
少なくとも日本のエロ画等ではまず見ない表現だな
海外だとそうなのか?
防ぐための呪文があれば知りたい
少なくとも日本のエロ画等ではまず見ない表現だな
海外だとそうなのか?
防ぐための呪文があれば知りたい
2022/09/04(日) 08:55:18.80ID:haWedOot
>>858
GoogleアカウントごとにGoogleColabを使える
一人で複数のGoogleアカウントを取得できる
同じマシン、同じブラウザで異なるアカウントのGoogleColabを利用できる
つまり…?
何百枚も出すとか、1回でGPU制限にかかるような処理はできないけどね
GoogleアカウントごとにGoogleColabを使える
一人で複数のGoogleアカウントを取得できる
同じマシン、同じブラウザで異なるアカウントのGoogleColabを利用できる
つまり…?
何百枚も出すとか、1回でGPU制限にかかるような処理はできないけどね
2022/09/04(日) 08:58:26.48ID:GPG87k/8
普通に口元のアップとか指定してもちょっとしたグロ画像になる
こういうものが苦手なんだろうな
こういうものが苦手なんだろうな
873名無しさん@お腹いっぱい。
2022/09/04(日) 09:07:25.82ID:2tWjR/gK 陰唇(英語でもリップス)をくちびると混同しているんだろう
見た目が似てるからかもしれないが
あと単純に学習量が少なければ上手く生成出来ないので真面目に考えれば裸の女性にいろんなポーズを撮らせて全部のポーズで360度から撮影した写真で学習させないといけないかも
見た目が似てるからかもしれないが
あと単純に学習量が少なければ上手く生成出来ないので真面目に考えれば裸の女性にいろんなポーズを撮らせて全部のポーズで360度から撮影した写真で学習させないといけないかも
2022/09/04(日) 09:10:19.57ID:5JKyUupt
>>868
VRAM4GBのノートPCで動かしてるよ
GPUの性能次第じゃないかな
俺の環境ではk_euler ステップ20で512x512が1枚/30数秒
アチアチになるからクーラーガンガンにしないといけないけど
VRAM4GBのノートPCで動かしてるよ
GPUの性能次第じゃないかな
俺の環境ではk_euler ステップ20で512x512が1枚/30数秒
アチアチになるからクーラーガンガンにしないといけないけど
2022/09/04(日) 09:19:15.98ID:D2DXEsF7
Kritaプラグインで、アウトペインティングする
https://www.reddit.com/r/StableDiffusion/comments/x4wtt0/outpainting_with_my_krita_plugin_for_stable/
Kritaプログインの開発者の連絡を取っており公開予定。 多分明日(9月5日)
処理的には多分インペインティングのUIが違うだけみたい
https://www.reddit.com/r/StableDiffusion/comments/x4wtt0/outpainting_with_my_krita_plugin_for_stable/
Kritaプログインの開発者の連絡を取っており公開予定。 多分明日(9月5日)
処理的には多分インペインティングのUIが違うだけみたい
2022/09/04(日) 09:21:08.10ID:Sf9hlx20
>>875
うおおおおおおおおおおおおお
うおおおおおおおおおおおおお
877名無しさん@お腹いっぱい。
2022/09/04(日) 09:23:50.29ID:qhXXkwdk hlky版、webui.cmd実行後にブラウザが自動で開くように設定できる。
scripts/relauncher.pyの11行目をTrueにするだけ。
scripts/relauncher.pyの11行目をTrueにするだけ。
2022/09/04(日) 09:58:15.80ID:OO+2RJ38
webuiからtkinter消されてた
webアプリケーションからシステムUIを呼び出すとか正気とは思えなかったんだよなぁ…
webアプリケーションからシステムUIを呼び出すとか正気とは思えなかったんだよなぁ…
2022/09/04(日) 10:13:03.80ID:RVcBYi/F
>>875
WebUIのみか。ずっとhlkyだったが乗り換え時だな。
WebUIのみか。ずっとhlkyだったが乗り換え時だな。
2022/09/04(日) 10:21:31.93ID:D2DXEsF7
Dall-E アウトペインティングで漫画補完
https://twitter.com/8co28/status/1566016693352091648
実用性はともかく漫画のコマ割が補完されるってスゲー・・・・と思った
852話さんプロンプトも上手いし色々やっててためになる
https://twitter.com/5chan_nel (5ch newer account)
https://twitter.com/8co28/status/1566016693352091648
実用性はともかく漫画のコマ割が補完されるってスゲー・・・・と思った
852話さんプロンプトも上手いし色々やっててためになる
https://twitter.com/5chan_nel (5ch newer account)
2022/09/04(日) 10:39:48.07ID:8k46m39k
>>875
image2imageもあるのかな?
image2imageもあるのかな?
2022/09/04(日) 11:41:26.13ID:HLmDZZfA
>>880
漫画のコマに合うセリフを作る能力のほうが重要になる時代がもうすぐくるのか
漫画のコマに合うセリフを作る能力のほうが重要になる時代がもうすぐくるのか
883名無しさん@お腹いっぱい。
2022/09/04(日) 11:47:07.61ID:Pr+AOdIT 絵が高度になりすぎると、コマ割りやセリフが多少変でもトータルで気にならないクオリティになってしまうし、見てる方も差異に気づけないから、ケータイ小説みたいな適当で良い気はする
2022/09/04(日) 12:00:42.18ID:2/lNZ6gZ
>>880
自己顕示欲の高さが見えなければなあ
自己顕示欲の高さが見えなければなあ
2022/09/04(日) 12:16:00.44ID:Hmj0RGNx
hlky、最新版にしたらimg2imgが動かなくなったわ
どうしてもこういうのがあるよな、この機会に乗り換え考えるか
どうしてもこういうのがあるよな、この機会に乗り換え考えるか
886名無しさん@お腹いっぱい。
2022/09/04(日) 12:17:33.79ID:pVj2ux7/ https://github.com/basujindal/stable-diffusion/pull/103
Stable Diffusion リポジトリは、VRAM要件をさらに最適化するプルリクエストを取得し、8GBのVRAMで1280x576または1024x704のイメージを生成することが可能になりました。
512x512 の画像は、2.86 GB の VRAM が必要です。
Stable Diffusion リポジトリは、VRAM要件をさらに最適化するプルリクエストを取得し、8GBのVRAMで1280x576または1024x704のイメージを生成することが可能になりました。
512x512 の画像は、2.86 GB の VRAM が必要です。
2022/09/04(日) 12:25:06.56ID:Yk4CqekO
アイヤー!
更にv1.5が来たら一体どうなってしまうんだい
更にv1.5が来たら一体どうなってしまうんだい
2022/09/04(日) 12:27:00.16ID:af7u80DY
2022/09/04(日) 12:27:40.94ID:BA8X8WLf
>>885
relauncher.pyの上書きしたからではなく?
relauncher.pyの上書きしたからではなく?
2022/09/04(日) 12:30:36.60ID:9RS5pd5h
最適化早いなー
この分だと1月もすれば全部入りツール出てきそうね
試しにpysideでアウトペイントのツール作ってるけど、GUI作るの果てしなくめんどくさい
待ってた方が早そう
この分だと1月もすれば全部入りツール出てきそうね
試しにpysideでアウトペイントのツール作ってるけど、GUI作るの果てしなくめんどくさい
待ってた方が早そう
891名無しさん@お腹いっぱい。
2022/09/04(日) 12:37:37.68ID:Sp1VTg1Y2022/09/04(日) 12:41:57.12ID:Hmj0RGNx
893名無しさん@お腹いっぱい。
2022/09/04(日) 12:45:19.89ID:xR6XgMLo894名無しさん@お腹いっぱい。
2022/09/04(日) 12:46:07.98ID:NJ3o/DN8 Gigazineとかの馬鹿が広めるからColab複垢使用話はやめてくれ
ただでさえ一気に使用量が増えてグーグルが規制するの決定してんのに
ただでさえ一気に使用量が増えてグーグルが規制するの決定してんのに
2022/09/04(日) 12:54:09.25ID:BA8X8WLf
2022/09/04(日) 12:58:02.22ID:npLfRlct
本格的に匿名化とかしないと同一端末でアクセスしてるのモロバレだよ
Googleのサービス永久BANにでもなったら洒落にならん
Googleのサービス永久BANにでもなったら洒落にならん
897名無しさん@お腹いっぱい。
2022/09/04(日) 13:07:37.52ID:xR6XgMLo まあ複数アカウントとかやらない方がいいけどね
面倒だし俺はやらんけど
同一端末からアクセスしたらダメって訳でもない
嘘は良くない
面倒だし俺はやらんけど
同一端末からアクセスしたらダメって訳でもない
嘘は良くない
2022/09/04(日) 13:08:16.74ID:cPGt+buE
899名無しさん@お腹いっぱい。
2022/09/04(日) 13:10:11.13ID:Sp1VTg1Y discordで1.5のBeta trialやってる
五日前から
五日前から
2022/09/04(日) 13:10:23.24ID:BA8X8WLf
> x, mask = x["image"], x["mask"]
> TypeError: string indices must be integers
は自分も出たな
cropをmaskに変えたら動いた
> TypeError: string indices must be integers
は自分も出たな
cropをmaskに変えたら動いた
2022/09/04(日) 13:22:50.96ID:Hmj0RGNx
2022/09/04(日) 13:23:46.96ID:Hmj0RGNx
>>900
それそれ、設定変えたら動いたのか
それそれ、設定変えたら動いたのか
2022/09/04(日) 13:46:59.37ID:7D1hfm5z
hlkyのそこら辺はとんでもなくバギーだからなぁ
恐らくモードを切り替えた時に初めて中身が入る変数を一度も切り替えてない時にも呼び出そうとして怒られてる
恐らくモードを切り替えた時に初めて中身が入る変数を一度も切り替えてない時にも呼び出そうとして怒られてる
904名無しさん@お腹いっぱい。
2022/09/04(日) 13:49:21.46ID:Sp1VTg1Y このOutpaintingはdallみたいにもとからある画像の拡張とかはできない感じかな
というかヴォルデモート版のurlふつうに張ってるな
https://www.reddit.com/r/StableDiffusion/comments/x4wtt0/outpainting_with_my_krita_plugin_for_stable/
というかヴォルデモート版のurlふつうに張ってるな
https://www.reddit.com/r/StableDiffusion/comments/x4wtt0/outpainting_with_my_krita_plugin_for_stable/
2022/09/04(日) 13:51:48.32ID:tf2/TdH4
906名無しさん@お腹いっぱい。
2022/09/04(日) 13:55:48.72ID:LnPkFyju バカはバンバンBANされればいい
907名無しさん@お腹いっぱい。
2022/09/04(日) 14:11:34.29ID:af7u80DY ヴォルデモート版貼ってBANされるのは4chanだけなので…
2022/09/04(日) 14:18:02.36ID:qLZhpzc7
google垢の話じゃね
2022/09/04(日) 14:21:31.12ID:lht4hVLH
むしろ>>906をこの板からバンしたい
910名無しさん@お腹いっぱい。
2022/09/04(日) 14:30:40.70ID:af7u80DY 普通に貼ってあるって言ってる904のことです
2022/09/04(日) 14:32:18.27ID:HLmDZZfA
>>894
金払えよw
金払えよw
2022/09/04(日) 14:33:08.43ID:ipdxfw3n
いちご白書をもう一度
2022/09/04(日) 14:44:13.03ID:+Wi5axrR
colabは金ない学生を機械学習沼に落とすのに最適だから消えてほしくないな
2022/09/04(日) 14:45:14.06ID:HrkrXWYq
複アカコラボ!?それはひどい!
ま、まさか複数アカウントでGmailを利用してるような奴はいないよな?
ま、まさか複数アカウントでGmailを利用してるような奴はいないよな?
2022/09/04(日) 14:47:35.56ID:AXVN1F1D
仕事用と個人用がある
2022/09/04(日) 15:16:04.20ID:KmtIrpP/
>>880
ここまでできるのか
ここまでできるのか
917名無しさん@お腹いっぱい。
2022/09/04(日) 15:16:54.25ID:Pr+AOdIT918名無しさん@お腹いっぱい。
2022/09/04(日) 15:20:32.61ID:Ji0ofKdL919名無しさん@お腹いっぱい。
2022/09/04(日) 15:25:02.09ID:Ji0ofKdL 画像生成AIの衝撃冷めやらぬ今なら
「これもAIがやりました!」って言えば全部信じる奴がいくらでもいるから
そういう奴らを金にしようと模索してる852話氏はある意味実に正しいと言える
「これもAIがやりました!」って言えば全部信じる奴がいくらでもいるから
そういう奴らを金にしようと模索してる852話氏はある意味実に正しいと言える
2022/09/04(日) 15:30:10.92ID:40Skvoko
2022/09/04(日) 15:32:03.88ID:pDKGJRy6
922名無しさん@お腹いっぱい。
2022/09/04(日) 15:32:43.40ID:Sp1VTg1Y ハコニワのはなしはスレチ
2022/09/04(日) 15:36:56.62ID:KmtIrpP/
技術スレだから違うとこ行ってほしい
924名無しさん@お腹いっぱい。
2022/09/04(日) 15:37:49.68ID:MzYcb7UR2022/09/04(日) 15:41:53.28ID:wBVYHSrh
ヴォルデモートのsdアップスケーリング試したけど全く別物になっちまうしこれならギガピクセルでいいわ
2022/09/04(日) 15:43:28.90ID:Hz1uO1cn
>>921
それは規約ではなくFAQでは…
しかも複垢の話はなにも書かれておらず「読んでおいた方がいい」もなにもないという
ページ末尾の、29日に導入されるというコンピューティングユニットの話が気になるね
無料ユーザーへのリソースの割り当てが厳しくなるんだろうけど、具体的なことはわからない
それは規約ではなくFAQでは…
しかも複垢の話はなにも書かれておらず「読んでおいた方がいい」もなにもないという
ページ末尾の、29日に導入されるというコンピューティングユニットの話が気になるね
無料ユーザーへのリソースの割り当てが厳しくなるんだろうけど、具体的なことはわからない
2022/09/04(日) 15:45:18.17ID:pDKGJRy6
>>926
マジか
>Colab のリソースは、インタラクティブなユースケースに優先的に割り当てられます。大量のコンピューティングに関連するアクション、他者に悪影響を与えるアクション、Google のポリシーの回避に関連するアクションは禁止されています。以下は、Colab ランタイムでは許可されていません。
>複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避
マジか
>Colab のリソースは、インタラクティブなユースケースに優先的に割り当てられます。大量のコンピューティングに関連するアクション、他者に悪影響を与えるアクション、Google のポリシーの回避に関連するアクションは禁止されています。以下は、Colab ランタイムでは許可されていません。
>複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避
2022/09/04(日) 15:56:41.89ID:Hz1uO1cn
>>927
あら本当。見出ししか見てなかった。ゴメンゴメンもうしないよ
あら本当。見出ししか見てなかった。ゴメンゴメンもうしないよ
2022/09/04(日) 16:27:35.29ID:HLmDZZfA
無料コースで複数アカウントはバンされると思うけど
有料コースで複数アカウントは見逃されると思うんだけど
有料コースで複数アカウントは見逃されると思うんだけど
2022/09/04(日) 16:30:20.46ID:5qbX/wCK
2022/09/04(日) 16:32:54.10ID:pDKGJRy6
>>928
何目的でSD動かしてるかによるが危ない橋渡らなくても他の選択肢は結構あるで
Craiyon(DALL-E mini): www.craiyon.com
ERNIEViLG: huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
とりんさま: twitter trinsama
無料でStable Diffusion: memeplex.app
無料でStable Diffusion: twitter halcky_2025/status/1562777470381617152
LineでStable Diffusion: twitter nishino_0719/status/1563739424617549824
URL貼れなかったから色々抜いたわ
何目的でSD動かしてるかによるが危ない橋渡らなくても他の選択肢は結構あるで
Craiyon(DALL-E mini): www.craiyon.com
ERNIEViLG: huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
とりんさま: twitter trinsama
無料でStable Diffusion: memeplex.app
無料でStable Diffusion: twitter halcky_2025/status/1562777470381617152
LineでStable Diffusion: twitter nishino_0719/status/1563739424617549824
URL貼れなかったから色々抜いたわ
2022/09/04(日) 16:56:39.90ID:tr3rbsTE
3060tiで十分使えてるけどグラボ欲しくなるな SD目線でのグラボ比較データ欲しいところ
2022/09/04(日) 17:02:36.93ID:mOb44s/V
ernie-vilgのColabで良さげなの見つけたhttps://twitter.com/AIGirlsSelfie/status/1565534983967719426?t=YgifLpxlbCmTKP_xuVZtaA&s=19
けどこれ共有用って書いてあるんだけど、打込んだ呪文とかも共有されちゃうのかな?
呪文って客観的にみると恥ずかしい言葉がいくつか混ざってるんだよね…
https://twitter.com/5chan_nel (5ch newer account)
けどこれ共有用って書いてあるんだけど、打込んだ呪文とかも共有されちゃうのかな?
呪文って客観的にみると恥ずかしい言葉がいくつか混ざってるんだよね…
https://twitter.com/5chan_nel (5ch newer account)
934名無しさん@お腹いっぱい。
2022/09/04(日) 17:03:13.79ID:Sp1VTg1Y935名無しさん@お腹いっぱい。
2022/09/04(日) 17:13:29.83ID:MzYcb7UR 最近のイラストレーターはブスや老人が描けないと騒がれていたがAIが出来ても結局みんな美少女しか描かせてないというのは面白い
単に需要がないから描く必要がなかったってだけやな
単に需要がないから描く必要がなかったってだけやな
2022/09/04(日) 17:33:18.27ID:zYusn0fZ
hlkyからAutomatic1111に乗り換えだけど、生成時にReal ESRGANのアップスケールはできない?生成枚数はui.py書き換えて問題なかったけど、これだけが気になる。
2022/09/04(日) 17:36:47.80ID:haWedOot
938名無しさん@お腹いっぱい。
2022/09/04(日) 17:38:07.37ID:JhjrDCIK M2 MacBook Proのわい高みの見物(´・ω・`)
2022/09/04(日) 17:50:29.07ID:cPGt+buE
2022/09/04(日) 18:29:14.16ID:JdnrOGRL
2022/09/04(日) 18:41:50.10ID:zYusn0fZ
>>939
お、そんなのあったかと思ったら一枚ずつか……まとめてアプコンは外部ツール使わないと無理そうね、ありがとう。
お、そんなのあったかと思ったら一枚ずつか……まとめてアプコンは外部ツール使わないと無理そうね、ありがとう。
2022/09/04(日) 18:42:45.12ID:rfXtBS3o
PC組んでる間に最適化きたのか
これでモデル軽量化もされたらかなりデカいのかけそうだね
これでモデル軽量化もされたらかなりデカいのかけそうだね
2022/09/04(日) 19:08:46.58ID:HLmDZZfA
>>940
最新の予想はこんな感じ
4090 24GB 450W超え
4080 16GB 340W
4070ti 12GB 285W
4070 10GB 250W
3060-12Gから乗り換えるとしたら4080(340W)以上か
ぐぬぬケースと電源から変えないと無理かも
最新の予想はこんな感じ
4090 24GB 450W超え
4080 16GB 340W
4070ti 12GB 285W
4070 10GB 250W
3060-12Gから乗り換えるとしたら4080(340W)以上か
ぐぬぬケースと電源から変えないと無理かも
2022/09/04(日) 19:12:32.34ID:HLmDZZfA
ぶっちゃけ今の環境だと呪文考えたり指示画像いじってる時間の方が長い
もちろん出力後に加筆修正する時間もAIさんの待ち時間より長い
だからスピード自体はそんなにいらないけどメモリーだけはほしいんだよなぁ
もちろん出力後に加筆修正する時間もAIさんの待ち時間より長い
だからスピード自体はそんなにいらないけどメモリーだけはほしいんだよなぁ
2022/09/04(日) 19:23:03.81ID:KmtIrpP/
3060で我慢してる
946名無しさん@お腹いっぱい。
2022/09/04(日) 19:31:22.21ID:af7u80DY Emad曰く3090があればしばらくは大丈夫らしいが
2022/09/04(日) 19:53:56.60ID:cPGt+buE
2022/09/04(日) 20:39:49.77ID:RsdEr7/V
美麗な出力に寄与するワードとその強度のリスト誰かまとめてないかなぁ
アーマードコアとか効果あってホント笑ったけど
ジャパニーズ入れるとぶちゃいくになる悩ましいワード
アーマードコアとか効果あってホント笑ったけど
ジャパニーズ入れるとぶちゃいくになる悩ましいワード
949名無しさん@お腹いっぱい。
2022/09/04(日) 21:04:59.12ID:0wFGm1K9 ここ2週間酷使しすぎたのか、骨董品の1060がコイル泣きするようになってきたw
950名無しさん@お腹いっぱい。
2022/09/04(日) 21:16:27.94ID:qhXXkwdk >>947
prompt例によく出てくる武内崇氏もFGOのイラストレーターだね。
prompt例によく出てくる武内崇氏もFGOのイラストレーターだね。
2022/09/04(日) 21:19:31.71ID:fhiwRooP
ひょっとしてある程度判子絵師っぽい人のほうがprompt例としては有用ってことあるのかな
2022/09/04(日) 21:20:29.18ID:Hmj0RGNx
2022/09/04(日) 21:26:36.60ID:SsekaLFV
低解像度と高解像度で同じseed回しても結果は違うのかあ…
低stepと高stepではちょっと違うだけだから低stepで欲しい画像のseed探し頑張るのがいいかな
低stepと高stepではちょっと違うだけだから低stepで欲しい画像のseed探し頑張るのがいいかな
954名無しさん@お腹いっぱい。
2022/09/04(日) 21:42:08.44ID:MzYcb7UR pixivとか新海誠はpixivにある絵や新海誠監督の映画を直接参照してるというよりアメリカ人の想像した「pixiv」「shinkai makoto」のイメージを反映してると思う
日本人は現実のアメリカ開拓時代を誰一人として見たことないけど「西部劇」を想像できるように
日本人は現実のアメリカ開拓時代を誰一人として見たことないけど「西部劇」を想像できるように
2022/09/04(日) 22:10:09.20ID:tr3rbsTE
956名無しさん@お腹いっぱい。
2022/09/04(日) 22:15:04.38ID:t5WHjtPA Kyoto animation は2次元絵では割と強力に働く感じ。あとはkey visualも強い。京アニぱねえな。
957名無しさん@お腹いっぱい。
2022/09/04(日) 23:37:19.18ID:lkPX5/+n >>956
もしかしてキービジュアルのキーをエロゲ会社のことだと思ってる?
もしかしてキービジュアルのキーをエロゲ会社のことだと思ってる?
2022/09/04(日) 23:44:55.72ID:p0AGUpF8
まあAIくんははいはいアニメのやつねくらいには思ってる気はする
2022/09/04(日) 23:52:00.66ID:40Skvoko
>>954
いや想像もクソもデータセットにあるか否かだけじゃないの?
いや想像もクソもデータセットにあるか否かだけじゃないの?
2022/09/05(月) 00:01:30.76ID:LX5lrhji
58億のデータセットには普通に pixiv や danbooru のデータ入れてるだろうしな
2022/09/05(月) 00:11:38.69ID:d3oEewjD
自分の顔写真をゴッホとか特定の画家が書いた風にするってやり方ある?
ゴッホとだけ入れるとどう数値変えてもゴッホと自分の顔をモーフィングしたみたいになる
「ポートレートby ゴッホ ペインティング」とか色々試したけどダメだった
ゴッホとだけ入れるとどう数値変えてもゴッホと自分の顔をモーフィングしたみたいになる
「ポートレートby ゴッホ ペインティング」とか色々試したけどダメだった
2022/09/05(月) 00:22:37.27ID:cf6acCqc
portrait ~, Illustrated by Gogh
じゃいかんの
じゃいかんの
963名無しさん@お腹いっぱい。
2022/09/05(月) 00:22:42.44ID:GDhLR30+ denoise strengthが高すぎるんだろ
964名無しさん@お腹いっぱい。
2022/09/05(月) 00:25:59.92ID:M1wHtjvG redditに新しい最適化が来てるから試したが
colabの一番遅いGPUで1024x1024作れたわ
でも結果がおかしくなる
今まで可愛い女の子を出力したプロンプトが
頭3つになったりする
https://github.com/neonsecret/stable-diffusion
colabの一番遅いGPUで1024x1024作れたわ
でも結果がおかしくなる
今まで可愛い女の子を出力したプロンプトが
頭3つになったりする
https://github.com/neonsecret/stable-diffusion
2022/09/05(月) 00:58:26.85ID:PZqsQHOH
2022/09/05(月) 00:58:53.09ID:rJaN/dZG
dockerで入れられるのは良いな
早速入れてる
早速入れてる
967名無しさん@お腹いっぱい。
2022/09/05(月) 01:02:35.90ID:M1wHtjvG 768x768は普通だけど
1024x1024からおかしくなる
1024x1024からおかしくなる
2022/09/05(月) 01:04:36.79ID:rJaN/dZG
768の時点で頭から頭生えたりするから
969名無しさん@お腹いっぱい。
2022/09/05(月) 01:06:49.71ID:M1wHtjvG 512x768
768x512
までだな
人の形をたもてる限界
768x512
までだな
人の形をたもてる限界
970名無しさん@お腹いっぱい。
2022/09/05(月) 01:14:34.12ID:v1+0PzR1 あ、頭がふたつ生えたりするのってそこが原因だったんか…
seedで普通に出たり2人になったりトーテムポールになったりするからてっきりpromptで二重に指示が入ってるからなんだろうかと悩んでた。
seedで普通に出たり2人になったりトーテムポールになったりするからてっきりpromptで二重に指示が入ってるからなんだろうかと悩んでた。
2022/09/05(月) 01:23:20.50ID:wNgqRwHH
972名無しさん@お腹いっぱい。
2022/09/05(月) 01:25:31.66ID:qiCa8OdK973964
2022/09/05(月) 01:27:16.48ID:IhbRYerN こういうことなんだよ
lexcaで512x768で作られた拾い画像
https://i.imgur.com/eAhFN2Y.jpg
同じシードとプロンプトで768x768
https://i.imgur.com/mRDGGfW.png
さらに1024x1024
https://i.imgur.com/FlVgWrW.jpg
lexcaで512x768で作られた拾い画像
https://i.imgur.com/eAhFN2Y.jpg
同じシードとプロンプトで768x768
https://i.imgur.com/mRDGGfW.png
さらに1024x1024
https://i.imgur.com/FlVgWrW.jpg
974964
2022/09/05(月) 01:28:35.43ID:IhbRYerN975名無しさん@お腹いっぱい。
2022/09/05(月) 01:33:50.74ID:qiCa8OdK976名無しさん@お腹いっぱい。
2022/09/05(月) 01:56:04.46ID:ptGlXiXq 一度画像参照で乳首出させたらNSFW警告くらって、ようやく画像参照なしで乳首生成まで至ったけど難しいなぁ
いつの間にやらbikiniもNGワードだし
いつの間にやらbikiniもNGワードだし
2022/09/05(月) 02:02:11.66ID:wNgqRwHH
>>973
どの画像も根本的にはプロンプトxサイズxシードxガイダンススケールxサンプラーxステップ数の全てが噛み合って出来た産物
出力サイズが違うならシードは参考にならないんでガチャ回すかプロンプトの調整が必至
どの画像も根本的にはプロンプトxサイズxシードxガイダンススケールxサンプラーxステップ数の全てが噛み合って出来た産物
出力サイズが違うならシードは参考にならないんでガチャ回すかプロンプトの調整が必至
978名無しさん@お腹いっぱい。
2022/09/05(月) 02:07:06.11ID:EfKaYxB6 640で良いと思ったプロンプトが1024に変わるとあれ?ってなるな
512と640でもなんか違うなと思ったけどサイズ違うと一から模索しなきゃいけない感じ
しかも1024なんてRAM的に1枚しか作れないから模索の時間かかりそう
サイズアップで単純に喜んでたけど、これは結構だるい道のりだわ
512と640でもなんか違うなと思ったけどサイズ違うと一から模索しなきゃいけない感じ
しかも1024なんてRAM的に1枚しか作れないから模索の時間かかりそう
サイズアップで単純に喜んでたけど、これは結構だるい道のりだわ
979名無しさん@お腹いっぱい。
2022/09/05(月) 02:15:25.20ID:GDhLR30+ >>977
512に超えると変な画像になるって話だろ…
512に超えると変な画像になるって話だろ…
2022/09/05(月) 02:20:17.48ID:wNgqRwHH
>>979
元画像として貼ってるのは512x768で512越えてるやん
んでそもそも512x768で上手くいってんのも偶然の産物で
更にサイズ変えて生成してんだから「今まで可愛い女の子を出力したプロンプト」だのはアテにならんのでガチャ回し直しって話
元画像として貼ってるのは512x768で512越えてるやん
んでそもそも512x768で上手くいってんのも偶然の産物で
更にサイズ変えて生成してんだから「今まで可愛い女の子を出力したプロンプト」だのはアテにならんのでガチャ回し直しって話
981名無しさん@お腹いっぱい。
2022/09/05(月) 02:23:12.00ID:GDhLR30+ >>980
公式も片方が512ならセーフって言う理論らしいから
公式も片方が512ならセーフって言う理論らしいから
982名無しさん@お腹いっぱい。
2022/09/05(月) 02:47:31.79ID:Y6KGmWoY その1024版てプロンプト最後まで読み込んでるのかな?
アウトプット見たらサンプルと書いてるから一部だけ明記なのかもしれないけどプロンプトの途中までしか出ない
いつも使ってる640で出力してもなんか違う
あと送信ボタンが下にあるの使いづらいなw
アウトプット見たらサンプルと書いてるから一部だけ明記なのかもしれないけどプロンプトの途中までしか出ない
いつも使ってる640で出力してもなんか違う
あと送信ボタンが下にあるの使いづらいなw
983名無しさん@お腹いっぱい。
2022/09/05(月) 03:02:11.29ID:4ToG++hy >>947
このプロンプトいいね!ありがとう
短くて応用ききそう
そのまま
https://i.imgur.com/lHLlh9Y.jpg
Anime eyes追加
https://i.imgur.com/fsbHfbT.jpg
このプロンプトいいね!ありがとう
短くて応用ききそう
そのまま
https://i.imgur.com/lHLlh9Y.jpg
Anime eyes追加
https://i.imgur.com/fsbHfbT.jpg
2022/09/05(月) 03:19:46.20ID:aWFhX4Yd
hlkyのStreamlit版だと生成中にステップ毎の画像を表示できるらしく、入れてはみたものの4gbじゃoptimizedにしてもメモリ不足だった…
方法供養
https://rentry.org/GUItardのステップ2aで
webui_streamlit.yamlもconfigs/webuiへ移動する
ステップ7を終えたら、スタートメニューからMiniconda3 Promptを開いて以下を実行
conda activate ldo
cd C:¥Users¥ユーザー名¥stable-diffusion
streamlit run scripts/webui_streamlit.py
Email:が出たら空欄のままenterで起動します
方法供養
https://rentry.org/GUItardのステップ2aで
webui_streamlit.yamlもconfigs/webuiへ移動する
ステップ7を終えたら、スタートメニューからMiniconda3 Promptを開いて以下を実行
conda activate ldo
cd C:¥Users¥ユーザー名¥stable-diffusion
streamlit run scripts/webui_streamlit.py
Email:が出たら空欄のままenterで起動します
2022/09/05(月) 03:30:37.80ID:PbNT54P+
画像サイズ256x256みたいに小さくしたら?
2022/09/05(月) 04:23:38.21ID:aWfqEhq/
https://gigazine.net/news/20220904-stable-diffusion-webui/
GIGAZINEが丁寧に入れ方解説したな
でもGPUって壁があるからそうそうユーザーは増えないだろうな
GIGAZINEが丁寧に入れ方解説したな
でもGPUって壁があるからそうそうユーザーは増えないだろうな
2022/09/05(月) 05:08:44.70ID:kel2IxsN
>>986
手順がちょっと古いね
> 「name:ldo」に書き換えて
webui.cmdの中で-n ldoとして強制指定してるので書き換え作業不要になってる
> 「All Users」を選択して
webui.cmdの中で %USERPROFILE%\miniconda3 も探索先になってるのでどっちでも良くなってる
手順がちょっと古いね
> 「name:ldo」に書き換えて
webui.cmdの中で-n ldoとして強制指定してるので書き換え作業不要になってる
> 「All Users」を選択して
webui.cmdの中で %USERPROFILE%\miniconda3 も探索先になってるのでどっちでも良くなってる
2022/09/05(月) 06:21:29.07ID:kel2IxsN
テンプレ案作ってみた
https://rentry.co/2b9st
・編集パスワードは5ch
・ファインチューニング関係はどうまとめようか迷って入ってない
・>>3あたり時系列的に古いはずだけどメンテできてない
https://rentry.co/2b9st
・編集パスワードは5ch
・ファインチューニング関係はどうまとめようか迷って入ってない
・>>3あたり時系列的に古いはずだけどメンテできてない
2022/09/05(月) 06:34:51.36ID:aWfqEhq/
2022/09/05(月) 06:49:17.72ID:gvFojraf
2022/09/05(月) 06:52:56.64ID:kel2IxsN
2022/09/05(月) 07:41:18.37ID:aWfqEhq/
>>991
おお!マジでこれで行かない?
荒らし対策にたまにバックアップだけしといて
ずらずらテンプレが続くのも煩雑だし
レス時間制限が面倒って立てたがらない人でも簡単になるし
変えたかったら変えといたよ~で次スレ建てる人頼むとか周知しなくても済むし
おお!マジでこれで行かない?
荒らし対策にたまにバックアップだけしといて
ずらずらテンプレが続くのも煩雑だし
レス時間制限が面倒って立てたがらない人でも簡単になるし
変えたかったら変えといたよ~で次スレ建てる人頼むとか周知しなくても済むし
2022/09/05(月) 07:50:00.40ID:ADvJz/z5
>>991
お疲れ様です! 私的メモも作ってみました。面倒だと思うのでテンプレそのままでもいいと思いますが参考まで
○言語ガイドによるAI画像生成の概要
・言葉(文章)を入力する(テキストプロンプティング)と画像が生成できるAI (txt2img)
・ベースになる画像を指定することもできる。 (img2ime)
・インペインティング:一部をマスクして書き直させることもできる
・アウトペインティング:既存画像の外側を追加することもできる
・ファインチューニング(textual inversion):自分独自の画像(自分のペットなど)を追加学習させることもできる。
<各種例示リンクがないとわけが分からなそう>
○言語ガイドによる自動生成AI各種
・Dall-E2 OpenAIの元祖画像自動生成
・MidJourney 非常に綺麗な絵画的画像が生成可能
・StableDiffusion オープンソースで無料で使える。Webサービスは有料のDreamStudio
・Imagen Googleの最強画像生成。最強すぎて悪用懸念で一般公開されていない
・Parti 同上(Googleの別チーム)。Parti+Imagenも最近作られた
2021/1 DALLE-E,CLIP これが全ての始まり
2022/4 DALLE-E2 改良版
2022/5 Imagen 言葉を人間レベルで深く理解し絵画化できる
2022/6 Parti 英語→フランス語翻訳と、英語→画像変換を同じ処理(Transfomer)で実行
2022/8 Midjourney 非常に綺麗で絵画的な画像を生成できるサービス
2022/8 StableDiffusion 超低リソース化でPCで動く。オープンソース化
*Crypko(日本)や、ERNIE-ViLG(中国)もAI画像生成だが技術的にGANベースなのでこの流れではない。得意分野は異なる
クオリティランキング
1位 Image、Parti (一般には使えない)
2位 Dalle-E2 有料
3位 StableDiffusion 無料(Webサービスは有料
4位 MidJourney 有料。細部は甘いが絵画的で美しい
お疲れ様です! 私的メモも作ってみました。面倒だと思うのでテンプレそのままでもいいと思いますが参考まで
○言語ガイドによるAI画像生成の概要
・言葉(文章)を入力する(テキストプロンプティング)と画像が生成できるAI (txt2img)
・ベースになる画像を指定することもできる。 (img2ime)
・インペインティング:一部をマスクして書き直させることもできる
・アウトペインティング:既存画像の外側を追加することもできる
・ファインチューニング(textual inversion):自分独自の画像(自分のペットなど)を追加学習させることもできる。
<各種例示リンクがないとわけが分からなそう>
○言語ガイドによる自動生成AI各種
・Dall-E2 OpenAIの元祖画像自動生成
・MidJourney 非常に綺麗な絵画的画像が生成可能
・StableDiffusion オープンソースで無料で使える。Webサービスは有料のDreamStudio
・Imagen Googleの最強画像生成。最強すぎて悪用懸念で一般公開されていない
・Parti 同上(Googleの別チーム)。Parti+Imagenも最近作られた
2021/1 DALLE-E,CLIP これが全ての始まり
2022/4 DALLE-E2 改良版
2022/5 Imagen 言葉を人間レベルで深く理解し絵画化できる
2022/6 Parti 英語→フランス語翻訳と、英語→画像変換を同じ処理(Transfomer)で実行
2022/8 Midjourney 非常に綺麗で絵画的な画像を生成できるサービス
2022/8 StableDiffusion 超低リソース化でPCで動く。オープンソース化
*Crypko(日本)や、ERNIE-ViLG(中国)もAI画像生成だが技術的にGANベースなのでこの流れではない。得意分野は異なる
クオリティランキング
1位 Image、Parti (一般には使えない)
2位 Dalle-E2 有料
3位 StableDiffusion 無料(Webサービスは有料
4位 MidJourney 有料。細部は甘いが絵画的で美しい
2022/09/05(月) 07:50:20.51ID:ADvJz/z5
StableDiffusionの今後
・2022/9/4現在モデル1.4 (4GB)だが、近々1.5(2GB?)がリリースされる予定
・Audioモデル(9月予定。内容不明)、その後3Dモデル、Movieモデル(内容、時期不明)
・2023第1四半期にはモバイル版(100MB?)もリリースされる予定
・今後の技術
ビジュアルプロンプティング 2022/9/1発表。ソースコードも公開予定
https://twitter.com/_akhaliq/status/1565512090823041025
Q&A
・AI画像は人体(特に手足)がおかしい
→ 現時点ではそのレベル。今後ある程度は改善すると思われるが今はインペインティング、img2imgでガイドするなどで対応するしかなさそう。
・AI画像、思い通りにするのが大変で実用的ではないのか?
→ 現時点では用途は限定されると思います。いつ改善されるのか不明
・AIって画像をコラージュしてるの?
→ 画像のツギハギではなく、数千万枚~数億枚の画像を学習して数GBなどの生成方法(=モデル、特徴を圧縮したようなもの)にしています。容量的にもそもそも画像は入りません。
ロゴや署名のようなものが交じりコラのように見えることはある。学習不足
・権利・法律関連。イラストレーターはどうなるの?
→ 他スレでお願いします。
参考:画像自動生成AIと著作権 https://storialaw.jp/blog/8820
https://twitter.com/5chan_nel (5ch newer account)
・2022/9/4現在モデル1.4 (4GB)だが、近々1.5(2GB?)がリリースされる予定
・Audioモデル(9月予定。内容不明)、その後3Dモデル、Movieモデル(内容、時期不明)
・2023第1四半期にはモバイル版(100MB?)もリリースされる予定
・今後の技術
ビジュアルプロンプティング 2022/9/1発表。ソースコードも公開予定
https://twitter.com/_akhaliq/status/1565512090823041025
Q&A
・AI画像は人体(特に手足)がおかしい
→ 現時点ではそのレベル。今後ある程度は改善すると思われるが今はインペインティング、img2imgでガイドするなどで対応するしかなさそう。
・AI画像、思い通りにするのが大変で実用的ではないのか?
→ 現時点では用途は限定されると思います。いつ改善されるのか不明
・AIって画像をコラージュしてるの?
→ 画像のツギハギではなく、数千万枚~数億枚の画像を学習して数GBなどの生成方法(=モデル、特徴を圧縮したようなもの)にしています。容量的にもそもそも画像は入りません。
ロゴや署名のようなものが交じりコラのように見えることはある。学習不足
・権利・法律関連。イラストレーターはどうなるの?
→ 他スレでお願いします。
参考:画像自動生成AIと著作権 https://storialaw.jp/blog/8820
https://twitter.com/5chan_nel (5ch newer account)
2022/09/05(月) 08:00:22.29ID:aWfqEhq/
次スレ
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/
勝手に建てたよ
>>993-994
テンプレサイトのケツに好きに加えるんだ!
簡単に荒らせちゃうから誰かたまにバックアップお願い
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/
勝手に建てたよ
>>993-994
テンプレサイトのケツに好きに加えるんだ!
簡単に荒らせちゃうから誰かたまにバックアップお願い
2022/09/05(月) 08:12:17.58ID:yvSZaens
imageは野生の開発者によるpytorch版が年内にモデルリリース予定ぽい
2022/09/05(月) 08:21:06.77ID:iUzNWxpN
>>996
https://github.com/lucidrains/imagen-pytorch
これですか。知らなかった。
Stablity.aiがゴージャスなスポンサーって書いてるw
必要VRAMとかどうなんだろう。PCで動くレベにまでなるならStableDiffusion V2はこれになったりして
https://github.com/lucidrains/imagen-pytorch
これですか。知らなかった。
Stablity.aiがゴージャスなスポンサーって書いてるw
必要VRAMとかどうなんだろう。PCで動くレベにまでなるならStableDiffusion V2はこれになったりして
2022/09/05(月) 08:55:37.92ID:aWfqEhq/
レスしても尻切れになるから埋めるね
2022/09/05(月) 08:56:03.92ID:aWfqEhq/
梅
1000名無しさん@お腹いっぱい。
2022/09/05(月) 08:56:21.66ID:aWfqEhq/10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 6日 15時間 19分 55秒
新しいスレッドを立ててください。
life time: 6日 15時間 19分 55秒
10021002
Over 1000Thread 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
ニュース
- 【速報】三郷小学生ひき逃げ 車に同乗か…中国籍の男性から事情聞く [首都圏の虎★]
- 【ラーメン】「天下一品」が首都圏で閉店ラッシュ 6月末で10店舗閉店 [シャチ★]
- 反撃の中居正広「こんなはずじゃなかった…」受け入れられない性暴力者の烙印 世間に性犯罪者のように見られることに耐えられず★3 [Ailuropoda melanoleuca★]
- 鈴木おさむ氏、映画『かくかくしかじか』鑑賞し力説「3回泣いた。本当に傑作映画」「見る人減ったらマジでもったいない」 [muffin★]
- 安否不明の搭乗員らしき人見つかる 自衛隊機墜落事故 愛知・犬山市の入鹿池 中谷防衛大臣発表 [首都圏の虎★]
- アンガールズ田中、犬散歩中の男性にモヤモヤ おしっこに水かけず…「あれめちゃくちゃマナー違反だよね」 「飼う責任だから」 [muffin★]
- 台湾で新型コロナ、感染拡大 [949681385]
- 💪🏼👨🏼🐵ダウンタウン🏡
- ジークアクス、毒ガス散布装置としてダイキンエアコンを登場させるww [159091185]
- 退職代行で辞めるアホ日本人、今後はどこにも就職できない可能性wwwwwwwwwwwwwwwwwwww「徹底的に前職の退職理由を調査する」 [271912485]
- 【速報】工場、すべてAIロボットに置き換わると判明、年20万円のコストで働き続けるもよう [348480855]
- ケンモメンがGalaxyを買わない理由、謎 [931948549]