Midjourney】AI画像生成技術交換3【StableDiffusion
レス数が1000を超えています。これ以上書き込みはできません。
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換2【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661146705/ StableDiffusionの人の他社製品比較
https://twitter.com/EMostaque/status/1561349836980584455
・StableDiffusion、DALLE2、midjourneyは全て異なるものだ
・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった
これにより画像生成のガイドが可能になった
●DALLE2
・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。
・来年にはコストが10分の1以下になりAPIも公開されると思われる
・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう
●MidJorney
・VCの資金提供を受けたベンチャー、ではなく研究所
・非常に独特な絵画のようなスタイルを持っている
・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能
・オープンソースとそうでない部分がある。
●StableDiffusion
・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる
・まもなくDreamStudioプロシューマーサービスを発表する
・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない
これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた
・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている
そのため、誰もがこのモデルを改良し、構築することができる
https://twitter.com/5chan_nel (5ch newer account) テンプレはとりあえずそのままにしました
「これ入れて」がいろいろあると思うので>1へ提案しておいてください >>1
乙!
hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・ たて乙
現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、
最適な方法が流動的すぎて無理だよなぁ まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?
とりあえずファインチューニング(textual inversion)メモ
追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する
・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision
・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
利用時は例えば"In the style of * , <other text>"となる。
これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。
・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
https://sd-textual-inversion-models.tumblr.com/
・学習方法
https://github.com/hlky/sd-enable-textual-inversion
Stable Diffusionをいらすとやでファインチューニングする
まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな? >>9
書きたいけどNGワード連発されすぎて心が折れたw とりあえずcolabで動かしたい人はここがおすすめかも
コマンドは公式のリンクと同じ。hugging face とかの部分が最初わかりにくいかも
https://zenn.dev/k41531/articles/2459bbbe8e5cf3 NGワードはすぐわかっちゃうと荒らしが対応するから秘密らしく、条件はよくわからない
「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど
微妙に変えたり、2レスに分割するしかない Stable Diffusionの人、Crypto界隈をめっちゃ煽っててワロタ。
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw
https://twitter.com/5chan_nel (5ch newer account) NGワードは単純にリンクURLが引っかかってたりとかではなく? ●StableDiffusionの情報ソース等
・Discord https://discord.gg/stablediffusion
・中の人のtwitter https://twitter.com/EMostaque
・海外情報reddit https://www.reddit.com/r/StableDiffusion/
・https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので>>18を見たほうが良いが、その他TIPSは有用情報あり
・今後
・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account) StableDiffusion TIPS
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
サンプラの差は大きい。k_euler_aとk_heunでは2倍差
k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
●ハード
・ローカル動作性能 https://i.ibb.co/yd7SZ32/chartthin.png 出典:https://rentry.org/GUItard
・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう MJはもう別スレがいい?ここじゃあまり語られないし >>22
> サンプラの差は大きい。k_euler_aとk_heunでは2倍差
> k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと >>23
一緒でよくね
スレの流れが早いわけでもないから下手に分散させたら過疎るだけかと >>24
「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti
k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image
l_lms 5.89 it/s 10.08s per image
k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image
進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね k_euler_aはSampling Step 20くらいでいい感じになるのでなお早くできる --turboの効果凄いな、ちゃんとメモリ節約出来てるのにオリジナル版並の速度が出る img2img、バリエーション起こすのにいいわこれ
この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる 法律、権利関係の議論は熱くなりそうで別でやって欲しいんだけど、このサービス、技術的にどのぐらいのレベルなのか気になる
https://illustmimic.com/en/
本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!
mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。 img2imgは構図維持するよりstrengthを大きくして
元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな
例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる >>34
Loopbackはやってる?
Strengthを0.2~0.3ぐらいにしてLoopback Batchを5回とか10回かけると構図維持したまま細部だけ変形していくよ >>26
ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ >>32
今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない >>32
waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう >>26 >>26
RTX2080でoptimized版に--turboでddim 50step 512×512 1枚あたり7.5秒だな
2080Tiと殆ど変わらないとは思えないんだが --turboで何か処理を間引いてるのか? >>38
9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ
学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった
>>42
1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい
2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる
StableDiffusionもバージョンアップで性能上がっていきそうですが 初音ミクは前スレのこれがめっちゃ良かった
turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ
https://i.4cdn.org/g/1661704624784564.jpg
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
1段目 turquoise -> green -> red 色違い
2段目 twintail -> ponytail -> bun 髪型違い
3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ SDは既存アニメキャラは意図的に出ないようにしてるみたいでそういう用途ならdalle miniのほうがええね 前スレの
> でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい
これ--optimizedだったら1024x1024行けるかな? Craiyonのanimeエンハンスモデルが3090のシングルで数時間学習しただけで
あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな >>45
そこだけ妙に節操があるのはなんでなんだろうな
著作権なんて便所の糞と一緒に流しちまえとしか思ってない連中なのに どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
MJの高解像度出力ってどういう仕組みでやってるんだろう?
あれがSDに降りてくれば凄いんだが 512x512で作ってから
同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい 逆に絵から「このテキストで作る絵に近いですー」って出してくれれば
好みの絵つっこみまくったら共通ワード出せるのか >>46
3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。
VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする >>36勘違い、実験中で-turbo入れ忘れ
0.78it/s=1.27it/s、約10倍差だった
(どうでもいい情報ごめん)
>>51
今それ試してるんだけど、ボケちゃって詳細が生成されるわけでもなくいまいち
ESRGanと変わらないというか・・strを0とか0.01、0.05、0.1とかいろいろやってみたけど
MDでいうlightでないupscaleみたいなのが欲しかったんだけど
大元の生成時の画像とseedと呪文等全部ちゃんと記録しといて、-turbo外して大きいのを作り直しとかがいいんじゃないだろうか >>48
むしろ逆だよ
「なんかカッコいいアニメのポスター」で既存のアニメの絵が出てきたら使いにくいじゃん
フォトストックみたいに気軽に使えるものが欲しいんだろう >>53
最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済
> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど やっとGoogle ColabでGPUつかめた。
Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd
事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK
起動がかなり遅いのがデメリットだけどWeb UIはやはり便利
こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab 例の炎上サイト、Tesla P100×1台分程度のリソースしか用意してないな
逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか 貧弱なローカルPCでやってたらMJって凄いことしてるよなぁってヒシヒシと・・
①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示
②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加
③さらにupscaleで2048x2048化、これも作り直しで情報増加
②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど >>56
凡人の考えなんて3周遅れなんやね……、情報サンクス AI勉強するか、と思ってサイト検索して、Python基礎、微分、線形代数、この辺まではまあ高校数学だから、そういうのあったなーでいいけど
行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い
俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事 >>58
ちらっと中身見ただけだけど2個目の方はアクセスするためのパスワードかけられるっぽいね
別にアクセスされたからってそんなに困ることもないだろうけど気になる人はそっち使うといいかもしれない >>60
かなり運用コスト高そうよな
微妙に変化するのはSDで言うところのi2iしてCFGを弄るイメージ anatomical chart(人体解剖図)という
入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した
あと真正面向く >>60
MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代 >>62
AIの何やってるか知らんけど深層学習の原理は普遍近似定理
フーリエ解析や関数解析を勉強してないと定理の証明は理解できんぞ AI、最初はおもろかったけどミミックだっけか、あそこまで露骨なの出てくると完全に無法地帯と化してきて引くわ
イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ あんなありがちな顔だけ生成マシンがここまで荒れるとは hlkyにDokcerファイル、docker-compose.yml他が追加されて、Windowsでもdocker compose updだけで使えるぽい
https://github.com/hlky/stable-diffusion/discussions/93
WindowsのDocker Desktop って NVIDIA GPUの準仮想化に対応してんのね。知らなかった。
便利そうではあるけど、なんかトラブりそうで誰か人柱が欲しいw >>74
規約だと生成マシンのために用意する画像は自筆のものだけってことになってるけど
絶対他人の書いた画像をぶちこむ奴らが湧くから絵描きは普通に警戒すると思う どのみちファインチューニングしたファイルがどんどん配られるようになるから反対しても無意味だよな
配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな >>64
って書いたけど実際動かしてみたらなぜかパスワード機能しなかった
webui.py書き換えて直接パスワード指定したらできたから結局どっちでもいいかも この板にもAI愚痴スレ立てた方がいいの?
物申したいだけなら余所でやってほしいんだけど 賛美を抜いた愚痴アンチだけのスレが欲しい
または賛美スレもこの板に立てるとか >>50
> どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど 賛美がCG板で
愚痴アンチが向こう完走次第イラストレーター板
でいいんじゃないかな
板の特性的にその方が住み分けできる気がする midjourneyが期間限定で--test,--testp,--creativeオプションを実装してるね ID:l6B+4duJ
>>1
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/ >>83
また定期的に期間限定やりやがってくやしい・・でも
> 1) A general purpose artistic mode you can use by typing --test
> 2) A photo-realism mode you can use by typing --testp
> If you want it to be more creative type --creative after your prompt
https://twitter.com/ro1was/status/1564256480701730816
マジかって感じ
https://twitter.com/5chan_nel (5ch newer account) >>86
ほくろ
鎖骨にも見える服のシワ?
えっち! 手軽なAIで生き残れるでしょ
スマホでも出力できるし Google Colabで現在のサンプラーを確認したりサンプラーを指定したりするのはどうやればいいのかしら MDのtest、girlって入ってても結構な確率でオッサンとか出るな midjourneyて適当に単語入れてもなんかいい感じ(雑!)になるけどあれってどの段階でどんな感じに調整してんだろ(あやふや!) MJの勝手にいい感じになるのが面白いし、本来の創作からはかけ離れてるなとも思う
たまたまこんなの出たぞ!って自慢する遊びって感じ
「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの 作成した画像だけで指定したプロンプトってわかったりする? --testで久々に入ってみたけどMJのrelaxモード遅っせぇ!
つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる
ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな
ようはすべての有料キューの後回しにされてる デコーダーもあるから一見出来そうに思えてやっぱり出力→入力への逆変換は不可能なんだよな
逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい
まあそれ用のAI学習すれば出来てしまうんだろうけど ちなソースの中身見ると最初から各自で自由に改変・拡張できるように
滅茶苦茶親切に色んな機能があらかじめ用意されてるのな
短期間に機能追加が進むわけだ >>99
seedが違うんで完璧に逆は無理だね
なおSDでseedまでわかる検索サイト
https://lexica.art/
日付が8月上旬に集中してるので、その頃のDiscordのβ情報だと思われる >>98
SD取り入れたらしきtestモードはパワーが必要らしいからな
test実装で人が増えた+みんなtestモードで遊んでる=リラックスマン死亡
だからローカルで動かせるSDが神すぎる MJのファインスケールの技術がSDに降りてきたら凄いんだけど
MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな >>102
できるよloliってやると幼女に
pregnantってやると妊婦になる >>102
はい、一生懸命プロンプト入れたらできますよ!
え?今日からMJを始めたい?いいですよ、それじゃあDiscordに登録してください ローカルだった、間違えた
まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い MJのtestでオリジナルねんどろいど試したがクオリティ高いな
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
https://i.imgur.com/V8aG77Y.png
認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい --testで適当にアニメキャラ出したら色使いや絵柄がパンツ先生ってのにやたら似てる気が・・
まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか ちょっと間違うと?平気で事故画像になるな
赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか
google driveに画像保存するタイプのnote bookは危なくて使えんわ
img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし 分かる
メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ
実写の人間の顔が生成されるのも怖いときある ツイッターの#midjourneyの外人を何人かミュートしたことある
どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか
数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか 110みたいなのはあるな
気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら
ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ >>66
plastinationおすすめ
>>75
この際WSLおよびDockerはオーバヘッドになるだけなのでおすすめできない
>>95
https://replicate.com/methexis-inc/img2prompt ロリどころか赤ちゃんから老人まで全裸にできるし、他に倫理的な問題がある表現もワード次第で大抵出せるから、今まで一般流通のなかった特殊性癖な人にとっては供給量が砂漠から海になるくらいの地殻変動が起きてる。 下手に国内法で規制とかしたら外国AI企業が発展して日本の著作権法で検索エンジン開発できませんでしたの再来になるな
クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺ >>116,117
その辺も重要だと思うけど、別スレで
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
映像作品の倫理、権利関連は専門的な話なので専用スレがあってもいいと思うけど法律板かどこかに必要なら立ててください。 huggingfaceとかColabに面白いツール結構あるんだが、一応学術的な用途のサイトをエンタメ乞食目的で拡散していいのかめちゃくちゃ悩むな VRAM足りないって言われる、GPUでコスパのいいのなに? Colab pro使ってるけど512、ステップ数50、5枚一括生成辺りからもうプレビュー読み込めなくなってしまう
やっぱり1枚ずつ生成した方がいいのかな なぁ今やっとローカルに環境構築できたんだがcmdで一行ずつコピペするの大変だからpythonで①作業ディレクトリの設定、②promptの入力、③保存して次行くかor保存して次行くか、くらいまで人がやる作業減らしたいんだが誰かヒントをくれんか。
俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。 >>124
>>18を試してみては
ブラウザ操作できるのが楽。出力は画面にも出るしoutputディレクトリにも自動保存される
手順2のckptファイルダウンロードは済みで、3のminicondaもインストール済みだと思うけど 背景が得意と言ってもちょっとイラスト風に指定すると
いかにもAI君が描きましたって画風になってしまって使いにくいな
最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ pythonって環境汚れるから嫌なんだよな
dockerに出来るなら移行させるか AIはイメージボード的に考えて自分でさらに描きこめる人じゃないと活用しにくいかもね。 >>127
anaconda/minicondaでもか? 環境が汚れるというかソフトによって細かくライブラリのver調整しないといけないから
共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる
condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから
色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな 単純に複数フォーク使う場合はDockerの方が気分的にいいね
性能が気になるけどまだ動かしてみたって報告見つからないな >>132
例のサイトなんかより遥かに凄いな、もう誰でも絵を作れる時代 >>127
Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね >>131
うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う >>137
普通の使い方ならそうだけどGPUをdockerから参照させるのが(できるらしいけど)なんかトラブル起こしそうで試してない
問題なく動いてる? レス先間違えたw
>>135
情報ありがとう。
手順とかどっかに書いてますかね?
dockerーcompose upする前のnvidiaのdriver設定とかあると思うんですが、そのあたり >>137
うちの場合、
・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ
あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった 一応参考資料
Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48
うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ 一応念のためだけどVSCodeは拡張が便利だから使ってるだけで別に必須ではないよ
もちろん自分でdockerコマンドを叩いても問題なくいけるはず 出先でID変わってるけど137です
>>138
なるほど
GPU関係のドライバとか設定とかないんですね。
どういう仕組みなんだろうw
帰ったら試してみます。ありがとう! >>141
正直dockerにはあんまり詳しくないんだけど、理屈としては
・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]
ということだと思う
たぶん
知らんけど ローカルで動かすには大変なんだね
DLしてポンと行けるようになるまで待つしかないか‥ >>58
これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?… >>142
なるほど。ベースイメージがいい感じになってるってことですね(雑理解
>>144
流れないので安心してなんでも入れてOKですw >>125
ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。 >>86
えっ?
これがいいとか思ってるなら精神病院に行けよ Pythonのみ環境だったらあぶぶニキのnoteの手順がわかりやすいかも ちなみに上の話の確認をする過程で軽くTwitterを検索してたらなんかGPUなしで(CPUで)StableDiffusionを動かせるDockerコンテナを作った人がいるみたいなので興味がある人は試してみてほしい
dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456
[引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法 https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496 キム・ヒョンテ(Hyung-tae Kim)とかも結構ヒットする >>151
なんかとんでもねえところに置いてあるなと思ったら
GoogleCloudに置いてるブログの直リンクがgoogleドメインに化けてるだけか 今写真か画像から3DCGにする技術あるって見たけどそういうソフトって知ってる?
組み合わせれば3DCGモデル作れそうなんだけどなぁ 仮に世界中全ての画像生成AIがサービス停止したとしても、ローカルに構築しておけば生成し放題。GPUと速度は比べ物にならないがIntel CPUのみでも動かせるようになったし、環境だけは持っておくべき。
https://zenn.dev/karaage0703/articles/4901bf68536907 フォトグラメトリーってヤツ、アップルスマホで動くらしいけど
まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい
リトポアプリで家具なんかは割と簡単にモデル化できるよ >>138
Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした
Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw macでローカルに試みてみたけどPyTorchのインストールで早くもつまずいた
こんなややこしい事よう出来るなみんな 凄いおもろいんだけど呪文周りが大変だねこれ
タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい >>158
NVIDIA Instant NeRF: NVIDIA Research Turns 2D Photos Into 3D Scenes in the Blink of an AI
https://www.youtube.com/watch?v=DJ2hcC1orc4 NeRFは複数角度からのイメージが必要で、それをSDが生成できるならその時点で3D生成できてることになる気がする >>162
3DとかAIとかをMacでやってる人尊敬するわ >>161
うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう…… >>164
グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも >>168
ちなみに1650は動かなかった
動くようになるっていうmodifyはやってみたけどcuda out of memoryになった >>169
2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった >>167
いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw
多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)
●WSL2(ubuntu20.04)
・cuda-toolkit ?
●Dockerコンテナ
・Docker fileをbuildすればOK
cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)
また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw マイニング需要減退に4000番前の買い控えとが合わさったうえ
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな
> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。
4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html
> 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。
(ローカルSDのための技術交換です) ZBrushでVroid弄った方が早いかなぁ
たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい
0→1は無理でも手直しできるレベルなら使いこなせそうだし >>172
今は時期が悪いおじさん「今は時期がいい」
ってこと? >>168-170,172,173
別スレの誤爆? なにかのコピペ?
グラボが高いとかZBrushで作るとか一体何の話してるんだ ローカルSDはゲーマーと視点がずれてるのが面白い
「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか
自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな
ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど
SDで生成されたのは512x512で大抵見向きもされてない
ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度 >>175
横からだけどもしかして起点になってる元レスの>>158と>>164がNGか何かで見えてない人? >>175
AI総合スレみたいなのないからじゃない?
一応イラスト1枚から3DCGやアニメに繋がるから全く関係なくもないと思う
素材からの手直しも過程として似てるし 164までは分かるけどその後のレスの意味は俺も分からないなw
NeRFとかはスレの趣旨としていいと思うけど >>176
> SDで生成されたのは512x512
同じように自力でアップスケールできるよ 自分で言うのもなんだけどGPUの話題は問題ないでしょ
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ
ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?
>>180
いいGPUがあればね・・ ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
これ3DCGと関係ないじゃん
ここCG板だよ? そっちって2D絵描いてるイラストレーター向けってかイラストレーター板に立ってるスレだよね
こちらはCG板に立ってるから3DCGも扱うんじゃないの?
最近のAI話題も大体2D絵の事だと思うし 一般の使用想定者は2D、いわゆるハンコ絵や背景の生成目的に使うが
ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか
そうした用途で使用する人も想定できるんでないか、CG板だし まぁ、AIは3DCGゲームデータをかなり学習してるようで密接ではあるんだよねぇ
MJでレンダリング系呪文使ってる人の多いこと >>181
2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね 猫の人(たかなんとかさん)が紹介してたバイドゥのお絵描きAI動作確認してみたけど
GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった クリエイター目線で雑談質問含めて総合スレにした方が伸びると思うは分かる
技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし
クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな フォトショのプラグインのあのデモ見る限り
ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが
既にリリースされてるんだっけ?
ペイントツールと直接連携できるのはやっぱ強いわ 操作方法のマニュアルでなくて絵自体を上手くするテクニックとか?
AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは
自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな
コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする 3Dプリンタでフィギィア造形とか
AIが完全な絵を描くにはむしろ立体的理解が必要なのか
3DCGがさらなる進化のカギを握るはありそうだ
3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く
実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある >>189
別に伸びなくていいです
何だか知らないけど賑わってるからって理由でお客さんが流入するとろくなことない Adobe化せずセットでも安価なサブスクにして欲しいなぁ
全部従来のクリスタみたいにオフラインでも使える感じで 途中の生成過程よく見てるとフラフラして面白いよね
腕が出たり消えたり、顔つきがふっと変わったり フォトショもオフラインで使えるけどフォトショ自体少し高いよね
フリー含めたAI普及しそうな今なら尚更
まぁ代替え自体は同じようにあるけど 解像度を高めるほうほうが見つからんな
一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから
img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img)
これやってもぼやけたままで細かいパターンが作られたりしないんだよね
img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい ってかこのソフトだけでは何もできないことぐらいCG描いてる人なら知ってるよね
出来たら〇dobe辺りが黙ってないと思うw
結局全員が使い出したら差別化が必要になるから >>198
どうしようもないね・・いきなり最終サイズじゃないと接合部で整合性取れないし
ローカルだと化け物GPU所有するしか活路はないかと
MJは裏でなんかとんでもないことしてると思う、たまたま今貼った>>197をもっと高度にした何か
--ar 1:2 とかにした人間が頭二つになったりするので
間だけじゃなく、ハチの巣状に複数個所描画しながら、ステップ重ねてるとかかも 従来の才能知識技術必要なのと違って呪文の運用方法のマニュアル覚えれば誰でもできるからね
そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない 明確に禁止だっつってんのに未来の話をしたがる奴は日本語が不自由だと思うしかないなもう もともとイラレ板から分離して出来たスレみたいだけど
あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある
そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる
実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど いまいち分かりにくいよな
イラレ板は業界の話とか職業とか金絡みの話じゃないのか?
技術や学び全般はこっちな気がするが >>203-205
何の話してんだよ・・・。どっか別スレの話ならそっちでやりな
いい加減にしてくれ >>198
あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう 1人か2人かしらんけどかなりのアホが迷い込んできてるな
悪意はなさそうだがそろそろ黙って メジャー紙(?)も続々取り上げてて乱用待ったなし
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ
文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/
「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/ この板に雑談スレないからじゃ?
ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ
単純に立て方の失敗
NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う
イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない > Photoshopで動かすプラグイン「alpaca」
一切に意に介されないfire alpacaさん・・ 質問スレと雑談スレに分離するか質問スレをどちらかに含ませるか辺りか
金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか? 質問に答えられるような層ってこのスレの住人だろうけど過疎ってたから質問はこっちでいいのでは
次からテンプレート入れてスレタイに組み込めば?
まだその段階ではない気がする イラ板のアンチスレについに勢い負けたどころかこっちの3倍w
あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない AIの背景見過ぎて一発でAI背景のおかしなとこ見つけられるようになってしまったw
萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな
もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな ●CLIP-guidingって何?
Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104
CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。
近日中に公開予定です。
Vit-Hは完成前でも特にロックです。
---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq
プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]
#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]
#Negative prompts for Latent Diffusion
latent_negatives = [""]
image_prompts = []
どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account) >>217
MJ綺麗で好きだけど、単純にSDの方がオープンソースで技術的にも色々変わっていくから話題が多いね >>217
人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ
MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる プロンプトに絵文字を入れられることはここでは知られてる? >>220
かなり初期にcraiyonあたりで話題になったよ >>220
Unicodeは何でも入るけど、これはこういう効果があるって情報があれば役に立ちそうね >>221
そうなんだ
>>222
🍑だけでケツが出てくる ああ、またリンク間違えた・・泣きたい、それも文字だ
https://i.imgur.com/iIAyLG6.jpg
5chってreddit直リン貼れないのやめてくれ、不便すぎる 【Midjourney】AI関連総合【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1661853927/
分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで 仕事の観点からだと実用性のある背景にはMJみたいなアートに振った画風よりも
そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど
平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね
イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな
コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし >>176
現状のSDだと1次生産時の画像サイズはまじで重要だからな
MJのアップスケール欲しいわ
似たようなのが発明される流れではあるみたいだが >>227
スレタイもうちょっとなんとかならなかったの?
AI関連総合だけでいいでしょ、dalleとかもあるんだし
こっちと誤認するの狙ってるようにしか見えないんだが >>226
なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった 絵文字ってどういう認識なん?
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから>>226で
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか 以降スレに反するのは全部そっち誘導でいいな
ここは雑談なしの純粋な技術スレにしようぜ webuiのgenerateのボタン位置・・馬鹿なのか >>235
Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる ぼんやり理解だけど、
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
https://i.imgur.com/RZr0oGw.jpg
プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。 >>238
更新しろ
みんな文句言ったから今朝には治ってた >>237
>>239
thx
そうかclipfrontで調べればいいな 別に絵文字と特別に認識している訳ではない
ただの文字の一つで扱いとしては漢字一文字とほぼ同じ
そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので
絵文字を入れると絵文字の画像が出てくるという話
🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため >>245
CLIPの説明読んでるところだけど、”説明文に含まれている”わけじゃなくてもいいらしい。そこがCLIPが革新的な点
>>240みたいに画像自体を認識して英語にする
で、言葉の距離が近いものは近いと解釈する(smileとスマイルマークは近いので同じように機能する)
ついでに、rene magritteという画家をスペルミスして、rene magirtteとすると、似ているけど少し違う画風が得られる、らしい。面白い tomieって入れると黒髪美女出る
富江だと風景画になってしまった >>247
学習のデータセットのテキスト自体にはCLIPは使われてないからよくよく読み込んでからレスしてくれ
読んでる途中でらしいで否定されても困る https://github.com/hlky/stable-diffusion
最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート? verup前は俺環の最大解像度で1枚はいけるのに、2枚からバッチ回すとout of memoryなってたのがちゃんと治ってる
自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ
無償で開発してる人たちにほんと頭下がるわ 前スレで出てた
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski
k_euler_a, cfg 10, steps 50, seed 721628136
のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる?
image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0] 日本人女性っぽい名前を入れると日本人が出てくる
akikoとか >>251
学習データのテキストにCLIPが使われてるところ持ってきてみな
推論じゃないぞ >>256
>>251が言ってるのは「学習時点」、あなたが言ってるのは「学習データ」の違いだね
分かってると思うからそう突っかからなくていいのでは。 >>245は間違ってる >>247
yoshikata amanoとかalphonse muracとかってそういうことなのかな
Lexica見てるとよく出てきて、スペルミスかと思ってたけども。 >>258
個人的にはめっちゃいいと思うけど人来るかな?って思った
画像に限らず日本人のDiscord欲しいよね >>258
わからんけどTwitterあたりでやったほうがいいと思う webuiのimg2imgでsrengthを小さくしてloopbackで回すってのがよくわからん
str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない >>260
>>261
なるほど、やめときます
まあねらーは馴れ合わないということか >>257
脇から文のおかしい奴に突っ込んでこられても困る EmadさんDISCORD情報 2022/8/30
・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど
→ ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない
・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。
OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。
・V3は1週間以内にできる。多分チェックに2週間かかる
(注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味?
・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、
腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。
→ ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。
@Dango233が対応してます。
・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。 この画像からプロンプト出すやつ、実際に作成者が打ち込んだテキストが
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt
画像から推測してるだけっぽいんだけど。 >>262
プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?
で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる
んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する) >>267
なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する >>253
Google Colabでやってる人かな。それだとエラーになるでしょ
import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]
みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど >>266
AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ >>266
画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする
最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど > Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエスト
これ欲しい!yamlファイルの山マジ勘弁して
縮小版と並べたら一瞬どっちの隣のかわかんねーよ 手足とか指がぐちゃぐちゃでも大丈夫なホラーとかダークファンタジーに向いていることに気づいてしまった >>268
そういう場合元のプロンプトを流用すると不都合の方が多いと思う
思い切ってhighly detailedとかdetailed faceとかの画質指定系に絞るといいかもしれない 初音ミクさん
https://i.imgur.com/NtCokk0.jpg
髪型
Verdigris and Turquoise hair, thin double pigtails hairstyle テーマだったらsubject(主語)より前のほうがいいと思う
detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない めちゃくちゃ奇妙なこと入力しても何らかの絵にして出力してくるんだからすごいな 無料colabでファインチューニングする人はコンフィグのbatch_frequencyを2500くらいにしようね😭
batch_frequencyに指定したstep数ごとにプレビューを出力するんだ
2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭 hlkyさんTwitter始めたよ!
@hlky__ >>284
めっちゃ分かりにくい、というかpython環境設定方法書いてないね
中身の解説をしてるわけでもなし自分用メモみたいな感じ
>>18でいいのでは あぁ >>18 ってローカル環境で動くやつなんか
仕事が片付いたら試してみよう ●動画での服の着せ替えについて
https://twitter.com/karenxcheng/status/1564626773001719813
・Dalleでマスクすることで服を変更することができる
・しかし一貫性がないためフレーム毎に服が変わってしまう
・これを解決するツールとしてEbSynthがある
EbSynth https://www.youtube.com/watch?v=eghGQtQhY38 https://ebsynth.com/
※以下の手順は私の補足
1.ビデオをPNG連番ファイルに変更する
2.キーフレームを他の画像に変更する(1枚。複数も可)
3.ビデオPNGをマスク(白黒)にする ※自動もできる?
→ 全ビデオがキーフレームの画風になる
・他の方法としてDAINというAIフレーム補間もある
https://twitter.com/karenxcheng/status/1552348027834118144
Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。
https://grisk.itch.io/dain-app
https://twitter.com/5chan_nel (5ch newer account) デフォで散らかってるwindows側にごちゃごちゃ入れるのは嫌なんでWSLに普通のdockerとdocker composeをインストール
webuiを起動した時に出たエラーメッセージで検索してtoolkit更新
無事docker composeで起動確認
さよならanaconda君のことは好きじゃなかったよ アニメマンガ系で浅く再トレーニングされたモデルが出てた
https://huggingface.co/naclbit/trinart_stable_diffusion
ただ劇的革命的って訳じゃなさそうだし
環境側の設定変更が要るんで試したい人が試せって感じかね >289
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・
girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/LqvrGRM.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/OZY3HE1.jpg
基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね >>290
早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ >6の
>公式 https://github.com/CompVis/stable-diffusion
のimg2img版はないのかな?
Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ >>294
単に外国人が作ってるから外国人好みの絵が出るように調整されてるだけでは?
手塚治虫が作れば手塚治虫好みの絵ばかり出力するAIになるだろう アニメ調って、日本人が言うアニメじゃなくて
ディズニー系の事か >>289
追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/ShbMRq8.jpg
>>299
プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう 肝心な画像リンク間違えた
デフォルト(sd-v1-4.ckpt)
https://i.imgur.com/ShbMRq8.jpg
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
https://i.imgur.com/FeCmWYc.jpg 一部アナ雪感があるね
単品で見れば良い感じだけども 恐らくこのモデルの本領を発揮させるGreg Rutkowski的存在が居るんだろうけれども
それこそ魔術の実験のごとくトライアンドエラーでやるしかない
Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし 彼らの言うアニメ調と我々の求めているアニメ調が違う可能性はある
ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは SDのDicordでベータ版として、1.5でBOT生成できるようになった。 https://discord.gg/stablediffusion
#gbot-** チャンネルで /dream すれば使える
https://i.imgur.com/j6qyNHi.png
プロンプトは>>300と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。
体がおかしくなる場合があるのが直っているのかが気になる。
後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。 >>305
このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない
それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない >>306
サンプラをk_euler_ancestral にしてもほとんど変わらなかった
https://i.imgur.com/73cbpr2.png 美少女でやすい
illustration by Hyung-tae Kim, illustration by Shunya Yamashita, illustration by Ilya Kuvshinov. StableDiffusionがCPUでも動くみたいだから試してみよう…
と思ったんですけどこちらのやり方ってフィルタも外してくれるか分かる人いますか?
https://zenn.dev/karaage0703/articles/4901bf68536907 img2imgのsteps数て例えば20と70で大きく完成度が変わるとかありますか?
ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが
細部の描き込みがアップするとかなら上げまくるのですが ベータ版がもう使えないのにいつまでも設定にベータが残ってて 新しく画像生成しようとすると「ベータ版がもう終わってるから無効!」って言われて作れん・・・セッティングで見てみても消せないし なんじゃこりゃ >>311
これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard
このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925
https://i.imgur.com/3bnugiT.gif
デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも img2imgにイラストレーターが描いた複雑な背景絵を読ませてstrengthを強めにすると
元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね
人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど
世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな >>292
thx
グーグル翻訳片手に頑張ってみる >>313
同じプロンプトで、サンプラだけk_eular_aにした例。 こちらはどんどん変わっていく。
この例は高精細化して良くなっていると思うけど「良い」かどうかは絵で違いそう
https://i.imgur.com/uTkzawm.jpg
https://i.imgur.com/RZ0xTo2.gif >>313
精細化していくんですか!
サンプラーが選択出来ないColab構築でステップで細部が変わるとも知らず
ずっと20でやっていたのでもったいない時間を過ごしてました… 基本は低いステップ数でたくさん試行して、良さげなの来たらシード固定して別のステップも試す感じでやってる >>316
この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます! >>284
https://yukishigure.booth.pm/items/4118603
省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。 サンプラー選択もシード表示や入力も出来ない環境は止めた方がいいっぽいですね…
めっちゃ不便な気がしてきた… >>310
質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。
(我が家のゲーミング core i7) 0.31 it/s
(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s >>322
古いし面倒な手順なので、>>18がいいと思う
スクショで具体的に書いてて親切だとは思うけど >>322
ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな >>18
更新速度がめちゃくちゃ早いから
git pull で更新の追記があると参考する上で便利かも >>269
ありがとう〜!!
cmdで直接の叩いてたけど帰ったらそんな感じでやってみる。 >>327
今でも >>11の多分通りできるはず
けど、VRAMが多く必要で環境的にできる人が少ない&GUIもなく使い勝手悪い感じ。マージ面倒とかプレースホルダーが記号だとか。
hlkyさんが試したいけど3060しか持ってないから動作確認できないって言ってるw Textual-Inversionはメチャクチャに強力なのにTrainできる環境が限られてるからあまり触れられないな
コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか Windowsでファインチューニングに挑戦したけど「NCCLが無い」的なエラー
そこでバックエンドをNCCLからglooに変えたりWindowsで動くように調整したのが以下のForkみたい
https://github.com/nicolai256/Stable-textual-inversion_win
ただこれでも自分の環境では動かせてない(3060だからダメ元だけど) cpu版導入できる人ならPC自作した方がトータルの時間は短い気がする どうしてもローカルで試したい人か
VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない >>331
これだとColabのノートブックも付いてるから
今一番お手軽にいけるTextual-Inversion環境だな
一応無料で使えるT4でもVRAMギリで足りそう >>18
この手順が一番簡単&便利だわ。
まとめてくれてありがとう。 数枚のイメージでちゃちゃっと学習して参考にしますよって感じのを
一気にするから20GBなんかな
そのうち便利になって少RAMでいけそうだね >>18の手順のWebGUIが機能豊富だけど画像複数出したタイミングでコマンドプロンプトが固まってしまう(エラーも何も出ない、optimized-turbo設定は有り)
同じような事象出てるかたいらっしゃいます?
OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion >>338
固まるのは繰り返しの1回目が100%になったタイミングです 真面目に聞きたいんだけど
ぺこらとか吉岡里穂のエッチな奴作れますか?
作れるなら30万のPC買って頑張ろうと思う PCスペックは毎年更新されていくから買い時が難しい
少なくとも今は時期が悪い(マジで) 今のところ顔は何とかなっても体がぐにゃぐにゃなんで
バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい midjourney やっぱベータ版が消えねんだがどうするべこれ・・・分からん 電子透かし、高解像度化すると跡形もなく消え失せるな
これなんの意味もないだろ… >>338
最新版(今日の13:44)でoptimized-turbo+複数枚試したけど再現しなかった >>338
hlky版は機能豊富な代わりに結構不安定で俺の環境でも同じエラー起きるよ nightlyどころじゃなくmainからそのまま引っ張ってきてるだけだしなぁ
時間単位で新機能やバグが盛られていくからそこはどうしようもない 4ちゃんとかここと比べてツイッターの日本人連中がプロンプト秘匿すんの陰湿だなぁと思ってたけど特定絵師の名前とか入ってたらそら我が身可愛さに秘匿するか >>338
不具合報告あった
[BUG] optimized version endlessly hangs with batchsize > 1
https://github.com/hlky/stable-diffusion-webui/issues/337
不具合は不具合っぽいけど、書いてある通り複数枚出す時BatchCountの方を増やせば良いとも思う >>344
な、なんかまだ早そうやな・・・
後一年待つわ サイズの大きさと必要VRamの量の関係明らかにおかしいよねバグってんの?
それとも指数関数的に伸びてんのか ssdの寿命をマッハにしてdirectstrageでTBサイズのメモリ領域とか出来んのかな VRAMとメインメモリ間の転送速度はVRAMアクセスに比べたら地獄のように遅いから
仮想メモリって訳にはいかないだろうなぁ >>340
おまえら、ほんまキモいな~
性に貪欲すぎんか by Makoto Shinkaiでよかったのがpainted by Makoto Shinkaiでなければなくなった可能性
https://boards.4channel.org/g/thread/88374906#p88375987 >>350
匿名と非匿名の違いだと思う
ふたばは4chanと変わらん みんなしてcolabでSD動かしたせいでGPU使用制限入るってよ。ゲーミングPC買っとけ。 pythonのエラーで出たエラーメッセージをコピペミスで知らない間に貼り付けたら
めっちゃそれらしい絵が出てワロタ
多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな >>354
VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね
●解像度、オプション別メモリ使用量
https://i.imgur.com/oua3N5o.png
●解像度、オプション別速度
https://i.imgur.com/foHVTGQ.png
やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない
余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw
今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo
測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5
2080Ti プロンプト魔術はまだまだ未開
うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる
アーマードコアにそんなに人間の顔出てないだろと
メカメカしくなるからかわいい絵を出したいときに使えんし --optimized-turbo付けると画像が変わってしまうのは普通? やっぱ制限入るのかw既視感のある流れだな
グラボ買うか迷うな今は時期が良いとか聞くけど colab proにしたら24GBのGPUで月1000円か
Proでも制限入るのかな? 一番安くAI向けのPC組むなら
40xxが出た後に、型落ち処分の3090を買うことだと気が付いた
ゲーミング性能では4070並みらしいのが
>>363
情報ありがとう Proが使用量制になるみたいだな
今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど
これからは使用時間がカッチリ決まっててそれ以上は追加料金
無料は元々完全無保証なんでこれからどんどんキツくなるだろう グーグル「あと、為替変動の連動制だから値上げしますね」 >>365
今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5
●オプションなし webui.cmd
https://i.imgur.com/qOxRWQT.png
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%
●python scripts\webui.py --optimized-turbo
https://i.imgur.com/fxpSKJU.png
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988% >>371
検証してくれてありがとう。
もう一回試してみるね >>371
よく見ると、肩のところについてる謎の水色の水滴ぽいものの濃さが違いますね。
大きな違いではないけど、絵によっては目立つ違いになり得るのかも optimizedは所々の演算精度を若干落としてるんでバイナリ一致は無い
けれども本当に若干なので出る結果に大きな影響も無い
それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい
後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい
こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる >>371
オプションありの方が
細部の描きこみのコントラストが強い、もしくはstepが1,2回多いような絵を吐きますね
(水滴、涙袋、ロゴに違いが出てる) >>363
何となくしかわからなかったけど数値化ありがたい
アホみたいな理由だけどゲーム見ながら裏で遊べる >>374
ありがとうございます。
python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu
での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。
速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。
https://i.imgur.com/YWiQ5NS.png
https://i.imgur.com/Yrfkp4w.png Coladはなんかわかりにくいけどこのコンピューティングユニットってやつが来月から導入されるってことらしい
リソースがどれくらいかわからんからまだ待ちでいいかな アーマードコア入れたら顔が整うって書いてあるからまたまた~と思って入れたら
本当に顔が整う率上がって笑う
でもアーマーって認識するのかたまに指示してないのに鎧を着だす >>310
ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ >>377
流石に流れが早すぎて試す元気ないですけどw
・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?
良さげな機能多いですね。hlkyか公式にマージされて欲しい NMKD Stable Diffusion GUI - AI Image Generator
https://nmkd.itch.io/t2i-gui colabは新しく制限が増えるんじゃなくて制限されても追加で買えるようにするって感じじゃないの?
使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし
よくある質問に書いてあることがフワっとしてていまいちわかんないけど ポーズはこう
絵柄はこう
パースや背景は適当って指定でどれくらい描けるのか >>351
ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます 23億枚もの画像で構成された画像生成AI「Stable Diffusion」のデータセットのうち1200万枚がどこから入手した画像かを調査した結果が公開される
https://gigazine.net/news/20220831-exploring-stable-diffusions/ >>383
一番の目玉機能はimg2imgのSDアップスケール
hlkyの方がこれの分流なんだよ
今fork表記消えてるけど >>340
二次コンテンツならコイカツで網羅できるしVRで現実にできる
一緒に作ろう! >>390
> hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw
試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
https://i.imgur.com/jGgRIoI.jpg
これは検証便利!
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5 urlを貼れないのでAUTOMATIC1111版は4chanでヴォルデモート版と呼ばれている
なぜ貼れないのかは作者の別リポジトリを見ればわかる >>381
だろう?
たまにロボ本体も出てくるようになるからどう使ったもんだか >>374
ああ、あなたが神か
どっちもチェック入れたり使うまでは関係ないだろって思ってたわ
少しでも大きいのってoom出しながらギリギリ攻めてるので Mjのtestは整いすぎて詰め込むと色々反映されないな 知識神と検証神のタッグで捗りまくりだ・・
cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど
あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui
この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの? weightについてはhlky版でもMJ風のが使えるらしいんだけど、これで使えてることになってるんだろうか
long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/dsXPJ8K.jpg
long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
https://i.imgur.com/Gdy4VRv.jpg
気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど 中国のERNIE-ViLG、アニメ絵に格段に強いな
違和感ない初音ミクのイラストが余裕で生成されてる >>399
> 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする
アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど
AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽)
●AUTOMATIC1111のインストールメモ
https://github.com/AUTOMATIC1111/stable-diffusion-webui
・minicondaで任意のディレクトリを作って以下を実行
python -m venv auto1111 ※auto1111の名前はなんでもいい
auto1111\scripts\activate
・後は、Instructions:を動かす
以下の2つは別途ダウンロードして配置が必要
models\ldm\stable-diffusion-v1\model.ckpt
table-diffusion-webui\GFPGANv1.3.pth
●起動時
minicondaで、
auto1111\scripts\activate
python stable-diffusion-webui/webui.py >>400
hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
>>399
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い
ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな >>400,402,403
ありがとう・・メモメモ
みんなほんと詳しいな hlkyでマスクペインティング実装あついな
Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change この手のサービス海外に持ってかれるとかツイッターじゃ喚いてるけど実際どうなん?
オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが >>403
> たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
その通りだった
プロンプト1語の時はウェイト部分パースせずに渡してた webuiのスライダーって←→キー効くんだね・・必死にプルプル合わせてた >>409
現状のSDって版権を認識できてもキャラとかはわからないんだよね >>410
知らなかった。ありがと
なんで数字入力できないんだよ!ってちょっとイライラしてたw >>410
これは便利情報
数値入力できないスライダで微妙に困ってた k_euler_aとか cfgの機能の説明ってどこで読める? >>416
見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど hlky版構築したけどGRiskの方が便利じゃない?
自動で全部保存してくれるんだもの >>417
正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、
Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか
という数字なので大きい=プロンプト通りになりやすいということだと思います。
portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。
https://i.imgur.com/7gFaxEZ.jpg
普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。 手はどうしたらうまくいくのか
現時点では無理なのかな >>418
hlkyも自動保存しますよ。
GRiskは基本機能もまだまだ未完成なので使う気はしませんが、
インストールは簡単ですし、GRiskの機能でいいならいいかもしれませんね >>420
手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw
とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね 手は、今のマスク機能がもっといい感じに動くようになったら
手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど
現状は手書きで治すしかないな
そういう意味でも今はちゃんと使うにはある程度の画力が必要 webuiの各種パラメーター情報って保存できないのかな?
ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね >>384
img2imgっぽいのあるし良さそう
https://i.imgur.com/WjEzMBI.png
ただ起動してから追加インストール求められて環境汚れそうなのでここ以降試してない
>>424
configs/webui/webui.yaml が画面の初期状態を決める設定ファイルになってるよ >>419
なるほど…マトリックスでみるとたしかにそうですね
ありがたい 手は手だけマスクしてStrength下げながら
ちょっと修正→img2img→ちょっと修正...
を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい わしプログラミングとかよくわからんから適当にローカルで組んで一から動いて1枚生成されるのを確認して、それを30個分動かすバッチファイル作ってパワー型な生成作業をやってるんだけどみんなスマートやなすごいわ。 EmadさんDISCORD情報 2022/8/31
・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。
100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか?
でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?)
我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる
※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味?
・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。
→ パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。
めっちゃ威勢がいいな >>425
ありがとう!
今日はなんか色んな新しい知識で捗りまくりだ >>422
GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい >>429
バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui
AUTOMATIC1111インストールして >>402、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code >>430
int8使えるなら4000シリーズ発売まで待つのが良さそう >>430
15まてばグラボ新調しなくてよくなるんかな また質問、一応英語で検索したけどわからなかった
img2imgのMaskのヒントに
webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど
マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか? 1.5は8/29のツイートで6日後=9/4予定なんだよね
予定通りリリースされるのかな
フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど
>>432
へー。ならそこまで時間かからずに実現しそうな気がするね サンプラーの選択ってhlky版でしかできないの?
独自実装なのか…? ERNIE-ViLGってローカル実行できるんだな
初音ミク、可愛い、pixivと入力するだけでこれが出るのやべぇわ
1枚24秒くらいでSDよりやや遅いけどアニメ絵に関しては性能が違い過ぎる
https://i.imgur.com/MZg883B.png >>442
本家のコマンドの説明とかスクリプトの中身をみてもk_euler_aとかどこにも出てこないんだが mask壊れてるしRegenerate選択消えたよね?・・って念のため最新にしたら治ってた
つかAspect Ratio指定が増えてた ERNIE-ViLG、裸どころか水着すら規制でアウトかよ!
流石中国だな…やっぱSD以外はどこも規制してくるよな https://ommer-lab.com/research/latent-diffusion-models/
最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな しかも規制解除とか不可能な作りっぽいな、やっぱ最終的にこうなるのかって感じ
性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも colaboはdeepfake禁止してるのでcolabo使ってる人はじつはやばいかもしれない ERNIE-ViLGローカル行けるんか
とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな
GPUメモリがつれえ >>448
というと?
ローカルのコマンドのみで複数のサンプラーを切り替えられたりすると? ローカルも終了して防がれるのは時間の問題って感じだな
大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする 初心者ですまん
人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい 黒髪の少女、制服、pixivって3つの単語を中国語で入れるだけでこれが出てくるんだよなぁ
プロンプトの秘匿とかすぐ意味なくなるだろって思ってたけど数日でそうなるとはな
https://i.imgur.com/V6kJpnJ.png >>437
たぶん、
生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけだから
それだけのことならフォトショで手元で合成した方が結果良いよねって事だと思う
>>457
複数形にしてるとちゃんと人数に影響するね pixivをfanboxに変えたらどうなる?
精度がもっと高まりそう >>460
何のことだろうって思ったけどそれだな
手は自力で手直しした方が早いよ、が今のところの公式見解
>>462
illustration style by pixiv fanboxに類する呪文はまあまあ使えると思う >>457
例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない しかしここまで次々出てくると、絵を描くっていうのは機械にとっては簡単な事なんだろうなと認めざるを得んな
その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは
何かしら宇宙の意図みたいなもんを感じる 無視される確率高いけど「風呂」は一応ありなんだ、水着はアウトなのに中国の検閲基準謎過ぎんよ
色々研究しないと分からんな いうてこのまま高度化していったらフェイクポルノとかフェイクニュースの画像作成が容易になって規制まっしぐらな気しかしないけどな
Googleが作ったpartiの記事見てて思った >>460
あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead. >>437,471
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",
とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど >>460
インペインティングってそんな単純なやつだったんか
じゃあ顔補正もおなじかんじなんだろか >>472
・・・と思ったけど、UIに、--indirなんてないねw
間違ってそう >>473
> 生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけ
そんなわけはない
そもそも「生成後画像」なんて存在しないものと合成なんて日本語としておかしい プロンプト秘匿するぞって言ってた連中がたった数日でERNIE凄すぎて
もう隠す意味ない公開しますって言い出してるの受けるわ
でもこっちはオープンソースと言いながらブラックボックス化されてるから
技術系のオタクの間では流行らんだろうな >>430
これ学習モデル小さくなると推論してるときのメモリというかVRAMも減るの?
そこは変わらない? ERNIEの検閲マジうぜぇな、ワードと生成画像両方に検閲あるみたいだ
やっぱSDがアニメに対応してくれるの待つしかないか >>473
Masking is not inpaintingとあるようにimg2imgの画面で触れるのはインペインティングとは別だよ
インペインティングはこういうの
https://ommer-lab.com/wp-content/uploads/2022/08/article-Figure12-1.png >>479
分からなくて全くの予想だけど
少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな
それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない >>363
24gbあれば10241024いけそう >>482
ども、どうなるか1.5出るの楽しみに待つか 今のimg2imgに入っているマスク機能
→指定した部分を処理後に丸ごと戻して無かったことにする力業
インペインティング
→指定した部分を変えないように処理の中身から変えてしまう
処理中も指定した部分は多少劣化する以外変わらない Discordのウエイトが4GBから100MBになる予定って聞いた人が、
自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある
けど100MBはすごい。どうするんだろう、と言ってた。
何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw 例えば
・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる)
・背景にあるロゴを塗って、ロゴを消す
この2つ混同してた。違う技術なのか ソース見たけど大体一緒じゃない?
本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし
webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで >>490
MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw
SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど テクスチャ目的の素材が欲しくて最近SD触ってるんだが
いまいち良い感じの物が出ないな
ゆがんでたり細かいところがおかしかったりする
MJと比べたら写真っぽいものが出てくれるだけでありがたいが --testとかリラックスマンには順番回ってこないし・・くやしい(金払えよ) GUIついたか…
でも未だに大量のVRAMいるんだよなぁ…
https://nmkd.itch.io/t2i-gui >>492
3DCGのテクスチャ用途としては無限の可能性あると思うわ
ぶっちゃけ、もうSubstanceDesignerとかいらねーなとw シャッターストック
pixaby
Adobeストック
これらのフォトライブラリーもいらなくなってくるんじゃ 中国版触ってみたけど、銀髪ってやっても銀髪にならねーじゃん
でも、絵柄は好み
SDも早くアニメに対応してくれー >>497だけど、ちゃんと中国語にしたら対応したわw
使い方わかってなかった 今のところ著作権で問題になるのはプロンプトだけかな?
特定の著作物を指定して画像を作成した場合は問題になりそうだけど
プロンプトがわからない場合はセーフって感じ?
画像からプロンプトがわかるようになったらそれを証拠に
訴えられるケースは増えるような気はする。 >>502
知財に詳しい弁護士に聞くといい。そしてスレチ そのうち最適化が進めば4GBや6GBでも解像度2048や4096くらいの生成が可能なんだろか
ファイルサイズは小さくなってるみたいだけど
最適化進んでグラボ買わずに済むなら良いんだけど >>500
顔入りの全身見せてくれよってパターンがかなりあったんでコレは助かる と思ったら既に3DCG向けのAIテクスチャサービスできてるわwww
早すぎんだろw
https://withpoly.com/
まぁ高解像度は月10ドル罹るらしいがw >>506
ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。
買う人いるのかな >>506
ループしねーじゃんと思ったらサブスク限定だったわ
10ドル程度でテクスチャに絞って2k~4k出力可能なら十分有用なんじゃないか
海外はほんまオープンソースからの開発テンポ良くてええな 1024x1024のキャンバスをどんどん追加して最終的にデカい画像を作る機能のβがダリEに来たらしい
https://openai.com/blog/dall-e-introducing-outpainting/
i2iも可能、部分マスクも可能
フォトバッシュしやすくなるやつだな 興味深い記事だった
アーティストの権利侵害やポルノ生成などの問題も浮上する画像生成AI「Stable Diffusion」の仕組みとは?
https://gigazine.net/news/20220831-stable-diffusion-process-performance/
総合かと思ったけどこっちで十分な内容
DALLE2のが上なんだな >>509
フォトショプラグインのと同じ感じだね
やっぱ連続性や効率考えるとこういう方法になるんかぁ
切れた頭や足追加したり拡大しても低RAMでリファインできるのは大きいか >>510
SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの https://i.imgur.com/UL5TV6R.png
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな 上手くアルゴリズム組まないと同じ何かが反復してスタンプみたいにあちこちにポンポンできそう
中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ 限界を感じてきた
どんなに頑張っても同じようなのばっかり出てくるのは
しょせん学習サンプルを超えられないということなのではないか
真の意味でのクリエティビティや創造はここにない気がする 複数画像出力して一番いい画像選択+テキストで指示を追加を繰り返す みたいな感じにするとかやりたいな… なんかAIで3Dモデルを起こしてくれるサービスが実は裏で人力を使ってたってニュースなかったっけ AIってのはあくまでも人間の補佐だよ またスレ違いって言われそうだけど >>509
これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
https://i.imgur.com/93Kck9t.mp4 まだ出て一週間だぞw
モデルもデータもまだまだ進化する
我々が死んだ後も進化は止まらないだろう 以下私の理解・解釈が入っているので気になる方は原文をお読みください。
●k_eular_aが優れた結果を出す不思議さ
https://twitter.com/iScienceLuvr/status/1564847717066559488
https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png
○前置き
・SDは、ディフュージョンモデルの一種。
ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。
・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す
これにより大幅に計算量を減らすことができる。
○サンプラー
・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。
・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。
k_がつくものはキャサリンのk-diffusionリポジトリから来ている。
・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。
なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。
・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。
---
k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな?
https://twitter.com/5chan_nel (5ch newer account) 本当に凄い事を体感できるのはまだ一部の人だけ
大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる 推しのグラドルで1晩ファイーンしたらいい感じになった(チラシの裏) 写真でもイラストでも、顔のアップからバストショットくらいまでは造形良いのに、そこから少し離れると途端に崩れ出すのはなぜなのか。 学習データが顔のアップとバストショットばかりだから >>524
顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ
人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う 腕の長さはともかく、たまに腕が3本あったり背中から腕が生えてるもんなあ… というより、顔と体の両方を最適化するのがしんどいんだと。
SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。 例えるとAIの描画は画像の局所性を利用して主に担当エリア周辺の狭い部分だけを
それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら)
そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする
座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある D2のがSDよりプロンプトに忠実って話
> Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し
MJはさらに低い次元にしてる?
全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて
初心者を喜ばせてハマらせるみたいな戦略に見える
逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い
まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど ERNIEViLGが話題になってるみたいですね
あれのローカル版が出るなら今後ほしいなぁ ERNIE-ViLGのWindowsローカル起動試した
構築はこことリンク先を参考に数コマンド入力
https://github.com/PaddlePaddle/PaddleHub/tree/develop/modules/image/text_to_image/ernie_vilg
hub run ernie_vilg --text_prompts "初音ミク" --style "水彩" --output_dir ernie_vilg_out
→ https://i.imgur.com/AahVXPB.png 実はそれローカル稼働してないんですよ(バイドゥのwebAPIにリクエスト投げてるだけ) ほんとだ回線止めたらエラーになった・・・
ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443) >>517
創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな >>499
一人目のプロンプト試してみたけど
髪と服だけの指定だったら5分の1くらいいい画像出てはかどる 写実系限定かもしれんが1.5から顔の表現が安定するようになるみたいだな >>526
そういや
横たわってるのはimage2imageですら再現が難しい
90度回転で直立させると上手いこと行きやすい
を誰か言ってたわ fine turningのDreamなんたらの方の実装はまだきてなんいんだっけ 自分が描いた絵の一部だけimg2imgでベクシンスキーに描かせるの面白すぎる 簡単なスケッチから「Stable Diffusion」で思い通りの絵を描く手順を解説 - GIGAZINE
https://gigazine.net/news/20220831-stable-diffusion-how-to-draw/
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]
https://note.com/abubu_nounanka/n/n3a0431d2c47a 画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/ 解説読んで手入れしたらパッと見で普通にありそうな絵になったんだけど
今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも とくに指定できるポーズを描かせたいなら動作と具体的なポーズ名を使うといい感じに全身が出やすい
nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない
nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch
porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない
clip front で安定した画像群が出るワードなら期待できる >>546
自分で検証してませんけど、wikiには大文字小文字関係ないと書いてますね
https://wiki.installgentoo.com/wiki/Stable_Diffusion
Capitalization does not matter. A.K.A.(〇〇として知られている〇〇)みたいなのどうすれば良いんだろう AIプロンプトを理解させるテクニック
著者がだいぶこじれた人っぽいけど内容に間違いはないと思う
https://note.com/siba_dot/n/n0a8691208632 ERNIEはたった一晩の間に呪文の研究がかなり進んで上位の絵描きが描いた絵と
同レベルの絵が出力されるようになってるな >>550
Cityscape in Girl = 「少女のいる街の風景」は思いつかないなw
面白い
他の使える単語とかもまとまってて役に立ついいまとめノートですね。ありがとう 3060でファインチューニングのトレーニング動かせた
Windowsなのでベースのリポジトリと解説はここに従って
https://github.com/nicolai256/Stable-textual-inversion_win
追加で設定ファイルの数値ここまで下げた
https://i.imgur.com/S4GjXx9.png
出来上がったものが使えるのかとかクオリティとかは不明だけどとりあえず報告 >>553
なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)
ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。
2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ >>553
おお!うちも3060なんで週末に試してみよう。 >>555
>>519さんが試してますね。かなりすごい。
論文とかソースコードとか公開されてるなら、勢いのあるSDは比較的すぐ実装しそうだけどどうなんだろう >>543
StableDiffusionGui-v1.2.0.zip
解凍してたらパスが長すぎるとかでエラーになるんだが >>559
俺もそれ出たわ
もう一度やり直そうと思ったら普通にインストールされてた
まあAMDだったから俺は動かなかったけど‥ >>559
Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く >>560
エッ?Ryzenだとダメなの?
>>561 サンキュ ガーン・・・・・
敷居が高すぎて指くわえてた所に神ソフト来たと感激してたんすよ 改造すれば動くんじゃね
俺Macでローカルで動かしてるし >>559 は分かりませんが、>>18とか普通にみんなが使ってるものはRyzenで何の問題もないですね
グラボはGeforceでVRAMが6GB以上の必要はあります。 (Radeonはまだ無理) AMDでもワンクリックで使えるようになるのは時間の問題なはず
それまで我慢する >>567
調べてみたらMacだとMetal経由でRadeon GPU上で動かせるんですね。知らなかった。
Windowsの話と思っていたので失礼しました。 >>569
WindowsのRadeonはまだ無理だったんですね、こちらこそ失礼しました >>570
インスールは若干簡単だけど、全く未完成で不便なので素直に>>18入れればいいと思う
それか>>402 VRAM usage at different resolutions is something that needs documenting, larger resolutions require more vram, and from my previous tests it's roughly linear, for example, an image that was 512x512 used around 6gb, and an image that was 512x1024 (double the size), used just under 12gb.
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80
24gbで1024x1024いけそうだけどやってる人おらんかな たぶんStableDiffusionGuiは
Data\repo\src\gfpgan\experiments\pretrained_models\
に>>18とかのオプション入れる。 GIGAZINEだけでもかなり記事でてんなー
コッチ系好きなライターおるんやろな
画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/
画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/
スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw GUI操作ってメリットあるのかな
スクリプトで実行したいから全部CUIでやってる >>576
text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ >>576
>>577さんの通りGUI版の方が速度が単純に速いし、使いやすい
スクリプト操作は、 >>377,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは >>419みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]
https://i.imgur.com/cDhioYS.jpg ついでに、>>578の画像を見ると
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
※seed=9も同じ
やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw Game ReadyドライバーからStudioドライバーに入れ替えました
AMDでも使えるやつ待ってます 補足
書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。
公式を見ればやり方は多分分かるはず
pというオブジェクトに設定可能な属性は以下の通りです。
'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width' >>577
>>578
ありがとう
まさかCUIの方が色んな面で高性能だとは…
勉強するわ すまん、公式参考にcmd直接叩いて環境構築してtext2imageで吐き出せるようになったんだがimg2imgを利用するためにはgitとやらを用いて環境を再構築しないとできないって認識であってる?
それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。
with autocast("cuda"):
images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0] エッシャー「ヨッシャー」
fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら >>584
使ってるパイプラインが違うので無理
素直にwebuiでやればいい >>584
image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ 誰だこのフィリピン人
スゲー売名目的臭いんだけど
画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒
https://gigazine.net/news/20220901-midjourney-win-fine-arts-competition/ >>587
このままじゃやっぱり無理か〜。ありがとう。
>>589
よ、よければもう少し詳しく。 ギガジン、むっちゃ記事書くなあ
話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ
https://gigazine.net/news/20220901-lexica-art-stable-diffusion/ >>543
これをやってみてるけどかれこれ2時間経過してもインストールが終わらない >>592
丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。 初音ミクさん書きたい人向け
https://twitter.com/takei/status/1564990874974445569
「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
https://pbs.twimg.com/media/Fbf25agUsAI1YQv.jpg
ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
https://twitter.com/5chan_nel (5ch newer account) Lexica改悪してね?…
画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか… >>553
このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る? >>593
情報のタイミング的にここ見てる気がする ここの皆さん凄いね
よくもまあこんな難しい事を試行錯誤出来るものだ
しばらく待ってればワンクリックで動かせるツールが出そうなものなのに
何をそんなに生き急ぎ出力したいのか‥ >>603
GANが騒がれた頃から待ちに待ってもう何年?って感じですし…
使えそうなモノが出てくればいち早く触りたくなるのが人情よ >>600
> 2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
入力と途中経過がこんな感じで、反映されてる雰囲気あるけど、評価はよく分かってない
https://i.imgur.com/GWkO2Jo.png >>607
一応学習が効いてはいる感じですね
ちなみに、256*256で学習する場合メモリはいくつ使って
何枚を何時間ぐらいで処理できる感じなんでしょうか? >>607
思ったより効いてた
顔半端にリアルになってるの面白い
3060でこれができるのは朗報ですね ありがとう >>607
A GPU with at least 20GB of memory
ってかいてあるけどうごくんだ
3090買うべきかなー >>608
永遠にトレーニングするので処理完了という概念はなくて、いい具合になったら止めるんだけど、
>>607 で3時間経過くらいだったと思う
設定はあの後 num_workers: 3 に増やしたけど、これが 3060(12GB)の限界っぽい Automatic1111入れてみた
たしかに圧倒的に早い >>612
なるほど自分で打ち切るんですね。ありがとうございます
あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか hlkyフォークでもSDアップスケールが使えるようになった
GoBIGとGoLatentがそう >>616
全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。 >>614
タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ 久々に腹抱えて笑ったわ
【悲報】中国産AI絵師にブチギレた日本人絵師、『天安門』と透かしを入れ始めるwwww [462061812]
http://greta.5ch.net/test/read.cgi/poverty/1662031407 >>618
ということは3060の上は3080からみたいな感じですね
ありがとうございます ESRGan方式じゃなく、ちゃんと情報追加しつつ1024サイズオーバーにupscaleするの来ないかなぁ・・ Dall-Eのアウトペインティング、AI生成じゃない普通の画像でも使えるらしい。すご このスレは火消しが来てないねぇ…
【悲報】中華製の神AI絵師「ERNIE-ViLG」先生が日本語対応 これもう宣戦布告と捉えていいな? [526594886]
https://greta.5ch.net/test/read.cgi/poverty/1662039883/ あーなるほどなるほど
業者に頼むとお金がかかるもんね
【悲報】嫌儲 スクリプトだらけ ★2中川翔子 [511335184]
https://greta.5ch.net/test/read.cgi/poverty/1662057890/ >>628
アフィが嫌儲のリンク貼るわけないだろ
そちらこそアフィなのでは...? 新海誠と竹内崇って絵柄全然違くね?
なんで混ぜるの?? 新海は美麗背景目当てメインで、背景オンリーの人も良く入れてる 言ってないだけで新海誠プロンプトにお世話になってる人たくさんいると思う ファイーンを理解してしまった、これは確かにいい感じになる
どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな
promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした
個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは いっさい人が登場しなくなる魔法の言葉教えてください!!!
良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます!
プロンプトの先頭に「Unmanned」って付けても全然効力なかった…
今後こういう「無人」とかを選択出来るようになればいいな… MJなら--no human,man,woman,peopleとかで徹底的に潰すとか
SDはわからない、除去の方法あるんだろうか 無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/
>>624
重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー >>636
ゲームだったらゲームキャラとかnpcとかかな 風景写真に人がいるかどうかってキャプションには載ってないだろうしなぁ
フォトショとかで消してimg2imgが現実的な気もする アニメ調というか、黒い輪郭をつけるいい呪文ってありますか? >>638
重複というか、
技術系の話題だけじゃなく、CG板でAI生成で雑談したいって要望であえて後から建てられた
元々CGの未来スレってのがあったんだけど、スレタイ悪すぎて人が集まらなかったので ファイーンはどれぐらいの枚数でどれぐらい回したらいいんじゃろね
とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら >>637>>639-640
SDです…
プロンプトに従わせる数値をMAXにして先頭に「no human」や「Ghost Town」を持ってきても現れちゃうので、
自分の中で思ってた「先頭に持ってくる言葉が一番強い!」論が崩れました… 言葉に関連付けられてる参照イメージに人がいるってことだろうから
SDだとマイナスとか「いない」、って指定はできないのかも
liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな >>642
unreal 5 enginとか付ける >>646
帰って再構築してやってみます!
あと単語一つ一つ消してどれが出現させてるのかチェックしてみます!
SDにもマイナス要素入ること願ってます! >>645
プロンプトをここに載せてくれたらみんなで試行錯誤できるけど難しいかな? ERNIE-ViLG試してみたけど
フォーカスが体の中心部分になるのが気になる
頭全体が映るように調節ってできるのかな hlky版だと一応、マイナスウエイト対応していて、
city street:1.0, human:-1.0
みたいなことが可能です。
ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも?
注1
NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。
city street:0.5, human:0.5
注2
city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや
【city street, human:】が -1.0で処理されます 日本語対応したernie-vilgでナイスバディ出そうとしてるけど規制に引っかかって中々むずかしい…
乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい
むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな? >>647
何度かしたけど3Dゲーキャラが出やすいくらいで輪郭っぽいのないです… >>636
今のSDでネガティブな指定は難しいので
キャラが小さいなら inpaint 使えるフォークで inpaint + img2img で頑張って消すのが一番無難
>>650
>【city street, human:】が -1.0で処理されます
reddit でその動作が仕様みたいな話になってたけど俺も違うと思う >>651
注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある) >>655
あ、例が足してゼロなのでちょっと特異例でしたねw
でも 1.2 と -1.0でNormalizeすると、 6.0と-5.0になり、計算上はそうなんですがそういう挙動を望んでいる人はいないので注意は必要です。
まあマイナス数値入れるのにNormalize付けたい人はいないと思いますがデフォルトがONなので。
>>653
輪郭だけにするなら、Lineartとか入れれば線画になりますがそうじゃないですね・・・
画像加工ソフトで輪郭追加したほうが良さそうな気がします。 厳密には違うけどこのサイトと同じようなデータを参照してるので、
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/
例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方 >>657
これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ >>645
()で括ると強調されるらしいけど試した?
何個もいけるらしい(((()))) アップスケールテスト
hlky 2022/9/2
オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a
ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B
https://i.imgur.com/IzZ3k7y.jpg
アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが 人がいないシーン(廃墟や夜景)の指定や風景画ばかり描く人の名前入れるとかはだめなのかな >>659,662
()とか[]とかが使えるのはどのフォークの話ですか? そういえば前からGFPGANとRealESRGANのモデル読み込みしない方がVRAM節約できるよって話があったけど試してみた
1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ
この差はわりとでかい気がする おっぱいの画像作るのが日課になってしまった
中国のやつローカル環境で早くやらせて欲しいな グラドルファイーンするとグラドル感が強すぎてそこから応用効かせにくいかもしれない
あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど いろいろエロいやつ生成して見てたら、服とか下着がズレておっぱいポロンしてるのが性癖だったことに気づいて、AIに新たな扉を開かされてしまった。偶然出た画像だったけど、どんなワード入れると上手くポロンするようになるだろうか。 >>669
英語で「オーバーオールを着ている」だが「下着は着ていない」系の奴 >>395
なんで?エロコンテンツの開発に熱心な人だから? 上の検索サイトのsafe mode外してnip slipped girlで検索
ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ tight(タイト)とかskinny(スキニー)ってやると体の線出やすい。ワンピースのドレスとか水着とか。 automatic1111版ってデフォルトではエロフィルターある? >>667
人間のファインって顔だけでいける?全身? Idol-looking Japanese 1X-year-old girl wearing a one-piece dress of thin fabric over her nude body in a grassy field,
X=好きな年齢
でまともなやつ
https://i.imgur.com/L9rKRik.jpg ブラがめくれてポロリしてるのが好きなワイも通りますよ。こういう半脱ぎみたいなのはどうやればいいのか。 >>680
入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない これはプロンプト削除してしまって申し訳ないがうまくいってるほうだと思う。
指が変だがなんか変な植物みたいなの持ってるほうが気になる。
https://i.imgur.com/IbPPfqf.jpg >>691
intel AMD macの俺はいつになったら動かせるのか 待ってたクセに導入する前から既にAI画像生成に飽きてる
画像生成できたから何?みたいな虚しさを感じてる 映画や小説やゲームにもなった「ストーカー」ってSFみたいな
現実の時空間に非現実の時空間が紛れ込んできて
既知の物を未知の物にしていくって世界観が好きなので
風景写真とかメインでやってる。出来上がるの楽しみ。 CG業界の人が使ってるGPUは97%がnVidia
https://cgworld.jp/special-feature/8741e57cbd65aa6af072dfcb88b8d78fdae69a34.png
Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない
ゲームならRadeonでも遜色ないと思うんだけどねえ >>695
知らなかった‥4割ぐらいは居るんかと思ったわ
こりゃ待ってても来ないな >>680
とりあえず半々でやってるけどノウハウどこ?ここ? SDやMJは言語処理にCLIP(テキスト―画像の埋め込み)を使ってるけど、
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと
https://i.imgur.com/q7uW8wn.jpg
https://www.youtube.com/watch?v=N6lJvkoku9s
「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」
みたいな言語を人間レベルで理解した画像生成ができるらしい
マイクロビキニを着た~とかも多分正確にできるじゃないかと思う googleはMJやSDとは文字通り桁違いのリソース使って学習してるんだから
そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな
地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな >>679
スクレイピングツールを提供してるからってことか woman worriorって入れるとやたらと脱ぎたがる
俺は真面目な戦闘シーンが描きたかっただけなのに >>578を見ると、girlだと脱がないが、womanは脱ぐんだよねw 胸に鎧を付けてるって指定してもなぜか脱ぎだす
のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ 脱がしたいときに、nudeって入れると作画が崩壊するから
間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw 脱がせる呪文はナチュリスト使うことが多いかな
たまに脱がないけど 普通にnakedでいけるしPornograffic Portrait of 〜とかもいい感じになる colab相当ストレスがかかってるのか、超頻繁にロボットじゃないか聞いてくるし
昨日から突然T4割り当ててくるようになった(pro)
他のクラウドは料金怖いしやっぱローカル環境欲しいな... >>703
とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては >>709
ローカルで快適に生成しようと思って調べたけどRTX3000シリーズがほぼ必須みたいだね
やっぱ現状ではまだまだ金持ち専用のおもちゃって感じだな >>698
破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな XX=好きな数字
A_XX_year_old_Japan_gravure_idol_is_wearing_a_red_super_high_leg_one_piece_swimsuit
made_of_glossy_latex,_standing_in_a_yellow_room_with_her_legs_spread_with_her_hands_up_to_show_her_arm
https://i.imgur.com/iNpLJAA.jpg >>700
いや4chanで名前を出してはいけないあの人になってるんだから… An_XX_year_old_Japanese_gravure_idol_with_a_cute_muscular_face_is_wearing
a_silver_super_high_leg_one_piece_swimsuit_made_of_resin_that_reflects_light_perfectly,_the_thin_material_clearly
https://i.imgur.com/0a2NrDy.jpg >>717
体のラインハッキリクッキリさせたかったからかな?
エッチな写真は自己紹介の口語文を英語に翻訳すると良いっぽい。 長めの呪文うつとディレクトリが無いって言われたり出力先の画像ファイルが無いとか言われたりしてたけど
Windows側のパスの文字数制限らしいことに気づいた
なんか起こったら怖いが長いprompt入れたいからレジストリ弄った >>714
captureとcaptcha読み違えたわ
4chanの人間認識システムを自動で回避するツールか
まあクソどうでもいいんだけど 引き算も覚えないと変に足し過ぎて結局少ないワードの方が良かったってなっちゃう時ある >>721
シンプルな方が化け物はうまれにくい印象 「天安門広場でスクール水着で踊る習近平」と指示してもスク水着た近平が出てきてくれない スク水を学習してないらしいからすぐ上のやつみたいに別の表現でスク水を唱えないと難しいんじゃない >>723
目指すところによるけどdetail系も案外入れなかった方がうまく纏まってくれたりする時もあるしね オッサンがスク水着てる画像の学習度が足りないんだろうな
グラビアなどはまあまあ学習してるみたいだが >>724
80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
https://i.imgur.com/kc23EFx.jpg
プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.
訳
私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。
シード
574805382 hlkyのColab版webuiGUIって一度か数回プロンプトのウェイト異常等でバグ画像が出たら延々とバグ画像が生成されちゃうのかな
プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど
画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった
通常運転に見せかけてバグ製造路線に上書きされてる感じ
閉じて構築し直したら直った
hlkyって一番高評価っぽいけどこういうこともあるんだな >>730
自分は一回もなったことないけどなぁ
スケール上げ過ぎ・ステップ下げ過ぎとかではなく? >>731
ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも hlkyのは同じ環境を何度も使い回すことで生成時の待ち時間削減してるし
機能は全部実験機能でバギーだから
一度落としてやり直せば改善するのならただのバグだろうね TIファイーンについてんぱかさんが記事出してたけど3~5枚ぐらいの方がいいて内容でよくやからぬん
とりあえず特定絵師5枚ミクさん絵で追試してみるけど embeddingってのはあくまでもAIのモデル本体にコバンザメみたいに新しい概念をくっつけるもんであって
本体ほどの色々覚えるキャパシティが無い
その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話
特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い
投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという なるほどな
呪文も余計な要素を入れると作画崩壊するしな 今時点の手元でーただと実写30枚/10epochとアニメ5枚/8epochで
後者が明らかに特徴抽出失敗してる
ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど >>737
他を捨象した画像集められるなら多いほうがいいんかね 734の記事を試してみたけどcolabの知識がなさすぎてembedding_pathの指定で詰まってしまった
自分の環境ってGoogleドライブ等のこと? >>738
いくつか条件変えてやってみないことには結論でないんで
colab先生の機嫌にもよるけど来週末ぐらいなにかレポート出したい 後StableDiffusionの場合AutoEncoder(Diffusionを経た後に実際に出力画像にするところ)はファインチューンではいじられないはずなんで
アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない >>743
わかった。これか
Google Colab で はじめる Stable Diffusion v1.4 (3) - Textual Inversionによるファインチューニング|npaka|note
https://note.com/npaka/n/n34412f71cfbc hlkyのwebuiのimg2imgの右のadvancedにある
①Variation Amount (0から1)
②Variant Seed (blank to randomize)
って使い方わかる?
loopしたら勝手にseedを足していくのかと思って
①を1にして②にSeed入れて3つバッチやったけど
同じseedの画像が3つ出ただけだった もうめんどくさくなってきたから
Ver.1.5来るまでスルーですわ 結局大元のモデルが一番大事なんだよな
週末埋め合わせるとかいってたのは1.5のことでいいのかな? >>742
いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。 hlkyのアップデートなんだけど解凍したの上書きだけでいいのかな? >>745
>Variation Amount
元画像にどの程度の影響を与えるか、これが高いほど変化も大きくなる
>Variant Seed
元画像に影響を与える画像のSeed
ざっくり言うと「Seed 1から生まれる画像A」と「Seed 2から生まれる画像B」を「Amountの数値に従ってブレンドする」ようなもんで
Variant Seedを指定するならAmountを変化させないと結果は変わらない
(Variation Amountを 1 にすると画像Aが画像Bの情報に完全に上書きされるんで無意味)
例1)画像Aをちょっと変化させたい時→Variant Seed指定なし、Variation Amount 0.01
例2)画像Aに特定の画像の影響を与えたい時→Variant Seedを指定あり、Variation Amount 0.01~0.99
出力された画像のyaml見ればseed欄がVariant Seedのものになってるんで、何に影響を受けたかは後から確認できる なかなかアイスキャンディーしゃぶってくれない
難しいなぁ img2imgじゃなくて、txt2imgだった、ごめん
>>753
ありがとう!ブレンドするのか
mixとかblendとか一言英語で書いてくれてたらいいのに・・
実験のために左側の元Seedを空欄にしてたから変わらなかったのかな
でも>>748(リンクありがと)見る限り、あんま使えそうな機能って感じがしない
特に人体はただでさえぐにゃぐにゃになるのに、風景とかなら遊べそうかな エロ関連この要素はこれやったら上手くいくぞとか情報交換したいけど
ちょっとスレの趣旨とずれるかなとも思うし成人専用の板じゃないからなぁ
それっぽい場所あったらそっちでスレ立てたらそれなりに人くるかな? >>755
より正確に言うとSeedAの持つ情報とSeedBの持つ情報をブレンドなんで
噛み合えば特定の要素を綺麗に発現させられる可能性はある
https://i.imgur.com/GKZ6p8h.jpg
まぁ人間には見えていない情報も活用されるんで思い通りには行かないが
Promptの重みを弄るののSeed版という感じ >>756
bbspinkの創作板あたりに立てればそのうち集まるのでは >>754
そう?
https://i.imgur.com/ovcME3A.jpg
man licking popsicle (cfg15)
・・って自分もやろうとしたからわかってる
呪文長いと完全無視されるんだよね、アイスすら出てこなくなる
>>757
なるほどバストアップだと使えそうだね
体入ると破綻しそうだけど Stable Diffusionのプロンプトで使える記号一覧と効果みたいなものが記載されているサイトなどありますでしょうか?
プロンプト掲載サイトを見ても『,』しか使われていない感じですが、
「実はこの記号はこういう意味で使えます」という裏技ありますでしょうか?
わかる記号
『,』 カンマ 単語や文章を区切る
わからない記号
『.』 ピリオド 意味や効果がわからない カンマの代わりに使っても問題無し??
『A|B』 縦線? Aが有ってBが無い場合と逆の場合の結果を出してくれる??
『(((A)))』 カッコ 効果を弱くする??
『!!!A!!!』 感嘆符 効果を強くする??
『A:数字』 ウェイト 相対的な効果の強弱を数値で指定??
『A +(B-C)』 数式 BからCの要素を引いた分をAに合体させる??
他にもある感じ??
という感じで全然わからないのですが、識者様お助けください! >>765
756だけどちょっと見ていないうちに動きが早くて助かる >>765
不正プロクシといわれて書き込めなかった…
chmateだめか ちょっとスケベツールにするの早すぎないか
VRの時より早いかもしれん 背景であっても得意/不得意がやっぱり物凄くはっきりしているな
AIが認識しにくいお手本が少ない構図だとimg2imgでヒントを与えてもさっぱりだ
どいつもこいつも描いてるような君の名は構図的なのとか都市見下ろしとかは得意だけど
オリジナリティの強い構図はラフ食わせても全く理解できない >>745,748
サンプラーによってはうまく動かない 背景だと新海誠はローマ字でも認識してないか全然学習できてないくさかった
ジブリも駄目
男鹿和夫は認識してはいるらしくたまにいいのが命中する
日本人名だと浮世絵というか新版画というかのが荒ぶりやすいけど >>719
img2img.pyいじった方が早い。
makedirみたいなところのファイル名の後に[:50]つけるとか。
自分はyymmdd_50字みたいにしてる。 アニメ画像5枚/10epoch vs 30枚/10epoch
30枚の方はクリーチャーしか生成できない状態で5枚の方は人の形保てるし色合いは元雰囲気あるものの絵柄は再現せず
とりあえず枚数少なめな方がいい傾向があるのは分かった ”””具体的な”””ってつけなかったらああなっちまうのね
だからdiscodeにしようっていったのにー discordのことをdiscodeって言うのはなにが目的?
それとも別にdiscodeっていうサービスがあるの? hlkyのvariation機能試そうとしてアプデしたら
webuiの連続最大生成数が250から50になっとる…
この数値ってどっかでいじれたりする? configs\webui\webui.yamlの19行目 ビジュアルプロンプト
https://twitter.com/arankomatsuzaki/status/1565505712494501889
この絵の加工例のように、他の絵も加工して!ができるぽい
輪郭抽出、カラー化、欠落部分の回復(インペインティング)、雪景色化、・・・
データセットとコードが近日公開になってるから、一般的にも使えるようになりそう
https://twitter.com/5chan_nel (5ch newer account) venvも使うようになったしだいぶ簡単になったのでまとめてみた。
Stable Diffusion AUTOMATIC1111版のローカル構築手順
1 https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch
で指定されているものをインストールする
2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip をDLして展開する
使える人は git clone でも良い
3 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して
モデル(sd-v1-4.ckpt)をDLして model.ckp にファイル名変更して webui.bat と同じ階層に置く
4 webui.bat をダブルクリックで実行する
5 Running on local URL: http://127.0.0.1:7860/ の表記が出たらそのURLをブラウザで開く
●以下はオプション
1. GFPGAN(顔補正)の有効化
https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth をDLして
webui.bat と同じ階層に置く
2. 省メモリ化オプション(VRAM 4GBくらいの人向け)
webui.batファイルの set COMMANDLINE_ARGS= の所に追記して set COMMANDLINE_ARGS=--medvram にする
--lowvram もある
https://github.com/AUTOMATIC1111/stable-diffusion-webui#what-options-to-use-for-low-vram-videocardsd stable diffusionは58億5千の画像と文章を対応づけたLAION-5Bというデーターセットから学習させたそうだから、自前で同じようなことをするには膨大な計算が必要かも >>784
吐き出させたい画像の元になる様なのを追加で学習させたいんだけど
そういうのは無理なのかな? >>785
参考元の画像を一枚とかは指定出来て、ザックリ下絵を描いてという使い方はされているみたいだけれど、
期待されているのは~風を追加学習させることだとするとまだ見かけ無いような >>786
そうかー。って事はデータセットに無さそうなマイナーなモノは期待薄か… >>784-787
このスレでもいくつか出ている、 texutual inversion、ファインチューニングというのがそれですね。
>>11,553,597 とか。 アニメ3枚/160epochだと過剰適応(過剰学習)でまたクリーチャーになった
epoch回せばいいてものでもないね、やっぱり
epoch26あたりがうまくいってたぽいのでそこら辺のSTEPデータ持ってきたらだいたい雰囲気は取れてたが
やっぱり元絵柄再現とはってないので現状SDのアニメ系のTI fine tuningは難しいぽい
アニメ系SDモデル来たらまた違ってくるかもだが >>785
やり方は>>789
結果(効果)はtwitterとかで「ファインチューニング」で検索すればいくつかでてくる >>790
そうかー
AutoEncoderまでアニメ系で訓練されたヤツがあれば小手先の学習でいけるようになるかもな
そうなるとファインチューン要るのかって話でもあるが
ただ、アニメ近日と言ってた例のツイートは、もしかすると動画(アニメーション)生成機能のことだったんじゃないかと思えてきた アニメ系のtextual inversionはバニラSDよりtrinart版の方がよさそう アニメ絵はやっぱAutoエンコーダ自体がアニメ絵の圧縮・復元ができてないように思えるね
Autoエンコーダは食わせる画像が少なければ元画像は簡単に丸覚え出来るけど中間画像の破綻が酷くなる
食わせる画像が増えると中間画像を上手く合成できるようになるけど学習時間がどんどん増えていく
SDの学習はアニメ絵が少なくて前者になってるんじゃないかって気がする
mimicが元絵師の画像を完コピ出来ているのは食わせる画像がせいぜい30枚程度と少ない上に
元画像と極めて近い画像しか出さないから破綻が見えない、技術的には別に進歩していない
SDは多分著作権への配慮で(内部的には)丸覚え状態の元画像からなるべく離れた中間画像生成しようとしてるから
学習不足の絵では余計に破綻が大きくなるんだと思う AIスレはホットだなぁ
はじめてフォトショップが出てきた頃を思い出す そうなの?
どんどんAIにアプデが入って息つく間もないみたいな印象だった Colab規制前にローカル構築したけど、流石に4GBグラボで640出せるバージョンはまだどこにもない感じですか?… >>772
呪文の保存別ファイルに出きるし確かになと思ってやってみようとしたら
hlky版だとwebui.pyの、sample_pati_i周りだった
これでレジストリ元に戻せるや hlky側で作るパスは最大195文字くらい
Windowsの上限が260文字なので
設置ディレクトリが75文字以内なら大丈夫という方法もある ようやくバニラSD環境作ったけど既に周回遅れな気がしてきた
冬には皆フルHD画像出力してそうだな Real-EsRGanはメモリ消費が少なくて極端な高解像度画像でも作れる、でも画質微妙
swin-irは超解像では最高の画質だけどメモリ消費多すぎて高解像度の画像が出力できないという本末転倒
それに比べてMJのファインスケールは高解像度が可能で単なる超解像でなくディテールそのものが増えてる
MJのこの技術だけやっぱ群を抜いて売りになってんな羨ましい MJ絵はでかくて情報量多いから大人気よね、画像開いた時の見栄えが凄い
同じ土俵でSDの512とか見せられてもなんだそりゃってなるわ、面積1/4かそれ以下という MJは--testと画像参照が同時に使えるようになればいいのに
画像参照だけだとまともにキャラを成さないけど--testだけじゃ色々きつい MJとSDの違いって使ってるマシンパワーの違いだけじゃないの アーマードコア、めっちゃ効果あって笑うな
人体解剖図もプロンプトに加えてスケールをかなり強めにして数を試したら
結構手も破綻してないのが出てくるぞ >>806
MJは味付け調整をしているらしい。
出力サンプルのをユーザーに見せて点数付けてもらうアンケートも取っていた SD一筋の人生だったけどColabに課金するくらいならMJに課金した方が良いんじゃね?…と気づいた >>807
アレコレ試してるけどなんでアーマードコアがアニメ絵の顔に効くかは全く分からん
アーマードコアの二次創作で人物画描いてた人の作品でも食ってるんだろうか
これの顔の改善効果だけ抜き出したプロンプトワードがあればいいんだけどなぁ stable diffusionは、上で教えてもらったファインチューニングや、前や後ろに処理付けたしとかで目まぐるしく変わっていきそう automatic1111のcolab版がいつまで経っても来ないから自分で作ったわ
なお構築してるだけで制限された模様
グラボ全然使ってなくてもGPUモードで長く接続してると制限されるんだな、知らなかった SDはサイズ小さいのが個人的に一番辛い
出力後に拡大処理してもぐちゃぐちゃな細部が大きくなるだけだし
全然知らなかったけどMJの拡大と共に細部を生成するらしい技術良いな
MJは課金しないとプロンプトも絵も公開されるらしいから初日使っただけで離れちゃってたけどMJすごいな >>812
あれお手軽に使えてるけど
実際は大量のコアとRAMを積んだGPUクラスタの1ノードの一部と、そこにぶら下がってるGPU丸ごと1つ接続中ずっと占有してるのよ
なのでGoogleとしては使う使わないは消費電力ぐらいしか関係無い >>814
そうなのか
じゃあ節約とか考えなくていいか MJはライトユーザー、SDはある程度パァイソンできるHENTAI向けってイメージ >>816
midjourney遊びはdiscordで他のユーザーのアイデアを見るのも楽しい。
stable diffusionは、プログラムで同じキーワードから20枚とか連続で生成させてその中から選ぶとかプログラミング出来る人達は色々な使い方を工夫出来そう Midjourneyを日本語に直訳すると「途中」「中途半端」になる 自分の8GBグラボじゃなんか動かなそうだから試してないけど
SDでReal-ESRGANで拡大後に
分割してimg2imgでディテールを上げるってフォークもあるらしい
https://github.com/jquesnelle/txt2imghd 公式か公式に近いものでサンプラーの種類を選べるやつはないのかね
自分が必要とする機能だけを実装したコンパクトなものを作りたいんだよなぁ >>818
旅路のmidで。
開発者がまだまだゴールには遠いという認識なんだろうね midjourneyは色々スレみたいなのあるのも面白いね
毎日変わるお題に沿ったスレとか
ジャンル別やみんな一緒に一つの画像作ったりプロンプト開発スレとかもある
あとは自分の画像から勝手にアップスケールしたりバリエーション作り始められたり色々やり始めるカオスな感じも面白い
普通に勉強にもなるし そろそろ生成した画像が5ケタ行くんだけど画像整理に良いソフトない?
Windows11標準アプリに限界を感じてきた abobeのプランに入ってるならabobe bridgeがおすすめ >>823
Adobe Bridge
Rumina
他知ってる人いたら教えて
UIは古くない方がいいな >>826
初出だと思う。サンキュー
これ例えば、「月ノ美兎」を学習させる → プロンプト:a photo of * でa photo of 月ノ美兎と同じ様になる
みたいなことであってる?
だとして、もう一つ「壱百満天原サロメ」を学習させたものとマージすると、プロンプト: a photo of * はどうなるんだろう?
基本が分かってない・・・ >>827
学習データ二つ使うのはいまのところできないと思われる
少なくともhlkyの使い方説明はそれを想定してない >>828
なるほど。
やはりそうですね。
TIPSに以下のようにあるからどうなんだろうと思った。
You can train multiple embedding files, then merge them with merge_embeddings.py -sd to reference multiple things.
複数の埋め込みファイルをトレーニングしてから、それらをマージしてmerge_embeddings.py -sd 複数のものを参照できます。
プレースホルダを変えてやればいいのか・・・。まあとりあえず一つでやってみます。 実写なら破綻が少ないならまず実写を生成させてそこからimg2imgで好きな画風に変換すればいいんじゃないの >>829
これもよさそうですね。
Used custom termが明示されるのもちゃんとプロンプト間違ってないのが分かって親切 windows11のエクスプローラーはまじでゴミだよなー
俺は閲覧にneeview使ってるけど整理向きではないかも
placeholderはembeddingをモデルにmergeするときに別の単語に置き換えられるってどこかに書いてた気がする
やったことないけど2つ使うこともできるんじゃないか?わざと同じにしたら融合すんのかな SD開発者がなんで「オープンソース」でこのソフトを発表したかというと「AIを使うだけ」では搾取される消費者の側でしかないということだよね
つまり「AIを作る側」になれって言ってる
好みの絵が出ないならプロンプトをいじくり回してる間にpythonと機械学習の勉強してSD自体を改造出来る様になったほうが早いぞ オープンソフトなのに日本にはサンプルプログラム説明してるイキリプログラマーしかおらん
本当に終わってるのは絵師じゃなくてプログラマー github、日本人かどうか分かんないんだよなw
SDじゃないけど、作者含め3人でIssue議論していて全員日本人なのに英語で書いてたりする
hlky、automatic1111、basjindalとかのフォークはどれか一つになんないかなって思う >>790
とりんさまモデルベースで再挑戦してみたが
謎の縞模様しか生成されなくなったのでもっと酷い結果になった とりんさまモデルって既存のmodel.ckptと置き換えればいいのかな? >>839
そうですね。
trinart_stable_diffusion_epoch3.ckpt をmodel.ckpt にすればとりんさま
sd-v1-4.ckpt を model.ckpt にすればオリジナルに戻る
だけですね AIの時代に対応すべく俺も次にネットに上げる絵はAIで時短しようと思って作業してるけど
やっばムズイわこれ、構図とか細部がどうしても思い通りにならん
上手く出来た所を貼り貼りしてループバックして〜で下絵レベルに1日かかる
そこから線画、目の描き入れ、髪の修正、背景のブラッシュアップってなると普通に数日かかる
手で描くのと言うほど変わらんわ ランダムシードよりステップ一覧で出す方が良いのかも
https://i.imgur.com/WhQnpDT.jpg
膝を抱えて床に座るポーズを指定 >>843
AIさんがものすごい柔軟な発想しててわらう >>843
オイラーA先生は
凄い優秀なのに乱心癖があって予測がつかないな マジでこの挙動何なんだろうな。比較的安定してるステップ数とかあるの? ファインチューニングについて思ったこと
・アス比無視して正方形にリサイズしてから学習してるっぽいので入力画像は正方形が良さそう
・入力ファイル名を学習中のプロンプトに使うっぽいのである程度正確にした方が良い? k_euler_aはアルゴリズムとしては標準のよりさらに単純で誤差が大きいのにstepが20ぐらいで一旦見れる結果になるのが不思議がられている
恐らく誤差とかが揺さぶりとなって最適解ではないが局所解ぐらいにはジャンプできてるという話なんだろうけど >>843
さすがにステップ数が足りないと思う
k_euler_aでも18くらいからって言ってたし >>848
>>553みたいに設定絞れば一通り動かせはしたよ
どのくらいトレーニングすれば適切なのかとかは模索中 >>851
ありがとう、上のレス見てなかったわ。
>>553のとおりにしたらとりあえず走った。
ちょっと放置してみる。 環境依存だけどwebui最新版入れたら動かなくなった
tkinterってのが影響してるみたい
frontend.pyからそれを使ってる行を全部コメントアウトしたら一応動いた
参考までに いつの間にヴォルデモートことAutomatic1111版ガイドできてたわ
https://rentry.org/hlkytoauto >>843
step変更
cfg_s変更
stepとcfg_s変更
この3パターンでやるといいよ DiscordでEmadさんの質問ライブやってて自由に質問できるけど、
質問の英語はわりと聞きやすいのに、Emadさんの回答の英語が俺には全然分からないw >>18
最新版で scripts/relauncher.py が更新されたから省メモリ化の方法が若干変わってる
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように変更
optimized_turbo = False
↓
optimized_turbo = True
ちなみに既にGitを使ってインストール&省メモリ化してる場合は git pull する前に
git reset --hard を実行すれば git pull で更新できる
更新後は3の方法で改めて relauncher.py を編集 M1Macに入れたら10分かかるから流石に無理だな
いずれもっと早くなるだろうか
Google colabは数十枚出すと規制かかるね
Windows買おうかな hlky版に追加されたRefreshボタン便利だな
複数の画像を生成してる途中で押すとそれまでに生成完了した画像が表示される
途中で生成を断ち切るStopボタンも追加されてる 変わってないやん、ってフルの方はまだ更新されてなかった reddit民「k_euler_aはステップ数による予測がわかりにくいので使いにくい」
うむ hlky版、インストール手順がかなり変わってる気がする。 gigazine今頃黒塗り解除とかやってて笑った、何周遅れだよ 他人をバカにするためにこの技術に触れてるのか?
分かったらさっさと効率の良いおっぱい生成方法を見つける作業に戻れ ノートパソコンにオフライン環境は流石に無理だよな? 現在のAIがどのように画像を生成しているかはサイコロで解説するとサイコロを回して6を出しているのではなくAI1がサイコロを振って写真を撮りAI2がその写真の中から6の目が出ているのを選ぶというのを繰り返している
似たポーズばかりになるのはAI2が「横になった6」や「逆さまの6」を6と認識できないから
逆にサイコロではない「6と書かれた紙」が紛れ込んでもAI2はokを出す 女性の股間から舌や唇のようなものが出てる画像が結構な割合で出てしまうんだけど
少なくとも日本のエロ画等ではまず見ない表現だな
海外だとそうなのか?
防ぐための呪文があれば知りたい >>858
GoogleアカウントごとにGoogleColabを使える
一人で複数のGoogleアカウントを取得できる
同じマシン、同じブラウザで異なるアカウントのGoogleColabを利用できる
つまり…?
何百枚も出すとか、1回でGPU制限にかかるような処理はできないけどね 普通に口元のアップとか指定してもちょっとしたグロ画像になる
こういうものが苦手なんだろうな 陰唇(英語でもリップス)をくちびると混同しているんだろう
見た目が似てるからかもしれないが
あと単純に学習量が少なければ上手く生成出来ないので真面目に考えれば裸の女性にいろんなポーズを撮らせて全部のポーズで360度から撮影した写真で学習させないといけないかも >>868
VRAM4GBのノートPCで動かしてるよ
GPUの性能次第じゃないかな
俺の環境ではk_euler ステップ20で512x512が1枚/30数秒
アチアチになるからクーラーガンガンにしないといけないけど hlky版、webui.cmd実行後にブラウザが自動で開くように設定できる。
scripts/relauncher.pyの11行目をTrueにするだけ。 webuiからtkinter消されてた
webアプリケーションからシステムUIを呼び出すとか正気とは思えなかったんだよなぁ… >>875
WebUIのみか。ずっとhlkyだったが乗り換え時だな。 Dall-E アウトペインティングで漫画補完
https://twitter.com/8co28/status/1566016693352091648
実用性はともかく漫画のコマ割が補完されるってスゲー・・・・と思った
852話さんプロンプトも上手いし色々やっててためになる
https://twitter.com/5chan_nel (5ch newer account) >>880
漫画のコマに合うセリフを作る能力のほうが重要になる時代がもうすぐくるのか 絵が高度になりすぎると、コマ割りやセリフが多少変でもトータルで気にならないクオリティになってしまうし、見てる方も差異に気づけないから、ケータイ小説みたいな適当で良い気はする hlky、最新版にしたらimg2imgが動かなくなったわ
どうしてもこういうのがあるよな、この機会に乗り換え考えるか https://github.com/basujindal/stable-diffusion/pull/103
Stable Diffusion リポジトリは、VRAM要件をさらに最適化するプルリクエストを取得し、8GBのVRAMで1280x576または1024x704のイメージを生成することが可能になりました。
512x512 の画像は、2.86 GB の VRAM が必要です。 アイヤー!
更にv1.5が来たら一体どうなってしまうんだい >>885
>>854
txt2imgはhlky
img2imgはvoldyといったように使い分けることをおすすめする >>885
relauncher.pyの上書きしたからではなく? 最適化早いなー
この分だと1月もすれば全部入りツール出てきそうね
試しにpysideでアウトペイントのツール作ってるけど、GUI作るの果てしなくめんどくさい
待ってた方が早そう >>871
おまえそれ本当にやってる?机上論できるっていってるだけ?
banされるんじゃね、colabやるとき電話認証必要じゃなかったっけ >>889
上書きはしてない、ちゃんと最新版になってた
どのコミットが原因か分からんから結局8/31版まで戻す羽目になったわ >>891
いらないよ
何も知らないのに偉そうな人だねw Gigazineとかの馬鹿が広めるからColab複垢使用話はやめてくれ
ただでさえ一気に使用量が増えてグーグルが規制するの決定してんのに >>892
> 上書きはしてない、ちゃんと最新版になってた
今回から内容が変わってるので、最新はメモリ最適化系はデフォでfalseになっちゃってるよ?
あと、動かないってのはなんかエラーが出るの? 本格的に匿名化とかしないと同一端末でアクセスしてるのモロバレだよ
Googleのサービス永久BANにでもなったら洒落にならん まあ複数アカウントとかやらない方がいいけどね
面倒だし俺はやらんけど
同一端末からアクセスしたらダメって訳でもない
嘘は良くない >>885
自分も同じ症状出た
画面の初期状態だと動かなくてImage Editor Modeをいじったら動くようになった discordで1.5のBeta trialやってる
五日前から > x, mask = x["image"], x["mask"]
> TypeError: string indices must be integers
は自分も出たな
cropをmaskに変えたら動いた >>898
マジか…何しても駄目だから旧版に戻してしまったわ
gradioと直近の何かのコミットがぶつかってたみたいだから hlkyのそこら辺はとんでもなくバギーだからなぁ
恐らくモードを切り替えた時に初めて中身が入る変数を一度も切り替えてない時にも呼び出そうとして怒られてる ヴォルデモート版貼ってBANされるのは4chanだけなので… colabは金ない学生を機械学習沼に落とすのに最適だから消えてほしくないな 複アカコラボ!?それはひどい!
ま、まさか複数アカウントでGmailを利用してるような奴はいないよな? >>880
この人嫌い
承認欲求が溢れ出てる
AIが凄いんであってあなたが凄いわけではないだろうと >>880
これ見て、意味も分からず「漫画のコマ割りまではできるようになったらしいぞ」とか言って
他スレにURL貼ったりするやつが増えるんだろうな~
未だに大喜利AIを凄いと思ってる奴らと同じ層 画像生成AIの衝撃冷めやらぬ今なら
「これもAIがやりました!」って言えば全部信じる奴がいくらでもいるから
そういう奴らを金にしようと模索してる852話氏はある意味実に正しいと言える >>914
使ってるよ。別に規約違反じゃないでしょ
Colabリソース占有を目的として大量に作ったりするのはアウトだろうけどね ヴォルデモートのsdアップスケーリング試したけど全く別物になっちまうしこれならギガピクセルでいいわ >>921
それは規約ではなくFAQでは…
しかも複垢の話はなにも書かれておらず「読んでおいた方がいい」もなにもないという
ページ末尾の、29日に導入されるというコンピューティングユニットの話が気になるね
無料ユーザーへのリソースの割り当てが厳しくなるんだろうけど、具体的なことはわからない >>926
マジか
>Colab のリソースは、インタラクティブなユースケースに優先的に割り当てられます。大量のコンピューティングに関連するアクション、他者に悪影響を与えるアクション、Google のポリシーの回避に関連するアクションは禁止されています。以下は、Colab ランタイムでは許可されていません。
>複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避 >>927
あら本当。見出ししか見てなかった。ゴメンゴメンもうしないよ 無料コースで複数アカウントはバンされると思うけど
有料コースで複数アカウントは見逃されると思うんだけど >>886
最適化キタ━(゚∀゚)━!!
8GBで1024x704かー
12GBで1024*1024ならなんとか行けそうだなw
RTX3060買う予定なので12GBでなんとか収まってほしいw >>928
何目的でSD動かしてるかによるが危ない橋渡らなくても他の選択肢は結構あるで
Craiyon(DALL-E mini): www.craiyon.com
ERNIEViLG: huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
とりんさま: twitter trinsama
無料でStable Diffusion: memeplex.app
無料でStable Diffusion: twitter halcky_2025/status/1562777470381617152
LineでStable Diffusion: twitter nishino_0719/status/1563739424617549824
URL貼れなかったから色々抜いたわ 3060tiで十分使えてるけどグラボ欲しくなるな SD目線でのグラボ比較データ欲しいところ ernie-vilgのColabで良さげなの見つけたhttps://twitter.com/AIGirlsSelfie/status/1565534983967719426?t=YgifLpxlbCmTKP_xuVZtaA&s=19
けどこれ共有用って書いてあるんだけど、打込んだ呪文とかも共有されちゃうのかな?
呪文って客観的にみると恥ずかしい言葉がいくつか混ざってるんだよね…
https://twitter.com/5chan_nel (5ch newer account) >>930
これ2.86 GB の VRAMで動くってどこに書いてある?
見当たらないんだけど 最近のイラストレーターはブスや老人が描けないと騒がれていたがAIが出来ても結局みんな美少女しか描かせてないというのは面白い
単に需要がないから描く必要がなかったってだけやな hlkyからAutomatic1111に乗り換えだけど、生成時にReal ESRGANのアップスケールはできない?生成枚数はui.py書き換えて問題なかったけど、これだけが気になる。 >>931
わかりやすいまとめありがとう。自分も3060買ったから届いたらローカルへ移行するつもり
それまで試してみます M2 MacBook Proのわい高みの見物(´・ω・`) >>936
生成と同時は無さそうだけど、
Send to extrasボタン、Extrasタブ、Generateと3クリックでできるフローは用意されてるね >>932
>>22,26,323
統一されてるかも怪しいので目安だけどね
40x0は2倍ほど速くなり、4070でも3090と同等以上らしいと聞くとあんまり今買う気はなくなるw
後、2080Tiで昔は7.3 it/s ~7.7 it/sぐらいだったのが、Automatic11111だと8.1 it/sぐらい出る。なんか変わったのかな >>939
お、そんなのあったかと思ったら一枚ずつか……まとめてアプコンは外部ツール使わないと無理そうね、ありがとう。 PC組んでる間に最適化きたのか
これでモデル軽量化もされたらかなりデカいのかけそうだね >>940
最新の予想はこんな感じ
4090 24GB 450W超え
4080 16GB 340W
4070ti 12GB 285W
4070 10GB 250W
3060-12Gから乗り換えるとしたら4080(340W)以上か
ぐぬぬケースと電源から変えないと無理かも ぶっちゃけ今の環境だと呪文考えたり指示画像いじってる時間の方が長い
もちろん出力後に加筆修正する時間もAIさんの待ち時間より長い
だからスピード自体はそんなにいらないけどメモリーだけはほしいんだよなぁ Emad曰く3090があればしばらくは大丈夫らしいが 短くて綺麗目な女の子が出るプロンプト
elf, fgo, mucha, photorealistic
https://i.imgur.com/vk4Lp6J.png 美麗な出力に寄与するワードとその強度のリスト誰かまとめてないかなぁ
アーマードコアとか効果あってホント笑ったけど
ジャパニーズ入れるとぶちゃいくになる悩ましいワード ここ2週間酷使しすぎたのか、骨董品の1060がコイル泣きするようになってきたw >>947
prompt例によく出てくる武内崇氏もFGOのイラストレーターだね。 ひょっとしてある程度判子絵師っぽい人のほうがprompt例としては有用ってことあるのかな >>933
ERNIEはWEB-APIでリクエストしてるだけなんだから
露骨にサービス潰して使えなくするための攻撃サイトじゃんそれ
こういうのが横行するとcolabがますます規制されていくんだろうな 低解像度と高解像度で同じseed回しても結果は違うのかあ…
低stepと高stepではちょっと違うだけだから低stepで欲しい画像のseed探し頑張るのがいいかな pixivとか新海誠はpixivにある絵や新海誠監督の映画を直接参照してるというよりアメリカ人の想像した「pixiv」「shinkai makoto」のイメージを反映してると思う
日本人は現実のアメリカ開拓時代を誰一人として見たことないけど「西部劇」を想像できるように >>940
見てなかったありがとう
3060tiのままでいいか
今ランドセル出力させようとしてるんだけどどうやっても通じる気配がない Kyoto animation は2次元絵では割と強力に働く感じ。あとはkey visualも強い。京アニぱねえな。 >>956
もしかしてキービジュアルのキーをエロゲ会社のことだと思ってる? まあAIくんははいはいアニメのやつねくらいには思ってる気はする >>954
いや想像もクソもデータセットにあるか否かだけじゃないの? 58億のデータセットには普通に pixiv や danbooru のデータ入れてるだろうしな 自分の顔写真をゴッホとか特定の画家が書いた風にするってやり方ある?
ゴッホとだけ入れるとどう数値変えてもゴッホと自分の顔をモーフィングしたみたいになる
「ポートレートby ゴッホ ペインティング」とか色々試したけどダメだった portrait ~, Illustrated by Gogh
じゃいかんの redditに新しい最適化が来てるから試したが
colabの一番遅いGPUで1024x1024作れたわ
でも結果がおかしくなる
今まで可愛い女の子を出力したプロンプトが
頭3つになったりする
https://github.com/neonsecret/stable-diffusion 768x768は普通だけど
1024x1024からおかしくなる 512x768
768x512
までだな
人の形をたもてる限界 あ、頭がふたつ生えたりするのってそこが原因だったんか…
seedで普通に出たり2人になったりトーテムポールになったりするからてっきりpromptで二重に指示が入ってるからなんだろうかと悩んでた。 >>961
有名所ならSD使う必要ないよ
2020年あたりにメチャクチャ出たから探せば出てくる
「ゴッホ風 変換」で検索してみ >>964
つかてみたけどI2Iで送信クリックしたら
RuntimeError: No CUDA GPUs are available
になるぅ… >>972
コラボの設定
「ランタイム」→「ランタイムのタイプ変更」→「GPU」 >>974
ほんとだ!
いつもGPU設定して使ってたからデフォルトで設定されてるのかとおもたらこれ自分で設定するタイプだたのね!
ありがとございます! 一度画像参照で乳首出させたらNSFW警告くらって、ようやく画像参照なしで乳首生成まで至ったけど難しいなぁ
いつの間にやらbikiniもNGワードだし >>973
どの画像も根本的にはプロンプトxサイズxシードxガイダンススケールxサンプラーxステップ数の全てが噛み合って出来た産物
出力サイズが違うならシードは参考にならないんでガチャ回すかプロンプトの調整が必至 640で良いと思ったプロンプトが1024に変わるとあれ?ってなるな
512と640でもなんか違うなと思ったけどサイズ違うと一から模索しなきゃいけない感じ
しかも1024なんてRAM的に1枚しか作れないから模索の時間かかりそう
サイズアップで単純に喜んでたけど、これは結構だるい道のりだわ >>977
512に超えると変な画像になるって話だろ… >>979
元画像として貼ってるのは512x768で512越えてるやん
んでそもそも512x768で上手くいってんのも偶然の産物で
更にサイズ変えて生成してんだから「今まで可愛い女の子を出力したプロンプト」だのはアテにならんのでガチャ回し直しって話 >>980
公式も片方が512ならセーフって言う理論らしいから その1024版てプロンプト最後まで読み込んでるのかな?
アウトプット見たらサンプルと書いてるから一部だけ明記なのかもしれないけどプロンプトの途中までしか出ない
いつも使ってる640で出力してもなんか違う
あと送信ボタンが下にあるの使いづらいなw hlkyのStreamlit版だと生成中にステップ毎の画像を表示できるらしく、入れてはみたものの4gbじゃoptimizedにしてもメモリ不足だった…
方法供養
https://rentry.org/GUItardのステップ2aで
webui_streamlit.yamlもconfigs/webuiへ移動する
ステップ7を終えたら、スタートメニューからMiniconda3 Promptを開いて以下を実行
conda activate ldo
cd C:¥Users¥ユーザー名¥stable-diffusion
streamlit run scripts/webui_streamlit.py
Email:が出たら空欄のままenterで起動します >>986
手順がちょっと古いね
> 「name:ldo」に書き換えて
webui.cmdの中で-n ldoとして強制指定してるので書き換え作業不要になってる
> 「All Users」を選択して
webui.cmdの中で %USERPROFILE%\miniconda3 も探索先になってるのでどっちでも良くなってる テンプレ案作ってみた
https://rentry.co/2b9st
・編集パスワードは5ch
・ファインチューニング関係はどうまとめようか迷って入ってない
・>>3あたり時系列的に古いはずだけどメンテできてない >>988
素晴らしい、乙です
>>1と前スレだけ貼って、「テンプレはこれ」でこのリンクでいいような・・ >>964
VRAM8GBだけど普段よりデカい画像作れるね
dockerfile弄ってinpaint触ってるけどまだ使い方がよくわからん
img2imgと何が違うんだろう >>989
言われてみれば・・・。
軽く成形してリンククリックできる版も作っておいた
https://rentry.co/zqr4r
編集コードは5ch >>991
おお!マジでこれで行かない?
荒らし対策にたまにバックアップだけしといて
ずらずらテンプレが続くのも煩雑だし
レス時間制限が面倒って立てたがらない人でも簡単になるし
変えたかったら変えといたよ~で次スレ建てる人頼むとか周知しなくても済むし >>991
お疲れ様です! 私的メモも作ってみました。面倒だと思うのでテンプレそのままでもいいと思いますが参考まで
○言語ガイドによるAI画像生成の概要
・言葉(文章)を入力する(テキストプロンプティング)と画像が生成できるAI (txt2img)
・ベースになる画像を指定することもできる。 (img2ime)
・インペインティング:一部をマスクして書き直させることもできる
・アウトペインティング:既存画像の外側を追加することもできる
・ファインチューニング(textual inversion):自分独自の画像(自分のペットなど)を追加学習させることもできる。
<各種例示リンクがないとわけが分からなそう>
○言語ガイドによる自動生成AI各種
・Dall-E2 OpenAIの元祖画像自動生成
・MidJourney 非常に綺麗な絵画的画像が生成可能
・StableDiffusion オープンソースで無料で使える。Webサービスは有料のDreamStudio
・Imagen Googleの最強画像生成。最強すぎて悪用懸念で一般公開されていない
・Parti 同上(Googleの別チーム)。Parti+Imagenも最近作られた
2021/1 DALLE-E,CLIP これが全ての始まり
2022/4 DALLE-E2 改良版
2022/5 Imagen 言葉を人間レベルで深く理解し絵画化できる
2022/6 Parti 英語→フランス語翻訳と、英語→画像変換を同じ処理(Transfomer)で実行
2022/8 Midjourney 非常に綺麗で絵画的な画像を生成できるサービス
2022/8 StableDiffusion 超低リソース化でPCで動く。オープンソース化
*Crypko(日本)や、ERNIE-ViLG(中国)もAI画像生成だが技術的にGANベースなのでこの流れではない。得意分野は異なる
クオリティランキング
1位 Image、Parti (一般には使えない)
2位 Dalle-E2 有料
3位 StableDiffusion 無料(Webサービスは有料
4位 MidJourney 有料。細部は甘いが絵画的で美しい StableDiffusionの今後
・2022/9/4現在モデル1.4 (4GB)だが、近々1.5(2GB?)がリリースされる予定
・Audioモデル(9月予定。内容不明)、その後3Dモデル、Movieモデル(内容、時期不明)
・2023第1四半期にはモバイル版(100MB?)もリリースされる予定
・今後の技術
ビジュアルプロンプティング 2022/9/1発表。ソースコードも公開予定
https://twitter.com/_akhaliq/status/1565512090823041025
Q&A
・AI画像は人体(特に手足)がおかしい
→ 現時点ではそのレベル。今後ある程度は改善すると思われるが今はインペインティング、img2imgでガイドするなどで対応するしかなさそう。
・AI画像、思い通りにするのが大変で実用的ではないのか?
→ 現時点では用途は限定されると思います。いつ改善されるのか不明
・AIって画像をコラージュしてるの?
→ 画像のツギハギではなく、数千万枚~数億枚の画像を学習して数GBなどの生成方法(=モデル、特徴を圧縮したようなもの)にしています。容量的にもそもそも画像は入りません。
ロゴや署名のようなものが交じりコラのように見えることはある。学習不足
・権利・法律関連。イラストレーターはどうなるの?
→ 他スレでお願いします。
参考:画像自動生成AIと著作権 https://storialaw.jp/blog/8820
https://twitter.com/5chan_nel (5ch newer account) 次スレ
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/
勝手に建てたよ
>>993-994
テンプレサイトのケツに好きに加えるんだ!
簡単に荒らせちゃうから誰かたまにバックアップお願い imageは野生の開発者によるpytorch版が年内にモデルリリース予定ぽい >>996
https://github.com/lucidrains/imagen-pytorch
これですか。知らなかった。
Stablity.aiがゴージャスなスポンサーって書いてるw
必要VRAMとかどうなんだろう。PCで動くレベにまでなるならStableDiffusion V2はこれになったりして このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 6日 15時間 19分 55秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。