【Midjourney】AI画像生成技術5【StableDiffusion】
■ このスレッドは過去ログ倉庫に格納されています
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/ てことはPNG Infoでwarningが出てなくても実は無視されてるトークンがある場合もあるってことか。 視界いっぱいに広がる小麦畑、冬の早朝
ってやると刈り取った後の小麦畑も出力されるあたり意味連想はやっぱ効いてるんだな。 >>163のレスみたけど、
「swiming」が「swim」と「ing」に分かれてるのは、単純に「swimming」の打ち間違いをしてるせいで1単語と見なされなかったってことな気がする
「swimming」なら1トークンになるのかな 文にしてぶち込んでみたけど、PNG Infoだと1トークンに数えられますね。
Warning: too many input tokens; some (5) have been truncated:
art , she is swimming promptの書式やwebUIの機能説明とかしている所とか無い?
11111のネガティブワードやステップ数とかなら何となく理解できるけど
それとも書式はhlkyや1111とかフォークごとに違ったりするのか?
トークン制限の話を聞くと単語を区切る為のコンマも駄目という事? >>170
ありがとう!
辞書に載ってるような単語は基本的に1トークンって感じなのかな >>171
カンマは意味がある
文を区切る意味としてちゃんと認識されていてとても有用
でも1文字で1トークン消費する
これはStableDiffusion使ってるところ全て共通
カッコと違って別にフォークごとに動作が異なる訳ではなくAIにそのまま渡される >>171
機能説明ならautomaticの別リポジトリに詳しくある
webui-showcaseみたいなとこ
今日追加されたimg2imgaltが何を意図した機能なのかわかる人いる?
変な抽象図形みたいにされるだけで全然意味不明なんだが しかし、まるで商標のある作品をトレパクしましたと言わんばかりに出てくる謎文字はなんとかならんものか。
ネガティブでstringとかやったら消えるかな BERTだとingはsub-wordで別トークンなんだけど、違うのかな
検証すりゃすぐだけど正直どうでもいいw 1111版の今日の22:00の修正でバリエーション機能ちゃんと動くようになった
1. 気に入ったものが出たらSeedコピーする
2. Seedに張り付け
3. ExtraからVariation strengthを0.1くらいにする
4. Batch countを4などにする
5. 生成すると指定したSeedに近い画像が4種類出る
https://i.imgur.com/ibyfqmA.png >>173
意味あったのか
ただカンマはトークンを食う要因にもなるのね
>>174
redmeで起動オプションみたいなのはあったのは見たよ
batファイルにset COMMANDLINE_ARGS=--ckpt a.ckptみたいな追記でモデル使い分けてるのかな? automatic1111のインストールめっちゃ難しくて分からない
どこかにインストール方法書いてませんか? GIGAZINEにあったけど、あれ確かminiconda入れさせてた気がする。必要ないよね? >>174
READMEの通りにやってみたんだけど、なんか、元絵を微妙に変えてコントラスト強調した感じの絵が出てくるな? >>180
CUDA Toolkit入れる手順になってたね。
一時期1111のReadmeに入れろって書いてあったけど、すぐ削除された。
Gigazineは運悪く間違った記述の時に記事化したらしい >>182
なるほど。ちょっと見てみます。
以前はminicondaでインストールしてAutomatic1111も動いてたんですが、
いまgit cloneして手順通りにやろうとするとエラーが多発して動きませんでした。
python 3.10じゃないと駄目になったのか・・・
conda、venvとかpython環境ややこしすぎて面倒くさすぎ automatic1111のインストールめっちゃ難しいと感じるような人たちが画像生成AIを好き勝手使う時代がすぐそこに来てるんだよな trinart触った人いる?
すげえ絵が出るって話だけど >>179
python3.10とgitインストールした後はstable-diffusion-webuiをgit cloneしてダウンロードされたディレクトリにあるバッチファイル実行して別口でダウンロードしたmodel.ckptを入れるだけだぞ。 IntelCPUのローカルがあまりにも待ち時間長いから、お絵描きばりぐっどくんにも手を出したわ
毎日10連ガチャできるようになったみたいだし、日本語でもちゃんと効いてくれるから、これも気軽に遊ぶ分には楽しめるね
シード値とかはわからないっぽいけど
セーブポイントって書いてみたらちゃんとセーブポイントっぽいものが出てきてくれた
https://i.imgur.com/c1K9xfb.jpg 最初のインストールは簡単だったんだけどねw
Dockerにして欲しい・・・
minicondaとは別にpythonインストールするとややこしいことになるのかならないのか、とかpython環境の勉強する気がしないw Waifu Diffusionで適当に拾ったグラビア画像とかをimg2imgで美少女化するの楽しい >>175
映画のポスター,ヒーローもので設定した時に下らへんに見覚えのある赤と白のロゴのマークはっきり出てきた時は笑った >>189
minicondaのcondaとpythonのvenvは両方あると干渉するかもしれないので
動作を把握しているのでなければminicondaはアンインストールして
クリーンな環境で一から構築しなおしたほうがよさそうな気がします
他にminicondaを使っているモノがあったら安直にアンインストールするのはまずいと思いますけれど 1111版のプロンプトの[]と()括りってそれぞれどれくらいの優先度値振られるんだろ
数字で直接指定とか出来なのかな >>187,194,195
ありがとうございます。
hlkyがminiconda前提なので、python3.10を新たに入れるのはちょい怖く以下の手順でできました。
---
minicondaをプロンプトを起動して、
conda create --name Auto1111 python=3.10 で新しくpythonを3.10環境を作る
conda activate Auto1111
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
model.ckptとGFPGANv1.3.pthを配置
webui-user.bat →後はそのまま設定完了、起動
---
まあpython3.10を指定すればよかっただけですね。 >>196
stable-diffusion-webui/modules/sd_hijack.py 209行目あたりから
1回で10%アップorダウン
他のフォークのような:の重み付けは呪文分割実装なんで駄目だと考えてるとのこと
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/70 img2imgで新しく増えたInterrogateボタンがエラー出るだけだなーと思ったら、インストールするリポジトリが1個増えとったw img2img alterantive test、確かにoriginal promptに元絵から変わった状態を入れるとそれに応じて絵が変わるんだけど、めっちゃコントラスト高くなって出てくるからどうしようもないw 何かと思ったらCLIPで入力画像認識させてそれをプロンプトデータとして入力する機能か?
認識と出力の対応付けがまだうまくいってないんじゃ あれ……しかも、一個前に入れた内容が反映されるのは何故…… >>198
確か()がアップで[]がダウンだっけ?
1回で10%上下とかスマホゲーのバフ計算かよw img2img alterantive test、まずは絵を置いてInterrogateする。
できたPromptを下のOriginal Promptに貼り付ける。
上のPromptを書き換えてGenerateする。
って手順なのか。これで思った通りの動作はする。色がすごいことになってるがw 1111最新にしたらTI制御難しくなったでござるの巻 >>131
Usernameんとこ、メールアドレス入れたりしてない? とりあえず1111とwaifuってのは入れた状態
あとなんか入れたほうが良いものってあるんですか? 優しい人たちのおかげで色々試せるわ、ありがとう
プログラミングは全然分かってませんw 初音ミクでちゃんと初音ミクが出てくるあたり調教する方法はあるんだよね
楽してやりたいな Waifu版、ネガティブワードの力でアニメ調の顔がかなり安定してきた
結構広く使えそう
ネガティブワード:Blur,portrait_face,Photo_face
例
https://i.imgur.com/mXNTB1c.png 色々考えて単語入れてたけどlexicaから適当にコピペしてワードサラダ的にランダムに入力したほうがいい絵出るな・・・
たまに奇跡の並びが発見できて楽しい 結局手とか足とかが苦手なのかな遠目で見るといいのに近づくと奇形も多い
手直ししたらすぐ使えそうだけど手直しができない パーフェクトボディつってるだろ完璧な体だって言ってるだろ
それは奇形なんだよ… >>223
美乳とか入れても爆乳とそれ以上のものをお出してくるからな…
あえて俺は medium breasts と入れてる
それでも爆乳出して来たりするけど breastsって入ってるとそれだけで反応しちゃうAIくんよ >>226
一番上とかすごすぎるな
普通に暦年の有名なイラストレーターみたいなクオリティじゃん WaifuとSDオリジナル半々ということはWaifuとはまた違った表現になるんだろうか
だれか試した感想頼む 日本人「背が高い少女お願いします」
アメリケンAI「背が高い、、、195くらいか!?」
日本人とは感覚が違うからね 指定したポーズを取ると言うのがハードル高いなあ。
何の絵かと言うのは結構サクッと出せるけど、何をしている絵かって言うのが思ったより難しい… バチッとポーズを指定するっていうのは3DCGで十何年も前から出来る
最近のGANの強みは曖昧な言葉でポーズを指定出来る
もちろん出てくるポーズは曖昧なポーズである
適材適所ということやね Waifuって美少女以外もいい感じに出せるの?
大人の女性とかイケメンとか、あと動物や風景とか >>232
風景は普通
人間は大体何書いてもアニメ美少女が混ざってる感じでキモくなる
アニメ,漫画あたりをネガティブに入れれば一応普通のSDみたいに使えるな >>233
なるほど、あくまでアニメ美少女特化なんだねありがとう
幅広く作りたいならまだノーマルSDでいいか アニメからややリアルよりアニメぐらい
>>214で半々モデルも出たっぽい そんなんじゃまだまだだな
上司の「ドカッって来てバチバチーンからのビュビュビュッって来る妙齢の熟女だよ!」って指示に応えられなきゃ日本の会社では使えない ドカッっとか、バチバチーン、みたいな言葉が具体的に何のイメージとつながっているかってのは、むしろAIが得意な気がする
SDやMJは学習してないと思うけど colabの1111ってモデルオリジナルを引っ張ってくるのか。
トークン入れてるし、とっくの昔にアクセプトしてるのになんで403返ってくるってちょっと悩んじゃったw
>>232
waifuは端的に男女の扱いがヒドイw
https://imgur.com/a/hVk9jyA
seedは同じで、promptは"highschool student boy"か"highschool student girl"だけで出力。
他のイメージ系ワードなしだと、ここまで差がつく。 >>239
これは草
教材になった画像の美少女率と美少年率がこんな感じなんだろうなあ… >>239
waifeでhighschool student girl だけ入れてぶん回したら
seed運次第でとんでもない美少女出てくることがあって呪文の探求の日々は一体?ってなるわ 余計なプロンプト入れずに運に任せたら低確率でガチな美少女出てくるから
顔だけ、体だけ別々にプロンプト利かせられたら革命が起こるだろうな
現状は体や背景指定するプロンプトのせいで顔が崩れてるわ 短パンにショートカットの少女、とかで男の娘に出来るんじゃない プロンプトとseedが同じなら同じ絵が出てくるんだから世界中で似たようなプロンプトでGPU回しまくってるのは資源の無駄だよなー、と思う >>241
そら広大な海の中から魚一匹捕まえるようなもんで
普段のPrompt探究は海じゃなく生け簀を見つける作業 >>245
同じこと考えてたけど、別々に作ってフォトショでいいんじゃないかという考え方も 1111版でSEEDやプロンプトその他の数値を全て同じにしても
同じ絵が出ないバグに悩んでるんだけど他の人は問題ないの?
多分このバグのせいでオカルトな意見が出たりしたんじゃないのかな >>248
古い生成画像で試したけど同じものが出たよ
画像上げてくれたら試すよ >>248
batch size入れるとsamplerによってうまくいってない模様
公式と違って1111氏は対応してるそうなんだけど
https://mevius.5ch.net/test/read.cgi/cg/1662332320/964
この人がDDIM限定かわからないって言ってるように、理屈はわからないけどeuler_aはダメみたい
LMSは大丈夫だった 具体的に書くと
「euler_aで」batch count 1 & batch size 3で3つ作る
pngファイル名、png chunkや保存txtのseedが100、101、102になったとする
(chunkとtxtにはbatch countが0、1、2と記載されてる)
で、全く同じ条件で再現しようとすると先頭の100はいけるけど、
seedの101、102はいわば嘘情報で、この2つのseed値はPCの藻屑でもう誰にもわからない
って感じ
とりあえずLMSは問題なかった
DDIMもかな、使わないので他は知らん 追記
Doggettx変更あってもなくても同じ
もしかしたら影響あるかもしれないので一応調査済み >>251
なるほど
手元で試してみたけどeuler aでもbat posから一枚目のseed推測して同じbatch sizeで実行したら同じの作れるっぽいね 1111版で手動で環境構築してるとwebui.py起動時にGFPGANのエラーが出るようになったのでメモ
発生した現象:
Error setting up GFPGAN:
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/gfpgan_model.py", line 66, in setup_gfpgan
解決法:
このissueの修正コミットにある通り
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/347
pipでGFPGANのリポジトリを指定する時に特定バージョンを指定することでエラーは出なくなった
git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379 >>253
逆算はまぁ・・
cfgやstepいじりたいのがバッチ8のケツだったら毎回無駄なの7つも作らされるという CodeFormerあるからGFPGANもういらないし… CodeFormerの修正めっちゃ芋くない?
古い写真の欧米女性みたいになるから封印した どっちか忘れたが鼻の下に人中が出たから
顔修整は使わんわ 両方MAXでかけると
GFPGANはなんか極東アジア人っぽい感じ
CodeFormerは欧米人っぽい感じ という個人的な感想 GFPGANはリアル用だから当たり前だけどアニメ系だと使いにくいというか使えない
Codeの方はどうなんだろ >>250
俺もeuler_aでバッチサイズありだった、やっぱりバグなんだな 複数のckptファイルを同じ場所に入れてそれぞれを使い分けながら起動することってできますか?
各所で説明されてる感じだとmodel.ckptに改名しなきゃ行けない感じなんですかね…? >>264
AUTOMATIC1111ならできるよ
webui_user.batだったかの中身にオプション入れる colabでも出来るよ。単にパイプの名前変えて複数読み込めばいいだけだから。
ただし、個別にckpt確保することになるので三つぐらいパイピングするとメモリ足んねーぞって怒られちゃうが。 ■ このスレッドは過去ログ倉庫に格納されています