【Midjourney】AI画像生成技術5【StableDiffusion】
■ このスレッドは過去ログ倉庫に格納されています
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/ red ball
redball
どっちも認識するけど同seedでも微妙に結果違うんだよね・・ Red ballだとseedによっては白いボールを出す時があるんだよね。わけてみたりまとめてみたりする。
‘’で括ったりしても、あんまり効果見えなかったりこの辺はやっぱ呪文よね。 SDってテキストと物体の関連付けは高いと思うけどUnetの識別能力が微妙だな
似たような色と形状があるだけで誤認識して勝手にそこに描き始める
名状し難きクリーチャーを見るの疲れたわ… 引きの構図になると途端にキャラ崩れるのはなんでなん nendoroidが全身でも破綻しにくいあたりが鍵か いや,ねんどろいどは二頭身だからだろ
Automatic1111版またスクリプト追加してるな
Pullするたびにアプデあって気持ちいい clip frontでhiとかのdetail系だけパッとなんとなくで見た感じだけど案外違うんだな…
hi detail 顔イラスト hi detailed 顔イラスト
hi-detail 絵画 hi-detailed 顔イラスト
high detail 建築・絵画 high detailed 雑多
high-detail 建築・絵画 high-detailed 雑多
highly detail 描画 highly detailed ミニチュア・フィギュア
highly-detail 絵画 highly-detailed 雑多
hyper detail 特定ブランド hyper detailed 細かい描画
hyper-detail 特定ブランド hyper-detailed 細かい描画 ねんどろいどは
2等身で512x512におさまりやすい
通販ショップやレビューサイト等の物撮りで品質と構図が安定している
顔が占める面積がデカい
抽象化されていて細部の情報量が少ない
ここらで概念化がスムーズに行ったんだろうな 1111のスクリプトにあるバッチプロセスとはどういう代物ですか?
現在の生成設定✕指定枚数を児童で作成してくれる便利機能かと思ったけど、全然そういうものではない感じ?
インプットフォルダとアウトプットフォルダ設定だけで頭?状態 ねんどろいどはポーズも限られてるし、誰かが絵描くにしてもバランスも似たような物しか描かないだろうし
結果として規格が統一されバランスの良いデータが。
ねんどろいど意外に海外含めもう少し等身高めのメジャーな人形規格ってないかなぁ。 >>1
次立てる人、別スレ誘導は落ちてるアンチスレじゃなくて総合スレに直してほしい >>12
前スレ立てた人が2に間違えたって書いてたのに・・
あと前スレが3スレ目で、下に4スレだけポツンとあるのももうちょっと
交換抜いて【】補正したのはいいけどすんごいズボラなスレ立てだね >>1
乙乙
もう次スレ関連スレもてんぷりゃに入れればいいんじゃない?
あとdreamboothのやりかたnpakaさん解説来てたけど
40GBいるとかでかなりまだ無理っぽい sd upscleようやくコツが掴めてきた
でも今頑張ってテク身に着けてもどうせすぐボタン一発で凄いの出るようんなるんだろ?
と思うと若干むなしさ感じるなw >>13
いろいろもうしわけない
あわててスレ立てするもんじゃないね >>1
乙乙
prompt、オブジェクトとスタイルを分けてぶち込めるようにならないかなあ。
学習データでは一応、この二つは別物っぽいんだけど。
贅沢言えばカメラも分離して欲しいが、これはちょっとムリかな…… >>17
いやいや言い過ぎた。。ギリギリまでみんな気づいてなかったのも悪い waifuでどうにか顔ドーンじゃなくて引きの画にならんだろうかと
Negative Promptsに((((portrait))))とぶち込んだら現実の顔成分がごっそり引っこ抜かれて二次元のカクカクとした目とアニメ塗りみたいになった
引きの画にはならなかった full bodyでは?
しかし引きはくりーちゃーにしかならない Midjourneyで実在の人物で練習してるんだけど瞳が高確率でロンパったりグチャグチャになったりする……
目の情報入れてみても微妙に上手くいかないし何か良いワードある? ワードの問題と言うよりも、解像度な気がする。
メモリと勝負になるけど、解像度上げてみたらどうかな? Craiyon基準だからWaifuで使えるか分からないけど
face portrait ⇒ 顔のみ
upper body portrait ⇒ 顔と上半身
full body portrait ⇒ 顔から腰ぐらい、足元まで行くことも
こんな感じの画像イメージわたしは効果あった
portraitのところを別のものにするとかで行けるかも Deforum Stable Diffusionで3Dモデルっぽく回転させてみた
https://imgur.com/MozJfd1 >>23
初心者で申し訳ない……んだけど解像度上げってアップスケールのこと?
それとも--q 5とかのクオリティ上げるってコマンドの事なのかな おお、凄い。
それにしても派生モデルが多すぎて追っつかんw >>26
いや、単純に最初に与える画像の大きさ。
まだ実験してないんで、アレなんだけど、単純に64×64以下の面積のブロックが他のブロックとの連続性が無いと崩れるんじゃないかな? と。
だから、引きだと必然的に顔の面積が少ないので描画がまともに実行出来てないんじゃないかなみたいな。 googlecolabってどの位の性能持ってるんだろう
高性能ならhdや2k4kの自動生成作らせようと思えばできるのかな 色々試してはいるんだけど顔に張り付く謎の力が働くプロンプトの時に効き目が途端に無くなるんだよね
どうしたもんだか
それはそれとしてportraitをNegativeにするのはアニメ顔にかなり効き目がいいことが分かった
waifu1.2
素(1girl, aqua_hair twintails, aqua_eyes)
https://i.imgur.com/48FJUuI.jpg
Negative portrait
https://i.imgur.com/BOokcDr.jpg
Negative ((portrait))
https://i.imgur.com/kWRFqpP.jpg
Negative ((((portrait))))
https://i.imgur.com/wWEI915.jpg >>22
何をどう練習してるのか知らんけど
1アニメ調ならMJは向いてないから諦めてDiffusionを使う
2取り敢えず同じPromptでEmma Watsonさんにお願いする
それで崩れなければ、出したい人物の学習量が少ないせいで整わない可能性がある
3崩れるならPromptが論外なので公式のフィードで検索する https://www.midjourney.com/app/feed/all/ +で
NVIDIA Tesla P100(16GB)
NVIDIA T4(16GB)
Pro+
NVIDIA Tesla V100(16GB)
NVIDIA Tesla A100(40GB)
でガチャらしいw
A100引けたら、結構高解像度いけそう。 久々に来たが852話とかいうクッソ陰湿なゴミはそろそろ用済みになりそうか? >>29
そもそも元のモデルが512x512用なんで
2048x2048作っても、同じパターンの繰り返しになるだけだったりする
https://www.reddit.com/r/StableDiffusion/comments/x6dhks/fork_for_automatic_memory_allocation_allows_for/
これとか凄い凄い言われてたけど、そもそもこんな画像作りたいか?って
結局、一発でやるのは意味ないので、過剰なVRAMは「今の技術では」必要ない
img2imgのアップスケールは元の整合性あるを拡大してから部分部分で変換させることで上手くいく
そこそこメモリがあれば実現できるし >>33
Waifu使いませんでもTrinARTは使いまーす
やばいすごい!
ちなみにTrinARTでもダンボールのタグ使えまーす💕 結局、512で作ってアップスケールしてトリミングが今は最適解ってことか…… >>32
良いGPU引けるまでインスタンスの破棄繰り返すのは違反行為だから気をつけなよ
なんか怪しまれて下位しか割り当たらなくなった人とか居るみたいだし とりさんまは115000stepモデルでてる
キャラ特化モデルも早くリリースして欲しいけど
流石にまんまなキャラでやすいから著作権的に難しいか >>28
正直半分ぐらい何言ってるか理解できてないけどありがとう
とりあえず画像の大きさ変えて色々トライしてみる
>>31
ありがとう
適当にハリウッドの有名人とか入れてなるべく実写に近い形で再現できるか練習してたんだけどとりあえずエマワトソンでやってみる >>33,36
>>1
> AIイラスト 愚痴、アンチ、賛美スレ
> https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/
修正前のテンプレが生きた、そっちでも嫌がられてるがw
数字話の人はいい加減イラ板に専用立ててほしいな、古塔とかもあるし >>37
Googleさん、その手の行為に厳しいのはFirestoreで実感したからやってないw 実写ワードだと、濃くて写真がいっぱいあるトランプが一番効果わかりやすい気がするw
あんなの何枚も走らせたら、メンタルブレイク起こしそうだが 俺はcolabで回しまくってたら嫌がらせのようにロボット確認してくるようになった
操作止めると10秒後くらいに出てくる 無料colabってブラウザのそのタブを非アクティブにして一定時間でcaptchaじゃなかったっけ?
生成中の表示を眺めながら正座して待っとけと?イライラするんですぐやめてグラボ買っちゃったよ >>30
そのpromptだと情報が顔に偏るから、体に関する何かを加えるとよいのでは
1girl, aqua_hair twintails, aqua_eyes , blue one-piece dress, black belt, upper shot とか適当に
ttps://imgur.com/a/2xhgS3D 正常位騎乗位の命令でキャラクター指定をすれば奇形抜きのエロ大量生産んできるプログラミング誰か組んでください! StableDiffusionだけが目的ならグラボ買うよりcolabの方がお得感はある気もする
ちょっとがんばって30万のグラボを買うとすれば
colabなら同じ値段で25年戦える SDは具体的な背景情報入れると嫌って程引きにしてくれる
blue skyとか入れてみて in xxxxxxって入れて、さらにlong shotとか入れるとかなり引きになる確率上がるよ。
人物入ってる時点で、それなりにポートレートにも重みかかるみたいだけど。 backgroundみたいな背景こうだよ指定を補足してみるとか
カメラで引きの撮影みたいな用語とかありそうだけどそう言う撮影用語は使えないのかしら
そもそも撮影用語が分からん aerial full body of 1girl, aqua_hair twintails, aqua_eyes
ドヤァッ! full body よりはstanding 等の状況説明のほうが全身は出やすいと思う
カメラ引いた都市とかはtop of view 、landscapeとか 怪獣映画みたいな低い視点の引きってのが難しいが 縦長にする、long shotはやったけど効かないのよね
超縦長にしたら見切れ横顔描いてきてブン投げたこともあったり
服装とかも指定してるんだけどどうしても顔に寄る
もちろんseed依存で5%ぐらいは引きの画が出るんだけどこれの収率を上げたい
背景指定するのはあまりやったこと無いからやってみるわ
それでも引きにならないガッチガチのプロンプトで一般にお出しできそうな構文のがあったら今度持ってくるからチャレンジしてみてくれ Waifu は場所指定して男をかけと言うと何故か引く率急上昇。 aerial view(俯瞰)のつもりだったけど、検索したらyogaのポーズの意味もあるのか
aerial pose of 1girl, aqua_hair twintails, aqua_eyes
でぐちゃぐちゃの人体が出力される
https://i.imgur.com/11p0HFi.jpg
変わったポーズありながら俯瞰にもなってたり、ダブルで効いて全身入る感じか 俯瞰はバーズビューがやっぱ鉄板
ただし、鳥混入率も上がる
何でやたらと頭とか肩から羽生えてるエンジェル系率上がるんだろうと思ってたら、鳥だった罠 Waifuととりんさまでそれぞれ本家SDベースで学習した実写TIとの組み合わせをやってみたけど
とりんさまはいい感じに実写をアニメに落とし込んでくれて使いやすいけど衣装指定とか調整しにくい
Waifuもアニメ調にはなるんだけど実写そのままな中の人が出やすいけど衣装指定とかしやすい
アニメTIもやってみたいけど今ところ全敗なのでノウハウが切実に欲しい img2img使っても狙った情景を出すのは難しいねえ
延々ガチャ引いてる 合成してimg2imgが早い気がするけど、雑コラ突っ込んでもやっぱり顔崩れるからなあ。 髪型指定ができないんだけどみんなどうしてる?
4chanではフォトショでコラしてimg2imgって言われた >>65
ショートボブ short bob hairstyle
三つ編み braid hairstyle
おさげ pigtails
ポニテ ponytail hairstyle
ハゲ skinhead
とか書くだけでは。あれこれprompt付け足すうちに薄まって消えるかもだが waifuでportraitをNegativeに入れるのは相当な強度があるな
入れると何でもリアルになるはずのby greg構文でいきなりこれが出てくる
https://i.imgur.com/5Xxzk5S.png
https://i.imgur.com/D7fp05n.png
https://i.imgur.com/R4XQmYw.png
>>61
waifuでできるだけアニメ顔にしたいならこれ試してみるとどうよ? ネガティブにブレとか霧とか入れたら綺麗になるのかな Emadさんインタビュー
https://signal.diamond.jp/articles/-/1407
Emadさんのインタビューなのにタイトルが深津なんてゴミの名前なのはなんなんだ
ダイヤモンド社に深津の同級生でもいるのか?
それはともかく内容はいい
・9月には音声、その後は動画、3D、言語、コードにも対応
Dream Studioの完全版はアニメーションの作成にも対応する
・すべてをオープンソース化しますが、最新版はまずAPI経由で提供しする
・今は2GB(1.5のモデルサイズ)だが不要なものを取り除くことで100MBにできる
・数週間以内には、Stable Diffusionの独自モデルを構築するためのガイドラインを、クリエイター向けに公表する
マーケットプレイスも構築していきます。そこでクリエイターは独自モデルで生成したコンテンツや、
独自モデルの(クリエーターの)特性を他のクリエイターに販売する。
もしあなたがピクセルアートに特化したモデルを作ったとしたら、ピクセルアートに関するアセットを求めるクリエイターは、
汎用モデルではなく、あなたのモデルを利用することでしょう。
・StabilityAIが本格的な活動を開始したのは9カ月ほど前
従業員数は75人で、世界で10番目に速いスーパーコンピューターを保有している とりあえずEmma Watsonさんは凄いホントにEmma Watsonさんになるんだなw
他の人は512×512?とかでも試してみたけどいまいち瞳が安定しなかった…
https://i.imgur.com/e93hzij.jpg
https://i.imgur.com/kFjJVjT.jpg >>68
Negative (portrait)
https://i.imgur.com/5Xxzk5S.png
Negative (portrait), (blur), (bokeh), (fog)
https://i.imgur.com/wJ18CAK.png >>71
真正面顔になったときの鼻の輪郭線がおかしい(縦一直線になる)のは、MMDを学習したみたいな感じがする greg rutkowskiさん(本物)Twitterフォロワー2万2000人しかいないんだけど
こんなにお世話になってるんだからみんなフォローしたれよ・・・😢 EmadさんはメディアAI界のGoogleを狙ってるのな Gregさん、近いうちにネットでワシのオリジナル発掘出来んようになるって言ってるみたいね。 あの人Twitterのフォロワーとかいうしょうもない次元の人じゃないでしょw 知らないけどそんなすごい絵師なんだって調べたら本当にすごい絵師さんだった 他の似たような作風の人でもクオリティは上がるけどなんで皆Gregさんを使ってるんだろう
最初期に上手くいったプロンプトだから慣例的に使われてるのかね >>80
単に知らないだけでは。私も知らないからいくつか教えて欲しい gregさんは癖がなく使いやすい
他にもサンプル数が多い画家の名前が挙がってるけど
まさにその人の作風、みたいのが強く出てしまって使いにくい。 なるほど、モデルを公開したのはカスタマイズ市場を作る為だったのか >>68 >>71
これはいい技術 いいこと知った 折角髪で目を隠したのにi2i掛けると両目描いちゃうのやめて >>69
倫理とか下らないことを言い出したな
中国勢に負けるぞ 有償で自分の絵に特化したモデルを作りますってのはアリだな。
これは魅力感じる人、多いんじゃないかね。 ヱッチな画像数十枚渡してこれで作ってくださいしたら怒られるかな 特定の作家の絵柄をコピーしてモデルを売る人が確実に出てくるよな
流石にいずれ問題になると思う 通常のプロンプトにanimeやら色んな言葉入れた後にネガティブプロンプトでanimeを指定してやるとイラスト感強く出るな >>71
それは珠玉の知識だわ
昨日被写界深度が浅くて困ってるって書いた者なんだけど、一撃で回避できる解決策やんありがとう 特定絵師の本人以外の販売は流石に炎上する程度には世の中の理性を信じたいが……難しいだろうな midjourneyのnoオプションが便利で~って書いてた人居たけど確かにこれがあると無いとじゃ大違いだな
単純に出したくない物書くだけじゃなく画像から質感まで消し去れるとか強力にも程がある Negativeって「,」で区切った先もマイナスの作用が続く感じなんですかね
それだと長文呪文使ってると呪文の再構築が結構大規模になりますね
もしくはPositiveみたいに言いなおせばそこから従来の呪文を再開できる感じ? >>97
NegativeはNegativeの欄に入力するのよ
今のところAUTOMATIC1111の最新版ぐらいでしか対応してないけど >>98
マジすかありがとうございます!
これは1111入れなくちゃいけないコースですね 落としてくるだけでいいNMKDが楽で使ってるけど
1111入れた方がよさそうだ ■ このスレッドは過去ログ倉庫に格納されています