【StableDiffusion】AI画像生成技術13【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの【具体的な】技術や動向について語り合うスレです
AI画像生成の未来や、イラストレーターの職権侵害等の漠然とした一般的な話題は明確に【禁止】します
以下のスレッドへ移動してください
【Midjourney】AI関連総合25【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1671824170/
AIイラスト 愚痴、アンチ、賛美スレ part21
https://mevius.5ch.net/test/read.cgi/illustrator/1672631052/
エロ画像の生成については以下のスレッドへ
【NovelAI】AIエロ画像情報交換 11【Waifu】
https://mercury.bbspink.com/test/read.cgi/erocg/1672908946/
なんJNVA部★126
https://fate.5ch.net/test/read.cgi/liveuranus/1673176819/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術12【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1670898879/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured いうて1スレくらいワッチョイなしでも大丈夫やろ……って思っとったら早速荒らされてんのほんま Automatic1111で
プロンプトAで100枚だしたら、
次はプロンプトBで100枚だして、
次はプロンプトCで100枚だして
っていうようなふうで違うプロンプトを夜間バッチで流したいですが、できますか? >>5
そのやり方が分からんけど
Auto HOT key とかでできるんじゃないか >>6
レスありがとう
いろいろ調べたら、
Automatic1111ではScriptsの中の"Prompts from file or textbox"の機能できるらしいことがわかりました ひさびさに更新したらリサイズの項目に見慣れないのがあったから使ってみようと思ったけとエラー出て使えなかった
何か追加でいれないと使えない?
あと、潜在的なアップスケールってなってるけどi2i元の画像から縦横比維持したまま埋めも切り抜きもしないで出力してくれるの?
https://i.imgur.com/ljxkSuL.png
https://i.imgur.com/iBYXPC5.png このたびNovelAIのエロ画像作成に興味を持ち、登録を思案している者です
質問なのですが、PCを複数起動させて画像を作りたいのですが、登録は共有できますでしょうか?
それともPC一台につき一登録という車両保険のようなシステムでしょうか? >>12
サーバ処理のサービスなんだろ? 複垢でも作らない限り無理じゃねぇの >>12
アカウントは共有出来るけど
複数同時ログイン同時出力出来るかはやったことないから分かんない pixaiがリークモデル使ってたの既出?
個人が配布してるモデルでリーク疑惑かかってるの結構あるな 今ある主流のアニメモデルなんてリークNAIが源流なのがほとんどでしょ せっかくだからどのモデルがリークなのかまとめてきてく! 明確にリークモデル系じゃないのはWD(旧1.3.5除く)ぐらいじゃないかな
後のはリークの流れを汲んだAnyV3ベースが殆ど
マージモデルは全部リークの血が流れてる >>20
手持ちだけでも200以上混ざってるモデルがあるんで書ききれんばい
今主流の一般的なダンボールタグが使える奴で特にmasterpieceや1girlでまともに出てるのはNai/Any混じってるのがほとんどだな
WD品でもダンボールタグ使えるけどEimis混ぜてすぐキャンセルしたモデルほど効果はない無いから使ってれば分かると思う
WDもリークでないってだけでDanbooru学習してるわけだし叩き奴には餌でしかないけど
色が薄くなって紫斑点出るモデルはAny混じってるし、NAIリーク(Anything)のvae使えって言われてる奴はほぼ全部だ
良心的な所(?リーク品混ぜてる時点で(笑))はちゃんと混ぜてるってレシピ公開して書いてある
書いてないところはたいてい混ざってるGapeもNAIベースなのでエロくぱぁできるモデル(特に2D)はほぼ混ざってることになる そんならもうリークじゃないモデルが出てきたときに語ればいいやいね リークでもない、danbooruでもない、クールジャパンならね! ちょっと新しくなったようだ
https://huggingface.co/aipicasso/cool-japan-diffusion-2-1-1-1
あいかわらずのおいしくない有機農法野菜だが グラボ3060の2枚刺しって強い?
生成速度が上がるならやってみたい。 >>27
webuiを2つ動かしてそれぞれ別のグラボに割り当てれば速度的には倍になるよ。 似たようなサイト増えてるけどnovelaiが一番良いですか? >>23
長すぎるけどほとんどがNAI使ってるか混ざってるまではまじでこれ 1111でDreamBoothやると3060の12GBでもメモリ不足エラーみたいの出るんですが(前はできた)なんででしょう たぶんプロンプトにshigeru_matsuzakiが入ってる >>35
黒画像はvae適用時にデータがおかしくなるせいなので、起動オプションに—no-half-vae付ければ大抵は解決する。
vaeを使わないって手もある。 >>32
DBがおかしいって話もあってみんなLoRAやってる感じ アプデしたらhypernetworksとか選び方変わってる
前みたいなクイック設定で右上の方がやりやすかった
これって前に戻すとかできたっけ TI、HN、LoRAは適用方法が変わって右の🎴ボタンから選んで使うようになった
前の設定には戻せない 最近の環境はだんだんメモリの必要量増えて来てるよな
でも12GB以上のGPUになると選択肢限られてくるからな Stable Diffusionに限らないが、そもそもAI応用ソフト界隈全体としてVRAM・RAMの使用量を減らそうという動きはないのか?
1111のmedvramとかのオプションは他のSDソフトに見られないから、多分独自実装だろ >>43
前にEmadがSDはもっと小さくなるスマホにも乗るようになるとか言ってたから、動き自体は無くはないかも
実際にはSD2.0でメモリ前より厳しくなってるけど >>43
今度は学習解像度が上がってエンドレス、結局gpuに合わせた限界になるんちゃうかな 蒸留モデルいつになるのかねぇ。クリスマス辺りにでも来るのかと思ってたが…
やはりEmadのComming soonは当てにならんな >>42
ガチ勢は、こんな感じ
GPU: RTX 4090 (A100より速い) 、サブ (RTX 3060)
CPU: 第12世代Core i5
メインメモリ: 128GB
不揮発性メモリ: 1TB
ストレージ (SSD): 1TB
ネットワーク: 2.5 GbE
CPUは然程ハイエンドでなくても良いみたいね やっぱアプデ後変なボタンでしかできないのか
後LoRAで人物学習させるのは成功したけど体位とかの場合どうしたらいいんだろ? 正直演算速度はそんなに要らないからRTX4060くらいのにビデオメモリ16GBのモデルとか出してほしいわ
なんならモバイルでそれくらいのが欲しいが
当面出そうにないからlegion760RTX3080、16GBモデル辺りでも確保しといた方がいいのかな >>49
ポーズ自撮りしてモデル入れ替えながらi2i繰り返せば素材になるかもね Anything3が停止になったが
sdで動いてこれに近いのおススメ教えてくれんか >>50
メモリーの張替えで増量してた人がいたから
nvidiaが最初からメモリ倍にするのは簡単なんだよ
でもAI用はボッタクリで売ってたから安売りしたら利益が減るからできないんだよ
金儲けのためにやってるからな >>52
4.0/4.5が出たから消したのでは?
1.0や2.0も消したよね anything v4.5はv3よりプロンプト聞いてくれるし
指も大分改善できてる >>54
anythingは4以降は別の人が作った亜種
3はマージ素材になり過ぎたことを嘆いて、新たなモデルの登場を願って作者が公開停止にしたそうな 4は感覚的に相性悪かったんだが、4.5使ってみるか って、huggingface覗いたけど
もしかしてanything4の中に4.5どころか3も入ってね?
じゃあ、どっちも使えるのか(Colab制限で確認できない anythingの3をhugにのせてたの、あれ作者本人だったの? 出自不明の転載だと理解してたが 3自体は中華のメンバーが作ったという話は見た
まあ、何をコネコネしたのかまではわからんが Linaqrufが作者本人なら謎が多すぎるとか言わないよな
https://twitter.com/linaqruf_/status/1616823880735416321
Anything V4.0、V4.5を上げてるanditeも正体不明だし、たぶんV3.0の作者とは別人だろう
https://twitter.com/5chan_nel (5ch newer account) 訴訟リスク考えて毎回別人ということにしてるのかもしれない 作った本人じゃないのに名前の使用許可を出すのはどうかと思う >>39
やっぱDreamBoothなんかうまく動作しないのね。LoRAは動いたのでそっち試してみる anything3.0はbetter_vaeバージョンが最新だったんだけど
再アップロードはなさそうかな
そもそもanythingもnaiのフォークだったはずだから
今ある主なアニメモデルはnaiとwaifuに追加学習したのがほとんど
あとはcertainを元にしたのがちょっとあるぐらい
dHAは3Dが入ってるからまた別系統なんだろう >>42
GAINWARD GeForce RTX 2060 Ghost 12GB / PCI Express 3.0 x16 グラフィックスボードNE62060018K9-1160L-G
ジョーシン 会員様web価格 39,800 円 (税込) 送料無料
在庫状況: 在庫あり 限定「おひとり様1点」
安いよ安いよ!!! (o∀o) 今後もグラボ側の(価格あたりの)VRAM搭載量はあまり増えそうにないのを考えると、結局はソフトウェア側のVRAM消費を減らしていく以外に手はなさそう
もちろん、画像生成速度はそのままにな メインメモリとの共有ができるようになればVRAM不足は解決しそうだけどどうなんだろ
DDR5の転送速度はRTX3060のVRAMの1/7くらいみたいだけど、やっぱ学習の速度もそのくらい遅くなるんだろうか >>27
めちゃくちゃ使いづらいだけだな。PC2台にしたくなりそう。 >>71
全部手の届くところに用意してかっつかつに詰め込んで1万人が流れ作業してる時に
材料が足りないって新人一人が倉庫に取りにいって待つ間他の作業も遅延するようなものだからなぁ
メモリの速度以上に時間がかかることになると思うよ
もちろん今でもCPUについてるオンボードのGPUでゲームが動いているんだから物理的にできない訳じゃないけど
それだって2次3次のキャッシュ盛らないと速度が全然でない訳で(´・ω・`) Extensionで追加したテキストボックスの内容をt2iのポジティブに飛ばすボタンを作りたいんだけど
誰か答えをくれ(直球) AI Picassoだけれども、ランダム文字列を入力して油絵スタイルで画像生成すると、まともな絵が出てくる。何故だろ? >>75
photorealisticだけでもまともな絵がでてきた。 >>75>>78
Picassoとかで、いかにもな絵が出てくる。
贋作作成に使われる危険があるな。 >>75
お手軽にそれなりの絵が出るように、サービス側でいろいろプロンプトやら補正してんだろうね NMKDなんですが作成日時からprompt historyを探したい時、Data\logsにテキストが無い場合どう見れば良いでしょうか 該当日時に出力したpngをメモ帳で開いてpromptを探す >>71
オンボードのグラフィック機能で生成以外の描画処理をさせてグラボに生成全振りさせるのが今のところ最適な分業なんでないの
これやったら処理も速くなったしVRAMの空きも広がって出せる画像サイズも少し大きくなる 素人が2秒で思いつく案を検討してないわけないでしょうに 1111のスケッチ機能がどう役立つのかいまいち掴めないんだけど
活用例ないかしら。ペイントで塗って髪型拡張とかできるのかな 単純に描いてinpaintとか掛ければそれに応じた絵が出しやすいってだけでしょ。
他のペイントツールにデータ渡して描いて戻すみたいな処理が要らなくなって素早く処理出来るのが利点なくらい
正直これくらいならクリップボードから貼り付け出来るようにしてくれたほうがブラウザからはドラッグアンドドロップで画像ツールに移すのはできるし、
戻す時にコピペするだけで済むから簡単高機能でやれて楽なんだけどな メモリが瀑下がり!
DDR5メモリは高速品を中心に下落、DDR4メモリは「DDR4-2666」32GB×8枚組で51,780円(G.SKILL)特価も
「DDR5-5200」で、32GB×2枚組が8,020円安の33,980円(Crucial)、16GB×2枚組はさらに大幅な9,200円安の特価12,280円(TEAM)を付けた。
「DDR5-4800」32GB×2枚組も2,990円安の27,810円(Crucial)に下がり、それぞれ過去最安を記録している。
「DDR5-5600」は32GB×2枚組が5,345円安の40,455円(G.SKILL)、
「DDR5-6400」16GB×2枚組は4,100円安の27,680円(TEAM)、
「DDR5-7000」16GB×2枚組が4,573円安の48,227円(Corsair)、
「DDR5-7200」16GB×2枚組が5,431円安の49,368円(Kingston)などとなっている。 LORA学習にはメインメモリ潤沢な方が有利
最近でたsd-webui-supermerger でモデルマージやるにもメモリ多いほうが快適 SliとかでGPU2枚差しに対応してくれんかな
そしたら3060の2枚で解決するんだが…… >>79
Enkū wooden statue と入力すると彫像の絵が出てくる。 プロンプトでキャラごとというか、右の人は右上を見るみたいな指示はできると思いますか
自分で加筆したほうがはやいかな できるかもだけどプロンプト一発出しにこだわっても無駄が多そう
そのへんはinstruct-pix2pixみたいな技術でAIに指示してサクサク編集していく形になるのかもしれない >>90
それはPCのメインメモリ対応と同等以上の難易度だから
2枚刺ししてもCUDAから見えるのは12GBの離れたメモリが2つあるだけで24GBで認識動作するわけでもないしな NVIDIA はなぜか16 GB のモデルがほとんどない そもそも最近はsli対応マザボが出なくなって泣く
3090を2枚なら夢のvram48gが出来そうなのに 少しくらい速度遅くてもいいからAMDが48GBをRTX4090の値段くらいで出してくれたら面白いことになりそうなんだけどな
学習目的だしRTX4080くらいの速度は最低でも欲しいが >>98
2つのGPUにつながるメモリ空間を連結してNVLink経由でやりとりするにはソフトウェア側の対応が必要。また、ゲーム向けのGeforceシリーズではそういった機能が無効化されており、昔のSLIの互換で動くだけ。
演算を行うためにはGPUからアクセスできるところにデータが必要で、つまり両方のGPUのVRAMに同じデータを置く必要がある。 つまりは、両方のGPUのVRAMに同じデータを置く必要がある、というわけでございます。
これは何を意味するか?
即ち、どちらのGPUにも同じデータを置かなければいけない、そう理解しております。 へー3090だと機能無効化があるんか 知らんかったわ
もうA6000しかないな(遠い目) RTX 4090とかよやすもん買わずに
クワドロ帰って話だよね Legion 760が5%引きセールやってんな
Rtx3080ラップトップの16GB積んでるから良さげなんだがAMDのCPUって問題出たりする? >>110
大丈夫そうなんですね。ありがとうございます。
16GBの環境は作りたいけど、待ってればもっと安価になるのか、当面ノートのは12GBモデルしかでないみたいだから入手困難になるのかが厄介そうな時期で悩ましい この数年グラボのコスパ悪くなり続けていて
今ようやくちょっと安くなったところでAIローカル需要が高まりつつあるんだからもう値下がり要素ないよ この数年はコロナの引きこもり需要増とマイニング需要で上がってたからその辺が落ち着いた今は判断難しい時期じゃない?どっちに転ぶかって結構ややこしい時期な気がするけどな 知ってるとは思うが型番同じでもノートのグラボはデスクトップより性能だいぶ落ちるぞ さらに熱がやばいので絶対にノートはすすめない
まじでやめておけ 今ノートの2070の低消費電力のサイレントモードで使ってて生成速度には全く不満ないし、発熱も全く問題なくて冬ならファンも回らないレベルですね
このスペックでも512x512なら1枚6秒、512x768で8~9秒+hiresで1.5倍にして+26秒って感じ。ターボモードにしてだいたい2割くらい早い程度かな
学習用途に16GBモデルが欲しいけど、自分の絵を学ばせる程度だからそこまで枚数は学習させないから速度も必要そうにないかなって感じです すでにノート持ってるならなおのことデスクトップがいいだろ
--listenで繋げばそのノートから使えるしモニタもいらんから予算27万あるなら3090も組めるのでは >>116
それっていったい何ステップで生成してるんだろう…… >>119
今確認したら5秒がほとんどで1割くらい6秒って感じだった。ターボで4秒だけどファン全開で回っててやばいし、サイレントで速度妥協して回すのがノートではベストな使い方だと思う >>121
サンプリングとステップを書かないとわからんよ速度は 256x256, 5stepsでいいならiPhoneローカルでも6秒よ サンプリングはデフォのEular aの20から変えてないね。解像度別の速度は少し前の書き込みに書いた通り。
常時hires使うとかじゃなけりゃノートの速度でも十分使えると思うよ >>124
その感じだとデスクトップ版の3050のチョイ下ぐらいの速度か
軽く使うならまぁありだとは思う よくわからんが予算を提示しろ
その予算で買える限界のグラボ買え Quadro搭載のPC持ってるのに活用できないの辛い まぁみんないじくりまわしてるからまっさらなモデルはむしろないかもな
消したら増えるという具合にはならんだろう
というかもっとより癖のないモデルってないもんかな 中国のマイニング専用GPUの性能が大分NVIDIAに追いついてきてるから
貿易戦争がなくて量産されてれば家庭用のGPUの値段はもうちょっと下がったろうけどなぁ
今の環境だとGPUの値段は永遠に下がらんわ 画像生成AI「Midjourney」をオープンソースで再現する「OpenJourney」が登場
https://gigazine.net/news/20230126-openjourney/
>Stable Diffusion v1.5を調整し、Midjourneyに近い動作をするように開発されており
これはStableDiffusionなのでは🤔 ACertainThingって、NovelAIに認可を貰ったモデルだとか
聴いたことあるが、それで良いんだっけ? >>135
NovelAIから認可を受けたマージモデルなんて存在しないでしょ
そもそもそいつ自身はNAIから派生したAnythingの派生モデルだし (closed eyes)で閉じた目を表現しようとすると、顔が崩れるだけでなく体や肌の質感まで落ちてしまうのだけど、美しく目を閉じられるプロンプトってある? >>138
うん、sleepで強弱変えるとわりと良い感じなんだけど、sleepでも完全に目を閉じるとやっぱりクオリティがかなり落ちてしまうんだよね そんな感じはしないけどな。
絵柄がマイナーなのが問題なんじゃないか?
その絵柄で目をつぶっているような綺麗な画像が実際に多数あるか?
あるなら追加学習かLoRAで学習させれば良い。 表情で顔が崩れるかどうかはモデル次第じゃないかな
もし実写系なら特に苦手だろうね
本家使ってるならアレだけどローカル使ってるなら違うモデルに切り替えて確認してみたら? 実写系は何もしなくても目が線みたいに細くなりがちだよね
あれ結構困るんだよなあ
analog diffusionならそこそこきれいな瞳になるけど
SD1.4系に比べてちょっと雰囲気に偏りがある 天使とかを作ろうとすると羽が高確率で失敗するんだが
指作る時みたいに、気休めでも何か良い単語かNPあったりする? >>140-142
主にOrangeMix_halfでイラスト
絵柄はモロ・マイナー
拒食症系ガリガリ女
自分で作るAI画像以外ほとんど見たことないけど追加学習できるのかな
ネガティブも精査してモデルもいろいろ試してみるよ 俺の使うプロンプトの範囲だと
OrangeMix自体が、はっきりとしたものよりもややモヤがかった感じのになって
特定の決まった絵師とかキャラとか指定以外では
ちょっとでも専門外だと生成物が崩れやすい傾向はある とりあえず、目を開けた状態なら満足行く出来になるのなら
目だけ書き直せば良いんじゃないか?
リアル調でなければ基本的には表情は各パーツを独立してつけ外しできる。
最悪目は手書きで直すことも視野に入れた方がいい Orangeなどマージモデル>Anything v3.0>NovelAI
はまる絵、特定の画風、ぶっちゃけ特定シチュエーションを指定せず美少女を書かせたときの質でいえばこの順序。
いろんな物を描ける対応力を求めると逆になる。
NovelAIだといろんなプロンプトを入れても対応できる反面、求めるもの意外の要素や質の低い物を除外する手順が求められる。
きれいな美少女イラストを出しやすいモデルは決まった路線から外れようとすると出せない、あるいは崩れる。
また、マージモデルだと変形など起きやすい。
HNやLoraを使えばさらに、合致するプロンプト以外で良い結果を得られなくなる(当たり前)。
新しいモデルを使えばいいわけでなく、描きたい物に応じてモデルを選択したりInpaintを活用することがポイント。 基本的にモデルはNAI系統の汎用モデルと学習量の少ない特化モデルに分けられる
よほどでなければ1つ好きな汎用モデルを決めればそこから変える必要はない
勿論モデルによって得意不得意はあるが、HNやLoRAはそれを緩和するために使えるもの
HNは不得意でもできる可能性があるなら、そこを保証してくれる様になるし、
LoRAは不得意をより得意に根本を改善することができる 汎用モデルというけどAnythingとか明らかに緻密な美少女に比重置いてない?
その分汎用性は落ちてると思う。
そういうモデルでまず試して出ない要素の時だけNovelAIにしてみる、場合によってはInpaintで使うのがいいと思う。 思いつく限りの手に関するプロンプトを詰め込みまくることだ とりあえずだ、質問する時は必ず使用モデルを書け、だ
じゃないと全員意見がバラバラになって収集つかん >>150
Anyは比重はあるけど、全般的にNAIよりモデルの出来が良いので
NAIに変えないといけないような状況は実際少ない
いろんなキャラでHNやTIをやってみたらすぐ分かる
HNやTIは元のモデルの能力を引き出すことはできるが、元々絶対に出せない絵は出せない
言い換えると良いHNやTIが作りやすいモデルが元々、色んなキャラを表現できる能力が高いということで良いモデル
その観点で色んなモデルを比較するとNAIは一弾劣る >>154
それはたぶん君の好みのにあってるというだけだと思うよ
オレとしてはAnyの汎用性はそこまで高くないと感じるし
特に極端に美少女に寄り過ぎてる
NAIは優秀なベース素材と考えて、あとは目的や好みに合わせてマージモデルを使い分けってのが今んところベターかもね Any入ったモデルで学習させると、Any入ってない他のモデルでコケるからなぁ
エロやるならGapeはほとんど入ってるから気にせんでもいいし、無いなら無いで後で足せばいいんだけど
LoRA使わなきゃいいんだけど今更TIやHNにはちょっと戻りたくない感じだ
あと、Anyの話するなら今は4や4.5も出てるんで自分ルールのAny語りじゃ他の人に通じないところに来てると思うが https://note.com/mayu_hiraizumi/n/n05eb485adcd4
なんUで話題になってたけど、多くのマージ元になってるAnythingが破損してたという衝撃…
ここに載ってないマイナーモデルも破損してるのが相当数あるんだろうな 破損は stable-diffusion-model-toolkit を使えば簡単に修復できる
ついでにprunedに軽量化したりsafetensorsへも変換できるのでおすすめ missingだから一切認識されないなんてことは無いってスクリプト書いた人の記事になかったか? >>161
一部のプロンプトが効かない
最初の頃はプロンプトの一番最初に書いたsleepingが効くか効かないかで話題になってた
その記事みたいに色々な壊れ方があるともうどのプロンプトが無効化されてるかわかんないしそれを元に学習やマージしたモデルにも波及するからわりと深刻な問題だよね 75トークンごとに1トークン目が無効になる問題だよ 正確に言えばトークン無視とプロンプトの効き方が変わるかな
修復したら絵柄が変わったって話もあるし >>147
ありがとう、目や表情だけの描き直しでそれなりに見れるようになったよ >>155
好みとかじゃなくて、
TIやHNで既存の有名キャラがそのまま再現できるかで判断してる
少なくともアニメの絵の再現力はNAIは一段劣る toolkitで修正有効にして読み込むと、NAIも CLIP was mislablled, 197 keys renamed てなるから、
最初から破損含んだモデルを元にしてたということかもな 修復って何やってるんだろう。
ckptならソース内包できる?けどプログラム修正じゃないよね? >>167
その『アニメキャラの再現』という1点だけで全ての優劣を判断しているような書き方だったので、それはさすがに違うでしょう?と言ったまでだよ >>170
全てとは言っていない。
NAIが勝る場面は少ないと言ってるでしょ。 >>151
どこかのHPで拾ってきたのをコピペしといたのだけどこれをNP指定
longbody, bad anatomy, bad hands, missing fingers, missing fingers,bad hands,missing arms,head out of frame,
たしかACertainThingのだから
Any3を噛んでるタイプのなら利くはず。
本当に気休めなんだけど、わずかに利く >>172
だからそれもお前個人の感想だろと
話すだけ無駄だわお前 >>174 まじで大丈夫?自分がどんなレス書いたか忘れてない?
>>150 で疑問形式で書いてるから
それに個人的な経験を元に理由と共に意見を書いただけでしょ?
もし独り言で意見は受け付けてないっていうのであれば紛らわしいからそう書いてよ
こっちは良かれと思って答えてるんだから ごめん、オレ>>150じゃないし途中から参戦しただけw >>175
実はオレも>>150ではない
>>154に異議があって横から入っただけ
でもやっぱりAnyは癖強すぎるし綺麗な絵の為に構図を犠牲にしてて出力がワンパターンになりがちなので汎用性は低いという意見は変わらない
なのでそこまでNAIより良いと手放しでは褒めらんないなぁ
>>176
なんかwwごめんwww https://i.imgur.com/NuAh2M6.jpg
↓このページ見ながらxformersのビルドをしてたんですけどxformersのエラーが出てしまいました
https://note.com/mayu_hiraizumi/n/n25781ab1cf63
python torch torchvision xformers辺りは再インストールしてみたんですけど解決せず・・・
何か出来そうな心当たりあったら教えてください webui.batの方を起動してるせいでそもそも適用されてないってオチではなくて? -- 2022-12-29 (木) 17:43:16 >>180
ありがとうございます
エラー出ますが画像生成は出来る状態になります
一応もう1回webui-user.batから起動しなおして来ましたが同じでした
https://i.imgur.com/numQUrq.jpg レイプ目とか猫目とかヤギ目とかやりたいから色々調べたのにどのプロンプトもまともに読んでくれねえ
瞳の表現はやっぱ難しいんだろうか 学習した絵にタグあるかが全てだから、そういう特殊なのは自分で追加学習させるしかないな 猫目はキャッツアイとしてしまうと三姉妹出てきそうな >>179
venvを削除して起動が早いかも
あとxformersだけ0.0.16rc425になっててtorchは古いままだね
オプションに--reinstall-xformersオプション付けて実行したことある?
それやるなら--reinstall-torchもやって両方揃えたほうがいいかもしれない
もしvenv消すならそれらのオプションは外したほうが良いかも
ちなみに一枚目のxformersはvenvを切り替えずにビルドとかしてて意味ないことになってそう
二枚目一番上の「指定されたパスが見つかりません」というのも気になる >>179
詳しくないんだけどグラボ何使ってんの? >>186,187
バージョンの指摘ありがとうございます。
torchとtorchvisionを最新にしてCUDA11.7に変えたら行けたっぽいです
グラボは3060の12gbですtorchとかのインストール中にバージョン合ってないよってエラーが出てそれに合わせてCUDAとかのバージョンを全部下げたのがダメだったのかもしれないです すみません、1111ににじジャーニーの複数のイメージプロンプト(ブレンド)に該当する機能はありますか
i2iで1枚の参照はできるのですが、大掛かりな学習よりインスタントに複数画像を参照ソースにできたら便利なのですが >>189
簡易で済ますならInterrogate DeepBooruとかは?
画像からプロンプトを導き出す機能で、それをスタイルに登録して複数使用すればそれらしいことは出来そうだが。 >>189
あれいいよね、でも1111にはないんだ nijiがどんな処理してるかは不明だけど
i2iするときに似せたい絵を左右に配置した画像でやるとブレンドというか簡易学習的な感じにはなる
それ使ってキャラの統一感を出してる人とかいたな ちょっと分かりにくかったので補足すると、
真ん中に変化させたい絵と、その左右にリファレンス画像を配置した画像を作ってからi2iするって意味ね 1111のユーザーがつくったCustom Scriptsで
img2imgで2枚の画像のブレンドするのがある(使ったことがないので詳細は不明)
ttps://github.com/DiceOwl/StableDiffusionStuff
このプログラムを改造すれば複数枚もできそうな気がする ローカルでやりたくて初めてでよく分からないんですがとりあえずStable diffusion web UI Automatic1111版入れておけばいいですかね?
グラボは2080Sなので心許ないですが…
グラボ性能がしょぼいと生成に時間がかかるという事ですか? 早ければ早いほどシチュや体型を変えてライヴ感のあるオナニーができる >>199
ありがとうございます!
Pythonとか個別に入れる必要ないんですね
助かります! >>201
そう
ただその後の使い方は5chwiki見るなりしてね
モデルファイルの導入とか含めて あれ画像サイズそのまま2倍になるのつらいんよ;;;;; >>188
一連の処理はvenv内に入ってしないと、外部にバラバラにインストールされて、収拾付かなくなるよ
(venv) c:¥……
これがvenvに入った状態だけど理解してるかにゃ? いいんだよvenvなんか使わせなくても
それで環境破壊モンスターマシンが産まれたらvenvの重要さに気がついて二度と同じ過ちを犯さなくなる powershell!
pip install torch!!!
環境破壊サイコー!!!!!! dockerを使ってると環境破壊に躊躇いがなくなっていかんゾイ 【経済国】 NATO 対 BRICs 【資源国】
://rio2016.5ch.net/test/read.cgi/energy/1665797687/l50
TensorRTでAI画像生成が最高4倍高速になるらしいじゃん
誰かGoogle Colabのノート早く作って! リアル系に合うサンプリングメソッドってなんですかね
DPM2はよかったけど他にも色々ありすぎて困る 2080Sですがサンプリングstep100 バッチカウント2 サイズ2で3分くらいだった
サンプリングステップ上げると時間はかかるけど出てくる絵の密度が全然違ってくる
これで十分ではあるけど学習系もやりたくなってきたからそうなるとVRAM12GB以上が欲しくなるな サンプリングアルゴリズムではそこまで絵は変わらないから
早い「Euler a」「Euler」とかでガチャの回数増やしたほうがいいと思うけどね
「DDIM」も早いけどアップデートで設定が変わったりするのがアレだから使うのやめたなぁ 同じ条件でEuler DPM2 DDIM比べたけどほとんど変わらないな
微妙にEulerがディテール綺麗 デフォルトがエルラーAだったから他の何も使ってないけど使う意味あんの? supermurger使ってる人いたら教えてくれ
Merge!を押してからマージ完了まで5分位かかるんだけど、メモリ32GBあれば一瞬で終わるの?
今は16しかない >>220
32GBで足りるかどうかは知らんが、メモリ64GBだと
初回はモデル読み込みがあるから30秒~50秒、2回目以降は数秒
5分掛かってるのはメモリ不足だろうね >>222
となると、増設するかcolabでも使ってやったほうがいいか
5分間、パソコンがフリーズしたみたいになってやっでられんわ >>219
少ないステップ数で絵が完成になりやすいものや、綺麗だがステップ数を変えると絵がコロコロ変わりやすいもの、ステップ数を重ねるほど詳細になるものなど色々ある
なので用途や使うモデルによって選ぶ 数日前から触り始めてAnythingv4.5のckptと4.0のvaeを使ってたんだがimg2imgに手を出して初めて生成されてる画像が一段暗く出力されてる事に気付いた(マスクして生成し直した部分だけあからさまに暗くなる
日本語サイトは全く引っかからないしredditとかでは似たような症状のが何人かいたのに解決には至らなくてダメ元で設定やらを弄り回してたら偶然checkpoint mergerで同じanything4.5を2つでbake in vaeにanything4.0入れて生成したckptなら画像が変質しないと分かった(なんで?
もしかしてvaeてckptと同じフォルダに放り込むだけじゃ機能しないのか…?何もわかってないのに解決してしまったがもし生成される画像が暗くなるやつがいたらこれで解決できるかもしれんぞ以上です varをckptと同じ名前.vae.ptにして同じフォルダに入れてvae指定をAutomaticにするか、vae指定で直接vaeファイルを選ぶと適用されるはず
var指定はsettingsのどこだったかな
左上のcheckpointメニューの隣にvaeメニューを出すと簡単に指定できるよー
方法の説明は誰かお願い 1111使ってんなら設定欄に「生成時にどのvaeを使いますか?」まで書いてくれてるんだから解説サイトなんて要らんやろ
英語が読めないんならグーグルレンズでも画面にかざしながら探せ 有識者に聞きたい
この界隈のことを知って、始めたいと思ってやってみたところで、
stable deffusion onlineというサイトでとりあえずスマホでやってみたんだがこの動画のものとはまるで違う低クオリティになった
https://youtu.be/j6XnwwfzuZQ
PCでやっても変わらないと思うんだが何が悪いんだろうか?? 1111で出力した画像の「モデル情報」を、参照する方法はあるのでしょうか?
設定値はわかるのですが、どのモデルを使ったのかが、わからないのです...。 ローカルでの学習をやってみたいんだがスペック低い方でもVRAM8Gになってるけど
それ以下でも時間はかかるけど出来るものなの? >>231
PNG infoに画像ぶち込んで見られる情報が全て >>232
テニスコートでサッカーやれっつっても無理なように、卓球台でテニスはできんのよ。 >233
>244
やっぱり、その方法しかないんですね。
モデルハッシュを入力すると、モデル名がでてくるサイトないのかな。需要ありそうなんだけどな。 >>232
CPUで学習する方法もあるよ
Lora対応してるか知らんけどDreamBoothはやったことがある
当然めちゃくちゃ時間かかる >>231
UI設定で「モデルの名称を生成情報に追加」しておくとモデル名もPNG Infoに出てくるようになるゾ
あと「テキストからUIに生成パラメータを読み込む場合(PNG情報または貼り付けられたテキストから)、選択されたモデル/チェックポイントは変更しない。」
をオフにしておくと、txt2imgに読み込んだとき生成したモデルに自動的に切り替わるはず >>237
ところがマージモデルだとハッシュが同じなのにマージ比率が違うってことも起きるので実はハッシュはあてにならないのだ >>227
>228の続き
UI設定の「クイック設定」に「, sd_vae」を追記してUIをリロードすると、左上のチェックポイント切り替えメニューの右にVAE切り替えメニューが出てくるゾ >>227
俺も昨日始めたばかりだけどVAEはVAEフォルダに入れるって基本だろ
普通にwikiに書いてあるし >>232
6GBで出来たという話を聞いてRTX3060でVRAM6GB未満になるよう調整したバッチファイルをGTX1660で試したが駄目だった
GTX1660はfp16関連にバグがあるという話なのでそのせいかもしれない
rtx2000番台の6GB機ならいけるんじゃないか >>244
やはり物理的に無理でしたか
素直にグラボ買います
ありがとう >>243
自分はバックアップ取るときにモデルと分かれてるに面倒くさいから、vaeもモデルデータ入れる方にぶっ込んでsettingで使用vae直指定してるわ クイック設定はデフォで
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
って入れておいてほしいよね >>230
PC でやると全く違う世界が見えるし
呪い研究が必要 >>230
そもそもstablediffusionとひとくちに言っても、学習モデルごとに「何を学習したか」が違うので当然生成される結果も違う
ちなその動画にあるような実写系が綺麗に出力できるモデルも多数存在する Civitaiで見つけたiuljeとかPureErosFaceっていうTextual Inversion入れるといい感じのアジア美人になるんだけどやっぱり同じ傾向の顔になってしまう
もっとこういうTIあるとこ知らない?
Civitaiでは数えるほどしかないんだよね >>252
そうなのか
好きなモデルに気軽に変化つけられて便利かと思ったんだけど
ところで
>>249のサイトのプロンプトで()で囲ってあるものはどんな意味があるんですか?
例えばこんなの
(cat:1.2), (large window:1.2), (any words)+++, it, it, it, +++++++++++++, some words,
みたいな構文もあるけどこれは意味が無いことにも意味があるみたいな意味 i2iでテキスト生成するとand出てくるからそれ使ってたけど処理に時間かかるのか 使いこなせるなら使いこなしてみろ
時間の無駄かつ生成に倍の時間かかるので AND前で出た画像にAND後でi2iするみたいなイメージ
厳密には違うと思うが [A|B:0.5]
こういうのよく分からんし効いてるのか分からん プロンプトが一文字でも変われば出力が変わるんだから全部のパターン出力して好みの絵を選べばいいだけ モデル試し終わったので次VAE試したいんですが
SD(diffusion_pytorch_model)
WD(kl_f8_anime)
OM(orangemix)
NAIのリーク?
意外におススメあれば教えて欲しい アークナイツみたいなぶかぶかジャケットのサイバーパンク風がなかなか出力できない
NPでとかで調整してもジャケット前開きのへそ出しギャルみたいなのになる… OMとNovelAIのVAEのハッシュ同じじゃねーかよ💢 vaeは3つしかないと思っていい
sd、nai、wd
一応trinもあったっけか >228
フツーにsettingsにvae変更ありました…ありがとう
名称違ってたからオートが効いてなかったんですね元の4.5でもちゃんと生成されるようになりました
でもvaeなし?での絵柄と暗さも案外味があって良いかもしれない ハッシュだけで見れば意外とあるぞ
ただそれら以外にいい感じに効くものは無いと思っていい ハッシュの番号を直接(モデルを指定する代わりに)入力できたりしますか? ハッシュ番号で指定する方法は知らないが
Web UIだと画像に記録されたデータをt2iとかに送れば該当するモデルがあれば自動で読み込まれるぞ 論文絶対原文ママでしか許さないマンだからDeepLに突っ込んで読んでる奴殺したくなる 知らねえぞそれで安定拡散とか意味のわからんワードを誤認しても 文脈で安定拡散とか安定した拡散とかバラバラに訳されるんじゃねえの
知らんけど 英語がネイティブになっちゃっててdeeplの面白翻訳楽しめないわ~w
ブラジルに渡米してたからさw 論文の話してないのに急に虚空に向かってアウアウアーし始めてどうしたの? ブラジルで英語を学ぶよりも
イギリスに渡米した方がいいんじゃない 自治の人、こいつらどこか誘導してやって
俺 真 面 目 に会話して何度も誘導されてんのに納得いかないわ なんUが研究最前線でエロが本スレ
ここは南米だから AI生成速度が3〜4倍になるTensorRTを使ってみたけど、これはヤバいわ!渡米するわ! TensorRTてモデルごとに最適化する必要があるらしいけど、その辺どうなんや? TensorRT試そうと思ったけどnvinferのビルドでエラーでて挫折
爆速試したいわ demo diffusionをWindowsで動かそうとしたけどVRAM8GBじゃ無理って言われて渡米したわ だいぶ楽になるdockerfileあったきがするからdockerの方が楽そう Ryzen3300 ちなGPUは1650でAI系のローカルではな~んも動かない 12コア24スレッドのPCにメモリ48GB積んで35GB使って5時間だって こちらもエスパーではないので
単位を書いてくれないと分からん >>312
colab でもやってみたけどPROってのじゃないとメモリ足りないって言われた
https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb?hl=ja
これをコピーして学習したい画像のURLだけ変えたんだけどメモリエラーが出た
>>313
別にモデルって1回つくっちゃえばあとは使い回せるから何日ってレベルじゃなければ
数時間ぐらいかかってもいいかなって ノウハウない人が一発でいいモデル作れることあんのか? 混ぜる時の比率の数字を変えるだけだから特にノウハウも無い
今あるのだって殆ど総当り >>309
CPUで2時間かかりました。GPUスクリプトを使用して1分で生成することをお勧めしますw そもそもCPUでDreamBoothできますよスクリプトは、CPUではDreamBoothできませんよという皮肉だと理解した方がいい
名古屋東京間を匍匐前進で移動は可能。ってのと同じ。 昔からCPUとGPUの実行性能の差はちゃんと最適化されれば思ったより小さくて数倍しかないけど
年々AI学習の負荷が上がってその数倍を我慢できなくなってるからな PhotoshopからStablediffusinを操作できるツールって二次元イラストには対応していないの? あれはPhotoshopからwebuiを操作できるプラグインだったよ
レイヤー構成で訳わからんくなるけど そうはいってもビデオカードがない以上どうしようもなくない?
モデル使うだけならVRAM6Gぐらいからできるみたいだけど
モデル追加学習って最低12でも怪しくて16以上必要って記事あるし
趣味に何十万もかけられない
とりあえず5時間かかってもいいから1回使ってみて好みの画像がでるかどうかだけでも試したい
<<318
ちなみにOSって何で動きましたか?
Windows PowerShell で
git clone して activate ldm して README にかいてあるとおり
python scripts/stable_txt2img.py --ddim_eta 0.0 --n_samples 8 --n_iter 1 --scale 10.0 --ddim_steps 50 --ckpt D:\stable-diffusion-ui\models\stable-diffusion\Counterfeit-V2.0.ckpt --prompt "myfav"
を実行したら
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument index in method wrapper__index_select)
ってGPUとCPUのデータを混ぜて演算しようとしてるっていわれる >>315
SageMakerで良くない?
性能はColabと同じくらいだけど ハイスペックvRAM24GB勢すらAI画像生成でてから長期間試行錯誤して、望みのもの出るかどうかトライアンドエラー続けている
という事実は改めて理解した方が良い >>325
AWS はクレカがないと使えないらしくてまだ学生なのでもってないです;; >>327
1000円上限で使えるんですか?
クレカなくても課金できる?
有料のクラウドサービスって設定ミスってリソース無駄使いしたら高額請求くるかもしれなくて怖いんですよね ヒント与えられて自分で調べないアホに機械学習は無理です 質問しすぎました
これ以上は自分で調べます
申し訳有りませんでした >>328
ああ違うごめん足りてなかった
SageMaker Studio Labってやつ
Colabと違ってGPUセッションの争奪戦はあるかわりに引けてさえしまえば一日で4時間x2回分のセッションが使える上
セッション切れ起こしてもストレージの中身は消えないからはかどるよ 中高生ですら追加学習に手出そうとしてんのにお前らときたら まぁ「機械に学習させる前に自分が学習しろ」案件はちょいちょいある トラブル全部chatGPTに丸投げしてる奴見ると人類の堕落はすぐそこだなと感じる
それで大体解決できてるっぽいのが凄い いくら生成しても無修正はそのまま公開できないのでひと手間加えることになる
うちのAIくんは実写系フタナリチンポに巻き紐ついてるものをお出ししてくるのだがはこれだけはそのまま公開できる、たぶん ゲーミングチンポ華道部は明らかに肉棒ではないのでノーモザOKってのは面白い解釈だよね 騎乗位セクロスさせると地面に生えた肉棒もよくお出ししてくるけどコレはどっちラインなのか怪しい
まぁそもそもマンコが駄目だが 男なんて自分の意思で一度も表示させてないのに勝手に良い感じの位置に裸族が居る時あるわ ノーモザがアウトってルールも海外のデータにいくらでもアクセス出来る現状形骸化しているけど
加工の手間という点でついに実害が大きくなってきてる感じだな
この制限がなければ配信とかでプロンプト研究するとか、リアルタイムに生成された絵を配信し続けるみたいなコンテンツも可能になりそうなんだが だがしかし例えばイギリスなんかは疑似児童ポルノがアウツだったりもするからAI生成視点だとなんとも言えぬ 技術進化と社会成熟の果てにケモナーに行き着く人類わろ 海外は無断学習を禁止する方向に向かってるみたいだね 後で禁止してもすでに学習したものを法で裁くことは出来ないから今から動いても手遅れな気がするけどな
どういう対処をするつもりなんだろうな 事後法が非現実的なことを考えると現行の絵師は絵柄使われ放題で新しい世代だけが保護される形になるだろうしなぁ すでに学習したのを裁くことはできないけど
すでに学習したものを使用して出力を新たに得るのはダメになるかもしれん AI絵を排斥しても隠れAIが跋扈するだけだろう
絵に食品産業のようなトレーサビリティは無い
現状でも知識と絵心があればバレないAI絵が作れる
絵描きだって全員が全員反AIではないし離反者も現れるだろう LoRAで更に進んでしまった感がある
掲示板の勢いもNAIやリーク派生モデルの頃が最盛期だった
生成AIは時間の流れがドッグイヤーの更に数倍と言われていて、画像に関しては早々に普及期に入ったかも知れない 貴様ッAI絵師だな!逮捕する!
なっなにを、わたしはただのしがない一般絵師でございます ちょい疑問なんですけど
目線って変えられますか? だいたいカメラ目線か良くて顔の向きが変わる程度なのですが、瞳の位置だけ変えられた人いますかね 目だけマスクかけてinpaintすればいい、1111ならね 世界中に蔓延して取り締まり不可能と思われたファイル共有ソフトは
政府の圧力でいかなる立法もないまま超法規的措置でプロバイダに国民の通信を全て検閲させるという
通信の秘密の保護や検閲を禁止する各国の憲法を平気で無視した荒業であっという間に潰された
基本的に近代国家の国家権力はその気になれば出来ないことはないAIの未来は結局政治家の思惑次第よ
過去のどんな絶対君主制の王朝とも比較にならない絶対権力を持つのが現在の国民国家だからな >>357
確かに昔、共有ソフトが大流行したけどあっという間に根絶されたな
AIイラストも著作権侵害ははっきりしてるので数年で違法になって使うこともできなくなるかもね 日本は自分では動かないが海外からの圧力にめちゃくちゃ弱いから、海外が禁止の方向なら日本もそうなるだろうね ファイル共有ソフトはまだあるしてるしかつてのファイル共有の基幹技術は仮想通貨やブロックチェーンなんかに発展してる 技術が流用されるのと、誰もが簡単に共有ツールが使えるのとは違うと思う ファイル共有ソフトが最近目立たないのは、ファイル共有ソフト側の問題というより、
むしろ違法配信側が共有ソフトからweb上での頒布に移行したからというのが大きい
共有ソフトで何か流しても金は稼げないからな 結構昔に見たけど、海賊版のプラットフォーム推移で
Winny騒動後から同時期のアフィも相まってWeb割れが復活した
っていう記事は見たな >>356
それがうまくいかんかった。必ずカメラ目線になっちゃう
顔だけあっち向いて目んたまだけこっちみたいになっちゃった
looking downとかにしてるんだけどなぁ。瞳だけのプロンプトがあるんじゃろか 実写系いい感じになってきた
色んな世界観の女の痴態がみれて世界性処理旅行した気分だわフワハハ >>352
知ってる人が見てもバレないAI絵はまだ無理だと思う
どっちかというともう絵師界隈は諦めてみんなどんどん開き直ってバレ上等で使い出してるよ
AI登場前と画風違いすぎとか量産ペースお前何でいきなり10倍になってるの?とか
商業絵師にすら大量にいるよそういう人 https://i.imgur.com/QckHuGn.png
LORAはいいな、マスコット動物の絵もここまでこれた
少しかすれているが、修正すれば見える程度 >>367
例えば誰?
絵師界隈はAIをめちゃくちゃ嫌ってるよ
仲間内やファンから見放される可能性も高い
商業絵師はすでに築いた地位あり生活がかかってるのにわざわざリスクをおかす理由がない 素人でもグーグルに1000円払えばある程度の質の追加学習できるのに
プロのAI絵師と人間の絵師をどうやって見分けるんだ? 0か1かではなくて、実際は中間でしょ
PCで絵を描いてる時点で線1つから補正されまくってるのだから
紙に描くとガタガタになったり、下描きはできても、無限の修正無しでは完成できないっていう絵師も多いと思うよ https://i.imgur.com/TM0TFjG.png
あとこういうのゲームのマップ作りもできるんだな
マップチップも自動生成してくれるなら色々はかどるわ
・・・マス目に合わせて修正してくれるツールを作らないとだめだが >>374
これはあれだけど
難しいの出来るならそれ元にしてツクールで置いていったらいいな できるかどうかの試作のために
単調なものしか喰わせてないからな
複雑なもので調整し続ければ実用レベルになるんじゃないのか ドット絵がどんどん精細になって16色から1677万色になりそう vaeを使うときは、名前を同じにしないといけないのでしょうか?単に切り替えて、設定するだけでは、ダメなのでしょうか?
(たとえば、MODEL.savetensor と MODEL.vae.ptのようにするのでしょうか?) >>367
そこらに履いて捨てるほどいるデッサンもまともに取れてない絵師にはAI導入は恩恵があっても、上位レベルの絵師には全くないよ
パステルMIXの学習元になってる某絵師と生成された絵を比べてみるとよくわかるが、クオリティがうんでんの差
Twitterで見るような小さい画像ならなんとか見れても、細部を見ていくとその違いがよくわかる
アップスケーリングの技術者不足をミッドジャーニーにもStable Diffusionも認めてるし対応予定がないのを見ても、そこが今のAIの限界だね
だから自分のスタイルを極めてる絵師はまだ当分その地位は揺るがないけど、ひと山いくらの絵師の仕事はなくなるんじゃないかね そういや
いらすとやの時もカット絵の仕事奪われるって騒いでたよね 同人小説や同人音声の挿絵依頼は激減した
そしてエロ小説家のAI絵と言う新たなジャンルが産まれた
文才とAIはWin-Winなのだ そして失うもののない技術ある若手が着々とフォロワー伸ばしているのを見ないフリするベテランという構図
歴史は繰り返されるのよ >>386
そもそもNAIがノベルの挿し絵に使ってくれってスタンスで開発されたからな >>337
堕落ではないと思う
同じ苦労を色んな人がそれぞれ行うのは余りに非効率的
ほぼほぼ答えが決まってる問題に関しては
新しく考えたりすることなくAIの指示に従うようにすれば
人類全体のリソースが空いて人生の時間を別のことに使えるようになる >>383
いや、あらゆる人に恩恵でかいよ
上位レベルの絵師でも背景に使いたいとかの発言はよく聞くし、いくら上手かろうが描くのが大変な物は多いからね >>390
まさに絵と無関係な部外者の意見そのものだな >>390
ピュアっピュアな発想で、なんかほっこりした
現実は「仕事がなくなるかどうか、収入源が減るかどうか」とか、生々しい問題満載だし、他にも利権やら絵師の存在意義やら問題満載なんやぜ 実際そんなことにはなってない
上手い人はAIをそれとわからんように使うだろうし
色彩やアイディア、構図出すのには使える。でも結局は見えるところは自力で描くだろう
表には言わないだろうけどね。そのうち抵抗感がなくなったら普通になるんじゃないのかね
ってお気持ちでした。 >>392
そういう話ではなく作業の助けになるかどうかって文脈の方の話 >>394
まだまだ助けになりそうでならんなー
腕のあるイラストレーターほどまだAIは使いづらいと感じる
結果が自分の絵と違うし修整めんどいし
じゃあ学習させればとか言うけど、それ覚えて頑張るぐらいならそれこそ自分で描くわ
なにより自分で描いてるほうが楽しいし
有象無象の絵師と名乗る商業イラストレーター達(君の言う上位の絵師とやらも含めて)には有り難いツールだろうけどね 腕のあるイラストレーターなら自分でやらんでも他人が学習したモデルを作ってくれるんだよなぁ 自分の絵好きだからモデル作りたいけど
追加学習するほどに完成した数がない…… CJDに自分の絵追加学習して矯正すれば誰からも叩かれるはずのないモデルが出来るわけだよな
やってみたいなー >>398
グーグル検索にぶちこんで似た絵を拾って混ぜて追加学習
その後、追加学習で作ったモデルで生成した絵と自分の絵を混ぜて追加学習
これを満足するまで繰り返せ 自分の絵って言ってんのに他人の絵混ぜてどうすんだよ
んなもんもはや自分の絵柄でもなんでもないわ 絵描きなら絵で語るんよ
それが大勢の目にとってトレスに映らなきゃそれはオリジナル 他人の絵を混ぜるのが嫌ならそもそも配布モデルを使えん 今は極論一枚顔のイラストがあれば学習はできる
さすがに過学習気味になってアイコラみたいになるが
反転などで枚数水増しすれば少し自由度は上がる
プロンプトやネガプロ工夫すれば更にもうちょっと自由に動かせる 他人の画風を学習させる時にも>>401をやるだろ
最終的にコピーさせたい奴の絵が半分ぐらい品質チェックで弾けたら完成 いやだからそれで出来上がったもんに満足できるのは絵を描かない人間だけだわ 自分が言うのもなんだけど、すっかりお気持ち表明スレだな 他のスレもいくつか覗いたが、この板自体がそういう性質なんだと思う タイトルにホイホイされたお気持ちマンのチラシの裏だよここは じゃあ俺もお気持ち表明するわ
版権興味ないからどこ見てもキャラLoRAばっかで知らんしつまらん
構図LoRAはスカだったり妊婦だったりニッチなのばっか
普通の絵を出してる奴らは死滅したの? キャラLORAやってる奴らは
普通の絵なんてとっくの昔にやり尽くしたんじゃないのか >>415
多分キャラのポーズ系のLoRA開拓したら覇権取れるぞ >>415
版権のLoRAやHNとTI組み合わせて好みの画風探すの研究してるが中々難しいな
特にLoRAは効果が強すぎて相当弱めないとまんまな雰囲気でつまらん 版権絵の再現を重視したひちが作ったLoRAは、学習時のタグ付けの段階で画風弄りづらくしてるケースも多いだろうしな
他と混ぜる前提なら、LoRA自作しないとなかなか上手く行かないと思う 質問なんですが、novelaiを使って作ったイラストのキャラのいろんなイラストを作るのに1番適した手段はなんでしょうか
最初にt2iで偶然できたキャラがとても気に入り、そのキャラの片目だけ大きいのを修正したものに、さらにざっくりとi2iで上から服を描いて良くできたものを片っ端から保存して
1番髪型や表情がしっくりくるものをベースに出来の良かったパーツ単位にGIMPで切り取ってベースに貼り付けては細かいところを修正、みたいにして立ち絵を作りました
ここまでは素人なりに良くできたと満足していたのですが、このキャラの別のアングルや衣装を替える、新規イラストを作る、となるとまったく上手く行きません
たぶん同じ立ち絵のまま差分を作る、であればできると思いますが
このキャラのイラストをいろいろ作りたい、しかし最終版のベースにした絵すらseedでt2iすると別人になってしまいます
髪型すらt2iでは出てこない、表情も何か違う、どうしたものかと
ローカルで学習とかあれば変わるんでしょうか まず意味のなさないプロンプト入れて姿勢表情だけ変わって雰囲気そのままのイラストを作れるだけ作る
髪型、顔を分離して良い塩梅のLoRAを作る
これでほぼ同じキャラのポーズ違いからエロまで作れるぞ
元がNovelAI本家なの気になるけど既存モデルほぼマージされてるしたぶん行けるやろ ひとまずi2i1でstrength強めで出すのもありだと思う そこまで自分でこねくり回した絵がAIで出るわけないでしょ
学習させるしかないよ うわ、すごい
ありがとうございます
なんだこれ
ローカル導入調べてみます
i5の5000番台でGeForce750tiとかいう化石デスクトップなんですがスペック平気ですかね RTX3060に換装したi5の4番代とかいう俺の前カンブリア紀PCよりはちょっとマシだな、全然問題ない >>421
Talking Head Anime from a Single Image 3 でAIで作った一枚の画像からキャラを動かす方法もある
これはもともとは一枚絵のvtuberをぐりぐり動かすためのAIという画期的なコンセプトのもの
ただし、正面の立ち絵が必要 >>428
いや3060と750tiではかなり違うような >>427
750tiとか確実に無理
しかもi5 5世代とか、マザボもキツすぎて上位パーツへの交換すら無理そう
最低でも17万コースでパソコン買い換えどうぞ デスヨネー
買った8年前でもミドルスペックだったし
DDR3の4Gだったしオンボードだったし
動きが鈍くなるとパーツ買い足しで8Gの750ti
最近起動は普通だけど立ち上げ後の初回ブラウザ開くのだけが異様に重い
買い替えるか…
>>428
ググったら750tiから3060に換装してベンチマーク15倍って動画あってヤダー 4070Tiの24GB版が出るのと
radeonがAIで使い物になるようになるのと
どっちが可能性有りますか? >>431
化石でも使えるところは活用すればグラボ代のみ5万の出費で済むよって意味よ
生成だけならCPUはほぼネックにならないので 流石に学習までするとなると無料のクラウドは厳しいしな >>434
学習もやるならある程度メモリも必要だしマシンごと買い替えだな >>434
ブラウザの初動が遅いのは各種キャッシュと履歴が原因になってること多い
それらの中には一時的ではなく永続的に抱えてしまうものもあるから
8年前から整理してないなら相当なゴミ履歴とゴミキャッシュ抱えてる可能性あるぞ >>436
GPUの買い替え前提にしてるのにそれを伝えずに余裕って言うのはわけわからんから JIT部分があるんだから最初が遅いのは当たり前でしょ training と fine tuning って何が違うの?
texttual inversion が training で dream booth が fine tuning らしいんだけど
どっちも既存モデルに追加で絵を何枚か入力するとその絵に似た絵がでやすくなるものなんですよね?
やりたいことは mimic みたいに好きな絵描きさんの絵柄でイラスト生成することなんだけど
どっちの方が向いてますか? NVIDIAは値段安いゲーム用GPUを企業が使うことにキレてて長年制限掛けて来たけど
効果なくデータセンターにまで使われまくって最近は開き直って狂ったように値上げしてる
そんなNVIDIAがリーズブナブルな価格でVRAM容量の多いカードなんてもう二度と出す訳ない やっぱ競争相手がいないとダメだわ
AMDとIntel以外ないの? >>447
データセンター利用は規約違反なのにそんな体たらくなのか
マイニング制限も即解除されるし開き直るのも無理ないな
ゲーマーが手軽にゲー厶をしたり趣味でAIの勉強ってのはもう厳しいな >>448
そりゃ作れるんだったら作ってるよ
後は中国がパワーvr を作ってるって話だけど そういやマイニング全盛の時に中華GPU出すなんて噂色々あったが結局まともなの出なかったな まあGPUメーカーも先行きは暗いしある程度利益確保しとかないときついだろうしな
単眼4kのVRとかになるとその時点で実写と見分けつかないくらいの解像度らしいし8kの半分のサイズの映像を出せれば人間性能的にそれ以上性能要らんってことになるからな
もうすでに高性能GPUは過剰スペックに片足突っ込んでる PS2出たときも「グラフィックこれ以上良くならないでしょ」とか言ってたし
なんだかんだ必要スペックは伸びていきそうな気もする フルレイトレーシングとか行く前に
3Dモデル突っ込んだら推論で画が出てくるようになりそう 検索履歴やツイート履歴さらにはgpsやスマホカメラまでアクセスして「お前が次欲しい絵はこれでしょ」とかまで行き着きそう >>456
今でもできないことはないだろうが
そこから利益生み出す方法が思いつかないな inpaintした複数枚の画像と元の画像をマージするのを簡単にできるツールはありませんか?
今はphotoshopのレイヤーマスクでマージしていますが、レイヤーに画像を読み込んだり、ブラシで範囲指定したり操作が多いです
(ソースのマージみたいに差分を表示して採用したい方をクリックするとマージできるくらい簡単なツールがありそうな気がしますが探しても見つかりません)
photoshopよりもっと簡単な画像のマージのツールはありますか? マージしたい画像を隣なり四方に並べた一枚の画像を作ってi2i GPUは最低でもグラフィック最高品質で「4k144fps」とか安定したのを5万円ぐらいで供給出来るレベルにならん限り、過剰ってことは当分無いと思う 描画距離なりオブジェクト密度なりでなんとでも言えそうな基準すね Hypernetworkめちゃくちゃ楽しい
10枚~50枚くらいで学習させてるけどリアル系でも結構それっぽい顔になる
モデルによって全然違うけど 絵じゃなくて動画出てきたからGPUパワーなんて百倍になっても全く足らないー おすすめのNegative promptは、何かありますでしょうか? 局部にモザイクを入れる作業がしんどいので
自動でモザイク入れてくれる AI はないか? 最初からモザイク画像を学習させれば勝手についたりしないのかな もちろん学習データのちんちんにモザイク全部かかってたらモザイク付きになるが誰も作らんと思う
censored をプロンプトにつけるとわんちゃん最初からモザイクついている可能性はある モザイクは和製英語で海外では局部を隠すもの=モザイクって意味で広まってんだよな
だから白塗りでもぼかしでもなんでもモザイク >>465
むかしソフトオンデマンドがインドの企業に依頼して作ってたよ
技術的に興味を持ちながらも不思議そうな顔してたって どのみち4Kゲーミング、VRの高解像度にVRAMが必要とされてるからそんなことはならんよ
8GBでVRとか画質下げないと無理
VRChatとかソーシャルVRなんかは12GBぐらい最低でもいるぞ わかるわ
最近ワイも4Kが手頃な値段で手に入るようになったから買ってみたもののSteamのゲームとか品質上げたらVRAM増えて大変だったわ まぁNVIDIA GPUの主力はゲームだからな…
AIスレの民がそんな過剰に心配しなくてもまだまだ需要はあると思う
これ以上はスレチなんでそんなもんで ボード増設するのに、PCIExpress4.0のボードを3.0のマザーに挿せますか
どっちもx16として 手を隠して!って指示してるのに勝手に手描くのやめろ! >>477
入れたけどbad handsやmissing fingersも入ってたから競合したんかな… まあ100%手を書くってわけじゃないなら生成数でフォローやな
黒髪少女指定してもたまに白髪出力することもあるし >>475
うちはASRock Z170 Pro4S (PCIe 3.0)にRTX3060挿してるよ ネガティブにugly(醜い)入れるとポジティブに書いてないのになんかキレイめな女が出現するみたいなあれか Hypernetwork作っててすごい事実に気がついた
10000回stepと30000回stepを比較したらほぼ同じだった…
ちなみに元データは60枚
何枚で十分なのか検証した人いる? 何枚じゃなくて何stepの間違い
元画像の数もどのくらい差が出るんだろう
顔アップだと結局同じようなのが多くなると思うしあまり増やしても意味ないのかも なんかわけわからなくなってきたけどたくさんstep踏めばいいと言うわけじゃないみたいだ 500ぐらいまででいったん頭打ちになって、そこから8000超えると一気に伸びると検証してる人がいたな
サイト名忘れたがai step 検証とかでググれば出てくると思う 別のseedでやったら30000越えと20000はほとんど同じだけど10000は違うのが出た
5000もまた違う
どれがいいかと言うと画像によるから難しいけど3000、5000くらいがいい気がする もっと顔に特徴のあるモデルでやって見たらやっぱり10000<20000<30000でモデルに似た顔が出てた
やっぱりたくさん回す意味はあるんだな
引き続き40000、50000step回して比較してみる そこら辺は学習率にも関わってくるのでケースバイケースなのだ。
元絵の枚数もいろいろ関係してきます。
step増やしすぎると過学習にもなります ぶん回しすぎても過学習で滅茶苦茶になるんだよな
時間で区切ってあれこれやってる あんまり回すと学習に使った絵とおんなじのが出てくるようになるからなぁ 顎が尖ってきた時ってどうやって治せばいいんだ?
ネガティブプロンプトで誤魔化すの?
丸い顔の絵を混ぜる方がいいの? 結局いま各種用途のmodelは何がいいんだ?有識者まとめてくれ これ同じような画像ばっかり出してると指示してなくても同じような色とか恰好になったりする?
そういう場合リセットするのって再インストールするしかないんか? 一部古いバージョンのWebUIにはプロンプトがキャッシュされるようなバグがあったはずだけど
基本的にはそういった性質はない そういった性質はない。ないはず。ないはずなんやけど… >>500
そう感じる時あるよな…
モデル変えたりすると治るけど >>503
なるほど
ちょっと気分転換に別のモデルも使ってみるか まあ実感としてパソコンなりwebuiの再起動すると出力内容変わる感じはあるけど
実態としてはシード値ランダムがしっかりランダムになってないだけだと思うよ >>505
確かにパソコンスリープばっかりさせてた
試してみるありがとう すみません
ずっとはじめに出たフォーク版のoptimized使わせてもらってるんですが
最新のフォーク版とかありますか?
または更新してもそんなに変わらない?
ローカル環境です
分かる方居たら教えて頂きたいです WEB UIに日本語化とかWD1.4とか拡張を適応しても反映されないのは何が原因なのか 先月辺りに大規模改修されたから古いプラグインが対応出来てないだけだと思う 了解です
環境構築の入れ直し辺りから含めて見直してみます 一応確認だが、拡張機能で機能追加した部分が日本語化されてない!とかだったらお門違いだからな?w >>510
設定を変更したあと「apply」ボタンを押し忘れている可能性 一時期InvokeAIが話題になったけど結局みんな1111使ってるのってやっぱ導入難しいから?
俺も導入複雑だしなんかうまく動かんしで1111使ってるんだよね 1111がデファクト
NAI対応の速さで突き抜けて拡張機能も充実して以後独走 1111にしとけ
違うの使うならお前が先導者となれ HyperNetworkで絵柄を学習してloraで特定キャラを持ってくるみたいな合わせ技ってできますん? 行けるんじゃない?LoRA2つとかでも出来るんだし TIとLoとHN全部同じキャラとかやったらどうなるんだろ トリプルチェックで誤差を消すんだから
本当に同じ絵しか出てこなくなる >>521
理想的には用途が違うので、それぞれを全部適応する形で
繰り返し少しずつ学習させれば、汎用性を保ったまま、再現性も最大のものが作れるけど
プロンプトの確度が低い、画像の質が悪いなど、理想的な状態ではないので難しい キャラ学習でTIで使ったデータセットのままLoRA作ってそのまま両方使えるけど全体的に色が濃くて細かい服装のブレが少なく感じる
ディテールがLoRA、TI単体より増す感じかな SDやりながらPhotoshop作業してたらPCがブルースクリーンで落ちた
driver irql not less or equal
これ「割り込み処理を行おうとした際に必要なデバイスドライバー・メモリが足らなかった場合」らしいんだけどグラボのメモリが足りなかった感じかな これなんだっけな
SD使う前のある時期にそれ系頻発してたことあったんだけど
忘れたわ 生成画像を、PNG Infoに読み込ませ、「Send to txt2img」に送ったのですが、再現されず、別の絵になります。
各設定は、合っているのですが....。 531です。いろいろ考えて、思い当たるのは、昨日、適用した1111のアップデート。これが原因かもしれん。 531です。調べてみたら、img2imgで処理してました。しかし、参照した元素材がどれか、わかりません。わかる方法はありますでしょうか? 毎日シコるせいでついに爆睡大遅刻してしまった
でも今日もシコる モデル色々いじってたらドロドロに溶けて原型なくなっちまった nikkeというゲームの絵の学習モデルの配布場所を知りませんか?
一通り調べましたが、ほとんどないです
ピクシブには大量にnikkeのAI絵が投稿されてるので
どこかで配布されてると思うんですが
ファンボックスで配布してる一人しか見つけれませんでした モデルの配布といえばhuggingfaceかcivitaiじゃないの? というより大量に投稿されてるんならどれか一つぐらいモデル公開してたりせんの? 探す時間でLORAすれば自作できるだろ
HN、TIもすれば完璧だ >>541
どっちも探したんですが見つけれませんでした。 >>542
ピクシブやグーグルで検索しても見つからないんですよね YES → 【ヒットした?】 ─ YES → なら聞くなよ。死ね。
/ \
【検索した?】 NO → なら、ねぇよ。死ね。
\
NO → 死ね。 4chloraに普通にあるけどこいつのレベルじゃ探すの無理だろうな
loraの隆盛で素人が多数流入してだんだん割れみたいな雰囲気になってきたな
そのうちお礼は三行とかオナパスとか付け出しそう >>548
ヒントありがとうございます!
探してみます >>548
探しても見つからないですね
URL教えてくれませんか? お願い致します 4chlora見つけましたが思った内容と違いますね
ピクシブのnikkeの絵は自分のPCの学習で作ってるんでしょうかね パッっと見た感じだとTIでも行けるキャラ感だと思う
今までが学習したことないならこれでやってみたら?
それか1キャラ1万で作ってあげるよ なんかいい感じのサイバーパンクミリタリー女のムチムチ尻のしゃがみ後ろ見上げ姿とかだったら俺でも学習なしの汎用モデルで出せるけどそういうのでは満足しないのか? 投稿者本人に聞いた方が早い
配布されてるモデルなら教えてくれるだろ プロンプトだって秘訣があるんだし 他人のAI絵を見てこれを再現したいってのは不毛。 NAIマスピでもない限り大体権利的にアウトなモデルとi2iと学習元のセットだから教えてくれるわけがねえw 高々数カ月やってただけなのにもう老害ムーブすんの草w >>538
チャイナに聞いてみれ
そういうのはあちらが早い >>563
結局、手描きだろうがAI絵だろうが人間の本質は変わらず時代は繰り返されるんだなと思った ググったけど韓国のAIイラストの掲示板にあるんじゃない? やっぱり同じモデルでずっとやってると絵柄引きずるな
一旦別のモデル変えるとリセットされる >>566
韓国のAIイラストの掲示板どこでしょうか
arcaですかね? 胸を小さくさせたいのですが、あまり小さくできません。適切な呪文を、ご教授ください。 なんのモデルかによる。例えばanyだとツインテ属性を入れただけで急にロリになる
ツインテにロリが関連付けられてるので >>570
small breasts, flat chest, ダメ押しにネガに cleavage breasts あたりじゃないか? そもそも衣装とかに胸でかくする成分が含まれてるからそういうの盛ってるとフラットチェストとか入れても小さくならないこともある 胸を小さくするのは、かなりなんぎですね。断念。ありがとうございました。 俺ちょっと変わってて仏像の写真を出させるんだけど胸が大きくなって困ってるw 胸は学習の関係で「small breasts」でも通常サイズくらいあるんだよね
だからそれも入れない方がいい
「flat chest」だけを思いっきり強めにかければ小さくできるけど
今度は胸や乳首が変になる確率も上がるという諸刃の剣 連呼するんだよ
loli loli loli loli child child child childって カッコでくくる強調との有意差示してもらっていいです? 括弧でくくると多分中で単純な乗算される
ゆえに2.8とかにすると絵全体が崩壊する
連呼すると恐らくトークンの持つ規定の最大値を上回らないようにキーの位置によって値が加算される
ゆえに絵が崩壊しないままに連呼した単語の持つ特徴をできる限り絵に反映させられる
体感の話ね
でもだいたい間違ってないと思う 体感なので中でどうなってるのか知らない
LDMの推論詳しい人頼んだ 嘘言いましたなんでもありません
1 girl (loli:35.0)
https://i.imgur.com/0esH16U.jpg
1 girl loli
https://i.imgur.com/uYPOrig.jpg
1 girl loli loli loli loli loli......loli ,
https://i.imgur.com/BSn6Ios.jpg
この度は私ではなく私の息子が失礼しました そもそもカッコでも強調しすぎだと思う。35.0て?
単体ならともかくとして他のプロンプトと併記したときには、:1.6とか:1.8あたりが限度で、:2.0超えるとどんどん崩壊するでしょ 日焼けがうまくいかない
Tanned skin入れても多少黄色っぽくなるだけ
ほかにいいワードある? >>585
幼女写真の学習データがまんま出力されとる!!
生成系AIの寿命がまた縮まった 画像生成AIが「トレパク」していた? 学習元画像と“ほぼ同じ”生成画像を複数特定か 米Google、DeepMindなどが調査
https://www.itmedia.co.jp/news/articles/2302/08/news055.html
>学習データの各画像を拡散モデルが記憶し、生成時にほぼ同一を出力していたことになる
>Stable Diffusionのトレーニングセットに含まれる1億6000万枚の画像全部を比較したいが、計算コストが高いため断念
似ている画像を抽出した結果、94枚が酷似している画像であると分かった >>594
まあ固有名詞を指定したとき、学習元の画像が少ないとあり得るのかも知れんね 学習ソースが二次元でも写真でも、緻密なイラスト絵画風などで一度完全に元データが上書きされるようなプロンプトは書けないもんかな。そこから更にオリジナルな描画が追加できればもう元ネタは分からないはずなんだが。 当たり前のことをさぞかし重大問題のように騒ぐのはやめてほしい
人間でもよくあるお題で何百枚何千枚と書かせて
今まで見たことがあるものに酷似するものが0かというとそんなことはないだろうよ ボラッドボーンとムンクで既出の話だな
学習元が少ない プロンプト関連付けがそこしかないってものはそうなるんじゃないの。 重要なのは既存の作品のパクリ判定度をどうチェックするかでしょ
人間でもAIでもここは同じ 0.00006%の確率で元画像がそのまま再現されてしまったってむしろ安全性の裏付けになってるな
ポン出し垂れ流しならともかく人の手による監修が入れば更に確率は減るわけで普通に運用する分には全く支障がない 人が真似たらすぐ叩かれるし最悪訴えられんのに
コピーじゃないです生成ですで何でも通るって訳にはいかんだろ
どういう書き方してもミッ○ー描いたら許されないと思うんだよな 界隈の人らがみんなハンコ顔の少女のイラストで可愛い可愛い言ってるのはそういう理由もあるかもしらんな
安易に特徴出していくとどっかの誰かに似るかもしれないの怖いし >>604
猿がタイプライター叩いてたら、偶然シェイクスピア出来たと同じだからな
訴えられても負けないし、仮に負けても交通事故として処理するぐらい 仕組み考えると逆にそっくりな画像が出てくることに驚きだよ 復元系の記事は良く読むと学習数が極端に少ない状態での検証だから現実的じゃないよ
水に塩だけ入れて元の素材と同じ味が出ました!と言ってるようなもの
そりゃそうだろと
SDが凄いのは1億以上の画像を学習して混ざってることなのに 追加学習なし、txt2imgなしでSDの構図を指定する方法が提案されたらしい
ABaG (Attention-Based Guide for grounded text-to-image generation)
https://twitter.com/birdman710nika/status/1622973569562193920
https://twitter.com/5chan_nel (5ch newer account) >>611
ミス txt2img → img2img 最近inpaintで修正した部分の色が妙に赤い気がする
とくに設定をいじったつもりはないけど
何がおかしいんだろう? novelai以外のモデルで
novelaiっぽい画風にするにはどうすれば良いでしょうか? とりあえずどんなのをお前が、っぽいと思ってんのか挙げなよ >>614
それならAnythingなんじゃね
って言っても結局はNAI派生だから似てて当たり前なんだがな >>618
Anythingもボケた感じになりますから ボケた感じってのはなんなんだよ
ニュアンスで語って伝わると思ってんなら聞きに来んなよ じゃあもうリーク使えやw
あと絵柄はなんだかんだでプロンプト次第だぞ 質問の仕方がバカなんだよな
質問者の脳内の基準を提示せずに誰が回答できるんだよと
んで回答したらしたでコレジャナイんですよねーwwとかナメてんのかと
プロンプもロクに書けねえだろ このスレは何でこんなにケンカ調子なんでしょう?
他のスレは普通な感じの人が多いのに
おっさんが多いからなのかな? 自分がおかしいという発想はないらしい
高速道路逆走のコピペ思い出すわ 怒らない回答者がほしいならここよりGPTくんとかに聞いたほうが良いですな そういえばgptくんにaiは人間に敵対しますか的な事聞いたらめっちゃ怒られた GPTのATのNA乗ってる。先月免許取得して中古探しに行ったら見た瞬間に即決した。
カッコイイ、マジで。そして速い。アクセルを踏むと走り出す、マジで。ちょっと 感動。
しかもスポーツカーなのにATだから操作も簡単で良い。NAは力が無いと言われてるけど個人的には速いと思う。
ターボと比べればそりゃちょっとは違うかもしれないけど、そんなに大差はないって店員も言ってたし、それは間違いないと思う。
ただ坂道とかで止まるとちょっと怖いね。ATなのに前に進まないし。
速度にかんしては多分ターボもNAも変わらないでしょ。ターボ乗ったことないから知らないけどタービンがあるかないかでそんなに変わったらアホ臭くてだれもNAなんて買わないでしょ。個人的にはNAでも十分に速い。
嘘かと思われるかも知れないけど東関東自動車道で140キロ位でマジで34GTRを抜いた。つまりはGTRですらGPTのNAには勝てないと言うわけで、それだけでも個人的には大満足です。 >>631
個人的にはElyOrangeMix
ちょっと幼すぎるかもしれんが 「runtime error: expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu! (when checking argument for argument mat1 in method wrapper_addmm)」
というエラーがでてしまい、v2-1_512-ema-pruned.safetensorsのモデルが選択できません。何か解決方法はありますでしょうか? 実際実写系だと炉理しかやる事ないんだよな
成人ならいくらでもエロコンテンツあるし いくらもないわ
SFとかファンタジーとかコスプレとかエログロとか生成したいもんいっぱいあるわ ノベルaiは退会するのがヤフープレミアムくらい難しいですか? >>640
フリー会員に戻すのなら糞楽
有料会員で貰ったコインもそのまま期限なしで残ってるっていう太っ腹 >>641
マジかー
来月頭から入会して
一発当てようと思う 他人の呪文参考にしようと思ったら
サンプラーのDPM++ 2M Karras が使われてること多いな
でもどこにあんねん 最近の初心者、NMKDを使ってしまう人が多くない?
NMKDはインストールが簡単なだけで機能も情報量もAUTOMATIC1111版がずっと多いのに
どっかでNMKDが勧められているのかね まず試すってだけならNMKDか、公開されてるcolabノートをコピーしてDiffusers直接叩くかが楽だと思う
1111はわりと設置でつまずく 公式で日本語化できるあれで難しいって、もうそれはむいてないとしか 初心者がAIローカルでググって良くわからないコマンドラインとかpythonを除外した結果NMKDに行き着くのではないだろうか TIの設定間違えて、全く関係ないHN付けたままTIしたら
なんか完成したんだけど・・・
今までの努力はなんだったんだ コマンドラインなんて理解せんでも記事にある通りに入力すればいいだけなのになにで躓くのかわからんよな 黒い画面恐怖症の人は結構多い。少しでも間違えたら専門知識なしでリカバリーできなくなる、みたいな認識 >>660
ワイはそれが出る前からスタンドアローン版使ってるわ
ワンクリ導入マジでありがたい
あとはkohya版LoRAが公式対応してくれればなぁ NMKD入れると環境競合で1111入れるの大変になったりするからもにょら >>662
WebUIはpython環境で動くけどNMKDはc#で作られたWindows用スタンドアロンバイナリだから競合する要素なくない?
どんな環境で何が競合したのか興味あるんで教えて欲しい >>663
今どうだか知らんけど、初期の頃はPython絡みでエラー出たり面倒だったよ NMKDはバイナリと言いつつ内部でPythonいんすこやらやるからPythonありきの環境だと壊れる ということは知らんところでPythonの別バージョン入ってパスや設定が書き変わってたりする類か… >>665
そうそうそれ
最初理由わからんでパニックになったわ
ほんでpython消しても戻らなくて、それ以来NMKD入れてない 1111とかgitだけでいいのに何処が難しいんだ
NAIでいいんじゃないすか >>669
一般ご家庭ののPCはPython3.10.6とか入ってないんですよ そもそも一般のご家庭のスペックじゃ足りないんですよ
970じゃ一般家庭じゃなくって骨董品?
ですよね~ 一般のご家庭のiPhoneでもできるぞ
A15bionic, 4GB RAMで512*768, 20stepを1枚2分かかるけど 一般のご家庭だろうがAUTOMATIC1111のリポジトリにインストール方法と必要なもの書いてんじゃねーか
無能の言い訳はさせんぞ 逆にどうやってリポジトリのページすら開かずにAUTOMATIC1111版をローカルに落とす所まで辿り着くんだよ 「オレたちは苦労してやったんだからお前らもそんぐらいやれ」っていう発想になりがちな人は高齢者になったら「最近の若い者は」とだらだら愚痴を言うタイプの老害タイプ
後に続く者達には余計な苦労はさせまいと考えてくれる者こそが本当の先導者 全部介護するのもどうかと思うがな
gitの存在も知らずpythonが何かも分からないままwebuiが動く環境だけ手に入れてその後どうなるよ githubのれあどめのインストール方法くらい読めと言う方がずっと親切だと思わないか? 単なる自虐冗談なのにそんなにたくさん噛みつかんでも
>>670とは別人だぞ そんなことよりAUTOMATICの更新4日くらい止まってるけど
また大規模な破壊でも行われるのかな
楽しみではあるけど時代についていけなくなったExtension破壊してずんずん突き進む前科が無限にあるから恐ろしくもある 今だとtensorRTの対応とかかな?
ちょっと期待してる わかる
そうだったら嬉しいよなあ
でもLsmithもUIおしゃれになってきてるし別枠でもいいかという考えもよぎる
どちらにせよぎじつナンモワカランなので降ってくるのを享受するに徹します…… >>680
本来、アプリケーションなんて原理をしらないまま使うものだよ 一般的にはgitもpythonも知らなくても生きていけるぞ
そもそも公式がワンクリ導入をリリースしてる時点で外野がとやかく言うのはおかしいんだよ そもそも外野が「ワンクリ欲しい」ととやかく言った結果、ワンクリ環境が生まれたのではないだろうか 【StableDiffusion】画像生成AI質問スレ01【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1674528604/
めちゃくちゃおあつらえ向きのスレあるじゃねーか
なんで導入以前の連中がわざわざこっちに来るんだ
ほんとなんでワッチョイ付きのこっちに来るんだ…… みんなスマホが動く理由がわかってなくても使ってんじゃん まずハイスペPCを買います
tailscaleを使って--listenでトンネリングします
iPhoneでも手軽にできました!!!
めでたしめでたし 貴様らどうあっても極端な話にしたいようだな
死んでくれ できない人がいるていうだけなんだけど
それで煽っても仕方ないんだが パッケージのやつ使ってるけど結局LoraやるにはGitってやつ必要だよね
一応調べてインストールまでしたけどそこで止まってる… >>695
自分の物言いが一番極端で物騒かと
>>697
ま、そうなったら現時点ではもう一歩踏み込んで勉強せよってことなのかもね
いずれはwebuiに統合されそうではあるけど stable diffusion web ui って多重起動する方法ある?
ようは画像出力しながらレタッチ機能とかも使いたいんだけど なんとー試してなかった、出来たわありがとう
ポート番号変わるんだね VRAM24だから少し遅くなりそうだけど作業しながら出力できるのは助かる
メモリは64積んどいて良かった足りそう 複数同時にGPU(つかCUDA)使うとデータが壊れたりしない? 画像から呪文抽出できるオススメないか?
DeepDanbooru繋がらねえ >>704
703だけど同時出力してたけど画像に問題はなかったよ
ただ同時出力中はVRAMMAXまで使うわ Civitai見てるとどんどん新規のモデルやLoraが投稿されててやばいな
このままだとSSDパンパンになる SSDって出始めの頃に書き込み回数うんたらよく言われてたけど現在の仕様で画像出力先としてどうなん?
出力はHDDにしたほうがいいのかね 画像程度なら問題にならない。モデルマージとかで1日100GBとか書き込み続けるとさすがに持たないかも、くらい 画像の生成はメモリで作業していて、確定したものだけSSDに書き込んでるから心底通常利用の範囲内だし何年も持つよ stable-diffusion-ui と stable-diffusin-webui で同じモデルとステップ数なのに出力がぜんぜん違う
11111さんのほうは SFG Scale ってのがあってデフォルト1になってて
ui はGuidance Scale ってのが7になってる
これ同じにしても出てくる絵がぜんぜん違う
品質がuiのほうがいいんだけど web ui のほうが拡張機能が豊富だから webui の方で同じ出力でるようにしたい まず ui ってなんやねん
両方 ui や
NMKDのことなんか?? windows7環境だと何してもローカルで使うのは無理かな? win7使ってる人いないからお前が使ってるならお前が使う方法見つけて報告しに来てくれ あります。先に書いてあるほど効果が強い。
詳しくはググって。 俺は7で3060使ってる
cuda古いせいで?xformares使えないっぽいのが難点かも マン汁たれ流し難しいなぁ
身体にまで汁が波及してしまう >>718
オーケーブラザー
>>721
cuda_10.2.89_441.22でいけないかな
それ以外動いてるならguiと合わせて使ってるのか知りたいなぁ。 >>720
やっぱりそうか
奥が深くて時間が足りない >>722
たれながしの量にもよるだろうな
inpaintでうまくいくかもしれんしな >>726
いっぺんにってことか
それはなかなか難儀かもなあ
確かに色々なところに飛び散りそう ここまでがワンセンテンスだ、よろしいか?
が中々通じないのよナ >>727
細かい修正は Photoshop でやるんじゃねーの? 全部AIで作ろうとしないで汁とかは別のペイントソフトとかで加筆したほうが楽で質も高いよ
いっぺんに作ろうとすると肝心のアソコが崩れたりするしね 人物より風景画に特化したModelってありますか? >>729
それを無理矢理どーんってできないかなって話なんじゃね? そんな切実ではねーけど毎日シコるには一枚の質を高めるんじゃなくてちょっと要素変えて大量生産してスライドショーだから目指すとこがちがうのサ……。 >>733
それは無理やろ
人間に頼む時だって
可愛い女の子書いてくれって言ったって
それは主観でしかないから >>723
cudaじゃなくてpythonのパージョンの間違いだった
なくても画像生成も学習もできるから気にしてないが
使ってるのは1111版だよ
エクステタブでなにかするとエラー吐くから直接入れられない不具合も出てるけどこれはおれかんかもしれん >>731
キャラとかエロは相変わらず1.x系が主流だが背景だけなら2.x系モデルのほうが高解像度対応してるし綺麗な絵が出しやすいかも?かも? SSDに買い替えたらぶっ壊れてデータ飛ぶことが全くなくなって
HDDの時の苦労は何だったんだってなるわ耐久性がダンチ過ぎ
いまだにSSDの耐久性の心配してる人は時代に取り残され過ぎじゃない? >>740
いや今までHDD使ってたお前がそんなこと言うのか…今年令和5年やで… ワロタ
まぁSSDとまでは言わずとも、今でもM2.SSDの存在すら知らないor知ってても速度差の影響を軽視してる人はそこそこ要るとは思う そのうちデータ消えて復旧できなくなって泣いてそう
SSDはある日突然データ消える前提でバックアップ取るまでセットであって壊れないとか言って嘯いてるのはアホ >>731
探せば大抵のものがあるよ
探す時間で自作するのとどっちが早いか知らん 今日、Google ColabのAutomatic1111起動でエラーがでたら
!pip install --upgrade fastapi==0.90.1
で直ったぞい 同じ症状になったけど、!pip install --upgrade fastapi==0.90.0で直ったわ 3060買ったから届いたらSD環境構築しようと思うけど
どれくらい掛かるんだろう?1日で出来るかな?
PC知識はコマンドラインも調べてやるレベル >>748
「コマンドプロンプト?何それ?」レベルの俺でも1時間しないで基本的な環境は構築出来たよ
https://ossan-gamer.net/post-82301/
参考にしたのはここ なんでそこで公式のgithubが出てこなくて半年近く前の情報が出てくるんだよ >>749,750
そんな簡単なんだ!ありがとう! gitをインストールしてくる
python3.10.6をインストールしてくる
好きなところでターミナル開いてgit cloneして
中のwebui.batを実行する
これの何が難しいんだ 今ってaoutomatic1111がお手軽導入環境zipで配布してなかったっけ…… 俺は(messy:1.8)な配線のPCに3060換装したから換装だけで2時間かかったよ >>755
NMKD推すのやめーや
>>748
今は公式がワンクリインストーラー出してて、クリック一発で導入出来る
あとは好みのモデル探して突っ込むだけ
pythonやらgitやらよくわからんけどさくっと始めたいってんならいいんじゃないかな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre >>753
それを難しいと感じる人がかなりいるという事実をそろそろ理解しな
PCの理解度なんて人それぞれなんだよ おまえら優しいなみんなありがとう
>>757インストールして試してみるよ >>716
別人だが、stable-diffusion-uiってのがあるんよ。ドマイナーだけど開発も続いてる。
超初期の段階で1クリックインストールできて、コマンド打たずに設定できるので便利だった。 >>753
それだとエラーになっちゃうよ
モデルをフォルダに入れてないから
>>759
git cloneしたらmodelーstable-diffusionフォルダにモデル(.ckptとか.safetensor)を入れてからwebui-user.batを実行するんだよ〜 >>761
ならわざわざ初心者に対してクソみたいなマウント取る前に最初から質問スレに誘導すればいいでしょう? gitをinstallしてpythonをinstallしてterminalを開いてgit cloneしてwebui.bat
とか
「パルスのファルシのルシがパージでコクーン」
並みに意味不明な文字列にしか見えない人は一定数以上居るとは思う >>761
そもそもこのスレが名前に見合ってない中身なんで、まぁその…‥ 次スレはテンプレにコレ追加ね
【StableDiffusion】画像生成AI質問スレ01【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1674528604/ 最近はインストールは簡単になったよ
インストールはね
問題はその後 んなもん書いたところで誰も読まねえよ
今のテンプレすら誰も読んでねえだろ ControlNet面白いね
みんなもう落とした?って話し出したらスレチとか言われそうなレベル いんじゃね
自治厨わいたらごめんって言えば多分大丈夫だよ ローカルに落としてたらサ終とか恐れずに半永久使えるって思ってたんですけど違ったんですかね
いつもどうりしてたら上のエラー吐き出しちゃいました;; >>772
1111のフォルダでターミナル開いて
.\venv\Scripts\activate
pip install fastapi==0.90.1
deactivate
これを1行ずつコピペして実行したら直る >>774
ターミナルってのはGitBUshってやつですか??
win10でのターミナルの開き方教えてください;; >>775
Win10はもう忘れたが、右クリックでPowershellってのが出てこんか? >>776
シフト+右クリで行けました!
開けるようにはなったんですが今度は生成いようとするとRuntimeError: mat1 and mat2 must have the same dtype
っての吐き出しました;; 実写動画とイラストを組み合わせアニメーション映像を作成するAIツール
https://nazology.net/archives/121833
きたわー
公開はよ! >>780
もっと早く知っていたんだね!すごいね! 普通に出力しただけのAI絵売れてるやんw
これで儲けヨ とりあえず望みのものをいくらでも出せる環境は整えた
あとは望みのものを見つけるだけなんだが
それを何十年も悩んで死ぬ男の小説が描きたい
NovelAI頼んだ 実写から動画
実写を撮る必要があるという実写と同じ悩みが復活するな AVで出したいシーン探すより自撮りの方が早くて
著作権だ肖像権だと文句言われることもなく堂々と突っぱねられる
(元のモデル自体が提訴されて裁判に向かってますけどね) >>738
python3.10.6ではないの?7用にインストール出来るようにしてあるやつ上がっているけれど。
あとこちらはいろいろ試したらwebui-masterの方入れて足りないファイルやらはSDG-1.9.1から持ってきて
ようやく7でも動かせたよ
色々そろえるのに難儀するね、 AVを素材とはいえ自撮りすることほどバカらしいことはないw
本末転倒だな ローカルの電気代と
クラウドの使用料金
どちらが高いでしょうかね? AV素材ってよく言うけど、いざAVで欲しい素材探そうとすると同じ用な構図ばっかりだったり、自分の想像している理想の構図が全然見つからなかったり、無駄にパース効き過ぎてたりで時間クッソ掛かる割に大した成果が得られない
っていうのを、昔散々味わった そのうちおっさん同士絡んでる素材をかわいい女に変換したAVが出てくると思う もしかして、スレ民で「素材写真を撮るオフ会」をすれば完璧なのでは……? windows環境でStableDiffusion環境作って動作するとこまではできたんだけど、
学習モデルを最初1個ダウンロードしていくつかキャラ作成。
その後、別の学習モデルを追加して、それを選択して作成すると
前に作成した画像も引きずって作成してない?
最初に選んだ学習モデルが暗めな絵を作成するものだったんだけど
モデルを変えても全部画像が暗いものになってしまう。
あと過去に「使用済みコンドーム」を入れて画像作成して以降、紫の
影が全ての画像に入るようになってしまった。
「stable-diffusion-webui」フォルダを削除してもう一回作り直しても変わらない。
どっかにキャッシュみたいなの残ってるのかな ワイ、キモメン童貞AV自撮りしてくれる相手いなくて涙目 次は動画だからなぁ・・・
オッサン同士でAIモデル用に特化したAVモーション素材作るのか
素材オッサンで抜いてしまう世界中のオッサン 撮影可風俗で録画協力してもらって
その素材を基にしたAI絵を売れば風俗代も経費
夢広がる >>791
どちらにしても得られる物と比べたら
ランニングコストなんて微々たるもんなんだから
そんなセコい事で優劣を決めるならそもそも止めとけ
学生で金がないならウダウダ言ってないでバイトでもしてこい >>796
画像が暗いのはVAEを使ってないか合ってないかだろうけど
紫の影が続くのはたぶんおま環じゃないか
なったこと無いわ >>796
同じような現象は各所で報告されてる
モデル切り替えたのに前回の絵を引きずっている、とかプロンプト変えたのに何枚生成しないと反映されない、とか
おそらくAUTOMATIC特有バグというか、切り替え時にキャッシュのようなものの切り替わりにラグがあるのだと思われる
もしかするとマシン環境のなんらかのスペックと関係しているのかもしれない
今のところ解決策はない
おかしいなと思ったらwebui再起動かね 一度loli外しても暫くloliキャラしか出てこないとか割と見かけるね 俺はなったことがない
それが起きた時のコンソールとか見てみるとどうなってんの
できた画像のPNG infoとかも あとスペックとWebUIのコミットとExtensionと住所と年齢とクレジットカード番号 「絵柄変わったな?」と思ったら以前のpng info読み込ませて同一条件で生成
これでほぼ同一の絵が出たら勘違いだったって事になる(xformersの関係で細部は変化することもある)
試してみてくれ みんなありがとう
暗いのはVAEが原因なのか。試してみます。
webui再起動や、フォルダ消してセットアップやり直しても変わらないんだよね。
コマンドを多く入力すると紫の影が出ない、1girlだけとかシンプルなものだと
出てくる気がする。
もうちょっといろいろ触ってみます。 >>804
>>806
環境によってならない人がいるせいで理解されないけど、現象としてはあるよ本当に
オカルトとか勘違いとか思い込みではなくて
で、info読み込むと再現出来なかったり
あとモデル切り替え時にちゃんと切り替わってなかったり、コンソール上では名前だけ切り替わってるのに中身は切り替わってなかったりとかもたまにあった
メモリの問題なのかもね プロンプトの書き方についてなんですけど、 間の開け方を空白使ってる人、,使ってる人、_使ってる人色々見かけるんですがあれってどゆ差があるんです? ローカル環境にメモリ16Gと32G、SATAHDDとM.2SSDはどのぐらい影響あります? >>811
どちらも画像生成には直接的には関係してない
ただ、メモリはモデルのマージしたいなら最低でも32はほしい
複数モデルをいっぺんに読み込んで処理するから、メモリ少ないとそもそもエラーで動かん
SSDもモデルの切り替え読み出し書き込みで大きな差は出るのでHDDよりSSDのほうが快適
m.2とまでいかなくてもUSB3外付けの安価なSSDにインストールしちゃうのもありじゃないかな >>808
info読み込むと再現度ができない時
webuiのバージョンを大きくまたいだとかモデル合わせるの忘れてたとかそういうのでもなく? >>814
もちろんそんな凡ミスすぐ気付くわ
おま環というか、なる人とならない人と、あとマジの勘違いとオカルトと色んなパターンがあるので信じてもらえねーんよな >>802
俺の場合は200毎生成したとして
互いに影響あるんだろうなっていう2・3枚が起きるのが
だいたい10回以上は起きてるわ
単純に前情報を少しだけ引き継いでると思って気にしてないけど。
切り替えたいときは適当な意味のない単語入れるとずれるし まさかエロ画像のAIにテレゴニーがあるなんて誰も想像しないよな… ちょうど今、その症状で悩んでてプロンプトを書き換えたりプログラムを再起動しても絵柄がリセットされない状況で AIは人に損害を与えている
AIは女性の下着や運動着を文脈を無視して「性的」としてシャドウバンすることが判明、女性主導のビジネスに損害を与えていると専門家
https://gigazine.net/news/20230210-biased-ai-racy-women-bodies/ >>823
内部的には読み込んでないのに、読み込んでる前提でinfoが書き込まれるせいで不一致が起きるってことなのかな paperspaceってパソコンからファイルをアップロードすると何時間もかかります
huggingfacからのダウンロードは一瞬なのに
なぜでしょうか? ほーん
ほんとに知らない症状だな
もしモデルの読み込みに失敗してるとか単純な話ならコンソールにその事出るしInfoにも失敗事に読み込まれたモデルが書かれる 読み込み失敗してるのにエラーもでないって
かなり深刻jだな。
無料だからあれこれ言う気はないが 俺は色指定しないと黒か白のインナーしか出てこなくなったよ
()++とか使ってたのが悪さしてそうな想像してるけどよく分からん
モデルの変更や再起動webui再インストールしても直らないし割と致命傷や >>828
Cのユーザーフォルダ内のキャッシュも消さないと完全再インストールにはならないぞ >>829
>>829
webui本体のフォルダと別に消さないといけないフォルダがあるのか
ちょっとしばらく触れる状態じゃないから探してみるけど消さなきゃいけないフォルダのパス教えてもらえると嬉しい >>831
C:\Users\ユーザー名\
以下の .cache .matplotlib .keras とかかな
いずれも名前の先頭にドットがついてるフォルダ
入れてるextensionによってはもっとあるかも i2iでさマスクした白い服を青に変更したいんだけどこれって無理?
promptでblue clothみたいなのを2倍とかにしても少しかわるときあるけど全体的に変わらない
なんかいい方法ありますか?やっぱ別ソフト? strengths最大にして元絵を完全無視させるかスケッチで適当に青く塗ってインペイントするか
陰影面倒ならフォトショに読ませて青くオーバーレイ掛ける プロンプトに他に白い服を連想させる言文があればそれに引っ張られたりするかもしれん CPUが10世代と11世代でPCIe4.0に対応かどうか分かれるみたいですが
3.0と4.0の転送速度は倍違うようですが、生成に影響ありますか? 生成した画像を"あくまでも個人で楽しむ用"にアクリルスタンドとかタペストリーとか業者に発注した人っている? 生成も学習も基本的にグラボ内メモリだけでコネコネするもんだし転送速度あんま関係ないんじゃね 5700xと3090にB450M Pro4っていう1年半前に7000円で買ったPCIe3.0の底辺ゴミマザボ使ってるけど問題無い
グラボに一点集中や >>837
グラボ以外はたいして関係ないよ
SDの推奨基準を満たしてるグラボが動く世代のPCなら大丈夫 「vAE」に、config.jsonというデータしかないのですが、これは、モデル名+拡張子.yamlに変更すればいいのでしょうか? NOVELAIではi2iできたが、ローカルだと上手くできない
元絵とほぼ同じのものが出力される
ポーズ変更など大きく変えるものだけでなく、髪色を金から黒になどの色変更もできない
ストレンジ1にしても大差ない
t2iは使える
ヘルプミー😭 >>837
そっち気にするよりSSDの速度気にした方がいいかも >>837
PCIe3.0 の2690 V2で 4090動かしてるけど
batch size 24 512x768で12GBしか使ってない
アスカベンチ batch size 16で38it/sとか出るから、グラボが速くてメモリー24GBあれば、最新スペックPCと大して変わらん
グラボメモリ>SSD≧システムメモリ>>>CPU
こんな感じ i2iは特化学習したりマージし過ぎたモデルでは上手くいかないことがある
特に自分で生成した絵を食わせて一部だけ変えようとするときに顕著に感じる ふたなりが全く出来ない・・
逆に男の体を巨乳にしようとしたら普通に女体になってしまう >>844
えっ、HDDにガリガリ書き込ませてるけどSSDのがいいの?
そんなReadいる? >>845
因みに13900k 4090 のハイエンド構成で
batch size 8 5.01it/s (40.08it/s)
batch size 16 2.51it/s (40.16it/s)
この位 PCそのものの快適性を別にすれば今の画像生成に書き込み速度は不要だと思うだって生成速度遅いし解像度も小さいし HDDの書き込み速度レベルでも上回るレベルで生成できるってどういう環境やろな >>848
SSDはモデルの切り替えが早いんよ
毎回数GBのファイルを読み出すからね >>847
ふたなりはどういうふたなりなのか
世の中ほとんどがふたなりすぎて困っている >>853
あー、なるほど!
出力はHDDのままで本体はSSDに置くわ。ありがと 満足できるのかしらんけどふたなりは配布LoRA使えば? >>834
ペイントソフトで色塗ってi2iでやってる
まあまあなんとかなるよ
応用でストッキング追加とか肌色で服破ったりしてるよ NovelAI、あっと言う間に10ドル分使い果たしたわ
で、足が3本あるとか尻から尻がはみ出しるとか
腕がベンチから生えてるとか
そりゃもうホラーか異次元かってのばかり出て来た
もう使わない 黒髪にしたいのに後ろ髪にインナーカラー入っちゃうのをやめてほしいんですが呪文ありますか? もはや情報出尽くしてるレベルのNovelAIでまともに生成できないだなんて
この手のお遊びはむいてないのでは まずは既存のプロンプト試して、そこから変更していくだけでもそこそこいけるもんだけどな
まぁ初心者ほど「いきなり複雑すぎるポーズとかにチャレンジしてしまう」っていうのもあるかもしれんが 髪の色がちょい違うなんてのは自分で直すほうが早いぞ >>863
英語で普通に
Country girl sitting on bench
と入れただけなんだが
何故か2人の少女が絡み合うw
1024×1024だとダメなんかなぁ 学習モデルの配布ってなんか法律とかsdの規約ってあるの?まずいデータ学習させててもおとがめなし? 最高にカスで草
これはガチでヤバい
>>871
「鉛筆で線が引ける」っていわれて、鉛筆削らずに「書けへんやんけ!クソが!」って喚いてるぐらいにやばいぞ…… NMKDつかっててここ1111がいいっていうからインストールしてみたけど
どっちもデフォルトでインストールしただけでモデルだけ同じものに変更して
全く同じプロンプトで使ってるのに明らかにクオリティが低い
シード同じにしても同じのにならないけど
数十枚生成してもNMKDはNovelAIぽいいわゆるマスピ絵柄で安定してるのに
1111の方はラフっぽい線の汚い絵しか出てこない
プロンプトの書き方が違うのかもと思って
あえて強調使わずに単語だけカンマつなぎにしてみても同じ
NMKD guidance scale と 1111 CFG Scale って違うものなのかな
デフォで NMKD は6とか7担ってた気がするけど 1111 のほうは 1 とか 0.1 とか小さい値だった
ためしに同じ7にしてみてもやっぱり生成画像が違う
他にはモデルと step 数とサンプラーぐらいしか選べないしそこはどっちも同じ 俺もNMKDから1111に移行した時に同じ設定にしてもガビガビの画像しか出てこなくてなにこの欠陥品ってなったけど
EasyNegative.safetensorsをダウンロードしてembeddingsフォルダにブチ込んで
ネガティブプロンプトにEasyNegativeを入れるだけで爆発的に良くなった
後はClip skipを2に設定かな >>876
クオリティに差が出る理由はほぼプロンプトかCLIPの問題
NMKDはNAIみたいに設定で裏ネガティブプロンプトがあるのかもね
ちなAUTOMATICは設定さえちゃんとすればwebのNovelAIを完全再現出来るよ settingのclipskip忘れがちだからちゃんと設定しろよ CFG Scaleが0.1とか1.0だったらまあえげつないことになるわな
多分1111とNMKD逆なんだろうけど EASY Diffusion使ってるけどNMKDや1111とそんなに変わらないレベルなのかなこれ とりあえずNMKDで生成した画像とAUTOMATICで生成した画像をmetadata残した状態でどっかにアップしてくれ
NMKDがそういうデータ残してるかどうか知らないけど >>882
そうだったらとっくにみんな使っているよ
まったく話を聞かないってのは、ようはそういうこと というかControlNetがとんでもなさすぎるんだが
自動着色のクオリティ高い番みたいな使い方が捗るな ControlNet使おうとしてVRAM足りないエラー吐かれたときの悲しさ save_memoryでなんとか……
WebUI版のExtensionにも今はちゃんとある
unpromptとか言うやつじゃない方の ふふふ、英語での化粧が全然わからんがAIくんが答えてくれる
なんて楽な世界だ 尻尾つきの帽子を被った子描かせようとしたらどうしてもケツに尻尾がつく子になって困った 1500X1500ぐらいの解像度のPNG作りまくってたら
専用にかった2TSSDが埋め尽くされてきた
SSD8TB早くやすくなってほしい PNGの半分くらいのサイズにできるから全部クオリティ100のJPGにして出力してるけど
画質も気にならないしなんかデメリットあるんかな?
JPGでもPNG info使えるし逆にPNGのメリットを感じない 気にならないのなら気にしないでいいじゃん
圧縮率はjpgの方がよくて、画質は劣化しないpngの方がいい pngじゃないと使えない拡張機能とかあったら後々加工する時に困るなと思って
大量に生成して後で選別してるから画質だけなら今まで通りjpgで行くわ 出力するたびに選別していかないと収拾つかなくなる
どんどんシュレッダーで消していかないと ざっくり消そうとしてる人間がそんな細かい頃見ねえよ そんな呪文入れてないのにうんち漏らしてるやつが混ざったけど
意外と良かった colabを一切休ませずにDBさせまくってたら、
課金トークン残ってるのに1時間毎に落とされるようになった
どこにクレーム入れたらいいんだ? >>878
試したらすげー変わった
不気味の谷を一気に超えてきた感じ
ありがとう。 別にColabの話題そのものがスレチなわけじゃないからね >>911
EasyNegativeもClip skipも当たり前のように使っててモデルの説明欄とかに書いてる人がいないから最初分からんよね
改善できて良かったよ ネガティブプロンプト付けてなくても面白い画風で作ってくることもあるから、中々捨て難かったりしてる
きっちり指定すると破綻は少なくなるけど、絵柄が画一的になりがちな気もしてるんよね Clip skip 1で動かしてるんだけど2推奨のモデル多いよな
なんでなん?1はダメなん? >>915
イラスト系もモデルは、NAIがCLIP2基準で学習させるっていう作り方だったから、NAI遺伝子を持つモデルは軒並みCLIP2基準になってる印象
簡単に言うと、命令聞き度が違う
ちな元のSDはCLIP1基準なので、実写系モデルはCLIP1が多いけど2のほうが絵が安定することもある
basilなんかは1のほうがロリが出やすいけど若干CGくさくなったり
2にするとインスタ系お姉さんが出やすくなるけどポーズがありきたりになる、とか
ようは全モデル切り替えて試してみろ!としか さらに構図やポーズにわざとVarious~って付けてガチャを楽しむ、まである
controlnetのおかげで構図ガチャやポーズガチャから解放されたけど、自分じゃ考えるセンスがなくて虚無だわ
そもそもAIの不完全な発想から生み出される面白絵は人間には発想できないのよな controlNetでも後ろ向きとかのAIに難しい構図はやっぱ無理なんだな… そういうことしてるからSSDが満杯になるんじゃないのか
奇形とか思い通りにならないのがいい、ってのはさすがに一周回りすぎてついていけん。 後ろ向きできるくない?
後ろ向いてる人なりモデルなりのスクショでもとって放り込むと出たはず
少なくとも現場猫ポーズくらいは ゴミ溜めからマシな奴をピックアップする仕事って
なんか空い… プロンプトにbackposeとか入れれば後ろ向きにはなる
が、仰け反りとか極端な振り返りとかはLoRA併用かね
https://i.imgur.com/8emUcLr.jpg >>924
シコりながらピックアップする装置がほしい どういう技術なのかよくわかってないけどlatentに各点の位置とか送りこめないもんなんかね
それが出来りゃ回転でもなんでもやりたい放題なのに いやまあそんなことが出来るならもう賢い人達はやってるだろうし
やっても結局立体を学んでるわけじゃないから結果が微妙なのは目に見えてるか >>927
そもそも学習内容に無いものは出てこないんだよ
なのでキレイに360度回転することは現段階では不可能
いずれは学習内容から完璧に予測できるようになるかもだが 今のは人物を立体で捉えてないだろしらんけど
各点の位置を指定し始めたらもう3dモデルで良さそう 正規化を理解しようと思って調べた感じ元画像に対して正規化画像で各ピクセルのRGBの振れ幅を計測してるって感じなんかね。
そうすると出したい構図とかが固まってるなら大事な部分以外をin paintで変えまくって良さげなのだけ正規化画像の候補にすればほぼそれを学習できる感じなんかな、汎用プロンプト使うと固定化されるだろうから固定したくない特徴的な部分はオリジナルのプロンプトを付ける感じで >>930
とらえてるよ
とらえてるけど、それを完全には出力できないんだよ今のSDモデル群は まあそれでもここ数日で出せる絵の幅は理論上変わらないにしろ
めちゃくちゃ難易度が下がってホクホクですよ >>917
なるほど、そんな経緯が
つまり流出NAIからの派生は2の方がいい可能性が高いってことか
ありがと 噂のControlnetって対応したモデルでないと使えないの?
ひと昔のモデルにその技術を使うことは出来ない? >>935
別に生成するためのモデルはなんでもいい
変換とかもいらない、難しいことは全部webuiがやってくれる
方法を選ぶだけ 出てくる絵の内容、振れ幅、品質どれもネガティブプロンプトの影響が滅茶苦茶デカいんだよな
ポジティブは最小限にしてネガの研究進めるべきだと感じて来た プロンプト公開見ててprompt二行で画面いっぱいのnegative書いてるやついるけど
あれが正しいんか… 盛々ネガティブって余計な情報を極限まで削ぎ落とすからキャラの表情とか完全に死んで無表情になりがちだけど、ある程度絵柄の固定には使えたりする
使い方次第かな bad_promptとbad-artist,EasyNegative入れて
(bad quality,worst quality:2.0),bad_prompt,bad-artist,EasyNegative
だけで良い 頭が胸の辺りにも出来てトーテムポールになるんだけど、画面サイズは正方形じゃ無いとダメなんか? 手始めたころはそういうのが多かったけど
最近は見ない。古いモデルなんじゃないの 古い WD とかはちょっと縦長にするとトーテムポール連打してたな モデルによるけど手もかなり改善されてる
まあ自分はbad_fingers などは必ず入れてるけど。 指がなかなか難しいは最近も変わらないよなあ
フォトショになげて自分で書いた方が早いんだがどうしても出力したいからなんどもinpaintしてしまう ControlNetでの入力ってやっぱり参照画像の解像度も影響あるかな
大きな画像だとより正確になってる気がする >>942
最近のモデルで2.0も強度いるかな
結構元モデルの画風とか特徴殺してると思うでそれ ワードっていうかこういう画像を学習させたとしか言いようがない
指が変なところでAIってわかるなぁ プロンプトの前にコメントの言語化がされてなくね伝わらない まとめサイトやTwitter経由でさらに流入が増えてるな >>944
縦長の画像を出すと顔2つとかになる話か
1111ならHighres. fixとかSeed Resizeである程度抑止できる web ui のレタッチに色が塗れるペイントみたいなの実装してくれないかなぁできればスポイト付きで
ちなみにレタッチ系のプラグインとかってあったりするのかな? >>960
起動オプションに
--gradio-img2img-tool=color-sketch >>961
おーこんなんあったんですね
今試したらできましたありがとう 本スレとかにも毎日>>953-954みたいなのを貼って無視されてるやついるもんねw
良くも悪くも一般に広まってきた 聞きたいことは質問しないほうが教えてくれるということも知らんのか 言うて質問スレあるからなそっちでどうぞと言われたらそれで終い >>962
>>954の腹回りが好みです。ここだけでいいんでprompt教えてくださいお願いします ちなみに自分で調べた結果ではこのキャラのモデルデータはChilloutMix
衣装はLoRAってことはわかりました
しかし、この腹回りだけは何かpromptを知らないと再現できん!!
オレのとっておきの「belly button」を教えるからこの肉付きの良い腹回りのpromptを教えてくれ!! 質問した内容がたまにスルーされても気にしない心が無いと(掲示板を使うのは)難しい bellyってのはAI的には「脂肪でふっくらとしたロリ腹」のことだぞ
腹筋を際立たせたいなら素直に腹筋って言えばいいのよ MJやNJで生成するとすぐ使えそうなのが吐き出されるのに、
SDだと落書きレベルばかりなのはなぜ ちがうわ、そんなこと書きにきたんじゃない
クレカしか使えないから課金できないって愚痴りたかったんだ
コンビニ払いさせてくれ。倍でも払うぞ ControlNetのポーズ付けは、既存の画像元にやるとi2iやってるのと大差ないな
今はposexで棒人間弄ってるけど、MMDの準標準ボーン準拠のポーズデータを
ぶち込んで変換するようなツールはないものか… controlnet openpose はボーンだけ参照するから、色形状も参照しちゃうi2iとは似て非なるものなんじゃない?
だからこそ1111ではt2i側に分類されてるかと 楽天とか携帯会社とか探せば審査ゆるゆるまんkな会社あるんじゃねーの? >>975
仕様非公開で詳細不明だけどMJは強力なアートフィルター補正がかかってるのは有名
簡単に言えばmasterpieceやartstationみたいなのがデフォルトで組み込まれてる 色塗りや絵柄の補完でimage2imageを使いたいんだけど元絵がどろどろに溶けたようなピカソ絵しかでません……
たまに可愛い顔になるけどもやもやしててネットに上がってる画像とは程遠い
プロントが悪いのか他になにか導入するものがあるのか モデルによる i2iの場合はプロンプトをあまり詳細にしないほうがいい、みたいなのはあったかも。
あと補正の強さ、AIの影響を強めにすれば元絵からかけ離れるけど破綻はしにくいかも。 Universal controlなんとかのExtensionもうでた?(他力本願) そもそもMJはSDとは無関係だろ
AIの進化スピードが速いんじゃなくてSDがショボすぎただけ
今騒いでるのも全部dalleなら3年前に通過していた地点 誰か俺の代わりに読んで赤ちゃんでも分かるように要約してここに貼ったあと
俺の質問に逐一回答してくれ~~~~~~~~~!!!(他力)
背景知識が無いから読んでもさっぱりだ
そしてなんという論文を読めば背景知識がつくのかもさっぱりだ
ControlNetの方
https://arxiv.org/abs/2302.05543
Universal Guided Diffusionの方
https://arxiv.org/abs/2302.07121
面白かったやつ(理解度は)
https://note.com/gcem156/n/ne334e7be9eb7 3つ目の記事の人が出してるpfgとかいうリポジトリ
めちゃくちゃ海外の人に不親切で好き このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 39日 1時間 45分 42秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。