X

【StableDiffusion】AI画像生成技術11【NovelAI】

レス数が1000を超えています。これ以上書き込みはできません。
2022/11/24(木) 17:36:37.21ID:FYS69E540
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合20【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669092302/
AIイラスト 愚痴、アンチ、賛美スレ part14
https://mevius.5ch.net/test/read.cgi/illustrator/1669117382/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1667401816/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2022/11/24(木) 17:39:00.20ID:fXDhc5/s0
いちおつ
2022/11/24(木) 17:41:22.97ID:rzqXOupMM
におつ
2022/11/24(木) 18:27:05.59ID:1/cKPyb5d
さんおつ
2022/11/24(木) 19:31:11.05ID:AaLluf57M
よんおつ
2022/11/24(木) 21:24:32.12ID:B9+vlfbs0
ごおつ
2022/11/24(木) 21:24:49.81ID:yLX+AEPI0
HOS
2022/11/24(木) 21:26:38.86ID:VejD+MZN0
(乙 :1.5)
9名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/24(木) 21:32:31.42ID:ayb4OeRCa
前スレの初期並みにひどい生成画像見たら笑い止まらん
なんでああなる
10名無しさん@お腹いっぱい。 (ワッチョイ c67c-uF5C)
垢版 |
2022/11/24(木) 21:38:35.83ID:skC+Y0Ly0
ver0.2に退化しとるやないか
2022/11/24(木) 22:08:59.84ID:j1v5zf/30
NSFW全滅だとアート系のヌードとかもダメなるってことだから、かえって使いにくいような気がするな2.0
2022/11/24(木) 23:02:59.37ID:NIldVpeK0
なんらかのエラーだって言ってくれ
発売日を楽しみにしてたゲームがとんでもないクソゲーだった時の気分だ
2022/11/24(木) 23:05:47.26ID:1Ym3pmrZa
sd2はインペイントを考えすぎてるのかな
ぴったり人が重なるレベルで同じポーズばかり出る
あと複数人は相変わらずダメ
「2人の写真、ひとりは赤髪ロングヘア、もう一人は青髪ショートヘア」みたいなのはできない
2022/11/24(木) 23:14:07.62ID:wEoLBVFe0
何が得意で何が苦手かはまだ追求されるだろうし、数日か数週間もすればSD2をベースにしたやつも色々出るだろ
この3ヶ月の密度が高すぎたせいもあろうけど生き急ぎすぎてもしょうがないぜ
2022/11/24(木) 23:59:35.53ID:1Ym3pmrZa
SD1.5までで使えた「kawaii, loli face」は使いものにならない
512x512以上の解像度に設定すると劇遅だから512x512以外は使い物にならない
txt2img.pyのデフォルト値を変えといた方が使いやすい(--step 20、--n_iter 1、--n_samples 1、--n_rows 5、--seed -1など好きなように)
wm_encoder系はいらないからコメントアウトした方がいい(やらなくていい)
1111用のxformersはエラー出て使えない
シード固定ガチャの将来性は高そう
歩留まり悪い

masterpiece, best quality, photo of a girl, japanese girl in kyoto, dark hair, detailed hair, beautiful hair, beautiful face, detailed eyes, full body shot, highly detailed, sharp forcus, cinematic lighting, photoreal, photoshoot, photograph, realistic photo, dynamic pose
https://i.imgur.com/JoULB59.jpg
2022/11/25(金) 00:11:20.37ID:zoUnh9iDM
うーん…
2022/11/25(金) 00:17:11.37ID:UkQwvCre0
これ見る限り、NSFW以外でも2.0は産廃感あるんだけどw

https://www.reddit.com/r/StableDiffusion/comments/z3ferx/xy_plot_comparisons_of_sd_v15_ema_vs_sd_20_x768/
18名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 00:24:41.91ID:yuFMQQyca
やっぱ各所から色々詰め寄られてるんだろうか
今まで自由すぎたのかな
2022/11/25(金) 00:29:42.45ID:lcMrx8UN0
NSFWデータが人体の学習度に貢献してた説
20名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 00:31:04.41ID:yuFMQQyca
あ、それはありそうw
2022/11/25(金) 00:32:32.12ID:CBv5zFmJ0
ポリコレ民に汚染されてそう
2022/11/25(金) 00:40:13.95ID:dJXl8TLMd
>>17
nsfwだけじゃなくてGreg Rutkowskiみたいなまともな画像を出すときの定番だった現代アーティスト系の学習も排除されてるんだな
これは今までのSDみたいな使い物にはならなさそうだわ……
23名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 00:44:22.10ID:ilqct2n/M
でもこんだけ配慮?されてるモデルだし良いもの出したら企業が使ってくれそう
2022/11/25(金) 00:47:52.53ID:Yjbt1F/d0
AI絵師オワコンじゃん
2022/11/25(金) 00:49:38.20ID:UD51IX8K0
どうせなんらかのフォークや制限解除版が出てくるだろ
公式には対処したってポーズであとは自己責任
2022/11/25(金) 00:54:07.01ID:Yjbt1F/d0
「イラストやデザインの仕事はとても退屈。芸術的かどうか以前に君たちは道具(ツール)だよ。」

https://i.imgur.com/3nTGakN.png

ハゲワラ
27名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 00:59:54.70ID:y0pHcg2vM
まあこれから色々発見されるでしょうw
2022/11/25(金) 01:02:21.40ID:XBMrIrUna
企業安心して使えないよ
ピカチュウとかミッキーマウスとか権利あるのも普通に出るのは変わらずだから

クリップ変えたのしっぱいじゃないか?
photo of a Pikachu and a Mickey Mouse
https://i.imgur.com/0iLVTsA.png
29名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:25:20.08ID:y0pHcg2vM
あらまあ
何もかも中途半端な感じかねえ
2022/11/25(金) 01:29:14.58ID:IXPAWFhi0
結局権利や倫理的に怪しいソースを使ってさらに過剰学習という名のパク…
までしないとまともな絵は出ないのが現実だったってことか??
それらを全部排除すると要求スペック爆上がりなのにこのザマと
31名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:30:17.79ID:y0pHcg2vM
別に俺アンチじゃないんだけどまじで出てくるものが微妙すぎて泣きそう
2022/11/25(金) 01:52:04.57ID:d5So+DHG0
まあ宇宙開発とかでもロケット打ち上げ失敗とかしながら発展してるんだし
あれこれ分析して次に活かしてくれるでしょ
2022/11/25(金) 01:56:34.89ID:Iph0KQo3a
WebUIってネガティブもトークン数えられてるのか?
プロンプト入力欄の右側に数字が出てあって
ポジティブの方になんらかプロンプト書いてる時はどんどん数字が増加していくけどネガティブ書いてる時には動かないのが俺の環境なんだけど
hentai diffusionのドキュメント見てたら例のクソ長ネガティブしか入力してないのに右側の数字が120とか出てあって
どっちが正しいのやらよく分からん

基本的に77(75)トークン越えてプロンプト書いたら制御しにくくなって結果絵が崩壊し始めるからできればネガティブはカウントされて欲しくないんだが
34名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:57:45.19ID:gDYQOMhaM
>>32
コンプラ超えてこれだと次はもうブレイクスルーを待つしかない気がしてきた
35名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 01:59:26.25ID:gDYQOMhaM
いやこの考えを捨てよう…俺の中のネガティブプロンプトだ
2022/11/25(金) 02:03:57.51ID:71F/gUw10
結局の所強力なタグ付けとデータ量を持つ📦が最強って事でおk?
2022/11/25(金) 02:06:33.81ID:Iph0KQo3a
teddy bear sexが1000枚もない雑魚サイトがイキってんじゃねえぞ
teddy bear sexをよこせ
2022/11/25(金) 05:47:35.21ID:knKsz8Lv0
>>33
まぁ設定次第だけど、旧プロンプト解釈使用のチェック入れてれば75制限はワーニング出して特殊な処理になる
75超えて崩壊なんて言ったら中華元素法典のクソ長ネガティブ入れたら全部崩壊してるはずだろう
2022/11/25(金) 06:38:44.28ID:5FhaZ6LUa
普通に考えればポジネガそれぞれ75ずつじゃないの?
2022/11/25(金) 06:50:19.24ID:DS4ZlBZf0
エロはある程度画力ある絵orまとまった構図の良質なデータセットなのに
それを全部切り捨てたらこうなるという例だった
やっぱり、エロは正義
2022/11/25(金) 06:51:27.98ID:hv5tOAtqr
これから始めようとおもうのですが、過去の1.5を使うことって出来ますか?最新の2しか利用出来ないんでしょうか
2022/11/25(金) 07:08:45.43ID:VUQwVeCk0
今って前の環境のwifeがないくらいの状態ってこと?
ハードは進化してるだろうけど使うソフトがまだ整ってないから上手くいかない的な
2022/11/25(金) 07:15:07.64ID:Mw9+6wL00
グレッグさんが無効な上に激遅いな

cyber punk city landscape
https://i.imgur.com/lfuCl3p.jpg

ちょっと笑ってしまった
昔の画家の名前はまだ有効みたいだが
2022/11/25(金) 07:25:25.28ID:CkexK3cS0
>>43
cyberpunk1990ぐらいな感じで笑う
2022/11/25(金) 07:47:23.93ID:xHzY9mff0
>>41
ようこそようこそ1.5はここから落とせますよ(Filesのタブ)
https://huggingface.co/runwayml/stable-diffusion-v1-5
2022/11/25(金) 07:50:01.84ID:KVz2Wsf10
2.0はまだ学習1週目とかそういうのではなくて?
2022/11/25(金) 07:53:52.45ID:esLO5MY70
>>46
SD1.4+追加学習=>novelAI
だったことを考えると、まだ追加学習された例は出て来ていないみたいね
2022/11/25(金) 07:58:02.60ID:PfnRH0Oq0
そもそもクリーンAIとしてはadobeの方が使われるだろうしなぁ
SD死んだか? 派生は作られ続けるだろうけど
2022/11/25(金) 07:58:44.61ID:wg+DlTAla
これからは追加のデータセットを有料販売していくのが一般的な形になりそう
無料デフォルトでは低品質のものしか出せず、アーティストの許諾付きの奴やR18は各支援サイトで数千円払えって感じで
2022/11/25(金) 08:04:07.89ID:DS4ZlBZf0
>>41
イラスト特化とか、エロ特化とか色々あるから
素SDで色々試したら用途に合わせたモデル探すといい
その次はDBとTIだ
2022/11/25(金) 08:38:18.32ID:esLO5MY70
SD2.0ベースの二次元特化サービスで第二のnovelAIを狙っているとこ出てくるかもね
2022/11/25(金) 09:08:01.81ID:x9mKQI2k0
TwitterとかでEmadが投稿してたみたいなリアルな山の俯瞰視点の画像みたいなの出せないの?
2022/11/25(金) 09:15:12.93ID:BfX9X+hs0
CLIP部とUNet部とVAE部で各部だけ単独でGPUに載るようコードにmodl.to(device)追記して切り替えまくったら8GB VRAMでも動いたよSDV2
そのうちAUTOMATIC氏が対応するだろうけど悩んでいる人居るかもだから一応
54名無しさん@お腹いっぱい。 (ブーイモ MM3e-TUdg)
垢版 |
2022/11/25(金) 09:25:46.52ID:bMb48ghQM
ckpt に直接dreamboothかけて学習させたいが、そんなことって出来る?
2022/11/25(金) 09:27:12.57ID:t04qozL20
直接は無理
必要な変換についての情報は過去スレにあったと思う
2022/11/25(金) 09:41:09.12ID:IXPAWFhi0
ダーティなことしなきゃまともな画像は生成できないってはっきりしちゃったのはなぁ
結局NAIみたいな路線しかないってことか?
2022/11/25(金) 09:44:30.13ID:Mw9+6wL00
2.0で一枚だけ山出せたけど、プロンプト追加してくと変なノイズになっちゃうな。それも何連続も、プロンプト最初に戻してもおかしいまま
ちょっと今のままだと使えないな
https://i.imgur.com/q2Or6ET.jpg
2022/11/25(金) 09:57:59.58ID:0ojjgr/uM
nijiが大幅な正当進化を遂げたのにSDは酷えな
2022/11/25(金) 10:01:46.20ID:5FhaZ6LUa
AI画像ってのはあらゆる画像を生み出せることに意味があるんだ
指が5本の人間のイラストでいいなら人間が描けばいい
4本や350本の指がある生物を描いたりする人間には出来ない発想こそAIの真髄なんだよ?
2022/11/25(金) 10:19:27.84ID:x9mKQI2k0
お前が4本指350本指というものを思いつく時点で割と人間に思いつきうるものなんじゃない
あえてやらないだけで
2022/11/25(金) 10:25:06.20ID:x9mKQI2k0
俺は超優秀なアシスタントを手に入れた気分だわ
資料集めにインスピレーションになんかきっかけになりうるアイデア出しなど時間がかかってやる気出ないことをひたすら押し付けている
それも非常に素早く気に入ったもののバリエーションも満足するまで出してくれる
ブレスト的に必要な物量がある程度の品質を保って高速で用意してくれてそれを人が利用するのが自分なりの真髄だと思うわ
2022/11/25(金) 10:42:39.67ID:eVcxuPJO0
>>61
人は頑張って上手にかけるけど背景はだるくて仕方ないと言ってた知り合いがウキウキで背景やらせとるからハイブリッド絵師増えそうやな
2022/11/25(金) 10:46:41.49ID:XBMrIrUna
履歴書が超優秀だったからアシスタント採用したら失敗した感じよ
ちょっと前までいたイチゴちゃんが経歴のわりに優秀だっただけに残念感が強い
2022/11/25(金) 10:52:47.32ID:YkGcU6U10
SD日和ったなぁ
もっとグレーゾーンを突っ走って欲しかった
今やMJのほうがグレーだな
2022/11/25(金) 11:06:51.22ID:KVz2Wsf10
Emad氏のツイートだとまとも?な西洋画出てるし実行環境か制御の問題かしらね
2022/11/25(金) 11:11:12.93ID:Mw9+6wL00
昔の画家の絵画は出る 現代の作家と写真系が凄く弱くなった気がする
2022/11/25(金) 11:13:19.66ID:OX7vSCh20
それはモデルの問題ってことなのかな
それならNAIみたいなのが出てきたら解決されそうだけど
2022/11/25(金) 11:15:33.23ID:Yjbt1F/d0
https://twitter.com/hardmaru/status/1595808324066463747

こんなんで誰か飛びつくんか
https://twitter.com/5chan_nel (5ch newer account)
2022/11/25(金) 11:35:09.91ID:FhreTr9C0
MJはほとんど叩かれてないのを見ると
結局クローズドでコソコソやってた方が楽だし得なんだろうなと思う
バカ正直にオープンでやる方が損するし停滞するという
少なくとも今はまだ人類はAI研究の意味と意義を理解できる段階にはないからな
70名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 11:43:29.14ID:PDVpzmKBa
へんに他企業がリリースする画像生成AIで倫理観の整理がされてしまう前にエグいのをオープンソースで出してしまってほしいが
コンプラで相当な時間割いてたからもう無理なんだろか
ポリコレ棒とかで叩かれまくってんだろか
2022/11/25(金) 11:52:18.91ID:5FhaZ6LUa
なんだ、技術スレとか言いつつ自分でソースコードもいじれない無産だらけだったのか
結局AIが産まれようとどうしようと有能と無能の格差は永遠に埋まらないんだな
2022/11/25(金) 11:55:26.21ID:XBMrIrUna
今頃気づいたのか。ここはインストール方法スレだからな
73名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 11:56:51.49ID:PDVpzmKBa
まず>>1やスレタイを見たほうがいいと思う
2022/11/25(金) 11:57:11.34ID:ka9Z7O1A0
>>68
こういうキャプテンフューチャーとかレンズマンみたいなSFアニメ最近見てないわ。
2022/11/25(金) 11:59:08.53ID:Mw9+6wL00
技術スレなんだから俺はソースコード描きなおして改善した、という報告するならいいんじゃないかな
変な煽り入れるよりは
2022/11/25(金) 12:04:34.08ID:FhreTr9C0
そもそもデータセットの問題にソースコードもなにもないという
2022/11/25(金) 12:04:46.85ID:5FhaZ6LUa
オープンソースのプログラムは「フォーク」といって別のプロジェクトに分岐することができる
SD2.0があまり良くないならネットで呼びかけて人を集めてsd1.5を改造し直してnew SD2.0を作ることもできる
別に一人で作る必要はないしトップがプログラミングを出来ないやつでもいい
人を集めてプロジェクトをまとめればいいんだ
2022/11/25(金) 12:10:47.99ID:OV0DPOgd0
>>77
だったら自分でやりなさいよ口だけの無産くん
2022/11/25(金) 12:25:15.04ID:VUQwVeCk0
>>77
よし!まかせた!
2022/11/25(金) 12:29:16.93ID:CZmbQDUN0
>>77
プログラミング初心者だけど参加できますか?
2022/11/25(金) 12:31:41.64ID:UkQwvCre0
emadの話が出てるが、抜けた学習は野良頼みということらしいな
https://www.reddit.com/r/StableDiffusion/comments/z3r5c7/i_have_compiled_emads_talk_about_20_in_the_last/
2022/11/25(金) 12:32:47.87ID:PfnRH0Oq0
定期的に人が増えてしょうもない荒れ方するよなこのスレ
二日くらい放置しとくと戻ってる
83名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 12:33:08.04ID:MEOSg7ZYa
責任はとらん!お前たちが好きに作れ!ということか
結局そこは変わらんのかw
84名無しさん@お腹いっぱい。 (アウアウアー Sa9e-PkD4)
垢版 |
2022/11/25(金) 12:33:55.67ID:MEOSg7ZYa
今日はnewSD2.0開発の創始者がお出ましだ
2022/11/25(金) 12:38:24.84ID:YkGcU6U10
>>82
ID:5FhaZ6LUaが一人で煽ってるだけだよ
スルーすれば済む話さ
2022/11/25(金) 12:46:53.42ID:PAOpMr+8r
ツールに対する細かい社会的な都合とかを無視したら、
「なんかいきなり退化してんなぁ……」としか思えんな
あまりにもクオリティの下がり方が残念過ぎる……
2022/11/25(金) 12:54:00.01ID:KVz2Wsf10
すぺっこてきにはローカルきついだろうか
2022/11/25(金) 13:07:06.25ID:yuW6LOrTd
こんなに超短時間で良くなってるのに物足りないと批判されるってヤバいと思う
まあこの人類の際限ない欲求を越えたときがシンギュラリティなんだろうな
2022/11/25(金) 13:13:34.04ID:YkGcU6U10
>>88
そりゃいきなり将来性がなくなったからな
技術だけバラ撒いてあとはローカルコミュニティに丸投げっぽいし
2022/11/25(金) 13:14:35.47ID:W5Qr3cl80
>>87
今のところ768x768は12GBで動くけど、それより下はメモリ配置やらなにやらやればできるかもって感じで書かれてるな(DBやNH等の拡張分は除く)
単純計算でもメモリは描画時のVRAM占有は2.25倍必要になるわな
とはいえ、SD1.4登場からのヶ月分のメモリ節約はそれなりに反映されてるから、SD1.4/1.5世代ほど余地は少ないとも言われている
2022/11/25(金) 13:41:12.84ID:ZDlHw3Chd
>>81
好意的に解釈するならどうせお前ら好きに派生モデル作れるようになったんだから公式は万が一にも潰されないように身綺麗にしとくわってことかね
2022/11/25(金) 13:42:24.03ID:lggB0l8h0
SD2.0は自分で使っていないのに判断は下せないかなと。
デモページ重すぎるのでローカルで使えるようになるの待ち
2022/11/25(金) 13:52:29.24ID:OX7vSCh20
まだ何も触れてないので触ってから
2022/11/25(金) 13:54:37.29ID:XBMrIrUna
昨日からローカルで使えるよ
ローカル=1111って意味なら使えないけど
2022/11/25(金) 14:40:51.99ID:ubNDQNx20
隙間見て
a beautiful slavic vouge model girl
をデモページにかけた感じは密度上がって品質上がったように見えた

https://i.imgur.com/shBbFPI.png
2022/11/25(金) 15:04:54.29ID:3S9UFjkn0
試してみたけど、たしかに高解像度でも崩れにくいし景色とかはとても綺麗だ
人物も中々良い
エロ目的だと云々はこれベースのエロモデルまてばいいんじゃねーのとしか
ただ、diffusers で使おうとしてもところどころバギーで直すのめんどくせぇ
2022/11/25(金) 15:20:12.42ID:Mw9+6wL00
なるほど高解像度のほうがきれいになってるね 512x2でやってたのがダメだったのか?
2022/11/25(金) 15:23:05.28ID:PfnRH0Oq0
>>88
イラスト生成目的だとSD無印使う機会ないから良くも悪くもあんまりなにも
「超短期間で良くなってる」はMJとNAIと派生に対して思うことが多いな、ベースがSDなのは理解してるけど
なので性能というより「公開してること」が一番の強みのままかなぁと
2022/11/25(金) 15:27:54.98ID:4+DheOfdM
MJはSDベースちゃうだろ
2022/11/25(金) 16:04:51.64ID:KVz2Wsf10
>>90
厳しそうだにゃー
2022/11/25(金) 16:05:26.14ID:KVz2Wsf10
MJは1部SD技術取り込んだとか何とか
2022/11/25(金) 16:21:26.79ID:jp2E0qmt0
>>90
なるほどね
1,2年後には1024x1024をデフォにしたモデルが出てくるだろうから
そのときは18GBか24GBのGPUに買い替えないとあかんのだろな。金がかかる趣味だ
103名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 16:26:00.06ID:04vPy7BcM
>>95
ドアップ正面顔はほんとAI強いぜ
2022/11/25(金) 16:26:14.73ID:XBMrIrUna
文字が出るようになってるな。日本語プロンプトもいける

a beautiful slavic vouge model girl
a beautiful japanese vouge model girl
photo of landscape, mt.fuji, sunset, cinematic lighting, beautiful sky
photo of night view of tokyo, bird eye angle
photo of a beautiful girl eating ramen with chopsticks
photo of a biohazard mark
photo of Stop traffic sign
photo of clock
photo of calender
photo of credit card
photo of 京都
photo of おっぱい

画像多いからまとめてうpした。imgurがちゃんと?18禁扱いしてて笑う
https://imgur.com/a/Htrx37I
2022/11/25(金) 16:28:26.07ID:VUQwVeCk0
ラーメンは食えないのかなるほど
106名無しさん@お腹いっぱい。 (アウアウクー MM1f-PkD4)
垢版 |
2022/11/25(金) 16:30:48.53ID:04vPy7BcM
>>104
なんか夢でみる景色みたいで怖いw
2022/11/25(金) 17:06:38.91ID:ka9Z7O1A0
都市伝説で異次元に行くと文字が変とか言う、それっぽい。
2022/11/25(金) 17:29:40.76ID:7tnQfzOy0
>>104
ラーメンみんなたのしそうw
2022/11/25(金) 17:30:33.43ID:PfnRH0Oq0
>>104
台湾の雰囲気に似てるし、フォントやデザイン的にも中国の画像学習してる印象
2022/11/25(金) 18:45:37.21ID:abL0COika
日本人だって中央アフリカと南アフリカの違いはわかんないでしょう?
それと同じ
2022/11/25(金) 18:48:38.05ID:Mw9+6wL00
意味不明な文字が出るのは前からだね
マガジンカバーとかで偽の雑誌の表紙を出してくれるw
2022/11/25(金) 19:08:04.38ID:jp2E0qmt0
前よりは文字らしきものが文字になってるな
カレンダーとか以前からは考えられないほど原形をとどめてる
2022/11/25(金) 19:26:49.22ID:xHzY9mff0
SD2.0のcolab notebookが出てきてるな
あとで試そう
2022/11/25(金) 21:46:53.02ID:5ge4ROFf0
異世界文字みたいなの作れて楽しいっちゃ楽しいけど
2022/11/25(金) 21:56:11.50ID:VUQwVeCk0
わしゃわしゃしてみた結果、写真的なのと奥行きは強そう
モデルが違うだけと言われたらそのような気もする
2022/11/25(金) 22:39:58.01ID:yUiW93fZa
初です
一応1.5でステイでいい感じですか?
2022/11/25(金) 22:50:12.41ID:x9mKQI2k0
NovelAI系が目的ならステイどころか一生気にする必要ないよ
2022/11/25(金) 23:41:01.51ID:Mw9+6wL00
今後派生モデルが出れば状況は変わるかもしれん
2022/11/25(金) 23:43:38.90ID:lcMrx8UN0
先にNvidiaが発表したeDiffiが文字を正確に表記出来る事を考えると
やや周回遅れな感じはする
120名無しさん@お腹いっぱい。 (ワッチョイ ff7c-VDzr)
垢版 |
2022/11/26(土) 00:28:03.38ID:VhK3Usta0
延期を繰り返すのはだいたいクソゲーってのはどこの世界も一緒なのな。はー、最初の威勢もなくなったし残念だわ。
2022/11/26(土) 01:36:22.18ID:b5mR0NSx0
SDの規模と資金力と技術でもクリーンな学習するとこうなるってことは
MJとNJはどんだけダーティな学習の仕方してんだろうって思ってしまった
絶対表に出せない手法使ってるんだろうな論文すら一切出さんし
2022/11/26(土) 01:42:50.08ID:Qpwq6fDy0
SD2.0+eDiff+nsfw+masterpiece+style+最低でもダンボールタグの表現力(細部指定)が欲しいわけで…
ポリコレ抜きでも金出してるところがエログロペドダメだっていえばそれまでだしな
Midjorneyの高画質版でしかないわな。コンセプトアートもCGアートの受賞した奴からちょっと詳細になった程度だし
宇宙服やストームトルーパー出せますっていうだけじゃ…実写や人の手でいいのでは?っていう突っ込みも増える
(イギリスで黒人が幼女レイプしてる画像ポンポン出せる奴が許容はされないわな)
123名無しさん@お腹いっぱい。 (ワッチョイ 97ad-zuBb)
垢版 |
2022/11/26(土) 01:48:31.82ID:YGmN3o9k0
Checkpoint /content/drive/MyDrive/model3.ckpt has both EMA and non-EMA weights.
In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag.

--extract_emaのフラグ君はどこに書き込めばいいの...?
2022/11/26(土) 03:16:15.88ID:XefD7PQP0
>>123
起動時の引数だよ。って言うか別に必須ではないでしょ
書いてある通りemaじゃない値でいいならそのまま、emaの値使いたいなら引数付ける、って話かと
2022/11/26(土) 05:52:51.74ID:IJwdfF6WM
え なんか改悪あったの
一ヶ月ぶりに契約しようかとおもったんだが
2022/11/26(土) 07:05:55.00ID:V04Qfv450
NovelAIの話じゃないよStablediffusion の話だよ
必要スペックが上がって画家名やエロが出なくなったよ
2022/11/26(土) 07:07:46.55ID:R6Cn4ETb0
まだβだが今後二次元で契約ならNJ一択だな
2022/11/26(土) 07:11:23.44ID:IJwdfF6WM
>>126
NOBELAIはこれまで通り?
2022/11/26(土) 07:12:48.76ID:KYzZakfe0
>>128
そのぐらいログ辿れw
これまで通り
2022/11/26(土) 07:15:33.14ID:IJwdfF6WM
>>129
ありだとん😯
2022/11/26(土) 07:16:17.61ID:IJwdfF6WM
つーかもしかしていつか規制で学習元が規制されてまとまじゃなくなる可能性もびらぞう
2022/11/26(土) 07:31:08.60ID:Rhp7Jwyc0
NJはエロ出ないぞ
2022/11/26(土) 07:39:57.86ID:R6Cn4ETb0
自己発電用のつもりが無かったんでなw
絵描きとしてはNJは興味ある
2022/11/26(土) 07:57:37.76ID:1PfBGUt00
anynai見てるからかnjのクオリティすげー低く見えるんだけど一般的にはそうでもないのかな
渋ランカーとお絵描きスレくらいの違い
2022/11/26(土) 08:45:04.75ID:R6Cn4ETb0
ハンコ顔がカッチリ出るのは絵描きからするとあまり。いつも同じ絵じゃんって思っちゃう
2022/11/26(土) 08:45:48.62ID:T/TvP4vIa
使い手の問題が9.5割だと思うよそういうの
2022/11/26(土) 08:46:23.74ID:T/TvP4vIa
考えて数百トークン詰め込んで同じ絵じゃんとはならんと思う
2022/11/26(土) 08:48:07.00ID:T/TvP4vIa
あでもNJは適当に入れてもいい感じになるね
それもそこそこバラつくし
2022/11/26(土) 09:16:16.73ID:R6Cn4ETb0
あとそう、NJは試してないから知らんけどプロンプトで突然絵柄が変わったり謎の解釈されるのが嫌なんだよね
2022/11/26(土) 09:19:41.47ID:T/TvP4vIa
指定しないからだと思う
謎の解釈じゃなくて指示してないんじゃない
2022/11/26(土) 09:21:23.88ID:T/TvP4vIa
なんUのスレとかpart20の方のスレで相談乗ってもらってくるといいよ
2022/11/26(土) 09:26:56.38ID:R6Cn4ETb0
こっちはSD系だけど死ぬほど試して自分で呪文の傾向のメモも作ってるw
そのうえで言ってんのよw NAIは知らん
2022/11/26(土) 09:31:49.09ID:T/TvP4vIa
そう
2022/11/26(土) 09:42:52.90ID:mW1WB0nO0
2.0は深度管理ができるようになったんじゃなかったか
絵を立体的にとらえることができたり
生成のStep数が少なくてすむようになったり
スペックが必要なのは768とか1024に対応する時だけで
512のままならそんなに変わらないとか何とか
2022/11/26(土) 09:44:04.31ID:KYzZakfe0
絵描きでもプロンプターでもいいけど未来予想で短文連レスされると意味ある検証が流れるからできればやめてくれ
やったことの話だけしよ
2022/11/26(土) 09:49:04.20ID:T/TvP4vIa
すまん
ストレートに言うと使ってるならプロンプトと使ったモデルの詳細くらい言って欲しかった
終わり
2022/11/26(土) 09:52:40.38ID:mW1WB0nO0
有名人・アーティストは学習時点でプロンプトとの関連を無くしたから
指定して作るのは難しくなっている
NSFW関連は学習元から除外されているが出せないわけではない
デッサンが狂いやすいとか顔や手がおかしくなりやすいと言われているが詳細は不明
1.5の時点でもそんなに綺麗じゃなかったし
2022/11/26(土) 09:57:40.49ID:rYd0ukah0
要するにハードが新しくなったからやれることやグラフィックはよくなったよ
それに合わせたソフト作ってもらえれば前以上のことできるよ
今はデフォルトのソフトしか動いてないからnsfwは出しにくいよってこと?
2022/11/26(土) 10:43:20.43ID:QuLKyRjd0
SD2はDreamBoothがすごいらしい?
2022/11/26(土) 10:53:07.27ID:YcG4cSZp0
SD2.0 はよ1111に対応してくれ
2.0以前に更新途絶えているが・・・
2022/11/26(土) 10:54:15.09ID:4jWxG659M
>>134
エロはできんけどしっかりプロンプト組めばクオリティ高いのできるぞ
ただクオリティ系盛るとすぐ3次寄りになるから調整が難しい
https://i.imgur.com/mQN8u7V.jpg
https://i.imgur.com/45nXNKa.jpg
2022/11/26(土) 11:10:22.07ID:R6Cn4ETb0
セルアニメ風はそんなによくない。イラスト風はかなりよく見えるけどね
2022/11/26(土) 11:23:52.81ID:WhRdBgni0
>>151
こんなのできるのか
すげえな
2022/11/26(土) 11:35:23.97ID:RGeUewKUp
アニメ絵みたいな省略された絵の深度はちゃんと判定できるのだろうか
2022/11/26(土) 11:43:17.46ID:rNrAfQMQ0
SD2.0ってckptのやつ?
2.0のckptがあれば動くって訳じゃないの?
2022/11/26(土) 11:44:18.77ID:TOAdoueld
>>151
これはヤバいな
2022/11/26(土) 11:45:30.41ID:GUvMvocX0
https://gigazine.net/news/20221125-stable-diffusion-2-instant/
gigazineの記事を見ると「SD2.0はまだ微妙だけど、同じ条件だとSD1.4はもっと下」っていう印象だな
そう考えると、模索すべきはSD2のポテンシャルを発揮できるプロンプトの傾向なのか?
2022/11/26(土) 12:06:34.49ID:/n3rrBKPd
実行環境とスペックもありそう
2022/11/26(土) 12:22:54.82ID:WpM/m0cma
>>155
それ単なる汎用の拡張子だから翻訳でも音声合成でも何のAIにでも使われてる
2022/11/26(土) 13:13:48.88ID:Weft+u9r0
>>157
SD2.0を3Dで出すと完全に不気味の谷に落ちて行ってるよな…
SD1.4でbeautifulやkawaiiっていうのが重宝されたことを考えると需要と供給が乖離して言ってる
SD2.0つえええのただの切り取りで、出たばかりでサンプルプロンプトが屑だっていうだけかもしれんが
2022/11/26(土) 13:33:00.04ID:mW1WB0nO0
需要って最初から研究開発用途だぞ
開発者でもないしライト層でもない人は
そもそも1.4とか1.5使わずにwaifuやnai使うか自分で学習させる
162名無しさん@お腹いっぱい。 (ワッチョイ 1768-9ylf)
垢版 |
2022/11/26(土) 13:45:37.63ID:4ZdFQj+y0
colabだけどSDwebuiバージョンアップしたらなんか不安定になった
2022/11/26(土) 13:52:45.96ID:GkU8+jxY0
DBの拡張版がhuggingfaceから持ってこれるからSDv2のチューニングができるかと思ったが甘かったか
2022/11/26(土) 14:00:15.08ID:r96gNY670
>>151
NAI単体じゃ無理だけどマージなら同じぐらいのクオリティはいけそうだな
2022/11/26(土) 15:02:49.65ID:1PfBGUt00
>>151
すまん舐めてたすごいやん
2022/11/26(土) 18:17:52.13ID:V04Qfv450
剣とか銃が直線なのはいいね
2022/11/26(土) 19:16:09.77ID:AiPdg1sc0
>>151
ラーメンと箸はどうなりました?
2022/11/26(土) 19:50:46.86ID:+2NCVA0+0
あえて突っ込み入れるなら刃の方
握ってどうするんだと
2022/11/26(土) 20:05:16.31ID:lKHYf85H0
SD2.0、Lexicaにある奴の同じプロンプトを入れても全然再現できないな
アート系はもうファインチューニングに期待するしかないのか
2022/11/26(土) 20:08:03.26ID:S1El0hrJ0
1.4, 1.5のいい感じのを2.0でi2iしたらどんな感じになるんね?
2022/11/26(土) 20:08:20.83ID:sFOih2XjM
銃もどう握ってるんだってレベル
2022/11/26(土) 20:11:48.78ID:XefD7PQP0
>>169
テキストエンコーダ変更したんだからプロンプト探索は一からやり直しじゃないの?
2022/11/26(土) 20:45:23.08ID:Csw2TEtv0
俺は1.5と心中するぞ
2022/11/26(土) 21:41:33.78ID:yPlzUTn10
テキストエンコーダが変わって、具体的に以前のプロンプトがどう通らなくなってるのかなあ
なんとか意図どおり引っ張ろうとしてゴテゴテ言葉足すとかえって良くないとか、そういうことなのか?
2022/11/26(土) 22:17:37.11ID:QuLKyRjd0
DBのテキストエンコーダってなんなのかイマイチ分からんのだけど、
とりあえず使えば学習精度が上がるって認識でいいのかな
2022/11/26(土) 22:19:00.21ID:OoLkevtia
単語の表現範囲が狭いというか生成される画像にばらつきが少ないんだよな
1.5だとプロンプトがだめでもたまに当たりがでるけど、2だとハズレしか出ない

photo of a clockだとアラビア数字の時計だけ
full body of a girlだと首から下の画像だけ
head and body of a girlでも全身でないし生成画像が偏りまくってる(ちなみにこのプロンプトだと乳首普通に出る。ただし(以下略
2022/11/26(土) 22:39:23.07ID:XefD7PQP0
>>175
CLIP学習させると埋め込む単語が1トークンになるとかどっかで見たような…
ただCLIPを固定して学習したのがSDだからCLIP弄るとその他すべての表現にも
影響が出てしまうんじゃないかな。あとはそれを許容する程度の問題?
2022/11/26(土) 22:41:17.44ID:mW1WB0nO0
full bodyには「豊満」って意味があるからだぞ
1.5で試してみたけど太めの女性の全身が出る(男性は出ない)
whole bodyだと正面と背面の二面図が出る
あと顔が画面から外れるのはスケールが強すぎる場合もある
179名無しさん@お腹いっぱい。 (ワッチョイ 775f-Z2Iz)
垢版 |
2022/11/26(土) 22:46:25.02ID:DnfntcA/0
AUTOMATIC1111版が2.0に対応
2022/11/26(土) 22:49:25.18ID:kTixK/tG0
やっぱり更新止まってたのは2.0への対応だったのか
2022/11/26(土) 22:53:20.84ID:OoLkevtia
単語にはたくさんの意味があるけど、そのことを理解してくれてないってことかな
時計にはローマ数字もアラビア数字も日時計あるんだから様々なのを出してもらいたいけど出てこない
full bodyも色々な意味があるならその色々な意味で出してもらいたいけど出てこない

これ要するに今後プロンプトがよほど細かく解析されない限り、求める画像を出すのが難しいってことになる
2022/11/26(土) 23:11:00.05ID:i5uL/PBDM
CLIPスコアの上昇は解釈の幅が狭くなる事と同義なのかもしれん
2022/11/26(土) 23:15:47.55ID:mW1WB0nO0
waifuやnaiで使われてるbooruタグは素の1.5とか2.0では通用しないとか
full bodyよりもfull body shotの方がいいかも?とか
3 birdsよりもthree birdsの方が正確に三羽の鳥を描くとか
プロンプトを強調しようとしてスケールを上げると一部が強調されて全体的には遠ざかるとか
試してみないとわからないことだらけだよ
2022/11/26(土) 23:23:31.73ID:3Pplq9kj0
NAIは単語を適当に並べるだけでいいけどSD2は自然言語的に書く必要があるってことかな
英語苦手な自分にはつれぇわ……
2022/11/26(土) 23:34:52.25ID:mW1WB0nO0
自然言語的にする必要はないと思うよ
that構文はちょっとだけ理解してるっぽいけど大体無視されるし
受け身も理解してくれないのが多いし
andやonやinを増やしすぎても理解してくれないし
ただ通用するプロンプトが違うだけだと思う
2022/11/26(土) 23:51:43.60ID:s+X1WYIF0
1111が2.0に対応
2022/11/26(土) 23:59:13.31ID:QuLKyRjd0
なんかcolabが上手く動かんと思ったが、その辺のゴタゴタまわりで
DL先の仕様が変わってたりすんのかな
2022/11/27(日) 00:05:24.98ID:XlLG4cbw0
1111SD2きたんかー
とはいえ、エロ非対応とNJショックでなんか盛り上がらんな
2022/11/27(日) 00:09:51.41ID:GMOS9aMH0
SD2ベースのWaifuやAnyが来てからが本番や
今は時計の針が8月下旬まで戻った状態
2022/11/27(日) 00:26:10.22ID:p1b+189rM
anythingはNAIのリークが元だから
SD2ベースにはならんでしょ
2022/11/27(日) 00:45:01.60ID:jpaQEC+V0
しばらく2.0が盛り上がることはなさそうだな
NijiはNijiで制限も多いし
大人しく1.5で適当に遊んでるわ
2022/11/27(日) 02:10:39.72ID:b+QXoyFd0
今更SD1.xベースのWDがきてもマージの餌にしかならんからSD2ベースの世界を見せて欲しいなぁ
2022/11/27(日) 03:02:10.34ID:rh7xunej0
面白くなってきたぁあ
2022/11/27(日) 03:06:14.22ID:GMOS9aMH0
2023年はヤバい年になりそう
2022/11/27(日) 05:00:35.72ID:sTFdBSBM0
>>192
そこだよなぁ。一部期待している人も多いようだが…
NAIやAnythingと全く違った方向にはなりにくいだろうし、WD1.3だって1.2よりはましって判断してたわけだろ?
世界的に1.3のepoc小出しでどんどん悪くなるのが止められないモデル生成者扱いだ
学習終ったらまともになるって思いこんでる人もいたが結局そのままで
NAIリークで存在意義もかなり薄れてマージ素材になってしまった感じがな
WD1.4だしてSD2.0でまた学習するんかな…頑張ってほしいけどまた3ヶ月4か月後となると周回遅れ感が
2022/11/27(日) 06:22:26.38ID:GMOS9aMH0
中華ニキの技術力と組織力に期待だな
moe-ttsで感心したがオンラインで千人規模のチームワークができる民族は他におらんやろ
2022/11/27(日) 08:25:32.21ID:TXC64gVZp
VRAM4GB環境使ってA1111でSD2やろうとしたけど
やっぱりうまく読み込めないんだね
最適化こないかな
2022/11/27(日) 09:31:38.42ID:6nt7B6Mq0
SD2.0はDB向きらしい
2022/11/27(日) 09:34:39.66ID:EsmoIULn0
自作ラノベをKindleで自己出版するつもりだけど
挿絵のイラストをAnythingにするのはライセンス関連で問題でるかな?
綺麗な挿絵欲しいけどライセンス問題は起こしたくない
2022/11/27(日) 09:42:14.69ID:teYA6uydM
完全に自己責任
2022/11/27(日) 09:57:54.69ID:orUcG1mA0
AI使ってますって明記すれば問題ないでしょ
中身のデータがどうなってるかユーザーは確かめようがないんだし
2022/11/27(日) 10:10:07.49ID:g6uqr4e5a
そういやこのスレの前スレあたりで誰かが開発してた圧縮言語だか圧縮プロンプトだかのwebuiのextension出てたぞ
2022/11/27(日) 10:11:13.81ID:g6uqr4e5a
この人か
https://mevius.5ch.net/test/read.cgi/cg/1667401816/628
2022/11/27(日) 11:13:05.33ID:EsmoIULn0
>>201
まあ確かに調べようが無いね
じゃあやってみようかな
2022/11/27(日) 12:32:00.93ID:hjdaprii0
言語圧縮とか呪文かな
2022/11/27(日) 12:54:44.95ID:bYiqE2oi0
>>199
AIだろうが何だろうが作品として使ったら全部自己責任だよ
ライセンスや規約に書いてある通り、ドラブルはその画像を使用した人に一番の責任がある
5chだって画像リンク貼った人が一番訴えやすいようなもんで
その使う画像を選んだのはあなたなんだから、金とるなら最低限の責任は取ろう
心配になる程度は知識あるんだろうし、誠実に対応すれば画像差し替え程度で済む
文章書くなら差別用語とか問題になる表現のクレーム対処と一緒だよ
207名無しさん@お腹いっぱい。 (ワッチョイ 9fbe-RPwI)
垢版 |
2022/11/27(日) 12:56:29.14ID:L7mwToAm0
>>199
どんどんやれ
2022/11/27(日) 13:01:42.20ID:EsmoIULn0
>>206
そうだな問題起きたら最悪差し替えれば良いか
サンキュー取り敢えずはAIで挑んで見るわ
209名無しさん@お腹いっぱい。 (ワッチョイ 5701-Hcgz)
垢版 |
2022/11/27(日) 13:09:56.29ID:TMuKsB0g0
ここはAI雑談スレということでよろしいか?
210名無しさん@お腹いっぱい。 (ワッチョイ 5701-Hcgz)
垢版 |
2022/11/27(日) 13:11:23.39ID:TMuKsB0g0
オウフw
拙者のIDがHcgでござって草wwwwwww
2022/11/27(日) 13:19:23.79ID:d5mY2fAN0
>>210
しかもz指定か……はよ
2022/11/27(日) 13:21:47.64ID:PvOo7iea0
よくある異世界ものみたいに、俺も訓練すれば無詠唱で発動できるようになるかな?
2022/11/27(日) 13:27:36.99ID:sBTiEE3K0
架空の絵師名で生成して絵柄を統一させるとかいう
強引な方法見て草
架空の絵師名ガチャに成功すれば面白そうかもしれん
2022/11/27(日) 13:33:41.85ID:rh7xunej0
>>199
AIでアイデアを出して自分で加筆修正すればいいだけだろ頑張れ
2022/11/27(日) 13:42:45.75ID:IH4zoEZl0
Ctrl+A……Delete……Generate!≪詠唱破棄≫!Anything無詠唱召喚だッ!
2022/11/27(日) 14:19:40.12ID:zTNDZFMw0
>>202
おーついに来たか
>>213
まぁマージモデル自体一人の絵師みたいなもんだしな
そもそも実在絵師に寄せる必要も元々ないからそうなるわな、プロンプトだけでやるのは限界あるだろうけど
2022/11/27(日) 14:27:24.22ID:mKBJNjp10
TheLastBenのfast-DreamBooth colab、昨日あたりから
NAIモデルのdiffuser化ができなくなってんな
この際だからやり方変えたいけど、今はどこでDBやるのが一般的なんだ?
2022/11/27(日) 14:47:06.55ID:cYQoTEPb0
>>217
古いノートブックでメモリが足りないエラー出なくなるまでガチャすれば動く
2022/11/27(日) 15:05:12.43ID:DPj8XLZK0
AUTOMATIC1111がSD2.0に対応したというのでクリーンインストールしたがモデルに768-v-ema.ckptを指定してもエラーになる

https://fate.5ch.net/test/read.cgi/liveuranus/1669467214/103
によると追加のダウンロードが必要なのだそうだ

----
https://huggingface.co/stabilityai/stable-diffusion-2/
1. "768-v-ema.ckpt"をダウンロードする
2. ↓からyamlファイルをダウンロードして768-v-ema.yaml(モデルと同じファイル名)にする
  https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-inference-v.yaml
3. models/Stable-Diffusion directoryに両方つっこんで最新版Automatic1111 WebUIで読み込む

やで。サンプラーはDDIM、CLIPのレイヤー設定は1がお作法や
----

なんでこんな仕様なのかね?
2022/11/27(日) 15:09:59.13ID:g6uqr4e5a
実は前からckptの他にvae.pt, yamlを同名でそこに置くというオプションはあった
中身みても正直僕にはなんの設定が書かれてあるのか分からなかったけど
SD2.0というモデルがそういう個別対応が必要なくらいには妙なことを行うモデルなんだろう
とはいえyamlひとつでその対応も済むautomatic1111すごい
221名無しさん@お腹いっぱい。 (ワッチョイ 9f8a-LK2I)
垢版 |
2022/11/27(日) 15:22:20.42ID:4r3qwtw+0
洞窟壁画からはや数万年、AIで絵を描く道具を人々は手に入れた。AIもデジタル描画の延長線上なのだが、いずれは手作業のみで自由闊達に描ける絵師の人口は減り、職人として彼らは尊敬されるときが来る
2022/11/27(日) 15:44:47.50ID:mKBJNjp10
>>218
マジかw
Compatibility_Modeが追加された頃くらいまで遡ってみるか
2022/11/27(日) 15:45:49.70ID:rOJ18ATS0
sd2.0でなんかわかりやすく変わったなって感じられるプロンプトってどんなんになるんだろ
2022/11/27(日) 16:15:15.26ID:Za9cT1d60
>>221
みんな車を運転してるのに、一人だけ馬に乗って移動してる変人って扱いじゃない?(笑)
225名無しさん@お腹いっぱい。 (ワッチョイ d705-s0H/)
垢版 |
2022/11/27(日) 16:21:47.16ID:2W161o7q0
アナログのアートには余り影響ないだろうから残るよ
2022/11/27(日) 16:27:55.16ID:d5mY2fAN0
オートバイクとロードバイクとか、マウンテンバイクみたいな
趣味性の高い自転車みたいな感じじゃないかね
2022/11/27(日) 16:37:38.28ID:FzBz8XN30
工業品って、最初は薄くて軽いことを売りにして出るけど、
そのうち滑り止めとか合理的な理由ではなく形を歪にしたり、手作り風の商品が出てくる。
そうなっても、自分で粘土を捏ねて釜で焼いた茶碗で飯が食える人も、数は激減するがちゃんと残る。

でも勘違いしてはいけないのが、その残った人達はプラスチックで茶碗を作っているわけではないということ。
機械生産と機能が同じかそれ以下でも手作りは勝てる、ただし質感まで同じだと勝てない
要するに普通のデジタルイラストではどんなに味があってもAIには勝てない。
「手書き」のデジタルイラストで飯が食える人はせいぜい日本に2,3人、国宝級の人だけになる。
2022/11/27(日) 16:39:34.49ID:C6VMfAQL0
車は自分の足で走ってないとバレるから陸上競技は滅びてないけど
AI絵はバレないから手描きの絵が残るのは無理でしょ
それ以前にこんなにコピーが横行してたら創作自体が無理になっていくだろうし
公式の設定画1枚あればそれを完コピしてどんなエロでもさせられますってなった日にはね
2022/11/27(日) 16:40:06.29ID:Qfz2iaHy0
今いるイラストレーターがトラックに轢かれて未来の日本に転生したら手描き無双するのか
2022/11/27(日) 16:54:27.95ID:d5mY2fAN0
>>229
液晶タブレットとソフトの修正とかレイヤ分けに慣れた連中はなんの役にも立たん
色紙にコピックで描けるようならワンチャン
2022/11/27(日) 17:17:28.17ID:IGgW1igJ0
いつのまにかAUTOMATIC1111でも使えるようになったのね、SD2.0
聞いてた通り高解像度がHighres. fix未使用でも破綻しないのは良いのかな
とはいえ、やっぱマージや追加学習ありきなんだろうねぇ

1.5
https://i.imgur.com/gLsm482.jpg
2.0 ※同プロンプト&シード
https://i.imgur.com/BhRkblK.jpg
232名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 17:50:44.11ID:WBbkAK++M
別に画力あるなら適応も早いよ
2022/11/27(日) 17:51:01.58ID:rh7xunej0
>>227
手描きの原画には今以上にとんでもない価値が出そうだな
234名無しさん@お腹いっぱい。 (ワッチョイ ffcf-9/BM)
垢版 |
2022/11/27(日) 17:51:38.37ID:2CS7/3/d0
AIしか使えない人と、プロレベルで絵が描けてAIや3D使って時短もできる人だと、前者を使う理由がないけどな…
前者で食っていきたくて、値段を下げて対応しようと考えると、追われるように絵を生成するような生活になって結構、大変だと思う
2022/11/27(日) 17:59:05.94ID:IA1IYEje0
その段階だと誰しもが簡単にAIで絵を生成してる時代の話だからAI開発じゃないと食って行けないだろ
というかAI絵onlyで稼ぐなら今だぞ
236名無しさん@お腹いっぱい。 (ワッチョイ ffcf-9/BM)
垢版 |
2022/11/27(日) 18:05:24.92ID:2CS7/3/d0
今でも誰でも簡単にAIで生成できるけどなぁ…
というかAI開発でしか食っていけなくなるとか、AIイラスト業界の先行き暗すぎやな
2022/11/27(日) 18:06:00.19ID:rOJ18ATS0
ディレクション用に最適でしょ
2022/11/27(日) 18:24:19.05ID:EsmoIULn0
スマホカメラかミラーレス一眼カメラかの違いかな?
極めると後者が強いけど素人が使うなら前者が強いね
2022/11/27(日) 18:44:32.89ID:qA9xVaVva
架空の絵師名のついでで書き込んでおくけど意図的にtypoするのもかなり有効
garlとかbouyとか結構画像のイメージが変わる
240名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 18:49:18.86ID:h48SLuJ8M
他の仕事もAIに代替されてくから安心しろ
2022/11/27(日) 18:53:23.88ID:pWqZzeXNM
アニメ製作ならAI大活躍じゃないかな
242名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 18:54:47.33ID:h48SLuJ8M
アニメーター大量削減
2022/11/27(日) 19:01:35.20ID:xNP3UE8z0
アニメはまだ無理なんじゃね?
1枚ものはヤバイと思うけど
2022/11/27(日) 19:03:15.85ID:IySyxX5S0
>>241
学生でも一人でアニメを作れる時代がくるのか
新海誠が量産される感じだな
2022/11/27(日) 19:03:19.14ID:ye5mEl3ZM
日本のアニメ技術を学びたい中国人からしたら
AIは最高のツールじゃないかな
あいつらに著作権って縛りは無いから
とんでもない勢いで成長すると思うよ
2022/11/27(日) 19:22:10.08ID:orUcG1mA0
同じキャラを出してくれないんだから無理や
さっきまで剣を持ってたのにデザインが違ってたら困るやろ
2022/11/27(日) 19:25:09.75ID:rh7xunej0
シード固定のプロンプト変更でなんかうまくいかない?
2022/11/27(日) 19:28:05.59ID:sBTiEE3K0
キャラクターなら相当細かく注文つけとけば同一人物は出やすいけど
服装とか剣とかそういうのがブレまくる感じだわ
2022/11/27(日) 19:29:04.21ID:ecK0LzaC0
そんなもん自分で修正しろよ
2022/11/27(日) 19:29:56.33ID:Qv2VY82S0
>>245
中国と韓国は
AIの能力が十分になったら
人間の絵描きが絶滅しそう
日本は何だかんだで物好きが手描きを続けそうだが
2022/11/27(日) 19:30:12.38ID:+ZnrgX3jM
nijijourneyはアニメ向きな気がする
https://i.imgur.com/etlEaYD.png
https://i.imgur.com/et5fznd.png
https://i.imgur.com/Eiupb3M.png
https://i.imgur.com/UlJGoxg.png


【画像】AI絵師 『nijijourney』 爆誕、最強の画力を見せつける [472567884]
https://hayabusa9.5ch.net/test/read.cgi/news/1669438129/
252名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/27(日) 19:49:35.15ID:vh8WOxb+M
NJはちょっとまんまなんじゃないかってのがポンポン出るからやりすぎコージー感ある
2022/11/27(日) 19:53:53.77ID:d5mY2fAN0
個人的にはWebNAIよりも悪質に見えるんだよなそこ
版権キャラの名前出してなくても勝手に出してくるし
2022/11/27(日) 19:54:42.43ID:euXfjifb0
nijiは一線超えてね?
2022/11/27(日) 19:56:49.47ID:Za9cT1d60
nijiのイラストをネットにあげてドヤってるやつは
さすがに引く・・・
2022/11/27(日) 20:01:52.10ID:f4UhdkKPM
>>246
3DCGを元にアングルを変えるとかで対応できそう
Blender使うスキルの無い人はエロゲ使うとかね
コイカツとかカスタムメイド3D2とかね
2022/11/27(日) 20:01:56.87ID:Cnwq+jfD0
>>246
学習使えない縛りでもあるのかと
2022/11/27(日) 20:31:53.41ID:FzBz8XN30
二次創作なら学習画像が沢山あるからできるだろうがオリジナルだと厳しいわな
2022/11/27(日) 20:45:34.06ID:rOJ18ATS0
nijiすげえなまんまに近いの出してくるじゃん
260名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/27(日) 20:49:54.92ID:v0hzifR+a
版権の取り扱いがヤバイし
多分日本の絵師の学習さらに徹底してる
ダンボールとかよりも広い範囲で学習してそう

いま出せる限界ギリギリの最高性能って感じ
2022/11/27(日) 21:12:03.88ID:ecK0LzaC0
ぽよよんろっくとかも出せる?
2022/11/27(日) 22:23:51.69ID:b+QXoyFd0
nijiはmidjourneyの系譜のせいか呪文のチューニング難しくてな・・・
昔の人(3ヶ月前)はよくあれで美少女とか出してたなと
2022/11/27(日) 23:03:41.65ID:HKnerYqtM
ポージング指定する時にデッサン人形を
写真撮って食わせている人いる?
または自分自身がポーズ撮って
写真撮っているとかある?
2022/11/27(日) 23:25:29.58ID:FzBz8XN30
最近は今まで馬鹿みたいに生産してきた何万枚という構図があるから、それをベースにi2iすることから始める
粗方方向性が決まったら、手足を雑に切り取って移動させてi2iする。

自分も人形とか3Dモデル使えばいいじゃん!と思った瞬間があったけど、
結局は立ち絵出ない限り情景豊な背景が必要だし、
その背景や他のオブジェクトが確定するまでポーズも確定できない
だから案外そういったのは使いにくい
2022/11/27(日) 23:41:38.46ID:nAej2vxf0
すまん、初心者なんだがwiki見てDreamBoothやってるんやけど上手くいかない
https://i.imgur.com/nqmCyf2.png
途中まではうまく進んでるように見えるけど、結局modelsのStable-diffusionフォルダに完成品が出力されないし、1200stepsでやってる学習が1198で止まってる?
これって何が悪いんだろうか
何かわかる人いたら教えてほしい
2022/11/28(月) 00:21:32.28ID:Iixxi+730
スクショ貼るなら設定画面の画像も
2022/11/28(月) 00:21:53.45ID:hQJrmCGgM
>>264
なるほど
2022/11/28(月) 04:18:57.57ID:7QHZown40
>>264
俺もアイコラしてi2iすればわりと好きな構図作れるっ教わったから
編集しやすいように立ち絵、背景無し(もしくは単色)で
他は2単語くらいで緩めにして雑生成しようかと思ってる
2022/11/28(月) 05:15:29.19ID:bKRvCP+G0
pink板見て来たらむちゃくちゃ技術的な話していて驚いた
あっちも見てると楽しい
2022/11/28(月) 06:38:07.02ID:F90Y32+kr
そりゃあ向こうは全員が『賢者モード』搭載してるぐらいだろうからな
本人達の性欲も絡んでるし、面構えが違う
2022/11/28(月) 07:27:08.34ID:BNQY6Y3WM
こっちはもはや技術スレと言い難いw
2022/11/28(月) 07:36:59.71ID:wiv0LeSt0
8割は同じ人間が跨いでるだけだから気にするな
2022/11/28(月) 07:44:28.78ID:pYz1AlxSM
ワイも3箇所兼務や
2022/11/28(月) 07:47:50.10ID:Xc0F0LTd0
2.0の話題がまったくないな
2022/11/28(月) 08:28:02.06ID:H5Aafjw80
2.0のwaifuみたいなの来るまでは何も怒らないだろ
2022/11/28(月) 08:52:47.90ID:4Y3Vxqqd0
やっぱエロが原動力なんすねぇ
2022/11/28(月) 08:55:15.47ID:yEuP3CET0
それはそう
2022/11/28(月) 08:55:19.34ID:AFKHWUfId
たぶんSD公式は2.0の配布モデルは実質デモ版みたいなもんとして割り切って突っつかれそうな要素は排除したんだと思う
できることはこれで示すからややこしいことになりそうな実用モデルは誰か作ってってことだろう
責任の分散という意味では正しい
2022/11/28(月) 09:00:36.81ID:LwTGZASZa
Sd2.0はむしろCLIPの変更やらi2iの強化やらがメインで、モデルはおまけみたいなもんじゃないの?腕時計のお試し電池みたいな
2022/11/28(月) 09:05:29.49ID:w70aX2sj0
でも高画質で学習が必要となると対応データセットも簡単には出せないよね
281名無しさん@お腹いっぱい。 (ガックシ 06db-LtF3)
垢版 |
2022/11/28(月) 09:14:08.34ID:zLxFu69A6
>>279
多分1ヶ月もすればチラホラ出てくると思う。
やっぱコード書いてモノとして実現できるやつはすげぇと思うわ。
2022/11/28(月) 09:21:29.82ID:UpWv/+0l0
1.4や1.5で吟味したプロンプトの効き方が変わって、また探し直しになったのがめんどい
ネット上のプロンプトを集めるとかして、よく使われているプロンプトを引き続き使えるように調整してほしかった
(Greg Rutkowskiなどの除外には反対しません)
2022/11/28(月) 09:56:07.51ID:i2/v1T8fM
>>263
たまにやってる
後でカメラロール見て虚しくなってるけど
2022/11/28(月) 10:59:48.53ID:wiv0LeSt0
SD2の学習されてないものは追加学習すればいいんだけど、アウロリペドエログロ差別宗教犯罪関連のいくつかのNGワードがあるとモザイクになる仕様はかなり厄介だとは思う
ただ単に学習されてないワードには反応しないだけなのに
2022/11/28(月) 11:08:47.19ID:yEuP3CET0
また合成ワードでみたいなので回避するしかないんかな
2022/11/28(月) 12:50:41.87ID:Iixxi+730
HNのメジャーアップデートすごいな
ものすごい勢いで過学習起こしてもととほぼ同じのがバンバン出力されるようになった
287名無しさん@お腹いっぱい。 (テテンテンテン MM8f-tmyp)
垢版 |
2022/11/28(月) 13:37:55.57ID:Bai13XLUM
>>286
何それ?
適当に過学習しても最適化されるってこと??
2022/11/28(月) 14:22:21.80ID:xE5Byq7b0
sd2は参照実装みたいなもんやしな
CLIPの進化は期待してるがエロがないとなんとも調べる気が起きん
2022/11/28(月) 15:19:18.36ID:i5GtozBw0
ちょい前話題になったVITSはベースモデルが中国語で訓練されてる影響で訛りあるからしょぼいと思われて沈静化したけど
あれって追加学習のワード数少なすぎるだけで訛りを完全に消して本人とほぼ区別付かないレベルのモデルも配布されてたんだよね
個人が趣味レベルで学習させるだけでそこまでいくから画像生成みたいに企業が動いたら一瞬で人間は攻略される
多分どっかのベンチャーが水面下で研究しててある日突然出てきて声優やV業界が一瞬でひっくり返されると思う…
290名無しさん@お腹いっぱい。 (ガックシ 068f-tmyp)
垢版 |
2022/11/28(月) 15:28:54.61ID:6QspJRQW6
>>286
extensionにあったやつ?
正式実装はされたんだっけ
2022/11/28(月) 16:06:31.83ID:MdlVuRXn0
>>289
特定の声優の声にこだわるわけじゃないなら、既に自然な音声AIは売られてるよ
2022/11/28(月) 16:11:07.38ID:wq+Lt5CC0
>>289
声ってもろ感情が乗るからなあ
同人程度の遊びならともかく実際の声優を食うのはAIが感情理解してからになるな
2022/11/28(月) 16:27:18.58ID:bKRvCP+G0
流石に声優の仕事を奪うことは無いか
2022/11/28(月) 16:32:50.88ID:jcXL7FI/0
majinai.artめっちゃ使いやすいな
https://majinai.art/i/myt3wUk
295名無しさん@お腹いっぱい。 (ワッチョイ 97bd-zuBb)
垢版 |
2022/11/28(月) 16:43:17.93ID:Soj/BDeW0
>>265
経験談であれだが
俺「作り終わったデータは フォルダa に吐き出してね」
AI「その フォルダa とやらが見当たらないんですがそれは・・・」
俺「あっやべ作るの忘れてた」

このあと指定位置に指定フォルダを作って
もっかいやり直ししたらうまくいった。
という例もある。
案外こんな単純ミスもやらかしがちやで。

学習が終わった後にエラーが出るってことは吐き出し関連な気がしないでもないのよな。
2022/11/28(月) 16:53:37.90ID:STHTK8b/0
>>292-293
既存職業を奪うかどうかは技術的にはわりとどうでもいい話だとは思うけど、「感情を乗せる」というのはそれを声優がやるかボカロみたいに調声師がやるかという違いではある
>>291
これが気になるな
「自然な」と言っても大抵調音ノイズ入ってることが多いけど探してみたい
2022/11/28(月) 17:05:42.54ID:i5GtozBw0
感情を指定したり文章から感情を推定したり音声から感情を読み取ったり既に出来るんだよなぁ
過小評価されてた所にある日突然ドカン!という画像と同じパターンになると思ってる
W2V2-VITSモデルで1000ワードも用意してトレーニングすれば既に中堅声優レベルくらいあるからね
流石に既存の音声ソフトとは次元が違う
2022/11/28(月) 17:34:28.12ID:3NCSWQF4M
数年したらAIだけでアニメ作れそう
製作会社としては低コスト化で旨味あるだろうけど
クリエイター守るために規制したら
中国に全部持っていかれて被害拡大しそう
2022/11/28(月) 17:42:55.89ID:wq+Lt5CC0
>>296
感情を乗せるというのは発声っていうアナログだから出来ることであってデジタル調整は人の手では無理

AIもまだ絶対に無理
出来上がるのは○○風だけ
2022/11/28(月) 17:46:20.80ID:w70aX2sj0
まあ石ころの画像でも汗とか血管マークと湯気をつければ感情があるように見える
人間の感覚ってその程度のものだ。
2022/11/28(月) 17:48:00.85ID:STHTK8b/0
>>299
ボカロでも感情乗ってるなぁとよく思う派だからそこは個人の閾値だろうね
技術的な話じゃないのでそれについてここで議論する気はないかな
2022/11/28(月) 18:09:28.42ID:68BuEw36d
感じ方は人それぞれと言うけれど、個人の感想を言い合うだけじゃ話として成立しないと思う
2022/11/28(月) 19:02:25.42ID:xPq6107M0
DreamBoothって正面の絵しか学習できないのかな?
背中を見せて振り向いてる絵とか作ろうとすると、途端に破綻するわ
2022/11/28(月) 20:09:16.44ID:DCsglPOc0
新しいHentai Diffusionが凄いらしいと聞いて試してるけどガチで凄い
ネガティブプロンプトをガッツリ入れるからか
シンプルなプロンプトでいい感じのイラストが生成できる
masterpiece, best quality, 1girl, hatsune miku
https://i.imgur.com/bJjx3TA.png
masterpiece, best quality, 1girl, cyberpunk
https://i.imgur.com/hvRbFA0.png
masterpiece, best quality, 1girl, steampunk
https://i.imgur.com/eUfSFjn.png
masterpiece, best quality, 1girl, fantasy
https://i.imgur.com/T6QeTtT.png

ただ、ややくすんだ色味になるから色調補正はいるかもしれない
https://i.imgur.com/m9RARQx.png
https://i.imgur.com/FESLa7w.png
https://i.imgur.com/zJPoNuo.png
https://i.imgur.com/nz1dVsZ.png
2022/11/28(月) 20:16:35.87ID:eJIp9Jas0
>>304
まったく同じ設定でNAIとANYも試してみたほうがいいよ
似てたら単なるマージという可能性もある
2022/11/28(月) 20:19:57.98ID:RH5od+Mva
適当なvae使えばいいよ
あとあのくそ長いネガティブだけどスタイルに登録しておいてオンオフしてみるといい
実は大差ない
2022/11/28(月) 20:21:20.65ID:RH5od+Mva
もちろんヒストグラムが端から端まで埋まっていない時に限らず色調補正できるに越したことはない
2022/11/28(月) 20:58:41.48ID:w70aX2sj0
an Asian youkai girl portrait with nekomimi

anything
https://i.imgur.com/N6PT6uV.jpg
hentai
https://i.imgur.com/kjILXJk.jpg

似てるっていえば似てるが・・
2022/11/28(月) 21:03:42.61ID:w70aX2sj0
ああシード同じにするの忘れてた
hentai
https://i.imgur.com/OA4rUzQ.jpg

まあ似てるねw
2022/11/28(月) 21:03:52.27ID:yEuP3CET0
>>304
なんかanyのvaeあてないときっぽい第一印象
2022/11/28(月) 21:19:00.33ID:H5Aafjw80
anyはヒラメっぽいから嫌いだ
もっと丸っこいのが欲しい
2022/11/28(月) 21:51:25.23ID:bKRvCP+G0
指に関してはanythingが強いな
2022/11/28(月) 21:57:17.39ID:Xc0F0LTd0
結局リーク今んところNAIありきだね
waifuは逃げちゃったし
314名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/28(月) 22:00:28.03ID:OIawWuj5M
waifuって1.4もうすぐじゃなかった?いま出しても他のが強くて知れてそうだけど
2022/11/28(月) 22:21:42.55ID:u2zwyEV50
waifuは個人だろ?
よくやってくれたわ
まあ総合的な品質はNAIには適わずともwaifuはwaifuにしか出せない質感もある
2022/11/28(月) 22:32:36.65ID:VUKW571M0
>>309
マージモデルでクオリティ落ちてんじゃねコレ
2022/11/28(月) 23:07:27.34ID:YvB1mV6VM
指が書けるのは必須条件だな
2022/11/28(月) 23:12:19.17ID:w70aX2sj0
anyでも画家名いれて工夫すればもっと柔かい感じにできる
ミュシャの名前入れるとなぜかロリロリ度が増す
319名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/28(月) 23:13:34.81ID:VSXPz+oRM
みんなNJ触っとらんのか
流石にやばいんかなアレ
2022/11/28(月) 23:20:22.13ID:Xc0F0LTd0
>>318
ミュシャはSD出た直後に流行ったね
慣れてくると画家名入れなくなるが
2022/11/28(月) 23:20:31.12ID:Qr/CSCz60
anythingはただ美少女作るだけだから飽きた
新しいモデルデータばらまいてくれ
2022/11/28(月) 23:37:07.86ID:2nNjnD3G0
昨日、極めたとまで思ったのに
ワード条件変えたら再現度ダダさがりして
ショック。
これ200枚くらい描けばまた
クオリティ上がるのかな?
2022/11/29(火) 00:13:48.55ID:f0ceGSoN0
同じ設定でモデル比較
https://i.imgur.com/uZe0yhs.jpg
2022/11/29(火) 00:35:58.95ID:yT4GdmWY0
それにしても
こんなに短期間でお絵描きAIがポンポン出るんもんなんだな
数年後が愉しみだや
2022/11/29(火) 00:43:00.77ID:ZlXcKOUI0
>>324
今のペースでいくと2025年にはシンギュラリティを迎えるという論文が出て、どうやら確からしいと言うのがおおかたの見方らしい
絵師の仕事どころの話じゃないらしいね。あらゆる職業がやばい
お絵描きAIの成功もあって、どうやってAIを巨大化させればいいかがハッキリしたんだってさ
2022/11/29(火) 00:49:42.16ID:AhmYn7Bz0
フワッフワやんけ草
327名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/29(火) 00:49:51.59ID:L8EwHdsYa
俺の仕事も普通にAIに代替されるって言われてるわ
2022/11/29(火) 01:10:48.58ID:iiSwohmn0
ワイは底辺やからAIより時給やすいだろうし安泰やわガハハハハ
2022/11/29(火) 02:43:40.17ID:3omdRo010
>>325
でもAIに仕事取られるかどうかは別として、
タダのSEEDガチャにプロンプトの指定で人力これだけ使うAIって何だろうとは思うわな
指定単語つかった学習画像の非可逆圧縮を、Eta noiseひっくるめたSEEDつかって解凍してるだけなきもする
2022/11/29(火) 02:52:01.98ID:xcwUN1y00
>>325
その時代が来たとしても著作権があるだけクリエイターはマシなのかもね
2022/11/29(火) 03:28:50.46ID:xf20bJGd0
>>323
anithingが好みやな
2022/11/29(火) 03:33:55.72ID:NLhvFvt50
anythingは変わったポーズのモデルデータ入ってないからか奇抜な絵が作りにくいから飽きる
2022/11/29(火) 07:54:35.63ID:ZlXcKOUI0
>>325 の論文これっぽい
https://www.lesswrong.com/posts/3nMpdmt8LrzxQnkGp/ai-timelines-via-cumulative-optimization-power-less-long
https://imgur.io/HAY1IlG.jpg 特にこのグラフ

んでこれを読んで落胆し、シンギュラリティ後の世界について落合陽一が語る動画
https://youtu.be/j2TbvmXN_Y4
2022/11/29(火) 08:29:48.08ID:oNMlXYriM
>>332
俺はNAIで構図出してからi2iでモデルだけ切り替えて作ってる
2022/11/29(火) 08:42:15.32ID:ZRzs7jo80
1つのモデルにまとめたいっていうのがもう古いわな
学習してない画像に似た絵を無理やり引っ張り出そうとするより
特化したモデルをシーンや物足りない時に切り替える方が速くて楽
ローカルDBとかはもともとそういう発想だしね
2022/11/29(火) 09:11:40.74ID:1ZfzhDiF0
>>334
ララァは賢いな
2022/11/29(火) 09:27:23.24ID:AhmYn7Bz0
ええ…ソース落合って…
2022/11/29(火) 09:42:37.00ID:AhmYn7Bz0
言えてんのこれだけじゃねえか
Intelligence is constrained by P (cumulative optimization power)
P is predictable (Moore's Law), and postdicts the history of AI/ML progress
Future extrapolation predicts AGI in roughly a decade, absent unlikely defeaters
DL systems already seem competitive enough with equivalent brain modules and animal brains of similar P values; DL architectures/algorithms will only improve
It is unlikely that the human brain is highly exceptional other than in P
特に最後のが論説見ると疑わしい
実際の予測値はこれの次に書いてあるけどなったらええなーぐらいの適当予測やん
草生えるわ
2022/11/29(火) 10:50:36.39ID:aCIWkZKk0
革ジャンのムーアの法則は終ったは値段を上げるための方便だと思ってる
2022/11/29(火) 11:09:21.65ID:XlJntbFzp
AI凄いって盛り上がる間隔が狭まってるよね
後何十回か盛り上がったら毎日凄いとか毎秒凄いとかになるかも
2022/11/29(火) 11:23:05.97ID:31H1sRzC0
凄すぎて凄さを忘れるくらいまでになると
もう生活に密着した車みたいな話になってくるんだろうな
2022/11/29(火) 11:23:16.58ID:oWByR1eQ0
シンギュラリティやらすぐ強いAI出現やら言い出す人達は
どうもスケールさえあれば届くと思い込んでる
GPT-3の時点で普通の個人の語彙を遥かに超えているが
統計的オウムに過ぎないと揶揄されるレベル
2022/11/29(火) 11:32:37.65ID:AL5VB+IRa
GPT-3といえば某界隈でのAIのべりすとの活用例を見てるけど
脈略のないギャグの連続を書くことしかできないなという感想
専門的な文章を書かせようとしても、すぐに「〜だそうだ。」「〜なんだって。」のような
ふさわしくない表現が出てくるし
2022/11/29(火) 11:34:32.09ID:uX21bG6+0
現状は人間が学習モデルを作ってごく限られた範囲に適用しているだけ
画像生成に限ってはGoogleがDeepLearningで優れたモデルを作ってからある程度予想できた範囲内のこと
人間のようにふるまう汎用的な人工知能は試みはあっても進展はないよ
ただ、局所的な能力を不可逆的に進歩させていけば、神のような超知能の片鱗は見えるかもしれない
2022/11/29(火) 11:56:05.13ID:oWByR1eQ0
局所的な能力はただの弱いAIでしょ
そもそもハイスペックな機能なんてなくても
昆虫レベルの脳回路ですら見事に難しい制御をやってのける
パラメータ・データ量・マシンパワーのド根性は確実に何かを見失ってる
2022/11/29(火) 12:07:55.80ID:iQCWBcbR0
このスレでRadeon使っている人少なさそう
2022/11/29(火) 12:11:09.06ID:31H1sRzC0
Photoshopのコンテンツに合わせた修正ツール自動選択ツールがどんどん進化してるのと同じことしているんだと思ってる
今までスタンプでペチペチ、荒く選択してパスで選択してマスクで塗って消してみたいなことしてたのに、ほいやっといてねってしたら綺麗にしてくれるんだもん
お絵描きツールも一緒でしょ、こうしたいからやっといてねってしたらやってくれるみたいな
手間を減らしてくれるってのがありがたい
2022/11/29(火) 12:39:06.02ID:YSadndhv0
強いとか弱いとか関係ない。
来年には動画、動画の次はアバターや
大人気AIVTuberが無限に生放送する時代がすぐ来る。

その時にそのAIと自分を比べて、
どちらが「知的生命体」として優秀かと考えることになる。
あいつには汎用性はない
ゴミを拾ってゴミ箱に捨てれるだけ人間の俺の方が優秀やと思ったって惨めなだけ。

まあまだその段階だと、人間同士でも自分より優秀な人を知る機会はあるので得意不得意論でスルーもできる。
でもそこから数年も経てば、種族としてどうあがいても立ち向かえないと嫌でも分からされるときが来る。

その時人類は「サピエンス」を捨ててただの「ホモ」になる。
349名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/29(火) 12:41:30.29ID:gSGtRvRZa
失業する人大量に出てくるならそれはそれでお仲間だしいま好きなことやってりゃいいや
俺の仕事もどうせすぐAIで代替されそうなもんだし
2022/11/29(火) 12:50:47.42ID:CKaD1iq9M
AIに肉体労働ができるかよ
巨大ハードウェアに生えたカビをこそぎ落とすのが人間の次の仕事さ
2022/11/29(火) 12:55:13.65ID:oNMlXYriM
体内電流あげるからマトリックスの世界に行かせてくれや
2022/11/29(火) 13:01:27.87ID:mZ8R3DrnM
何故AI信者は加速主義になってしまうのか
2022/11/29(火) 13:02:31.14ID:31H1sRzC0
こうしたいの方向性までAIが考え出したら人間用無しだな
2022/11/29(火) 13:02:54.53ID:AMkjB1420
車の組み立てができるなら肉体労働もそのうちなんじゃないの
355名無しさん@お腹いっぱい。 (アウアウクー MMcb-FvAm)
垢版 |
2022/11/29(火) 13:07:29.89ID:QP3cZ4b6M
なぜか絵とか音楽だけやたらと騒がれてるけど他の分野も危ういの気づいてないんだよねみんな
2022/11/29(火) 13:10:35.88ID:OKpB+CLa0
>>355
証券取引ではとっくに実用されているし、プログラミングの自動化も話題になっていた
2022/11/29(火) 13:12:41.59ID:2UBporsBD
デジタルに近い分野ほどすげ替え効くからな
ブルーカラーはアナログだからかなり後になるだろうが
2022/11/29(火) 13:13:22.44ID:49Hgw+0g0
何のスレだよ
2022/11/29(火) 13:13:44.39ID:31H1sRzC0
数字いじりとかコードいじりなら明らかに得意そうなイメージあるからじゃないのかね
クリエイティブと言われるアート的なのは人間が優れているんだって思ってたのに
なんか急に抜き去ろうとするのはちょっと待てってなるよ
2022/11/29(火) 13:23:14.63ID:eL1kXZurp
AIは数字いじり苦手なのでは
数学者がAIに置き換わったって話は聞いた事ない
2022/11/29(火) 13:28:46.42ID:2UBporsBD
>>360
まだ閃きが無いから既存のデータ元にしないと出来ない
AIが閃きを覚えたらその時点でシンギュラリティ
362名無しさん@お腹いっぱい。 (ワッチョイ f768-FvAm)
垢版 |
2022/11/29(火) 13:29:48.36ID:lIc9HT6L0
まあでも音楽とか絵は今後超進化して何でもできるようになっても、この人が直接描いた絵がほしい!直接作曲した曲聞きたい!みたいなのあるからよくね、著作権も発生するし仲間内で遊べるやん趣味として

この人がする事務処理がいい!この人の書いたコードがいい!みたいなのとか絶対にないわけじゃん…
363名無しさん@お腹いっぱい。 (ワッチョイ 974b-8lxm)
垢版 |
2022/11/29(火) 13:38:27.36ID:uX21bG6+0
>>352
日進月歩の技術発展を知らないでお絵かきAIの最先端を上っ面だけ追ってるから
こういう人たちはすぐ失望期に入ると思う
2022/11/29(火) 13:43:41.26ID:49Hgw+0g0
今頃GPT-3のアプデ来たんだけど、
GPT4はどうなったんだよ
2022/11/29(火) 15:15:54.31ID:YSadndhv0
この人が~ってなるのは、あくまで今現在は多くの人にとって深く好きになれる存在が人間しか居ないからでしかないでしょ
別に遺伝子に人間の形のみを好むように組み込まれてるわけでもないし、人間だって千差万別じゃん
人間より良いものが出てきたら基本的にそっちに流れるというのが普通だよ
366名無しさん@お腹いっぱい。 (ワッチョイ f768-FvAm)
垢版 |
2022/11/29(火) 15:36:35.57ID:lIc9HT6L0
AI信仰すごいな
2022/11/29(火) 15:39:07.30ID:r9Pdywrz0
それ以上のどっちがどうだは宗教戦争になるから踏み込むな
2022/11/29(火) 15:46:32.42ID:DABD1Ytt0
どっちでもええんやが
スレチなんで確かなんか総合とかあったやろ

あっちで好きなだけ話すと良い
2022/11/29(火) 15:54:56.47ID:8meH7Ssr0
NAI並みのエロ描写が出せる一般公開モデル(ckpt)ってないのかな
Anythingだと全く出ない
2022/11/29(火) 16:59:48.27ID:2zO7OiA10
俺も知りたい
anyとNAIでマージする以上に良い奴とかないんやろか
2022/11/29(火) 17:06:40.89ID:ABqGziXM0
waifuなら、それでもwaifuならきっと
あとエロならエロ板で
2022/11/29(火) 17:16:01.23ID:AL5VB+IRa
>>369
anythingのエロは普通に出るしHDなどと比べれば非常に高品質と感じた
もしかして出ないというのはニッチな特殊性癖系かな
2022/11/29(火) 17:37:08.43ID:8meH7Ssr0
>>372
ニッチかどうかはわからないけど
裸だけなら出せるが、sexは無理だった
2022/11/29(火) 18:51:12.91ID:6+7rtA7i0
DBの追加学習に結構すぐに限界があることがわかったから、今のところマージ遊びに落ち着くなぁ
落合陽一が言ってたシンギュラリティと言うからには別のベクトルの論拠だよ。一人が騒いでるだけだけど。一応。この辺も面白いよね。
HD17は良かった、教えてくれた人ありがとう。
2022/11/29(火) 19:00:46.58ID:HUHlgPErd
>>373
エロスレにお行き、そこに救いあったりなかったり
2022/11/29(火) 19:04:51.36ID:oNMlXYriM
ANYは男体マジで出ん
女が勝手にビクンビクンしてる
2022/11/29(火) 19:14:59.99ID:7zBaze/Ka
お前らってステップ数とスケール数どうしてる?
俺は基本的にステップ100・スケール10でやってるけど出したいものによって細かく変えたほうがいいのかな
2022/11/29(火) 19:16:12.87ID:5s7RL0vR0
これ試した人おる? CLIPを変更するやつ
https://zenn.dev/discus0434/articles/7ada798c5cc87d
2022/11/29(火) 19:31:39.13ID:1jVHPJC80
今日の昼間みたいな個人の感想の寄せ集めになったら総合スレへ移動してくださいね

【Midjourney】AI関連総合21【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669560156/
2022/11/29(火) 19:41:15.55ID:m1NLYgUw0
>>379
そこはもうろくに画像生成AI触ったこともないアンチAIの馴れ合い所と化してるからなあ
攻撃性強すぎてとても総合スレとして雑談できる空気じゃない
2022/11/29(火) 19:49:05.18ID:HoEamIdsa
いやスレチなんだから他所行けよ アンチ馬鹿にしてるけどルールも守れない奴よりマシだわ
2022/11/29(火) 19:52:05.05ID:pq2l92PDa
>>378
これなー
公式で変更してくれるならいいんだけど個人で変更するとアップデートとかほかのスクリプトとかに影響ありそうでこわくない?
2022/11/29(火) 20:34:38.87ID:gja13cJi0
SDの学習で使ったCLIPから変更して良くなる理屈が分からんのだが…。
学習時に使ったCLIPの埋め込みに対してunetを学習させてるんだから、変更すると出力がややズレるのでは?
CLIP自体の性能とSDの出力の品質は別問題じゃないの?
384名無しさん@お腹いっぱい。 (ワッチョイ 97ad-zuBb)
垢版 |
2022/11/29(火) 20:44:40.05ID:f/0HmZc70
ふと思ったけど皆promptどんなの打ってるのかなって。
自然言語を使ってるのか、それとも単語をカンマで区切って使ってるのか。

前まで英文を使ってたけど単語方式にも興味が湧いたんだ。
2022/11/29(火) 20:51:50.48ID:49Hgw+0g0
プログラムもプロンプトもコピペが一番いい
2022/11/29(火) 20:58:29.90ID:lxCCjqVx0
>>384
nai系やwaifuはdanbooruタグで学習してるからカンマ区切りのほうが伝わりやすいんじゃなかったっけ
2022/11/29(火) 21:08:36.83ID:pq2l92PDa
トークン語
2022/11/29(火) 21:22:13.46ID:VPqbuYgb0
カンマは一語にカウントされるから不要と理解してる
CLIPの仕組み上、基本単語の羅列。たまに前置詞入れて様子見が効率的かな
2022/11/29(火) 21:25:09.80ID:NLhvFvt50
anythingは精子ぶっかけ専用モデルデータ
2022/11/29(火) 21:43:16.15ID:pq2l92PDa
俺得じゃん
2022/11/29(火) 22:31:59.73ID:f0ceGSoN0
>>383
なんUの方で執筆者の勘違いとか指摘されてるな
そもそもCLIP性能の調べ方がわからないから検証できないわ
2022/11/29(火) 23:01:19.59ID:ZBSdCCPg0
NMKDが1.71になって+/-表記に変更
従来の記法は勝手に直してくれるので楽チン
あとやっぱりローメモリモードではVAEやネガティブプロンプトは使用不可のようだ

でも今までローメモリでしか動かなかったのに(当方3GB)ノーマルモードでも動くようになった
軽量化に成功したのかしら?
2022/11/29(火) 23:31:21.89ID:n6R6ZzQL0
stable diffusionでレオタードをローレグ化してくれるワードとかってありませんかね?
lowleg~ってしてもハイレグになってしまう……
2022/11/29(火) 23:47:00.46ID:ZlXcKOUI0
>>378
変更内容おかしくないし良さげな内容っぽいから試してみた。

プロンプトではsmall breastsと書いてるんだけど、変更後は胸がちょっと強調されてサイズアップしたっぽい。あと表情が少しだけエロっぽくなったかも?
エロ目的なら変更したほうがちょっとだけ良くなるかもと思った

変更前
https://i.imgur.com/eEuqbHj.jpg

変更後
https://i.imgur.com/tYJcIP3.jpg
2022/11/29(火) 23:51:30.97ID:Qh0qZGDU0
clip変えるやつかなり効いたよ
とても聞き分けが良くなって使いやすい
強調しなくても効果が出るようになる
Anythingで特定のワード入れると問答無用でロリになってしまう現象がかなり緩和されて満足
2022/11/30(水) 00:03:27.08ID:TQFuMOKT0
>>378
CLIP変更の件で、奇形になるseedのを試してみた
奇形回避の効果すごいぞ。CLIPは変更したほうがいいな

変更前
https://i.imgur.com/ht1T6SG.jpg
https://i.imgur.com/Aj3K8ae.jpg
https://i.imgur.com/kBRNZjq.jpg

変更後
https://i.imgur.com/sxKFgCx.jpg
https://i.imgur.com/BwEq8Xk.jpg
https://i.imgur.com/CysIsKL.jpg
2022/11/30(水) 00:08:32.55ID:vlRvp5OD0
>>392
伺いたいんですが7-10g位のckpt使ってもmost featuresで動作していますか
私は1.7でok.exeが多重起動するため1.7.1にアップデートしたら
ok.exeは変わらずpython.exeも多重起動するようになりました
2022/11/30(水) 00:34:02.98ID:ihHRJMuz0
>>393
そゆのはここよりなんUかpinkできいたほうがええで
2022/11/30(水) 01:04:02.92ID:gSnpI+1O0
>>396
効果あるな一目瞭然
2022/11/30(水) 01:18:20.61ID:5rBNN4/a0
正常に出てたシードが奇形化するオチじゃねえだろうな
2022/11/30(水) 03:25:50.70ID:iGG9knU+0
>>378
他の人が言うように破綻は少なくなった感じ
満足したものが、ほぼ出てくる
2022/11/30(水) 03:55:38.52ID:AJdrv7PZa
自分で試さないと気が済まないわなこういうのは
2022/11/30(水) 05:10:21.42ID:AJdrv7PZa
プロンプト1
P :
a wizard girl swings a bluish fire glowing magic sword with blue fire trails, loli, loli, loli, kawaii, detailed
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/92115pvyaxkieh7/no_Edited1.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/ea9mke68c9jujj0/Edited1.jpg

プロンプト2
P :
big sister is supporting little sister from behind in steampunk styled wizard atelier, little sister is casting a magical spell with a stuff, loli, kawaii, little sister has long dark blonde hair, big sister has long silver hair, detailed, from under
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/xi8rn64v9jr8083/no_Edited2.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/xo1ikwx8kltxnyt/Edited2.jpg

xはなんとなくCLIP skip入れた
yのモデルはHentai Diffusion1.7とtrinとかwaifuとかを混ぜたもの
シード値はグリッドの場所ごとにすべて共通
SamplerはDPM++ SDE KarassのStep数20
CFG Scaleは4.5
サイズは768x512
2022/11/30(水) 05:14:15.02ID:AJdrv7PZa
自分でもやってみた
NP共通なのはただの横着
全く当然のことだけどCLIPの性能が高い(?)からといってかわいい絵が出る訳でもなければ
銀髪と金髪をくれと言って出てきた画像に銀髪しかいなかったり金髪しかいなかったりするのはどっちのCLIPでもあったり
2022/11/30(水) 05:15:38.86ID:AJdrv7PZa
まあCFGスケールとかほかのモデルとかいっぱい動かして見てみたいパラメーターはあるんだけど時間かかりすぎる
A100民検証おねがいします()
2022/11/30(水) 06:11:15.69ID:x1MSjrmE0
>>393
何度も出てるけど英単語は利用されてるものの、英語を理解しているわけでもエミューレートしているわけでも
英語全ワードが登録されている訳じゃないから…
Danbooruタグ使いたいなら、NAIやNAI-lastestの再学習版のAnything、Gape60、EimisAnime、Elysium等のモデルを混ぜるかそのものを使った方が早いかな
WDもあるっちゃあるが、タグをアルファベット順に並べたほうがいいとか、生成そのものが残念って言われてるから…

基本的に学習時に登録されている単語(または関連)でしか出てこないよ
子供向けワードや、SDオリジナルそのまま使う人は嫌がるロリワード使った方が出やすいかも
ハイレグいらないならDBでレオタードをローレグの画像で再学習して上書きしてしまえばいい
メモリがないならDAやHNでもできる
2022/11/30(水) 06:48:30.58ID:/+xl9hO8a
マジレスすると英語にlowlegなんて単語はない
英語の水着の通販サイト調べてなんで呼ばれてるか調べればわかる
メーカー名を指定するのが一番早い
2022/11/30(水) 08:10:38.88ID:Qqu+K8yMd
ダンボールにローレグ相当の単語ないのかしら
2022/11/30(水) 08:33:21.77ID:5rXWP9IgM
正式はローライズじゃねえの
2022/11/30(水) 09:18:37.36ID:KUpPztaZ0
DreamBoothってCLIP自体も学習してたの知らんかった
このプロンプトにはこういう絵を割り当てますってこと自体を再学習してるから
画風や絵描きの癖(パンスト好きとか)まで再現してしまうんだな
その分汎用性は大きく下がると
2022/11/30(水) 11:43:34.84ID:mVOTMBle0
ローレグ
Low leg cut
2022/11/30(水) 12:25:02.17ID:2+5K8qag0
この流れは流石に草
規制するよりは利用するほうが賢い


イラスト制作ソフト「Clip Studio」、画像生成AI「Stable Diffusion」を導入。AIを憎む絵師全員憤死へ… [296617208]
https://greta.5ch.net/test/read.cgi/poverty/1669774206/
2022/11/30(水) 12:29:13.14ID:ZNGQTnDW0
AIはツールだからそれ以上でもそれ以下でもない
道具である以上包丁で料理するのも人を刺すのも使う人間の責任
ただそれだけ
414名無しさん@お腹いっぱい。 (アウアウアー Sa4f-FvAm)
垢版 |
2022/11/30(水) 12:59:43.08ID:DGWZsD6Sa
>>412
これ海外で大炎上してて面白い
セルシスはバカやったと思うわ
2022/11/30(水) 13:16:41.54ID:5rBNN4/a0
それで離れるようなバカは客じゃねえんだろう原始人相手にしてても無意味だからな
2022/11/30(水) 13:17:37.16ID:n57UrETf0
クリスタなら思うところあっても離れるはないだろう
2022/11/30(水) 13:18:51.96ID:D9f/9fyG0
それは自己欺瞞だな
信念を貫いて筆を折るほうが清い気がする
2022/11/30(水) 13:20:05.37ID:Mp6BeLSd0
>>414
Twitterはエコーチェンバー
2022/11/30(水) 13:20:14.12ID:0ys8b6L0D
フォトショに戻ればいいんじゃね?
もしくはSAIかw
2022/11/30(水) 13:21:11.70ID:Mp6BeLSd0
PhotoshopはAIでは老舗
SaiならAIフリー
2022/11/30(水) 13:34:50.44ID:D9f/9fyG0
>>420
クリスタは月額100円から利用できるのにSAIは購入で5500円するのか
貧しさに負けた
2022/11/30(水) 13:59:47.64ID:nf1kbvJS0
イラスト界隈で今AIがどんな立場にあるかセルシスが知らないはずがない
その上でSDを導入したというのはもうそういうことだ
ツール提供側はAIを完全に是としている
まあエンジニアと絵描きでは価値観も大きく違って当然だ
423名無しさん@お腹いっぱい。 (ワッチョイ d705-s0H/)
垢版 |
2022/11/30(水) 14:30:18.72ID:FXcW8qeB0
>>412
これローカルだよね?
グラボないとまともに動かんのでは
2022/11/30(水) 14:45:46.84ID:AJdrv7PZa
ローカルじゃなかったら無料GPU提供サービスで笑うしかない
ただしモデルはSD
2022/11/30(水) 14:46:56.06ID:Mp6BeLSd0
何故ローカルだと思うのかが理解できないw
2022/11/30(水) 14:47:51.51ID:2+5K8qag0
絵描けないけど手だけは自力で修正ってできるかな?
ハードオフの青箱に数百円であるペンタブ買ってこようかな?
2022/11/30(水) 14:53:59.84ID:P7k7QpVP0
SDがクリーン化アピールしているのはclip studio以外にも組み込んで使う話しが来ているからではないかと予想
2022/11/30(水) 14:56:02.02ID:/l6Ghou00
クリスタ使ってる人達ってマジでグラボって何?レベルの人多いからね
まずローカルな訳が無い
2022/11/30(水) 14:58:37.79ID:AJdrv7PZa
>>428
さすがにそれはねーよwwww
絵描きは焼肉食べながらゲームするからな
2022/11/30(水) 15:02:09.46ID:AJdrv7PZa
>>426
結構難しいけど修正だけならちゃんと自分の手とか真似したい手の絵とか用意して見ながらすればいけると思う
手全部消しちゃってそこに演技加えるとなるとかなり長い修練がいる
2022/11/30(水) 15:21:07.82ID:KUpPztaZ0
クリスタのSDは当然だけど画像生成はセルシスのサーバ側で実行するんだろ?
普通に著作権含めてセルシスに責任帰属すると思うんだけどユーザーに転嫁は厳しくないか
2022/11/30(水) 15:26:00.91ID:2+5K8qag0
>>430
サンキューなら買ってくるわ

ハードオフ良いぞジャンク扱いの動く機材多い
デッサン人形も550円で売っていたから数日前に確保した
2022/11/30(水) 15:32:06.07ID:FkM62Yff0
makuakeの手のフィギュア買うわ
2022/11/30(水) 15:39:55.16ID:Z8Eqi0Zr0
クリスタでSD2.0ベースならクリーンかもしれんが背景作るくらいしか用途がないな
2022/11/30(水) 15:40:35.73ID:FkM62Yff0
一番欲しいのは線画生成だけどな
2022/11/30(水) 15:50:41.55ID:P7k7QpVP0
>>435
もうちょっと細かく指定すれば色々な線画出来るだろうけれどline artで生成するとこんな感じ
https://i.imgur.com/VV67IBF.png
https://i.imgur.com/fuqqo8S.jpg
https://i.imgur.com/xpD4BIc.jpg
2022/11/30(水) 15:51:48.63ID:n57UrETf0
版画かな
2022/11/30(水) 15:53:06.62ID:sbzDdYQHa
クリスタは写真から線画作る機能あるから最初から線画作らなくてもいい
2022/11/30(水) 15:54:16.70ID:C3xBV+iba
普通に色付きで生成して輪郭線抽出でええやん
きちんと実装すればペンで書いたみたいな線になるよ
2022/11/30(水) 15:55:55.36ID:4hJigx5w0
>>436
印刷した紙を木の板に張り付けて上から彫刻刀で掘ったら良い感じになりそう
2022/11/30(水) 16:06:06.58ID:FkM62Yff0
>>436
いや違うラフから線画生成して欲しいんだよ透過でな
2022/11/30(水) 16:14:06.95ID:AJdrv7PZa
透過はともかく無茶言うなwww
2022/11/30(水) 16:23:57.10ID:5rXWP9IgM
背景透過した線だけのキャラって書いてくれないんだよな
2022/11/30(水) 16:25:44.37ID:iGG9knU+0
>>436
趣あっていいね
和の冬景色作ってみるわ
2022/11/30(水) 16:29:45.89ID:FkM62Yff0
>>442

何が無茶なんだ?
2022/11/30(水) 16:46:39.67ID:AJdrv7PZa
いやそんなに無茶じゃないかもしれんわ
ラフ渡してラフ描いた人の絵柄通りに線画させるとか人間でもできるし
2022/11/30(水) 17:02:38.22ID:P7k7QpVP0
>>441
ラフスケッチ風
https://i.imgur.com/ZXHaMS8.png
https://i.imgur.com/LLbrmyO.jpg
2022/11/30(水) 17:14:07.71ID:90te3Ndd0
線画”風”とかラフスケッチ”風”じゃなくて、ラフスケッチから必要な主線のみにクリンナップした状態がほしいってことだろ、たぶん
ラフをmonochromeやsketchをプロンプトに入れつつi2iしてコントラスト調整、再度i2iさせてみるとか?
2022/11/30(水) 17:22:59.30ID:5rXWP9IgM
クロッキーとか指定したらできない?
2022/11/30(水) 18:12:07.79ID:K8i+Kj/y0
waifu1.4は、やっぱwaifu1.3寄りになるよね・・・
1.2をアップデートしたかったら、自分でマージするしかないのか・・・
2022/11/30(水) 18:22:32.30ID:+S/L1u8w0
線画加工するツールなら別にあるだろ
一つのツールにこだわらないで手を動かして探せ
2022/11/30(水) 18:24:04.29ID:5rBNN4/a0
ラフから線画とかそれこそペイントソフトに高性能な専用AI投入されそうやな
2022/11/30(水) 18:39:13.49ID:CzdL5MT50
TheLastBenのfast-stable-diffusion、
数日前からNAIリークモデルが使えなくなったんだけど
これはNAIモデル禁止の方向にでもなったのかな?
誰か知ってる?

ttps://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
2022/11/30(水) 18:50:07.38ID:NgdVXxkK0
少し前にNovelAILeak使ってるサービスにNovelAIが仕掛けた話は出てたね
海外で結構初めの方で拡散してたところもNovelAILeakのTorrent関連削除してるのは見た
Anythingの情報は残ってるけ、まぁ集金システムとして普通の行動ではある
2022/11/30(水) 18:55:30.01ID:RuEb4Ajv0
meituじゃないの?あれnovelaiっぽいし
2022/11/30(水) 19:30:07.54ID:FkM62Yff0
>>452
そのつもりで話してたんだが理解されなかったから身を引いた
2022/11/30(水) 19:34:01.04ID:DbskVaJT0
>>453
https://github.com/TheLastBen/fast-stable-diffusion/issues/727
これと同じエラーが出てる?
無料colab ならGPUガチャでなんとかなってた
2022/11/30(水) 19:36:00.18ID:CzdL5MT50
>>457
これです!
そういえばcolabのGPU見てなかった、いつも12GBあるのが当たり前だったから…
2022/11/30(水) 19:38:51.67ID:D9f/9fyG0
>>458
強運の持ち主現るw
2022/11/30(水) 20:01:34.04ID:CzdL5MT50
12.68GBあっても駄目だわ、fast-stable-diffusion側で消費GPUを増やしちゃったのかな
Google drive上に固定環境作ってcolabからDBする方法を確立しとくべきだったな…
2022/11/30(水) 22:02:51.74ID:2HPWKyym0
第4世代Ryzen5でもCPU性能十分ですかね?
2022/11/30(水) 22:42:27.16ID:gEOhb4or0
>>461
必要なのはnVidiaのGPU性能
2022/11/30(水) 22:45:48.03ID:Mp6BeLSd0
webuiはSD2対応で色々やってるぽいな
2022/12/01(木) 03:06:52.68ID:2k07AcOw0
>>461
CPUは現行世代のデスクトップ向けなら何でもいいぐらい。
とにかくGeforceのできるだけ上位のモデルを入れるといい。
ただし冷却性能に気をつけた方がいいかも。
ゲーム時でもGDDR6Xメモリのジャンクション温度(一番熱い部分の温度)は100℃ぐらいになるんだけど、AIで自動生成しまくってたら112℃まであがってワロタ。
別にそれで壊れたとかいうわけではないんだが。
2022/12/01(木) 03:21:08.84ID:qtuJcsWgr
vram12gbの3060だとどのくらいの解像度の画像が作れるんですか?
2022/12/01(木) 03:21:39.75ID:qtuJcsWgr
rtx3060です
2022/12/01(木) 04:00:01.42ID:FdSbf9TXM
1500くらい
2022/12/01(木) 04:03:17.97ID:qtuJcsWgr
1500×1500がつくれるんですか?
検索すると512よりちょっと上みたいにかいてあるんですが
2022/12/01(木) 04:06:15.83ID:Du3LZzb90
>>464
冷却性能と考えるとCPUの性能は控え目の方が装置全体の発熱は減るとも考えられ
470名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO)
垢版 |
2022/12/01(木) 04:28:19.93ID:C0vUGqaS0
>>465
2048x2048もいけるよ。
この時は手が増殖しちゃったけど……
https://i.imgur.com/sjQilI6.jpg
2022/12/01(木) 04:31:36.11ID:qtuJcsWgr
rtx3060でこんなに細かい画像つくれるんですね。すごい
2022/12/01(木) 04:37:45.37ID:qtuJcsWgr
オッサンゲーマーというサイトではvram12では、640までしか作れないと書いてあるんですが、何か間違っていますか
高解像度のエロ画像がほしいと思って
vram24gbいるのかなとおもってたんですが...
rtx3060で十分ですか?
2022/12/01(木) 04:44:04.67ID:C0vUGqaS0
最近はvramの利用の効率化が進んでるので、昔の情報はあまり当てにならない。
12GBあれば概ね問題ない(学習やろうとすると足りない場合もある)けど、3060だと使ってるうちにもっと速度が欲しくなる……かもしれない。
2022/12/01(木) 04:46:50.76ID:qtuJcsWgr
そんなに進歩してるんですか。あの記事からたった2ヶ月なのに
2022/12/01(木) 04:47:07.02ID:C0vUGqaS0
あと、ダイレクトに出せるのが2048x2048くらいってだけで、一回出したのをアップスケール&分割描き直しという手法もあるので、これだとどれだけでかいのでも描ける。
2022/12/01(木) 04:49:12.49ID:aR/S6zNH0
そもそもSD出てから3ヶ月ちょいしか経ってない
2022/12/01(木) 04:55:34.81ID:C0vUGqaS0
4Kだってヘーキヘーキ

https://i.imgur.com/k8eOT8y.jpg
2022/12/01(木) 04:59:13.66ID:qtuJcsWgr
pixivに投稿されてるエロ画像がみんなサイズ小さいので、
それなりの人はrtx3090使ってると思ってしまいました
2022/12/01(木) 05:27:45.31ID:TzYMvDkP0
>>477
ほう綺麗に出るもんやな
これ3060?
480名無しさん@お腹いっぱい。 (ワッチョイ 9701-tmyp)
垢版 |
2022/12/01(木) 05:43:39.47ID:GFc+fVij0
最近初めてstable diffusion web ui (automatic1111)を導入して、画風の学習をさせようとしているのですが、全く上手くいかなくて行き詰っています。原因が分かる方いますでしょうか?
tps://wikiwiki.jp/sd_toshiaki/Textual%20inversion
上のサイトを参考にして、Trainタブから画風を学習させようとしています。
設定としては、373枚の画像(もともと186枚の画像だったのですが、prosessで1:1にトリミングした結果ほとんど2倍の枚数になりました。)をanything-v3.0をもとのデータとして使い(?)、Prompt template fileはF:\stable-diffusion-webui\textual_inversion_templates\style_filewords.txtに、embedding learning rateは0.005としています。
それで今49000step目まで行ったのですが、下の画像のように全く似た感じの絵柄にならなくて困惑しています…。
https://imgur.com/a/mBapB0u
まだstep数が少ないからこんなにもぼやけているのでしょうか?それともそもそもの用意していた画像や、設定が悪くて失敗しているのでしょうか?
よろしければ教えて頂けると嬉しいです…!!m(__ __)m
2022/12/01(木) 05:57:36.53ID:3IRzVYAN0
ベースをNAI同じ設定で回して見たら?
それをAnyで適用して使えるか試してみ
Anyはベースに向かない
2022/12/01(木) 07:12:58.72ID:TnIY8n6k0
8GBで十分
なぜかというと背景って書き込みが少ないのでGanで拡大できる
キャラの各パーツ毎に最大解像度でinpaintしてganで拡大したら背景にくっつける形になる
2022/12/01(木) 07:54:36.02ID:Zj6RCOjq0
3060はホント同価格帯の代わりがないのに安くて優秀で庶民の味方
在庫少なくなってきてるから迷ってる人は買っといた方がいい
2060の12gb?3xと大して変わらない価格の割に性能低くてtdpの高い知らないコですね
2022/12/01(木) 07:57:13.08ID:JiMNNaqk0
>>482
さすがにそれはない
2022/12/01(木) 07:59:58.08ID:5GbRR/gq0
悲報
Waifu Diffusion 1.4、また延期
今度は12月26日予定
2022/12/01(木) 08:03:21.46ID:Kfkn+/W40
もう1.4はいいから2.0作れ
2022/12/01(木) 08:08:55.40ID:TzYMvDkP0
NAIとかNJのクォリティみて調整してるんだろうな
2022/12/01(木) 08:10:44.27ID:Kfkn+/W40
誰かがwaifu2.0みたいなのを作ってくれないと
2.0普及していかないだろう
2022/12/01(木) 08:26:18.49ID:C0vUGqaS0
>>479
3060だけど、SD upscaleだから3060かどうかはあまり関係ないかな
2022/12/01(木) 09:10:33.87ID:hlSfanw/0
>>480
失敗しているのはやり方間違ってるから。
画風ならhypernetworks、単品のモノやキャラの顔だけとかならtextual inversion が定番

参考にするならこっちの投稿
HN
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670#discussioncomment-4010316

TI
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1528
2022/12/01(木) 09:19:20.53ID:nwX5uQfF0
>>485
とりあえず今あるの出して1.5にすりゃええのに
っていう話でもないんかな
2022/12/01(木) 09:29:45.58ID:+iOu6L6B0
>>480
画像が違うのはSEED固定してプロンプトをしっかり入れてないからだと思う
トリミングして胴体切れたりしてるのは足や手が空中に浮かんだり切り株状態の下半身を学習するから慣れるまでは除外したほうがいい
画風の基本は顔の構造(ドラマや映画とかで顔承認で使われるようなやつ)と髪の毛の塗なんだけど
Anything-v3はNAIのデータ潰して今の塗やら指先等の構造データを追加学習させた奴だから学習させにくいのもある
ってHN
2022/12/01(木) 10:21:07.29ID:jO4Ob/m90
>>484
各パーツは長辺1k-2k程度あれば十分なので8GBで足りる
2022/12/01(木) 11:07:52.14ID:tn4CipcP0
tagger使おうと思ったんだけどエクステンションからインストールしてstable-diffusion-webui-wd14-taggerとmodelsに解凍したフォルダを置いてもinterrogatorにWD14が無いしinterrogateを押してもコマンドプロンプトは反応しないんだけどフォルダの置き場所間違えてる?


https://i.imgur.com/12ER8e8.png
https://i.imgur.com/f2aIpvv.png
https://i.imgur.com/rkJudeC.png
495名無しさん@お腹いっぱい。 (アウアウウー Sa5b-PXXj)
垢版 |
2022/12/01(木) 11:32:54.61ID:L7MKt25Ba
SD2.0の高速化見た?
20倍早くなって50stepで5.6秒掛かってたのが1~4stepの0.9秒で同等の品質になるらしい
https://twitter.com/emostaque/status/1598131202044866560?s=46&t=L4_rWY6cEcVRuciOsfECZQ
https://twitter.com/5chan_nel (5ch newer account)
2022/12/01(木) 11:38:53.47ID:Kfkn+/W40
>>491
失敗作を世に出したら、本人たちの信頼が失墜するからダメ
1.3で既に地に落ちてる? それは知らん
2022/12/01(木) 11:44:27.69ID:ukWA4jg7a
1.3だいぶよくない?
penultimateはそれよりいいし
2022/12/01(木) 12:09:57.85ID:ukWA4jg7a
>>495
これマジ?
2022/12/01(木) 12:38:17.90ID:P4oQjnegM
初期NAIでもまだまだやれることありそうなのに
ドラクエ1クリアしてないのにもう2が出んの?って感じ
2022/12/01(木) 12:39:33.39ID:C0vUGqaS0
>>494
置く場所間違えてるんじゃないか?
置き場はここ見て
https://github.com/toriato/stable-diffusion-webui-wd14-tagger
2022/12/01(木) 12:48:57.99ID:h1kw5yfCa
やれることはあってもできないことは見えてきてるやろ
2022/12/01(木) 13:05:44.44ID:JNw+nbOQa
>>494
モデルはモデルフォルダ直下じゃなくてdeepdanbooruの中に入れるはず。そんでバックエンドごと再起動しないとモデルデータを読んでくれない。
残念ながらうちでは8ギガメモリなんでモデルデータにVRAM占有されて最高解像度が落ちちゃったので使うときだけ入れることにした
2022/12/01(木) 14:22:04.21ID:tn4CipcP0
>>500
>>502

やっぱり置き場所違ったか
ありがとう
2022/12/01(木) 15:21:58.35ID:YEWWoG3J0
>>495
えぇ……1ステップで画像出るってどういうことなの……
2022/12/01(木) 15:45:57.79ID:dGBb3TB80
waifuの延期はしょうがないだろ
NJとSD2.0の結果見比べれば画像生成は権利無視の過剰学習/ファインチューングによるコピー
というダーティなやり方でしか上手くいかないとはっきり分かった
まともなやり方してたら競争できないから全部やり直してんだろ
2022/12/01(木) 16:02:45.38ID:mfQwXX1r0
waifuが揃えた学習データーセットでSD2.0ベースで学習させるだけで2~3週間はかかりそう
2022/12/01(木) 16:10:50.35ID:aR/S6zNH0
Waifu作者を応援したくなった
支援サイトやってるんだっけ?
2022/12/01(木) 16:55:47.14ID:F2y0beMX0
>>495
2.0で768×768で出力するようになったら1枚出すのにかかる時間が2倍ちょいになってしんどーと思っていたから
高速化は嬉しい
がしかしどういう技術なんだろうか
VRAM40GB以上必須とかじゃないよね?
2022/12/01(木) 17:45:56.69ID:GsBbakTya
>>495
まじならRTX2060-12GBあたりでも実用範囲じゃん
2022/12/01(木) 17:58:16.58ID:UoJ1aZi80
ただ新規ならたいして値段も変わらない3060を買うだろうけど
2022/12/01(木) 18:13:08.38ID:3XWwXtWJ0
>>508
現状のSDの出力を教師データに使った生徒モデルみたいだな
だとするとむしろ必要VRAMは小さくなるんじゃないのか?
大分前にモデルデータを100MB位にする、って言ってたのはこれの事なのかもな
2022/12/01(木) 18:19:05.76ID:U13pzfVCa
Emadのツイートは虚構新聞より少し信頼してもいいってレベル
期待してはいけない
2022/12/01(木) 18:26:45.64ID:3XWwXtWJ0
論文で性能比較してるって事はもうモノは出来上がってるんだろうから
これは期待していいんじゃないのか?
2022/12/01(木) 18:36:57.60ID:lQ+c8Cojd
必要VRAMが200Gとかそういうのじゃないの?
2022/12/01(木) 18:43:59.14ID:K2iatyyB0
https://note.com/kohya_ss/n/n9a485a066d5b
ここのマージスクリプトにも可能性感じるんやが使いこなしてる人おらんか
とりあえず使用例の使い方だとモデル1の大まかな構図でモデル2の絵になる感じなんやが
nai→instaとかnai→zeipherとか使ってる
elyはエラーで読み込めんかった
2022/12/01(木) 18:45:10.65ID:K2iatyyB0
すまんスレ間違えた
2022/12/01(木) 19:54:04.52ID:3XWwXtWJ0
>>515
元の特徴残したいならoutput_block重視に加えてtransfomerに対するマージ量を減らすのがいいよ
プロンプトに依存するけどハマるとよく特徴が残る。https://imgur.com/hv0QFBm
2022/12/01(木) 20:58:13.87ID:K2iatyyB0
>>517
おお、ありがとう
装飾めっちゃ残ってますね
そのヒントでパラメータ変えていじってみます
2022/12/02(金) 01:16:04.25ID:L31z3Fz/0
Dreamboothに手を出してみたくてスレとgithubの情報を追っていたのですが
・AnythingよりNAIモデルの方が学習に向いている
・ローカル環境でvramが12GBない場合wsl2上でubuntuでdeepspeedを使って本体のRAMで代替する方法があるが半精度モデルになる/wsl環境を使わないWindowsではDeepspeedの依存ライブラリが対応しないので環境構築ができない
・現在のfast-stable-diffusion(>>453)ではvram使用量が大きく無料プランのcolabでは動かない/有料プランでもGPUガチャになる?
・NAIモデルをdiffusers形式に変換するには変換スクリプトの書き換えが必要
という理解で良いでしょうか?

・diffusers形式に変換する際にvaeのマージをするとの情報が前スレにあったのですが、このやり方が調べても全く分からないので分かる方いらっしゃいましたらご教示いただけないでしょうか
520名無しさん@お腹いっぱい。 (ワッチョイ 9701-zuBb)
垢版 |
2022/12/02(金) 01:35:18.43ID:5bH14ff30
>>490
>>492
ありがとうございます‼‼
次はhypernetworksで試してみます!
2022/12/02(金) 01:41:13.44ID:cBO47kU40
>>519
vaeのマージが必要かどうは知らんけど、
マージしたいならnaiのvaeをckptのfirst_stage_modelを上書きすればいいだけじゃないの?
vaeのキーの前にfirst_stage_model.を付けてそのまま上書き或いはマージ
2022/12/02(金) 01:45:55.23ID:L31z3Fz/0
>>521
試してみようと思います
情報ありがとうございます
2022/12/02(金) 16:54:55.90ID:IoPaP3aL0
SD2.0なんか新しい話はないかなあ
とりあえずはWD待ちかなあ
2022/12/02(金) 17:32:44.70ID:OOVrPa2W0
SD1.4も、アニメ絵だのあんまいいのが出ねぇなとやってるところにWD1.2がきて派生モデルが盛り上がっていった感じだし、
まだまだこれからだろうな2.0も
2022/12/02(金) 17:33:21.16ID:Olzrnusv0
>>499
割とそんな感じあるな
今あるものをまだ全然使いこなせてないのに、次々出てくる
新情報追いかけるだけで手一杯
526名無しさん@お腹いっぱい。 (ワッチョイ 97ad-X4DW)
垢版 |
2022/12/02(金) 17:52:46.14ID:lUksRyEe0
webuiのdreambooth見てたら更新来てる!
コンセプト1,2,3ってあるけど、もしかして3つまでの概念を学習できるってことかな?
527名無しさん@お腹いっぱい。 (ワッチョイ 9702-PXXj)
垢版 |
2022/12/02(金) 19:04:57.35ID:fL+2SRwv0
2.0は学習させるとかなりいい感じになるって言われてたし年末くらいにはそれなりのものが出てくるんじゃないかな
528名無しさん@お腹いっぱい。 (ワッチョイ 9701-zuBb)
垢版 |
2022/12/02(金) 19:35:20.96ID:5bH14ff30
stable diffusion のtrainで画像学習させる時に、画像ごとにつける(?)プロンプトってどんな感じにしてますか?
自分は余り文章を気にせずに、『a naked girl with blue hair and blue eyes is posing for the camera with her hand on her head, green hair ornaments on her head, expose armpit』
という感じに、画像を加工する際に抽出されていたプロンプトを修正⇒そこからカンマで区切って短く追加、としているのですが、これで大丈夫でしょうか?
2022/12/02(金) 20:36:12.46ID:OOVrPa2W0
>>528
hypernetworksの学習?
その書き方で普通に生成してみて、学習画像の要素を満たすような画像が生成されるならそれで大丈夫
背景要素とかもあるならそっちもちゃんと書いておく
530名無しさん@お腹いっぱい。 (ワッチョイ 9701-X4DW)
垢版 |
2022/12/02(金) 20:42:49.32ID:5bH14ff30
>>529
今回はキャラを学習させようとしてて、textual inversionでembeddings(?)の学習をさせてます
2022/12/02(金) 20:57:41.84ID:brhV4PIg0
他のソフトを出し抜くチャンスを逃すとはもったいない

CLIP STUDIO「画像生成AI機能を搭載します」絵師様「🤯😡🤬👿」→大量のお気持ち表明が届き導入断念 [296617208]
https://greta.5ch.net/test/read.cgi/poverty/1669977107/
2022/12/02(金) 21:00:23.72ID:a1cWz99T0
DreamArtistの方で、TIの場合はfilewords画像の内容のうち学習させ「ない」要素を書くって読んだけどその辺どうなんすか?
https://github.com/7eu7d7/DreamArtist-sd-webui-extension/issues/18#issuecomment-1319372487
2022/12/02(金) 21:13:30.48ID:ffVg67Rl0
>>532
それな。初音ミクを学習させるときにプロンプトが「green hair hatsune miku」だと
green hair と書いてあるから緑髪の絵になってることになってしまう
hatsune miku から緑髪が出てきたことにならないんだよな
hatsune mikuだから緑髪ということにしたいなら、green hair と書いてはいけない
ちょっと考えたらわかることだよな
2022/12/02(金) 21:14:33.02ID:IoPaP3aL0
>>533
いやまじで知らんかった
学びました
2022/12/02(金) 21:34:12.29ID:a1cWz99T0
>>533
なるほどそういう理屈か
536名無しさん@お腹いっぱい。 (ワッチョイ 9701-X4DW)
垢版 |
2022/12/02(金) 21:50:32.07ID:5bH14ff30
>>533
今まで勘違いしてました...
そしたらプロンプトは構図とかだけにして、キャラに関する事は書かないほうが良い感じなのでしょうか?
2022/12/02(金) 22:03:08.81ID:kekqnurK0
学習素材上に存在してるけど
学習の本筋とは関係ない要素を列挙するような感じやね
TI、DAの場合は

効果的にタグ付けするのは結構難しくて、下手にやるくらいならタグ何もなしの方が上手くいく
2022/12/02(金) 22:03:44.83ID:OOVrPa2W0
>>530
TIの場合は、HNのように全部盛りのキャプションを書かない。
学習させたくない要素だけを学習画像のキャプションとして書く
ポーズがどうとか手の位置が…みたいなのはキャラ特徴としては覚えさせたくない要素としたら、
posing for the camera with her hand on her head,expose armpit
を学習画像の組になるキャプションとして書くみたいな感じ
あと、背景も大抵の場合は必要ないから、例えば白壁背景なら white wall background とかを足しとく
なので blue hair and blue eyes を書いちゃうと、キャラ特徴を覚えなくなるんすよ。ややこしいけど
2022/12/02(金) 22:08:37.47ID:h8Mp/z4M0
ほんとややこしいな!前にテンプレート弄ってみた時に全然学習しなかったのはこのせいか
2022/12/02(金) 22:10:20.82ID:ffVg67Rl0
>>536
俺のケースだと、SPY×FAMILYの嫁のヨルの黒い暗殺服姿を学習させたくて
服に関する単語は入れないようにしたら、見事あの黒い暗殺服を学習した

ただ今度は、脱がせたくなって naked yoru とカッコ付きでいくら書いても絶対に脱がないモデルになったw
少ない枚数で学ばせる方法の弊害だろうねこれは

もっと多い枚数で学習させる場合は、さっきのミクの例だと
多くの教師画像でgreen hair hatsune miku としておけば、
『hatsune mikuといえば green hairだよね』という共起関係をモデルが学習するから、green hair と書かなくても高い確率で緑髪になるし、bold hatsune miku と書けばつるっぱげにもなる

多い画像枚数で網羅的にタグ付けて普通に学習させるのが、一番応用の効くモデルになるってことだね
2022/12/02(金) 22:10:41.28ID:OOVrPa2W0
俺は実写顔学習させて遊んだりするのだけど、インスタとか盛った写真の影響を強く学習しちゃう場合は、
big eyes とかを予め仕込んでる。美人にあえてugly face とか入れといても案外効果あるっぽい
high key photo とか書いといて、白飛び気味の画像を補正するような効果を入れることもある
2022/12/02(金) 22:13:21.49ID:IoPaP3aL0
>>540
なるほど黒い服をきているヨルしか知らないわけか
2022/12/02(金) 22:15:14.88ID:OOVrPa2W0
>>540
そこは顔と服分けるとかするしかないけど大変だよな
エロスレのほうでTIで複数キャラ描き分けるのやってのけてる人いたけど、学習作業がしんどそうでとても真似できんと思ったw
2022/12/02(金) 22:24:21.71ID:ffVg67Rl0
>>543
なるほどすごいなw
ほどほどの絵を描かせるなら簡単なんだけど、細かいところまで思い通りにしようとするとまだ大変だね
ただ、人間に指示するのと同じ程度の言葉で伝えられるようには、遅くとも1〜2年くらいでなると思う
あと3年でシンギュラリティなわけだからね
2022/12/02(金) 22:29:10.15ID:SqbTZrit0
再現率上げれば汎用性が下がるからな
DBで専用モデル学習させていって、同時に出すのは諦めた方が中途半端にならなくて済む
いいマスクもあるし合成したほうがいい物ができる。どうせ奇形や光源も狂ってる物ばかりだから修正はしないといけないもんな
2022/12/02(金) 22:34:15.02ID:ffVg67Rl0
>>541
逆の形容詞で特徴を強化させるのか。それは面白いね
美人の写真をブスだと学習させれば、もっとすごい美人が描けるようになるとw
学習した美人をさらにブスだと学習させて何度も繰り返したら、最後はどんな美人が出てくるんだろうなぁ
2022/12/02(金) 22:34:50.89ID:kFUg3Zzq0
>>538
させたくない要素を書くの?
はああ
ほんと学習はワケわからんわ
2022/12/02(金) 22:42:57.46ID:kekqnurK0
初めて学習する人は、タグ付けしない方が上手く行くと思うよ
データセットがいい感じに偏ってなければ(関係ない要素が分散してれば)
良いわけだし
2022/12/02(金) 22:50:40.03ID:Olzrnusv0
>>542
というか、AI的には「特定の造形の女が黒い服を着てる」
という状態そのものが「ヨル」なんだろうね
2022/12/02(金) 22:56:18.55ID:ffVg67Rl0
>>542
>>549
そそ、そういう感じ

>>396 のがうちのヨルなんだけど、奇形の時だけ脱いでるなぁw 普段は全然脱がないのに
2022/12/02(金) 23:23:33.88ID:361EZCRr0
「黒い服のヨル」にすると「赤い服のヨル」も「青い服のヨル」もいるからそこは特徴じゃないからね、って伝わるわけやね
2022/12/03(土) 01:35:25.99ID:vpRYI2zD0
>>551
なるほど
2022/12/03(土) 09:35:32.78ID:hAlj1Xp80
これ試してみた人おる?

https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
2022/12/03(土) 10:07:22.99ID:QZt0wd98a
今ダウンロードしてるところ
既に持ってるモデルをわざわざダウンロードし直して無駄に時間くってるから一眠りしてから触る
2022/12/03(土) 10:36:59.00ID:t3ANqpw3a
俺はフォトショと1111連携させるツール使ってるな。意外と便利
2022/12/03(土) 13:17:52.28ID:irpRzRxt0
お守り代わりレベルに使われるがmasterpieceって結局何なんだ?
元になる絵みたいなのとかあるのか
2022/12/03(土) 13:28:51.20ID:/tdpzmrK0
colabの1111でDreamBoothをやりたいんですが、Extensionからインストールしてもタブが追加されません
Apply and restart UIを押すと、WubUIが停止してしまいます
どうやればいいのか誰かご存知でないでしょうか?

https://i.imgur.com/ojM48t9.png
2022/12/03(土) 13:34:38.05ID:vpRYI2zD0
colabの方でdreamboothをインストールするように書き加えたら動くんじゃね
clone dreamboothのurlで
2022/12/03(土) 13:35:05.80ID:WbHyIEYW0
>>556
NovelAI特有のタグ
色々綺麗になって安定するけどその代わり人物の顔が通称マスピ顔と呼ばれる平均値顔になる
2022/12/03(土) 13:35:37.63ID:t3ANqpw3a
>>556
人間が「この写真いいね!」ってどれくらい感じるかをスコア化するAIがあるんだよ。その評価点が高かったのにマスピってタグ付けしてるだけ
同じように画質をスコア化するAIもあるし、それでハイクオリティやロークオリティってしてる
学習させてる人(NAIなりwaifu)が学習データを事前処理でそういうタグ付けしてれば1111でタグが使えるし、処理してなければ使えない
2022/12/03(土) 13:38:23.03ID:dMuCiARj0
>>559
マスピって単語、普段全然聞かないけどここから来てたのね
2022/12/03(土) 13:38:34.17ID:irpRzRxt0
ああなるほど、指標みたいなものだったのか
2022/12/03(土) 13:38:40.73ID:NKp2Xxst0
>>556
単純に「傑作」タグや
色んな「傑作」タグの付いた作品の”傑作の顔”を学習してを出力してるから「マスピ顔」としてAIにジャンル化されてる
大雑把に言うとこう
2022/12/03(土) 14:03:41.77ID:pq4CU0et0
>>383
基本マージとか使うのはprunedでいいのかな
差がよくわからん
2022/12/03(土) 14:10:37.69ID:fy1orJcl0
masterpieceはSD出たての頃のグレッグさんみたいなもんやな
画風は一定の方向に寄っちゃうけど、クオリティが上がるから使っちゃうみたいな
2022/12/03(土) 15:09:15.48ID:ycHF0FhQ0
>>561
SD1.4だとStyleっていうかmuchaとか画家の名前つけて絵画の画風をまねしてた名残
NovelAIが絵画いらんのや実写もいらんのじゃって追加学習した結果「masterpiece」タグに版権キャラが居座っている感じ
今じゃmasterpieceタグ使うのはNovelAIのリーク品の定番
AUTOMATIC1111の拡張のNAIConvert使ってNovelAIのプロンプトを変換する時付けられる
2022/12/03(土) 15:15:10.35ID:dMuCiARj0
>>566
詳しく有難う!
勉強になりました
2022/12/03(土) 16:02:57.66ID:QZt0wd98a
InvokeAIにモデル追加するのさては結構めんどくさいな?
AUTOMATIC1111みたいにvae切り替えてランダム色変換器みたいに使うことも出来なさそうだし
自分はたまに気分転換に触るくらいで終わりそうだ
2022/12/03(土) 16:04:38.01ID:QZt0wd98a
なによりWebUIのExtensionたちを手放すのは惜しい
外部プラグインとスクリプトで武装したAftereffects vs Fusion Studioみたいだ
2022/12/03(土) 16:17:49.74ID:ZTzeA2JZ0
>>569
仕事によって使い分けろってことだな
まぁその場合オレはAEだけで強引にやるがw
2022/12/03(土) 16:36:55.98ID:48s0sEU0M
久々にNobelAI契約したがなんか使い勝手悪くなってね
精度もおかしいし
なんか規制きたの?
2022/12/03(土) 17:33:50.90ID:QZt0wd98a
InvokeAIのモデル追加に使う!import_model path
こいつあれかAUTOMATIC1111で使ってるフォルダのモデル指定してもインポートできるのね
容量増えないしこれは助かる
2022/12/03(土) 19:38:22.73ID:Bw29avuU0
Stable Diffusion 2.1 beta coming real soon to a Discord near you.
https://twitter.com/Dan_Jeffries1/status/1598951413547405312

もう2.1が出るのか
何が変わったんだろうか
https://twitter.com/5chan_nel (5ch newer account)
2022/12/03(土) 19:46:30.65ID:pq4CU0et0
>>573
日和ってすまん
nsfw、ロリ2次絵対応だぜ!!
2022/12/03(土) 20:34:13.61ID:WbHyIEYW0
>>574
まじか手首に油さしとこ
2022/12/03(土) 20:36:55.43ID:ZnkNQz310
>>574
はじまったか!
2022/12/03(土) 20:50:58.48ID:QZt0wd98a
>>564

マージで使う時にpruneは使ってはいけない
マージする時はフルでマージして出来上がったものをprunerで生成にほぼ出てこないウェイトを間引く
2022/12/03(土) 20:51:17.62ID:QZt0wd98a
pruneじゃなくてprunedバージョンか
2022/12/03(土) 20:53:45.67ID:QZt0wd98a
>>575
今日も手首の回転が絶好調ですねえ!
2022/12/03(土) 20:56:21.11ID:Xwznc96x0
手のひらをセット
2022/12/03(土) 21:41:39.13ID:iDb50cL30
>>575
この表現好き
2022/12/03(土) 22:05:11.16ID:Ed1Hxm1E0
>>573
作例が大量なのを見ると例の20倍速サンプラーの実装だろうな
ここまで高速化すればCPU生成でも十分実用できそう
なお、1ヵ月前に3090 Tiを買った俺は精神的ダメージを喰らいそう
2022/12/03(土) 22:20:47.06ID:qr2wWzWGr
>>575
今のうちにちゃんと手首のメンテしとくんだぞ?
2022/12/03(土) 22:22:31.13ID:BULUnf440
個人での学習用途なら3090TIは今後3年は最上位クラスだから…
2022/12/03(土) 23:30:14.65ID:JIc4zPVl0
来年の4060VRAM24Gで逆転ホームランを期待してる
2022/12/03(土) 23:33:02.20ID:QQWusOBZa
そういう上位機種が売れなくなるようなことは死んでもやらん
2022/12/03(土) 23:55:06.94ID:zWK9PBwX0
4060は8GBってリーク出てるんだよな…
2022/12/04(日) 01:51:29.57ID:VAan0a/wM
pixivでみる絵のプロンプトってどこで勉強できるか教えてくれ
2022/12/04(日) 03:11:17.78ID:KBp3ZRZY0
VRAM24GBの下位モデルなんて出るわけないんだよね・・・。
2022/12/04(日) 03:13:27.25ID:z7f+q8IGd
1111版やってるんだけどmeituみたいに自分の書いた絵を変換してみたいんだけどできる?
それとも他のやつが必要ですか?
2022/12/04(日) 07:43:51.59ID:+/SMaBQq0
ここ数年VRAMの容量なんて飾りだと思われてたからな
2022/12/04(日) 08:10:27.91ID:Mme/645Or
VRしてる人なら『VRAM6GBぐらいは最低欲しい』っていうのがあったけど、画像生成で一気に要求増えたしな
2022/12/04(日) 08:47:41.61ID:bhq+WHl90
3060の12GBが画像生成にハマり過ぎててな~
3070から買い替えたくらい
2022/12/04(日) 09:07:14.46ID:rwPgt1dK0
>>590
できるけどmeituはオリジナルのモデル使ってるから同じような学習させたモデルとプロンプト他設定も知らないと同じ風にするのは難しいよ
自分の好みのモデルさえ用意できれば、meitu以上の事もできるという事だけど
2022/12/04(日) 10:05:03.20ID:c6Z13DsQ0
>>588
pixivよりも雨後の竹の子のように出てきたAI絵の投稿・コンテストサイトを漁るのがいい
ちゃんとプロンプトも公開されてる。
登録必要な所もあるけど、大半は登録せんでも視れるのがほとんどだし
2022/12/04(日) 10:16:55.26ID:miCSStnV0
AI絵なんて絵の描けねえ無産が自家発電するためのツールだろうに
それで金取ろうとしてる奴らようやるわ
というかテキスト入れる手間すら惜しむ怠け者が多いのか
2022/12/04(日) 10:39:17.38ID:PJpqM95R0
テキスト入れなくても十分お金になるし
2022/12/04(日) 11:06:01.44ID:rwPgt1dK0
2,3回ポチポチしてドヤっていう層向けとしては大成功だろう
テキストなんて入れてる時点でスマホ層からは敬遠される
2022/12/04(日) 11:09:03.61ID:z7f+q8IGd
>>594
別に同じじゃなくてもいいんで
用意した絵を変換してくれれば
ググったけどやり方わからなくて
2022/12/04(日) 11:28:38.86ID:rwPgt1dK0
>>599
前に上がってた画像を借りると…
これを
https://i.imgur.com/7fBCqho.png
こうしたいって事なら、i2iって機能だからググれば情報はたくさんあると思う
https://i.imgur.com/v6T4uVr.png
https://i.imgur.com/Ak7vNAa.png
https://i.imgur.com/yGUyFSK.png
2022/12/04(日) 12:24:44.29ID:QItVJsRW0
3090tiなんかで回してたら電気代半端ないよ
3090で回したらソフト読みでグラボだけで400w超えてびびったもん
12Gで済むなら3060の方が幸せになれる
2022/12/04(日) 12:27:04.82ID:ay7SUqG80
3070 8Gの俺の複雑な心境

まさかVRAMがここに来て重要になってくるとは
2022/12/04(日) 12:51:32.37ID:kzgTawY10
ここで3060tiや3070のVRAM増量版を出すどころか
3060を8GB廉価版(廉価とは言ってない)に置き換えるNVIDIAマジ鬼畜
2022/12/04(日) 12:56:14.90ID:hnvew8vx0
出た当時はスペックに見合わず無駄に多いVramを活かしきれない微妙なグラボって扱いだったけど、まさかレア扱いになるとはね
2022/12/04(日) 13:03:04.59ID:epEOUGv70
上位のGPUは電気代もだけど電源がな…
Powerlimit使っても瞬間的にはMAX行くとか聞いたが本当かは知らん
事実なら1000W級の電源買ってこないといけないし
2022/12/04(日) 13:21:33.79ID:OCdScX7kr
普通のゲーマーはVRAM容量よりバス幅・アクセス速度の方が重要だからね。
2022/12/04(日) 13:30:36.80ID:ilbrF2vJ0
>>605
そうそう、つよつよビデオカードをただ買ってくればいいってわけでもないんだね
大容量の電源に換えるだけでなくckptがファイルサイズ大きいからSSDも大きいのに買い替えた
前は2000Mbps以下の安いのにしてたけど今度は3000Mbpsクラスのにしたからやや割高

画像生成AIをローカルでやろうとするとなんだかんだで金がかかるね
608名無しさん@お腹いっぱい。 (ワッチョイ 5905-XMR3)
垢版 |
2022/12/04(日) 13:30:50.45ID:t+N+Xcy00
pc買い替えのタイミングにnovelAIリークが重なって3060買えたから良かったわ
2022/12/04(日) 13:30:55.63ID:JQCx85l+0
仮想通貨のマイニング祭りが終わって、3090が20万以下で買えるなんて今しかないよ
https://i.imgur.com/XRNgT3Y.jpg

chatGPTで今度は賢いボット祭りが来てる
これからまたGPUの需要増で価格が上がる前に買っておいたほうがいいと思うぞ
2022/12/04(日) 13:37:06.44ID:ZO8kDlYP0
VRAM欲しいのはMOD好きとVR系位かな正直ニッチ
2022/12/04(日) 14:14:24.36ID:6azRteeO0
昨日なら3060が3万で買えたんだけどな
怪しさ満点だったけど
2022/12/04(日) 14:43:10.16ID:33Dn7XgRa
>>602
わいかな?
さっきローカルに移行したけど学習にさえ目を瞑れば普通に生成早いやん😅
2022/12/04(日) 14:44:22.21ID:PJpqM95R0
学習はオンラインでいいんじゃね?
2022/12/04(日) 14:45:37.84ID:epEOUGv70
NAIリーク直前に70Ti買った俺もいるぞ
安く買えたけどさ、70の方がワッパの点で良いとか知らなかったよ
2022/12/04(日) 14:48:41.47ID:epEOUGv70
>>613
実際3090~運用するのとどっちがいいんだろうね
colabは有料でも使える時間に制限あるみたいだし、他のやつ月10ドルの固定で動くとかならそっちで学習考えるけど
2022/12/04(日) 15:17:15.27ID:xDZ0FLQC0
2060や3060の12G版ってメモリ余ってたから使ったったw説は本当なのか気になる
それが本当なら当分ミドル帯にVRAM容量降りてこない
2022/12/04(日) 15:35:16.30ID:6PIzj/3J0
学習ってそんなにパワー食うのね
自分の2070sじゃ無理そうだ。
そもそもやり方がよく分からないけど…
2022/12/04(日) 15:37:00.83ID:2kOJpswY0
2070sでもTIやHNなら問題ないぞ
2022/12/04(日) 15:54:15.91ID:SEk05QfVM
>>611
あれは100%詐欺やろ
2022/12/04(日) 16:13:57.58ID:6PIzj/3J0
>>618

スペック的に大丈夫なんですか? なら試してみようかな…
未知もしくは理解度が足りないワードを学習させるならHNでしたっけ
2022/12/04(日) 17:03:52.92ID:2kOJpswY0
>>620
理解度が足りないくらいだったらHNでいいけど、完全に知らなそうなもんを出すのはDB向けで、これは2070Sだときつい
まずプロンプトの工夫で「なんぼかそれっぽいものになってきたけどどうも雰囲気が出ないなー」みたいなものまで近づけるかどうか試すといい
そこまでイケるようだったら、HNやTIで調整してやれば狙ったものが出せる可能性はそこそこ高い
逆に、特徴的な衣装だとかで「これを言葉で指示するのはちょっと無理があるな」っていう感じがしたら、無理にTI/HNで粘る意味は薄い
2022/12/04(日) 17:46:41.36ID:6PIzj/3J0
>>621

ありがとうございます!
民族衣装でしっくりこない(無駄にフサフサになる等)ものがあったので
学習させたかったのですが難しそうですね
とりあえず既存のワードの組み合わせで学習できないか試してみます
2022/12/04(日) 22:22:08.97ID:7MZsijB0a
何エポックに対して何LRといった内容を掘り下げているサイトってありますか?
2022/12/04(日) 22:56:53.84ID:PUU/1BRs0
RadeonをメインにしてGeForceをサブにしても
StableDiffusionで画像生成できますか?
2022/12/04(日) 23:00:53.72ID:X1zqR8u4p
Distilled diffusionっていう新しい手法を使うと
拡散モデルによる生成が爆速化するらしい
https://twitter.com/EMostaque/status/1598131202044866560
https://twitter.com/5chan_nel (5ch newer account)
2022/12/04(日) 23:05:55.62ID:ZO8kDlYP0
>>624
できる
2022/12/04(日) 23:21:03.36ID:eDV41SzJ0
>>624
まずWindowsが不安定になるのでできない。
2022/12/04(日) 23:24:46.77ID:MJFvv/LEa
不安定な組み合わせもあるのかもしれないけど(マイニングでwindows+)geforce+radeonいけるって話もある
2022/12/04(日) 23:28:36.77ID:PUU/1BRs0
>>626
ありがとうございます。

使用するVGAを設定する項目があるのかな
2022/12/05(月) 00:03:00.42ID:2pIwpNNA0
>>629
ないけど、Radeonはcudaデバイスとして認識されないだろうから、
cuda:0でGeForceが勝手に使われる気がする
2022/12/05(月) 00:03:41.12ID:GK7r0f+J0
ディスプレイ繋ぐのをRADEONにしてGPGPUとしてGeForce使うのは余程へましなきゃ今のOSはこなすがまあ使えん奴には使えんだけや
2022/12/05(月) 00:19:07.80ID:/Za0lruD0
やっぱラデはRX6900とかでもRTX3060の方がいい感じなんかな?
2022/12/05(月) 00:33:41.94ID:faOL3WJC0
Stable Diffusionそのものの技術は日進月歩なのに
なんでRadeon(というかCUDA非対応デバイス)への対応はこんなに牛歩なんだ
CUDAに囚われていい技術じゃないだろ
2022/12/05(月) 00:43:25.68ID:THgOUwN00
4090で学習させてたら途中でVRAM不足でクラッシュwwwww
PC再起動までGPU認識しないでやんのwwwwwwww
クッソワラタwwwwwwwwwwwwww
2022/12/05(月) 00:44:11.12ID:75Su7y/K0
>>633
オープンソースの発展は勝手にコード書く人口の多さに影響されやすい
2022/12/05(月) 00:45:57.42ID:bJiHIXjQ0
pytorchが動かんことには云々
2022/12/05(月) 00:51:17.01ID:faOL3WJC0
Windows+Radeon環境でも1111 webuiを楽にインストールさせてくれれば文句ないのになあ
NVIDIAはVRAM量ケチりがち & 個人的にNVIDIAに良いイメージないから、あんまりGeForce買う気にならん
2022/12/05(月) 00:51:40.73ID:rbFymsoa0
24GBでクラッシュとか…
2022/12/05(月) 01:22:12.63ID:HU9/2YSl0
そこまで言うなら自分で音頭取って有志をあつめるか、究極的に自分で書けばいいじゃんって話なんだよな
金もやる気もないなら現環境を受け入れるしかない
2022/12/05(月) 01:50:58.74ID:PPKKc3lG0
スレ民だったりして

AMDのWindowsマシンでStableDiffusion V1.5とAnything V3.0を使えるようにする
https://dolls.tokyo/howto-amd-win-sd15_any30/


AMDのWindowsマシンで動くAnythingV3.0 WebUIを更新(スケジューラと複数枚生成)
https://dolls.tokyo/amd_anything_webui_verup/
2022/12/05(月) 03:06:54.43ID:aBPwcwj50
Radeonがメモリ32GBとか出してくれると期待している
642名無しさん@お腹いっぱい。 (ワッチョイ 6768-BV3Z)
垢版 |
2022/12/05(月) 03:11:23.70ID:WQM6Adnw0
画像のサイズを変えずに画質良くする方法ってないですかね?
2022/12/05(月) 03:12:28.61ID:XwjCtEs2d
そろそろnijijourneyを学習したSDモデルが出てきてもいい頃だろ、少し楽しみ
2022/12/05(月) 05:46:47.45ID:HOXEL8v2M
>>595
まじでありがと
2022/12/05(月) 08:00:28.75ID:hxdCKOnSa
>>625
論文更新してたぞ
2022/12/05(月) 08:40:39.09ID:g8eLROKM0
Stable Diffusion 2.1 beta coming real soon to a Discord near you
って話も気になるな
SD2.0が残念さんだっただけに
2022/12/05(月) 08:51:10.98ID:19d8KIhq0
>>642
最終的にそのサイズになってればいいってことなら2倍のサイズで作って半分に縮小すればいいんだけど、そういうことではないよな……
2022/12/05(月) 12:58:01.48ID:Z3tq5VgW0
画素数を倍にしたいって意味だろ
方法は知らんけど
2022/12/05(月) 13:26:00.10ID:Sg0g0kcZa
くっそ劣化したjpgを同じ解像度のまま元の絵に復元したいという意味では?
無理だけど
2022/12/05(月) 14:09:48.45ID:2pIwpNNA0
i2iすれば?

>>630
--device でcudaデバイスのidは指定できるらしい
コマンドラインオプション一覧はたまに読むと発見がある
2022/12/05(月) 14:13:38.36ID:9iTb0kL70
アプコンの話?他のアプリ使えばできるっちゃできるよ

ソース
https://suishoshizuku.com/images/twitter_icon_taisho.jpg

madVR + MPC-BEのシェーダーでアプコン
https://i.imgur.com/KRROgDu.jpg

ノイズ除去も一応できる

ノイズ有り
https://i.imgur.com/4OV9yAB.jpg

ノイズ除去後
https://i.imgur.com/iG4fz5m.jpg

これ本来動画再生に使う物だから
モニタの解像度を超えて出力できないのが問題

詳しくはここで
https://egg.5ch.net/test/read.cgi/software/1622529336/
2022/12/05(月) 14:24:31.18ID:GK7r0f+J0
Upscaylをここでも推すわ
2022/12/05(月) 15:45:48.82ID:oDHW4Q8a0
prunedってどういうことなんやろね
2022/12/05(月) 16:25:46.01ID:KfS/LOyH0
>>653
プルンプル~ンってことだよ
ようはおっぱいだね
あと、『無駄な部分を削ぎ落した』 という意味でもあるよ
プルンプルンのおっぱいなのに無駄がないって素敵だよね
2022/12/05(月) 16:39:01.44ID:ADI2tp0q0
pruningと呼ばれる軽量化が施されたもの
重みを一部除去して推論を簡素化しつつ類似した結果を得られるようにする
pruning前後で全く同じ結果が得られる訳ではないが
できるだけ誤差を減らすために多くの論文が発表されている
openvinoで使うonnxファイルへの変換でも使われていた
2022/12/05(月) 16:40:56.51ID:Sg0g0kcZa
へー
2022/12/05(月) 16:45:18.07ID:Yqlpr/pT0
>>653
AI学習モデルのpruningとは、学習済みのモデルから不要な重みや層を削除することを指します。
モデルのpruningを行うことで、モデルのサイズが小さくなり、推論時の計算量が減少します。また、pruningによって、モデルの収束が早くなり、学習の効率が向上することがあります。
pruningは、学習済みのモデルをもとに行います。そのため、pruningを行う前には、モデルを学習させる必要があります。また、pruningの適用範囲や削除する量を適切に決定する必要があります。
pruningは、深層学習のモデルでよく用いられる手法です。モデルを小さくしたり、学習の効率を向上させるために利用されます。

ってChatGPTが言ってた
2022/12/05(月) 16:48:01.26ID:GK7r0f+J0
尤もらしいが正確性は眉唾すぎるw
2022/12/05(月) 16:53:37.51ID:DTZ7ARgsa
ChatGPTww
SDだとチェックポイントファイルに学習に必要なデータ(画像生成には不要なデータ)も含まれてるからそれを削除するってだけだな
2022/12/05(月) 17:01:38.95ID:g8eLROKM0
ChatGPTはそれでいいんだがSDだと削った情報にある程度必要な人もいるわけで
fp16/32,pruned,pruned-emaonly,無印,full,full-emaと千差万別あって生成結果は大きくずれなくてもそれなりに変化する
学習方法によってその選択もまた変わるという
さらに別条件でデータカットされたモデルをマージして学習元にしようとか奇々怪々な世界になってる
2022/12/05(月) 17:09:30.23ID:Sg0g0kcZa
まあ生成時はprunedでいいって言うのは間違いない
2022/12/05(月) 17:35:35.70ID:KfS/LOyH0
そうだね、おっぱいだね
2022/12/05(月) 18:09:10.31ID:0RSi1VUa0
おっぱい小さくしつつちちくび大きくしたい
2022/12/05(月) 19:17:05.82ID:Z3tq5VgW0
chargptは面白いけど
追加学習できなきゃ使い道ないよ
有料プランはいつになるの?
2022/12/05(月) 19:20:21.99ID:Mp90nLkxr
>>654
2022/12/05(月) 20:14:48.47ID:2NFWIrQ8M
>>654
おっぱいに無駄があるなんてのはまやかし
夢が詰まってんだからな
667名無しさん@お腹いっぱい。 (ワッチョイ c2e6-io8I)
垢版 |
2022/12/05(月) 23:38:10.88ID:VPZ4Kuht0
macもネイティブ対応なんだね
Colab使わずにできるのが楽しみ
2022/12/05(月) 23:57:37.05ID:Bgv4fQ7sa
NKMDでi2iしようとしたんだけど何故か元の画像がそのまま出力されるんだが原因がわかる人いない?
ちゃんとinfluenceの値も設定して画像に沿ったプロンプトも入れてるのに全然反映されなくて困ってる
2022/12/06(火) 00:02:22.89ID:CgVyxU+o0
NMKDを捨てるという解決策
2022/12/06(火) 01:26:02.74ID:KdRu5GeSM
流石に1111に乗り換えよう
2022/12/06(火) 03:23:40.17ID:oxVwO6g40
>>668
俺もNMKDから乗り換えた派なんだけど1111の方が滅茶苦茶良いよ
作れるキャラの幅が一気に広がった上にサクサク作業できる
便利な機能も多過ぎて使っているだけでも楽しいよ
2022/12/06(火) 07:14:21.17ID:QaeGquTE0
あとはInvokeAIのキャンバスみたいな機能が
1111にも来て欲しいな
2022/12/06(火) 08:28:20.67ID:MMnzFzOP0
今はというか、もうInvokeAIはChatGPT並みにエロ禁だからちょっと面倒なんだよな
2022/12/06(火) 08:31:53.17ID:y6WJo6O3a
なんで初期インストールの時にnsfwチェック拒否らなかったん?
2022/12/06(火) 08:32:57.84ID:y6WJo6O3a
ユーザーフォルダに.invokeaiファイルがあるからそれ編集すればいいみたいなことnsfwチェッカーが反応しても出たと思う
2022/12/06(火) 09:12:31.18ID:+brISm3kd
そのいんぐりもんぐりってのはなんじゃろかい
2022/12/06(火) 10:32:32.07ID:eCSlfg1xd
真ん中にキャラだけ置いてる透過画像から背景を作るのって出来る?

それっぽい背景はっつけてi2iしたほうがいいのかな
2022/12/06(火) 11:13:27.05ID:OH78SXdDM
>>677
なんぞ背景だけ描くプロンプトで出したのに透過画像を貼り付ければいいのでは?
2022/12/06(火) 11:31:57.46ID:eCSlfg1xd
>>678
角度?パース?がキャラに合うように出力できなそうだなって思って
2022/12/06(火) 12:07:36.00ID:GQVtRzkT0
ちょっと試したけどパースはインペイントで背景消して描きなおしても人物に合わせてパースも参照されてるみたいや
不思議やねw
2022/12/06(火) 12:10:37.50ID:+brISm3kd
いい感じにアレンジしてくれるのかしら
2022/12/06(火) 12:15:08.48ID:y6WJo6O3a
multi-subject rendererみたいなスクリプトなかったっけ
2022/12/06(火) 12:18:39.15ID:rC8PZS/80
そのキャラを黒くしたマスク画像作って、inpaintでマスクのアップロードしたらいいのでは
2022/12/06(火) 14:48:58.56ID:jYnJfpmZd
Any v3.0使うときはvae入れないと色が淡くなるってのは分かったんだけど、Any v3.0と他のモデルを7:3くらいでマージしたときもvae入れないと色が淡くなるんですか?
マージモデル使ったらやけに色が淡くなっちゃって
その時ってマージされたモデルのvaeはAny v3.0と同じvaeファイルをコピーして新モデルのファイル名に書き換えただけのやつでいいんでしょうか?
2022/12/06(火) 14:51:29.94ID:h7w2K1mBa
自分は応急手当的にそれで問題なさそうだったからそうしてる
でもなぜそれで上手くいくのか
なぜAny:ほかのモデル=0.1:0.9とか0.7:0.3で淡くなり方は違うのにvae適用でどれも同じくらい彩度持ち上がるのかとか
そういうのは理解してない
だからvaeは発見次第落として選択肢にしてる
2022/12/06(火) 17:35:25.63ID:K/bc3+sO0
1111使ってるから設定でAnyのやつに固定してるわ
モデルごとに準備しなくていいから楽だなと
原理は俺も理解してない
2022/12/06(火) 17:41:29.60ID:eCSlfg1xd
>>680
マジかすげぇ
2022/12/06(火) 18:22:16.59ID:jYnJfpmZd
理屈は分からないけどとりあえずAnyのvae使っとけばいい感じなんですね、ありがとうございます
2022/12/06(火) 18:44:38.15ID:+vo4LHGA0
>>652
これ使ってみたけどめっちゃいいわありがとう
2022/12/06(火) 20:31:31.73ID:sDYyXkjk0
なるほど、見映えのvaeということか
2022/12/06(火) 21:09:06.36ID:TrpIOPPL0
Any3の画風でnsfwするには、naiと3:7でマージするのがいいって聞いたんだけどうまくいかない…間違った情報かな?
2022/12/06(火) 21:16:59.84ID:I+ZJ9VY10
なんか更新したらHypernetworkの学習できなくなった?
2022/12/06(火) 21:42:02.58ID:h7w2K1mBa
いつものこと
動いてたSHA256とってcheckout
2022/12/06(火) 22:28:18.35ID:3JFob8cN0
>>691
その情報の所に行って正しいやり方聞いた穂がいいと思うけどな
本当に間違ってるかもしれないし、その人が言ってることが理解できてないだけなのかもしれないし
2022/12/06(火) 23:18:25.00ID:tXtpXv5k0
SD2.0のFineTuneモデル来た
https://huggingface.co/nitrosocke/redshift-diffusion-768

少し試してみたけどグニョグニョの奇形になるのは変わらんね
https://i.imgur.com/irFaVmg.jpg
https://i.imgur.com/WUWufi6.jpg
2022/12/07(水) 00:12:38.63ID:QBo/jucC0
目がこわい
2022/12/07(水) 00:27:40.81ID:boIb8gxA0
一枚目の方向性好き
写実と漫画の融合を突き詰めてえちえちコスプレイヤー絵を量産してほしい
2022/12/07(水) 00:37:34.23ID:HRazAn7qa
わいも2.5次元目指してるけどこれはきもさが勝つ
2022/12/07(水) 00:39:13.87ID:Nzy9oCd00
2枚目のうにょうにょ感も頭身下げればコミカルでいいかもしれないけど
多分chibiにするとそれはそれで崩れるんだろうな
2022/12/07(水) 01:28:39.88ID:ESgqaW+r0
>>695
kawaiiと3をネガティブプロンプトに入れるとキモさは減るかも
2022/12/07(水) 01:29:04.82ID:ESgqaW+r0
3D
2022/12/07(水) 06:43:47.18ID:Mv3jCvTP0
確定でアニメ塗りで出力されるモデルかプロンプトないですかね
2022/12/07(水) 06:54:22.64ID:syYgb19e0
>>695
ぬうう、ある意味質感が上がってるが…
イラスト系のクリーンモデルって難しいのかな
2022/12/07(水) 10:00:59.43ID:DmTGftkf0
https://huggingface.co/nitrosocke/redshift-diffusion-768
男が出てこない…どうするん?と思ったけど
https://i.imgur.com/ZzDpXhJ.jpg
https://i.imgur.com/uoIpwRX.jpg
黒人問題も解消してるし
https://i.imgur.com/4rtdUOO.jpg
https://i.imgur.com/LWxPnYq.jpg
セクシー表現もできるし
https://i.imgur.com/N6JOsgZ.jpg
リアリスティックも有効だし、SD2.0リリース時よりはだいぶ明るい未来が…
https://i.imgur.com/EHcZRyi.jpg
https://i.imgur.com/GLGWEeT.jpg
テスト生成にcolab用意されてるのは気が楽でいいな
2022/12/07(水) 11:57:27.23ID:e0bYM8SVa
novelAIでi2iしたら必ず水墨画みたいに線が太くなるんですか設定とかの問題ですか?
マスピ絵で出力したいのに…
2022/12/07(水) 12:13:53.37ID:NYYREAONd
元絵の影響度抑えるかプロンプトなおそう
2022/12/07(水) 12:53:16.74ID:c/D53YGIa
マスピ絵は絵の具の原色みたいなものかな
プロンプトやi2iなど手を加えるたびにすこしずつ色が濁っていくような感じでマスピ要素も薄れてしまう
2022/12/07(水) 13:22:28.88ID:z94Gb4P/0
waifuは2.1ベースか
2022/12/07(水) 13:40:02.74ID:Nzy9oCd00
Waifu2.1が出る前にSDがより高品質な2.2出しまぁす!って発表してWDも再延期、とかありそう
2022/12/07(水) 13:47:01.65ID:muv6N//xa
しないって言ってたぞ
2022/12/07(水) 13:47:38.41ID:muv6N//xa
延期しないというかそれで出しますって言ってた
2022/12/07(水) 14:49:41.97ID:h/v2GDuir
今週1.35が出るって見たけど本当?
2022/12/07(水) 14:52:29.78ID:kxMyHgz60
なんでこのスレの住人が最新情報の正偽を知ってると思ったんだよ
2022/12/07(水) 14:57:31.38ID:meLfYj3O0
ある程度の人は参加してるとは思うけどね
質問どころかジョークにも乗ってくれるしEmadよりは親近感がある
2022/12/07(水) 15:00:16.91ID:ZWOR65u1a
.ptファイルでマージみたいな事が出来たら便利なのに…
ということを最近思うんだけど、設計上無理なんですか?
716名無しさん@お腹いっぱい。 (アウアウウー Sa30-nia1)
垢版 |
2022/12/07(水) 15:24:19.98ID:DuNZnzYZa
HyperNetworkか?
いけるんじゃね
2022/12/07(水) 15:27:49.14ID:muv6N//xa
TouhouAI入ろう?
2022/12/07(水) 15:30:19.39ID:P2nel2540
samplerってどれを選べばいいんですか?
CFGっていくつがいいんですか?
2022/12/07(水) 15:49:55.57ID:YErKSArcd
hypernetworkのマージはフォークがあったと思う
1111に取り込まれればいいんだけど
2022/12/07(水) 16:29:13.11ID:muv6N//xa
まず個人的に使い物になるサンプラー一覧
Euler a, PLMS, DDIM, DPM fast, DPM++ 2M(Karras), DPM++ SDE(Karras)

とりあえず呪文模索する時やシード値探しする時はSDE KarrasのStep6
良さげなシードだけどこかに控えて後から好きなサンプラーでXY Plotで色んなStep数を試す
なおシード値探しをSDE Karrasで行っている以上「SDE Karrasではハズレだったけどあるサンプラーでは当たりになるはずだったシード」「SDE Karrasでは当たりだったけど違うサンプラーではハズレになる」ことは避けられない

リアル系とかは知らないけどNAI系の萌え(死語)なアニメイラストが出したい場合はEuler a > DPM fast(高steps) > その他サンプラー >> DPM fast(低steps)
背景とかはDDIMやDPM系の20~50stepsくらいがちょうど良さそう
2022/12/07(水) 16:31:48.27ID:muv6N//xa
CFG Scaleに限らずSamplerにも言えることだけど
モデルによってちょうどいいCFG ScaleやSamplerやそのStep数はだいぶ変わる
使うモデルをいくつかのプロンプトでCFG ScaleとSamplerでXY Plotして自分の好みを見つけるのが早い
2022/12/07(水) 16:41:42.58ID:d0P9NnBTa
>>706,707
ありがとう返信もらえると思ってなかった
生成した絵をそのままimageに取り込むならならないのに一回加工して持ってくると全部濃淡薄くて線が太い絵になるんだよな
どんな元絵でも、thick outlineとblack outline強調してネガにぶち込んでも全然ダメ
rength0.6以上にすると元の画像無視するし手詰まりになってる…
他になにか無いかな?
2022/12/07(水) 17:01:05.35ID:n1/JdS/ja
>>716
>>719
ありがとう、調べてみます
2022/12/07(水) 17:35:24.55ID:muv6N//xa
Kaggleの自分のDatasetにNotebookで落としたモデルを送り込むってできない?

Datasetの追加のところにあるRemoteLinkでHuggingFaceに置いてあるモデルの直リン入れてみたらエラーが出るみたいで
かと言ってローカルから十数のモデルをアップロードするのもうんち回線だからちょっと辛い
だからNotebookを通じてHuggingFaceから高速で落としてDatasetに突っ込めないかなって思ってググってみたんだけど検索ワードのそれぞれの単語が強すぎて上手く見つけられなかった
2022/12/07(水) 18:28:27.98ID:HvIImAF20
DAの威力に腰が砕けた
設定がよく解らんからほぼデフォやけど30000stepでもええんかこれ?
2022/12/07(水) 18:30:01.42ID:jYLyVilD0
huggingfaceでモデルを探していたら
anime系を全部ぶちこんだckpt作ってる人がいて
考えることは同じなんだなって
2022/12/07(水) 18:30:26.47ID:g4ov3FbE0
kaggleでエロ画像生成は笑うわ
2022/12/07(水) 18:31:21.23ID:muv6N//xa
さすがにそこまでの勇気は無いwww
2022/12/07(水) 18:32:04.99ID:muv6N//xa
でもワンチャンColabよりはそのへん緩いかもしれんね
2022/12/07(水) 19:00:02.03ID:NYYREAONd
>>726
くやしく、クリムゾンふうに
2022/12/07(水) 19:03:00.72ID:zwH74zW/0
>>725
よかったら成果貼ってくれないか?
2022/12/07(水) 19:44:24.18ID:P2nel2540
>>720
なるほど、ありがとうございます
2022/12/07(水) 20:06:47.68ID:syzdcebS0
ここ親切な人が多くて平和過ぎて草
他の板がおかしいだけか
2022/12/07(水) 21:23:39.98ID:UAeRP+C00
流行りにつられたあたおかさん達は別のブームに住処を移動したんじゃない?
735名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 02:34:46.95ID:qZl9gbPz0
nijijourney入れたけどこれすごいわね
日本語の簡単なプロンプトで限りなく欲しい絵に近いものがぽんぽん出てくる
画像生成aiで初めて課金してもいいと思ったわ
2022/12/08(木) 05:38:19.33ID:OdilId63a
それは本当に限りなく欲しい絵に近いものか?🤔
絵ができてから欲しい絵が決まってこれは自分が欲しかったものだって人が多くてやや猜疑的である
737名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 06:09:29.66ID:5AW3AB+D0
>>735
エロは出来ますかね?
738名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 06:12:28.09ID:5AW3AB+D0
i2iと追加学習はどっちが良いんだろう?
ピクシブを見てると学習って意外と量産性が低い気がする
2022/12/08(木) 06:24:49.57ID:xvavsqJka
でも当たりを引いてしまえばもはや誰も真似出来ない絵が出せるわけで
ロマンがある
2022/12/08(木) 06:25:30.49ID:xvavsqJka
あっi2iの特徴だこれ
i2iでいいなもう(適当)
741名無しさん@お腹いっぱい。 (ワッチョイ 98be-4FAg)
垢版 |
2022/12/08(木) 06:42:40.38ID:nXGnwmXq0
>>738
汎用AIで生成→DB,HNで絞るみたいな感じで両方使えよ
2022/12/08(木) 07:11:01.21ID:8vZ5dYP6a
実写画像を生成してi2iでいいじゃん
構図は実写の方が豊富だし
743名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:11:06.91ID:5AW3AB+D0
>>741
学習しても最後はi2iで修正する人が多いのかな
2022/12/08(木) 07:23:09.04ID:OdilId63a
実写は物理的に限られた構図が無限なのに対し
絵は物理的無視することもできる上で有限
なんか数字の数みたいな話だな
745名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:25:24.94ID:5AW3AB+D0
学習やったことないけど
エロは出しにくいのかな?
ピクシブ見てると学習はエロが苦手な気がする
2022/12/08(木) 07:31:38.56ID:OdilId63a
追加学習やったことないけどそれは学習の方向性によるのでは🤔
そもそもpixivに追加学習したモデルを使用してるって明言してる人そんな多いかな
マージもファインチューニングもしたしHNも使ってるしTIも使ってるとなった場合
分類に困ったからとりあえずStable DiffusionタグかNovelAIタグをつける人は多い
747名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 07:37:39.65ID:5AW3AB+D0
>>746
dreamboothタグはありますね
2022/12/08(木) 07:51:55.48ID:UFpmDrIu0
>>745
なぜ来週からエロ制限が厳しくなるピクシブ基準なのか視野が狭いわ…無料で試せるものなのに意味不明だわ
SD1.4の実写学習潰してDanbooru画像を学習したのがNAIで、マスピに2D版権キャラが上書きされタグとエロのバリエーションが増えてる
エロ同人売ったら捕まるような国でNAIに追加学習したのがAnythingだし
そもそもマスピ減らしてでも塗や指の再現を優先したかったわけで…その先にmeituがある
NAIに2D性器を学習させたGapeのサンプルでも見てまだ弱いって言えるのかどうかだな
ベースモデルを何に特化させるのかっていうだけで、黒人や障碍者入ったi2iで消えるっていちゃもん付ける屑にならんようにな
オープンソースなんだから好きなもの学習させて公開して、これ使えっていうのが筋だしな
文句言うだけなら日本の野党でもできる。何ができないかじゃなくて、何ができるかっていうのが技術発展でありお金になる
749名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 07:54:42.39ID:qZl9gbPz0
>>737
エロが出来ないからWD1.4次第だよな
理論上NAIは軽々超えられるカタログスペックはある訳だから、あとは学習のやり方なわけで
これでしょうもない結果だったら結局クローズドソースが最強というオチ
2022/12/08(木) 08:09:15.68ID:OdilId63a
wd1.35もwd1.4もすげー楽しみ
イラストのみを学習した1.35はこれまでの上位互換を期待してるし
色々データセットを増やした1.4にはイラストとより正確な絵的構造を兼ね備えたモデルを期待してる
楽しみだ
2022/12/08(木) 08:10:05.15ID:OdilId63a
※これまでとは
wd1.3, 1.3 penultimateのこと
752名無しさん@お腹いっぱい。 (ワッチョイ df7d-g9pY)
垢版 |
2022/12/08(木) 09:12:36.99ID:5AW3AB+D0
>>748
詳しい解説ありがとうございます
Gapeのサンプルってどこで見れるんですかね?
検索しても全然でないですね
2022/12/08(木) 09:30:34.85ID:d+FKQ96Xa
nijiの学習データもリークされねーかな
どうせvaeなんかも使って相当に縛ってるからこそのクオリティなんだろうけど
自前で好き勝手に使いたい
2022/12/08(木) 09:33:02.21ID:tVb5Zpxo0
>>752
ここはエロNGだから詳しい話はpinkのほうに
755名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/08(木) 09:41:57.85ID:qZl9gbPz0
リークはともかくniji上で学習もimpaintもoutpaintingも出来るようになって欲しいのはあるな
NAIもそうだけど細かい修正が効かなきゃ玩具以上の価値はない
2022/12/08(木) 09:53:40.10ID:OdilId63a
gapeってNAIに追加学習したものだったんだ……
2022/12/08(木) 11:06:00.85ID:qSxW78m40
別にdanbooruから学習したってことはわかってたんだからリーク使わなくても同じ方法でモデル作ればNAIと同じものが出来るだろ
特許とか取ってなきゃ誰でも同じモデル作って問題ない
2022/12/08(木) 11:08:29.11ID:fH0n6ugdM
nijiってつまり基本midjourneyだろ
これまでリークされたらマジ無法地帯だな
2022/12/08(木) 11:12:14.60ID:cOIadzDGM
>>724
gdriveなんたら使ってGoogleドライブ経由で入れるとか
2022/12/08(木) 11:27:04.19ID:fdkqxRPT0
Any3でエロやるならNAIと混ぜるといいらしいけど、
皆さんどんな割合でやってる?
2022/12/08(木) 11:44:35.12ID:OX/wmBEY0
だからエロはエロスレでやれと
【NovelAI】AIエロ画像情報交換 9【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1670389707/
762名無しさん@お腹いっぱい。 (ワッチョイ 1acf-XhAG)
垢版 |
2022/12/08(木) 12:35:28.51ID:r1+FtCNM0
>>748
文章が無駄に長いよ
基本的に偏った認識をしやすい・思い込みが激しい傾向があるようだけれど、それはできるだけ短く書くようにすれば対外的にはある程度改善されるから説明が苦手なら最低限だけ書くようにすりゃいい
2022/12/08(木) 13:43:38.98ID:RZMUSkSm0
>>762
かま...うな...
2022/12/08(木) 13:45:34.29ID:9jm4PJsua
>>763
わろた
2022/12/08(木) 14:09:42.67ID:AEpqI/Jk0
なんでそんなに元気なんだ?
waifu2.1、nijiリーク、追加学習できるchatGPT辺りがくるまで暇なのに
2022/12/08(木) 14:14:45.69ID:OdilId63a
waifu2.1!?
2022/12/08(木) 14:14:52.78ID:5xFct4MU0
え?知らないの?
ここの他にも人間ているんだよ
そしてAIお絵かきのことを知ってここを訪れたりするんだよ
2022/12/08(木) 14:16:01.56ID:OdilId63a
かま……うな……
>>767
2022/12/08(木) 14:18:30.39ID:3rduiZj70
>>768
わろた
2022/12/08(木) 14:21:36.47ID:9jm4PJsua
再放送するな
2022/12/08(木) 14:39:42.90ID:HIt5HbB20
いつの間にかSD2.1公開されてんじゃん。ギリギリ最低限のNSFW成分を含めて追加学習したみたいだな
2022/12/08(木) 14:41:00.47ID:b4HE66NI0
Stable Diffusion 2.1はリリースされたから試さないと。
2.0ではNSFWフィルターがきつ過ぎたと反省した版らしい
2022/12/08(木) 14:49:50.36ID:mW/Rh8j30
ベースモデルは毒にも薬にもならなくてエエ
SD2ベースのエロモデルが出てからが本番だが現状でもかなりお腹いっぱい
2022/12/08(木) 14:50:15.29ID:vivnITa/0
v2-1_768-ema-pruned.ckptをダウンロードすりゃいいのか
v2-1_768-nonema-pruned.ckptはサイズが同じなんだな。emaとnoemaってどう違うんだっけ
2022/12/08(木) 14:56:46.50ID:BZj8awSVM
redditにあるちょっとした比較見ても差がわからんな
流石にこれだけで判断出来んが
2022/12/08(木) 15:01:43.70ID:vivnITa/0
AUTOMATIC1111だとv2-1_768-ema-pruned.ckptを選ぶとランタイムエラーが出るな
またどこかからyamlを持ってこないといけないのかな
2022/12/08(木) 15:09:05.23ID:HIt5HbB20
とりあえず2.0用のyamlで動いたよ
意外とグラビア系行けそうな感じだ、1.4時代よりはマシって感じ。より酷かった2.0より遥かにいい
2022/12/08(木) 15:38:33.94ID:duEbMsjl0
vram24GBクラスのVGAって4スロット占有するんだな…
他の用途と兼用してるPCへの取り付けが無理で絶望
PC1台生やすことになると+10万円コースでさらに絶望
2022/12/08(木) 15:51:08.32ID:vivnITa/0
>>777
本当だ、768-v-ema.yamlを複製してv2-1_768-ema-pruned.yamlにしたら動いた
ありがとう
2022/12/08(木) 16:33:48.19ID:VGBYhHdo0
F222のほうがいまのところはいいおもちゃだな
sd2.1の遊び方も見つけたい
2022/12/08(木) 16:39:01.69ID:jRcSCzag0
もともと人体生成弱いのに裸類消しちゃったらよけい生成弱くなるわけだから、そこは反省したということか2.1
2022/12/08(木) 16:43:02.87ID:iQbKfPWj0
はよ蒸留なんちゃらとやらで1秒で生成できるようにしろよ
2022/12/08(木) 17:07:04.12ID:dhfMXWey0
>>778
ケースだけ取り替えればいいんでない
高さ350mm許容できるならinwin a03とかasus ap201とか電源フロントマウントのmatxケースで比較的コンパクトに収まるよ
2022/12/08(木) 17:27:10.35ID:8MK9PiV00
出力足りなくて電源ユニットも交換になってりして
2022/12/08(木) 17:30:15.04ID:duEbMsjl0
いまVGAの他にスロット3つ使ってるから他の用途捨てるか新規に生やすしかないんだ
colabに1月3000円払ったとしても3年で10万くらいだし新規にPC生やすくらいならこっちかな…
2022/12/08(木) 17:33:42.64ID:8MK9PiV00
スロット足りないならライザーカード追加しなよ
2022/12/08(木) 17:36:53.34ID:duEbMsjl0
なんか役に立つかもしれないとライザーカード2つもってたな
検討してみる。提案感謝
2022/12/08(木) 17:45:46.22ID:jRcSCzag0
2.1VRAM要求厳しくなったのかな? 2.0では大丈夫だったのに真っ黒画像になる
xformaers有効にすると2.1でも絵は出るんだけど
789名無しさん@お腹いっぱい。 (アウアウウー Saab-nia1)
垢版 |
2022/12/08(木) 17:52:29.48ID:IcSdI6nja
>>788
たぶん--no-half-vaeで治るやつだわ
2022/12/08(木) 18:09:43.29ID:OdilId63a
githubにその対応方法が書いてあったはず
2022/12/08(木) 18:12:03.05ID:OdilId63a
AUTOMATIC1111の方のことならこれ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5503
ただしfp16固定になるっぽくて、コミット固定が推奨されているというほんとに一時的な解決策

Invokeは知らない
2022/12/08(木) 19:01:53.75ID:jRcSCzag0
>>791
まさにこれだったわ とりあえずxformersで使ってく
2022/12/08(木) 20:24:53.93ID:kaXfkflp0
>>777
image to image だとランタイムエラーがでる・・・
2022/12/08(木) 20:49:06.46ID:OdilId63a
そのエラーを設定すべてと共にissueに投げると喜ぶ人がいるよ
2022/12/08(木) 20:56:06.88ID:Z+XmntM50
エロの無いmidjourney系統に
ハッキング仕掛けるだけの情熱を持った変態が目を向けるとも思えん。
ああいうのは変態が偏執的に執着するからガードを破れるんであって
何が言いたいかっていうと変態はつええし、なんやかんや文明を発展させるってこった。
NAIリークで明らかにイラストAIの時代は進んだしな。
2022/12/08(木) 21:36:35.44ID:DKqZU0Ry0
ハッキングをしかける必要すらないぞ
それっぽいのを作るだけなら出力した絵を食わせればいいんだから
こんなんはっきり言ってビジネスにならないと思う
2022/12/08(木) 22:17:03.57ID:AEpqI/Jk0
クリーン化して幅広く情弱に売りつけるか
TIファイルを裏で売買するのかの2択しかないよ
2022/12/08(木) 22:30:22.30ID:iwgtMGMj0
中国産じゃないmeitu使いたい人はいるだろう
ユーザー5億人で課金率0.1%で$1としてもそれが毎月なら金になる
人がやらないことをやるっていうのはそうそういうことだ
2022/12/08(木) 22:55:59.37ID:+hLRH/U/0
meituはバズってから株価1ヶ月で倍になったし、セルシス(クリスタ)はAIやめますって言って株価10%下がった
2022/12/08(木) 23:03:17.86ID:mW/Rh8j30
AIは次ステップ前夜って感じ
NAI/Anyで一段落かと思ったらSD/WD1.4ベースのElysiumが次の可能性を示した
来年がSD2派生モデルの時代になるのは確定としても、それだけじゃ絶対に済まない確信がある
2022/12/08(木) 23:09:00.84ID:tVb5Zpxo0
ElysiumはAnyベースだってばよ
なんでWDってことになってんだ
NaiとAnyとElyでシード合わせて検証したし
一番近いのはAny
2022/12/08(木) 23:20:41.22ID:mW/Rh8j30
>>801
公式見ろ
2022/12/09(金) 00:17:14.89ID:P5MO61Kn0
>>802
VAEにwaifuを推奨してるだけでモデル自体がwaifu由来とはどこにも記述ないぞ
そもそも出力結果があれだけNAIとANYに寄ってるのにwaifuは無いわ
804名無しさん@お腹いっぱい。 (スーップ Sd70-hCC7)
垢版 |
2022/12/09(金) 00:31:33.18ID:mXvgO1Zad
meituに絵放り込んだら色んな絵柄の高クオリティの絵出てくるからマジで凄い。エロ絵解禁されたらなんぼでも出したい
2022/12/09(金) 00:32:58.19ID:wGcAFEKA0
NAI/Any系列かWD系列かと言われたら、NAI/Any系列だわな
これでWD系列と言われても信じられん
https://imgur.com/a/YBQhQnx.png
806名無しさん@お腹いっぱい。 (ワッチョイ 3a10-1Qdo)
垢版 |
2022/12/09(金) 00:36:00.26ID:MAME8oGE0
>>796
言うても箱庭のwd1.3にnijiの絵を食わせたやつを触った感じ、ベースモデルがゴミなら何食わせたとて構図や人体の歪みや描き込み量は変わらん、少なくとも数千枚単位の追加ならな
今んとこウン百万枚単位の学習をしてるのは企業の支援もらってるharuだけだから、haruがいなくなったら十分ビジネスになる
2022/12/09(金) 00:36:01.03ID:/UA9uRzka
ですよね
2022/12/09(金) 00:36:29.50ID:/UA9uRzka
あれnijiの絵だったんだ
2022/12/09(金) 00:37:17.73ID:Y3ZicX0x0
Anyが一番良いな
2022/12/09(金) 00:40:34.60ID:/UA9uRzka
一生trinとwdのマージしたやつベースにsfw生成してるわ
1.35早くして
2022/12/09(金) 01:10:31.56ID:Lc07xj9Bd
今日突然colabでHN/TIのトレーニングできなくなったな
webuiは更新されてないし、多分torchか追加でcloneするrepositoriesのなにかが更新されておかしくなったんだと思うけど
2022/12/09(金) 02:46:00.55ID:Lc07xj9Bd
とりあえずtorchの過去バージョンをインストールしたら使えるようになったけど
過去バージョンにするとトレーニングのクオリティ面でなにか不都合があるならアレだな…
1111さん対応お願いします
2022/12/09(金) 04:02:59.53ID:/UA9uRzka
へーtorchのバージョンでクオリティ変わったりするんだ
2022/12/09(金) 04:06:14.55ID:Lc07xj9Bd
いや、知らない
テキトーなこと言っただけ
そんなことがあったら嫌だなーと言ったまでのことさ
2022/12/09(金) 09:13:57.44ID:ViRvp01sM
>>799
呪文詠唱の工夫にハマるような言語能力の高い人なんて一握りだからなあ
twitterに対するtiktokみたいな立ち位置
2022/12/09(金) 13:57:50.43ID:8teFVW/s0
AIに投げるプロンプトもAIに作ってもらうとすごく楽ね
2022/12/09(金) 14:01:37.75ID:8teFVW/s0
AI絵師の仕事がAIに奪われるなんて
絵師に厳しすぎだぜ
2022/12/09(金) 14:06:30.55ID:T8NlaYqy0
1枚1円未満なら奪われて良いのでは?
https://crowdworks.jp/public/jobs/8547433
2022/12/09(金) 14:15:29.99ID:2GU4YxFva
>>817
それいうならまずはいらすとやだろ
仮にいらすとやがいない世界線でもAIがやってただけだしいずれ難度にもよるがこういうのはあったでしょう
と思いました
2022/12/09(金) 14:52:27.11ID:68JYZmrc0
>>818
電気代で赤字になりそう。
2022/12/09(金) 15:04:42.47ID:bKWkpFXMa
一切指示無しで寝てる間にマスピ顔のハンコを量産するだけで500円ならまぁ…と思ったけど
それならマイニングの方がマシか
2022/12/09(金) 15:06:54.91ID:XTwC0IfPa
1枚生成に5分かけるとして500枚で作業時間42時間=2日だよ
よほど電気食いまくりPCじゃない限り電気代赤字にはならないだろ
2022/12/09(金) 15:07:08.53ID:TkgAIDQU0
今応募してる奴は何考えてるんだ?
失敗作のゴミだけ500枚渡すんだろうな
2022/12/09(金) 15:18:19.91ID:8teFVW/s0
>>819
すまん、煽るわけじゃないんだけど
いらすとやに仕事奪われた話と
どうつながってるのかよくわからんかった・・・

>>818
500枚分指示書用意するんやろか
2022/12/09(金) 15:35:21.60ID:TJKLdSWud
破綻なしの要望に沿った絵じゃないと意味ないだろうしそれを一枚1円はAIだとしても買い叩かれてるなw
2022/12/09(金) 17:30:18.37ID:8teFVW/s0
1枚1円×500はいくらなんでもないね
相手の要求がどの程度かわからないけど
1枚100円×500くらいならやる人おるかの
2022/12/09(金) 17:35:54.31ID:0PfZ+C0g0
一つプロンプト決めて
それで500枚出すだけでいいなら500円でいいんちゃう
なんに使うのか知らんが
2022/12/09(金) 17:54:06.39ID:2dxQBXB90
全部別の呪文でとかでもDynamicPromptとandomiz
あとは完全にダメなやつを弾くためのスコアラー入れとけば簡単

でも500円のために自分の情報登録したくはない
2022/12/09(金) 18:13:01.23ID:L0Sm9RnA0
間を取って1枚30-50円ならいいやつ作って選別して出してくれる人いそうだな
2022/12/09(金) 18:15:53.41ID:XTwC0IfPa
この三か月で腐るほど出力してるだろ?
フォルダ漁ってランダムに500枚選び出して渡すだけのお仕事よ
そう考えたらおいしいな
2022/12/09(金) 18:22:47.02ID:jTR7zHsur
あとで何か問題発生したときに、
「俺は依頼しただけで、違法な手段で生成したとは知らなかった! 悪いのは生成した奴だ!」
って責任問われる役目押しつけてくるんでしょ? 知ってる
2022/12/09(金) 18:42:57.19ID:MObUDpnZ0
まあでもやるやついるだろうなあこれ
なんせまじで誰でもできるし
2022/12/09(金) 19:07:34.76ID:n8lOV6dZa
何が狙いなのかわからんな
グラボ非搭載PCしかないけどAIイラストが欲しいって話なら有料サービスを使えばいいだけだし
グラボ搭載PC持ちならなおさら他人に依頼する必要がない
2022/12/09(金) 19:21:20.54ID:eYxJlOWM0
技術の話題なにか無いんか
2022/12/09(金) 19:25:40.45ID:Bi8si8xFd
技術なら、なんUの方がよほど詳しい話してて草
2022/12/09(金) 19:26:11.74ID:/UA9uRzka
技術ってそういう技術じゃないです
2022/12/09(金) 19:31:06.25ID:/UA9uRzka
読むべき論文は山のようにあるけど一向に読む気が起きないのです
GAN, CLIP, DDPM, DDIM, GLIDE, DM, LDM
D多すぎ
2022/12/09(金) 19:34:23.30ID:+A2KQp2Y0
唐突に読むべき論文がーとか言い出して対抗心見え見えなの草
2022/12/09(金) 19:40:11.33ID:/UA9uRzka
そのひとつ上のレス見て思っただけだから!
対抗意識とかないから!!

クリススレとかに貼られてたアートか贋作かみたいなタイトルのやつとか新しいんじゃない
自分は開いて秒で閉じたけど
2022/12/09(金) 19:40:24.57ID:/jDgHJ6z0
transformer is 何?
2022/12/09(金) 19:40:56.13ID:/UA9uRzka
わからない
俺たちは雰囲気で画像を生成している
2022/12/09(金) 19:51:03.07ID:L0Sm9RnA0
難しいことは任せた
要約して使い方教えてくれ
2022/12/09(金) 19:52:23.84ID:X5NH6UVf0
>>835
君と同じようにほとんど同じ住人だよ
エロ画像とプロンプトや版権再現は向こうっていうなんとなく区別してるだけ
隔離スレの有効利用ともいうけどな
2022/12/09(金) 20:03:52.51ID:uNCF86Sd0
生成出来るパソコン持ちで1枚1円の
内職やりたい程金困ってるやつなんて
いねぇだろ
2022/12/09(金) 20:21:58.08ID:L0Sm9RnA0
>>844
そりゃそうだな
割と高いおもちゃだからな
2022/12/09(金) 20:49:21.52ID:2dxQBXB90
Vision Transformer入門 (Computer Vision Library)
読んでかいつまんで教えて
2022/12/09(金) 21:14:50.72ID:LugO24Uy0
最近の気になる技術といえばこれ
https://github.com/cloneofsimo/lora

軽量版dreamboothみたいなもの?
本家DBと比べて学習が速く、出力物がめちゃ軽量で、品質でも上回るとかいわれてる
848名無しさん@お腹いっぱい。 (ワッチョイ 98be-4FAg)
垢版 |
2022/12/09(金) 21:31:21.59ID:hXtYx0cE0
>>847
うわー気になるけどDBと同一のデータセットでどういう結果を作れるかが重要だな~
2022/12/10(土) 00:15:07.16ID:n5CDVfMP0
SD2.1、普通に生成すると相変わらず微妙な絵になりやすいけど
Hentai Diffusionのネガティブプロンプトを入れると高確率で萌え系になるのを発見した
もしかしてSD2もプロンプトの研究で化ける?

hatsune miku
ネガティブなし https://i.imgur.com/WRoDKRU.png
HDネガティブ https://i.imgur.com/wui1wrS.png
masterpiece, a girl, anime style, high quality, highly detailed, full body shot, hd, hq, 4k, 8k
ネガティブなし https://i.imgur.com/1fd7JPN.png
HDネガティブ https://i.imgur.com/9VyirKK.png
masterpiece, a girl, anime style, high quality, highly detailed, face, hd, hq, 4k, 8k
ネガティブなし https://i.imgur.com/xk1Xjlg.png
HDネガティブ https://i.imgur.com/tpEetOn.png
masterpiece, a girl, anime style, beautiful face, high quality, highly detailed, full body shot, hd, hq, 4k, 8k, artstation
ネガティブなし https://i.imgur.com/7KPEDUP.png
HDネガティブ https://i.imgur.com/lzyuvxK.png
2022/12/10(土) 00:15:41.55ID:+AkehUGL0
そういやあ、ナタリーとかいうのはどのくらいの進捗なのか詳しい人おる?

https://github.com/Sygil-Dev/nataili
2022/12/10(土) 00:33:36.44ID:o6m2SUXi0
>>849
マジかスゲェ
昨日の夜散々いじくり回して諦めたわ
2022/12/10(土) 01:00:52.44ID:wQs3u6oT0
>>849
SD2.1はデモ版触っただけだけど
かなり適当なプロンプトでやったらガチャ当たりかハイレベルの二次絵が出てビビったわ
潜在能力がすごい高いイメージある
2022/12/10(土) 01:10:27.66ID:Pmx9QPOF0
情報のアンテナの感度高い人すげえわ
2022/12/10(土) 02:13:49.72ID:FQR4EU8W0
colabのwebuiでのトレーニング系全部エラー出るんだけど、普通に動いてる人居ます?
2022/12/10(土) 02:46:07.82ID:NgUyceir0
4070のRAMは12GBになるかもだってよ
https://pbs.twimg.com/media/FjhB_SYakAAhNE3.jpg
https://twitter.com/harukaze5719/status/1601102245327929344
https://twitter.com/5chan_nel (5ch newer account)
2022/12/10(土) 02:54:52.62ID:gmc5qugr0
いろんな拡張機能とか触れるようになって思うんだけども
githubの連中ってなんで使い方の具体的な説明しねえ奴ばかりなの?
使ってほしいのかほしくないのかどっちなんだよ
2022/12/10(土) 03:02:10.88ID:o6m2SUXi0
説明を求めるレベルのやつは相手にしとらんのやろな
2022/12/10(土) 03:23:01.89ID:vlIFV1eE0
ソース嫁
2022/12/10(土) 04:46:10.65ID:TuDVLiAl0
自分のために作ったのをオープンしてるだけだ
2022/12/10(土) 05:20:14.18ID:3f5Svhqx0
>>856
他で開発されたものをプラグイン登録してもらってるだけなので
オープンソースの開発元の解説すら読む気のないやつには使って欲しくない時代だよ
2022/12/10(土) 07:11:22.21ID:j0Aj6OFI0
導入方法まで抽象化して欲しい連中が
githubに来るなと言いたいわ
862名無しさん@お腹いっぱい。 (ワッチョイ df10-M12H)
垢版 |
2022/12/10(土) 07:23:36.95ID:BYBQQUSN0
スレチな流れかもしれんけど
でもオープンソースが世界トップを取るためには、技術者側のそういう意識の改革も要ると思うわMeituがあんだけバズってたりdreambooth叩くだけで大金せしめるビジネスとか見ると
現状SDはautomatic1111っていう一人のボランティアに依存しすぎでしょ。彼が失踪したら一瞬で廃れそう
2022/12/10(土) 07:27:24.43ID:vlIFV1eE0
解説サイトや技術スレが立ち上がってるやろ?
エヴァンジェリオンって奴だ
864名無しさん@お腹いっぱい。 (ワッチョイ dfbe-KKgq)
垢版 |
2022/12/10(土) 07:34:43.87ID:9KxUpIzt0
>>862
まぁわかる。自分のために作ったプログラム(簡単なフォーク)とかをワークフロー込で解説動画作ってアップしても(3,4万回ぐらいは再生されたが)
結局だれも使ってない(2,3人使ってくれたぐらい)経験があるからな🥺
一個のGUIプログラムとして完結させないとほとんどの人が手にとることはないのが現状なのだと思う
865名無しさん@お腹いっぱい。 (ワッチョイ df10-M12H)
垢版 |
2022/12/10(土) 07:43:15.66ID:BYBQQUSN0
>>864
解説動画まで作ってくれたら技術者としては十分すぎるくらいだし、すごく尊敬するけど
実際、特に英語圏のプログラムは余程誰でも試せる状態じゃないと情報がこっちまで回ってこないね
reddit常時眺めてるような猛者が何人いるのって話だし
個人的には是非Twitterで告知してほしい、大体の層は情報源Twitterで終わってると思う
2022/12/10(土) 07:54:51.65ID:Yn+7mkMqM
そのために裁判制度がある
お気持ちを公に思う存分表明できる素晴らしい制度だ
2022/12/10(土) 08:16:12.38ID:H+gHFmi+a
オープンソースって機械で言えばネジとか歯車の話でしょ(「ネジ」や「歯車」に権利があって一つの企業が独占してたら発展なんて出来ないよね)
一般人はネジや歯車なんて買わないよ
2022/12/10(土) 09:43:46.58ID:5ok7G53Q0
>>847
アテンション層の重みだけ弄るってのはHNと似てるな
HNがkvだけなのに対してこっちはqkvoだから表現力は上になるのかな
ただDBみたいなオブジェクトを覚えさせると言うよりHNと同様に画風向きっぽい?
サンプルもスタイルの変更だし
2022/12/10(土) 11:55:30.70ID:FB56fkH+0
>>864
流石に打率低すぎんか? あまりにもニッチすぎたんだよきっと
2022/12/10(土) 12:11:57.90ID:8EL4NWy50
Unstable Diffusion、キックスターターに現る
https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd?ref=77gx3x

有料の非公開モデルかな。自由にモデルマージできないかこれじゃ
2022/12/10(土) 12:13:36.75ID:8KDMHF0Da
AIイラストじゃないけどUnrealEngineやBlenderの使い方の解説を丁寧にやってたチャンネルが
再生数3桁くらいしか伸びなくて半年くらい前に更新停止しちゃったな
俺はめちゃくちゃ参考にしてたけど解説動画を見て手を動かそうと思う人って考えてる以上に少ないのかもしれない
2022/12/10(土) 12:17:50.11ID:uG5fIDrVa
誤爆レベルで何の話だ
2022/12/10(土) 12:20:47.07ID:N/gzEDw7a
使い方で万再生いったけど使ってるの数人って話に対してだろ
数個上のレスぐらい見ろよ
2022/12/10(土) 12:25:14.93ID:uG5fIDrVa
10レスくらいまたいでんじゃねーかハゲ
2022/12/10(土) 12:50:44.73ID:Jaf3pwa/0
>>870
>This model (and it's in progress checkpoints) will be given first to backers,
>and later released open source for all
って書いてあるじゃん。オープンソース(予定)でしょ
しかし人雇って人力でラベル付けするって力技だなぁ。2500万枚とか気が遠くなるな
2022/12/10(土) 13:25:31.77ID:8EL4NWy50
>>875
人力ラベルかぁ。人がやるからといって精度が高いとは言えないんだよね
作業者の人選がめっちゃ大事になりそうだな
2022/12/10(土) 13:34:05.72ID:8EL4NWy50
>>837
そのあたりの理解度が、描かせる絵の自由度にも影響しそうだな
今日は俺もそのあたり読むかぁ
2022/12/10(土) 13:41:53.61ID:uG5fIDrVa
大事なのはDDPM(世界初のDiffusion Modelで使われたサンプラーの論文)とLDM(SDの核となっている技術)とGLIDE(Diffusion ModelををCLIPを介して動かすもの)って教えてくれた人は言ってた

DDPMはDiffusion Modelにおける世界初のサンプラーだからいちばん詳しくどのようにサンプラーが機能しているかが書いてある
LDMは多分特徴空間がどうたらこうたらを採用したDMだから大事、vaeがどのように動くかわかる
GLIDEは人の言語(t2iなど)からどのようにCLIPが機能してDMを動かしているのかわかる

だそうだ
頑張って
2022/12/10(土) 13:45:09.30ID:uG5fIDrVa
GANはDMの前に流行ってた画像生成に使われてたもの
DDIMはDDPMを改良したもの
DMはLDMの前身
だからそこまで最優先で重要視するものでも無い
2022/12/10(土) 14:05:13.52ID:Xx51Z09z0
金出すよりもむしろ人力ラベリングを手伝いたいくらいだな
1日100枚で100日くらいなら手伝えるぞ。俺があと2500人居ればすぐ終わるんだが
2022/12/10(土) 14:33:13.24ID:kxWW74v6M
ラベリングは結構な部分を人力に頼らざる得ないんだよな
テスラもその為に1000人くらい雇ってたはず
2022/12/10(土) 14:50:16.72ID:PJ19cZoI0
スコアリングのための人力点数付けはやってる
1万枚ぐらいで自分の趣味をなんとなく理解してくれるようになった気がするがとても手間
2022/12/10(土) 15:09:09.15ID:PqzsL1230
スコアリングってそういうアドオンがあるんか?
2022/12/10(土) 15:17:25.16ID:PJ19cZoI0
https://github.com/grexzen/SD-Chad
これとかとしあきWikiのやつとか
2022/12/10(土) 15:34:24.10ID:n5CDVfMP0
>>870
Unstable DiffusionはSDがアーティストを排除したと言ってるけど
RedditでLAION 2Bに含まれるGreg Rutkowskiの作品は26枚だけとかいう話を見たな
むしろGreg Rutkowskiにあれだけバイアスがかかってたことの方がおかしい
2022/12/10(土) 15:37:57.92ID:5jDn5ugGa
別にAIは画像だけが学習元じゃないからね
「ベンドールという画家は暖色系を主に用いて女性の油絵を多数描いたことで知られる。とくに光の表現が評価が高い。」
という文章を学習していればベンドールの絵が学習画像に一枚もなくてもプロンプトでベンドールと入れると効果を持つ
2022/12/10(土) 15:46:22.23ID:N/gzEDw7a
SD(とかNAI)は自動ラベリングしてるからな
何でラベリングしてるのか知らないけどCOCOみたいなのだと20万ラベルとかある。グレッグに似てるのがあったら全部グレッグよ
SDはNAIに技術提供してたっていうけどそういうラベリングも協力してたんだと思う
リークしたって聞いたときはこの事前処理が漏れてること期待したんだけどな・・・
2022/12/10(土) 15:48:38.02ID:uG5fIDrVa
(deep danbooruじゃだめですかね……?)
2022/12/10(土) 17:35:21.99ID:OVIkuSnc0
DBしたckptを1111に読み込ませたら
 Error verifying pickled file from ファイル名
 The file may be malicious, so the program is not going to read it.
 You can skip this check with --disable-safe-unpickle commandline argument.
って出たんだけど、なんだこれ?
今までこんなの無かったんだけどな
2022/12/10(土) 17:50:16.65ID:uG5fIDrVa
それpickleに妙なこと書いてあったら出るやつ
2022/12/10(土) 17:51:36.02ID:uG5fIDrVa
いわゆるウイルスckpt
なんだろDBやった事ないから知らないんだけど元になるckptにも出てるならDBするとpickleになんか書かれるのかな
識者求む
2022/12/10(土) 17:52:23.24ID:uG5fIDrVa
×元になる方にも出てるなら
〇元になる方に出てないなら
2022/12/10(土) 18:10:14.61ID:OVIkuSnc0
>>891
マジか、TheLastBenのFastDreamBoothが無料colabでも使えるように修正されてたから
NAIリークモデルでやっただけだわ
もちろん元のNAIモデルでも、今までのFastDB結果でもこんなのは出なかった
2022/12/10(土) 19:31:04.43ID:Jaf3pwa/0
zipファイルが壊れてたりメモリ不足だったり原因が何であれロードに失敗すれば
そのメッセージは出るから何で読み込めなかったのはエラーメッセージを見るべし
本当に危ないファイルなら許可されてないモジュール名が表示される筈
2022/12/10(土) 20:22:24.34ID:OVIkuSnc0
>>894
ありがとう、エラーメッセージの意味を調べてみる
参考までに、こんな感じのエラー
https://i.imgur.com/0pJxyZg.png
896名無しさん@お腹いっぱい。 (ワッチョイ dfbe-KKgq)
垢版 |
2022/12/10(土) 21:18:40.55ID:9KxUpIzt0
>>895
そのDBのCkpt壊れてない?試しに--disable~を起動引数でやってみそ
信用するかどうかは別だけど再DLしても駄目なら壊れてないか試してみて
2022/12/10(土) 21:22:18.80ID:Jaf3pwa/0
>>895
書庫内ファイル名チェックで失敗してるみたいだけど
data.pklで止まってる事はフォルダ名がダメな可能性?二バイト文字使ってるとか?
書庫内のルートフォルダの名前をarchiveに変えたら通るかも知れない
2022/12/10(土) 22:39:49.61ID:Xx51Z09z0
>>849
はーすごいな、うにょんうにょんした人体ばっかり出るからあんまり期待してなかったけど
現時点でこれだけ出せるなら2.1ベースで学習されるWaifuは結構凄い事になるのかもしれないな。期待だわ
2022/12/10(土) 23:16:18.15ID:bbh9VXO60
わからん・・・設定に詳しい人いたら教えてほしい
NMKD Stable Diffusion GUIからStable Diffusion web UIに移行はなんとかできたのだが
GUIのほうで出していた絵柄がweb UIのほうで再現できなくて困惑してる
呪文の強弱やサンプラーやCFG Scaleをいじっても質感からして違うし
同じ設定にする方法を検索してもそれらしいのはない

どうしたらいいんだこれは
2022/12/10(土) 23:37:15.55ID:LyN4+DKi0
>>899
あとはCLIPかな
2022/12/10(土) 23:43:51.65ID:+AkehUGL0
>>899
手元で普通に同じ生成得られているから、どういう画像をどういう生成でプロンプトはどうとか書いてくれないとわからんかも
2022/12/11(日) 01:45:51.08ID:cQNkBJdb0
>>900
img2imgのCLIP interrogatorのことなら触ってないです

ん〜〜原因を探ってる
呪文同じ、シード Step CFGスケール同じ 解像度同じ modelはwd-v1-3-full
web UIの設定タブはデフォルトのままで問題ないはず
作品はシード同じだから雰囲気似た感じの別人が出てくる。服装も腕の位置も別物

サンプリングアルゴリズムはweb UIがDDIM
GUIのほうはexifデータ見ると -Addimって出てるからDDIMと違うのか?これは

使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか

なんかweb UIの起動画面見たらモジュールがないらしい、これ必要な奴だろうか

Launching Web UI with arguments:
No module 'xformers'. Proceeding without it.
LatentDiffusion: Running in eps-prediction mode

軽くググったけど解決してない例しか出てこなかった
知らない用語だらけで読むのがムズイ
2022/12/11(日) 01:47:28.69ID:cQNkBJdb0
>>901
設定は特にいじってない感じですか?
904899 (ワッチョイ 7fa7-u86g)
垢版 |
2022/12/11(日) 01:56:40.93ID:cQNkBJdb0
>>902
>使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか
補足。低メモリだと機能しないexclusion words は呪文から消した

寝る!
905dd (ワッチョイ dfbd-jpzT)
垢版 |
2022/12/11(日) 03:49:45.91ID:tMRnLmhg0
テスト書き込み
906dd (ワッチョイ dfbd-jpzT)
垢版 |
2022/12/11(日) 03:51:39.04ID:tMRnLmhg0
https://imgur.com/zFYIvJO.jpg

Meituでボタン一発で
スゲーイラストができてビックリ
でもよく見たらリボンが後頭部に繋がってて草
907ddd (ワッチョイ dfbd-jpzT)
垢版 |
2022/12/11(日) 03:55:38.42ID:tMRnLmhg0
スレ間違えたか
なんか技術的なレス多いね
場違いだったスマン
2022/12/11(日) 06:13:36.66ID:nN2eGObJa
>>902
NMKDの方の画像をPNG infoにでも突っ込んで運良く設定が埋まってたら真似しよう
ちなみにそこでのCLIPというのはClip Skipという項目のことか、最近話題になったsd_hijack.pyの書き換えで別のCLIPを使うやつのことだと思う

あとはEta Noiseという項目が怪しい
31337だっけNovelAIのエミュレートの時に使うやつって
あれがNMKD GUIでデフォルトで設定されてたりとかないかな
2022/12/11(日) 06:33:56.47ID:QRNNvM1M0
>>906
ええやん、なんか味があるね
2022/12/11(日) 09:09:08.80ID:qAF6PGCJ0
>>903
特にいじってなかったはず

automatic1111のsettingにある、eta (noise multiplier) for DDIMの値が0じゃないとかかな?
とりあえず、ごく単純なプロンプトで比較生成してみたらどうか
negativeや強調も無しで photo of a girl ぐらいのを
2022/12/11(日) 11:20:50.83ID:LqCSeivU0
>>896
>>897
情報ありがとう
別のモデルでDBしたりもしてみたけど、同じエラーが出たからDL失敗とかでは無さそう
--disableで起動して使ってみたら、ちゃんと学習成功してた
FastDreamBoothがいまさら何か仕込んでるとも思いにくいし、
そのうち更新されて解消するの待ちかな
2022/12/11(日) 11:26:47.18ID:dD7TkWyl0
>>902
一応言い切れる事と言えばNMKDよりAUTOMATIC1111のほうが圧倒的に設定項目が多く、NMKDの設定をAUTOMATIC1111で再現することは出来ても逆は出来ない、はず

あと1111の設定でCLIPって言われたらそれは設定にある
Stop At last layer of CLIP model
のことだと思う
通常は1だけどNAIとかNAI派生モデルの場合は2のほうは正確な描写になる可能性が高い
913名無しさん@お腹いっぱい。 (ワッチョイ dfad-u86g)
垢版 |
2022/12/11(日) 13:21:41.52ID:LGG8OOJz0
2,3日前からstabl diffusionをgoogle colabde上でトレーニングを使おうとすると
RuntimeError: indices should be either on cpu or on the same device as the indexed tensor (cpu)
がでてトレーニングができないのですが、誰か解決方法を知っている人いますか?
914名無しさん@お腹いっぱい。 (ワッチョイ 470c-6wbo)
垢版 |
2022/12/11(日) 14:25:08.37ID:UrgBltFj0
絵描きなんだけど、構図の案だしとか、完成した絵をAIで添削してもらったりして画力上げる参考にしたい。
novelもニジジャーニーもmeituも、そこら辺は一通りできてどれ選んでも遜色ない感じですか?
2022/12/11(日) 14:35:45.54ID:zHYZUCfT0
デザインや塗りなんかは参考になるけど構図はたいしたもの出てこなくて参考にならん印象
というか構図はまずフレームがあってその上に成り立つもんだけど学習段階で正方形にトリミングされるからそもそも構図を正しく学習できてない気がする
2022/12/11(日) 15:03:19.33ID:Ud/URT2L0
全部試したわけじゃないから比較はできんけど、絵描きはAIを上手く使えば結構遊べる
面倒な背景とか絵の色調に合わせて出してくれるのも便利だわ
2022/12/11(日) 17:33:16.36ID:1JfVql0ka
>>914
AIは現状では添削には使えない
i2iをやると細部が溶けたり手足が奇形化する
2022/12/11(日) 18:02:55.82ID:Ig8PAyJ+0
たいした構図が出ないと言う意見が言えるのは、相当ハイレベルな絵描きか、もしくはまるでAIを使いこなせていないかのどちらかだな
プロンプト次第では最大公約数的に『良し』とされる構図をたくさん排出出来る
一般的な絵師が参考にするのであれば充分なクオリティだと思うよ
2022/12/11(日) 18:47:00.06ID:sBCL8F0H0
ヘタクソな絵でも複雑なデザインを保ちつつ綺麗にできるか独自に調査した結果
強度0.3前後で何度もi2iを繰り返せば多少はマシな絵になる事が判明した
単純なデザインなら0.6前後でも読み取ってくれる
構図が壊滅的にダメでなければ体型も多少は補正してくれる
ただし近似色は融合するので濃淡をはっきりさせないといけない
指は0.2ぐらいじゃないとダメっぽい
2022/12/11(日) 20:04:41.15ID:uMqMS7Zl0
返信ありがとう

>>908
合わせられる数字は合わせてみたけど同じ絵にはならなかった
>Eta Noise
いくつか試してみたけど絵柄レベルでは合わなかった。数字にキリがないので一旦保留する

>>910
>eta (noise multiplier) for DDIM
config.jsonを削除してデフォでゼロだった。

>ごく単純なプロンプト photo of a girl
途中から呪文は最低限で試してるけど進展なしでした

>>912
>Stop At last layer of CLIP model
設定下のほうの、「Clip skip」を触ったら「1 settings changed: CLIP_stop_at_last_layers.」
って出たからこれかな。
デフォの1が一番NMKDに近かったです


NMKDのほうの設定「Use Full Precision」、GTX16xxの修正目的の欄のチェックを外して
別のグラボで試したら同じ呪文、同じシードでも別画像になるのが分かった
見た感じ絵柄は同じなので内部的にシードが違っているのか、Sampling methodが多少変わったかだと思う
なお、webUIに近い画像が出るのはGTX16xx設定した時のほうだった

現状手詰まりなので、とりあえずNMKDで続行しつつ、webUIで別に呪文を研究して
暇なときに全部再インストールしてやり直してみるとする

以上!
2022/12/11(日) 20:16:04.20ID:exfoNnj+a
2022/12/11(日) 23:03:51.62ID:nNF8jIoY0
GeForce GTX 16xxは半精度浮動小数点数(FP16)をサポートしてないとかで
問題が起こりやすいからトラブルシューティングにまとめられてるよ
1111版WebUIはデフォルトがFP16で、--no-halfオプションを使うとFP32になる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting

そもそも別ソフトだと処理の違いで同じ設定でもまったく同じ絵にはならないし
FP16とFP32でも絵が変わる。1111版WebUI自体もアップデートを繰り返すうちに結構変わってる
Waifu Diffusion v1.2が出たばかりのこれとか、今生成すると別物になる
https://twitter.com/InwerwmA/status/1571018804242808833
https://i.imgur.com/2H5LWJe.png
https://twitter.com/5chan_nel (5ch newer account)
2022/12/11(日) 23:24:57.09ID:stueLxgN0
昔euler aのバッチだと再現性がないって話が出てきたときに
他のサンプラーとて1111のverが変われば結局再現性はないという結論になってたな
2022/12/11(日) 23:45:08.79ID:y/v2/uBf0
>>922
自分もそういう認識だったけど、
試しにno-halfつけて生成してみたらつけない時と同じ絵が出てきたので混乱してる

>>923
昔は75トークンの制限解除まわりで二転三転してたり、
1111の更新で生成の仕様が変わる理由があったけど、最近はそうでもなくない?
2022/12/11(日) 23:49:28.10ID:vIb0fQtKa
10月ぐらいからは生成結果が変わるような変更入る場合はオプション用意されてるだろ
ただメタデータに設定が保存されてないから再現するのが困難になってる
ま、再現考えてるならgit pullのたびに111のフォルダとpip listを残して1111をbatで起動しなければいいだけ
2022/12/12(月) 00:34:31.46ID:o10qa92U0
9月末にはAUTOMATIC1111の生成データもメタデータ入ってるからNAI以降の人は保存されてると思う
あの頃とはCLIPやらデノイズやらいろいろ設定増えて普段使いはだいぶ変わってるからねぇ
textでこんなロボも
https://i.imgur.com/cpqRsS2.png
i2iでアウトペインティングガチャすると予想外のもの描いてくれたけど今はおとなしくなってしまってさみしいな
行儀よく真面目なんてできないAIに感動してたのに
https://i.imgur.com/2t8Boif.jpg
2022/12/12(月) 00:52:56.95ID:c6Fy3qpba
メタデータに設定が保存されてないってのは、メタデータに全パラメーター保存されてるわけじゃないって意味
バッチだと再現性がないって話も、その時のバッチサイズと開始シードまで設定として残したら再現できるみたいな
2022/12/12(月) 00:53:54.79ID:jIUWRKVD0
>>924
モデルデータがpruneでFP16になってるんじゃない?
wd-v1-2-full-ema.ckptなら若干絵が変わる

デフォルト https://i.imgur.com/2H5LWJe.png
--no-half https://i.imgur.com/6hdfHOZ.png
2022/12/12(月) 01:37:20.90ID:D+Qohspq0
>>928
final-prunedだけど、あれってfp32だったような?
2022/12/12(月) 01:52:07.61ID:jIUWRKVD0
>>929
FP16 pruneツールにかけるとエラーが出て失敗するからFP16だと思う
つうか、フォルダー名からしてprune済みじゃんw
2022/12/12(月) 02:51:44.14ID:OXjM3D5l0
prunedでも4GBあるならfp32だぞ。ファイル名にprunedって付いてても、
単に不要なデータを削除しただけの場合(レアケース?出力は変わらない筈)や
emaの値で上書き済みだったり(大体コレ)半精度化されてたり(そこそこある)でややこしい
2022/12/12(月) 03:08:32.51ID:D+Qohspq0
Anyv3のprunedがfp32で4GB、fp16で2GBだから、
final-prunedも4GBなのでfp32かなと思ってるけど実際はわからん。
マージする時にfloat16押すと2GBになるけどそれは傍証にならんか?
933名無しさん@お腹いっぱい。 (スプッッ Sd7f-6wbo)
垢版 |
2022/12/12(月) 09:23:40.82ID:ScIxrjGBd
>>918
ありがとうございます。
どの画像生成AIも変わりませんか?
個人的にニジジャーニーが気になってます。
2022/12/12(月) 11:47:59.95ID:S8YAx9ml0
車屋に行って、どれでも変わりませんかって聞くぐらい愚かな質問。
得意とする分野や画風があるから、
サンプル見ながら比較しろ
2022/12/12(月) 11:50:29.92ID:1DRO0WWu0
多少のプロンプトの理解力の差はあれ、どうせ良い構図が出るまでガチャるんだから
最終判断は人間だし、どれが良いですかってのもないんじゃない。
2022/12/12(月) 12:17:39.55ID:mQfy4Ak0a
初心者向け簡単説明拾ったので貼っとくね

https://i.imgur.com/wjG9aV4.jpg
2022/12/12(月) 12:48:56.91ID:699LnEINp
>>936
AIの考えたリンゴがコピーだって言われそう
2022/12/12(月) 12:56:51.22ID:DPNCF+OV0
>>936
分かりやすい
レオナルド・ダ・ビンチが壁のしみから絵を想起した話があるけど
ノイズを与えられて絵を生み出す部分は作成法が少し似てる気もした
2022/12/12(月) 12:57:58.88ID:Y5UNDqN3r
人間が頭で描いた完成図であっても、「リスペクト」とか「パクリ」とか状況で変わるけど、
AIの場合は「結局は電子データ(具体的なデータ)を参考にしてるんでしょ?」
っていう永久ループの論争不可避だろうからな……
940名無しさん@お腹いっぱい。 (ワッチョイ 7fcf-NM9W)
垢版 |
2022/12/12(月) 13:29:57.86ID:dfaXlA1U0
圧縮や暗号化されたデータはオリジナルを元にはしているけど意味のわからないデータになってるから
何らかのキーを与えたりして解凍や復号でこねこねしたら、その生成物はみんなワイのもんや
ただしそれを自分のものとして公開すると何らかの法律にひっかかる可能性はあるって、子供向けなら注釈はいれといてほしいな
2022/12/12(月) 13:36:36.77ID:AACh2cLa0
学習元が特定できるレベルで露骨にコピーして出力されるケースも報告されてるけどね
2022/12/12(月) 13:36:53.35ID:KJEhmQ37a
>>936
明らかにAI賛成側に偏った人が描いてるから
その真逆でAI反対派に偏った人のこういうのを見てみたいね

どちらも技術的知識という背景を持った上での
2022/12/12(月) 13:40:41.69ID:uRyChprRa
>>941
古塔罪だな
2022/12/12(月) 14:00:24.09ID:k313VnTD0
技術系の質問いいですか?
DBやHNが学習画像のサイズ512x512推奨なのってどういう理由なのでしょうか。
単にデカい画像だとその分VRAM食うとかで、余裕があるなら画像サイズは正方形以外でも自由に設定してもいいんでしょうか?
2022/12/12(月) 14:03:54.48ID:njpu+iyf0
>>933
エロいらないなら2Dはニジジャーニーが頭一つ出てる印象はあるけど、それはあくまでも塗りや雰囲気も含めてなので構図まではなんとも評価出来ないかな
このスレ含めてほとんどのAIお絵描きスレはエロ無しは不人気なのさ
ニジジャーニーみたいな表のAIはTwitterのほうが情報が多いかもね
2022/12/12(月) 14:35:11.03ID:cKzPmOPza
そもそも鬼滅の刃を読んだ人間の脳みその中身をくまなくスキャンしたとしても鬼滅の刃の画像は出てこないだろうな
でも炭治郎の絵を描くことができる
AIだって同じだよ
2022/12/12(月) 14:38:54.68ID:1DRO0WWu0
>>944
なるべく32の倍数にしたほうがメモリの負担が軽いから。
まあメモリに余裕あるなら可能な範囲で例えば1024x768とかでやるといいんじゃないかな
2022/12/12(月) 14:46:38.22ID:xzeX5Nf70
>>942
こういうのは?
AI反対派というわけでもないし簡潔でもないけど、どちらにも偏ってはいないと思う
https://www.youtube.com/watch?v=aNdb_RUxtOM&list=WL&index=8
2022/12/12(月) 15:34:20.65ID:TemOADz60
そういう技術外の話が好きな人は、こっちへどうぞだ

【Midjourney】AI関連総合23【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1670061516/
2022/12/12(月) 15:37:36.11ID:P+Vk7Oa2M
どんなに複雑なデジタルタトゥー施しても一回印刷してスキャナー取り込みしたら終わりじゃないのかな
今でさえ簡単にPNG情報消えちまうのに
2022/12/12(月) 15:52:24.21ID:c6Fy3qpba
スクリーンショット撮っただけで消えるなんちゃって透かしもあれば
スクショぐらいじゃ消せないけど、画像縮小やカメラやスキャナ通したら読み取れなくなる透かしもあれば
スキャナ、カメラや多少のピンボケでも残る透かしもあるよ
2022/12/12(月) 15:56:40.05ID:RC4E6V+V0
TI学習時の画像みたいにベクトルで再構築されたら流石に消えるかデータ破損しそうだなぁ
2022/12/12(月) 16:07:40.05ID:KJEhmQ37a
つまりスクショ撮ってi2iなり適当なwatermark removerなりでしまいよ
雑魚が
2022/12/12(月) 16:08:19.18ID:KJEhmQ37a
スクショ撮っても残るRGB以外の情報なんか無いだろうし
2022/12/12(月) 16:11:09.32ID:f4lsQFfa0
>>941
再現データが公開されてない上にi2iじゃないと再現性が確認できないデマだったけどにゃー
2022/12/12(月) 16:19:53.64ID:KJEhmQ37a
へー
abstractしか読んでなかったけどこれ?
https://arxiv.org/abs/2212.03860
2022/12/12(月) 17:44:01.31ID:10q/0PDka
ちょっと過学習気味になったかな?微調整して…というのを繰り返してるうちに自分の中の目標の絵柄が迷子になる事が多い
モニターとかソフトのリセットみたいに人間側の認識のリセットボタンが欲しい
2022/12/12(月) 17:48:15.63ID:qELSaCSD0
NHKやってんぞ
2022/12/12(月) 17:50:06.16ID:qELSaCSD0
終わったぞ
2022/12/12(月) 18:35:19.47ID:gXOAWN0V0
>>956
ざっと翻訳サイトにかけて読んだ感じ
選別した高クオリティのサブセットで調整してるから
その過学習が出るって感じか?
流石にちゃんとした専門家の意見が欲しい
2022/12/12(月) 18:40:02.82ID:f4lsQFfa0
TIとか小規模なやつだと起きるケースはありそう
2022/12/12(月) 18:48:16.01ID:DPNCF+OV0
>>958
NHKは割とAIのニュースやるね
ヨミコとかAI音声でニュース読ませたりもしてるし
2022/12/12(月) 19:03:42.83ID:c6Fy3qpba
劣化トレース一発で出て笑った

論文のプロンプト使ってsd1.5で生成
https://i.imgur.com/h8XrwCx.png
ぐぐって出たやつ
https://i.imgur.com/ZwvR51D.png
964名無しさん@お腹いっぱい。 (アウアウウー Sa6b-jmuY)
垢版 |
2022/12/12(月) 19:30:22.84ID:BRPKq2K2a
>>963
プロンプト教えてくれ
俺もやってみるわ
2022/12/12(月) 19:40:34.58ID:aAWuh7cqa
>>963

こういうのをMembership Inference AttackだとかなんとかInversionとかって論文に書いてたっけ
面白いよな
2022/12/12(月) 19:42:32.90ID:aAWuh7cqa
推論攻撃とかでググれば日本語でもその例みたいなの出てくる
推論攻撃
かっこいい
2022/12/12(月) 19:48:07.98ID:ISxy2Siu0
>>963
textとseedだけでコレ出たら、さすがにこれを商用で使ったら大問題だなぁ……
2022/12/12(月) 19:49:07.78ID:1DRO0WWu0
まあムンクが出たのは見たから完全にありえないとはいえないな
2022/12/12(月) 19:53:17.99ID:c6Fy3qpba
>>964
>>956のpdf開けばいくつか載ってる
2022/12/12(月) 20:07:18.88ID:IZoML+Fwa
>>963
完全にアウトやろこれ
2022/12/12(月) 21:11:21.79ID:GL11S4Tka
ブラッドボーンってプロンプトに入れたらブラッドボーンの画像出てくるのは当たり前じゃね
例えばエッフェル塔って入れて架空のエッフェル塔によく似た建物出されても困るだろ
2022/12/12(月) 21:24:41.92ID:lkXcbUfZd
>>963
LAION-5Bに含まれるデータを「Blood borne」というテキストで検索してみたけどこの構図の画像がたくさんでてきたw
まあ学習データが偏っていれば生成物も当然偏るよな
2022/12/12(月) 21:25:48.38ID:TemOADz60
アポロ計画の画像生成やると見たことある写真みたいなのばっか出てくるのと同じじゃねえの?
2022/12/12(月) 21:30:19.27ID:0LCpuJMca
>>971
そうなんだけど背景から構図まで丸ごとコピペになってるのが問題
よく「AIはコピペしてるんじゃない。特徴を学習してるだけ」っていわれてるけど、特徴どころか全部覚えちゃってる
2022/12/12(月) 21:34:22.75ID:f4lsQFfa0
さすがにこれはアウトだぬー
2022/12/12(月) 21:37:11.31ID:lkXcbUfZd
まあ人間だって意図せずとも丸パクしてしまうこともあるしな
パクらないように気をつけるという人間的な仕組みがないAIなら尚更パクリがちなのではないだろうかと思う
特に「1枚だけ有名な画像がある」とかそういうコンテンツは
AI画像を表に出したいならその前にGoogle画像検索は必須かもね
かなりパクリを気をつけてる人は手描きの絵でもそうするみたいだけど
2022/12/12(月) 21:45:02.56ID:RC4E6V+V0
この場合は「知らなかった、AIが勝手にやった」が通らないからまだいいけどね
2022/12/12(月) 21:48:22.73ID:TAvkr8kf0
これってプロンプトに紐付いてる学習要素が限定的過ぎるって事なんかな? 新旧拡散モデル論文目は通したけど難し過ぎて目が滑りまくって全く理解出来なかったからバイアス掛かってない説明見たい
2022/12/12(月) 22:03:26.48ID:D5I+1AOVa
あー、でもiPhone Case、Galaxy caseはやべーな
seed変えても構図が3パターンくらいしかないぞw
2022/12/12(月) 23:28:33.39ID:onDXedDY0
AMD Radeon RX 7900 XTX Radeon RX 7900 XT レビュー
https://www.4gamer.net/games/660/G066019/20221212075/

AMDが想定する税込の国内販売価格は,RX 7900 XTXが17万9800円前後で,RX 7900 XTが15万9800円前後となっている。
RTX 4080搭載カードが,税込実勢価格20~23万円で販売されているのに比べると,RX 7900 XTXはそれより2~5万円ほども安く,RX 7900 XTに至っては,4~7万円ほど差が開いている。
RX 7900シリーズのお買い得感はかなり高い。
2022/12/12(月) 23:32:42.32ID:wvskn1WZ0
ここでは今のところお呼びでないのがなあ
2022/12/13(火) 00:03:06.54ID:u8apcbES0
Radeonいろいろ弄り回して生成できても学習できないし
2022/12/13(火) 01:37:53.24ID:ysLnNLCV0
AMDさん次世代GPUはSDに最適化よろしく
2022/12/13(火) 01:40:09.97ID:cf+JQSkZ0
AMD「CUDA実装します」

これで頼む
全てが解決する
2022/12/13(火) 02:09:36.96ID:BW5+jjp00
ああ、CUDAをOPEN CLに変換するレイヤーとかあれば解決・・・いや、パフォーマンス出るかどうか怪しいな。
2022/12/13(火) 02:24:18.15ID:b2/BGl3B0
用途不明のAIチップが搭載されているらしいがAMDだし期待度はないな……
2022/12/13(火) 03:24:03.81ID:5AI2oR7J0
>>931-932
すまん、NAIのckpt解析したらFP32で合ってた

デフォルトと--no-halfでNAI、FP32、FP16と色々試したけど
うちはどのモデルを使っても絵が変わる。環境によって違うとか?う~ん、謎
2022/12/13(火) 04:04:50.98ID:B5L3sz6n0
>>987
Euler aとかxformers使ったら微妙に変わるんだけど、
DDIMとかでxformersオフでfp32モデルを--no-halfアリとナシでやっても変わらんのよね
GPUは2070
2022/12/13(火) 05:58:49.18ID:xVWV/+YJ0
xformersとFP16とvae使ってなければ基本的にはFP32だけになるのでその場合--no-halfはいらんけどな
環境やほかのオプションやプラグイン等何かのバグでエラーが起きて黒画面になるのを回避できる程度の役割しかないけど
この時間頭がまだ頭が起きてないのでその半精度から解説するにはかなりの長文になったので省くけど(笑)
2022/12/13(火) 07:32:33.44ID:oPffJmvZ0
>>983
オープンソースだからAMDがAMD対応のコードを開発して追加すればよいはずか
2022/12/13(火) 08:23:43.17ID:LicY4zh1d
>>985
オロチ、あるよ
https://gpuopen.com/orochi/
Orochiライブラリは、HIPとCUDA®のAPIを動的にロードし、実行時に切り替えて使用することができます。Orochiは、1つの体に8つの頭と8つの尾を持つ伝説的な日本の龍にちなんで名付けられました。その名前にふさわしく、Orochiは1つのライブラリで複数のバックエンドを実行時に使用することを可能にします。
2022/12/13(火) 09:01:01.16ID:Ucn0Fo280
>>990
AMDはドライバ関連やチューニングもオープンソースで丸投げしてたような…
2022/12/13(火) 09:14:49.76ID:oPffJmvZ0
NVIDIAが主導権握るの上手いということでもあるけれど、個人が高性能PC買う時にはAIに何かさせるのを気にする時代だから、
AMDもそこを頑張らないといかんという意識はあるでしょう。頑張って欲しい
2022/12/13(火) 09:16:24.50ID:KPgJ3vRr0
遊んでるレイトレコアも使って欲しい、なんか利用出来るところないのかな
2022/12/13(火) 09:17:26.86ID:8hPMeHRBa
NVIDIAに今更パワーみたいな同じ方向で追いつけるか?
廉価版だからユーザーついたんじゃないの
そこ放ったらかしにして変な方進んだら次こそ死ぬんじゃない
2022/12/13(火) 09:21:56.46ID:6jBibpn+0
こういう場に居たりするとAI方面が重要となるけど
一般的にはゲーム関係のほうが重要度は遥かに強いだろうからなあ
2022/12/13(火) 09:29:30.13ID:oPffJmvZ0
>>996
>>995
の言うようにゲーム用途ならミドルレンジから下で済む時代になっていると思う。
あえてハイエンドを買う人達は何を欲するか
2022/12/13(火) 10:45:01.48ID:+WPoeIPla
20年前のゲーマー「VRAM40MB揃えたぞ!」
20年前のゲームメーカー「よっしゃ、60MB使うゲーム出すで!」

現代のゲーマー「VRAM32GB揃えたぞ!」
現代のゲームメーカー「よっしゃ、40GB使うゲーム出すで!」
2022/12/13(火) 10:48:25.54ID:XYScPyQXa
>>974
人間の意図する特徴が必ずしもAIの認識する特徴ではないってこと

DreamBoothでメタバース画像30枚ほどぶっ込んだらキャラを認識する前に背景を認識して紐付けしちゃったことがあった

色合いやら構図を特徴だと認識することもある
2022/12/13(火) 10:53:21.87ID:XesJ3Cs8M
学習素材が少ないと構図とかもまとめて物体って認識するんじゃないの
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 18日 17時間 16分 45秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況