X



【StableDiffusion】AI画像生成技術9【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 09:28:54.59ID:+MDAD68L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術8【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1665387634/
0004名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 10:10:57.22ID:zKoTx5Q+
>>1
乙乙~

スレタイMidjourney→NovelAIでいいかもって気がしてきた
MJの話もう誰一人してねぇ
次スレはここに入れちゃうか?
> (DALLE・Craiyon・Midjourneyの話題もOK)
0005名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 11:05:40.37ID:E7CA+yGH
Hentai DiffusionのHD-16.ckptを外付けhddにダウンロードして、繋げたパソコンをwindows defenderでスキャンするとトロイの木馬が検出。
Win32/Sirefef!cfgというウイルスです
その後焦ってファイルを右クリックで削除してしまいました。

ckptファイル自体はhddから移したりもせず未使用で、当然automatic1111でも使用していません。

この場合パソコンや外付けhddの感染ってどうなっているのでしょう…
ダウンロードしてもファイルを実行してなければ感染からは免れているのでしょうか…?
0015名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 12:40:11.91ID:InbQCtG5
ラーメンの食べ方がおかしいのは麺をすするのはeatには含まれんからやね
eatは基本的に手で引っ掴んでかぶり付くイメージ
ラーメンならsipとかslurpやね
0016名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 12:51:03.70ID:bDCiuJTO
・一旦ネットを切る(WiFi off/LANケーブル抜く)
・重要なデータを外付けストレージにバックアップ
・複数のスキャンソフトでシステム全体のフルスキャン(DefenderやらESETやら)
・わらわら検出されたらもう手遅れなのでPCシステムリカバリ(再インストール)
0017名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 12:58:25.59ID:2BA2YlCB
Hentai DiffusionはRD1412の時も検知されて話題になったな
まぁ多分誤検知だと思う。data.pklじゃなくてテンソル格納部分のファイルからだし
何よりこれとは関係ない何も検知されないモデル同士をマージした新規ファイルからも
同じウィルスが検知される事あるんだよね
0018名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 12:58:58.54ID:z2aUVyH2
HyperNetwork含め追加学習系って512x512はVRAM8GB以上が必須?
最適化されてよわよわグラボでも動くようになってほしい..
0022名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 13:40:47.78ID:E7CA+yGH
ダウンロードするだけで勝手に動きだすか
ダウンロードファイルをユーザーが実行しないと動き出さないか
ユーザーが実行しなくとも時間差で勝手に動き出すのか

Win32/Sirefef!cfgを調べても初歩的ことなのか情報が全然出てこない
ここら辺分れば少し安心できるのに…

>>17
data.pklじゃなくてテンソル格納部分のファイルからだし

それはどういう意味ですか?
0023名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 13:51:06.13ID:IQwtACO4
RDの頃から話題はあったけど、使ってる人はいっぱいいるし、
まじでヤられたって話になれば今頃そういう話題が出まくってるだろうに何もないから、
たぶん誤検知だろうとは思ってる。

とはいえスケベモデルは他にもあるから、心配しながらあえてhentaiを使う必要もないかもね
0025名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 14:35:41.31ID:zKoTx5Q+
> windows defenderでスキャンするとトロイの木馬が検出。
> その後焦ってファイルを右クリックで削除してしまいました。
これdefenderが消したんだと思う
知り合いがemotet踏んだ時に「警告が出てファイルが勝手に消えた」って言ってたので
0026名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 14:48:15.75ID:EuGX+zhB0
githubとかのページで確認するとハッシュ値あるやろ
落としたやつがあってるか確認するしか無い
0028名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 15:54:29.73ID:DV83yB7k
hypernetworkの学習、学習画像と同じフォルダに(ファイル名).txtを作ってそこにキャプション付ければ、[filewords]でファイル名のかわりに読み取ってくれるという認識でおけ?
0029名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 16:34:43.74ID:XotkVMWS
そう
キャラを学習するときはそのキャラの特徴を消す必要あり
0030名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 16:37:38.97ID:iIuw9aFn
>>29
ありがとー!
0031名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 16:42:55.83ID:a5uD07Bw
>>5
waifuは入れたがHentai Diffusionというのもあるのか。
ちなみに、

「輪○されて、白濁まみれでアヘ顔ダブルピースで体には正の字が書き込まれて、周囲にはゴムが散乱しているアラフォー奥さん」

みたいな呪文は可能ですか?
0033名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 17:00:28.90ID:iIuw9aFn
https://note.com/kallibebe666/n/n446d3ce8302d

既知かもしれんけど意外と目から鱗だったので共有
prompt末尾にカンマをつけることで構図画風を変えずにやり直しできる(たぶんWDでも効く)
こんなに変わるとは思わんかった
0035名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 17:31:51.36ID:/Pj9ydpT
>>33
世の中そんなに都合いいわけないのはわかるよね
指の本数だけ違うとか、些細な部分が変わる数百枚の中に都合がいい物があるだけ
増長性持たせて再描画してるわけだから、自分が変えたくない部分ももちろん変わる場合もある(そっちの方が多い)
0036名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 17:33:11.58ID:R/zBzH+Y
>>34
わかったわかった
そんなごまかさなくたっておまえさんがどんな性癖でもみんな笑ったりしないから安心しなよ
0038名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 17:51:40.41ID:/nduYP12
>>33
それ別に,じゃなくてもいい
ノイズの変化ってことだよね?
単体で意味の通らない記号ならなんでも
0039名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 17:53:11.38ID:/nduYP12
というかAUTOMATIC1111版にはvariation機能があるし
なんならimg2imgでも同じようなことは可能だろう
0040名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 18:21:22.78ID:S/c3UwAk
Dreamboothで顔を学習させた場合の過学習の兆候がわかってきた
軽度…画風変更系のプロンプト(nendoroid, monochromeなど)が効きにくくなる
中度…全体的にプロンプトが効きにくくなる
重度…画像にノイズが走る、どんなプロンプト入れても同じような構図しか出してこない
体感としてはこんな感じ
0041名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 18:21:53.78ID:zKoTx5Q+
>>29
これの意味が全く分からない、特徴を消す?
ネットで検索してもはっきり書いてるサイトないし
どなたか教えてください
0043名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 18:55:20.17ID:vOFhbDNX
Colab版DBの教師用画像て515*512で顔だけを5枚くらい、が最適?…
説明サイトによっては長方形とか形色々でサイズに関しても特に記述なく
枚数も数枚から100枚とか使ってる人いて、どれが最適なのかいまいちわからない…
とりあえずトリミングして全身から顔だけにして20枚弱にしたけども、
これが正しいのか正しくないのか全然わからない…
あとやっぱ白黒の線画だけの画像は判別しにくいのかなぁ
0045名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 19:06:52.47ID:+Ng860qx
>>41
hypernetwork学習のときは、余計な情報を学習せないようにファイル名にその画像の説明を書く(書いた情報は学習しない)
画風を学習する場合は、例えば赤い髪、とか青い目、とかは学習してほしくないからファイル名に書く
でもキャラを学習するときは、髪色目色含めて学習したいから、そういう情報をファイル名に書いてはいけない
説明を自動でつけてくれるツールはそういう情報を入れてくるので、手動で消さなきゃいけない

hypernetwork関連全部まとめた日本語サイト欲しいよね
0047名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 19:19:51.75ID:zKoTx5Q+
>>45
ありがとう
「学習させないのに書く」ってのがよくわからなかった、逆では?って
ファイル名(=プロンプトでいいのかな?)にあるからすでに指定済み=学習の必要ないって判断されるってことか
なるほど
0048名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 19:51:22.18ID:/1AeZLdl
前スレ>>997
openVinoでCPUで生成してる記事は見たことある
自分のノートPCのCPU使ってStable diffusion UI(cmdr)で生成するのよりはだいぶ速いタイムで書かれてた
自分はOpenVino試したことはないから速いのかは知らん
0049名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 20:00:07.32ID:o2v6w26W
すまん、NovelAIをwebUIで動かせるようにしたんだが(アスカチェッククリア済み)
StableDiffusionの方も使いたくなり色々試したところ
DreamStudioで生成される画像とseedとかの条件を一致させてもなんか違う画像が出てくるんだ
なんか原因わかる人おる?他の設定は
(Model hash: 7460a6fa, Clip skip: 2, ENSD: 31337)
でやっとる
0054名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 22:26:17.83ID:/nduYP12
ENSDってなんのパラメータ?
0056名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 00:16:14.47ID:ozlRZsYF
元素法典の呪文で(((((なんちゃら)))))みたいに括弧がいっぱいついてたりしますが
括弧って何の意味があるんですか?
0057名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 00:20:18.09ID:/aQhwa+e
なんちゃら の効果を1割増しにするとか、そんな感じ。5重になってりゃ1.5倍。
NAIがどういう仕様かは知らんけど
0061名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 00:27:48.97ID:ekPCzlWw
SDのHyperNetworkを試したいがVRAMが3GBしかないのでちょっと相談させて欲しい

学習はどうやら8GB無いと駄目そうなんだが、colabとか使って学習済みptを
作りさえすれば、それを使った画像生成はVRAMが3GBのままmedvramで起動しても
使えるってことで良いんだろうか?
生成結果が全然違うものになって役に立たないとかある?
0063名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 00:38:02.13ID:ekPCzlWw
>>62
そうか…ありがとう
VRAM豊富な知り合いに自作絵の学習してもらったptを使っても全然
画風が似ないからmedvramのせいかと思ったんだけど、
単にプロンプトが悪いだけかもしれんな
0064名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 00:56:07.12ID:M5XwgL0g
そんなに出力変わるんだっけ?とオプションの有無切り替えてみたけど、
DBで学習済のモデルを使った出力をして差異が殆ど無いことが確認できた
知り合いとの環境差異による出力差はあるだろうけど、
画風が認識出来ないほどのものではないだろうから要因は別にあると思う
0066名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 01:45:40.04ID:GDO/OoWf
>>59
まあ元素法典のクオリティアップ系のタグ重ねそんな機能してるとも思えんけどね
エフェクトしっかり指定するほうが大事
0067名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 01:50:56.78ID:ekPCzlWw
>>64
マジか、実際あまり使い方が分かってない感はあるんだけど。

やることってSettingsタブのStable diffusionのHypernetworkでptを選んで
strengthを調整するくらいだよね?
するとtxt2imgに適当にプロンプト入れて生成される画像が
そのptの画風になるくらいの認識だが。
strengthの下のチェックボックスもちょっといじってみるか…
0068名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 02:02:59.31ID:M5XwgL0g
>>67
使い方有っとるぞ
applyしてないという落ちでもなければ、後は渡されたモデルが違うか学習出来てないかしかないと思うな
0069名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 02:14:02.00ID:N+ZJkGfP
本家に貼られてるcolabをそのまま実行すると途中でsyntax errorになってたけどpython3.9にバージョンアップデートしたら起動できたわ
0070名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 02:14:22.55ID:JyX5QSTM
Adobe、画像生成AIを開発へ 倫理や法律面で“透明性”高めたクリエイターのためのツール目指す [朝一から閉店までφ★]
https://asahi.5ch.net/test/read.cgi/newsplus/1666177481/
0072名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 03:00:39.34ID:P+P7VcZk
>>71
ぜんぜんできるよ
1111が対応してくれてるので簡単
0073名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 03:56:56.11ID:uCyPcyDU
同じWaifuDiffusionの同じバージョンで出力してるはずなのに
Twitterで公開されてるpromptのALTをそのままコピペして設定も同じにしても似てる絵が出てくるどころか変な絵しか出てこない
これって俺がNMKDを使ってるからいけないの?それとも何かもうひとつ行程が必要なのか?
0075名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 07:23:22.51ID:bZrOglZf
元素法典しゅごい...
どうせ何百回とやったうちの奇跡の一枚でしょって思って半信半疑でプロンプトコピペして生成したら次から次へと良作画が...
これは凄いと感動するレベルの絵は10枚に1枚くらいだけど、神絵師作画が10回に1回の確率で排出されるガチャ楽しすぎだろ
0076名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 08:02:21.53ID:dESm3QuF
DreamBoothで作ったckptモデルが6個あるのですが、
6個中4個が同じモデルハッシュ値でシード固定したら同じものが作られちゃいます…
fp16に限れば5個中4個が同じハッシュです…
それぞれ別の日に違う画像でcolabで作ったものなのに、なぜ同じ中身に……
これは一体どういう現象なのでしょうか?…
使ったノートは一番有名だと思われるShivamShrirao氏のものですが…
0077名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 08:35:25.32ID:asTWRm66
同一作画同一キャラだけど、髪/目の色・アクセサリー・ケモ耳の有無が頻繁に変わる場合、どう追加学習させるのが正解なんだろう

最終的には同じ絵柄で存在しない組み合わせを自動生成できるようにしたい

Dreamboothに全パターン突っ込んだら結構うまく行ったけど、アクセサリーが変になったりケモ耳が片方だけ生えてたりと細かいところがちょっと変な感じになる

各パターンをDreamboothで学習させてモデルマージすればいけるか…?
0078名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 08:50:35.37ID:TXF7Hzbh
学習させた各パターンのモデルをマージできるのか
オリキャラ10人に別々のキーワード付けて組み合わせたり出来れば理想的だけど
0079名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 08:51:49.75ID:t4Ht1Ewr
>>77
dreamboothで個別に覚えさせて融合を試みる方法(できるかは知らん)
hypernetworkで差分になる要素のワードを画像ファイルのプロンプトに入れて、そのワードが入ったときだけ再現する方法

この二つかな
hypernetworkは新規に何かを覚えるものじゃないのでプロンプトで再現できる範囲でしかなんとかならんけど
プロンプトに入っていない→無条件に再現させるものとして学習(プロンプトの主語とかに全部ぶら下がる)
プロンプトに入っている→そのワードが出たときだけ再現させるものとして学習
という風に振り分けができる

dreamboothでまとめて覚えさせた後にそのモデルに対してhypernetworkで描き分けを学習させるなんて手法もあるかもしれないが例は見たことがない
0080名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 08:52:27.29ID:jF/ZGOIs
マージはガチャ要素強すぎだろ
正攻法は ノーマルキャラをDB → 同じモデルに対してwithケモミミでDB → 同じモデルに対して・・・
0081名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 09:37:55.75ID:IxciBZIl
クラスの概念が被ってるとアウトじゃないかそれ
或いは二度目のDBの時にプレースホルダ付きクラスを学習時のクラスとして扱うのか?
0083名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 09:59:57.51ID:/aQhwa+e
さあ今日もHNの学習だと1111を更新したら、 Enter hypernetwork layer structureと
add layer normalization という項目が追加されてるのだけど、なんだこれ?
0084名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 10:16:11.59ID:PCZ/zv+C
「CarperAI」って聞いたことのないやつのメールが捨てメアドに来た
MJかDALLEのどっちかが漏らしやがったな・・・
0086名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 10:32:22.19ID:W4s9BNeD
>>44

def model_hash(filename):
try:
with open(filename, "rb") as file:
import hashlib
m = hashlib.sha256()
file.seek(0x100000)
m.update(file.read(0x10000))
return m.hexdigest()[0:8]
except FileNotFoundError:
return 'NOFILE'
if __name__ == '__main__':
print(model_hash("model.ckpt"))
0087名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 11:06:09.25ID:yhNDZtwt
スレの人たちは一枚出力するだけで消費電力が「非常に高い」になったりするのでしょうか?

記憶違いじゃなければautomatic1111更新してxformers実行してから一枚絵でも消費電力が非常に高いになってしまった気がします。
xformersをオフにしても初期のサイズで出力しても非常に高いのまま…
設定で消費電力抑えることは可能でしょうか?

消費電力調べずでRTX 3080 12GB入りpc買ったの後悔してます…
0088名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 11:16:40.36ID:7vO1T0cQ
全力でGPU回してるんだから、そりゃ当然
どうしても抑えたいなら、GPUのアプリで制限かけてしまえばいい
生産速度はもちろん落ちるが
0089名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 11:22:10.88ID:VvFiP15o
>>73
NMKDからスタートしてweb-uiに移行した者だがNMKDは普通のプロンプトとネガティブプロンプト合わせて55ワードで納めろって仕様らしい
あとネガティブの指定は[]で囲む
一般に貼られてるプロンプトはweb-uiの仕様でプロンプトとネガティブプロンプト別計算で75トークン入れられて
[]で囲むんじゃなくて別の入力欄があって色々細かく長いプロンプト設定ができるのでweb-uiがおすすめ
0092名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 11:38:57.38ID:PCZ/zv+C
>>87
afterburnerでpower limitかtemp limitあたりを下げたらいいけど、当然遅くなる
しかし電力を気にする環境の人がハイエンドグラボとか、なんのこっちゃって話ですよ
0094名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 11:50:51.53ID:D6hTGbJU
20~30%ほどPL下げてクロックは+100MHzに設定しろ
性能をキープしながら省電力化できると謎の満足感が得られる
0095名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:04:28.52ID:XRNXx2tg
深夜にdiffuser0.6.0がリリースされてカスタムパイプラインとonnxが整備されて使いやすくなってるよ。
RadeonユーザーdirectML使用は相変わらず修正が必要だけど。
0097名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:10:29.35ID:yhNDZtwt
このスレに助けられてばかりのこの頃…本当ありがとうございます
なるほど、アプリの設定で消費電力を抑えられるのですね…!
無知な質問ばかりなのですが、その設定によっては消費電力を3080〜3060くらいの電力に抑えることも可能なのでしょうか?
そうした場合の生成スピードが遅くなるのは分かるのですが、3060と同じくらいのスピードは出せたりするのでしょうか?
0100名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:14:08.70ID:dvDA1RmE
みんなNAIでエロ絵出す事だけに必死になってるからなんJ以外はマジで完全に過疎ったわ
Waifuも既に忘れられてるよな
0102名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:25:28.17ID:hbNLpqWA
>>100
つってもそれぞれの専門スレは結構細く長く需要あると思うぞ、このスレもハードや設定関連に特化してるし
J本スレは流れ早すぎて逆に特定の話題のログちゃんと辿るの不可能だし
0103名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:29:36.90ID:AapECLQ+
TIとかHNで学習したptファイルについて教えてほしい
学習に使ったのと同じツールを使わないといけないみたいだけど、
例えば普通にautomatic1111で学習させたやつと、
流出したNAI+automatic1111で学習させたやつって違うツール扱いになるのかな
0104名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:33:13.66ID:DCj4hfUQ
>>89
ワイは最初WEBで扱えるdiffusionで楽しんで、
次にNMKDに入ったが散々待たされた挙句cuda入れてくださいでストップされたのでNMKDは許さない
次に試したcmdr2がその点あっさりクリアできて良かった
その次に試した1111とクオリティの違いに唖然とはしたが
1111が導入に一番手間があったというか、色々な記事を散見して回って導入すると沼にはまる
0106名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 12:38:08.59ID:AapECLQ+
>>103
ちょっと分かりにくいか
つまりはautomatic1111ってとこは共通でも、ckptが違うと学習は反映できないってことになるんだろうかって意味です
なんのckptで学習したか分からないptが手元にあって悩んでる
0108名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 13:04:39.16ID:W4s9BNeD
>>44
ちな、「models/Stable-diffusion」フォルダに複数モデルを入れてあれば
web ui起動中ならロードする前(切り替える前)に、左上に出てるよ
https://imgur.com/a/qmvOKV1

>>86 のコードで一度、webuiにhash値は覚えられている
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2468

実際は sd_models.py#L89-L99 あたり
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/f894dd552f68bea27476f1f360ab8e79f3a65b4f/modules/sd_models.py#L89-L99
0109名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 13:36:43.61ID:P+P7VcZk
imagicのcolab試そうと思ったらエラー出ちゃった

train_imagic.py: error: unrecognized arguments: black hair, wearing parka, neck accessary.jpg
Traceback (most recent call last):
File "/usr/local/bin/accelerate", line 8, in <module>
sys.exit(main())
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/accelerate_cli.py", line 43, in main
args.func(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 837, in launch_command
simple_launcher(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 354, in simple_launcher
raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)
subprocess.CalledProcessError: Command '['/usr/bin/python3', 'train_imagic.py', '--pretrained_model_name_or_path=hakurei/waifu-diffusion', '--output_dir=/content/stable_diffusion_weights/imagic', '--input_image=/content/stable_diffusion_weights/imagic/girl,', 'black', 'hair,', 'wearing', 'parka,', 'neck', 'accessary.jpg', '--target_text=a girl eat hamburger.', '--seed=3434554', '--resolution=512', '--mixed_precision=fp16', '--use_8bit_adam', '--gradient_accumulation_steps=1', '--emb_learning_rate=1e-3', '--learning_rate=1e-6', '--emb_train_steps=500', '--max_train_steps=1000']' returned non-zero exit status 2.
0111名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 13:40:08.53ID:uCyPcyDU
>>74
>>89
レスありがとう
スクリーンショットを見せるまでもなくNMKD独自の仕様が原因っぽいなこれ
頑張って1111を入れてみるわ
0114名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 14:27:22.91ID:7vO1T0cQ
パーセントと同時にETAも表示されるようになった
こういう小業をおろそかにしないあたりが、1111の支持される理由だよなあと思う
0115名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 15:19:39.32ID:W4s9BNeD
>>109
「Upload your 1 image by running this cell.」
のとこで、カンマや空白なしの短いファイル名を使ってみて

もしやtrain_imagic.pyへの INPUT_IMAGE の入力で
「〜parka, neck accessary.jpg」ってへんなファイル名が原因な気がする
blackhair.jpgとかtest.jpgとか手短なのに変えてみよう
0116名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 17:24:13.42ID:HpfppTqv
>>114
開発者じゃない誰かが作って、取り入れてよとプルリクエストを出したのかもしれない
オープン開発の強みだね
0118名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 19:50:36.16ID:P+P7VcZk
>>115
できた!ありがとう
そしてこの技術、なんか結構すごい
ハンバーガーは食わせられなかったけど画風の再現度は比較的高くて構図と顔のバランスは完璧
多分ピースサインとか服替えくらいなら、は、トレスじゃない程度に変化させつつできる
0119名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 19:54:44.58ID:dvDA1RmE
手づかみで食う萌え絵なんて皆無に近いのにNAIに食い物食べさせようとすると途端に手づかみ始めるの
少しでも手を抜いて楽しようとするDeep Learningの性質が可視化されてておもしろいな
これだけ手抜きしようとするバイアスが強いと複雑な構図は当面難しいのかもしれん
0120名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 20:43:29.25ID:bQQjamvg
プロンプトに従って生成するから、箸とかスプーンとか指定しないと描写できないのは正しい挙動やも
アスペだと思って説明するのが良いのかもな
0122名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 20:59:06.94ID:jF/ZGOIs
手の位置なんかが今のモデルだときちんと学習されてないからいくら細かく説明しても無理だろ。ガチャになる
現実的にはi2i。t2iでがんばりたいなら学習
0124名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 21:09:54.00ID:jF/ZGOIs
あるあるw
指だとマニキュアを塗っておくといいって聞いたな
試してないからどのくらい効くのかは不明
0127名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 21:27:30.43ID:IxciBZIl
>>119
手抜きじゃなくてpromptと学習データに忠実なんだよ
逆にpromptを作ってる人間が手抜きしてると言った方が良い
0128名無しさん@お腹いっぱい。
垢版 |
2022/10/20(木) 21:44:08.72ID:HpfppTqv
麺をすするのはslurpで表現できたよ
しかし箸をなかなかちゃんと持ってくれない
3本以上の箸はざら、正しい持ち方はまず無理

https://i.imgur.com/4CISLBR.png これがわりとすぐ出てきたので油断した
https://i.imgur.com/jk5kR1O.png うまく食べてるようで全然うまくいってない
https://i.imgur.com/yOenCsE.png 口元で箸と麺がごっちゃになっている
https://i.imgur.com/j66KdgJ.png どんぶりから割り箸?メンマ?が立ち上がっている
https://i.imgur.com/JBSlM3y.png 箸の処理がとにかく難しいようだ
https://i.imgur.com/6MFotqv.png 麺の前後関係がいろいろおかしい
https://i.imgur.com/i7ao4wt.png 「この味は…お父さん…!?」
https://i.imgur.com/JptiIOZ.png 箸の持ち方はともかく麺のすすり方が一番よかったのがこれ
https://i.imgur.com/Ylhzm8m.jpg プロンプトがある程度固まったところで36枚連続で出してみたもの。打率の低さがよくわかる
0131名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 00:01:14.65ID:zvW7DEoD
>>128
箸大量に持つのはもうデフォだしslurpですすらせても7枚目みたいな舌みたいな物体口から出してるのばっか出て麺すすってくれないわ
0133名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 02:08:21.34ID:ZVmSdpN8
DB作成のfp16ckptとfp32ってサイズが倍違うけど品質そんなに差があるの?
比較して作っても絵柄は一緒で細かい部分しか変わらずどっちが良い悪いとかなかったけど
0134名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 02:13:09.38ID:+f3bihHp
非公式v1-5
なんか普通だな…
0135名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 02:59:01.18ID:waK2Ivk1
>>133
画像という物の性質的に、fp32だから綺麗で正しい、fp16だから粗悪で間違いというわけではないからあんまり気にしなくていい
このseedとpromptならfp32版がいいなってのもあるし、その逆もありうるからね
0136名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 05:22:51.51ID:VRtKdqzh
古いGPUではよりAI演算向けに採用されたfp16が遅いものがあるからそっちの方が問題
単純に同じ32ビットのデータの受け渡しでfp16はfp32のほとんど使われない小数点以下の23bitを中心に思いっきり詰めて
倍の速度で演算しようっていうやり方なの

膨大な演算の中で演算中に捨てられていく小数点以下で多少の誤差はあるけど見た目でわかる範囲ならもっと話題になってるよ
見た目で差がわかってもfp16/fp32でこっちがいいっていうのはあるだろうけど、どっちが正しいというものじゃないからねぇ
0137名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 06:29:46.16ID:9WMx4iO1
朝から滅茶苦茶だな。fp16は指数部も切り詰められてる普通の16ビットだよ
古いgpuでfp16の方が32よりも遅いのがあるかどうかは知らないけど、sd関連でよく言われるfp16の選択はそもそもvram節約のため
遅かろうがcpu使うよりは爆速だから問題ない
0139名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 07:55:45.80ID:Whkats22
「動作」を学習させるには静止画では無理があるな
出力するのが静止画であって学習は動画で行う必要がありそうだ
0142名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 09:06:05.43ID:abT+glr8
HN効きまくってる人ってどういう画像をどういう枚数でどれくらいのステップやってんだろ
6枚を左右反転させた12枚で30000ステップさせたけど「無い方が良くね?…」って結果になって悲しい
5枚とか少ない方が良いとか100枚以上読ませたほうが良いとかあって混乱
0146名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 09:27:26.73ID:zpUZ3NIZ
>>142
学習率によるけど30000は多い
20枚、5e-6で1500、5e-7で10000が相場って言われてるけど細かいところは微調整かな
5e-6でいい感じになるまでやってから5e-7で追加で回すみたいな
0147名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 09:37:44.32ID:abT+glr8
>>146
多かったの?!!
初期設定が10万だから足りないのかと思った…
5e-6だから1500程度で良かったなんて…
過学習てやつになってんのかぁ…
0148名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 09:56:58.11ID:MXW0/TnA
なんかよく分からんなこのSD
半公式みたいな感じ
0151名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 10:09:00.21ID:oesNOrqW
今の1111ってpythonを仮想化してモジュール入れて、引数付けるだけでxformers入れてって全部やってくれるんだな
この辺手動で設定してた頃の情報が全部ノイズになってるな
0155名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 11:21:43.27ID:hZt68tet
その設定画面みてて
そういやおれ俺GFPGANいれてねーな
というか導入の記事みててGFPGANいれろなんてなかった気が
いや、1,4を入れるなんてのもあったことはあったが
入れないことで窓アスカじゃないものが出力されるんだろうか
なおCPUで動かす場合だが
むりか

というかハローアスカのキモはENSDの設定値を初期値0にしておくことimg2imgでオイラー設定にしておくことだからな
レイヤーを2にってのはよく見かけるけれど、それよりもオイラーよ
NAIの標準であるオイラーaに準じてならアスカ出力後にENSDの数字変えてオイラーaにする必要がある
この設定みてるとできてるんじゃねとしか
あと忘れがちなのがapply settingsを押して確定しておくことか
0158名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 12:07:45.28ID:U6poXslT
>>155
>>156

GFPGAN抜いて
vae.pt入れ直したらハローアスカできたわ
助かったありがとう
0161名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 13:06:12.77ID:SbwYZ3El
>>133
そもそもAUTOMATIC1111はfp16でしか読み込まないからfp32は無意味って聞いたよ
0162名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 13:13:49.73ID:HcGYdvdy
技術系ディスコで出てた「Dreamboothでキャラ学習させた後、そのトークンをdeepbooruで生成されたタグファイルに付け加えてそのタグファイルでEmbeddings学習させる」っての面白いな
Dreamboothだと細かいキャラの雰囲気とかがいまいち再現されなくて困ってたけどこれするとかなり似るわ
学習ステップはかなり少なくて良さそう
0163名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 13:30:22.21ID:hsUhZ6r7
>>161
オプションで「--no_half」使えばfloat32で読み込むことはできるらしい

指定しないとデフォルトはtorch.float16になるんで
基本fp16でしか読み込まないって話になるのかも

ソースはsd_models.py
github.com/AUTOMATIC1111/stable-diffusion-webui/blob/f894dd552f68bea27476f1f360ab8e79f3a65b4f/modules/sd_models.py#L177

まあ、ぶっちゃけ品質に大差はないきがする
服の柄とか装飾が少しだけ変わったり、僅かに違う絵が生成されたりする
0165名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 14:04:35.13ID:kfCVTtGa
間違ってネガティブプロンプトにプロンプトと同じ呪文をぶち込んで放置してたら大量の現代アートが生成されてしまった
0167名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 14:49:51.03ID:hZt68tet
>>158
なるほど、逆に考えると1111の導入なんかの記事でGFPGAN入れろとか書いてるのは
ハローアスカの再現する場合にはよろしくないのかもな
1111の記事かimugerの記事のハローアスカの記事ではGFPGANの事は記されていないはずだし
ハローアスカで再現できたらいろいろカスタムしてねってことでGFPGAN入れればいいだけで
0168名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 14:56:44.81ID:hZt68tet
>>159
ワイ初期値でしか触っていないけれどそれもやな
今ワイ環境チェックしたら
txt2imgタブのRestore facesもチェック外れてるからそれもや
0170名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 16:05:27.02ID:Lb02ee17
ちょっとストレージに余裕がないからHDDにつっこんでやってるんだけども
必要なデータは全部オンメモリでないとあかんみたいな話どっかで見た気がするから
ckpt読込はSSDより遅いけど、その後の生成速度はHDD/SSDで大して変わらんって認識でいいですかね
0172名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 16:31:03.98ID:Lb02ee17
ありがとう
小物ファイルのストレージ読み書きくらいで生成処理自体には影響なさそうなので
当面HDD運用しときます
0173名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 16:44:41.85ID:3XBFjZmp
特にマージとかはHDDでやった方が良いな。SSDでやると寿命がマッハ
CrystalDiskInfo見てみたら総書込み量のグラフが指数関数みたいになってたわ…
0174名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 16:52:37.79ID:VSk38xBB
>>167
GFPGANはハローアスカにはまったく無関係やで
むしろ入れておいてもなにも問題あらへん
というかAutomatic1111使う人はほぼ必ず入れてる
0175名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 16:58:18.34ID:vvFuW/Cw
公開されたv1-5-pruned-emaonly.ckptはsd-v1-4.ckptとまったく同じサイズなんだね
3.97 GB (4,265,380,512 バイト)
0180名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 18:40:30.39ID:kBCPEbqb
顔が複雑なキャラの全身絵をDreamboothで学習させると顔が下手くそ問題
全身絵をステップ数少なめで学習させたモデルと、顔アップでステップ数多めで学習させたモデルの2つ用意して
全身学習モデルで生成→顔学習モデルで生成した画像の顔部分をインペイントで修正
ってやったらうまくいった
0183名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 21:19:16.69ID:hZt68tet
>>174
CPUだけで動かしてひーこらしてるから余計なの入れて重くしたくないなぁって思ってたんよな
画像がでてくるまでもすげー時間かかるし
でもまぁ、そういうことならとりあえず入れておくか
使わなけりゃ
settingでGFPGANにチェックいれてなければいいだけってことやろ
0191名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 21:57:06.49ID:NRGQYIHp
ある程度画力無いとi2iでAIに加筆したものを正しく認識させるの難しいな
画力高い人が有利なのに変わりないな
0192名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 22:03:27.15ID:KJS4brb8
hypernetwork
学習画像30枚くらい学習率0.000005で数万ステップやってるけど
過学習というか壊れてきてる感じがない
別によくなるわけでもなく、このままずっとこんな感じなのかな
0193名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 22:21:47.78ID:zpUZ3NIZ
>>192
学習途中のプレビューでは大丈夫だけど、実際に適用してprompt打ち込むと壊れてるケースがある
0195名無しさん@お腹いっぱい。
垢版 |
2022/10/21(金) 22:55:37.92ID:zpUZ3NIZ
俺も目下やってるけど全然うまくいかない
きっと画風ってめちゃくちゃ繊細なんだろうね
0197名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 00:25:42.81ID:X/fRIeN4
いつぞやにスレでも話に上がった分散型トレーニング、実現するみたいだな
参加するのにVRAM18GB必要みたいだからハードルが高いが…
0206名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 03:04:49.27ID:ylTqe+Oc
比較
https://i.imgur.com/uvGmGDS.jpg
a high school girl
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337


https://i.imgur.com/qWwepdO.jpeg
a high school girl
Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337
0209名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 03:55:59.97ID:L/XYDd2n
黒人の写真のほうがコントラスト高くなって明暗がハッキリしてるから『良い絵』だと判定されてるのかもなー
0211名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 06:39:40.48ID:rrs9Ah94
>>206,207
女子高生は白い歯出して笑うという学習があり、
黒人の方が白い歯出して笑うのが歪み少ないようにAIが判断しているのかな
0213名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 07:31:40.76ID:mROUdVz7
指定してないとこは勝手に出すのは当然じゃん
モデル事務所に頼む時も人種指定しなきゃ余り物バンバン押し付けられるぞ☺
0214名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 07:52:56.32ID:59DRyO/j
自分もDreamboothで以下のText Encoderのファインチューンやってみたけど
確かに学習率を下げることはできたけど学習stepを厳選した時より別に生成画像が改善しているわけではなかった。
ttps://wandb.ai/psuraj/dreambooth/reports/Dreambooth-training-analysis--VmlldzoyNzk0NDc3
効果あった人います?
0215名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 09:41:42.24ID:XkF1robj
何を元データにしてどうしたくて何を変えようとしたのか、読み手に伝わる質問しできるようにならないとな
AIはもっと融通が利かない
AIが読み取りやすいノイズやごみの少ないデータと、再利用されやすいバリエーションで再現率上げるデータがあるのが前提だもんな
人間の目でいえば曇りガラスや霧の向こうより、コントラスト高めの高精細な真夏の屋外みたいな写真や安定したアウトラインのあるアニメ調の方が認識しやすいし
そこへ背景なのかキャラクタの顔なのか服装なのかエフェクト的なものを含めた画風なのかすべて用意するデータも傾向も違う
大雑把に言えば全身入れれば顔がつぶれる、気を利かせた同色の背景に馴染んでるコスチュームは見分けがつかないそんなところを気にすると安定しやすくなるよ
まぁ回数こなして癖を知るしかない
0216名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 09:49:40.72ID:N/+Ox+2I
キャラではなく画風を覚えさせたくて背景込でHN学習させたらロスが連続0.16台で多い…
黎明期ゆえに海外でも手探り状態で正解がわからない…
しかしファインチューニングは面白い…
0222名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 13:41:48.31ID:HdjJkUfB
>>217
自分が普段から依頼受けてるならその手順をAIで加速すればいいだけでしょ
絵師がツールとして使って、修正もちゃんとしてるなら何の問題もないし
0223名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 13:42:28.03ID:HdjJkUfB
絵師の場合下手に安売りしたところでむしろ収益下がるだけだと思う
AI絵師は元々の価格帯なんてゼロだから損しないけど
0224名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 14:02:29.78ID:vkXywgoz
漫画にすればいいんじゃね
0225名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 14:10:48.80ID:vSbXCGdN
>>217
絵だけ用意しました、でお金稼ぐのはさすがに難しい
その絵でゲームなりマンガなりコンテンツを自分で作るしかないな
0227名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 15:11:38.47ID:aXjhwshw
NAIのローカル版ってWebUIの環境設定ができてりゃ基本的にはモデルとVAEを持ってきてファイルに入れるだけって認識でいいの?
0232名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 16:15:58.98ID:lGDUOyXt
high school girl単体で使うことまずないからな
high school girl, kawaiiって感じにしたらNAIネガで黒人出てこない
0235名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 18:20:46.98ID:HdjJkUfB
つか何を出したいかによるんだからどうでもいいだろ……
逆にベースとしては人類って入れたら全人種出る、で別にいいんじゃね
0238名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 18:33:35.42ID:BoyEFN+K
結構時間かけて人種別の女の子出してたことがあったが
タイ、ベトナム、中国 日本、タヒチとかでも結構違ってて正確だなと思った(自分の感覚ではね)
○○人って入れたほうがいいと思うけどね
0239名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 19:08:52.65ID:5fhbPnA7
>>237
正直、SDでも学習の幅は全然足らんからな
「samurai」とか入れても、中華映画に出てくる中華鎧みたいなのばっか書いてくる
まだまだAIの知識はまだら模様で、割と当たり前の部分でも結構抜けがある感じ
0240名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 19:17:40.68ID:6gVsyz9w
eスポーツみたいなノリでテーマに沿ったAI絵をその場で作るみたいな大会とかそういう風に一般的になるといいにゃー
0244名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 20:38:00.53ID:uUOsKZH/
適当に写真貼って完成した絵をプロンプト付きで出して下さいってやったらどこでも出来るなw
0247名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 22:29:31.62ID:lGDUOyXt
今日のお題みたいな感じでみんなでプロンプト競い合って作るスレな。あったら面白いけど
どうせすぐにこんな絵のプロンプトくれくれスレになるw
0249名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 22:33:34.92ID:sme/FRcM
ここまで粘り強くAIやってる人は
かなりの割合でTIぐらいはやってるだろうしな

なんか素材集めたりパラネーターの数字いじったり、最初の頃に思ってるのとはだいぶ違うAI画像ライフになってる
0250名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 22:38:37.53ID:5FaanduC
「文字入れるだけでイラスト作れる」が最初なのに、
効率を求めた結果、言語化が面倒になった
0254名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 23:23:31.68ID:/mAw3n2R
質問なんだけど他人がTwitterに投稿しているAIイラストを勝手に高画質化AI通して相手にリプするってアリ?ネットリテラシーの問題だと思うけど
0258名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 23:28:54.32ID:lGDUOyXt
>>254
ネットリテラシー以前の問題としてやる意味が分からない
唐突にリサイズされて送られてもだから何??って状態
俺だったら即ブロックで終わり
0259名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 23:32:00.22ID:5FaanduC
1枚500円か そりゃ即売れするわ

ココナラとスキマは最低価格が高すぎてAI絵は売れる気がしない
詰んでる
0262名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 00:29:53.69ID:/oENSYfM
>>254
それはネットリテラシー以前の問題だと思う
はい、あんたより高画質で上手な画像一分も掛からず作れちゃいました。
無駄な努力お疲れ

って言いたいなら送れば
0263名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 00:39:19.55ID:SJbgths9
>>251
別にAI絵でなくてもコピペ使いまわし丸出しの差分絵がジェネレーティブNFTとして高額取引される世界だし
NFT絵はアムウェイの洗剤とかと同じ輪を広げて金を巻き上げる道具にしか過ぎない
0266名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 00:55:29.40ID:+OTk1lkt
横向きの寝てるポーズは基本的にうまくいかんな
打率が100分の1になるようなイメージ。縦なら上の人が言う通りdakimakura of xxでまあまあ上手くいくけど
0271名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 02:23:54.29ID:+OTk1lkt
連投になってすまんけど、変なデータ集めるとかえって絵が下手になるしすごい素材集めが重大事
0274名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 07:18:43.89ID:kHzuPqw/
学習画像も512*512っていう制約がかなりきつい
前処理もめんどくさいしキャプションも自動だとあんま信用できないし
0277名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 08:05:52.39ID:2tO5kSBj
ハイパーネットワークってやつで絵柄学習させてからdreamboothでキャラおぼえさせるのって出来るん?
順序逆だと出来るっぽいけど
0280名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 09:02:09.14ID:Rv61MoDw
とりあえず満足できる結果を得られるからそれで問題ない
ソフトの性能をフルに引き出すのが目的じゃないから16だろうと何だろうといいんだよ
0281名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 09:33:46.48ID:tRckB+T4
次世代のStable DiffusionとWaifu Diffusionで高解像度化するのを忘れてないか?
3060のVRAM 12GBでは学習できない可能性が高い
512x512のモデルで割り切るなら3060もありっちゃありだけど
0282名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 09:41:42.50ID:5mif+fPK
>>278
自分のなんとなくの理解だけど
TIは学習させた画像に近くなる書き方を単語と結びつける。学習に使ったモデルでしか使えない
HNは学習させた画像に近づけるために、プロンプト全体を調整する。学習に使ったモデル以外でも使える
って感じだと思う
0284名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 10:00:09.59ID:Ki6h1CqS
>>277
その順序に意味を持たせるなら自分でコード追加しないといけないんじゃね?
学習時にhypernetwork読み込まないだろうし
0285名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 10:29:52.46ID:hiNWKzw+
>>282
TIは他モデルで使えないということはなくて、例えばSDで実写顔を学習させたものをwaifuで使うと
アニメ顔の似顔絵風が出せたりするよ
0287名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 11:19:22.97ID:2tO5kSBj
>>284
やっぱそのままじゃダメか、ありがとう
それが出来たらキャラ覚えさせる時、同じ画風のモデル使い回せるのにな~と思って
0289名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 11:32:08.90ID:LyEkvEpb
HN、5e-6なら1500ステップで良いと書かれてたど1万超えた辺りでようやく元の絵柄に似てくる
今23000ステップ、どんどん線がくっきりしている状態は良くなっていると捉えてもOKですか?
それともノイズ発生以外でも逆に山頂を過ぎて悪くなる状態とかありえますでしょうか?
0290名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 11:39:27.02ID:P/bzvgub
同じくそんな感じ
2000で十分とか言われてたけど全然そうならないからよくわからない
学習させる画像の量の問題かな
0291名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 12:02:07.54ID:hiNWKzw+
最初に create hypernetwork するとき、
Select activation function of hypernetwork で選んだ活性化関数によって
ぜんぜん学習進まねぇとかある。linear 選ぶともりもり絵が変わる
0294名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 12:17:30.18ID:LyEkvEpb
Select activation function of hypernetworkはデフォルトの「relu」を選んでます
日々新機能搭載なのでこの関数の選択によって何がどういう状態になるのか全然わかんないですねw…
調べところ使わないという選択にあたる「linear」の方が良いという意見もあるみたいですね
0296名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 13:21:54.98ID:XrRdwaXU
いろいろ試したが学習元データとかテンプレートとかによって最適なステップ数は結構変わってくるな
その都度最適なところを見つけるしかない
0297名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 14:25:16.21ID:P/bzvgub
顔アップとかバストアップとかポートレート系の画像で学習すると
たしかに引きの絵はすぐ壊れる
でもポートレート絵なら1万ステップ超えても壊れない
本格的にチューニングしたいなら顔面用と引き用で分ける必要があるのかもな…
0299名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 14:37:09.78ID:dwUjlE2I
間違えた。

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Dependencies で指定されているものをインストールおよびDLする
インストールしたいディレクトリに移動し git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui を実行する
DLしたモデルファイルをmodelsフォルダに入れる
webui-user.bat を非管理者として実行する←いまここ

Couldn't launch python

exit code: 9009

stderr:
Python
Launch unsuccessful. Exiting.
続行するには何かキーを押してください . . .

実行してもこのメッセージが出て終了してしまいます。Pythonはインストールしたはずなのですが…
0301名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 14:48:25.26ID:FjsDD+go
間違ってるというかパス通してないんでない?
パスの通し方わかるなら追加してわからなければPythonインストールするときにAdd Python to PATHにチェック入れると良い
因みにChocolateyでインストールすれば勝手にパス通るはず
0303名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 14:59:22.69ID:FjsDD+go
ごめん自分Windowsじゃないから適当言ったわ
調べたらChocolateyって今はPowerShell限定なんだね
コマンドプロンプト使う場合はパス別々だから意味ないんでさっきの忘れて
0304名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 15:01:02.83ID:EEr1AGqK
Pythonのインストーラーの最初の方の画面の下らへんにAdd PATHなんちゃらってチェックあるからそれ入れて再インストール
0306名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 15:02:11.73ID:1JqdXzHc
普通にインストールすればpath通ると思うんだが…
0308名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 15:04:01.44ID:/7akjf4X
デフォルトチェックボックスを内容も読まずに外しちゃうんだろう
まあ、アドウェア突っ込んだり関係ないアプリ突っ込んだりするアプリ多いから気持ちはわからんでもないが
ちゃんと読んでからチェックをはずそう
0309名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 15:08:20.51ID:FjsDD+go
これWindowsがちゃんとしたパッケージ管理ソフト作ってればパス通らないなんてミス起こらないんだから、
Linuxみたいにyumでインストールできるようにすれば良いのにね
Pythonだけなら良いけど、依存するもの全部インストーラ実行するのは時間の無駄だし
0312名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 15:47:50.10ID:Ki6h1CqS
配布されてるDBモデルのstate_dictのkeyが追加されてるんだが
マージする時はどう扱えばいいんだ?新規に追加?それともどっかに混ぜるの?
0315名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 16:31:24.25ID:HsqMJyAd
>>311
うろ覚えで申し訳ないがSD関連で
Microsoft Store版Pythonは使ってはならないという
記述をどこかで見たような記憶がある
今はまた状況が変わってるかも知れないし
与太話レベルなのだが
0316名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 17:19:42.89ID:3kszmvpC
髪型に特徴のあるキャラをdreamboothで学習後webuiて出力させると髪型が左右反転するんだが何が問題かわかる?教えて貰えると助かる。
学習時に反転させてるからか、出力画像を反転させてるのか
0319名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 20:48:23.88ID:5mif+fPK
>>316
学習時に内部で反転させてるね
無効化したい場合は、v1-finetune_unfrozen.yamiのdata:→params:→train:→params:のインデント(size: 512, set: train, per_image_tokens: false, repeats: 100 がある所)に「flip_p: 0.0」と追記すれば反転しなくなるよ
0321名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 21:27:44.34ID:6jCWCN5R
Filter NSFW contentにチェック入れてないのに、
ちょいちょい完全黒塗り画像が出てくるのはなんなんすかね・・・
0323名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 22:12:59.05ID:R+I9Wnvn
最近のアプデのせいなのかわからんけど1024でも余裕なのに768でさえ黒塗りになってしまう途中から…
0324名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 22:25:12.51ID:pHzfFD8+
俺もなるわ。VRAM足りてるはず
何か黒塗りになりやすいプロンプトやi2iがあるからモデル上のバグか何か踏んでる気もしてる
0326名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 22:35:18.80ID:GWuPMnAm
1111版でxformersを入れてタスクマネージャー監視してるんだけれど
生成開始の一瞬だけVRAM使用量が膨れ上がってその後半分以下に落ちる挙動してない?
同時生成枚数が多くても少なくても最大値が変わるだけで同じ挙動になるのが良くわからない
出てきてすぐのSDは生成中はVRAM確保しっぱなしだったんだよな
0327名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 22:43:11.74ID:6jCWCN5R
なるほどVRAMかもしれないんすね・・・
同じシードでプロンプトをちょっと変えると、黒塗りにならずに白黒(目と唇だけ色がある)画像になったりもするんだよね・・・
とりあえずstep減らしたり解像度下げてみたりして試してみます。(それでも治らなかった人がいるみたいなので、ダメかもだけど)
0329名無しさん@お腹いっぱい。
垢版 |
2022/10/23(日) 23:52:08.09ID:5mif+fPK
>>326
逆に生成終了時に一瞬だけVRAM使用量が2倍に膨れ上がる挙動してる
生成開始時は特にないかな
最初は--medvramのせいかなと思ったけど関係なかった
0330名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 06:38:50.78ID:uj06rDid
>>319
316じゃないけど知りたかった情報でした
ありがとう
0332名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 10:49:48.97ID:0QC7Z5Y4
waifu1.4は12/1か
目とか指も綺麗になるかな
0335名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 11:03:50.34ID:JvoMaDGm
8bit adamオプションなしのdreamboothが12GB以下になることはないもんかな
3090買っとけばよかったな正直
0339名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 11:25:54.66ID:1/5L7Z53
NAIの本気は小説作成で培った言語解析の部分だろうね
ココがうまくハマれば、かなり正確な作画が出来る
SD1.5でも赤いボールと緑のキューブを綺麗に分離出来ないわけだけど、この辺のブレイクスルーに繋がるかもしれない
emmadがお気に入りなのもその辺があるんじゃないかな
0340名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 11:38:42.91ID:hi54oxWA
個人的にはwaifuでもこまめに単語で区切るより文章で入れた方が出来良くなるイメージあるからなるべく文章で入れるようにしてるわ
0341名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 11:42:01.62ID:1/5L7Z53
SD系が文章解析型なんでwaifuも本来はそうなんだけど、1.3でダンボタグを基本に据えすぎたのでタグ連打式になってしまった
1.4ではSD本来の文章解析式に戻すっぽいので期待
12月にリリース伸びちゃったが
0342名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 12:05:12.34ID:oZKwd+yh
いかにもEmadが開発者みたいな話が広まってるけど
彼はあくまでも投資家のリーダーで
開発はドイツでいう東大のミュンヘン大学のCompVisっていう研究室だからね
https://github.com/CompVis
0343名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 12:17:34.83ID:BHxMBlNy
>>339
同じくノウハウあるはずのとりんはパッとしない
NAIをエロ生成器としか思ってないdisツイートしてたりAIの進化に全くついていけてないようだが
0345名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 13:45:15.05ID:LggrrOtA
Dreambooth学習後は普通の立ち絵だけじゃなくて色んな構図出した方がいいな
過学習気味になると明らかに構図のバリエーション減るから分かりやすい
500ステップとか1000ステップごとのモデル保存してX/Yプロットするとめちゃくちゃ過学習がわかりやすい
0346名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 15:45:08.67ID:tIvPctBB
>>339
そこはGPT-3に元からある問題でベンチャーレベルでどうこう出来るもんじゃないから
GPT-4の公開待ちでしょ
まあGPT-3すら正式公開はされてないからいつになるかしらないけど
0347名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 16:57:27.59ID:8BJ00m8Y
dream boothで学習させる画像のサイズってgpu次第なのか?
とりあえず512512でやってるけどもうちょい大きくしたい。使ってるのは3060.12G。
0350名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 20:00:52.88ID:kvA8u7fg
ファインチューニングと違って単純な追加学習はやればやるほど元の内容忘れていくから
WD1.4では失われるものが1.3の時よりさらに多くなりそうだな
0355名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:11:54.05ID:B+TyGnY3
NovelAIなんだけど、とりあえず10日前くらいに1000pt購入して使いきったんだが昨日か一昨日にいつの間にか1000pt追加なってた
決済ボタンポチってないのに何でだろ気になる
0356名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:15:39.52ID:xhsd2T6X
NAIがアナウンスしてるぞ
10月13日以降にサブスクしたアカウント全部に1000振り込んだって
ゴタゴタのボーナスじゃろ
0360名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:42:59.21ID:RX0uUBxs
>>358
https://github.com/vicgalle/stable-diffusion-aesthetic-gradients

風景画に花が咲いてる画像見るとおもろいなと思った
現状の言語モデルでは言葉でイメージを完全に伝えるのはたぶん無理なので、「こんな感じ」を別のもので伝えられる機能には期待したい
0363名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:58:03.30ID:RX0uUBxs
promptでFlowerって入れても、いろんな質のFlowerが全体的に出てくるわけで
俺はこんな感じの花が欲しいんだよ!って時に使えるかも?
0364名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 22:01:55.57ID:VWU+6ueB
>>361
まぁ機能豊富になってワチャワチャしてきてるからな。Gradioは割と重いし
各タブの追加・削除をユーザー側で設定出来るのが理想だな
0365名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 22:03:07.59ID:xhsd2T6X
桜なんかは簡単にというか、ネガティブに突っ込んでも出てくるんだよな…
スタイルに京アニ書くだけで
京都強すぎだろ
0366名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 22:23:40.83ID:7t919hNN
>>357
学習率を弄ると強く効き過ぎて崩壊するから基本はStepで調整するんだと思う
プロンプトによって調整が面倒だけど学習自体は長くても1分ぐらいで終わるから楽
下のは学習率は初期値で全部Step50でやったけどよく見ると腕折れたりしてる
一番上のオリジナルは元素法典の花火のやつ
https://i.imgur.com/vAEn3E3.jpg
0367名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 22:28:33.00ID:RX0uUBxs
>>366
ミリタリーすごいな!ちゃんと軍服着てる
0369名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 23:18:09.98ID:VWU+6ueB
これって1111で使うにはPersonalizedCLIPEmbedderをldm/modules/encoders/modules.pyに追加して
txt2img.pyでコンフィグにv1-inference-aesthetic.yamlを読み込む様にするだけでいいんかな?
0370名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 00:04:29.89ID:RRtlmd7q
https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients
ここへ説明がある


「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients extensions/aesthetic-gradients」
gitの使い方がわかってないから書いてある方法でやってもフォルダが空じゃないエラーを吐かれたんでextensionsにcdでクローンして動かした、stable-diffusion-webui-images-browserはそれで動いてくれた
0371名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 00:58:50.96ID:K/rDPT/T
だんだん界隈の盛り上がりが落ち着いてきてる感じするな
スレの勢いもそうだし、githubとかチューニングデータをまとめてるサイトとかの更新頻度も落ちてきてる
さすがに皆疲れてきたか
0377名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 05:35:34.19ID:5yLg7WkV
>>368
いや・・・設定が甘くてほかに影響出てるだけでそ
プロンプトとネガティブ見回せば重複や不整合があるだけかも
0378名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 07:12:49.13ID:KsamPrwX
個人的にはこういう絵でエロ見せられてもなぁ・・おえってなるのは自分だけかな
細部が奇形だったりするからだろうか。
流行りの塗り方はこうなのか、って参考にはなるけど
0381名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 09:27:36.30ID:EoJYR+Tc
negativeにcomic
0383名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 10:14:38.33ID:RRtlmd7q
Prompt S/R2つ使ってXY軸に
(イラスト:1.0) (イラスト:1.1)
(写真:1.0)
(写真:1.1)

数値だけ書いて同行する方法は俺は知らない
0385名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 11:28:04.92ID:mFnmvOHq
NMKDにはシームレスなテクスチャを出力する機能があるらしいけど、1111に同様の機能あったっけ?
0386名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 11:48:16.37ID:tRagNDm8
Tiling?
0387名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 12:04:47.68ID:fA7kF45k
aesthetic-gradients知見
fantasyのstepを上げるとスカートの中からエルフが生える
0390名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 13:23:59.71ID:0Wd9fLU7
>>388
プロンプトの強度を連続的に変化させる場合は>384のリンク先にあるような1-2(+0.2)みたいな書き方はできなくて、

(illustration:1.0),(illustration:1.2),(illustration:1.4),…(illustration:2.0)

みたいに書かなければいけないっぽいのでがんばってください
0392名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 16:03:43.76ID:F6E7ZFTF
みんなどんなグラボ使ってるん?
純粋に興味ある。

うちはお金厳しくて3060だ。
0393名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 16:13:20.80ID:h2/u5D4P
うちのマシンも電源の都合で3060だな
現時点でコスパも最強だし生成速度にもそんなに不満はないから当分このままだと思う
次にPC買うときはつよつよ電源にするかもしれんが
0394名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 16:13:41.37ID:77Dcl9oY
1060 6GBで遊び始めて
ハマったから3080Tiに交換した
VRAM必要と知ってれば
RTX Aシリーズにしたわ……
0395名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 16:22:11.81ID:Y6pwypxB
絵や横顔のような人間も描くのが苦手な物はサンプルが少ない訳でもないのに
AIも苦手になるのはどういう仕組みが働いてるんだろう
ただ単に難しいだけか?
0396名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 17:09:47.81ID:euEwVln7
いや、普通にサンプルが少ないんだよ
仕組みは違うけどディープフェイクもめちゃめちゃ横顔苦手
https://karapaia.com/archives/52315225.html

横顔はAIだと顔のパーツの認識も難しかったりするし、良質なデータとなると更に少ないんで、世界中から集めても足りてない
絵が苦手はどういう意味で言ってるのかわからないけど、2次元絵なら認識むずいし、下手なデータもあるし
特定の作家の画風だと単純にデータ量少なかったり色々考えられそう
0397名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 17:14:18.67ID:VM/3Yhtv
絵=手のことじゃね?
手のサンプルについてはどうなんだろうな、まぁ手だけのモデル作れば既に解決してるみたいだからそれもデータセットの問題なんだろうけど
0399名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 17:29:44.38ID:euEwVln7
>>397
特化型AIじゃないってのもでかいのかもね
ノイズかかったものを復元するのが基本になってるみたいだから、顔とか手とかを全体で捉えるんで、整合性を認識してるわけじゃないしね
全体をなんとなく復元できるAIにキャラ特化で学習させれば書けるようになるのもDiffusion系AIの特性なのかも
0402名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 20:30:20.31ID:FtUNeKDc
3090ti使ってる
Dreamboothのために3090買おうとしたら3090tiが17万まで値下がりしてたから買っちゃった
消費電力は知らん
0404名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 21:02:20.52ID:iUjw0Dba
>>403
NaiLeakのUIもNaiを模したものという認識だが
0406名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 21:33:46.55ID:jiOatwoD
初歩的な質問ですまんが、automatic1111の、普通のアップスケールについてまとめたサイトあるいは過去レスを教えてほしい
extraタブの設定全部わからん
githabの英文でもいい
0408名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 22:06:36.11ID:iUjw0Dba
>>406
わざわざそっちでアップスケーリングしなくてもESRGANとかは厳選した後外部ツールでかけたほうが良いんじゃない?
0409名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 22:07:59.63ID:jiOatwoD
>>408
外部ツールってどんなのがある?
0411名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 22:34:50.30ID:jiOatwoD
>>410
ありがと
使ってみます
0412名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 22:42:11.77ID:jiOatwoD
>>410
GPUないから使えんかった...
0415名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 23:15:37.29ID:Zt/KgNFj
>>414
39行目くらいにあるコードを書き換え

x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim_numpy)

x_checked_image = x_samples_ddim_numpy

R18フィルタのなんかが外れるらしい
やる必要無いって話もある

おまじない
0419名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 00:19:42.33ID:/RCA3w+A
RTX1060の時は問題なくautomatic1111動いていたんだけど、
RTX3060 12Gに取り換えると毎回下のようなエラーが出てきます。
誰か解決方法ご存じの方いませんか?

RuntimeError: CUDA error: an illegal memory access was encountered
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
0422名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 00:45:16.57ID:livOkGH+
グラフィックドライバとCUDAドライバ入れ直して
venvの中を削除すればビルドしなおしになるんじゃないか
0423名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 01:21:16.36ID:/RCA3w+A
>>421
CUDAとグラフィックドライバ入れなおして、一からやり直してみましたが同じ結果でした、、、
0427名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 05:31:53.09ID:eRqCSuT9
>>424
やったことないがおそらくできる
前スレでdiffuserモデルへの変換に必要なファイルの変更箇所を書いてる人がいる
0430名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 07:18:48.54ID:4eE5DXln
ColabでDreamBoothやるときって毎回初期化してInstall Requirementsからやり直さなきゃだめなのかな?
画像だけ差し替えて学習させたいのにできない
0431名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 07:19:21.93ID:YFKaU/Ug
>>428
これ元のアニメにエフェクト(img2img?)かけてるだけでキャラクターのモーションを生成してるわけじゃないんじゃない?
多分元アニメはLain
0432名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 08:13:30.18ID:4eE5DXln
NAIモデルでDreamBoothやりたい場合は現状ローカル以外に選択肢なさそうだなぁ
RTX3080 10GBよりメモリが多いRTX3060 12GBの方が良いのかな?
0433名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 08:14:28.83ID:A6o1VJnJ
>>428
こういう風にAIで盗作する人ばっかりが注目集めてフォロワー増やしていくのはなぁ
これじゃ誰も自作のアニメなんて作らんと思うわ
0434名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:04:18.56ID:YFKaU/Ug
>>433
盗作はいいすぎ
元ツイートにはアニメのlainタグ着いてるしAI作画利用したMADってだけだろ

なんで428がこれだけ引用してすげーってなったのかは知らんがreddit行けばこういう凝った動画で遊んでる人いっぱいいるよ
0437名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:14:33.83ID:MxUTV+D2
つっても、要するにこれまで絵コンテ→原画→作画、とやってたアニメの手順を
パラパラ漫画レベルの下書きからすぐアニメ化できるってことだろ?

盗作勢が単なる真似っこなのは見てる側も全員わかってるんだから、
自主製作アニメ勢とかが本気で作ったやつが出たら注目はすぐそっちに移ると思うぞ

作るのに時間がかかるから、今はまだ技術検証的な意味でコピー系の動画だけが出回ってるだけ
0438名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:16:21.11ID:YFKaU/Ug
実験として面白がってるだけだったり
新たな映像表現の模索だったりって想像つくと思うけど

VJのエフェクトとしてリアルタイムで利用できたらおもしろいだろうし
lainは元のアニメがネット関連オカルト話って感じだから悪夢的なエフェクトがハマると思ったんだろうね
0439名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:18:09.64ID:MxUTV+D2
新技術活用についてその時点だけを見て大したことないって言う奴、
特にこのスレまで来てるのにんなこと言うのはよくわからんな、ハード勢だからソフトはわからんとか、コンテンツ系の発達過程はよく知らないとかなんかな
0443名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:41:21.46ID:tBsvk500
絵にしろモーションにしても全て借り物なのがAIなんだから
そりゃどうあがいてもパクリになるわ
作成者が自分の姿を動画にとって絵にすればオリジナルではあるが
そんなもん誰が見るかって話 創作ってのは結構難しいんだよw
0446名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:48:29.73ID:wAlPzHg0
パラパラ絵ができるかどうかの議論は、偶然あるシード値で排出された好みの
女の子を、表情・体型その他を破綻させずに、スムーズに服を剥ぎ取って
エロ絵として連続性を保持できるようになってからにして頂きたい。
0447名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:50:04.55ID:RMVUjVWx
>>443
そこでよくある例を出すと全然情報集めてないことがバレちゃうぞ
自分の動画の変換も、自分の顔の学習もすでに普遍的な物
0448名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 09:58:05.67ID:DAYkNCbu
AIの学習データは借り物であるというのは全く違う。

絵っぽいもの、モーションっぽいものに共通する事項を認識した上で再構築するのがAI。

これが借り物なら、お前が人生で教わってきた箸の使い方や服の着方、
ありとあらゆる人間の所作も全て借り物ということになるのと相違ない。
人とAIの違いは、その習熟度の速さ、及びそこにどのような物語や記憶が結びつくかによる。


人の創作に魂がこもるのはこの部分。
創作者の人生は創作者のオリジナルであり、創作者の人生からひねり出される創作物にのみ魂を宿らせる。
AIはまだこの補助をするに過ぎない。

AIによって学習された成果物の表現の方法の類似性などは、ただの手法でしかない。

人間は創作を行う際はその手法を含めてもってして、自分で何を表現したいのかを明確に意識しろ。
0452名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 10:19:10.35ID:eRqCSuT9
公開されてるnotebookでsd1.4とかになってる参照先を自分のアップロードしたNAI(diffuser)のモデルに変えればできそうだね
0453名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 10:25:21.11ID:WkS6IZ4G
DBってvae対応してないよな
NAIはvae使えってことになってるからDB側もvae対応にしないと厳密にはDBできない
1111でvae読み込まなくても普通に画像生成できるようにDB側がvae対応じゃなくても十分DBできるけど
0454名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 10:27:35.08ID:tBsvk500
自然や生命の歴史が作った身体などは、誰の著作物でもない
ローマ時代などは、その神が作った自然の美を再現するのが芸術だったのだ
AIはその前提から外れている。SDなどは人間がどういう画像に美を感じるのか、という想定でデータが集められている
あくまでも人間の感覚が先にあり、その補佐ってこと。つまりそこが文字通りAI 「人工」知能ってことだろ。自分で美を理解してるわけじゃない。
つまりそれが借りものってことだよ。作家の一番大切な部分、魂が借り物ってこと
スレ違いなんでここまで。
0456名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 10:51:11.34ID:ehJaKSBl
>>454
スレチだけど、AI画像生成技術として出鱈目言ってるのでそこだけ訂正しとく

> SDなどは人間がどういう画像に美を感じるのか、という想定でデータが集められている
法的に学習に使用していいURLリストが公開されてて、そこの画像突っ込んでるだけなので勘違い
そこから特定の出力させたいものを追加学習させたサービスなら近いけど

> あくまでも人間の感覚が先にあり、その補佐ってこと。つまりそこが文字通りAI 「人工」知能ってことだろ
AIのAはartificialで、例えば造花とかに使われる単語だから人が作ったという意味しかないので、なんか色々妄想入ってる
0460名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 11:35:40.15ID:4QzkRzqm
>>459
基本的に再現度はいいけどキャラによってはWDの方が良かったりする
NAIは胸を盛りがち
0462名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 12:09:55.71ID:4eE5DXln
特定のキャラの顔と髪型だけ覚えさせたい場合ってどういう画像使えばいいんだろう
体系はいくらでも指定できるし覚えさせる必要ないよね?
0463名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 12:37:37.23ID:B2AF7YHX
dreamboothってckptを生成するんだよな?

最終的にNAIモデル+vaeのAUTOMATIC1111で動かそうと思うと、
学習時にNAIを使ってckptを作って、そいつをvaeと同じファイル名にリネームして、
NAIモデルの代わりに使えばいいのかな
0465名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 13:11:51.98ID:I+qhN+fd
WDは768くらいだったらまだまともな人体出してくれるけど
1024だとおっぱいの2段重ねばかりで使い物にならんな
0466名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 14:17:12.40ID:B2AF7YHX
>>464
ありがとう。学習時のvaeってどうしてる?
NAIのckptと同じフォルダに入れとけば勝手に
vae使って学習してくれるのかな
0467名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 15:30:50.91ID:SqQpFigr
DBするならShivamShriraoのノートブック使うのが楽じゃねえかなあ
NAIモデルの場合は変換しなきゃだけどvae指定できるぞ
0470名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 16:09:53.73ID:tBsvk500
>>469
ただで授業するのもめんどくせえけど一応ね

>Stable Diffusion は、LAION-Aesthetics と呼ばれる「美しい」画像のみを集めたデータセットを用いて学習されている点も特徴的です。このデータセットは、「美しさ」の人間による判定を模倣するように訓練したモデルを使い、大きい画像キャプションデータセットである LAION から作られているということです。
0473名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 16:25:50.60ID:pMQGRvJG0
>>470
重ねて妄想乙
キミの美術感でいうところの美しさとSDの学習に使われた美しいデータセットにはなんの関連もないじゃん
キミの思う美しいもキミが今まで見てきた人類の精華から得たものだろ
何が自前で何が借り物なのか?
0474名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 16:52:13.67ID:MxUTV+D2
自然の美がどうこうって奴イラストレーター板にもいたな、でも現代イラストも人工的で嫌いらしい
(何故か自分を賢いと思ってる)アホな荒らしが混じるとスレの技術的な質が下がるからNG入れときたいところ
0476名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 17:17:50.76ID:Xd7p6SQC
>>467
俺もそのフォーク使ってるんだけどNAIモデルコンバートしようとすると
RuntimeError: Error(s) in loading state_dict for CLIPTextModel
とかいってできないんだけどおま環?
waifuは普通にコンバートできたんだが
0477名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 17:19:22.52ID:Vlzx8EB8
>>455
50GBはエポックとかバージョン違いのパックで
1モデルは4GBか7GB
0478名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:01:09.80ID:tBsvk500
>>473
ああめんどくせえ 屁理屈の見本でもレクチャーしてんのかこれ
誰が俺の感覚といったよ 元記事全部読んでから出直せマヌケ
だいぶ知能のレベルが落ちたなここ
0481名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:07:13.81ID:4kVEfpHP
HN作るのDBより楽で速いって言われてるけど、どこが正解の地点なのか全然わからんから沼すぎる
過学習に陥ってるのか正常に学習している途中なのか全然わからん
ノイズも出ないし人体壊れたと思ったらまた普通に描けるようになるし
「目が壊れたら過学習」くらいしか目安がわからんすぎて途方に暮れてる
輪郭線がぶっとくなるのは過学習に入ってるんだろうか
0482名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:07:39.63ID:3r2t4SHE
解説記事読んでも変な解釈するくらいなら読まないほうがいいな
誤った知識で論理武装する面倒くさいおっさんが生まれてしまう
0483名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:11:20.41ID:YFKaU/Ug
>>ああめんどくせえ
いやお前以外のみんながお前に対して感じてることだよ
このスレの趣旨に反して場を一番荒らしてるのお前だぞID:tBsvk500
0484名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:21:53.03ID:MxUTV+D2
・荒らしはスルーしてNG入れろ
・何言っても喜ぶだけで絶対に黙るわけないから一切触るな
・スレの本題の技術の話だけしよう
・荒らしが居座り続けるなら最悪ワッチョイ入れて一括NG

古のスルー力コピペを持ち出す時だ、新技術を前に温故知新だ
0487名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:30:25.29ID:75VBDHeN
>>481
同じくDBに関しては完全に手探り状態
TIは初期設定でも悪く無いぐらいには画風を反映できた
DBは初期設定で回したら目も当てられない結果になった

DBは学習レートとステップを上げ下げして悩んでる
エロ画像スレでTIでナナチ学習させた猛者とか居た
何が最適かおま環すぎて分からん
0488名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:32:54.77ID:8BqgBX2C
HNは結局単体だと思い通りにならないことが多くてTIも併用するのがベストって言われてるな
俺も上手くいってないから実際のところどうなのかわからないが
0489名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 18:39:38.35ID:p7yXqtfW
>>481
Lossがなかなか収束しないよね
学習中に生成してる画像とLossを比較して見てみても、どうもしっくりこない感じがある
TIもLoss値が全然あてにならないけど、Step進むと画力が上がってるのはわかるから不思議
0490名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 19:02:55.57ID:mhNz45OG
これマジか
hypernetworkで好きな絵師の乳首だけ学習させようかな

943 名無しさん@お腹いっぱい。 sage 2022/10/18(火) 15:58:16.38 ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
0492名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 19:22:34.41ID:8K3UXzE/
みんな普段何のモデル使ってる?
自分はwaifu1.3だけどスレを見る限りNovelAIリークが多そうな気がする
0493名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 19:26:49.31ID:Vlzx8EB8
>>492
NAIleakとStableの1.5かな
0494名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 19:40:07.55ID:8UA/QPdj
waifu1.3は学習が難しすぎるのがなあ
1.2とかとりさんまなら通る学習もちょっと油断すると崩壊する
0496名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 20:19:41.01ID:CY9l0FUY
AUTOMATIC1111から手順に沿って正しくやればちゃんと反映される
解説やまとめとかで手順抜けてるところが多い
学習させたいデータバラバラで枚数やパラメータ適当にやったって収束できはしないわな
0497名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 20:40:32.57ID:8BqgBX2C
上手くいかない(いついかなる時も学習元データの画風そっくりそのままにならない)
という話で、シンプルなプロンプトなら似るには似る
プロンプトを増やすと崩れていくのはそれぞれのプロンプト自体に他の画風がある程度含まれているからなんだろうとは思ってる
0498名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 20:48:53.99ID:7+P1CHxT
キャラぐらいだったらどうやっても学習失敗しないのにと思ったらそういうことか
汎用的なのを作ろうとして悩んでるのな
そんなこと考えたこともなかったよ。何通りも学習すればいいだけじゃん
0500名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 20:56:18.46ID:4kVEfpHP
DBは強いけど最小でも2GBあるしキャラ作り向きだからなぁ
画風目的でHNで代用出来るなら最小21MBくらいで作れるし魅力だわなぁ
ただ自分の場合DB+HNは汚くなるんで現状オリジナルDBckpt単体が一番良い
0501名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 21:14:08.92ID:abJgUrwO
1111更新したら、HNの活性化関数がヤケクソのように大量追加されてて吹いたw
おまえらどれが良いかテストしろってことなのかw
0503名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 21:27:52.26ID:4eE5DXln
HNは画風?を真似るだけでキャラ学習できるわけじゃないってどこかで見た
キャラ学習ならDB一択らしいがその認識であってる?
0505名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 21:36:15.42ID:abJgUrwO
>>504
機械学習の解説あさるとswishやmishが優秀だよという話も出てくるので、
そういうあたりのだけ持ってくるのはいいと思うんだけど
この全部盛りなのはなw どうせ削るだろうし
0511名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 21:50:16.74ID:p7yXqtfW
>>508
そのサイトのHNのLearningRate設定はいいよね。ステップに応じて小さくする指定方法使える
TIは10倍にして使うと丁度良かった
0512名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 23:52:49.19ID:VMgSAgrd
20枚ほどのイラストをDBに読ませて5000回学習させたけど、あるイラストの構図がかなり濃く出た。
コレは過学習なんかな。適正ラインの見定めが難しい…
0513名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 23:54:18.33ID:D5ZOg+tK
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ

ったく使えねぇチンカス童貞がW
0519名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:02:25.00ID:q1fD+Zvu
>>1-1000
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ

ったく使えねぇチンカス童貞どもがW
0520名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:03:09.42ID:q1fD+Zvu
くっそ W W W
0521名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:04:13.53ID:q1fD+Zvu
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ

ったく使えねぇチンカス童貞がW
0522名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:04:20.51ID:q1fD+Zvu
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ

ったく使えねぇチンカス童貞がW
0523名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:04:26.00ID:q1fD+Zvu
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ

ったく使えねぇチンカス童貞がW
0524名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:19:34.08ID:460KGV0n
HNの画風学習、全然うまくいかないからなぁ
皆キャプションどのくらい細かくしてる?1girl,
○○ hair, ×× eyes, △△ dressくらいでいいんかね
0525名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:41:28.22ID:YOLSCJ11
DB用にcolab上でNAIモデルコンバートしたら4.25GBのoutputフォルダができたんだが、
これ直接Google Driveに作る方法ないかな?
単純にdriveをoutput先にすると中途半端にファイルが作られて止まるし、
colab上に作るとダウンロードに時間がかかり過ぎる…
0526名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 01:44:17.76ID:UoWVVGIN
>>525
ダウンロードに時間がかかるってのがよくわからないんだけどDrive読み込んでそのままD&Dじゃ駄目なの?
0528名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 07:32:40.92ID:QwZppRvt
ドライブとcolab接続して中途半端なファイルになった事とかないし1111のuiも崩れたことないしこういうの見る度ホントに同じ事やってんのか疑問に思う
初期にそこそこ沸いたPython起動できない君が少し成長した姿なのか
0530名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 08:12:18.28ID:IWacM5Ch
1111は定期的に設定ファイル捨てないとあかんことがある
場合によってはvenvごと捨てて再インストールも
git pullだけじゃ対応しきれとらんのよな
0531名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 08:20:30.89ID:zShwsUm9
>>527
最近追加で入れた方はまとめて作成すると、プロンプト入力欄が拡大と戻る(開業位置を細かく変更している)を繰り返して画面が震えるようになった
けど作成完了とともに戻るので崩れ続けるのとは違ってそうですね
古い方との違いは--xformersありで起動するようになったこととNAI以外のモデルは入れてないくらいだと思う
0532名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 08:25:38.10ID:wIUzXjZF
ckptにvaeを外から融合させて内包させることに成功したんやが、これでdreamboothに影響でるんやろか?
0533名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 10:16:11.55ID:15JEKYbX
colabのDBからckpt出力してweb UIで読み込んでも全然うまくいかないなぁ...
colabのRun for generating imagesのpromptでsks girlを指定すると学習自体はうまくいってるんだけど
web UIのpromptでsks girlでやると変な画像出てくる
0536名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 11:53:39.56ID:7JdawV08
初期のDBわかんなすぎてunetのフォルダに入ってるやつ適当にそのまま持ってきておかしいな~って思ってたわ
めちゃくちゃなアホだった
0538名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 12:44:42.30ID:CY27XN7F
>>537
学習の時点でsks消してキャラ名にしてるってことや
sks入れた方が学習結果が良くなるみたいな声を聞いたから
0540名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 12:58:53.37ID:ArJuJ6YF
キャラ名だけだと元の語彙と混ざるおそれがあるから
ぎゃぽえ みたいな意味のない文字列(sks)に学習させると聞いた
0541名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 13:13:33.14ID:Ehdvss0T
4chで見たのを再現しようとしてENSDやモデルハッシュまで一致しとるのに微妙に再現できない
隠しプロンプトとかオプションの設定のなんかが干渉してるのかよくわからん
xformerは関係なかった
0542名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 13:17:20.08ID:15JEKYbX
pronptにmasterpiece, best qualityとか指定したらそこそこのクオリティで特徴をとらえた絵が出てきた...
colabのDBでgenerateすると学習元にかなり近い似通った絵が出てくるからそっちの方がいいんだけどな...ckptで出力する際にWaifuDiffusionにマージしてるからそうなるのかな?
0544名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 13:38:40.65ID:15JEKYbX
>>543
eulerとかDDIMつかって色々試したけど顔の特徴とか髪の色はなんとなく捉えてはいる
でも髪型が全然違うし構図も違う
colabでgenerateすると構図も学習元と同じだし画力や画風もほぼ同じレベル(というか元の絵とほぼ一緒)なのにckptにしてwebUIだと途端に微妙に特徴を捉えるだけになってしまう
0546名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 14:52:17.47ID:nFPYLh8A
逆にみんな上げてるようなアニメアニメした絵が出ないわ
ファンタジーっぽい淡い塗りになる
stepかscale増やさないと駄目か?
0547名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 15:14:54.89ID:Ehdvss0T
>>545
リーク版の導入手順そのままやったんだけどみんななんか違うことしてるんかな
個人的にはオプションの強調関係とか、75トークン超えたら云々みたいな設定が怪しいと見てるんだけど
4ch民全員でコンセンサス取れてるような細かい設定があるとも思えないんだよなあ
0551名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 15:36:23.60ID:Ehdvss0T
>>549
マジですか
後で古いバージョンで再現できるか試してみるしかないのか

>>550
それはできてる
厳密に言うと今の環境では確認してないけれども
0552名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 15:39:24.58ID:IWacM5Ch
>>549
それはだいぶ誤解を招く説明かも
1111は確かにバージョンによって設定がころころと変わるけど、それはあくまでも設定の問題であってそれさえちゃんとしていれば出力が変わることはない
相当古いバージョンを使ってるでもない限り
0553名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 15:43:18.45ID:IWacM5Ch
>>551
古いバージョンを使う意味は基本的にはないよ
あくまでも設定やモデルファイル他次第
アスカチェックをパスしてるのであれば、あとは何か足りないネガティブプロンプトがあるとかかもねぇ
0554名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 16:09:43.89ID:cZJg0FpX0
>>551
バージョンによってプロンプトの解釈が少し変わっていて
過去のバージョンだとスペースが先頭に入っている単語は無効になってたり
カンマひとつ増えただけで出力が変わったりしてた

今にバージョンはそういうの訂正して判断するようになったので
書いてあるけど実は無効だったプロンプトが有効になったり
出る絵を変えるために足されていたカンマが無効になったりして
過去の呪文通りの絵がでないプロンプトもたくさんある
0555名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 16:16:51.47ID:SbWy9Mps
>>551
厳密に今の環境確認するのが先だろう…
機械は忖度くしてくれないから、誤字すらも再現して指定しないとだめだよ
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair の legged もそのままな
0557名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 17:10:55.28ID:GWlcQ8rS
ハローアスカはgithubにある通りの出力が設定通りででる。

webuiのバージョンが変わろうが内部的に動いてるsdもnaiのモデルも変わることはない
0563名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 18:11:47.24ID:Ehdvss0T
ちなみに再現しようとしてるのは4chに22日付でupされたものなんで、そんな前に作られたもんではないと思います
ていうかもう誰が代わりに再現して設定だけ教えてほしい
0566名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 18:30:50.47ID:qw1r0VrP
もうその再現しないやつ貼れよ
0567名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 18:32:01.52ID:5HGUC6Gg
>>538
じゃあsksつける必要はない
てかsksの代わりがそのキャラ名になる
sks入れたほうが学習結果良くなるってのは学習段階の話で、プロンプトに入れたところで意味ない

あと、sks(キャラ名)の後ろにつけるのは、基本的に正則化画像のプロンプト
sksで学習させて正則化画像がgirlなら「sks girl」になる
0568名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 19:02:50.59ID:Ehdvss0T
再現したいやつ
https://i.imgur.com/lpAnKCZ.jpg

自分で生成
https://i.imgur.com/9NkE3zu.jpg

書き込みスクショ
https://i.imgur.com/3cdx0Qn.png

生成したもののメタデータ
https://i.imgur.com/fEiYXKI.png


ちなみに書き込みの中のキャプションは別の画像で、安価先の安価先の画像が再現したいやつとなってます
画像はメタデータは残っていませんでした

以下4ch書き込みコピペ


Here you go anons:

masterpiece, high quality, (extremely detailed face), nsfw, (1girl with red eyes), neon lights in background, facing viewer, squatting, (wide hips), (medium:small breasts) and (puffy nipples), nude and pussy juice and (flashing), (trench coat) and (boots), pubic hair, (wet extremely long black hair with blunt bangs), rain, wet and shiny skin, dripping, wet street and (crowd) in background, lampposts, (smug grin), blush, detailed pupil, beautiful eyes, detailed eyes, sharp eyes, choker, (game illustration:1.25) ((soft lighting:1.2))

Negative prompt: lowres, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, jpeg artifacts, signature, watermark, out of frame, extra fingers, mutated hands, (poorly drawn hands), (poorly drawn face), (mutation), (deformed breasts), (ugly), blurry, (bad anatomy), (bad proportions), (extra limbs), cloned face, censored

Apply in Settings: "upscale latent space image when doing highres. fix"
Check "highres. fix"

First pass size: 512x768
Steps: 28, Sampler: Euler, CFG scale: 11, Seed: 2850305248, Size: 1024x1536
Model hash: 925997e9, Denoising strength: 0.57, Clip skip: 2, ENSD: 31337
0573名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 20:17:32.16ID:/9PlV6/O
オープンソースの話ならいざ知らず、割れのNAI再現についてしつこく聞いてくるヤツなんなん? 流石におかしいだろ。
0575名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 21:28:39.18ID:UoWVVGIN
>>573
GitにHowtoあるのに何いってんだ
0576名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 21:56:07.47ID:ArJuJ6YF
中古のTesla A100がじゃんぱらにいくつか入ってたけどこっち方面はGeforceより強いのだろうか
vram12GBファンレスに惹かれた
0577名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 22:06:35.28ID:UoWVVGIN
>>576
P100?でも取り回しとか対応の情報の豊富さで考えると
GTX3060のほうがいいんじゃないかな~と思う…
0578名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 22:14:55.38ID:ArJuJ6YF
>>577
P100だったかも
通常のPCIE補助電源ケーブルじゃなくてCPU8ピンが必要ですとか書いてあったから惹かれたけど買えなかった
おとなしく今のGeforceとColabを併用するよ
0585名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 01:05:39.25ID:dBCZsI09
電源供給のケーブルだか端子だかがまずいらしいね
もともと耐えられるギリギリの電力だからちょっと折れ曲がってると燃えるとか
0587名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 01:21:56.81ID:Jfa9wleP
NAIのdiffusers化までできたからcolab上でDB学習するノートブック探してみたけど、
自前のモデルを学習に使う方法が書いてあるやつって全然ないんだな
コード読んで自分で書き替えないと駄目か
0590名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 01:56:37.11ID:GA3DEb8y
>>583
設定弄らなきゃサーマルスロットリング的なブレーキかかるよ
yahooの見出しみたいな見出しに踊らされてる情弱が喜びそうだがな
買えない貧乏人かAMD社員の工作員でももうちょっとっマシな反応するだろ
0591名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 02:25:44.58ID:M2NZtT+7
>>585
nvidia純正の変換ケーブルのコネクタ部分のハンダ付けが甘いとかなんとか
GALAXが負荷テストやってたがちょっと緩むと表面温度100℃とか行っててヤバい
0593名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 03:25:42.16ID:NR/0UqtH
それこそ見出しに騙されてサーマルスロットルとか言ってるじゃんちゃんと見ような

まぁ自分でやって証明するタイプなんかもしれないが
0594名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 04:47:35.14ID:ci7WBkce
とりあえずpower limitかけて絞っとけば流れる電流も抑えられてある程度安心なんでない
定格でも限界近くは電力効率あまり良くない感じだし
0595名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 07:07:30.95ID:Qm1NmmYm
4090のコネクタ溶けたのが既にミーム化されてて草
そこまで温度上げないと新製品出せないとかGPUの進歩って停滞気味なんかな
一昔前ならワットパフォーマンス良くなった上に性能ドン!って感じだったのに
0602名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 08:21:15.61ID:4+NfOWdm
Newbeeer? 日本語の情報はまだ出回ってない感じか
>>600
収入が本業上回ったらいいぞ
今は市場黎明期だから技術職として雇用枠生まれるのはもうちょい先だし副業的に経験積むがベスト
まぁ謎のスタートアップがプロンプトエンジニア求人既に出してるけど
0608名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 09:39:28.20ID:4+NfOWdm
プロンプトエンジニアの求人はこれ
掲載日2022/09/07だからNovelAI出る前で、プロンプトエンジニアって言葉はイラストに限らず
AI界隈で引数考える将来の技術者として海外で提唱された言葉だからそっちの引用だと思う
https://www.hireplanner.com/ja/frontend/companies/rinna-Co-Ltd/jobs/%E3%83%97%E3%83%AD%E3%83%B3%E3%83%97%E3%83%88%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%8B%E3%82%A2

三年目のスタートアップとしてはそこそこまともな部類に見えるよ(今年中に潰れるとか悪質ブラック詐欺企業とかと比較して)
0610名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 09:54:31.76ID:SmUfVTxR
プロンプトエンジニアとか数年前からあるし
りんなはマイクロソフトから独立したAI部門の1つだし
この無知アピールはなにか意味があるのか?w
0611名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 09:57:53.98ID:Fyx1kNsZ
データセット作成とかAI界隈は案外裾野が広いんよ
Googleとかもインドに月給1万円で人海戦術してたりする
0612名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 10:00:47.17ID:4+NfOWdm
おーほんとだ、コーポレートサイト二つあるのか?
時給2000-3500円は採算化できないのに高すぎると思ったらそういうことか
0613名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 10:04:34.97ID:4+NfOWdm
てことは現時点で既に生成関連技術に十分精通してればMSやGAFAに入れる雇用枠あるかもな
大手の方が先行投資してるか
0616名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 10:24:54.62ID:4+NfOWdm
逆にどう考えても今のこの分野って世界最先端だからなぁ、枠があって当然だと思う
まぁ本家に入るなら英語とそもそものAI系IT経験水準もそのレベルが必要で、上のスタートアップみたいな分家ならSDやNAI触ってるだけでも相応の待遇では入れるって感じだな

スレチな流れにしてすまんな
>>598,604とかの技術の話に戻してくれい
0618名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 10:29:17.85ID:JqlNJLMG
むしろ、かなり運要素の強いAIガチャで一定以上の結果を出せと言われるプロンプトエンジニアって恐怖でしかない
0619名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 10:42:41.75ID:WFveXQsq
>スキル・資格

>【必須】
>- AIを用いた文章や画像の作品・コンテンツ作成経験
>- 芸術や文芸の創作活動経験
>- AIに対する興味関心
>- 基礎的なPCスキル
>- 現在日本に在住
>【歓迎】
>- 柔軟な発想力
>- 流行に敏感
>- 英語の読解能力
>- グラフィックソフトウェアの使用経験

創作活動経験必須はまあ当たり前か…そんなもんねぇよ!
歓迎もどうせ必須みたいなもんだろこれェ!
加筆もしてくださいとか言われるのかな
0620名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 11:05:40.21ID:4+NfOWdm
なんか、賛否どっちにしても意外と関心あるもんなんだな職業としてやること
専用スレ立ててもいいかもな(話題隔離の意味も含めて)
0621名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 11:25:33.42ID:+KuKnNHf
新鮮でツッコミどころのある話題だから騒いでるだけだと思うんで、1日で収まると思うよ
これが2,3日続くようなら、その時考えればいい
0622名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 11:48:26.11ID:dl3QqkBW
SD検定とかそのうちできそう

「違法モデルの使用はやめましょう」は一番最初に習うんだろうなぁ
danbooruタグは試験に出るのかな?
0624名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 11:57:41.30ID:plulS4qp
キャラ名や作品名が英語にするとあまりにも長いせいでタグ付け困難で再現性低いケースがあるんだよね
多分そのうち対策で作品IDとか作家IDみたいの使って指定みたいな露骨なツールが出てくると思う
0625名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 12:01:29.06ID:4+NfOWdm
半芝つけて特に根拠もないのに「できるわけないでしょw」勢はAmazon黎明期に大多数が「流行るわけないw」って
言ってた人らと同じで、めっちゃ頭悪そうに見えるからやめた方がいいと思う……どの時代でも大抵負ける側だから……
0631名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 13:50:01.81ID:sPlLlVB8
>>630
1111の人ってNAIのリークモデルを使えるようにしたかどでSDの公式からBANされたんじゃないっけ
そんなところと協力して大丈夫なのかね?
0635名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 14:21:21.81ID:rfL7mts3
BANについてはEmadが直接1111のリポジトリに謝罪文投稿してる
連絡くれたらBANすぐ解除するとも言ってるけど1111は戻る気はないみたい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2509

またNAIリークのソースを1111がパクってたとかも言われたけど全くのデマだった
0642名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 16:02:43.08ID:UjBFN4Js
JoePenna版のDBでNAIモデル追加学習させた人いる?普通にckpt指定して学習させれば上手くいった?
0645名無しさん@お腹いっぱい。
垢版 |
2022/10/28(金) 20:48:07.00ID:cvYGpSfV
ところで、webサービスのdream studio にある CLIP Guidance ってスイッチ、あれはいったいなんなのだ?
0646名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 00:08:02.96ID:Y0yLHult
>>588
こんなのあったのか
でもNAIのckptを指定すると変換エラーが出るから、diffusers化してる部分を
探していじらないと駄目そうだな。ちょっと試してみる
0647名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 00:11:47.56ID:Wrib7Nps
変換用スクリプトをダウンロードしてるところを潰してあらかじめ書き換えたやつをcontentから呼び出して使うようにすればいいと思う
0648名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 01:09:46.89ID:Wd1TLMxV
ずっとhypernetworkで躓いてたんだが、枚数を20枚から10枚に減らして、関数をreluからmishにしたら見違えるようにうまくいったので情報共有
特に関数の変更は効いてそう
学習率は5e-6で、stepは12000あたりで最初の変化、16000くらいでもう一回変化した
0658名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 10:21:20.31ID:8RgSBY2+
ローカルに保存した数千枚の自分好みのイラストを読み込ませて
生成されるイラストを自分好みの絵柄に寄せるってできる?
0662名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 10:41:31.05ID:ka4+nBTU
>661
絵柄やキャラクターの学習方法

Textual Inversion(TI)
DreamBooth(DB)
Hypernetwok(HN)

特徴と代表的な解説記事の紹介はまかせた
0663名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 10:44:27.86ID:m2kjW98C
>>660
project natailiだった

>>661
TIがいちばん敷居低いけどいずれにしてもGPU買うなり借りるなりとデータ加工の手間とpythonスクリプト走らせる最低限の知識はいるので
かんばれがんばれ(ドカベン)としか
0667名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 12:55:53.24ID:ka4+nBTU
>666
わかったことがあったらまとめておくれ
勉強しなくちゃいけないことが多すぎてついていけない
0669名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 13:41:28.77ID:Wd1TLMxV
>>652
レイヤーはそのまま
ノーマライズは切った
use dropoutにはチェック入れたな
0672名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 15:32:49.15ID:Anwr4Xox
dota 2に駆り出されてた
0676名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 18:24:52.87ID:SBfh40eI
商売気あるクリエイター重視で看板抱えてマージン取ってる会社はそりゃ慎重になるよ
見限られる流れでも作られたらプラットフォームとして終わりだからな
0677名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 18:33:15.24ID:LNmmxGf/
逆風というかモザイク審査は人力だからね
無駄に枚数多くて単価低くて対して売れないAI作品が避けられるのは当然
モザイク審査AIが出てきたらわからんが
0680名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 18:53:15.67ID:LMUswfe7
>>675,676,677,679
とりあえずスレチだからAIビジネススレに移動してくれ(経済の話題になってたけど気にしなくていいから)
0681名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 21:02:11.91ID:0xkTp7Sq
モデルにhuggingface指定してるとこをローカルのに変えれないかなと思って色々調べてるけどムズいな
変数とか関数とか調べながらちょっとずつ理解してるけど字が多いってだけでチカチカしてくるぜ
0683名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 23:05:36.04ID:T9SJyx4S
おれ「このマスクペイントしたとこに女の子の全身イラスト描いて~」
AI「おっけ~」

AI「じゃあこのマスクの外に体があると想定してマスクしたとこに顎だけ描くね~」

俺「マスクしたとこに全身描けって言うたやろ!!!!!!」

AI「じゃあこのマスクしたとこにお腹だけ描いとくね~」

俺「なんだこいつぅううううう!!!!!!!」


これ本当になに?…
何か新しい設定とか出来て間違えたことしてる?…
0685名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 23:27:25.50ID:F8DiJAQE
>>683
マスク外の画像もすべて考慮にいれ全体としてプロンプトを実現するものだって理解してるけど

挙動をみる限りそんな感じ
0687名無しさん@お腹いっぱい。
垢版 |
2022/10/29(土) 23:53:04.87ID:lKPQDiUm
AUTOMATIC1111で生成ボタンを押した時に前回生成画像を消したいんだけど
何処を弄ればいい?
gradio部分の実装複雑になり過ぎてわからん
0690名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 00:53:38.61ID:bqltvrIb
>>687
そういうスクリプトを書いて、スクリプトフォルダに入れておけばいいね
同梱スクリプトをコピってちょちょいといじれば簡単にできそう
runメソッドでファイル消せばおk
0693名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 08:27:28.98ID:CIYWza7Z
>>682
確かに言われてみればそうだわ
Gドライブ指定だけだったら出力とかで既に指定されてるやつの真似すれば出来るんかな、やってみよ
0694名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 09:10:16.74ID:p40eEMcB
>>693
何したいのかわからないけどこれじゃ駄目なの?

import gdown
gdown.download('https://drive.google.com/uc?id=1から始まるURL部分', 使いたい.ckpt', quiet=False)
0696名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 09:41:43.35ID:p40eEMcB
>>695
ディヒューザーモデルは詳しくないので、細かくはわからないけど1ファイルであればこれでダウンロードできるよ(共有の設定しないと404食らうかも)
0697名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 09:48:58.56ID:jcxrUl0r
from google.colab import drive

drive.mount('/content/drive')

!COMMANDLINE_ARGS="--share --gradio-debug --ckpt-dir /content/drive/MyDrive/ほげほげ"
0698名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 10:06:43.37ID:xIImHf8m
haggingfaceのモデルはブラウザ使えば公式のところ1ファイルずつ落とせる
git的なのでも落とせそうだけど
0700名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 10:29:42.35ID:p40eEMcB
>>699
TIって何の略だっけテクスチャなんたらだよね?
0702名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 12:57:46.57ID:iFGrSilL
>>699
TIはモデル内にある既存の特徴から再現してるだけなので限界にすぐ到達するんじゃね?
学習データにもよるんだろうけど
0704名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 13:08:34.38ID:iFGrSilL
HNは一瞬で過学習になるってNAIも書いてたな。だから学習率をクソ下げてるとか
attention層のkey,valueを差し替えてるらしいが収束が速い原理はよく分からんな
0707名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 14:25:08.38ID:rZisB7Vd
DreamBoothはモデル本体まで変えてしまうから、複数モデルを同時に使う場合はダメ
結局、TIが一番応用できて使いやすい
0708名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 15:34:08.65ID:fUxzCEP7
元モデルに影響がない上に学習が速いDreamBoothも出てきてるみたいだぞ
waifu1.4が出る12月までには技術が成熟してくれるといいんだが
0712名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 16:28:24.50ID:rVTGKWis
注意しろよ
>TLDR: fed allegedly uploaded ckpt of CP as a honeypot,
anon downloaded it and got a warning from their seedbox who got a warning from Child Exploitation
and Online Protection Command
0715名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 19:51:04.12ID:BQVyfvrv
>>668
https://fate.5ch.net/test/read.cgi/liveuranus/1666982422/702
にプロンプトがあった
重複を整理してtypoを直してカンマの前後をきれいにしたあと、1111版向けに書き換えるとこうなった
https://imgur.com/a/5BRBAmE
https://i.imgur.com/2Uq9smy.png
打率は低いものの、steps/sampler/scaleを調整すると打率を上げられそうな感触もあった
0722名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 21:24:43.21ID:7oNMWp+w
DBで学習させたあとSDで動かしてるんだけどこんな感じに頭が欠けちゃうんだけどどうすればいい?
((Image of a missing body part)),((Image with body tilted)),(Leaning or prone position)
ってpromptいれて何とか抑え込もうとしてるんだが...
https://imgur.com/a/WcgqFV7
0723名無しさん@お腹いっぱい。
垢版 |
2022/10/30(日) 21:29:30.86ID:i66qe/8A
headとかfocus eyeあたりで無理やり上に視点をずらすとか? どういう学習させてるか次第の部分はあるけど
0727名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 01:53:48.44ID:eRv81mIu
>>726
俺はLinuxなのでこう書いてる。
/usr/share/fonts/truetype/dejavu/DejaVuSans.ttf

Windowsでも使いたいフォントのフルパスを書けばいいんじゃないか?
0731名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 11:45:08.00ID:kT7npTF8
頭の上切れるのは学習時の画像が512とか指定サイズ外なので中心から見て範囲外を切捨ててるとかもあるかも
0732名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 11:46:57.98ID:PDssxeyx
GPUメモリに余裕があるなら、そもそもの出力サイズを縦長にすると安定するって聞いたな
やってないから噂程度だけど
0734名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 12:35:59.56ID:ri/VLUwR
AI画像始めようとしたら
パソコンのスペックが低いみたいで生成できませんでした

25-30万くらいでおすすめのPC教えてもらえませんでしょうか
ビデオカードがよい方がいいくらいの知識です
あと素人よりなのでCPUは無難にインテルがいいかなと思っています
0735名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 12:39:52.23ID:Q+9TAUuL
hypernetworkってcolabで出来ないのかな?
なんかパス貼っても参照ディレクトリがないって言われるんだけど
0738名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 12:51:33.28ID:fHJOrEdh
>>735
できるから何か間違ってる
0739名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 12:53:28.02ID:9HFAhc2r
コマンドcdでカレントディレクトリ出して/root配下に置いたりすれば
なんか前にパス読み取ってくれないディレクトリがあったからroot配下に移したりした気がする
0740名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 12:54:21.16ID:VzlpMv4n
colabはマウントしないとGoogleドライブへの接続は出来ないから、そこら辺でこけてるんじゃね?
0743名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:18:58.45ID:PNx4Kttj
>>741
グラボはAI目的ならとにかくVRAM(ビデオメモリ)が多いやつが色々出来ることも多い
一番コスパがいいのは3060でVRAMが12GBのやつ、もっと性能が必要なら3090ti
インテルのCPUは型番が12から始まる奴にしとけば問題ない
0744名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:19:29.78ID:6mPEuS9t
NMKDから1111に乗り換えるぞ!
ってやってみたら毎回環境整備までは上手くいくのに初回のbat起動で二時間くらい待たされてRead timed out……何がいけないんだろうこれは
0745名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:23:21.37ID:ri/VLUwR
>>742-743
ありがとう
ツクモは知ってた
けどもう一つのサイトも見てみる
3060で探してみます
12から始まるやつで30万以内でいけるかなぁ
アスロックはやめた方がいい?
(使ってるとアプリがアプデ対応してない感じなんだ)
0747名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:39:36.91ID:K0Eaqyq5
>>745
すまんアスロックはわからん 不安なら組み換え出来るから対応してるやつに変えればいいと思う

>>744
エラーメッセージコピペしたらわかるかもしれん
導入はどこ見ながらやった?
0748名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:43:39.89ID:PNx4Kttj
>>745
ASRockのマザボでアプリがトラブるとかは聞いたことないな
さっきの構成だとツクモだとこんぐらいか
あとはカスタムでOSを下げるかどうか
https://www.tsukumo.co.jp/bto/pc/game/aim/2022/GB5J-C221BRGB.html

あ、でもコレ買って何かトラブルあってもなんも責任とれんから、自分でもよく調べたほうがええよ
3060以上のグラボって熱もすげーし電気も食うから電源を増やしたりCPUクーラーを変えたり必要な場合もある
なので大抵の場合は20↑万になるかもな
0750名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 13:59:57.05ID:Jbq8L4mY
何を重視するかによる
学習重視なら2060もあり
本体にRAM積みまくってるとかならwsl経由でDeepspeed使ってvramをカバーする手法もあるけど
0752名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 14:03:24.71ID:9HFAhc2r
誰か言うかなと思ってたけど、例のwikiにベンチマークや検証まで一覧化した
それぞれの機種のNAI向け資料まとまってるよ
このスレはあそこ見てる人少ないんかね
0753名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 14:06:44.10ID:PNx4Kttj
>>749
3070を選ぶ意味はないな
AI計算はVRAMを大量に使うから本来はもっと上のクラスのグラボを使うんだけど
3060 12GB ってのはミドルクラスなのにVRAMが無駄に多いっていう変わり種グラボなのさ
だからAIお絵描き界隈では一番無難な選択肢になってる
0755名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 14:28:36.00ID:6mPEuS9t
>>747
GIGAZINEのやつ見ながらやった
ログとってなかったからコマンドプロンプトもっかい起動するぞ!
って待ってたらなんか普通に通って起動した!
何故!?
心意気はありがとう!
0757名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 14:49:38.53ID:PNx4Kttj
>>754
ゲーム用途なら価格に見合った差はあるようだけど、画像生成オンリーならどうなんだろね
さすがに3070のほうが速いんじゃないかな
しらんけど
0760名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 15:06:11.41ID:PNx4Kttj
>>758
その3秒差に追加で5万払うかどうかだな

あとは3Dゲームもやるかどうか次第で選択肢も変わるだろうけど、現状よくわからんなら3060、金あるなら3090っていう2択が鉄板なのよな
0761名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 15:50:24.58ID:ri/VLUwR
個別に返信できないけどありがとうございます
自分でも見てみます
ウィキにもあるの了解です
皆様によい子が生み出せますように!
0762名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 16:14:44.24ID:a3lPjzuu
wikiだと4090メッチャ推してるけど補助電源ケーブルの融解報告が
相次いでるから今は買わない方がいい
0764名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 16:23:39.33ID:ma7hC2PM
ケーブル曲げて接続すると接点が不均一になってソケット溶けるらしいが
4090がデカすぎてケーブル曲げずに挿すのが困難らしい。まぁそもそも電力食い過ぎなんよ…
0766名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 16:37:12.57ID:6M3zEJ9Z
ケーブル改善しても同じだろうな。仕様が悪すぎる
だいたい400W,12Vだと30Aだぞ。あんな小さいコネクタにそんな流すなよ
ブラケット部に100-200Vコネクター用意して高圧ぶちこめよ
0768名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:04:23.79ID:VzlpMv4n
北森だと変換コネクタが燃えてる原因なので、電源からダイレクトで伸びてるケーブルなら問題ないっぽい
0769名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:07:21.65ID:M0va9fwf
家庭用PCは排熱の問題で高性能化にも限界があるって言われ続けてるし
性能を良くしたら電気いっぱい使うし
そもそも大手がスパコンでやってたようなことだし
SDの公開で軽量化がかなり進んだんだけどそれでもね
0770名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:18:27.44ID:+vmbOvJm
12VHPWR対応の電源クソ高いし今後規格がどうなるかもわからんのがなあ
素直に8pinx4とかにしてくれんかね
1200W電源くらいので全て別系統から取れば問題ないだろ
0771名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:22:39.40ID:VzlpMv4n
ここまで肥大化かつ電気食うと、本当にバスカードだけPCに刺して本体は外付けボックスにしろと言いたいレベル
転送速度の問題とかで、外付けは難しいのかもしれんが冷却も限界だろ
0772名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:31:28.45ID:vdP1Y/In
構成に融通は利かんがデルアウトレットは結構安いの出るよ
s://jpstore.dell.com/dfo/config.asp?prod=dimension&nav=all
0773名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:39:26.31ID:vdP1Y/In
>>759
このベンチはbatch countでの順次生成なのでVRAM活かしきってない
実際ガチャる時とかはbatch size 16とかでブン回してるので快適さに結構差が出ると思う
0774名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 17:52:03.42ID:0TV1JbwK
RADEON RX 6600XTでも動くみたいだが
解像度増やすとVRAM不足エラーが出る
VRAM 8GBだから?

逆にRyzen 5 5600GだとRAMさえあれば
VRAMをもっと確保出来るらしく
処理時間はともかく、解像度を2倍に上げても落ちない
0775名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 18:47:23.16ID:9HFAhc2r
アスカテストのエラーパターン一覧ってどっかにあったっけ?
前に見掛けた記憶はあるけど探しても中々見つからん
0780名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 19:22:06.99ID:Y2TffzOH
・DBでキャラAを追加学習
・DBでキャラBを追加学習
automaticのCheckpoint Mergerで統合したckptで
キャラA、Bを単独で出力は期待通り。
ただ、AとBを同時に1枚の画像に出そうとするとうまくいかん。いい方法はありますか?
0781名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 19:42:07.61ID:OgY3Uiqp
>>780
マージしたckptを使って、改めてキャラAとBのTIを作成して、
プロンプトで「AとBがセックス中」とか書くのが最高
面倒だけど
0785名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 22:07:04.50ID:/IbCxMF/
そもそもgirl and boyすらまともに出力出来ないしなあ
適当に雑コラ作ってi2i通す、とかの方が早そう
0788名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 23:19:33.11ID:OgY3Uiqp
Waifuで十分なんだよな。普通にcute smiling girls で描くだけでも満足できる
俺の胸の奥にあった邪気みたいなものが抜けていくような感じある

人によって求める味付けが少々違うんだろうけどね
だから他人の「これ!」っていう画像を見ても、フーンてなる現象がある
NovelAIスレのどエロ系などは俺的にはちょっとダメ
0793名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 00:39:46.22ID:ps+11QJy
sd1.5を1111で読み込もうとすると、ウェイトを読み込んだ後で
^c
って出てそこで処理が終わっちゃう
何間違えてるかわかりますか?
0794名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 00:44:09.70ID:ps+11QJy
軽量版の存在に気づいてそっちにしたらなおった
RAM不足だったようだ
WDはprunedが軽量版だったから...
0796名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 02:05:43.99ID:70FcmM8A
>>792
ヤミ構文ってなんや、と思ってそのツイート先から色々調べてみた結果、
絵文字のよくわからんプロンプトでニコニコ軍団が大量召喚された
まじか、こんな絵文字でもプロンプトとして成立するんやなぁ…感謝感謝
0798名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 03:22:29.97ID:zeSMuW0P
お願いしますバカでアホでうじむしで脳無しな僕にText2LIVEでAVアニメを作る方法を教えてください
0803名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 11:01:06.12ID:ZP/o3zyn
>>774
将来的に深層学習がnVidiaの独擅場ではなくなればコンシューマー環境でオンボ最強になる可能性があるのは面白い
0804名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 11:52:25.94ID:SiPxsRui
DBでキャラを学習させて、Novelで構図作って、inpaintでキャラを反映させるのが
今できる最高の手段かな。
0805名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 12:30:15.41ID:u0XBzjqi
>>803
オンボ最強はとんでもないレベルの技術革新でも起こらないとありえない話
4090の巨大ヒートシンク、ケーブル融解事故を見ればわかるように、PCの性能向上は限界が近い