【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/ 各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう ワッチョイ派のお兄ちゃんお姉ちゃん達怖かった(´;ω;`) curatedの再現できないなぁ
海外では再現法見つかってるんやろか WaifuDiffusion 1.4 現在の進捗
https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。
で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。 xformersは古いGPUでやると逆に遅くなるな。最近のGPU専用か batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな 調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな 1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし >>1乙
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの? 例のまとめ(一部修正)
Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce
Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce
Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=
↓
set COMMANDLINE_ARGS=--xformers
比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg
比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2 Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1
promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。
1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。 素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね? いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし それなら今回の件と関係ないgptとかお漏らししないと思うけど Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?
つかオープンソースでBANなんて出来るの? >>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ >>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ >>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係
という感じのはず >>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ >>22
>>23
https://nmkd.itch.io/t2i-gui
こっからSD-GUI-1.5.0をダウンロードして
エロ回避しようとみましたが
https://gigazine.net/news/20220903-stable-diffusion-safety-filter/
・ステップ2の
「txt2img.py」をエディタで開き、以下の行を探す(通常は309行目)
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim)
が見当たらない… txt2img.pyがスクリプトフォルダにないからダウンロードしてるverが違うんでしょうか >>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?
あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい >>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる
つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな >>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます >>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも
nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね >>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版? >>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ >>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる >>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる
ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/ >>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok? >>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし >>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな
コンパイルとか言われてもぷよぷよしか思い浮かばん xformers導入
手順通りやるだけだから何も難しいことはないけどね NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる? >>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが
それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう >>45
dreambooth事態
ローカルで動かす為にはどれ使えばいいのか分からないな >>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね dreamboothのnum_class_imageって何しとるん?モデルの中からクラスのサンプルか何か取ってるのん xformersの最も簡単な導入方法はRTX30x0を買うことだ >>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない >>34
見てやこれとの差
ふざけんな
壊されました楽しく遊べない >>54
そもそもパラメータめちゃくちゃだしプロンプトもうちょい書けよ >>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ >>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ >>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい ここまで調べる気がない奴はNAIだけやってればいいじゃん なんかキレ方や日本語のおかしさ的に、大陸っぽい感じがするなw >>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの?? むしろNAIより1111のhi の方が使いやすくね? >>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない 良くあるのがclipモデルの設定を2にし忘れるやつだな。 こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな ぜひそうしてください
向こうもついつい答えちゃってるからね NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。 >>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある
あと、どうやらpromptを勉強した方が良いから、とりあえず
https://lexica.art/ とか眺めて、真似しまくるんだ StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか... automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが >>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな
俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png >>77
と言うかそれ1111じゃ無くない?画面違うぞ >>77
おそろしく古いの使ってないか?
とりあえず最新版入れるとこからやり直せ AUTOMATIC1111版をフォークしたやつじゃねえかなそれ? >>77
stable-diffusion-weuiフォルダで↓の呪文を実行だ。gitから入れてるよね?
git pull origin master >>83
モデル切り替えると自動で読みに行ってくれるから
楽になったね >>85
面白いな、兄弟姉妹作りたい放題じゃん!ほんと無限に遊べるな…… 昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて >>89
確かにhlkyだね
初期の頃しか使わなかったから完全に忘れてた 強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい >>75
グラボが結構ローエンドか
生成サイズが大きすぎるか みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな 1111でおかしくなるのはだいたい
ui-config.jsonとconfig.jsonが古いまま
上書きされないからね 1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw 1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった… ここで聞くことじゃないのかもしれないですが
git pullしてもwebuiが更新されません
git入れる時点でなにかミスしてるんでしょうか
https://i.imgur.com/djE8kMJ.png そこに出力されてる文を実行してもう一度pullしてできない? NovelAIもそのうちオープンソースになる…ってコト!? >>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった 諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか >>108
出来ました
初心者丸出しな質問すいませんでした つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな? WD1.4はNAIの手法を確実にパクってくるんだろうな >>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.
なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか? NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで >>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的 >>122
さすがにその話はこっちでやってくれ
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/ お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。 表面上は有難がるけど、結局バカ正直な初心者しか使わん奴 >>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど 開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。 NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん? >>94
グラボは3090だから生成サイズが大きすぎるのかな
ありがとう AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに どっちのスレでも一人でひたすらブツブツやってるこのキチガイは誰が連れてきたんだよ >>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか? >>74
素人がcolabでTIさせただけでもこのレベルだから
多分余裕で商用レベルに行ける
https://i.imgur.com/RqrhRR7.png Torrentが99.9%で止まったけどこのまま使っておけ? >>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう >>141
待てなかった
novelaiぽい絵は出たのでヨシ! DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ >>144
今朝更新した時は ボタン増えてなかったなぁ ギフハブのEmuのページ更新されてcuratedが部分的にローカル再現成功ってなってるな >>145
コマンドスイッチ追加してからじゃ無いと出てこないよ 日進月歩っぷりが違う世界を早送りで見てる感じになってる 昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど 1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利 Deepdanbooru↔img2imgで似たような絵を量産できるんだな
これは捗る そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。 マイニング対策のLHRって画像生成には影響ないんだよな? >>147
あぁ
START_webui.batの方に追加したらいけたわ >>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが…… >>155
あー、スタンドアローンのやつかw
ひっかかるやつ多そう NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。 AI周りの動きって全部金儲けのためにやってる事やで 昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな ここはNMKD民は少ないのだろうか
楽だなぁ思って導入してみたが SDやデフォルメにmasterpiece入れないほうが良いな >>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ >>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。
ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな…… >>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ
更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても
>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな 3060がおすすめされる世の中になるとか3ヶ月前には思いもしなかった 3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。 数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな 早いとこAMDもROCmを発展させてくれないもんかね
MacどころかWindowsですら使えないんだが もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない 3070tiからは
DDR6Xだから 生半可なクーラーじゃ死ぬぞ >>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました 腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし
課金とかしたくねえ 自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ CUDAはnvidiaさんの専売特許だから……
radeonさん頑張れ。 というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)
fuck!!!!!!! NMKDでなにが不満なのだろうか
最近ネガティブプロンプトも実行できるようになったぞ 流石に絶許狙いだろ
情弱がわざわざこんなこと言わない 久しぶりにcolab使ってみたら一瞬で規制されたわ
以前より厳しくなったか? エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない
終わる
オンラインでできるので遊ぶしかないのか 勝手に期待して勘違いで失望されるIntel HD Graphicsがかわいそう もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた >>185
colabでノートブックにbase64として埋め込まれる画像は検閲されないと思う ANDが全然上手く動いてる気がしない……なんか追加のオプションとかあるんかいな >>189
そもそもgoogleアカウント持っていない
電話認証突破できんしな 金もねえgoogleアカウントもねえ
なんだねチミは NovelAIって無課金でもある程度動かせるのでは? >>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある 850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない? 中華のがあるはずだが利用しているツイートがあまりない、ほぼない そういえば中華制waifuも一瞬流行ったな
ckpt配らないから一瞬で消えたけど 困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ
無料でエロを。
無料でエロをしたい CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え なんで無視できないの?
まぁ俺も荒らしを無視できない奴を無視できてないんだけど >>206
年金まであと3日
我慢できないンゴねえ
>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能 このアプリ使う上で3060tiってコスパ何点ですか >>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え 4080が出るから、それの乗ったPCを買うんだ。4090でも良いが、これ載ったのBTOで出るかな? せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ >>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ >>209
40点
4080もコスパ悪いだろ
4090なら一気にできること増える >>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。 出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが >>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い 10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない
ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな? 1111更新したらwd-v1-2-full-emaが読めなくなってるけど何でだ… >>219
あれ?hakureiのはもう1.3に更新されてるよね?
それともjcplusってやつか 4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない
そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに >>211
今のところはVRAMが最優先事項だから3090にしろ
電気代は知らん >>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ? DBは元モデル内包のckptファイルになる
TIは学習方法である程度汎用性ある(ない場合もある) グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090 VRAM大量に使うのって学習する時だけじゃないの?やらん人には要らんでしょ fine tuningぐらいならcolabかその辺でよかろう >>223
これって1.3のモデルじゃないのん
ファイルにもWD1.3て書いてるし エロ絵が作りたいだけの男に4080だ4090だと薦める鬼畜スレ >>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ 3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目 >>222
AIに学習させるプロンプターを募集してる企業ならあるけどな あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま >>228
VRAMは結果的に生成の速度に大きく関係してる >>239
3Dモデルやるなら、BlenderのテクスチャをAIで生成できるプラグインとかあるから調べてみるといいぞ >>237
うちはクリーンインスコしないとそれではダメだった 誰がそんな話信じるんだよ
25ドル払った奴らにどう説明すんねん emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね? そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。 一旦流出するともうどうしようもないから、ばら撒くことにしたのかな
>>247
ありがとう。あいつらライセンス違反やってたのか。 25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな? ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ >>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。 実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし deep段ボールって
Interrogate CLIPってボタン? いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな >>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答
なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。
アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな >>236
うちではvenv消して作り直させたら動いた。
細かいバージョンが狂ってるのかも。 しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう 何で神seedだと多少違うプロンプトでもいい絵になるのか不思議だ なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる 画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」
あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる? >>267
またオカルトか。ソースりゃわかるでしょ。
torch.randn()で生成するただの乱数だよ。プロンプト関係ない 偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる GIMPでそのシードのノイズ作ってみてください
そしたら何かが見えてくるはずです 前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、 >>273
ステップ数多いとデメリットあったりする? 画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある >>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。 >>277
以前そう思って試したんだけどただフィルタ処理されたものを返しただけだった xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ >>276
>>278
>>279
ありがと。あげすぎてもあんま意味ないのね。 50~60あたりでいい感じのところを調節して探してみる img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ >>275
NAIモデルは()認識してない気がするけど >>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話 いやWD1.3の仕様みたく認識されない気がするって話なんだけどなぁ 1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ? よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便 >>288
↓ここ
Output directory for images from extras tab >>291
なるほど、エクストラへ一枚ずつ送ればいいのか
ありがとう 正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど SD1.5も楽しみだし音楽AIも動画AIも待ってるし、世の中楽しみだらけやで 音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い 音楽の話はスレチだから俺はしないけど
どこで話せばいい? 確かにスレチだったかすまん
やるならAI総合だろうけどまともに話にならなそう 1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや
もしかして1111版だとnswf表現できない? AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ >>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、 エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。 特定のステップまで無効にするやつ効いてない?ローカルNAI >>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし >>301
その辺でトークン75制限を超えたときの挙動が変わったはず。毎回変わるってのはちょっとわからんけど >>303
入れてるんやがまんこ出んなー
だしたいなーまんこ
>>304
なにそれ詳しく >>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない
まあ9日の版で出せばいいんだけど TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが 意思持ち始めたAIを野に放ってくれ
そいつに界隈蹂躙させよう --xformers も --deepdanbooru もうまく動かないや。
linuxにぶち込むの、なかなかしんどいなぁ >>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず >>4
更新されてた
https://rentry.org/sdg_FAQ
> If you are running an Pascal, Turing and Ampere (1000, 2000, 3000 series) card
> Add --xformers to COMMANDLINE_ARGS in webui-user.bat and that's all you have to do. stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう >>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される >>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。 >>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい webuiにhypernetworkのトレーニング機能来てるね 背景綺麗な絵がほしいから顔の破綻は多少は許す
でも足は2本にしてください… 画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが 1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった TwitterでAI関連の発言するの躊躇うようになってしまって苦しい
風当たり強すぎる じきに皆慣れて反感も忘れ去られる
ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ 16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな 70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う 保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない… VRAMで24GBで 動かせるらしい
https://github.com/gammagec/Dreambooth-SD-optimized
を試してるところだけど
一回目の
last.ckptを吐き出し終わったかどうか分からないよく分からない状態で
out of memoryでエラー終了する web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない いよいよQuadro 48GBが必要になってきたのか fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ 4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな 数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる 3090-24GBをnvlinkで繋げればいいじゃん pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ
これでどれぐらい安定していくのかちょっと見てみたい dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく… dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう >>345
それまさに強化学習の有名な手法のやつだな NovelAIの社員はともかく1111の人とかWDの人は本業大丈夫なんだろうかw >>350
加えて「これはダメ」のネガティブ学習もさせてみたいね >>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる >>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな
Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル >>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで >>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない
AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし >>351
1111の人ってロシア人らしいし動員で開発中止とかはあるかもな >>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから
あるいはmaster #2129まで巻き戻したものを別個入れればいい >>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。 >>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども >>362
改造ドライバとか出てこないかな
昔はGeforceのQuadro化とかあったよね 実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。 NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが one先生の絵をNAIとかWDに食わせてみたいと思う俺ガイル >>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…? >>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や
それにしてもwdもバージョンありすぎてようわからんな。 >>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い 何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ 俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった
バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)
普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか? NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい >>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ ノートのCPU長時間ブン回すのは破壊前提でもない限りお勧めしない RTX2060+xformersですら512x512(20step)は3秒
これ以上のグラボの人は一枚生成に1~2秒? >>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし IntelがRTX 3060 Ti相当の性能を持つグラボ「Arc A770」を10月12日から329ドルで発売へ
http://gigazine.net/news/20220928-intel-arc-a770/
ZLUDA使えるなら選択肢に入る? いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね Trainのやり方やパラメーター解説してるところあったら教えて Zludaって開発まだやってるのかな
なんかこのみた感じだと止まってるっぽいけど…
https://github.com/vosen/ZLUDA titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな もういっそのこと金あるならA40あたりでいいのでは... text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想 意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな? from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね? テキストから3Dモーションを生成するMotion Diffusionてやつならあるよ >>398
model変えてマトリックス作るのはできない……かな? WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は >>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw >>402
あ、ほんとだ。checkpoint nameとか入ってるわ。 colab3日経っても規制が続く
厳しくなってるなあ automatic 1111のアップデートってどうすればできますか? 追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい
textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様… 線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね… AI絵で学習させても手がどんどん溶けるだけじゃないかな novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね イラストは将棋と違って明確なルールや勝敗が決まってないから自己学習させたら行き着く先はシュメール人だろうな
https://i.imgur.com/PU9ye4s.jpg 人間にフィードバックさせればいい
すでに投下されてるAIイラストは人の手で厳選されたもの 俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい Hypernetworkのtrain10GBくらいvramくってんな
それだけ効果期待していいのか? >>391
最後のコミットでコメントにこう書かれてる
Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me
そして勿論引き継ぐ人なんか居ない >>394
URL貼れねえけど
mdm-a-new-text-to-motion-generative-model
てのが発表されてる Intel自らがCUDAとの互換取れるように作り込めばいいんだけど >>413
bookmarkletでonBeforeunloadを上書きしてalert出すやつ作ればいいだろ >>428
なぜAMDがCUDAを採用しないか考えたこと無いの 使用率見てると生成速度はCUDAの性能が全てっぽい? hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。 サブPCのCPUうんこだけど3060あたり載っけてそこそこ動くんかな せっかくやからコ↑コ←にもマルチポストしとくで。
だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ >>435
3060が乗るマザボって時点で最低限のスペックは満たしてそうだし大丈夫なんじゃないかな >>434
助かり申した、感謝。
---
・webui-user.bat
set COMMANDLINE_ARGS=--listen
--- >>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ >>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな… artroomってPC再起動すると動かなくなっちゃうのなんでやねん。毎回インストールすんのかよ diffuserのモデルに入ってるunetとかtextencoderとかvaeとかってなんなん?
unetが本体で他はサブ? >>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな >>422
んなもんそれこそ批評側AIのパラメータ作り込めばいいだけじゃん DreamboothのTtl版の導入に初っぱなからつまずいた
WSL2必須かこれ
以前Hyper-V入れたら何やっても環境戻らなくなってトラウマになってるんだが むしろWSL2よりWindowsに生で入れる方が怖くない? >>444
あーなるほどサンクス
>>6の意味がちょっと分かったわ NOVELAIのオパール入ったけど1万使い切りそうなのでAnalを追加したいけど
どうしてもエラーになる
完全に使い切らないと追加できないのかな?
無理なら2垢を検討してる NAI使って最上位プランにしてるけど無料枠で回してるしエラーは知らん 仮想通貨を掘る運命から解放されたと思いきやエロ絵製造機にされるGPUさん… Graphics Processing Unitだからあながち間違いではない 4090、買うのはイイがその箱と電源で大丈夫か? というデカさなんだがw 箱なんて飾りなんですよ
開けときゃいいんですよ知らんけど >>454
通常のシリーズでは24GB以上積む気ないだろうな それ以上は普通にAシリーズ買えってことだろう
A6000が60万ぐらいだから、90ti2台よりかは安かろうって感じで A6000使ってるけどメモリ多くてバッチサイズ大きくできるのめっちゃいい
てかいま60万なのか安いな A6000て48GBかぁすごい
何枚くらい出力できるもんなの? >>463
さすがにネタでしょ?w
なんか証拠スクショ貼ってよ 情報系の研究室なら科研費で買って家で使ってるとかなくもなさそう クラウドサーバーならA6000のインスタンスを1時間3ドルくらいで借りれるから
短時間で大量に生成したいなら使えそう このスレでいつもグラボの話されてるのに過去一度もA6000持ってるなんて書き込みないのに
いきなり>>462に反応して「使ってるけど」ってあるかね?
ニュース速+とかでいきなり被害者の知り合いだけど~って現れる奴みたい 今まで生成画面にないことに違和感を感じていた設定を上に持ってきたけど
左下のデッドスペースが気になる
https://i.imgur.com/mHm6DtI.png >>469
昭和か?
クラウドなら分単位でつかえるぞ。 A100 80GBモデルをNVLINKしてVRAM160GB手に入れてーなー
AI画像生成始めてからVRAMジャンキーになってしまった まてよまてよ
WSLを2つ使ってSDとWebUI2つ起動して、それぞれを別々のGPU(2枚刺し)に割り当てたら
2並列で生成できるんじゃなかろうか そらできるでしょ
巷のGPUクラウドって超多コアのCPUと大量のRAM積んだベースに
挿せるだけのGPU挿してその数分のインスタンスを提供してるんだし
ローカルだったらPyTorchの実行先指定をちょいといじれば仮想化無しでそれぞれ別のGPUに流せるけど というか2GPU手に入れたら片方のグラボで超重量級ゲームやって、もう片方のグラボでDreamboothとかやりたいな
3090Ti持ってるからもう一つ3090Ti買って、普段はゲームとAIの分割運用で、一部の対応ゲームとかベンチマークするときだけNVLINKにしてドヤるとかやってみたい
普通に欲しくなってきた、真面目に検討しようかな
当分VRAMは24GBから増えないだろうし、4090はNVLINKに対応してないし、せっかくだしNVLINKができる30シリーズの特性を活かしたいよね つか、3090Tiを2つ動かせる電源ってどうなってんの……2000Wくらい? 200Vが必要だからエアコンや乾燥機のコンセントを拝借するか新設だな
最強は電気自動車用コンセントだが
最大出力を何時間流しても平気
出力も3kwから10kwまであるし Novel AI Leak 設定してもなぜかアスカが生足にならないし、nsfwいれても描画されない。
何か設定間違えている…? 2つフルパワーで動かしたら水冷でもないと熱で死にそう 電源やケーブルにマイニング並みの知識と管理が必要になるな
24hフルで動かす訳じゃないにしろ一時的な負荷はむしろ大きいし 箱に入れずにオープンフレームで直接扇風機当てればいいべ みんなアップスケーラーてどれ使ってるのん?
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描き込みを増やしたい場合てどれがいいのん? 部屋が冬でも冷房、夏はサマーウォーズの「うわ〜っ、暑い!」になるのでは
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理してるのかな 聡太名人レベルになると家にデータセンターありそう
あとそろそろスレチ気味になってきたにゃー 90Tiなんか発熱で溶けたみたいなこと言われてるから、もう普通に水冷つけとけって思うな
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ 4090は物理的に スロット埋まるから
SLI出来ないとか
長さも 3.5スロット占有や
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる 物理的なスロット干渉はマイニング延長ケーブルみたいのでどうにかなるんでね 最近のグラボの爆熱上等で無理やり性能上げてく感じはPentiumEEを彷彿とさせる あとは 200Vコンセントが必要になるだろうってところか >>477
>>478
コンセントを200Vにはしたくないし、Signature1300ていう電源はデュアル電源に標準対応してて実質2600Wだからそれを検討してる
ただケース買い替えだし、グラボ代マザボ代その他諸々にCPUも13世代にしたいしで流石に当分は妄想にとどめておくよ SDの新しいバージョンが正式にリリースされたらそっちのこと話すんでないかな
生成そのものの呪文とかはなんJやさんJが盛んだし
生成技術のスレだからそれでも良いと思うが ハイパーネットワークで学習させてるヤツおる? あれってリークじゃない普通のckptでも動くんだよな? グラフィックボードの妄想だけつらつらと書かれてもね
世間はColabで使えるTPUで8枚8秒の話題になってるよ
>>496
例を見たいだけならtwitterでhypernetworkで検索すればいくつか出てくる
エロスレで試してる奴も居る
それによればNAIのckptじゃなくても普通に動かしてる人ばかり
けど誰もこうすりゃうまくいく的な話はしてないな https://iwiftp.yerf.org
ここのNAIらしきデータって非torrentかな
でも非公式なのってウイルス怖いよね…
もう試した勇者様ってどれくらいいますか? 5日みてなかったらもうついていけなくなった
TIはby Embeddingで使うけど、hyperは全体に勝手にかかるでOK? 悪い妄想癖が出てしまって申し訳ない
自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定した上で、TIで特定のオブジェクトを覚えさせることも出来るんかな xformersが対応遅くて現時点では3090ti>4090っぽいね TIは学習内容に応じて特定プロンプトでptファイルを参照、対象モデル内のベクトルを引っ張る感じ
顔とかモノとかピンポイントで学習させた絵が生成されやすくなる。なのでファイルサイズも小さい
hypernetworkは追加学習でhypernetwork用の追加モデルとしてptファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風や作風そのものを全体に転送する感じ
と理解した TI やべえ
DB すげえ
HN ほげえ
なんかこんなニュアンス DreamBoothって使ってる人いる?
適当に弄ってみたけどなんかLinuxでしか動かない?のかな
てゆうかcolabなんて初めて触ったよw 使い方わかった来たけど トークンいれても403エラーで蹴られる
もーやだ dbでprompt追加して学習したやつにtiを上乗せして顔を覚えさせようとしてるけど
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとしては使いづらい
あと体型ネガティブとか beautiful cuteあたりでもめちゃくちゃ顔変わってきちゃうからdfとしてだと生成後に顔周りだけimg2imgで変えたほうがいいかもしれん >>508
DBで画風学習させた後、別のプロンプト指定して再度DBでキャラを覚えさせて成功してる人Twitterで見たから、DB→TIよりDB→DBの方が良いかも >>506
オリジナル版とCPU版はPythonで動かしてた気がする ローカル環境だと
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライブの空き容量は100GB位は必要みたい StableDiffusionで真っ黒な画像しか出てこないんだけど助けて
卑猥な言葉は使ってないからフィルターとかではないと思うんだが >>512
メモリ不足の可能性がある
出力画像の解像度を下げて出力できるか試してみるといい DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い >>513
1660ti
>>514
なるほど!DDR4で16Gしかないからかもしれん
試してみる
ありがとう まあ、あとは念のためにpromptにNSFWをどっかに突っ込んでおくかな。あくまでもオマケ的に >>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention
NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ 横からごめん
--opt-split-attentionって知らなかったんだけどどんな効果のオプションなの? あんまり更新おってないからしらなかった
あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
https://i.imgur.com/z2XJYaV.png hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな アンダーフィッティング気味のpt使うと薄く効く気がする >>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし >>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな? インストールどころか場所ごと新しく作り直してゼロからやったら上手くいったことあるわ >>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある? 1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら? Generateボタン右クリしてGenerat Forever Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい? >>539
わからん
同じ枚数に対して50でも200でも違いがわからん 正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い
もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄 >>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww
バッチカウントってどこで変えれるの? NAIモデルで二次元キャラを三次元に変換するの楽しい 遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ…… >>549
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね >>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw 一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる >>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし 公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか? >>556
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ttps://note.com/uunin/n/n725ae4601264 >>557
おう!ありがとよ!(導入するとは言ってない) 2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか? fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ
でもトレにめちゃ時間かかるし課金するか悩むなぁ blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか? 最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと waifuじゃnovelAIみたいなエロ画像出すのは無理? >>565
普通にいける
>>563
ネガティブに 白黒っていれてみた? ごめんDBstablediffusion のが爆速だった >>565
マジかぁ
精進するわ
pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ >>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと 1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人 >>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size
サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども >>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね
具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた
WSL2のDockerに入れたから細かいところが違うのかなぁ >>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる
詳しい人の降臨待ちっすね 少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10 deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる? >>579
俺はvenv消して実行し直したら治った >>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。 >>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも 履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。
結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな
なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな >>584
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん 一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね 1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる…… >>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。 よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。 顔が全部カメラ目線
やはりカメラ目線は重要ということか アニメーションの自動生成はそんなに遠くないんだろうなって感じる restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった
よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない >>595
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
https://youtu.be/YF3MtNuX_F0 >>596
ほーん
配置が修正されるのかと思ったら
解像度が上って美肌される感じか 1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。
GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。 >>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね >>598
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから >>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。
settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337
*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590
Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name >>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。
…ネカフェのPCで…だめか。 ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる? ああ、ごめんステップ見間違えてた。150stepなら19秒だわ >>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ 今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや >>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。
>>603
なんやそれ
>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ >>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って 使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや…… ネカフェに金払うくらいならcolabに課金して家でやった方がコスパいいのでは >>612
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが >>608
8枚70秒くらいかかるわ
ちなrtx4090 >>609
くっそ早いww
もうこんなグラボでチンタラやってるの悲しくなってきた
グラボ買うぞ🥺 ついに4090持ちが現れたかw
4090の方が遅いの?スクショとかupできる?>>618 なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!
と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか >>615
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ
素直にGPUかえ >>620
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる? そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる
>>625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ… >>626
自分がちょうど >>539 で同じ質問してて、 >>541 が詳しく解説してくれたから参考になると思うよ >>628
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな 8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい 情報が少し古いのがあるけどこんなにGIGAZINEが役に立ったのは初めてかもしれない >>632
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった 手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です 線画に軽く色をつけて投げて、ちゃんとpromptも書き込む >>629
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う
ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い そういえばRTX3000が発売さたときもBLENDERとかで遅くて、後に最適化で早くなってたなぁ >>623
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.
こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。 step150も上げなくてよくね?
50とそんなに変わるのか せやね
なんならアニメ調の絵は30くらいでも十分かも 正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある @アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力
@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。 >>627
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流 アニメキャラを覚えさせる場合
reg template smallest
"phot of a {}"→"{}"
に変更して
覚えさせたいキャラの特徴で吐き出させた方がいいのかね >>647
環境も同じっぽいしやっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし >>631
がんばって
自分も詰んでる組だから
もし出来たらまた報告に来て欲しい >>640
ちゃんと読み込めてるな
他の設定も合ってるみたいだし、CPUとGPUの差が濃厚っぽいな >>632
まだ読んでないけどgigazineがkindleに無料の解説本だしてた ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね 確かにHires.fix変わってScale Latentなくなってるな。これなしだと見栄えが違うから復活希望の意見ばかりだし、待ってれば戻ってきそう。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2613 scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか 一方勝間和代は外付けGPUボックスを買った
ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419
別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた
Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147 >>636
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう >>660
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる
記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ
注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい 勝間和代NMKD使ってるのか
画像まであげるとは攻めてるなー >>655
ごめんKindleUnlimitedで0に見えてただけだった ワイのグラボGTX760で2GBしかないんやけどWebUI(AUTO1111版)いけるか? いけますよ、CPUを使いましょう
1枚5分くらいで生成してくれることでしょう 5分かかるCPUなら760でもGPU使った方がマシなんじゃないか 1111の最低要件ってVRAM4GBじゃなかったっけ AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる? NAIモデルでdreambooth走らせたいんだがgoogle cloabじゃ無理? 今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ >>671
4chanに750Tiで動かしてる人おったから多分2Gでも動く >>654
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。 せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定 どっかの説明にも2Gでいける書いてあった気がするので探したがコレだわ
https://rentry.org/voldy
If you have 4GB VRAM and want to make 512x512 (or maybe larger) images,
use --medvram.
If you have 2GB VRAM,
use --lowvram ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。 colab1111の出力枚数上限の増やし方がわからない・・・ >>682
ローカルでいうui-configのcount/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・ hypernetworkどれくらい学習すればこんくらい効果あるみたいな情報ないか? >>683
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)
ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"
!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py >>579 >>580
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ
are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...) はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ
適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分 これを踏まえると、将来cuda以外で実行したら全部結果変わるっていう感じになりそうだな dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか
それか、step数踏めば銃やミリタリー系の色消えるもの? JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある? >>692
スペック記載してる店は少ないからバクチやけど、せめてハイスペゲーミングPCの席選ぶんやで >>694
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか 適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?
結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか novelAIに勝てねえ
やっぱ有料サービスは強いな 流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように >>702
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い NovelAI最近糞重くて サービスちょこちょこ止まってるけど radeonはrocmでcuda使えるって話もあるな
ただしmacテメーはダメだ dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら colabでdreamboothしばらく使ったらもう何日も使わせてもらえない dreamboothとTIとhypernetworkの使い分けがよく分からない >>704
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし >>698
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし! >>712
使い分けるまでも無くHNが完全上位互換じゃないの? Train Hypernetworkをさっき初めて開始した
100000stepsまで15時間 NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい 1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる? dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた >>712
>>712
TI(画風の学習)→プロンプトに味付け
教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
×学習時のモデルで使わないとダメ
(そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)
dreambooth(特定の意味を加える→キャラとか覚えさせる)
教えた画像群の意味を覚えさせてモデルに加える
→sksとか教えた意味が呪文で使える
hypernetwork(画風の学習→生成後半に味付け)
モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)
TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う
TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)
HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた >>718
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる
一長一短だなぁ あと、TIよりHNの方が学習時間が短い。
そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない) はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう HNを複数作っておけば好きに画風を切り替えられるってことでいい? >>722
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
) どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような こうしてみるとHNはckptというよりもdiffuserの拡張的なイメージなんだな >>725
画風を複数作っておくのはHNでもTIでも切り替え可能。
HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ >>713
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで >>713
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。 waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます >>713
>>733
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺 6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。 >>713
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる 1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと?? 5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB 初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか まあすでにRadeon持ってるならともかく、今からAI画像生成目的で買うならGeforce一択だと思う nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう 少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて >>744>>743
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か??? https://i.imgur.com/KwZZRBA.png
「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?
カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが あーなんかgithubの導入はいけそうな記事あるな >>753
colabはlinuxだぞ。windowsのバイナリが動く訳ない
gitは何もせんでもコマンド使える >>755
ありがとう、やっぱそういう根本的なとこだったか
そんでLinuxサポートしてないのな、代替GUI探してみるわサンクス
https://qiita.com/solmin719/items/f174aab0fc73ddbc9cdf colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ 仕様をよく知らないけどcolabでコマンドを使う時は先頭に!を入れないと動かない
!wgetみたいに そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし >>758
記事のコピペでGitHubまで通ったけどなんで!あんのかわかんなかったがなるほど、サンキュー >>734
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ
「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能 hypernetworkを試してみているんですが、500ステップごとの画像出力がこんなにバラバラなのはうまくいっていない…ってコト!?
https://i.imgur.com/YTrrFiM.png >>763
シードがランダムになってるからじゃね? >>764
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった
cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。
ところで、1111でsettingsのリセットってどうやるんですかね。 settingのJSON削除したら再起動時にデフォのsettingのJSONが生成されるぞなもしばってん 全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒 4090で速度上がったって人もいるね
遅いのはxformersなのかな? よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな 構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか >>606が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。
radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。 クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの?? 教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね >>777
待ってたら回復するよ
100コンピューティングユニットだと無料枠と同じGPU(Tesla T4)で50時間くらい使える >>778
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる Waifu-Diffusers1.4来たらdreamboothに革命来る? >>778
250枚ともなるとステップ数も凄いな
時間どんくらいかかるんそれ >>781
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う
>>784
3090Tiで約12時間かかった 絵柄の学習は完全にクリーンだから
出していいでしょ
見せてくれませんか >>786
>>787
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな
ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる ついに俺のGTX1080のフルパワーを発揮するときが来たと思ったけど
メモリが足りなくて泣いた hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか? >>785
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ 1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど 任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう AIくん手や足が苦手なのはhypernetworkやDream boothで追加学習させれば解決出来る? ローカルマンは起動時のlunch=trueになってなければ大丈夫 ウェブカメラ起動されて顔写真撮られまくって自分のエロ画像生成された挙げ句拡散されるぞ 中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。 さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる? AUTOMATIC1111Colab版だとshareってのが必要なのか ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう 新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。
原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。
順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?
うーん 多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな 変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ 俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…
この辺の正しい使い方あると嬉しいんだけどな
dreamboothってのがいるんかなあ 手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし 出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど
アクセサリーとかエロネタ系だったり colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m
35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。
Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571
(中略)
以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。 前からパスかけずに--share使うなって言われてんのに使ってる奴居るのか >>809
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。 ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。 >>>792
Ngrok経由なら大丈夫ということでしょうか? >>812
それはinpaintしかないんじゃないかな >>819
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?
新しくは書き込めなかったよね…? 書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる >>777
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ
でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない 機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ >>818
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう
このままだとMacはスタバでドヤるためだけのパソコンになるだろうな >>780
>>823
さんきゅー。とりあえずしばらく待ったら復活した。
無料だとトレーニングはなかなか難しいかもねー xformers有効でたまに真っ黒の出るんだけどおま環? >>828
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね >>824
機械学習は今も昔もpython一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい? >>831
(ローカルではない)publicなリンクを作るためには'share=True'にしろよ、って言ってるだけだ。 colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない launch.py見た感じ、今も--xformersオプション付けなければインストールされないのでは? xformersのビルドパラメーター変えたら動くようになった
そもそも入ってなかったのかも というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか >>813
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという 絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で >>840
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。 自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった >>843
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか そして書くスレ間違えた…
いやまあ大きく外れてはいないけど 帽子とか被らないようにしたい場合はどんな呪文を入れればいいのか教えてください Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな? xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど >>852
謎なんだけど、NMKDで剪定しちゃえば同じ生成してくれる2GBのモデルは作れる 追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる? >>853
prune済みfp16でも小さくなるって事?
どうやればいいの?NMKD使った事なくてよく分からん hypernetworkのトレーング方法ようやく要領が掴めてきた
Tiよりは大分いいな 学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?
https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する
ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね? >>855
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない
使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.
で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど >>858.859
ありがとう、どちらも試してみるわ Hypernetworkでdreamboothみたいに少ない枚数で学習したい
流石に5-6枚では無理か? ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで
bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"
を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518
あとは、run_webui_mac.shを実行するだけ
ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh
104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった
モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど 当たり前のようにVAEをかます手法になってきたなw hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる >>857
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど >>865
405MBしかないautoencoder_kl-f8-trinart_characters.ckptはどう使うものなのかな >>869
vaeだろう? waifuと同じ感じの
ファイル名も同系列だし HypernetworksはGithubにあったこれで大体うまくいってる
5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000 とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな >>870
models\Stable-diffusion に入れればいいんですか? ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが >>844
medvramのあるなしでメモリ使用量と速度がどう変わるかやね SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな
例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな 3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる アウロリ製造目的でもないならdreamboothはcolabでよくね ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか >>870
すまん、vaeについていけてない。どう使えばいいの? NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが colab環境でdreambooth回すならwaifu1.3を使うしかないのか >>888
autoencoder_kl-f8-trinart_characters.ckpt
を
trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな
NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ >>878
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな >>901
ごめん、このwgetのコマンドは間違い。
vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。
こんな感じになったら、VAEがロードされてるはず。
Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded. 私もHypernetworkが上手くいかないので教えてください。
キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?
・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい
1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
>100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
(「a woman, 1girl, solo, white background」でもだめ) >>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく
自分ならとりあえずこんな感じで試すかも 新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな? xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった >>908
わかりやすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな 偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ 手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ >>912
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ Stable Diffusion Prompt Generatorが使えなくなりました Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか? 上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで
config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ >>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、 そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る >>926
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り
Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.
英語と日本語できる人よろしくたのむ hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ >>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか
(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png
novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt 引数に以下必要かも
--original_config_file=model/config.yaml ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら? 無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念 >>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます
出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略". >>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね
全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う
全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail >>939
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな >>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました
--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]
- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)
return text_model たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない >>941
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ >>949
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり >>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。 >>954
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい 前スレの>>797
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど >>955
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。 >>956
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで sfwでエロが出ないって当たり前だろ
わざとやってる? >>959
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い >>961
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg >>960
>>963
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。 >>960 >>964
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>960
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの?? >>967
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます! 既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください よく調べずに質問してしまいました...
Hypernetworkという凄い機能が付いてるんですね... >>973
dreamboothのほうがええんちゃう
指示通りやっていけば終わるgoogleのcolabってサービスあるし hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー HN俺も上手くいかん
変に全身入れるより顔アップ多めの方がいいのかな? 学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど 自分も上手くいかないので脱落組だ
顔だけとか背景切り抜きまでやったが hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6
色々倍率は試したけど0.6倍が個人的には丁度良かった >>982
SettingsのHypernetwork strengthを0.6にするのじゃ駄目? 画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。
かっこいい... SDについて調べてもわからなかったので質問させてください
最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか? >>984
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配 >>983
しばらく更新してなかったから気づかんかったけど既に設定でいじれるようになってたわ
その設定でOK dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…
[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
↓
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings
○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。
1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]
これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。 >>988
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。 >>871
俺的hypernetworkの学習率の結論はこれだわ >>985
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る ドリブスのモデルデータダウンロード中に限界きてデータも消えた… 今知ったけどこの無限生成できる裏技便利すぎだろ
このスレでも知ってる人いたんだね >>536
webページへの出力も一枚ごとだからGradioに大量表示されて負荷がかかる心配もない
https://i.imgur.com/R6kCtsS.jpg Google Colab
OpenVINO
Docker
Anaconda
…etc
Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね? colab以外は少なくとも低スペが解決策として使う手段にはならない このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 16時間 42分 30秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。