【StableDiffusion】AI画像生成技術9【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術8【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1665387634/ >>1
乙乙~
スレタイMidjourney→NovelAIでいいかもって気がしてきた
MJの話もう誰一人してねぇ
次スレはここに入れちゃうか?
> (DALLE・Craiyon・Midjourneyの話題もOK) Hentai DiffusionのHD-16.ckptを外付けhddにダウンロードして、繋げたパソコンをwindows defenderでスキャンするとトロイの木馬が検出。
Win32/Sirefef!cfgというウイルスです
その後焦ってファイルを右クリックで削除してしまいました。
ckptファイル自体はhddから移したりもせず未使用で、当然automatic1111でも使用していません。
この場合パソコンや外付けhddの感染ってどうなっているのでしょう…
ダウンロードしてもファイルを実行してなければ感染からは免れているのでしょうか…? 感染してないとは思うが断言はできない
が、とりあえずもうやめとけ まあckptに公式の署名付けるような手段もないしどうしてもウイルスまみれになりがちだよな >>5です
ぁあ怖い
感染の場合って、確認方法とかないのでしょうか? これで低コストで信長の野望みたいな多様な人物グラの多いゲームを作れる こんな生半可な覚悟と知識の連中さえおびき寄せてしまうAI絵師の魅力恐るべし リーフ爆発したんだwww
うんこ漏らしながら走ってたらそりゃあな ラーメンの食べ方がおかしいのは麺をすするのはeatには含まれんからやね
eatは基本的に手で引っ掴んでかぶり付くイメージ
ラーメンならsipとかslurpやね ・一旦ネットを切る(WiFi off/LANケーブル抜く)
・重要なデータを外付けストレージにバックアップ
・複数のスキャンソフトでシステム全体のフルスキャン(DefenderやらESETやら)
・わらわら検出されたらもう手遅れなのでPCシステムリカバリ(再インストール) Hentai DiffusionはRD1412の時も検知されて話題になったな
まぁ多分誤検知だと思う。data.pklじゃなくてテンソル格納部分のファイルからだし
何よりこれとは関係ない何も検知されないモデル同士をマージした新規ファイルからも
同じウィルスが検知される事あるんだよね HyperNetwork含め追加学習系って512x512はVRAM8GB以上が必須?
最適化されてよわよわグラボでも動くようになってほしい.. >>17
そりゃ面白くないポリコレ団体や絵師は中身関係なくウィルス登録するわな settingタブにeta noise seed deltaが存在しないのですが原因分かるかたいますか? ダウンロードするだけで勝手に動きだすか
ダウンロードファイルをユーザーが実行しないと動き出さないか
ユーザーが実行しなくとも時間差で勝手に動き出すのか
Win32/Sirefef!cfgを調べても初歩的ことなのか情報が全然出てこない
ここら辺分れば少し安心できるのに…
>>17
data.pklじゃなくてテンソル格納部分のファイルからだし
それはどういう意味ですか? RDの頃から話題はあったけど、使ってる人はいっぱいいるし、
まじでヤられたって話になれば今頃そういう話題が出まくってるだろうに何もないから、
たぶん誤検知だろうとは思ってる。
とはいえスケベモデルは他にもあるから、心配しながらあえてhentaiを使う必要もないかもね モデル欲張りすぎるのも危険ですね…身にしみました… > windows defenderでスキャンするとトロイの木馬が検出。
> その後焦ってファイルを右クリックで削除してしまいました。
これdefenderが消したんだと思う
知り合いがemotet踏んだ時に「警告が出てファイルが勝手に消えた」って言ってたので githubとかのページで確認するとハッシュ値あるやろ
落としたやつがあってるか確認するしか無い hypernetworkの学習、学習画像と同じフォルダに(ファイル名).txtを作ってそこにキャプション付ければ、[filewords]でファイル名のかわりに読み取ってくれるという認識でおけ? そう
キャラを学習するときはそのキャラの特徴を消す必要あり >>5
waifuは入れたがHentai Diffusionというのもあるのか。
ちなみに、
「輪○されて、白濁まみれでアヘ顔ダブルピースで体には正の字が書き込まれて、周囲にはゴムが散乱しているアラフォー奥さん」
みたいな呪文は可能ですか? https://note.com/kallibebe666/n/n446d3ce8302d
既知かもしれんけど意外と目から鱗だったので共有
prompt末尾にカンマをつけることで構図画風を変えずにやり直しできる(たぶんWDでも効く)
こんなに変わるとは思わんかった >>33
世の中そんなに都合いいわけないのはわかるよね
指の本数だけ違うとか、些細な部分が変わる数百枚の中に都合がいい物があるだけ
増長性持たせて再描画してるわけだから、自分が変えたくない部分ももちろん変わる場合もある(そっちの方が多い) >>34
わかったわかった
そんなごまかさなくたっておまえさんがどんな性癖でもみんな笑ったりしないから安心しなよ 良い生成だけどスペルミスがあったので修正したらダメな絵になった、みたいなもんだろw >>33
それ別に,じゃなくてもいい
ノイズの変化ってことだよね?
単体で意味の通らない記号ならなんでも というかAUTOMATIC1111版にはvariation機能があるし
なんならimg2imgでも同じようなことは可能だろう Dreamboothで顔を学習させた場合の過学習の兆候がわかってきた
軽度…画風変更系のプロンプト(nendoroid, monochromeなど)が効きにくくなる
中度…全体的にプロンプトが効きにくくなる
重度…画像にノイズが走る、どんなプロンプト入れても同じような構図しか出してこない
体感としてはこんな感じ >>29
これの意味が全く分からない、特徴を消す?
ネットで検索してもはっきり書いてるサイトないし
どなたか教えてください Colab版DBの教師用画像て515*512で顔だけを5枚くらい、が最適?…
説明サイトによっては長方形とか形色々でサイズに関しても特に記述なく
枚数も数枚から100枚とか使ってる人いて、どれが最適なのかいまいちわからない…
とりあえずトリミングして全身から顔だけにして20枚弱にしたけども、
これが正しいのか正しくないのか全然わからない…
あとやっぱ白黒の線画だけの画像は判別しにくいのかなぁ ckptのModel hashをweb uiで開く前に確認する方法ってあります? >>41
hypernetwork学習のときは、余計な情報を学習せないようにファイル名にその画像の説明を書く(書いた情報は学習しない)
画風を学習する場合は、例えば赤い髪、とか青い目、とかは学習してほしくないからファイル名に書く
でもキャラを学習するときは、髪色目色含めて学習したいから、そういう情報をファイル名に書いてはいけない
説明を自動でつけてくれるツールはそういう情報を入れてくるので、手動で消さなきゃいけない
hypernetwork関連全部まとめた日本語サイト欲しいよね ヒラコー先生のツィートを見て興味持ったんだけど
ラフの清書とかできるのはどっちなん? >>45
ありがとう
「学習させないのに書く」ってのがよくわからなかった、逆では?って
ファイル名(=プロンプトでいいのかな?)にあるからすでに指定済み=学習の必要ないって判断されるってことか
なるほど 前スレ>>997
openVinoでCPUで生成してる記事は見たことある
自分のノートPCのCPU使ってStable diffusion UI(cmdr)で生成するのよりはだいぶ速いタイムで書かれてた
自分はOpenVino試したことはないから速いのかは知らん すまん、NovelAIをwebUIで動かせるようにしたんだが(アスカチェッククリア済み)
StableDiffusionの方も使いたくなり色々試したところ
DreamStudioで生成される画像とseedとかの条件を一致させてもなんか違う画像が出てくるんだ
なんか原因わかる人おる?他の設定は
(Model hash: 7460a6fa, Clip skip: 2, ENSD: 31337)
でやっとる SD公式ってもうモデルv1.5になってるんじゃなかったっけ? >>49
>>50
そう、公式はデフォ設定が1.5になってる
1.4にすれば同じの出るよ >>52
clip skipじゃね?
NAI設定で2にしてるようだし >>53
あざす!!!
完全に一致したやつ出せた!! 元素法典の呪文で(((((なんちゃら)))))みたいに括弧がいっぱいついてたりしますが
括弧って何の意味があるんですか? なんちゃら の効果を1割増しにするとか、そんな感じ。5重になってりゃ1.5倍。
NAIがどういう仕様かは知らんけど >>57
なるほど、括弧の数が多いほど括弧の中が強くなっていくんですね readme見るだけでもう凄いな
ローカルのVRAM足りんし暇なときにcolabで試してみるか SDのHyperNetworkを試したいがVRAMが3GBしかないのでちょっと相談させて欲しい
学習はどうやら8GB無いと駄目そうなんだが、colabとか使って学習済みptを
作りさえすれば、それを使った画像生成はVRAMが3GBのままmedvramで起動しても
使えるってことで良いんだろうか?
生成結果が全然違うものになって役に立たないとかある? 問題なく使えるじゃろ
あくまで学習に必要なVRAMが多いだけ >>62
そうか…ありがとう
VRAM豊富な知り合いに自作絵の学習してもらったptを使っても全然
画風が似ないからmedvramのせいかと思ったんだけど、
単にプロンプトが悪いだけかもしれんな そんなに出力変わるんだっけ?とオプションの有無切り替えてみたけど、
DBで学習済のモデルを使った出力をして差異が殆ど無いことが確認できた
知り合いとの環境差異による出力差はあるだろうけど、
画風が認識出来ないほどのものではないだろうから要因は別にあると思う >>59
まあ元素法典のクオリティアップ系のタグ重ねそんな機能してるとも思えんけどね
エフェクトしっかり指定するほうが大事 >>64
マジか、実際あまり使い方が分かってない感はあるんだけど。
やることってSettingsタブのStable diffusionのHypernetworkでptを選んで
strengthを調整するくらいだよね?
するとtxt2imgに適当にプロンプト入れて生成される画像が
そのptの画風になるくらいの認識だが。
strengthの下のチェックボックスもちょっといじってみるか… >>67
使い方有っとるぞ
applyしてないという落ちでもなければ、後は渡されたモデルが違うか学習出来てないかしかないと思うな 本家に貼られてるcolabをそのまま実行すると途中でsyntax errorになってたけどpython3.9にバージョンアップデートしたら起動できたわ Adobe、画像生成AIを開発へ 倫理や法律面で“透明性”高めたクリエイターのためのツール目指す [朝一から閉店までφ★]
https://asahi.5ch.net/test/read.cgi/newsplus/1666177481/ ColabでHN用のモデルを作成できますの??
自分も低RAMグラボなのでDBしか作れてないけれども >>71
ぜんぜんできるよ
1111が対応してくれてるので簡単 同じWaifuDiffusionの同じバージョンで出力してるはずなのに
Twitterで公開されてるpromptのALTをそのままコピペして設定も同じにしても似てる絵が出てくるどころか変な絵しか出てこない
これって俺がNMKDを使ってるからいけないの?それとも何かもうひとつ行程が必要なのか? >>73
NMKDのスクリーンショットを見せてくれたら、ここはこうするとか指摘できるかも 元素法典しゅごい...
どうせ何百回とやったうちの奇跡の一枚でしょって思って半信半疑でプロンプトコピペして生成したら次から次へと良作画が...
これは凄いと感動するレベルの絵は10枚に1枚くらいだけど、神絵師作画が10回に1回の確率で排出されるガチャ楽しすぎだろ DreamBoothで作ったckptモデルが6個あるのですが、
6個中4個が同じモデルハッシュ値でシード固定したら同じものが作られちゃいます…
fp16に限れば5個中4個が同じハッシュです…
それぞれ別の日に違う画像でcolabで作ったものなのに、なぜ同じ中身に……
これは一体どういう現象なのでしょうか?…
使ったノートは一番有名だと思われるShivamShrirao氏のものですが… 同一作画同一キャラだけど、髪/目の色・アクセサリー・ケモ耳の有無が頻繁に変わる場合、どう追加学習させるのが正解なんだろう
最終的には同じ絵柄で存在しない組み合わせを自動生成できるようにしたい
Dreamboothに全パターン突っ込んだら結構うまく行ったけど、アクセサリーが変になったりケモ耳が片方だけ生えてたりと細かいところがちょっと変な感じになる
各パターンをDreamboothで学習させてモデルマージすればいけるか…? 学習させた各パターンのモデルをマージできるのか
オリキャラ10人に別々のキーワード付けて組み合わせたり出来れば理想的だけど >>77
dreamboothで個別に覚えさせて融合を試みる方法(できるかは知らん)
hypernetworkで差分になる要素のワードを画像ファイルのプロンプトに入れて、そのワードが入ったときだけ再現する方法
この二つかな
hypernetworkは新規に何かを覚えるものじゃないのでプロンプトで再現できる範囲でしかなんとかならんけど
プロンプトに入っていない→無条件に再現させるものとして学習(プロンプトの主語とかに全部ぶら下がる)
プロンプトに入っている→そのワードが出たときだけ再現させるものとして学習
という風に振り分けができる
dreamboothでまとめて覚えさせた後にそのモデルに対してhypernetworkで描き分けを学習させるなんて手法もあるかもしれないが例は見たことがない マージはガチャ要素強すぎだろ
正攻法は ノーマルキャラをDB → 同じモデルに対してwithケモミミでDB → 同じモデルに対して・・・ クラスの概念が被ってるとアウトじゃないかそれ
或いは二度目のDBの時にプレースホルダ付きクラスを学習時のクラスとして扱うのか? >>77
kanewallmannフォークで個別要素を同時に学習できるらしいから試してみたら? さあ今日もHNの学習だと1111を更新したら、 Enter hypernetwork layer structureと
add layer normalization という項目が追加されてるのだけど、なんだこれ? 「CarperAI」って聞いたことのないやつのメールが捨てメアドに来た
MJかDALLEのどっちかが漏らしやがったな・・・ って検索したらStabilityAI絡みかよ、ややこしい、はっきり書けや
音楽AI? >>44
def model_hash(filename):
try:
with open(filename, "rb") as file:
import hashlib
m = hashlib.sha256()
file.seek(0x100000)
m.update(file.read(0x10000))
return m.hexdigest()[0:8]
except FileNotFoundError:
return 'NOFILE'
if __name__ == '__main__':
print(model_hash("model.ckpt")) スレの人たちは一枚出力するだけで消費電力が「非常に高い」になったりするのでしょうか?
記憶違いじゃなければautomatic1111更新してxformers実行してから一枚絵でも消費電力が非常に高いになってしまった気がします。
xformersをオフにしても初期のサイズで出力しても非常に高いのまま…
設定で消費電力抑えることは可能でしょうか?
消費電力調べずでRTX 3080 12GB入りpc買ったの後悔してます… 全力でGPU回してるんだから、そりゃ当然
どうしても抑えたいなら、GPUのアプリで制限かけてしまえばいい
生産速度はもちろん落ちるが >>73
NMKDからスタートしてweb-uiに移行した者だがNMKDは普通のプロンプトとネガティブプロンプト合わせて55ワードで納めろって仕様らしい
あとネガティブの指定は[]で囲む
一般に貼られてるプロンプトはweb-uiの仕様でプロンプトとネガティブプロンプト別計算で75トークン入れられて
[]で囲むんじゃなくて別の入力欄があって色々細かく長いプロンプト設定ができるのでweb-uiがおすすめ ありがとうございます
いろいろ試してみてうまく行ったら報告しようと思います 今はネガティブプロンプトで縛るのが主流だからNMKD辛いぞ >>87
afterburnerでpower limitかtemp limitあたりを下げたらいいけど、当然遅くなる
しかし電力を気にする環境の人がハイエンドグラボとか、なんのこっちゃって話ですよ 20~30%ほどPL下げてクロックは+100MHzに設定しろ
性能をキープしながら省電力化できると謎の満足感が得られる 深夜にdiffuser0.6.0がリリースされてカスタムパイプラインとonnxが整備されて使いやすくなってるよ。
RadeonユーザーdirectML使用は相変わらず修正が必要だけど。 >>83
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/3086
layer structure 1,2,1で今まで通りらしい
layer normalizationにチェックを入れると学習が安定すると書いてある このスレに助けられてばかりのこの頃…本当ありがとうございます
なるほど、アプリの設定で消費電力を抑えられるのですね…!
無知な質問ばかりなのですが、その設定によっては消費電力を3080〜3060くらいの電力に抑えることも可能なのでしょうか?
そうした場合の生成スピードが遅くなるのは分かるのですが、3060と同じくらいのスピードは出せたりするのでしょうか? >>0094
こちらの設定はafterburnerの設定ですか? 暖房器具を切って
その分グラボをフルパワーで回して画像製作させれば暖房代浮くだろ みんなNAIでエロ絵出す事だけに必死になってるからなんJ以外はマジで完全に過疎ったわ
Waifuも既に忘れられてるよな >>98
もうスレ違いだからググれ
GPU-Zで測定しながら自分で試せ >>100
つってもそれぞれの専門スレは結構細く長く需要あると思うぞ、このスレもハードや設定関連に特化してるし
J本スレは流れ早すぎて逆に特定の話題のログちゃんと辿るの不可能だし TIとかHNで学習したptファイルについて教えてほしい
学習に使ったのと同じツールを使わないといけないみたいだけど、
例えば普通にautomatic1111で学習させたやつと、
流出したNAI+automatic1111で学習させたやつって違うツール扱いになるのかな >>89
ワイは最初WEBで扱えるdiffusionで楽しんで、
次にNMKDに入ったが散々待たされた挙句cuda入れてくださいでストップされたのでNMKDは許さない
次に試したcmdr2がその点あっさりクリアできて良かった
その次に試した1111とクオリティの違いに唖然とはしたが
1111が導入に一番手間があったというか、色々な記事を散見して回って導入すると沼にはまる >>100
1-4が出ているのよな。試していないが。
cmdr2で試してからの1111で試してどう違うかやってみるかのう >>103
ちょっと分かりにくいか
つまりはautomatic1111ってとこは共通でも、ckptが違うと学習は反映できないってことになるんだろうかって意味です
なんのckptで学習したか分からないptが手元にあって悩んでる >>0101
スレ違いなのにみんな親切で感謝感激…
またググッてみます、ありがとうございました imagicのcolab試そうと思ったらエラー出ちゃった
train_imagic.py: error: unrecognized arguments: black hair, wearing parka, neck accessary.jpg
Traceback (most recent call last):
File "/usr/local/bin/accelerate", line 8, in <module>
sys.exit(main())
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/accelerate_cli.py", line 43, in main
args.func(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 837, in launch_command
simple_launcher(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 354, in simple_launcher
raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)
subprocess.CalledProcessError: Command '['/usr/bin/python3', 'train_imagic.py', '--pretrained_model_name_or_path=hakurei/waifu-diffusion', '--output_dir=/content/stable_diffusion_weights/imagic', '--input_image=/content/stable_diffusion_weights/imagic/girl,', 'black', 'hair,', 'wearing', 'parka,', 'neck', 'accessary.jpg', '--target_text=a girl eat hamburger.', '--seed=3434554', '--resolution=512', '--mixed_precision=fp16', '--use_8bit_adam', '--gradient_accumulation_steps=1', '--emb_learning_rate=1e-3', '--learning_rate=1e-6', '--emb_train_steps=500', '--max_train_steps=1000']' returned non-zero exit status 2. >>74
>>89
レスありがとう
スクリーンショットを見せるまでもなくNMKD独自の仕様が原因っぽいなこれ
頑張って1111を入れてみるわ 1111は生成中のプログレスバーに残り時間が出るようになってとてもよい >>112
ワイ更新していないけどパーセント表示やなくて?時間?
だったら更新してみるか パーセントと同時にETAも表示されるようになった
こういう小業をおろそかにしないあたりが、1111の支持される理由だよなあと思う >>109
「Upload your 1 image by running this cell.」
のとこで、カンマや空白なしの短いファイル名を使ってみて
もしやtrain_imagic.pyへの INPUT_IMAGE の入力で
「〜parka, neck accessary.jpg」ってへんなファイル名が原因な気がする
blackhair.jpgとかtest.jpgとか手短なのに変えてみよう >>114
開発者じゃない誰かが作って、取り入れてよとプルリクエストを出したのかもしれない
オープン開発の強みだね >>115
できた!ありがとう
そしてこの技術、なんか結構すごい
ハンバーガーは食わせられなかったけど画風の再現度は比較的高くて構図と顔のバランスは完璧
多分ピースサインとか服替えくらいなら、は、トレスじゃない程度に変化させつつできる 手づかみで食う萌え絵なんて皆無に近いのにNAIに食い物食べさせようとすると途端に手づかみ始めるの
少しでも手を抜いて楽しようとするDeep Learningの性質が可視化されてておもしろいな
これだけ手抜きしようとするバイアスが強いと複雑な構図は当面難しいのかもしれん プロンプトに従って生成するから、箸とかスプーンとか指定しないと描写できないのは正しい挙動やも
アスペだと思って説明するのが良いのかもな 手の位置なんかが今のモデルだときちんと学習されてないからいくら細かく説明しても無理だろ。ガチャになる
現実的にはi2i。t2iでがんばりたいなら学習 頑張って手を加筆したのにAIにゴミかなんかと認識されて消されちゃう あるあるw
指だとマニキュアを塗っておくといいって聞いたな
試してないからどのくらい効くのかは不明 hypernetworkのlayer structureって何枚以上なら深くした方が良いとか何も目安ないのか >>119
手抜きじゃなくてpromptと学習データに忠実なんだよ
逆にpromptを作ってる人間が手抜きしてると言った方が良い しかしすごい食べ方だな
やっぱりAIはこういうの出すときが面白い >>128
箸大量に持つのはもうデフォだしslurpですすらせても7枚目みたいな舌みたいな物体口から出してるのばっか出て麺すすってくれないわ DB作成のfp16ckptとfp32ってサイズが倍違うけど品質そんなに差があるの?
比較して作っても絵柄は一緒で細かい部分しか変わらずどっちが良い悪いとかなかったけど >>133
画像という物の性質的に、fp32だから綺麗で正しい、fp16だから粗悪で間違いというわけではないからあんまり気にしなくていい
このseedとpromptならfp32版がいいなってのもあるし、その逆もありうるからね 古いGPUではよりAI演算向けに採用されたfp16が遅いものがあるからそっちの方が問題
単純に同じ32ビットのデータの受け渡しでfp16はfp32のほとんど使われない小数点以下の23bitを中心に思いっきり詰めて
倍の速度で演算しようっていうやり方なの
膨大な演算の中で演算中に捨てられていく小数点以下で多少の誤差はあるけど見た目でわかる範囲ならもっと話題になってるよ
見た目で差がわかってもfp16/fp32でこっちがいいっていうのはあるだろうけど、どっちが正しいというものじゃないからねぇ 朝から滅茶苦茶だな。fp16は指数部も切り詰められてる普通の16ビットだよ
古いgpuでfp16の方が32よりも遅いのがあるかどうかは知らないけど、sd関連でよく言われるfp16の選択はそもそもvram節約のため
遅かろうがcpu使うよりは爆速だから問題ない 結局sd1.5はどういうことなんや? 公式でええんか? 「動作」を学習させるには静止画では無理があるな
出力するのが静止画であって学習は動画で行う必要がありそうだ 昨日か一昨日、ネットで発表してたから11月までには来るんじゃね? HN効きまくってる人ってどういう画像をどういう枚数でどれくらいのステップやってんだろ
6枚を左右反転させた12枚で30000ステップさせたけど「無い方が良くね?…」って結果になって悲しい
5枚とか少ない方が良いとか100枚以上読ませたほうが良いとかあって混乱 >>143
いやいや、これは>132と同じで、Stability AIのアカウントじゃないでしょ >>143
それなあ、公式じゃないんだよなあ。でも中身はほぼ公式みたいなんだよなあw >>142
学習率によるけど30000は多い
20枚、5e-6で1500、5e-7で10000が相場って言われてるけど細かいところは微調整かな
5e-6でいい感じになるまでやってから5e-7で追加で回すみたいな >>146
多かったの?!!
初期設定が10万だから足りないのかと思った…
5e-6だから1500程度で良かったなんて…
過学習てやつになってんのかぁ… VRAM4GBでも1111省メモリならv1.5も動かせるね 今の1111ってpythonを仮想化してモジュール入れて、引数付けるだけでxformers入れてって全部やってくれるんだな
この辺手動で設定してた頃の情報が全部ノイズになってるな その設定画面みてて
そういやおれ俺GFPGANいれてねーな
というか導入の記事みててGFPGANいれろなんてなかった気が
いや、1,4を入れるなんてのもあったことはあったが
入れないことで窓アスカじゃないものが出力されるんだろうか
なおCPUで動かす場合だが
むりか
というかハローアスカのキモはENSDの設定値を初期値0にしておくことimg2imgでオイラー設定にしておくことだからな
レイヤーを2にってのはよく見かけるけれど、それよりもオイラーよ
NAIの標準であるオイラーaに準じてならアスカ出力後にENSDの数字変えてオイラーaにする必要がある
この設定みてるとできてるんじゃねとしか
あと忘れがちなのがapply settingsを押して確定しておくことか 顔・目がきれいに出ないのはvae.ptが読み込まれてないパターンでしょ しらんけど >>155
>>156
GFPGAN抜いて
vae.pt入れ直したらハローアスカできたわ
助かったありがとう >>154
Restore facesのチェック外してみ >>158>>159
おっと、リロードしてなかった... >>133
そもそもAUTOMATIC1111はfp16でしか読み込まないからfp32は無意味って聞いたよ 技術系ディスコで出てた「Dreamboothでキャラ学習させた後、そのトークンをdeepbooruで生成されたタグファイルに付け加えてそのタグファイルでEmbeddings学習させる」っての面白いな
Dreamboothだと細かいキャラの雰囲気とかがいまいち再現されなくて困ってたけどこれするとかなり似るわ
学習ステップはかなり少なくて良さそう >>161
オプションで「--no_half」使えばfloat32で読み込むことはできるらしい
指定しないとデフォルトはtorch.float16になるんで
基本fp16でしか読み込まないって話になるのかも
ソースはsd_models.py
github.com/AUTOMATIC1111/stable-diffusion-webui/blob/f894dd552f68bea27476f1f360ab8e79f3a65b4f/modules/sd_models.py#L177
まあ、ぶっちゃけ品質に大差はないきがする
服の柄とか装飾が少しだけ変わったり、僅かに違う絵が生成されたりする 推論はfp16でもあんまり違いないけど学習はfp32が良いと思う 間違ってネガティブプロンプトにプロンプトと同じ呪文をぶち込んで放置してたら大量の現代アートが生成されてしまった これやれ!でもするな!
AIちゃん「うっひょー!あばばばばhq54ぽj」 >>158
なるほど、逆に考えると1111の導入なんかの記事でGFPGAN入れろとか書いてるのは
ハローアスカの再現する場合にはよろしくないのかもな
1111の記事かimugerの記事のハローアスカの記事ではGFPGANの事は記されていないはずだし
ハローアスカで再現できたらいろいろカスタムしてねってことでGFPGAN入れればいいだけで >>159
ワイ初期値でしか触っていないけれどそれもやな
今ワイ環境チェックしたら
txt2imgタブのRestore facesもチェック外れてるからそれもや 今回のケースはトラブルシューティングのvae.ptが無い時の画像と一致してるから他の話は大体的外れ
Troubleshoot Common "Hello Asuka" Errors (Euler)
https://imgur.com/a/DCYJCSX ちょっとストレージに余裕がないからHDDにつっこんでやってるんだけども
必要なデータは全部オンメモリでないとあかんみたいな話どっかで見た気がするから
ckpt読込はSSDより遅いけど、その後の生成速度はHDD/SSDで大して変わらんって認識でいいですかね 読み込み終わればあとは一死よ
画像保存速度はまた影響あるかもだけど ありがとう
小物ファイルのストレージ読み書きくらいで生成処理自体には影響なさそうなので
当面HDD運用しときます 特にマージとかはHDDでやった方が良いな。SSDでやると寿命がマッハ
CrystalDiskInfo見てみたら総書込み量のグラフが指数関数みたいになってたわ… >>167
GFPGANはハローアスカにはまったく無関係やで
むしろ入れておいてもなにも問題あらへん
というかAutomatic1111使う人はほぼ必ず入れてる 公開されたv1-5-pruned-emaonly.ckptはsd-v1-4.ckptとまったく同じサイズなんだね
3.97 GB (4,265,380,512 バイト) 顔が複雑なキャラの全身絵をDreamboothで学習させると顔が下手くそ問題
全身絵をステップ数少なめで学習させたモデルと、顔アップでステップ数多めで学習させたモデルの2つ用意して
全身学習モデルで生成→顔学習モデルで生成した画像の顔部分をインペイントで修正
ってやったらうまくいった >>173
それHDDでやったら無限に時間かかるってことじゃないのか? 一時期HDDマイニングで脚光を浴びたPrimoCacheがここでも注目されるまさかの展開 >>174
CPUだけで動かしてひーこらしてるから余計なの入れて重くしたくないなぁって思ってたんよな
画像がでてくるまでもすげー時間かかるし
でもまぁ、そういうことならとりあえず入れておくか
使わなけりゃ
settingでGFPGANにチェックいれてなければいいだけってことやろ >>180
40万+電源+冷却+専用電線はちょっと どんどん円安が進んでいくからある意味常に今が買い時 ドル151.8円だもんな。もう40xxなんて無理よ >>188
ふぁって?なった
打ち上げ花火みたいになってるなw ある程度画力無いとi2iでAIに加筆したものを正しく認識させるの難しいな
画力高い人が有利なのに変わりないな hypernetwork
学習画像30枚くらい学習率0.000005で数万ステップやってるけど
過学習というか壊れてきてる感じがない
別によくなるわけでもなく、このままずっとこんな感じなのかな >>192
学習途中のプレビューでは大丈夫だけど、実際に適用してprompt打ち込むと壊れてるケースがある そうなのか~~
hypernetworkも中々難しいな 俺も目下やってるけど全然うまくいかない
きっと画風ってめちゃくちゃ繊細なんだろうね いつぞやにスレでも話に上がった分散型トレーニング、実現するみたいだな
参加するのにVRAM18GB必要みたいだからハードルが高いが… >>197
まじか
いろんなモデル出てきそうで楽しみ imagicって8GB環境でも動きます?
はやくstable diffusion Web uiにも実装されてほしい SD1.5 girlだけ入れるとめっちゃ黒人出てこない? >>201
novelAIのネガティブプロンプトが入ってた 取ったら同シードで白人になったわ
謎 SD1.4でもwdもNAIも黒人って見てない気がするな指定しなきゃ出ないのかな 比較
https://i.imgur.com/uvGmGDS.jpg
a high school girl
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337
https://i.imgur.com/qWwepdO.jpeg
a high school girl
Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337 黒人の写真のほうがコントラスト高くなって明暗がハッキリしてるから『良い絵』だと判定されてるのかもなー な?
これが「企業にAIのプログラムを独占されてはいけない理由」なんだよ >>206,207
女子高生は白い歯出して笑うという学習があり、
黒人の方が白い歯出して笑うのが歪み少ないようにAIが判断しているのかな 指定してないとこは勝手に出すのは当然じゃん
モデル事務所に頼む時も人種指定しなきゃ余り物バンバン押し付けられるぞ☺ 自分もDreamboothで以下のText Encoderのファインチューンやってみたけど
確かに学習率を下げることはできたけど学習stepを厳選した時より別に生成画像が改善しているわけではなかった。
ttps://wandb.ai/psuraj/dreambooth/reports/Dreambooth-training-analysis--VmlldzoyNzk0NDc3
効果あった人います? 何を元データにしてどうしたくて何を変えようとしたのか、読み手に伝わる質問しできるようにならないとな
AIはもっと融通が利かない
AIが読み取りやすいノイズやごみの少ないデータと、再利用されやすいバリエーションで再現率上げるデータがあるのが前提だもんな
人間の目でいえば曇りガラスや霧の向こうより、コントラスト高めの高精細な真夏の屋外みたいな写真や安定したアウトラインのあるアニメ調の方が認識しやすいし
そこへ背景なのかキャラクタの顔なのか服装なのかエフェクト的なものを含めた画風なのかすべて用意するデータも傾向も違う
大雑把に言えば全身入れれば顔がつぶれる、気を利かせた同色の背景に馴染んでるコスチュームは見分けがつかないそんなところを気にすると安定しやすくなるよ
まぁ回数こなして癖を知るしかない キャラではなく画風を覚えさせたくて背景込でHN学習させたらロスが連続0.16台で多い…
黎明期ゆえに海外でも手探り状態で正解がわからない…
しかしファインチューニングは面白い… https://imgur.com/3QN7eyI.png
自分の絵を喰わせまくったら完全にコピーしてくれた
どうにしかして金に出来ないか 私の絵柄でキャラを最新技術で100体デザイン即日納品しますとか AI生成で100体ラフ(?)見せるんで気に入ったのあったらそこから仕上げます、とかですかね >>217
自分が普段から依頼受けてるならその手順をAIで加速すればいいだけでしょ
絵師がツールとして使って、修正もちゃんとしてるなら何の問題もないし 絵師の場合下手に安売りしたところでむしろ収益下がるだけだと思う
AI絵師は元々の価格帯なんてゼロだから損しないけど >>217
絵だけ用意しました、でお金稼ぐのはさすがに難しい
その絵でゲームなりマンガなりコンテンツを自分で作るしかないな >>217
その学習工程をドキュメント化してBrainで売るとか? NAIのローカル版ってWebUIの環境設定ができてりゃ基本的にはモデルとVAEを持ってきてファイルに入れるだけって認識でいいの? 世界一の呪文使いの称号が得られる大会とかやるでしょきっと >>206
これもう健全な肉体持つのは黒人ですわー宣言で草 >>207
なんでいままで気づかなかったレベルでNAIとSDユーザー被ってないんやな high school girl単体で使うことまずないからな
high school girl, kawaiiって感じにしたらNAIネガで黒人出てこない まあ本音を言えば黒人出てこない方が手間が省けてええやろ 白人から言えばアジア人も同じかもな
4chanのプロンプトのネガにAsianって入ってたりするし つか何を出したいかによるんだからどうでもいいだろ……
逆にベースとしては人類って入れたら全人種出る、で別にいいんじゃね 実写系をJapanese,Chineseで出力したらほぼ同じような顔出るし学習量の問題もあるやろ 結構時間かけて人種別の女の子出してたことがあったが
タイ、ベトナム、中国 日本、タヒチとかでも結構違ってて正確だなと思った(自分の感覚ではね)
○○人って入れたほうがいいと思うけどね >>237
正直、SDでも学習の幅は全然足らんからな
「samurai」とか入れても、中華映画に出てくる中華鎧みたいなのばっか書いてくる
まだまだAIの知識はまだら模様で、割と当たり前の部分でも結構抜けがある感じ eスポーツみたいなノリでテーマに沿ったAI絵をその場で作るみたいな大会とかそういう風に一般的になるといいにゃー どっちかっていうとその場でお題を告げられる料理番組みたいな 適当に写真貼って完成した絵をプロンプト付きで出して下さいってやったらどこでも出来るなw 5ちゃんにそういうスレあったら面白いと思ってたんだよな 今日のお題みたいな感じでみんなでプロンプト競い合って作るスレな。あったら面白いけど
どうせすぐにこんな絵のプロンプトくれくれスレになるw 時短のためにTIとかHN必須になっているから
プロンプトってそこまで重要じゃない気もする ここまで粘り強くAIやってる人は
かなりの割合でTIぐらいはやってるだろうしな
なんか素材集めたりパラネーターの数字いじったり、最初の頃に思ってるのとはだいぶ違うAI画像ライフになってる 「文字入れるだけでイラスト作れる」が最初なのに、
効率を求めた結果、言語化が面倒になった 詳細は伏せるけど
1枚0.005ETHのAI絵が即売れしたらしい その情報に何の価値があるんだ?
流石に詳細明かせよ 質問なんだけど他人がTwitterに投稿しているAIイラストを勝手に高画質化AI通して相手にリプするってアリ?ネットリテラシーの問題だと思うけど 1ETH40万だとしても2000円だよ
どうせ今は1ETH10万とかだろ?詳細あってもゴミ情報でしかない >>254
なんでそんなことをするのかわからん
小さいの上げてるから大きくしてやるよってこと? >>254
ネットリテラシー以前の問題としてやる意味が分からない
唐突にリサイズされて送られてもだから何??って状態
俺だったら即ブロックで終わり 1枚500円か そりゃ即売れするわ
ココナラとスキマは最低価格が高すぎてAI絵は売れる気がしない
詰んでる AI画像もNFTアートとして売れば独自性を主張できるな >>254
アリとかナシとか以前に意味不明で気持ち悪い
なんちゅうかホラーの域だわ >>254
それはネットリテラシー以前の問題だと思う
はい、あんたより高画質で上手な画像一分も掛からず作れちゃいました。
無駄な努力お疲れ
って言いたいなら送れば >>251
別にAI絵でなくてもコピペ使いまわし丸出しの差分絵がジェネレーティブNFTとして高額取引される世界だし
NFT絵はアムウェイの洗剤とかと同じ輪を広げて金を巻き上げる道具にしか過ぎない 寝てるポーズの生成が全然上手くいかないけど、良い方法あるの? エロスレではdakimakuraと唱えれば成功率は上がるという研究結果があった 横向きの寝てるポーズは基本的にうまくいかんな
打率が100分の1になるようなイメージ。縦なら上の人が言う通りdakimakura of xxでまあまあ上手くいくけど 開いた本なんかと同じで、この角度は上手くいかん素材っていうのがAIでは結構あるよね 座りポーズはDBできたよ。学習データ用意するの大変だったから二度とやりたくない 連投になってすまんけど、変なデータ集めるとかえって絵が下手になるしすごい素材集めが重大事 エロゲにモザイクがなければ良いデータセットになったのに 寝てる絵ってそもそも総数自体が少なそう
AIは見たことない絵は描けない 学習画像も512*512っていう制約がかなりきつい
前処理もめんどくさいしキャプションも自動だとあんま信用できないし ハイパーネットワークってやつで絵柄学習させてからdreamboothでキャラおぼえさせるのって出来るん?
順序逆だと出来るっぽいけど >>276
学習速度と精度を落として省メモリ化してるのを余裕とは言わない とりあえず満足できる結果を得られるからそれで問題ない
ソフトの性能をフルに引き出すのが目的じゃないから16だろうと何だろうといいんだよ 次世代のStable DiffusionとWaifu Diffusionで高解像度化するのを忘れてないか?
3060のVRAM 12GBでは学習できない可能性が高い
512x512のモデルで割り切るなら3060もありっちゃありだけど >>278
自分のなんとなくの理解だけど
TIは学習させた画像に近くなる書き方を単語と結びつける。学習に使ったモデルでしか使えない
HNは学習させた画像に近づけるために、プロンプト全体を調整する。学習に使ったモデル以外でも使える
って感じだと思う >>277
その順序に意味を持たせるなら自分でコード追加しないといけないんじゃね?
学習時にhypernetwork読み込まないだろうし >>282
TIは他モデルで使えないということはなくて、例えばSDで実写顔を学習させたものをwaifuで使うと
アニメ顔の似顔絵風が出せたりするよ 原理は違うんだろうけど
使う側から見ればほぼ同じというイメージ >>284
やっぱそのままじゃダメか、ありがとう
それが出来たらキャラ覚えさせる時、同じ画風のモデル使い回せるのにな~と思って ハイパーネットワークって学習させれば他のモデルにも使える感じなのか HN、5e-6なら1500ステップで良いと書かれてたど1万超えた辺りでようやく元の絵柄に似てくる
今23000ステップ、どんどん線がくっきりしている状態は良くなっていると捉えてもOKですか?
それともノイズ発生以外でも逆に山頂を過ぎて悪くなる状態とかありえますでしょうか? 同じくそんな感じ
2000で十分とか言われてたけど全然そうならないからよくわからない
学習させる画像の量の問題かな 最初に create hypernetwork するとき、
Select activation function of hypernetwork で選んだ活性化関数によって
ぜんぜん学習進まねぇとかある。linear 選ぶともりもり絵が変わる web ui更新したら日本語設定出来るようになった 5e-06で10000ステップも回したらほぼほぼ過剰学習になる
色んなプロンプトで回して見たら分る Select activation function of hypernetworkはデフォルトの「relu」を選んでます
日々新機能搭載なのでこの関数の選択によって何がどういう状態になるのか全然わかんないですねw…
調べところ使わないという選択にあたる「linear」の方が良いという意見もあるみたいですね いろいろ試したが学習元データとかテンプレートとかによって最適なステップ数は結構変わってくるな
その都度最適なところを見つけるしかない 顔アップとかバストアップとかポートレート系の画像で学習すると
たしかに引きの絵はすぐ壊れる
でもポートレート絵なら1万ステップ超えても壊れない
本格的にチューニングしたいなら顔面用と引き用で分ける必要があるのかもな… Stable Diffusion web UI AUTOMATIC1111版のローカル環境構築手順 (推奨) 間違えた。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Dependencies で指定されているものをインストールおよびDLする
インストールしたいディレクトリに移動し git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui を実行する
DLしたモデルファイルをmodelsフォルダに入れる
webui-user.bat を非管理者として実行する←いまここ
Couldn't launch python
exit code: 9009
stderr:
Python
Launch unsuccessful. Exiting.
続行するには何かキーを押してください . . .
実行してもこのメッセージが出て終了してしまいます。Pythonはインストールしたはずなのですが… 間違ってるというかパス通してないんでない?
パスの通し方わかるなら追加してわからなければPythonインストールするときにAdd Python to PATHにチェック入れると良い
因みにChocolateyでインストールすれば勝手にパス通るはず ごめん自分Windowsじゃないから適当言ったわ
調べたらChocolateyって今はPowerShell限定なんだね
コマンドプロンプト使う場合はパス別々だから意味ないんでさっきの忘れて Pythonのインストーラーの最初の方の画面の下らへんにAdd PATHなんちゃらってチェックあるからそれ入れて再インストール 普通にインストールすればpath通ると思うんだが… デフォルトチェックボックスを内容も読まずに外しちゃうんだろう
まあ、アドウェア突っ込んだり関係ないアプリ突っ込んだりするアプリ多いから気持ちはわからんでもないが
ちゃんと読んでからチェックをはずそう これWindowsがちゃんとしたパッケージ管理ソフト作ってればパス通らないなんてミス起こらないんだから、
Linuxみたいにyumでインストールできるようにすれば良いのにね
Pythonだけなら良いけど、依存するもの全部インストーラ実行するのは時間の無駄だし scoop.shかwinget使えばいいけど、両方そこそこハードル高いからなあ 思うに、Microsoft Storeにpython 3.10があるからそっちから入れればいいんじゃね? 配布されてるDBモデルのstate_dictのkeyが追加されてるんだが
マージする時はどう扱えばいいんだ?新規に追加?それともどっかに混ぜるの? だめだ、俺のPCじゃ1111だと1枚ずつじゃないとメモリ死ぬようだ
NMKDに戻るわ…すまない 適当にportable環境作ったが今ならdocker入れるのが一番夜早いのでは >>311
うろ覚えで申し訳ないがSD関連で
Microsoft Store版Pythonは使ってはならないという
記述をどこかで見たような記憶がある
今はまた状況が変わってるかも知れないし
与太話レベルなのだが 髪型に特徴のあるキャラをdreamboothで学習後webuiて出力させると髪型が左右反転するんだが何が問題かわかる?教えて貰えると助かる。
学習時に反転させてるからか、出力画像を反転させてるのか >>317
JoePenna版でやってるんだが自分で反転はさせてないけど内部でやってたら無効化したいと思ってる >>316
学習時に内部で反転させてるね
無効化したい場合は、v1-finetune_unfrozen.yamiのdata:→params:→train:→params:のインデント(size: 512, set: train, per_image_tokens: false, repeats: 100 がある所)に「flip_p: 0.0」と追記すれば反転しなくなるよ Filter NSFW contentにチェック入れてないのに、
ちょいちょい完全黒塗り画像が出てくるのはなんなんすかね・・・ 最近のアプデのせいなのかわからんけど1024でも余裕なのに768でさえ黒塗りになってしまう途中から… 俺もなるわ。VRAM足りてるはず
何か黒塗りになりやすいプロンプトやi2iがあるからモデル上のバグか何か踏んでる気もしてる 早々VRAM1GB以上空いてるのにちゃんと使ってくれ~って感じ 1111版でxformersを入れてタスクマネージャー監視してるんだけれど
生成開始の一瞬だけVRAM使用量が膨れ上がってその後半分以下に落ちる挙動してない?
同時生成枚数が多くても少なくても最大値が変わるだけで同じ挙動になるのが良くわからない
出てきてすぐのSDは生成中はVRAM確保しっぱなしだったんだよな なるほどVRAMかもしれないんすね・・・
同じシードでプロンプトをちょっと変えると、黒塗りにならずに白黒(目と唇だけ色がある)画像になったりもするんだよね・・・
とりあえずstep減らしたり解像度下げてみたりして試してみます。(それでも治らなかった人がいるみたいなので、ダメかもだけど) vae使ってるなら--no-half-vae追加すると黒いの出なくなるかも >>326
逆に生成終了時に一瞬だけVRAM使用量が2倍に膨れ上がる挙動してる
生成開始時は特にないかな
最初は--medvramのせいかなと思ったけど関係なかった >>319
316じゃないけど知りたかった情報でした
ありがとう waifu1.4は12/1か
目とか指も綺麗になるかな waifuにどこぞの、優秀な学習データが統合されてたりしないかな 8bit adamオプションなしのdreamboothが12GB以下になることはないもんかな
3090買っとけばよかったな正直 NAIはNAIで公開後から進化させる気あるんかいな
サイレント変更は勘弁だが Twitter追っかけてればわかるが
今のNAIはミニマムセットみたいなもんだぞ NAIの本気は小説作成で培った言語解析の部分だろうね
ココがうまくハマれば、かなり正確な作画が出来る
SD1.5でも赤いボールと緑のキューブを綺麗に分離出来ないわけだけど、この辺のブレイクスルーに繋がるかもしれない
emmadがお気に入りなのもその辺があるんじゃないかな 個人的にはwaifuでもこまめに単語で区切るより文章で入れた方が出来良くなるイメージあるからなるべく文章で入れるようにしてるわ SD系が文章解析型なんでwaifuも本来はそうなんだけど、1.3でダンボタグを基本に据えすぎたのでタグ連打式になってしまった
1.4ではSD本来の文章解析式に戻すっぽいので期待
12月にリリース伸びちゃったが いかにもEmadが開発者みたいな話が広まってるけど
彼はあくまでも投資家のリーダーで
開発はドイツでいう東大のミュンヘン大学のCompVisっていう研究室だからね
https://github.com/CompVis >>339
同じくノウハウあるはずのとりんはパッとしない
NAIをエロ生成器としか思ってないdisツイートしてたりAIの進化に全くついていけてないようだが ワンパンMadとスパイダーMadワロタ
楽しんでんな Dreambooth学習後は普通の立ち絵だけじゃなくて色んな構図出した方がいいな
過学習気味になると明らかに構図のバリエーション減るから分かりやすい
500ステップとか1000ステップごとのモデル保存してX/Yプロットするとめちゃくちゃ過学習がわかりやすい >>339
そこはGPT-3に元からある問題でベンチャーレベルでどうこう出来るもんじゃないから
GPT-4の公開待ちでしょ
まあGPT-3すら正式公開はされてないからいつになるかしらないけど dream boothで学習させる画像のサイズってgpu次第なのか?
とりあえず512512でやってるけどもうちょい大きくしたい。使ってるのは3060.12G。 git pullで履歴タブが消えたこれカスタムスクリプトになった? >>319
20枚ぐらい試したけど上手く行った。ありがとう ファインチューニングと違って単純な追加学習はやればやるほど元の内容忘れていくから
WD1.4では失われるものが1.3の時よりさらに多くなりそうだな >>348
「Image Browser」というのに変わったみたい >>351
と思ったら最新ではなくなっちゃったね「Image Browser」
短い命だった… >>353
進化が早いことの代償なんだから我慢しろ NovelAIなんだけど、とりあえず10日前くらいに1000pt購入して使いきったんだが昨日か一昨日にいつの間にか1000pt追加なってた
決済ボタンポチってないのに何でだろ気になる NAIがアナウンスしてるぞ
10月13日以降にサブスクしたアカウント全部に1000振り込んだって
ゴタゴタのボーナスじゃろ >>356
おおたしかに使えない日があったなそうゆうことか、サンクス! >>358
https://github.com/vicgalle/stable-diffusion-aesthetic-gradients
風景画に花が咲いてる画像見るとおもろいなと思った
現状の言語モデルでは言葉でイメージを完全に伝えるのはたぶん無理なので、「こんな感じ」を別のもので伝えられる機能には期待したい webuiから分離されたImageBrowserの入れ方
https://github.com/yfszzx/stable-diffusion-webui-images-browser
extensionsフォルダにgit cloneするだけで入れられた
このタブは便利だから同梱でいいのに 特定のテーマでフィルタを掛けるみたいなもんか
TIより画風移植に向いてそうだな promptでFlowerって入れても、いろんな質のFlowerが全体的に出てくるわけで
俺はこんな感じの花が欲しいんだよ!って時に使えるかも? >>361
まぁ機能豊富になってワチャワチャしてきてるからな。Gradioは割と重いし
各タブの追加・削除をユーザー側で設定出来るのが理想だな 桜なんかは簡単にというか、ネガティブに突っ込んでも出てくるんだよな…
スタイルに京アニ書くだけで
京都強すぎだろ >>357
学習率を弄ると強く効き過ぎて崩壊するから基本はStepで調整するんだと思う
プロンプトによって調整が面倒だけど学習自体は長くても1分ぐらいで終わるから楽
下のは学習率は初期値で全部Step50でやったけどよく見ると腕折れたりしてる
一番上のオリジナルは元素法典の花火のやつ
https://i.imgur.com/vAEn3E3.jpg >>366
ミリタリーすごいな!ちゃんと軍服着てる ハロウィンだと髪の色までハロウィンカラーになるのか。面白いな これって1111で使うにはPersonalizedCLIPEmbedderをldm/modules/encoders/modules.pyに追加して
txt2img.pyでコンフィグにv1-inference-aesthetic.yamlを読み込む様にするだけでいいんかな? https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients
ここへ説明がある
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients extensions/aesthetic-gradients」
gitの使い方がわかってないから書いてある方法でやってもフォルダが空じゃないエラーを吐かれたんでextensionsにcdでクローンして動かした、stable-diffusion-webui-images-browserはそれで動いてくれた だんだん界隈の盛り上がりが落ち着いてきてる感じするな
スレの勢いもそうだし、githubとかチューニングデータをまとめてるサイトとかの更新頻度も落ちてきてる
さすがに皆疲れてきたか もう二か月だもんな。そろそろ苦手なことと簡単にできることが分かってきたし
当分大きな進化はなさそうだからな。年内はあまり期待できないwdが来るかどうかだろ
https://i.imgur.com/xMOIIwc.png 画像サイトはどこも酷いな
基本エロ画像しか上がってないw >>368
いや・・・設定が甘くてほかに影響出てるだけでそ
プロンプトとネガティブ見回せば重複や不整合があるだけかも 個人的にはこういう絵でエロ見せられてもなぁ・・おえってなるのは自分だけかな
細部が奇形だったりするからだろうか。
流行りの塗り方はこうなのか、って参考にはなるけど こういうふうに画面が分割されちゃうのはどうやって防止するんでしょうか
https://i.imgur.com/neGnDom.png プロンプトの強調量を縦横にグリッドで並べる表作るのに
簡単に出来るソフトありますか
表全体を1枚画像でエクスポートしたいです
https://i.imgur.com/jJXUMC2.jpg Prompt S/R2つ使ってXY軸に
(イラスト:1.0) (イラスト:1.1)
(写真:1.0)
(写真:1.1)
数値だけ書いて同行する方法は俺は知らない NMKDにはシームレスなテクスチャを出力する機能があるらしいけど、1111に同様の機能あったっけ? aesthetic-gradients知見
fantasyのstepを上げるとスカートの中からエルフが生える >>383
>>384
ありがとうございます
これで作ってたんですね >>388
プロンプトの強度を連続的に変化させる場合は>384のリンク先にあるような1-2(+0.2)みたいな書き方はできなくて、
(illustration:1.0),(illustration:1.2),(illustration:1.4),…(illustration:2.0)
みたいに書かなければいけないっぽいのでがんばってください みんなどんなグラボ使ってるん?
純粋に興味ある。
うちはお金厳しくて3060だ。 うちのマシンも電源の都合で3060だな
現時点でコスパも最強だし生成速度にもそんなに不満はないから当分このままだと思う
次にPC買うときはつよつよ電源にするかもしれんが 1060 6GBで遊び始めて
ハマったから3080Tiに交換した
VRAM必要と知ってれば
RTX Aシリーズにしたわ…… 絵や横顔のような人間も描くのが苦手な物はサンプルが少ない訳でもないのに
AIも苦手になるのはどういう仕組みが働いてるんだろう
ただ単に難しいだけか? いや、普通にサンプルが少ないんだよ
仕組みは違うけどディープフェイクもめちゃめちゃ横顔苦手
https://karapaia.com/archives/52315225.html
横顔はAIだと顔のパーツの認識も難しかったりするし、良質なデータとなると更に少ないんで、世界中から集めても足りてない
絵が苦手はどういう意味で言ってるのかわからないけど、2次元絵なら認識むずいし、下手なデータもあるし
特定の作家の画風だと単純にデータ量少なかったり色々考えられそう 絵=手のことじゃね?
手のサンプルについてはどうなんだろうな、まぁ手だけのモデル作れば既に解決してるみたいだからそれもデータセットの問題なんだろうけど >>392
3090。1080Tix4もあり
AUTOMATIC1111のwebuiでマルチGPUできるといいのにまだかなぁと期待せず待ってる >>397
特化型AIじゃないってのもでかいのかもね
ノイズかかったものを復元するのが基本になってるみたいだから、顔とか手とかを全体で捉えるんで、整合性を認識してるわけじゃないしね
全体をなんとなく復元できるAIにキャラ特化で学習させれば書けるようになるのもDiffusion系AIの特性なのかも collabでDreamBoothやろうとしたけどUIが変更されててどの解説も手順通りにできない >>392
VEGA56(39,800円)
電源貧弱なので絞って回してる。全力で回すと落ちる。 3090ti使ってる
Dreamboothのために3090買おうとしたら3090tiが17万まで値下がりしてたから買っちゃった
消費電力は知らん >>403
NaiLeakのUIもNaiを模したものという認識だが >>403
NovelAIの公式をマルパクったリーク用webui 初歩的な質問ですまんが、automatic1111の、普通のアップスケールについてまとめたサイトあるいは過去レスを教えてほしい
extraタブの設定全部わからん
githabの英文でもいい >>406
わざわざそっちでアップスケーリングしなくてもESRGANとかは厳選した後外部ツールでかけたほうが良いんじゃない? 途中送信すいません
safe.pyはどう使うものでしょうか >>414
39行目くらいにあるコードを書き換え
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim_numpy)
↓
x_checked_image = x_samples_ddim_numpy
R18フィルタのなんかが外れるらしい
やる必要無いって話もある
おまじない safe.pyってunpickle時の安全性確認のスクリプトの事じゃないのか? safety.py
safe.py
紛らわしいねえ unpickleの事言ってるとすれば1111に既に組み込まれてるから気にしなくていいぞ RTX1060の時は問題なくautomatic1111動いていたんだけど、
RTX3060 12Gに取り換えると毎回下のようなエラーが出てきます。
誰か解決方法ご存じの方いませんか?
RuntimeError: CUDA error: an illegal memory access was encountered
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1. なお結局--disable-safe-unpickleする模様 >>419
CUDAのドライバを入れ直すとか? nvidiaのドライバそのものも グラフィックドライバとCUDAドライバ入れ直して
venvの中を削除すればビルドしなおしになるんじゃないか >>421
CUDAとグラフィックドライバ入れなおして、一からやり直してみましたが同じ結果でした、、、 dreamboothってNAIモデルでは使えないのもったいないな、良い機能なのに >>423
グラボでわりと多いトラブルその1
接触不良 >>424
やったことないがおそらくできる
前スレでdiffuserモデルへの変換に必要なファイルの変更箇所を書いてる人がいる >>427
マジか、そりゃすごいな
前スレ読んでみる ColabでDreamBoothやるときって毎回初期化してInstall Requirementsからやり直さなきゃだめなのかな?
画像だけ差し替えて学習させたいのにできない >>428
これ元のアニメにエフェクト(img2img?)かけてるだけでキャラクターのモーションを生成してるわけじゃないんじゃない?
多分元アニメはLain NAIモデルでDreamBoothやりたい場合は現状ローカル以外に選択肢なさそうだなぁ
RTX3080 10GBよりメモリが多いRTX3060 12GBの方が良いのかな? >>428
こういう風にAIで盗作する人ばっかりが注目集めてフォロワー増やしていくのはなぁ
これじゃ誰も自作のアニメなんて作らんと思うわ >>433
盗作はいいすぎ
元ツイートにはアニメのlainタグ着いてるしAI作画利用したMADってだけだろ
なんで428がこれだけ引用してすげーってなったのかは知らんがreddit行けばこういう凝った動画で遊んでる人いっぱいいるよ AIで1枚1枚i2i変換したアニメはなんというか風邪の時にみる夢みたいで怖いなw 安定して変換できるわけでもないのに動画にかける勢はなにがしたいのか謎 つっても、要するにこれまで絵コンテ→原画→作画、とやってたアニメの手順を
パラパラ漫画レベルの下書きからすぐアニメ化できるってことだろ?
盗作勢が単なる真似っこなのは見てる側も全員わかってるんだから、
自主製作アニメ勢とかが本気で作ったやつが出たら注目はすぐそっちに移ると思うぞ
作るのに時間がかかるから、今はまだ技術検証的な意味でコピー系の動画だけが出回ってるだけ 実験として面白がってるだけだったり
新たな映像表現の模索だったりって想像つくと思うけど
VJのエフェクトとしてリアルタイムで利用できたらおもしろいだろうし
lainは元のアニメがネット関連オカルト話って感じだから悪夢的なエフェクトがハマると思ったんだろうね 新技術活用についてその時点だけを見て大したことないって言う奴、
特にこのスレまで来てるのにんなこと言うのはよくわからんな、ハード勢だからソフトはわからんとか、コンテンツ系の発達過程はよく知らないとかなんかな むしろこのスレにいてたいしたことあると思うなよ
「(フレーム間が荒れるから)こうなるよなぁ」とか「(元アニメまんまになるから)盗作の域を出ないよなぁ」レベルだろ
よくある一枚目からアニメーション作ったとかならまだしもさ
https://i.imgur.com/HC3cWbv.png
↓
https://i.imgur.com/zmZaJrl.mp4 絵にしろモーションにしても全て借り物なのがAIなんだから
そりゃどうあがいてもパクリになるわ
作成者が自分の姿を動画にとって絵にすればオリジナルではあるが
そんなもん誰が見るかって話 創作ってのは結構難しいんだよw >>443
それが「アニメ」と呼ばれてるコンテンツなんですよ…… まぁ、技術屋と技術使う側で見えるもんが違うってことだな
それはしゃーないか パラパラ絵ができるかどうかの議論は、偶然あるシード値で排出された好みの
女の子を、表情・体型その他を破綻させずに、スムーズに服を剥ぎ取って
エロ絵として連続性を保持できるようになってからにして頂きたい。 >>443
そこでよくある例を出すと全然情報集めてないことがバレちゃうぞ
自分の動画の変換も、自分の顔の学習もすでに普遍的な物 AIの学習データは借り物であるというのは全く違う。
絵っぽいもの、モーションっぽいものに共通する事項を認識した上で再構築するのがAI。
これが借り物なら、お前が人生で教わってきた箸の使い方や服の着方、
ありとあらゆる人間の所作も全て借り物ということになるのと相違ない。
人とAIの違いは、その習熟度の速さ、及びそこにどのような物語や記憶が結びつくかによる。
人の創作に魂がこもるのはこの部分。
創作者の人生は創作者のオリジナルであり、創作者の人生からひねり出される創作物にのみ魂を宿らせる。
AIはまだこの補助をするに過ぎない。
AIによって学習された成果物の表現の方法の類似性などは、ただの手法でしかない。
人間は創作を行う際はその手法を含めてもってして、自分で何を表現したいのかを明確に意識しろ。 公開されてるnotebookでsd1.4とかになってる参照先を自分のアップロードしたNAI(diffuser)のモデルに変えればできそうだね DBってvae対応してないよな
NAIはvae使えってことになってるからDB側もvae対応にしないと厳密にはDBできない
1111でvae読み込まなくても普通に画像生成できるようにDB側がvae対応じゃなくても十分DBできるけど 自然や生命の歴史が作った身体などは、誰の著作物でもない
ローマ時代などは、その神が作った自然の美を再現するのが芸術だったのだ
AIはその前提から外れている。SDなどは人間がどういう画像に美を感じるのか、という想定でデータが集められている
あくまでも人間の感覚が先にあり、その補佐ってこと。つまりそこが文字通りAI 「人工」知能ってことだろ。自分で美を理解してるわけじゃない。
つまりそれが借りものってことだよ。作家の一番大切な部分、魂が借り物ってこと
スレ違いなんでここまで。 >>452
50GBをアップしてやってるの?
はえー >>454
スレチだけど、AI画像生成技術として出鱈目言ってるのでそこだけ訂正しとく
> SDなどは人間がどういう画像に美を感じるのか、という想定でデータが集められている
法的に学習に使用していいURLリストが公開されてて、そこの画像突っ込んでるだけなので勘違い
そこから特定の出力させたいものを追加学習させたサービスなら近いけど
> あくまでも人間の感覚が先にあり、その補佐ってこと。つまりそこが文字通りAI 「人工」知能ってことだろ
AIのAはartificialで、例えば造花とかに使われる単語だから人が作ったという意味しかないので、なんか色々妄想入ってる 途中送信すまん
変換して使ってるけど50GBも無いぞ
無料版driveに余裕で収まる >>458
学習の感じどう?waifuより二次元キャラ綺麗に覚えやすそう? >>459
基本的に再現度はいいけどキャラによってはWDの方が良かったりする
NAIは胸を盛りがち 特定のキャラの顔と髪型だけ覚えさせたい場合ってどういう画像使えばいいんだろう
体系はいくらでも指定できるし覚えさせる必要ないよね? dreamboothってckptを生成するんだよな?
最終的にNAIモデル+vaeのAUTOMATIC1111で動かそうと思うと、
学習時にNAIを使ってckptを作って、そいつをvaeと同じファイル名にリネームして、
NAIモデルの代わりに使えばいいのかな WDは768くらいだったらまだまともな人体出してくれるけど
1024だとおっぱいの2段重ねばかりで使い物にならんな >>464
ありがとう。学習時のvaeってどうしてる?
NAIのckptと同じフォルダに入れとけば勝手に
vae使って学習してくれるのかな DBするならShivamShriraoのノートブック使うのが楽じゃねえかなあ
NAIモデルの場合は変換しなきゃだけどvae指定できるぞ python3.11出てるっぽいけどどう?速度変わる? >>469
ただで授業するのもめんどくせえけど一応ね
>Stable Diffusion は、LAION-Aesthetics と呼ばれる「美しい」画像のみを集めたデータセットを用いて学習されている点も特徴的です。このデータセットは、「美しさ」の人間による判定を模倣するように訓練したモデルを使い、大きい画像キャプションデータセットである LAION から作られているということです。 >>470
重ねて妄想乙
キミの美術感でいうところの美しさとSDの学習に使われた美しいデータセットにはなんの関連もないじゃん
キミの思う美しいもキミが今まで見てきた人類の精華から得たものだろ
何が自前で何が借り物なのか? 自然の美がどうこうって奴イラストレーター板にもいたな、でも現代イラストも人工的で嫌いらしい
(何故か自分を賢いと思ってる)アホな荒らしが混じるとスレの技術的な質が下がるからNG入れときたいところ >>467
俺もそのフォーク使ってるんだけどNAIモデルコンバートしようとすると
RuntimeError: Error(s) in loading state_dict for CLIPTextModel
とかいってできないんだけどおま環?
waifuは普通にコンバートできたんだが >>455
50GBはエポックとかバージョン違いのパックで
1モデルは4GBか7GB >>473
ああめんどくせえ 屁理屈の見本でもレクチャーしてんのかこれ
誰が俺の感覚といったよ 元記事全部読んでから出直せマヌケ
だいぶ知能のレベルが落ちたなここ >>478
一応だけどAestheticsが使われてるのは学習の最終段階だけね >>478
おやおや自分の主張の根拠を元記事とやらに丸投げですか
あなたのお考えも借り物らしいw HN作るのDBより楽で速いって言われてるけど、どこが正解の地点なのか全然わからんから沼すぎる
過学習に陥ってるのか正常に学習している途中なのか全然わからん
ノイズも出ないし人体壊れたと思ったらまた普通に描けるようになるし
「目が壊れたら過学習」くらいしか目安がわからんすぎて途方に暮れてる
輪郭線がぶっとくなるのは過学習に入ってるんだろうか 解説記事読んでも変な解釈するくらいなら読まないほうがいいな
誤った知識で論理武装する面倒くさいおっさんが生まれてしまう >>ああめんどくせえ
いやお前以外のみんながお前に対して感じてることだよ
このスレの趣旨に反して場を一番荒らしてるのお前だぞID:tBsvk500 ・荒らしはスルーしてNG入れろ
・何言っても喜ぶだけで絶対に黙るわけないから一切触るな
・スレの本題の技術の話だけしよう
・荒らしが居座り続けるなら最悪ワッチョイ入れて一括NG
古のスルー力コピペを持ち出す時だ、新技術を前に温故知新だ >>481
同じくDBに関しては完全に手探り状態
TIは初期設定でも悪く無いぐらいには画風を反映できた
DBは初期設定で回したら目も当てられない結果になった
DBは学習レートとステップを上げ下げして悩んでる
エロ画像スレでTIでナナチ学習させた猛者とか居た
何が最適かおま環すぎて分からん HNは結局単体だと思い通りにならないことが多くてTIも併用するのがベストって言われてるな
俺も上手くいってないから実際のところどうなのかわからないが >>481
Lossがなかなか収束しないよね
学習中に生成してる画像とLossを比較して見てみても、どうもしっくりこない感じがある
TIもLoss値が全然あてにならないけど、Step進むと画力が上がってるのはわかるから不思議 これマジか
hypernetworkで好きな絵師の乳首だけ学習させようかな
943 名無しさん@お腹いっぱい。 sage 2022/10/18(火) 15:58:16.38 ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな みんな普段何のモデル使ってる?
自分はwaifu1.3だけどスレを見る限りNovelAIリークが多そうな気がする >>492
NAIleakとStableの1.5かな waifu1.3は学習が難しすぎるのがなあ
1.2とかとりさんまなら通る学習もちょっと油断すると崩壊する HN上手くいかないって人はプロンプトからmasterpiece消してみ AUTOMATIC1111から手順に沿って正しくやればちゃんと反映される
解説やまとめとかで手順抜けてるところが多い
学習させたいデータバラバラで枚数やパラメータ適当にやったって収束できはしないわな 上手くいかない(いついかなる時も学習元データの画風そっくりそのままにならない)
という話で、シンプルなプロンプトなら似るには似る
プロンプトを増やすと崩れていくのはそれぞれのプロンプト自体に他の画風がある程度含まれているからなんだろうとは思ってる キャラぐらいだったらどうやっても学習失敗しないのにと思ったらそういうことか
汎用的なのを作ろうとして悩んでるのな
そんなこと考えたこともなかったよ。何通りも学習すればいいだけじゃん >>498
キャラ学習させるのに使ってるのはTI?HNも併用してますか? DBは強いけど最小でも2GBあるしキャラ作り向きだからなぁ
画風目的でHNで代用出来るなら最小21MBくらいで作れるし魅力だわなぁ
ただ自分の場合DB+HNは汚くなるんで現状オリジナルDBckpt単体が一番良い 1111更新したら、HNの活性化関数がヤケクソのように大量追加されてて吹いたw
おまえらどれが良いかテストしろってことなのかw >>499
DBメインでTIも。HNはやったことない HNは画風?を真似るだけでキャラ学習できるわけじゃないってどこかで見た
キャラ学習ならDB一択らしいがその認識であってる? >>501
こだわる奴らを黙らせるために全部入れたんだろうけど、ReLUで十分だっていうのにな >>504
機械学習の解説あさるとswishやmishが優秀だよという話も出てくるので、
そういうあたりのだけ持ってくるのはいいと思うんだけど
この全部盛りなのはなw どうせ削るだろうし >>501
想像の遥か上を行っていた…
これ全部試すのは流石にシンドイな >>505
んー。精度向上は微々たるもので、速度は3倍遅いと
https://i.imgur.com/GeojF7n.jpg
ReLUでいいモデルができたら、Mishでもうひと踏ん張りしてみるって感じかな >>508
全機能を使いこなせてる猛者とかいるのか?
多機能なのはありがたいけど完全に持て余す >>508
そのサイトのHNのLearningRate設定はいいよね。ステップに応じて小さくする指定方法使える
TIは10倍にして使うと丁度良かった 20枚ほどのイラストをDBに読ませて5000回学習させたけど、あるイラストの構図がかなり濃く出た。
コレは過学習なんかな。適正ラインの見定めが難しい… emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ
ったく使えねぇチンカス童貞がW 1111ってアプデで壊れるか?batにgit pull入れてnightly気分でずっとやってるが壊れたことないわ 先月中旬頃まではpullだけだと動かなくなることがわりとあったような >>1-1000
emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ
ったく使えねぇチンカス童貞どもがW emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ
ったく使えねぇチンカス童貞がW emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ
ったく使えねぇチンカス童貞がW emad mostaqueはインド系だよな
ムスリム?
モハンマドが女装してショタのキリストとアナルセックスしてるAI生成画像の頒布くらいしろよ
ったく使えねぇチンカス童貞がW HNの画風学習、全然うまくいかないからなぁ
皆キャプションどのくらい細かくしてる?1girl,
○○ hair, ×× eyes, △△ dressくらいでいいんかね DB用にcolab上でNAIモデルコンバートしたら4.25GBのoutputフォルダができたんだが、
これ直接Google Driveに作る方法ないかな?
単純にdriveをoutput先にすると中途半端にファイルが作られて止まるし、
colab上に作るとダウンロードに時間がかかり過ぎる… >>525
ダウンロードに時間がかかるってのがよくわからないんだけどDrive読み込んでそのままD&Dじゃ駄目なの? 1111版最近UI崩れっぱなしなんだけど他にそんな話聞かないから俺だけなのかな ドライブとcolab接続して中途半端なファイルになった事とかないし1111のuiも崩れたことないしこういうの見る度ホントに同じ事やってんのか疑問に思う
初期にそこそこ沸いたPython起動できない君が少し成長した姿なのか 初歩的な質問なんですけどdiffusers形式の拡張子って何ですか? 1111は定期的に設定ファイル捨てないとあかんことがある
場合によってはvenvごと捨てて再インストールも
git pullだけじゃ対応しきれとらんのよな >>527
最近追加で入れた方はまとめて作成すると、プロンプト入力欄が拡大と戻る(開業位置を細かく変更している)を繰り返して画面が震えるようになった
けど作成完了とともに戻るので崩れ続けるのとは違ってそうですね
古い方との違いは--xformersありで起動するようになったこととNAI以外のモデルは入れてないくらいだと思う ckptにvaeを外から融合させて内包させることに成功したんやが、これでdreamboothに影響でるんやろか? colabのDBからckpt出力してweb UIで読み込んでも全然うまくいかないなぁ...
colabのRun for generating imagesのpromptでsks girlを指定すると学習自体はうまくいってるんだけど
web UIのpromptでsks girlでやると変な画像出てくる DBって「sks キャラ名」にした方がいいんかね?
いつもキャラ名だけにしてるんだが >>533
読み込ませ方間違えてるんでしょ
手順具体的に書いてみて 初期のDBわかんなすぎてunetのフォルダに入ってるやつ適当にそのまま持ってきておかしいな~って思ってたわ
めちゃくちゃなアホだった >>534
むしろsksで学習させてるのにsksつけなくてもキャラの特徴出るのは過学習やぞ >>537
学習の時点でsks消してキャラ名にしてるってことや
sks入れた方が学習結果が良くなるみたいな声を聞いたから >>535
https://www.youtube.com/watch?v=mVOfSuUTbSg
この動画7分40秒の所まで同じようにやってる
変な画像って言うよりも雰囲気だけは微妙にあるけどめちゃくちゃクオリティ低い絵が出てくる
colabのRun for generating imagesを実行して出てくる絵はちゃんとしてるんだけど... キャラ名だけだと元の語彙と混ざるおそれがあるから
ぎゃぽえ みたいな意味のない文字列(sks)に学習させると聞いた 4chで見たのを再現しようとしてENSDやモデルハッシュまで一致しとるのに微妙に再現できない
隠しプロンプトとかオプションの設定のなんかが干渉してるのかよくわからん
xformerは関係なかった pronptにmasterpiece, best qualityとか指定したらそこそこのクオリティで特徴をとらえた絵が出てきた...
colabのDBでgenerateすると学習元にかなり近い似通った絵が出てくるからそっちの方がいいんだけどな...ckptで出力する際にWaifuDiffusionにマージしてるからそうなるのかな? >>542
サンプラーの問題
eulerかDDIM使え >>543
eulerとかDDIMつかって色々試したけど顔の特徴とか髪の色はなんとなく捉えてはいる
でも髪型が全然違うし構図も違う
colabでgenerateすると構図も学習元と同じだし画力や画風もほぼ同じレベル(というか元の絵とほぼ一緒)なのにckptにしてwebUIだと途端に微妙に特徴を捉えるだけになってしまう >>541
vaeの可能性
現状vaeはデフォルトだとpng infoに書き込まれないからな 逆にみんな上げてるようなアニメアニメした絵が出ないわ
ファンタジーっぽい淡い塗りになる
stepかscale増やさないと駄目か? >>545
リーク版の導入手順そのままやったんだけどみんななんか違うことしてるんかな
個人的にはオプションの強調関係とか、75トークン超えたら云々みたいな設定が怪しいと見てるんだけど
4ch民全員でコンセンサス取れてるような細かい設定があるとも思えないんだよなあ >>547
1111使ってるならバージョンによって出てくる絵が変わることあるよ >>547
そもそもアスカチェックはパスできてるの? >>549
マジですか
後で古いバージョンで再現できるか試してみるしかないのか
>>550
それはできてる
厳密に言うと今の環境では確認してないけれども >>549
それはだいぶ誤解を招く説明かも
1111は確かにバージョンによって設定がころころと変わるけど、それはあくまでも設定の問題であってそれさえちゃんとしていれば出力が変わることはない
相当古いバージョンを使ってるでもない限り >>551
古いバージョンを使う意味は基本的にはないよ
あくまでも設定やモデルファイル他次第
アスカチェックをパスしてるのであれば、あとは何か足りないネガティブプロンプトがあるとかかもねぇ >>551
バージョンによってプロンプトの解釈が少し変わっていて
過去のバージョンだとスペースが先頭に入っている単語は無効になってたり
カンマひとつ増えただけで出力が変わったりしてた
今にバージョンはそういうの訂正して判断するようになったので
書いてあるけど実は無効だったプロンプトが有効になったり
出る絵を変えるために足されていたカンマが無効になったりして
過去の呪文通りの絵がでないプロンプトもたくさんある >>551
厳密に今の環境確認するのが先だろう…
機械は忖度くしてくれないから、誤字すらも再現して指定しないとだめだよ
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair の legged もそのままな >>554
そのアプデもだいーーーぶ前のことでしょ ハローアスカはgithubにある通りの出力が設定通りででる。
webuiのバージョンが変わろうが内部的に動いてるsdもnaiのモデルも変わることはない なので一回やってみたら?現行の環境で最新でも大丈だから ハローアスカ原本
https://i.imgur.com/cM4Xaf8.png
ローカルで生成
https://i.imgur.com/XQvSM03.png
微妙に違うけど再現できないって言ってるのはこんな間違い探しレベルではないんですよね
でもhighres.fix使うからこの差の影響が大きくなるとかなのかな >>556
そうやね
プロンプトもだーいぶ前のものかもね 便乗して聞きたいんだけど、ハローアスカで左が原本、右が自分で出したやつでこれくらいの微妙なズレはどこが原因なの?
https://i.imgur.com/zpnp4Oa.png ハローアスカではなく4chで出てるプロンプトの話だろ ちなみに再現しようとしてるのは4chに22日付でupされたものなんで、そんな前に作られたもんではないと思います
ていうかもう誰が代わりに再現して設定だけ教えてほしい >>538
じゃあsksつける必要はない
てかsksの代わりがそのキャラ名になる
sks入れたほうが学習結果良くなるってのは学習段階の話で、プロンプトに入れたところで意味ない
あと、sks(キャラ名)の後ろにつけるのは、基本的に正則化画像のプロンプト
sksで学習させて正則化画像がgirlなら「sks girl」になる 再現したいやつ
https://i.imgur.com/lpAnKCZ.jpg
自分で生成
https://i.imgur.com/9NkE3zu.jpg
書き込みスクショ
https://i.imgur.com/3cdx0Qn.png
生成したもののメタデータ
https://i.imgur.com/fEiYXKI.png
ちなみに書き込みの中のキャプションは別の画像で、安価先の安価先の画像が再現したいやつとなってます
画像はメタデータは残っていませんでした
以下4ch書き込みコピペ
Here you go anons:
masterpiece, high quality, (extremely detailed face), nsfw, (1girl with red eyes), neon lights in background, facing viewer, squatting, (wide hips), (medium:small breasts) and (puffy nipples), nude and pussy juice and (flashing), (trench coat) and (boots), pubic hair, (wet extremely long black hair with blunt bangs), rain, wet and shiny skin, dripping, wet street and (crowd) in background, lampposts, (smug grin), blush, detailed pupil, beautiful eyes, detailed eyes, sharp eyes, choker, (game illustration:1.25) ((soft lighting:1.2))
Negative prompt: lowres, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, jpeg artifacts, signature, watermark, out of frame, extra fingers, mutated hands, (poorly drawn hands), (poorly drawn face), (mutation), (deformed breasts), (ugly), blurry, (bad anatomy), (bad proportions), (extra limbs), cloned face, censored
Apply in Settings: "upscale latent space image when doing highres. fix"
Check "highres. fix"
First pass size: 512x768
Steps: 28, Sampler: Euler, CFG scale: 11, Seed: 2850305248, Size: 1024x1536
Model hash: 925997e9, Denoising strength: 0.57, Clip skip: 2, ENSD: 31337 こんだけ設定情報あるのにそれでもできないやつはあきらめろよ オープンソースの話ならいざ知らず、割れのNAI再現についてしつこく聞いてくるヤツなんなん? 流石におかしいだろ。 >>573
GitにHowtoあるのに何いってんだ 中古のTesla A100がじゃんぱらにいくつか入ってたけどこっち方面はGeforceより強いのだろうか
vram12GBファンレスに惹かれた >>576
P100?でも取り回しとか対応の情報の豊富さで考えると
GTX3060のほうがいいんじゃないかな~と思う… >>577
P100だったかも
通常のPCIE補助電源ケーブルじゃなくてCPU8ピンが必要ですとか書いてあったから惹かれたけど買えなかった
おとなしく今のGeforceとColabを併用するよ >>573
今更何言ってんだ?
もうだいぶ前から暗黙の了解で普通に話題に出てるわ 電源供給のケーブルだか端子だかがまずいらしいね
もともと耐えられるギリギリの電力だからちょっと折れ曲がってると燃えるとか 制限かけずに普通に定格で回してて燃えるのが当然という姿勢はいかがなものか NAIのdiffusers化までできたからcolab上でDB学習するノートブック探してみたけど、
自前のモデルを学習に使う方法が書いてあるやつって全然ないんだな
コード読んで自分で書き替えないと駄目か >>588
俺はNAIのdiffusers化で詰んでるんだがこれckpt読み込めるみたいだからdiffusers形式にしなくていいのか? >>583
設定弄らなきゃサーマルスロットリング的なブレーキかかるよ
yahooの見出しみたいな見出しに踊らされてる情弱が喜びそうだがな
買えない貧乏人かAMD社員の工作員でももうちょっとっマシな反応するだろ >>585
nvidia純正の変換ケーブルのコネクタ部分のハンダ付けが甘いとかなんとか
GALAXが負荷テストやってたがちょっと緩むと表面温度100℃とか行っててヤバい >>590
GPUのサーマルなんじゃなくてあの独特な電源コネクタな、実際そこそこ被害出てるからワイの4090ビビってる それこそ見出しに騙されてサーマルスロットルとか言ってるじゃんちゃんと見ような
まぁ自分でやって証明するタイプなんかもしれないが とりあえずpower limitかけて絞っとけば流れる電流も抑えられてある程度安心なんでない
定格でも限界近くは電力効率あまり良くない感じだし 4090のコネクタ溶けたのが既にミーム化されてて草
そこまで温度上げないと新製品出せないとかGPUの進歩って停滞気味なんかな
一昔前ならワットパフォーマンス良くなった上に性能ドン!って感じだったのに diffusersより10倍速いモデルが出てきたみたいだな
https://github.com/Newbeeer/Poisson_flow
SDがもう陳腐化しかねないとかマジでAI進化速すぎるだろ… 10倍早いけどメモリは100倍ですとかじゃないといいけど 趣味はAIの研究と技術検証です(キリッ って言えるね Newbeeer? 日本語の情報はまだ出回ってない感じか
>>600
収入が本業上回ったらいいぞ
今は市場黎明期だから技術職として雇用枠生まれるのはもうちょい先だし副業的に経験積むがベスト
まぁ謎のスタートアップがプロンプトエンジニア求人既に出してるけど >>540
すごいどうでもいいけど、ぎゃぽえって単語が頭から離れなくなったわ プログラマーならともかくプロンプトエンジニアの求人ってw プロンプトエンジニアw
スタートアップ企業のくせにTIやHNを知らねぇのかよw プロンプトエンジニアの求人はこれ
掲載日2022/09/07だからNovelAI出る前で、プロンプトエンジニアって言葉はイラストに限らず
AI界隈で引数考える将来の技術者として海外で提唱された言葉だからそっちの引用だと思う
https://www.hireplanner.com/ja/frontend/companies/rinna-Co-Ltd/jobs/%E3%83%97%E3%83%AD%E3%83%B3%E3%83%97%E3%83%88%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%8B%E3%82%A2
三年目のスタートアップとしてはそこそこまともな部類に見えるよ(今年中に潰れるとか悪質ブラック詐欺企業とかと比較して) 時給2000~3500円で草
海外の求人サイトに飛ばされるし
怖すぎだろw プロンプトエンジニアとか数年前からあるし
りんなはマイクロソフトから独立したAI部門の1つだし
この無知アピールはなにか意味があるのか?w データセット作成とかAI界隈は案外裾野が広いんよ
Googleとかもインドに月給1万円で人海戦術してたりする おーほんとだ、コーポレートサイト二つあるのか?
時給2000-3500円は採算化できないのに高すぎると思ったらそういうことか てことは現時点で既に生成関連技術に十分精通してればMSやGAFAに入れる雇用枠あるかもな
大手の方が先行投資してるか まぁプロンプトだけいじってればOKという訳じゃなくて背景知識も要求されるが 逆にどう考えても今のこの分野って世界最先端だからなぁ、枠があって当然だと思う
まぁ本家に入るなら英語とそもそものAI系IT経験水準もそのレベルが必要で、上のスタートアップみたいな分家ならSDやNAI触ってるだけでも相応の待遇では入れるって感じだな
スレチな流れにしてすまんな
>>598,604とかの技術の話に戻してくれい プロンプトエンジニア()とかいう誰でも出来るような物が流行るわけがない むしろ、かなり運要素の強いAIガチャで一定以上の結果を出せと言われるプロンプトエンジニアって恐怖でしかない >スキル・資格
>【必須】
>- AIを用いた文章や画像の作品・コンテンツ作成経験
>- 芸術や文芸の創作活動経験
>- AIに対する興味関心
>- 基礎的なPCスキル
>- 現在日本に在住
>【歓迎】
>- 柔軟な発想力
>- 流行に敏感
>- 英語の読解能力
>- グラフィックソフトウェアの使用経験
創作活動経験必須はまあ当たり前か…そんなもんねぇよ!
歓迎もどうせ必須みたいなもんだろこれェ!
加筆もしてくださいとか言われるのかな なんか、賛否どっちにしても意外と関心あるもんなんだな職業としてやること
専用スレ立ててもいいかもな(話題隔離の意味も含めて) 新鮮でツッコミどころのある話題だから騒いでるだけだと思うんで、1日で収まると思うよ
これが2,3日続くようなら、その時考えればいい SD検定とかそのうちできそう
「違法モデルの使用はやめましょう」は一番最初に習うんだろうなぁ
danbooruタグは試験に出るのかな? ジョークで言ってるんだろうけどそんな検定(笑)できるはずないでしょw キャラ名や作品名が英語にするとあまりにも長いせいでタグ付け困難で再現性低いケースがあるんだよね
多分そのうち対策で作品IDとか作家IDみたいの使って指定みたいな露骨なツールが出てくると思う 半芝つけて特に根拠もないのに「できるわけないでしょw」勢はAmazon黎明期に大多数が「流行るわけないw」って
言ってた人らと同じで、めっちゃ頭悪そうに見えるからやめた方がいいと思う……どの時代でも大抵負ける側だから…… ごもっとも
というわけで立てた、以降は技術と直接関係ないビジネスだの検定だの利用だのはこっちのスレでどうぞ
【StableDiffusion】生成AIビジネス【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1666927372/
今後そういう話題が出たら誘導よろ 1111とかhyの人とかなんか全員合体して統合プロジェクト作る的なことどっかで見た気がする >>630
1111の人ってNAIのリークモデルを使えるようにしたかどでSDの公式からBANされたんじゃないっけ
そんなところと協力して大丈夫なのかね? ここやなんU全部網羅すれば技術知識は頭に残るしな
一日20時間くらいポチポチできる人は短期のプロンプトエンジニア()で需要あるかもな
https://www.itmedia.co.jp/news/articles/2210/27/news128.html ビジネススレ立ってたみたいなので失礼しました<m(__)m> BANについてはEmadが直接1111のリポジトリに謝罪文投稿してる
連絡くれたらBANすぐ解除するとも言ってるけど1111は戻る気はないみたい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2509
またNAIリークのソースを1111がパクってたとかも言われたけど全くのデマだった >>635
ちなみにその謝罪は釣りで
Automaticの返信もただの悪ノリ
それとは別に解決はしてる AUTOMATIC1111はロシア在住とどこかで聞いたから動員されちゃったのかなと少し思う AUTOMATIC1111さんがあの実装を1人でやっているならスーパープログラマーだ JoePenna版のDBでNAIモデル追加学習させた人いる?普通にckpt指定して学習させれば上手くいった? >>642
ckpt指定してキャラ学習させて、それっぽいキャラ出せたぞ ところで、webサービスのdream studio にある CLIP Guidance ってスイッチ、あれはいったいなんなのだ? >>588
こんなのあったのか
でもNAIのckptを指定すると変換エラーが出るから、diffusers化してる部分を
探していじらないと駄目そうだな。ちょっと試してみる 変換用スクリプトをダウンロードしてるところを潰してあらかじめ書き換えたやつをcontentから呼び出して使うようにすればいいと思う ずっとhypernetworkで躓いてたんだが、枚数を20枚から10枚に減らして、関数をreluからmishにしたら見違えるようにうまくいったので情報共有
特に関数の変更は効いてそう
学習率は5e-6で、stepは12000あたりで最初の変化、16000くらいでもう一回変化した Diffusers版のDBってそんな使い方できたの…
学習処理からして全く違うのかと思ってた 本家naiでhighres.fixってやつできない? 本家NAIはデフォルトでhighres fixかかってるんじゃなかったっけ? >>648
レイヤーやノーマライズといった他の設定はどんな風にしたの? 徴兵されたとか言われてるけどデマで単に逝っただけらしい 韓国人かロシア人なの?
後者だったら本当に逝くのもわかるけど ローカルに保存した数千枚の自分好みのイラストを読み込ませて
生成されるイラストを自分好みの絵柄に寄せるってできる? 1111の人はプロジェクトEmiliのUI開発に参加したっぽい >661
絵柄やキャラクターの学習方法
Textual Inversion(TI)
DreamBooth(DB)
Hypernetwok(HN)
特徴と代表的な解説記事の紹介はまかせた >>660
project natailiだった
>>661
TIがいちばん敷居低いけどいずれにしてもGPU買うなり借りるなりとデータ加工の手間とpythonスクリプト走らせる最低限の知識はいるので
かんばれがんばれ(ドカベン)としか ネックになるのが数千枚って話じゃないのか?
img2imgのscriptのbatch processing使えばいい 数千枚てことなら、Aesthetic使うのが楽なんじゃないの? 数千枚も必要か知らんけど >666
わかったことがあったらまとめておくれ
勉強しなくちゃいけないことが多すぎてついていけない >>652
レイヤーはそのまま
ノーマライズは切った
use dropoutにはチェック入れたな 1111の人、兵役から無事帰ってきたみたいやね
アプデあって安心したよ ネタじゃなくマジで兵役だったのか?
とりあえず生きててよかった skynet-diffusion-webuiを開発してたらしいね FANZAはAIだけ審査1ヶ月待ち
DLは登録停止
SKEBは完全禁止かぁ
結構逆風強いね 商売気あるクリエイター重視で看板抱えてマージン取ってる会社はそりゃ慎重になるよ
見限られる流れでも作られたらプラットフォームとして終わりだからな 逆風というかモザイク審査は人力だからね
無駄に枚数多くて単価低くて対して売れないAI作品が避けられるのは当然
モザイク審査AIが出てきたらわからんが >>639
5700XT/Ubuntu 22.04/ROCm 5.2.0で回してるよ >>677
それは原理的に無理
もし出てきたらそれを騙せるヤツが出てきていよいよ見分けがつかなくなって終わる >>675,676,677,679
とりあえずスレチだからAIビジネススレに移動してくれ(経済の話題になってたけど気にしなくていいから) モデルにhuggingface指定してるとこをローカルのに変えれないかなと思って色々調べてるけどムズいな
変数とか関数とか調べながらちょっとずつ理解してるけど字が多いってだけでチカチカしてくるぜ 簡単にローカル指定できたらセキュリティ面でヤバくね?
素直にgoogle drive接続にしとくべし おれ「このマスクペイントしたとこに女の子の全身イラスト描いて~」
AI「おっけ~」
AI「じゃあこのマスクの外に体があると想定してマスクしたとこに顎だけ描くね~」
俺「マスクしたとこに全身描けって言うたやろ!!!!!!」
AI「じゃあこのマスクしたとこにお腹だけ描いとくね~」
俺「なんだこいつぅううううう!!!!!!!」
これ本当になに?…
何か新しい設定とか出来て間違えたことしてる?… そんなもんだろw
マスクしたとこにブラシでテキトーに人を描いとけば勝率上がる >>683
マスク外の画像もすべて考慮にいれ全体としてプロンプトを実現するものだって理解してるけど
挙動をみる限りそんな感じ AUTOMATIC1111で生成ボタンを押した時に前回生成画像を消したいんだけど
何処を弄ればいい?
gradio部分の実装複雑になり過ぎてわからん >>600-620,621-640,641-660,661-680,681-700
アフィアフィ >>689,690,691,692
>>693,694,695,696
>>697,698,699,700
アフィアフィ >>687
そういうスクリプトを書いて、スクリプトフォルダに入れておけばいいね
同梱スクリプトをコピってちょちょいといじれば簡単にできそう
runメソッドでファイル消せばおk ないだろ
FANZA一か月って騒いでたの1、2週間ぐらい前だから今は二か月待ちとかじゃね?w >>682
確かに言われてみればそうだわ
Gドライブ指定だけだったら出力とかで既に指定されてるやつの真似すれば出来るんかな、やってみよ >>693
何したいのかわからないけどこれじゃ駄目なの?
import gdown
gdown.download('https://drive.google.com/uc?id=1から始まるURL部分', 使いたい.ckpt', quiet=False) >>694
ありがとー
使いたいのはdiffuserモデルなんだけどckptの部分だけ削除したらいいのかな >>695
ディヒューザーモデルは詳しくないので、細かくはわからないけど1ファイルであればこれでダウンロードできるよ(共有の設定しないと404食らうかも) from google.colab import drive
drive.mount('/content/drive')
!COMMANDLINE_ARGS="--share --gradio-debug --ckpt-dir /content/drive/MyDrive/ほげほげ" haggingfaceのモデルはブラウザ使えば公式のところ1ファイルずつ落とせる
git的なのでも落とせそうだけど TIの学習だけど、lossがまっすぐは下がっていかない不思議
ひょっとしてこの推移だと数百ステップで十分?2万ステップもやる必要なさそう
ちなみに教師画像は8枚、バッチサイズは1
https://pbs.twimg.com/media/FgR4Ce4VEAAB4uE.jpg >>699
TIって何の略だっけテクスチャなんたらだよね? TextualInversion…TI
Dreambooth…DB
HyperNetwork…HN >>699
TIはモデル内にある既存の特徴から再現してるだけなので限界にすぐ到達するんじゃね?
学習データにもよるんだろうけど HNよりもTIのほうがステップ数が必要と解説する人もいるから、その辺正直よくわからん HNは一瞬で過学習になるってNAIも書いてたな。だから学習率をクソ下げてるとか
attention層のkey,valueを差し替えてるらしいが収束が速い原理はよく分からんな DreamBoothはモデル本体まで変えてしまうから、複数モデルを同時に使う場合はダメ
結局、TIが一番応用できて使いやすい 元モデルに影響がない上に学習が速いDreamBoothも出てきてるみたいだぞ
waifu1.4が出る12月までには技術が成熟してくれるといいんだが >>707
複数モデルのひとつひとつに対してDBしなきゃいけないってこと? 注意しろよ
>TLDR: fed allegedly uploaded ckpt of CP as a honeypot,
anon downloaded it and got a warning from their seedbox who got a warning from Child Exploitation
and Online Protection Command ソース出してくれんとよくわからん妄言にしかみえない >>4090
車だったら全部リコールで回収レベルだよねw メモリ詐欺とか焼死ドライバでも無視した緑がそんなことするわけ無いやろ DBで学習させたあとSDで動かしてるんだけどこんな感じに頭が欠けちゃうんだけどどうすればいい?
((Image of a missing body part)),((Image with body tilted)),(Leaning or prone position)
ってpromptいれて何とか抑え込もうとしてるんだが...
https://imgur.com/a/WcgqFV7 headとかfocus eyeあたりで無理やり上に視点をずらすとか? どういう学習させてるか次第の部分はあるけど 1111の設定で、Font for image grids that have textて、具体的にはどういう指定書けばよいのだ? >>726
俺はLinuxなのでこう書いてる。
/usr/share/fonts/truetype/dejavu/DejaVuSans.ttf
Windowsでも使いたいフォントのフルパスを書けばいいんじゃないか? >>719
3080も登場時に電源周りケチったメーカーがやらかしてたからな… >>727
ファイル名指定だったのね。windowsではファイル名指定だけでいけた >>722
顔のパーツや表情の指示を入れる
ネガティブにhead out of frame
スケールを上げすぎているなら下げる 頭の上切れるのは学習時の画像が512とか指定サイズ外なので中心から見て範囲外を切捨ててるとかもあるかも GPUメモリに余裕があるなら、そもそもの出力サイズを縦長にすると安定するって聞いたな
やってないから噂程度だけど ゲーム中なら気づけるけど、学習に時間かかるから放置して外出なんてしてたら家燃えちゃう AI画像始めようとしたら
パソコンのスペックが低いみたいで生成できませんでした
25-30万くらいでおすすめのPC教えてもらえませんでしょうか
ビデオカードがよい方がいいくらいの知識です
あと素人よりなのでCPUは無難にインテルがいいかなと思っています hypernetworkってcolabで出来ないのかな?
なんかパス貼っても参照ディレクトリがないって言われるんだけど >>734
あ ビデオカード(グラフィックカード)は NVIDIA 製じゃなきゃダメな
これは絶対 コマンドcdでカレントディレクトリ出して/root配下に置いたりすれば
なんか前にパス読み取ってくれないディレクトリがあったからroot配下に移したりした気がする colabはマウントしないとGoogleドライブへの接続は出来ないから、そこら辺でこけてるんじゃね? >>736-737
情報ありがとうございます!
このショップカスタマイズあって便利そうですね
(回し者じゃないよ)
見てみます >>741
グラボはAI目的ならとにかくVRAM(ビデオメモリ)が多いやつが色々出来ることも多い
一番コスパがいいのは3060でVRAMが12GBのやつ、もっと性能が必要なら3090ti
インテルのCPUは型番が12から始まる奴にしとけば問題ない NMKDから1111に乗り換えるぞ!
ってやってみたら毎回環境整備までは上手くいくのに初回のbat起動で二時間くらい待たされてRead timed out……何がいけないんだろうこれは >>742-743
ありがとう
ツクモは知ってた
けどもう一つのサイトも見てみる
3060で探してみます
12から始まるやつで30万以内でいけるかなぁ
アスロックはやめた方がいい?
(使ってるとアプリがアプデ対応してない感じなんだ) >>745
すまんアスロックはわからん 不安なら組み換え出来るから対応してるやつに変えればいいと思う
>>744
エラーメッセージコピペしたらわかるかもしれん
導入はどこ見ながらやった? >>745
ASRockのマザボでアプリがトラブるとかは聞いたことないな
さっきの構成だとツクモだとこんぐらいか
あとはカスタムでOSを下げるかどうか
https://www.tsukumo.co.jp/bto/pc/game/aim/2022/GB5J-C221BRGB.html
あ、でもコレ買って何かトラブルあってもなんも責任とれんから、自分でもよく調べたほうがええよ
3060以上のグラボって熱もすげーし電気も食うから電源を増やしたりCPUクーラーを変えたり必要な場合もある
なので大抵の場合は20↑万になるかもな 2060もメモリ12Gだけどさすがに古すぎる?
VRAM優先でもさすがに3070の方がいい? 何を重視するかによる
学習重視なら2060もあり
本体にRAM積みまくってるとかならwsl経由でDeepspeed使ってvramをカバーする手法もあるけど 生成するだけならVRAM8gbで十分だし学習させるには12gbじゃ足りないし3070でいいんじゃない 誰か言うかなと思ってたけど、例のwikiにベンチマークや検証まで一覧化した
それぞれの機種のNAI向け資料まとまってるよ
このスレはあそこ見てる人少ないんかね >>749
3070を選ぶ意味はないな
AI計算はVRAMを大量に使うから本来はもっと上のクラスのグラボを使うんだけど
3060 12GB ってのはミドルクラスなのにVRAMが無駄に多いっていう変わり種グラボなのさ
だからAIお絵描き界隈では一番無難な選択肢になってる 実際、VRAMギリギリまでバッチサイズを上げたとして、3060と3070ってどっちが早いの? >>747
GIGAZINEのやつ見ながらやった
ログとってなかったからコマンドプロンプトもっかい起動するぞ!
って待ってたらなんか普通に通って起動した!
何故!?
心意気はありがとう! 単に必要なファイルのインスコが終わってなかっただけというオチな感じ >>754
ゲーム用途なら価格に見合った差はあるようだけど、画像生成オンリーならどうなんだろね
さすがに3070のほうが速いんじゃないかな
しらんけど >>758
その3秒差に追加で5万払うかどうかだな
あとは3Dゲームもやるかどうか次第で選択肢も変わるだろうけど、現状よくわからんなら3060、金あるなら3090っていう2択が鉄板なのよな 個別に返信できないけどありがとうございます
自分でも見てみます
ウィキにもあるの了解です
皆様によい子が生み出せますように! wikiだと4090メッチャ推してるけど補助電源ケーブルの融解報告が
相次いでるから今は買わない方がいい >>762
なんかやたら燃えてるって話してたな、なるほど
なんなら追記しとくかwikiに ケーブル曲げて接続すると接点が不均一になってソケット溶けるらしいが
4090がデカすぎてケーブル曲げずに挿すのが困難らしい。まぁそもそも電力食い過ぎなんよ… >>763
GIGAZINEの記事だけどケーブルのはんだがヤバいみたいだから、しばらくは熱気にして性能落とさなきゃいけなそうね
https://gigazine.net/news/20221031-melting-rtx-4090-connector/
断線とか接触抵抗とかで熱が集中しちゃうみたい
Astron結構有名なのにこんなん納品しちゃうんだね ケーブル改善しても同じだろうな。仕様が悪すぎる
だいたい400W,12Vだと30Aだぞ。あんな小さいコネクタにそんな流すなよ
ブラケット部に100-200Vコネクター用意して高圧ぶちこめよ 北森だと変換コネクタが燃えてる原因なので、電源からダイレクトで伸びてるケーブルなら問題ないっぽい 家庭用PCは排熱の問題で高性能化にも限界があるって言われ続けてるし
性能を良くしたら電気いっぱい使うし
そもそも大手がスパコンでやってたようなことだし
SDの公開で軽量化がかなり進んだんだけどそれでもね 12VHPWR対応の電源クソ高いし今後規格がどうなるかもわからんのがなあ
素直に8pinx4とかにしてくれんかね
1200W電源くらいので全て別系統から取れば問題ないだろ ここまで肥大化かつ電気食うと、本当にバスカードだけPCに刺して本体は外付けボックスにしろと言いたいレベル
転送速度の問題とかで、外付けは難しいのかもしれんが冷却も限界だろ 構成に融通は利かんがデルアウトレットは結構安いの出るよ
s://jpstore.dell.com/dfo/config.asp?prod=dimension&nav=all >>759
このベンチはbatch countでの順次生成なのでVRAM活かしきってない
実際ガチャる時とかはbatch size 16とかでブン回してるので快適さに結構差が出ると思う RADEON RX 6600XTでも動くみたいだが
解像度増やすとVRAM不足エラーが出る
VRAM 8GBだから?
逆にRyzen 5 5600GだとRAMさえあれば
VRAMをもっと確保出来るらしく
処理時間はともかく、解像度を2倍に上げても落ちない アスカテストのエラーパターン一覧ってどっかにあったっけ?
前に見掛けた記憶はあるけど探しても中々見つからん AIで3Dもって言うけど性能の制約考えるとまともなものはまだまだ難しそうだな >>775
Troubleshoot Common "Hello Asuka" Errors (Euler)
https://imgur.com/a/DCYJCSX めちゃめちゃ初歩的な質問だけどセーブしたプロンプトってどこで消せるの? ・DBでキャラAを追加学習
・DBでキャラBを追加学習
automaticのCheckpoint Mergerで統合したckptで
キャラA、Bを単独で出力は期待通り。
ただ、AとBを同時に1枚の画像に出そうとするとうまくいかん。いい方法はありますか? >>780
マージしたckptを使って、改めてキャラAとBのTIを作成して、
プロンプトで「AとBがセックス中」とか書くのが最高
面倒だけど >>781
TIですか、やっぱりそうなりますよね。楽できないですね、勉強してきます そもそもhatsune mikuとhakurei reimuを並べて描けるかやってみればいいんじゃない そもそもgirl and boyすらまともに出力出来ないしなあ
適当に雑コラ作ってi2i通す、とかの方が早そう >>785
i2iで結構いい画像ができました、構図はそれで人物は指定して
でも、AIの今後の発展に期待します Waifuで十分なんだよな。普通にcute smiling girls で描くだけでも満足できる
俺の胸の奥にあった邪気みたいなものが抜けていくような感じある
人によって求める味付けが少々違うんだろうけどね
だから他人の「これ!」っていう画像を見ても、フーンてなる現象がある
NovelAIスレのどエロ系などは俺的にはちょっとダメ おいやみは🤟(ぐわしみたいな絵文字)と🦵(足の絵文字)だけが効果が高いってツイートあった elden-ring-diffusion、いきなりけしからん鎧を錬成しおったw
https://i.imgur.com/XtHvGY7.png sd1.5を1111で読み込もうとすると、ウェイトを読み込んだ後で
^c
って出てそこで処理が終わっちゃう
何間違えてるかわかりますか? 軽量版の存在に気づいてそっちにしたらなおった
RAM不足だったようだ
WDはprunedが軽量版だったから... テキストで命令するだけで画像や動画を自動で加工してくれる「Text2LIVE」 - GIGAZINE https://gigazine.net/news/20221031-text2live/
めっちゃ面白そうな技術やんけ!って思ったが
推奨VRAM32GBってなんやねん >>792
ヤミ構文ってなんや、と思ってそのツイート先から色々調べてみた結果、
絵文字のよくわからんプロンプトでニコニコ軍団が大量召喚された
まじか、こんな絵文字でもプロンプトとして成立するんやなぁ…感謝感謝 >>774
Ryzen 5 5600Gでハローアスカ何分かかる? お願いしますバカでアホでうじむしで脳無しな僕にText2LIVEでAVアニメを作る方法を教えてください 大文字のANDで要素合体するやつの解説どこかで見た気がするけどどこだっけ? 大元のgithubじゃないかな。1111のAND部分のソースコメントにurlあったと思う >>774
将来的に深層学習がnVidiaの独擅場ではなくなればコンシューマー環境でオンボ最強になる可能性があるのは面白い DBでキャラを学習させて、Novelで構図作って、inpaintでキャラを反映させるのが
今できる最高の手段かな。 >>803
オンボ最強はとんでもないレベルの技術革新でも起こらないとありえない話
4090の巨大ヒートシンク、ケーブル融解事故を見ればわかるように、PCの性能向上は限界が近い 今後はmjやNAI公式みたいにマシンパワーを借りるのが主流になるのか ずっとリーク版モデル使ってるけど本家NAIは色々変わってたりするのかね 初期設定関係は変わったけど内部モデルは変わらんまま
というかアップデートはしないかもねぇ
リークのドタバタ騒ぎでフリー公開宣言(予定)しちゃったし AppleのM1やM2チップなんかは、3D領域だとNVidiaグラボ超える性能出すこともある
ソースコードの最適化をしまくると現状のM1UltraあたりならNVidia超える性能をSDでも出せる可能性あるよ TrinArtみたいに更新したら旧バージョンを公開するのかも 俺M1 Max 64GBユニファイドメモリで使ってるけど、まあ夢物語だと思うよ
最適化されればといっても、ARMみたいなニッチな環境に最適化するコストも馬鹿にならないし、
1111のサンプラーの挙動が怪しかったり動かなかったりするし
そもそも各種ベンチマークの最大値がNvidiaに遠く及んでない
ベンチマークがNvidia超えて最適化も進めばメジャー環境になるかもしれんがその未来は当分来ないかな NVidia越えるってなんだよそのあやふやな話は。1650あたりなら楽勝で超えるだろw
スペックがこんなだからAI用途でみたら3090や3080より完全に劣ってるし3070以下だと思うよ
M1urtraは
> GPU:最大64コア(最大8192実行ユニット、21TFLOPS)
> Neural Engine:32コア(毎秒22兆回演算=22T演算/sec)
https://www.itmedia.co.jp/pcuser/articles/2203/13/news040.html
よく比較にだされる3090は
> CUDA Core数 10496 (35.58 TFLOPS)
> Tensor Core数 328 (142.33T TensorFLOPS)
3080は
> 8704 (29.77 TFLOPS)
> 272 (119.07T TensorFLOPS)
https://www.4gamer.net/games/527/G052743/20200911024/ ワットパフォーマンスはぶっち切りで高いけど総合性能で超えるもんじゃないよ もちろん現状ではそうだから最適化したらと書いたわけだけど、展望としてはNVidia独壇場ってわけでもないよって話
M1ではまだNVidiaにはかなわないけど、M3、M4となるとどうなるかわからないよ
機器の取り扱いに関してはMacbookのほうが断然楽だし
これだけSDが注目されてるんだから、Appleが力入れて最適化したSDを出してくる可能性だって十分ある
Appleの場合、むしろチップのほうをSDに合わせて最適化してくる可能性だってあるね
4090だと炎上騒ぎでグラボという仕組み上の限界がもう来てる
そこでSoCの効率の良い実装で改良されるとどうなるだろうね? Mac使ってるけどこの分野では現状ハッキリ言ってゴミだよ…
まあ40万くらいのミドルクラスだしハイエンドMacはどうなのか知らないけど
でもNvidiaグラボが使えるPCなら同じ値段でそれなりのハイパフォーマンスを出せるよね
羨ましい 若干スレチな内容になってきたけど、最適化しても無理なものは無理なのよ
Appleに伸びしろあるみたいな書き方してるけどNvidia側も最適化が進むからね
必要なのは絶対的な性能であって、これは長年努力してるAMDですら届いてない
CPUはIntel、AMDが成長鈍化してたから追い越せたけどGPUは無理無理
今までの流れからしてもベースになってるiPhoneのGPU性能が100%上がったことないしM4じゃ絶対無理 ちなみにだけど4090炎上問題はコネクタ側の問題で、グラボ本体が限界なわけじゃないよ >>819
同じでしょう。一番弱いコネクタで現象が現れただけだと思うよ
このスレの流れは面白いからログを保存しておくよ。来年6月のWWDC後に手のひら返さないでよねw
スペックの数字ばかり誇るけど結局、実効性能や使用感でいつも負けるのがAndroidやwin勢だったりすることが多い
グラボサイズや消費電力を考えると、現状で一部マニアしか使えない代物なわけだけど
AI生成の需要が激増するのは必至なわけだから、大きな投資があって不思議はないよね
さすがにスレチだね。ごめん。これ以降はビジネススレで Macユーザーとして俺からも謝っとくわ
信者がすまんな グラボにせよOSにせよ信者は関係ない場所で宗派戦争始めるから面倒臭い 日本語理解できない人には苦痛だろうな…
まぁGPU上のRAMで学習する速度まで追いついたら業務用の手厚いサポート品との格差は埋まるだろうけど
今のところトータル学習速度では全く相手にならないウサギと亀だもんな >>819
同じコネクタの3090 Tiは溶解してないから本体回路原因説も出てる
なんにせよ、性能のために電流を増やし続けたら安全性が損なわれていくわけで
省スペースと低コストも求められるPCでは厳しくなっていく PCに省スペースや低コストが求められるというか、一般家庭にも置く
電子機器としては自ずと許容限界がある、という話だな
瞬間最大でもなく、常時1000W消費とかは流石に厳しい >>827
IBMは数年内とは言っていたけど、マジで早くしないと業界の頭打ち感やばいね 家庭用コンセント自体が1500Wまでで、配線を共有してる回路で2000Wまでだからね
ブレーカー効くから良いとはいえ、あんま攻めすぎると家が発火しかねんよね そう考えるとAI学習界隈においての次のブレイクスルーはまだ暫く先になりそうだね
個人レベルでは、だが >>827
現状の量子コンピュータって特化し過ぎてて、コーディングもできない特殊GUI限定操作だし普通のノイマン型PCでできる処理の大半はできないのよね
代わりに量子コンピュータだけが得意なことは超得意だけど
国内でハイブリッド型研究始めてるから、しばらくしたら複合型が出るかね
それまではやっぱ端末保有よりもクラウド化的なアプローチの方が強いか? 上限で言うと >>829
深セン産のすでに一般販売してなかった? >>833
それにPCを接続して個人で何か出来るわけでもないしなぁ
大型はクラウド特化になって、小型はGPU取って代わって従来のPCに載るだけかもな 業務用だとH100がVRAM300Gって聞いたが
どうなんだろ アニメーターの教育コストと比べれば
家庭用量子GPUでも安くなる日が来るんだろうな >>803
まぁ無理やな…テンソルコアベースでARMも発展してるしオンボとかラデみたいなショボいのは話にならないかもなこれからも 素直に良いGPU買えよ
なんでラデとかオンボでやろうとするんや 一か月ぐらいまえはCPUでDBが普通だったろ。なんとかなる Stable Diffusionとかがどうやって画像を生み出してるのか未だに全く分からないことをくっそ煽られたのめちゃくちゃ悔しいから
画像が散りばめられたなんとか空間からEulerだのEuler Ancestralだのの方法でどうサンプリングしてそこでどうStep数が関係しててどうCFG Scaleが関係してるとかが説明されてるサイト下さい iPhoneやiPadの大ヒットの影響かマカーも増えて来てる気がするけど
そうやってライトユーザーが流れ込んだせいかマカーのバカ率が上がったな
昔は痛いながらも知識のあるマカーが多かったが今は痛いだけで知識もないのが目立つ >>845
https://www.nico-soda.jp/blog/post/20220907_000121.html
ここらへんかな。
画像とテキストの対応づけするCLIP
学習元のデータセットのLAION
AIの学習モデルのdiffusion model >>848
日本語の情報あるんだ……
ありがたいこっちから目通します SD UIでtrain-reprocess imageから「Use deepbooru for caption」を使いたいんだけど上手くいかない...
画像を48枚読ませたんだが其のあとずっとlordingのままなんだわ。 >>851
下手に引数書いてるとメモリがクラッシュするぞ
--precision full --no-half --medvram --opt-split-attention--xformers
このあたり全削除して走らせてみそ マジで大手メーカー電源の設計開発者の友人が「M1はそこら辺のグラボ超える!」(apple信者)とか言っててドン引きした
ちなPCゲームはしないでコンシューマーでFFだけやってるような奴でグラボを買った事すらない
よくあるまとめブログの「RTX3080に匹敵する程の処理速度!(比較意味無し)」とかを額面通りに受け取ってるタイプやわ
地頭で考えればそんな事はないと解る筈なのに洗脳って怖いね Apple Siliconの競合はIntelの内蔵グラフィックGPU
NVIDIAのディスクリートGPUに比べると一桁は遅い 上でも言われてたけどApple SiliconってiPhoneのチップをベースに設計してるわけだから、性能の伸びもiPhoneチップの伸びに比例するんだよね
M1からM2の伸びがベースのチップの伸びとほぼ同じだったしね
そこそこ知識があればiPhoneのGPU性能が2年で10倍も伸びないってわかると思うから、信者というかにわかであるとは思う 話をスレの内容に戻すと、画像生成用途はしばらくNVIDIA一強ってことよね
あまりに一強過ぎるとそれも問題なんでAMDには頑張って欲しいけどNVIDIA強すぎるんよなー AI語りおじさんの次はグラボ語りおじさんか
前者には専用スレあるんだから後者にも作ってはどうか、AIハードウェアスレみたいな 流れが気に入らないなら何か話題振らないと
でもたとえば852話みたいなAI有名人とかの
話はどうせもっと嫌なんでしょ? 一強だと何が問題なのかわからん
GeForceが特別高いとかならあれやけどそんなことないじゃん品質相当のものよ
CUDAで最適化されて万歳じゃん
ゴミグラボは淘汰されて当たり前だろ GeForceはAMDに比べてメモリが少ないからなぁ
安いがローエンドな3600、ミドルハイに近い3080(12GB)、ハイエンドの3090以上、しか選択肢が無い
3070Tiの12GBとか16GBモデル出たら爆発的に売れそうなもんだけどな
AMDはメモリ多いけど画像生成に向いてなさ過ぎで論外なのが悲しいところ >>863
ここは技術的な質問に答えるスレだから雑談NG
雑談は総合スレへ 一強がよくないというのは競争原理とか独占的な話だろ
競争相手がいないと好き放題やられてしまう可能性もあるし会社のモチベも下がるし、基本的にいいことない 別に20年前からゲフォ一強なの変わってないですし…
今更感ありますが??むしろドライバーの成熟だったりRTX最適化とかされてて消費者には悪いことなかったけどな
その程度の話なら数年でなってるわ よくよく考えるとAMDでいいやとかにならないから、そもそもグラボちゃんと買ってる層なんかまたNVIDIAかみたいな感じじゃなくて困ってるやつそもそも居ないんだよな
ゲームするならディファクトスタンダードだしむしろ安心感もある なんでも甘く見て、懸念を見て見ぬふりして
手遅れになった時に後悔する生き方してそう 一強になったら値段釣り上げてくるでしょ
Apple製品で見た >>871
もう帰れよ、まさに今の自分がそうなんじゃないんか?
ちゃんとグラボ買っとけよ >>872
Apple別にシェア的に全然一強じゃないぞ。値段は全部上がってるM1だけじゃなくてIntel NVIDIA AMDもそう円安もそうだし日本から見ると特にな
誤解されてるけどAppleは全然シェアがない(日本のiPhone市場だけ特殊) >>873
現状NVIDIAが最強だと思ってるし自分もお世話になっていますが…
でも盲目な信者ではないのでね、「一強は基本的にはよくない」くらいの普遍的な考え方は持ってるよ この人スマホもAndroidじゃないBlackberryでも使ってるんですかね ゲフォはやむを得ずつかってるだけ
もう値段下がらねえよwwってnVidia役員に煽られてからさらに嫌いになった AppleだろうがnVidiaだろうが
やはり信者はいつだって頭悪いな 金無しは大変そうだね
CUDAで画像生成僕らはしてるんで…GPGPUの技術背景を考えればNVIDIAが偉いとは思ってる
それが嫌ならCUDA使って画像作るようなことしなければ良い。 まぁ生活保護でどうのこうのみたいなやつ湧いてたしこの板はこんなもん 4090なんか30万超えてても飛ぶように売れてるんだからすごい世の中だよな 今さえよければそれでいいを貫いて落ちぶれた国の掲示板って感じでいいね
まさに我が国の縮図がここにある ひたすら底辺がマウントを取り返すスレw
IDにbakaって書いてあるぞいw >>884
こういうのに飛躍して例えるあたり本質的にはこういう人間が一番頭悪いかもしれん 小学生でも思いつきそうなこと言って、お前らは思いつかないだろうみたいな、俺は賢いんだぜでイキってるあたりが底辺感あって良いので続けてほしい
NVIDIAと日本国民には一ミリも影響力いかなそうだけど この板ってかこのスレじゃんw
むしろPCで高い趣味にしか使えないグラボ使って遊んで消費することしか能のないおっさんのスレじゃね?w
本当に 仕 事 あ っ て 稼いでる層はこんなもので遊んでないよw
おっさん達仕事してる?wスマホ課金ガチャからこの遊びに変えたんでしょw
いい年して無駄金は持て余してるニートなんだよねw〇一郎系でしょw
パパママから貰ってるお小遣いいくらなの?w 前々から思ってたけどパチとかにハマってるか絵師()の仕事放棄して遊んでるニート系のスレだよね
住人の気質から妙な所感じてたけどバレてるよw平日昼間にも進行してたのとAIの実態がバレてる時点で察しw
イラスト公募スレが過疎ってここが伸びてる辺りどんな生産性があるのか疑問に思ってたわぁw
あとNGややたら誘導するのも界隈では見られない文化だって知ってる?w元々どこに居たかのかなぁ?w 目障りだからこのスレ目立たないで欲しいなぁw
ゴミみたいなスレ立てたりイキってたりやることなすことイライラしてさぁw
ニートの君達そんな玩具弄ってるより働きなよw
煽ってたアフィももう消えたよw
反社会的だから困るなぁw
それに反社会的な君達に技術なんてないでしょw 無駄金でガチャ弄ってシコってるだけの無産なのに
反社的なコメントして周りに迷惑かけるのやめてもらっていいですか?w このスレは掃き溜めとしての役割が大きい
便所の落書きと言う2ch創立理念の体現スレとしても動態保存すべき あwあとこのスレもイラストレーターに迷惑かけてたんで通報しましたw
君達アフィの元でイキってたよね?w震えて待っててねガチャニート君達w
NGやワッチョイや誘導でどうにかなると思わない方がいいよw反社的行為してたニート君達w
全部記録されてたからねw今のうち畳む準備すれば?w AUTOMATIC1111で「Use deepbooru for caption」を使いたいんだが次のエラーが出る...
ModuleNotFoundError: No module named 'tensorflow'
install自体はここを参照したんだが...
https://www.kkaneko.jp/tools/win/tensorflow2.html#S2 忘れてた頃に一部の馬鹿に開示来るやろなぁ
ほんとアホやで
レーターさん達に迷惑かけすぎた罰やな 何食わぬ顔で続けてるのも関係者と思われるわな
筒抜けやからな
なんも学ばへんからな ギャアギャアと喧嘩してた人々もマジモンのガイジが出てきて黙りこくってしまったじゃないか そっとしておいてあげなよ
時間と金と電力をあちらの国に貢いでる人柱の人達なんだから こんなんでキャッキャッしてるなら微笑ましい方だろ
道具を得たのび太みたいなもん 持たざる者の嫉妬がやばすぎる
ビデオカードくらい買えよ
3万くらいで十分足りるんだから この程度で騒ぎすぎだとは思うな
このぐらいでグラボ揃えて課金して夢見れるならガチャでもいいじゃねぇか
日本人は何も考えず貢献者()になってればいいんだよ イラストレーター様をあまり怒らせない方がいいな、根に持つ方だから(´・ω・`) こりゃワッチョイ必須だな。9割NGじゃんw
>>896
余計なことしなくても勝手に1111がインストールしてくれる
一度環境まっさらにしてやりなおせ イライラしてて不安定なのかな
あんまりヒスらないで、ビビるから
こんな所まで来て怒鳴りたい気持ちは分かるよ >>896
webuiで実行してるpythonにtensorflowが入ってないんだろう
pyenvとかcondaとかやればやるほどPC内にpython環境が別々にできていく
webui.batで実行されるpythonを特定してそこに入れなきゃダメ
無駄なpythonはどんどん消したほうがいいぞ キモい男しか居ないからな、このスレ
絶対に自分の非を認めず謝らない発達男しか居ない
流石与えられた玩具で延々とシコってるガイジだけあるわw
叱られず何もかも与えられてきた人生過ごしてきたかコミュ障のチー牛なんだろうなw >>907
>>909
ありがとう。すでに作ったckptファイルをちゃんと保存してから再インスコしてみるよ。 今AI絵師を煽ってもいいムードに入ったフェーズなんだってな
お客様は良くても金稼ぐのはNGらしいw 欧米でもPixivでもAI絵はハブられて
AI絵師()も呪文教えてくれないからむかつくってよw AI絵でちょっといい感じのを見たら呪文は?って聞くのは お約束みたいなもんだろうな
絵から呪文を逆算できませんか、って質問があったがそういうことか、って思ったよ
まあこれは結構重要で「技術的な」話かもわからんねw >>917
deepdanbooru使えばええやん
法典レベルの大呪文でもなけりゃあれで大体解るやろ inpaintとかi2i通して仕上げるとかモデル混ぜたり自前で追加学習させたりとかあるから
プロンプトだけあっても意味ないケース結構あるんでないの 試行回数が減るだけでi2iやinpaintしなくても作れるとは思う >>853
そしてこれめちゃくちゃ詳しそうで助かります
リンクくださったおふた方ありがとうございます CGいた荒らしてた人アク禁切れたのかまたやってきたのか AIは例えmodelファイルが既知でも出力からプロンプトを逆算することは不可能で
AIの普及は模倣によって発展してきた文化を終焉させて秘匿が当たり前の時代を到来させる
プロンプをワイワイ教え合うなんて黎明期の今だけだと思う そもそも不可解極まりない今のプロンプト構文そのものがなくなるわ
結局は覚えるのも秘匿するのも無駄になる どうせ、TIファイルを売り買いするようになるだろ
非効率なやり方でワイワイするなんて最初だけ だからこそ今の空気感は貴重かもね
すぐに「あの頃が一番楽しかったわー」ってなりそう
ていうか一部ではすでになりかけてるな 何もわからん奴が知ったかぶって「逆算することは不可能」とか言い切ってるの片腹痛いわw
しかもそれに誰もダメ出しできないとかね。烏合の衆だな
このスレに書き込むなら、せめてEmbeddingとVQ-VAEを勉強してから来てくれ
そもそも逆算ができないと、SDは成立しないということくらいわかってから来い ほらあ!!!
こんな感じでバカにされたんすよ!!!!!つい先日!!!!!!!!! ここは技術スレだ。わからないのは当然、みたいな態度でアホなこと書いてたら怒られるに決まってるだろ
アホは出ていけ テンプレにない話を挙げてるようなんだがね。偉そうにテンプレ読めとか言ってるアホは何なの?
アホは死んでくれ。二度と来るな 一応テンプレのとこにtiファイル置き場みたいなページはある
怖いから見てないけど というかテンプレ見て初めてtiがtextutal inversionの略って知ったわ
機械学習 tiでググッても何も出ねえの罠すぎ 公開はあるけど取引はないよね。売買が今の話題
それにしても「読め」みたいな言い方はないな
とにかくアホは厳しく排除していく >>940
お前はスレのレベルが下がるから、勉強してから来いや
アホなこと書くな 誘導して素直に従うタイプじゃないだろ
ワッチョイでNGにして無視するしかないぞ >>942
昔から暴れることでしか自分を表現出来ない子だったわね
まともに生んであげられなくてごめんね
お母さんが全て悪いの
本当にごめんね、ごめんなさい こんな糞スレに時間使うの無駄だな
redditにいたほうが100倍マシだわ
じゃぁな ID真っ赤なのになんの技術的な書き込みしてなくて草 ニワカが!勉強しろ!出ていけ!アホは厳しく排除していく!俺が出ていく!じゃあな!!!
一体彼はなんだったのか 話題変えていい?
見回ってたらプロンプトに記号は意味ないコンマも意味ないトークンの無駄SDの論文書いた奴が言ってるって話を見かけたけどそんなのあったっけ
Emadあたりがトークン枠不足の文句言う前にコンマもトークン1個分なの忘れるなよ無闇に入れるなよって前にどっかで言ってたのは記憶してるけど
少なくとも英文として入れるべき所には入れとかないと長文になればなるほど混ざり合ってダメになる印象だったし
トークン制限が75だった時の他人の作例を見回してもコンマ入ってるのばかりだったはずなんだが >>950
SDの言語分解部分だけ抜いてプロンプトを通したらカンマ単体だけで認識しててさしたる意味がないってのはあったな いやまあ俺はこれが何なのかすら分からないんだけども 今のautomaticだと無視されてない?
,入れてもトークン数増えないような ちなみに記号ってのは+とか@みたいな記号のこと?
🤗みたいな絵文字のこと? こんな設定があるんだからカンマの意味はあると思うよ
Increase coherency by padding from the last comma within n tokens when using more than 75 tokens 意味ない/あるで言えば意味ある
けど、NAIやWDはダンボールタグの影響が強いからタグ羅列でも十分(=意味ない)ってことじゃないかな ,は人が入力しやすいように入れてるんだと思う。
deepdanbooru有効にしてtenserflowとかを入れるとなぜかSDがことあるごとに無応答のなっちまう・・・。
deepdanbooruを使おうとした時じゃなく画像を生成しようとしたりモデルを切り替えたときにさえ………。
システムをバックアップから復元するのに疲れたのでいったんあきらめるわ。 SD1.5でシード固定すると
a girl, black, long hair 黒人だらけ
a girl black long hair 白人中心 お前ら本当にネクラだなwなんかふたば民放蕩させるなw
こんな所で上から目線でイキイキしててもリアルじゃ(´・ω・`)なんだろw 彷彿だわ
このスレで自分はなんでも正しい自治厨としてイキってる有様はチー牛おじさんそっくりだが なんか俺ら技術と才能あるんじゃね?とか勘違いししてるオタクだからしゃーない
こんなの環境揃えれば郎なく男女関係なく誰でも出来る なんか俺ら技術と才能あるんじゃね?とか勘違いしてるオタクだからしゃーない
こんなの環境揃えれば郎なく男女関係なく誰でも出来る 量産型のゴミ判子萌え絵描いて絵師職人様、芸術家様気取って儲けてる奴らが路頭に迷う方が面白いがな お前らは絵師に消えて欲しいアンチ派なの?AIフェチ教なの?教えて >>959は75超えたときに設定したトークン分だけ前を見てコンマが居たらそこを分割点にするっていう
トークン制限拡張用の設定でしょ?
なので75超えなければ関係の無い話で少し意味合いが違うんじゃないかと
>>962のようにやって複数枚出して狙い通りの分離ができてるなら効いてるって話で
ケースバイケースではあるけれども意味がないなんてことはないという認識でいいんだよねやっぱり >>968
いや、俺達プロンプターの方が需要あるんよ ( ´・ω) ふっしぎなじゅもん こーるすりゃー
γ/ γ⌒ヽ (´;ω;`) ウッ…Tiのちゃん…
/ | 、 イ(⌒ ⌒ヽ
.l | l } )ヽ 、_、_, \ \
{ | l、 ´⌒ヽ-'巛( / /
\ | T ''' ――‐‐'^ (、_ノ
.| | / // / スレタイが長すぎるというエラー
【StableDiffusion】AI画像生成技術10【Midjourney】
どこ削る? MidjourneyをNovelAIにしてもいい気がする
この現行スレで具体的なMidjourneyの話した人居た?
NovelAIの看板見て来る人増えそうだけどそこは善し悪し これで行ってみようと思う
【StableDiffusion】AI画像生成技術10【NovelAI】 遅かれ早かれしゃーない
他所の板行き来してるお客さんが減る位だと思うわ 逆にお前はこのスレ全員人間とわざわざ分かりきったことを言うのか? このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 15日 4時間 54分 46秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。