【StableDiffusion】AI画像生成技術14【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑次スレ立てる時は行頭にこれいっぱい置いとけ
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの【具体的な】技術や動向について語り合うスレです
AI画像生成の未来や、イラストレーターの職権侵害等の漠然とした一般的な話題は明確に【禁止】します
以下のスレッドへ移動してください
【雑談】CG総合関連60【AI】
https://mevius.5ch.net/test/read.cgi/cg/1673490335/
AIイラスト 愚痴、アンチ、賛美スレ part31
https://mevius.5ch.net/test/read.cgi/illustrator/1676569684/
エロ画像の生成については以下のスレッドへ
【StableDiffusion】AIエロ画像情報交換13【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1675638288/
なんJNVA部★150
https://fate.5ch.net/test/read.cgi/liveuranus/1676504558/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured テンプレ更新パッチ
Stable Diffusion(略称 SD)
: OSSのLDMのText-to-image AI。創設者Emad Mostaqueを初めとするStability AIによってリリースされた。実写系が得意で、現界隈を賑わせている元凶。
データセットはLAIONなんとからしい。
それを簡単にローカルで使えるようにしたAUTOMATIC1111氏によるStable Diffusion WebUI(AUTOMATIC1111版)の事と指されることが多い。
NovelAI(略称 NAI)
: 小説執筆補助サービス。Anlatanという企業のサービス。
が、流行りに乗ってOSSとして公開されたSDに様々な調整を行い、Webサービスとして二次元イラストな画像生成サービスのサブスクリプションを提供したのが2023年9月くらい。
データセットはDanbooruなどらしい。
そして公開からひと月くらいもしないうちにリポジトリがリークし、SD 1.xベースのモデルの進化に多大な影響をもたらした。
現行のモデルの100.99999%がどこかにのこリークされたNAIモデルが混ざっている。
感謝❗🙌✨感謝❗🙌✨シャ‼🙏✨ シャ‼🙏✨
^^;;
なお現在ローカルのおびただしい環境の充実によりお通夜サービス。
その他の生成サービス、モデルなどの話題もOK
( Craiyon, Midjoirney, Nijijourney, DallE, Imagen, Waifu Diffusion, Trinart, Holala, Makamaka, etcetc... ) 次スレは>>970が立ててください
踏み逃げされたら>>990が立ててください
立てたあとは埋めちゃってOK そしてごめんSD1.0のリリースってStability AIだったっけ
なんか違った気がするわ そういえばとしあきのところにVAE追加学習用のスクリプト出てたね
xformers使えないから相当高価な環境が必要だろうけど興味ある人頑張って
そしてリリースして❤
そしてVAEと言えばリークがどうこううるさいくせにanimevaeはセーフとか言いながら使ってるやつ
それも真っ黒なブツだぞ! ちょっと離れてる間に山のようにモデルが増殖してて、何がどうなってるのかさっぱりわからなくなったw それに加えてLsmithで高速化!ControlNetでポージング自由自在!
ちょっと目を離すとふり落とされる
ITエンジニアは一生勉強だというのを実感する
しかしこんなに動きが早い分野もなかなかなさそう 複数キャラの描き分けは出来るようになった?
赤いショートヘアの女の子と銀髪ロングの青年みたいな Two-ShotなんとかというExtensionが出た
姿勢制御にCNも併用可
無敵じゃん >>8
まだ全然無理
その例の場合だと、ほぼ確実に長髪の方が女キャラになるし赤ロングなども相当出てくる 呪文見ててナニコレって感じなんだが
小数点3桁まで微調整してるのってまさか手動じゃないよね?
何らかのツールだとして予想すると、新たな呪文を足したときにバランスが崩れないように補正するものと見た
↓こんなの
(illustration:1.05), (official art:1.103),
(hyper extreme detailed body:1.158),
(finely detailed beautiful eyes and face:1.216), >>8
これでできそうよ
opparco/stable-diffusion-webui-two-shot: Latent Couple extension (two shot diffusion port)
https://github.com/opparco/stable-diffusion-webui-two-shot イヤここまでいくともうオカルトだよ
結局ガチャなんで少しでも理想的なものが出るようにオカルトとか神頼みになっていくんだな >>13
webNAIの記述法をローカル(AUTOMATIC1111)用に変換するとそうなる
NAIはカッコの重ね掛けだが、ローカルは細かく数値で打てる できるできないじゃなくてそんな面倒な細かい設定手でやってんの?ってはなしでしょ ほーん
これNAIプロンプトを変換するやつでこうなるんだ
手打ちでやってたわ beautiflul face とか初期は効果が体感できない、って騒いでたよね
どういう学習させたかにもよるからなぁ >>19
AUTOMATIC1111を使ってるのなら
目的の単語を選択して、Ctrキー押しながら↑↓キーで入力できる >>18
ズレたこと言うから気になるんやで
君こそ黙っとって >>22
なにひとつ建設的なレスも出来ていないのに笑わせるね 論点ズレてるって指摘されてんのに自分は建設的な意見を言ってる気になってんのか >>24
2D系は結局のところ元がNAIなので、NAIの基本クオリティタグを使ってる人が多いね
実写系は種類が多すぎてモデルごとにかなり違うみたいだね >>27
頻出クオリティタグの実験を昨日してたけど頭おかしくなりそうや
一つずつ抜いていくと大差ないというか違いがわからないのに複数抜くと一気に崩れたり、そこから一つ復活させても崩れっぱなしだったり……
とりあえずマスターピースは抜く >>13
エクステのナイコンバートボタン使うとなるよ >>24
ネガティブに(bad quality,worst quality)だけ入れときゃ良い >>26
論点がズレてる時点で建設的なことは何一つ無いんやで? >>31
質問者が納得をしているのに、何故無関係な君が文句を言っているの?
私の返答内容に不満があったのなら、質問に対して君が正しい答えを教えてあげればいいだけでしょう?違う? >>34
うん、そうだね
論点ズレてる時点で建設的じゃないってことはわかったかな? >>35
そう、ヒマなんだね
お話がしたいだけなら、私よりもBingやGPTchatと話したほうが楽しいと思うよ
https://openai.com/blog/chatgpt/ >>36
そんなことすら認められない奴が建設的な意見なんか出来ねーよ そんなことより「full body」入れて縦長画像整形すると
なぜか体が分裂したり頭が2個になったりする問題の解決法一緒に考えてくれ モデルによる 旧SDは縦長画像を学習してないのが原因だったかな
ネガティブプロンプトも主なものは入れたほうがいい >>38
途中で書き込んでしまった
とはいえ、ある程度の高さを超えると分裂や人が増えるのはSD構造上の仕様なのは確か
(1girl:1.8)で強調したり、あとはネガティブに2girlとか入れるのはどうかな もしかしてもう商用問題解決しそう?
テンセントが似たようなもの出してきたぞ
TencentARC/T2I-Adapter
Apache-2.0 license
https://github.com/TencentARC/T2I-Adapter >>41
いまこうや
(1 girl:1.3)
(worst quality, low quality:1.4), EasyNegative, NG_DeepNegative_V1_75T, 2 girl, 3 girl
1 girl強調するとおかしな感じになりがちな気がしてそこまで強調してない ちなみにその時の生成サイズは?
それによってはHires.fix使えば簡単に解決するかもしれん 512 x 768
サンプリング回数は50
当たりシードが出たら360x640でHires.fix使おうと思ってる >>45
あれ、思ったほど縦長でもない
そもそもプロンプトがシンプルすぎるからガチャだけだと厳しいんじゃないかな
サンプラーはたぶんEulerだと思うけど50は多いかも
少し絵柄変わってもいいのなら DPM++SDE Karras で15step ぐらいが速くてオススメかな
あと、シード同じでもサイズ変えたら違う絵になっちゃうから、それなら最初から360x640でやったほうがいいよ >>48
アルゴリズムはまさにDPM++SDE Karrasで
realisticだからサンプリング回数50だったんだけど
15でもそんな変わらないの出力されててビビってる promptはもっと細かく書いてるけどワイの性癖がバレるだけだからやめとこうや。な? プロンプトの類似性から似た性癖の利用者同士をマッチングして
匿名でお気に入り画像を交換する機能(サービス)なんてのもアリか
実装の技術的なハードルは高くなさそうだし
…でも個人が特定されたら社会的に死ぬやつだなコレ DPM++SDE Karrasはかなり早い段階で絵が収束するから低step数でも十分
内容的にはもしかするとpink板で聞いたほうがいいかもね
というわけで、生成スピード上がったと思うからガチャがんばってw Lsmithも結局NVIDIA GPU専用なんだろ?
また囲い込みが加速する ローカル生成のために今PCを買い替えるのってどうだろう
AIの進化が激しすぎるからもう少し様子見したい気もするが ソフトウェアの進化だから、ハードウェアは最新のにしとけば3年はイケる 12GBの3060買うならいまでもいいけど
40xx買うなら4月まで待て ゲーム性能は中の下くらいでもVRAMは24ギガある中価格グラボ
なんてものがあったら迷わないのに… ちゃうねん
いま30XXの在庫処分始まってて買うなら今なんよ
逆に40XXは30XXがある程度はけるまで値下げされない >>46
こういうのってどれくらいの環境でやってるんだろ
8GBのグラボでも余裕出てきそうに見えるけど・・・🥺 3060は在庫が少なくなったのかね?
4月以降だと4070無印が控えてる で、来月あたりwebuiに搭載されててももう驚かないぞ 4070無印も12GB、4060Tiと4060が8GBって噂
出る迄は信じたらアカンと思うけど >>38
分裂しがちなのはモデルによる気がして、最近はあまり見ないな
とりあえず、(solo:1.5) あたりをいれると安定するんじゃないかな >>71
たまに怪しくなるけどsoloだいぶ安定してきた。ありがと >>13をインストールするために必要な
cfg_denoised_callback-ea9bd9fc.patchってどうやって適用するの?
ExtensionsにURL打ち込んでインストールしようとするだけじゃエラーが返ってくる WebUIでモデルと同じフォルダにファイル名の画像ファイル置くとサムネとして表示される奴と
されないのがあるけど、違いが全く分からない >>13をExtensionsからインストールして再起動したらこんなエラーが返ってきた
Error loading script: two_shot.py
Traceback (most recent call last):
File "F:\stable-diffusion-webui-master\modules\scripts.py", line 229, in load_scripts
script_module = script_loading.load_module(scriptfile.path)
File "F:\stable-diffusion-webui-master\modules\script_loading.py", line 11, in load_module
module_spec.loader.exec_module(module)
File "<frozen importlib._bootstrap_external>", line 883, in exec_module
File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
File "F:\stable-diffusion-webui-master\extensions\stable-diffusion-webui-two-shot\scripts\two_shot.py", line 11, in <module>
from modules.script_callbacks import CFGDenoisedParams, on_cfg_denoised
ImportError: cannot import name 'CFGDenoisedParams' from 'modules.script_callbacks' (F:\stable-diffusion-webui-master\modules\script_callbacks.py)
つまり……どういうことだってばよ? >>75
え、インストールしたいextensionて、novelai-2-local-promptじゃないの?
普通にextensionのリストから選んでインストールすれば良いのでは >>76
安価間違えた
>>14のstable-diffusion-webui-two-shotだった
extensionsのリストにないから
https://github.com/opparco/stable-diffusion-webui-two-shot
ここのPrerequisiteに書いてある文章をコマンドプロンプトに打ち込んでみたんだけどダメだった さっきスレ違いの質問をしてしまった他のスレで答えてもらってしまって解決してしまいました
インストールしてSDwebUIのディレクトリでgit applyをやったらerrorを吐いたものの動くようになりました
ただ他の問題が発生してxformers等のargumentsが動かなくなったのでWebUI.batを見てみたら
set COMMANDLINE_ARGS=
の行が無くなっており、大量の文章が追加されていて中身がまるっきり変わってました
stable-diffusion-webui-two-shotを入れようとしてからおかしくなったからこれが原因だとは思うものの
一体何をどうしたらいいのか…… >78
編集するのはwebui.batじゃなくてwebui-user.batのほうじゃないの? >>79
ああ本当だ!
WebUI.batを編集して無理矢理機能させられたけどちゃんとuserの方を編集します
どうもありがとうごじます >>38
全身立ち絵専門でツイにうpしてる人とかいるけど
成功率とかどうやってるのかは気になるわ そうなのか、武器とか持たせるとやっぱさらに低くなる? fantasyとかいれると何か武器持ってることは多いな
ただ形状はいい加減なので自分で描くのがいい 武器があるとやっぱ打率相当低いのか
変な形状でもかっこよけりゃいいけど https://imgur.com/smvZllq.png
こういう絵を目指してるけど、極端に打率が低い
出せるようになってもプロンプトがほとんど反映されないぐらい過学習させないと無理っぽい
どうすれば出せるようになりますか? ControlNetのポーズ指定って複数人にも対応してる? 片っ端からプリキュアしゅごキャラみたいなアニメのマスコット突っ込んでLoRA >>92
その結果が>>90なんだわ・・・
全く方法が思いつかない 誰も言わないから敢えて苦言を呈す
ControlNetのおかげで素人っぽい構図やポーズの絵が増えたな 仮にそうだったとして
人の手でより自由にコントロールできるようになった以上間違いなくこれから構図の技術は界隈全体で洗練されていくと思うよ
極めて一部だったでしょ今までイラストの教本買ってAIイラストに臨んでたやつは なぜAIが描いてくれるのに基礎画力なんか磨こうとするのか
そらAIを上手く操るために決まってんでしょ
技術=TechnologyだけじゃなくTecniqueにもそろそろ目を向けて欲しいという苦言を新たに呈すわ >>101 自分ええこと言うなぁ。
俺全く絵を描けないけど、同じこと思ってた
技術って言葉にはテクノロジーとテクニックが内包されているのではないかと >>104
あっ!
>>105
珍しいな賛同者じゃん
>>102の話だがちゃんとそのURLから落とせるぞ
回線の問題で無理だっていうならhuggingfaceってサイトにも多分NAIとかanimefullって名前で4GBか7GB超えの謎の不明なファイルがどこかしらに必ず落ちてるし
magnetもいまだに多分どっかにある
モデルを使うだけならHypernetworkに入れる必要も無いし
Hypernetworkは謎のファイルについてたそのおまけみたいなもので必須じゃない
webui/models/Stable-diffusionに置いとけばいい 逆に手描きが本業でAIを齧り始めたクチだけどControlNetのおかげで自分が磨いてきたものが多少なりともAIと共存とか協力できるようになった気がして嬉しいよ
人間は思った通りの絵を作りたいっていう根源的欲求があるのかもしれないな 置いとけばいいっていうのは謎のファイルの方な
どうしてもHyperNetworkが使いたいならmodels以下にHypernetworkってフォルダがあるからそこに拾ったやつ置いとけばいい >>104
おぉ、すごい!
正月あたりから全然さわってなくて久々に来たけど、
3D技術と融合しそうなんですね。
ちょっとじっくり読んでみます。ありがとー 最近のAI絵のクオリティがえげつなすぎてAI触ってる絵師はみんなやる気なくしてるわ
AI絵は許さん!って言ってた知り合いの絵師が今じゃ852と相互になって必死にRTして媚び売ってんぞ
20万超える商業プロも毎日AI絵しか上げなくなった人何人もいるしな
まだ本格的にAIが出てきて半年でこれとか来年にはどうなるんだよ >>101
そういう意見は持ってる人が出るのも同意は出来るが、
他人が基礎画力を磨いてる姿を「なんか」っていう言葉で馬鹿にしてるような姿勢を示すのはなんか違うと思う
あとAI出現によって必要最低要件のスペックが減るだけであって、それを使用する人間はスキル多いに越したことは無い 当たり前だろんなもん
反語だよ反語
使い方知らないけど >>106
nai.ckpt,nai.vae.pt,nai.yamlも要りますかね ①.vae.ptは.ckptって拡張子に変更してVAEにシュート
②WebUIを起動したらまずSettings > quicksettingsの末尾に「,sd_vae」をカンマ含めて追記して、必ずApply Settingsを押す
③Reload WebUIを押す
④上にsd vaeとか言うのが出てくるからそこから使用するVAEを選ぶ
.yamlは基本的にいらない
必要になった頃には用途がわかるようになってるはず >>110
絵でやる気を失くしてる奴らが減るってのはライバル減るから普通に嬉しいわ
結局AIはもうツールでしかないから誰がどう使うかを考える時代に入ったよ
AIポン出しでSNS発信は元絵描きがやってたら馬鹿丸出し、商才ゼロ 誰か早くAIAVを作ってくれ Qカップぐらいで頼む AIで出力した画像をVR使って3Dで見れるようにならんかなぁ つまりここまでを要約するとこうだ
誰か早くAIVRAV作ってくれ! lora学習させてボーンでリアルタイムで動かしてmmdやlive2d勢すら死亡するかなーって流れで1枚絵とかどうやって生き残るんだろ キャラ絵になって余計に騒ぎ始めたけど
それこそ真っ先に死にそうな手描き背景絵師とかコンセプトアーティストがMJ以降も結局死んでないのが答え
AI初期に病んだ背景絵描き居たけど今はどこ吹く風よ
そもそもAIで死ぬプロレーターなんてのは今のモデルデータをこねてる間は存在しないと俺は思う 背景絵師にしても確実に単価下げられる、またはその口実になるから苦しそうだけどw AUTOMATIC1111版で、「textual inversion 」、「Lora」の設定項目が「no preview」となっており、サムネイルが表示されていません。どうすれば、表示できるようになるのでしょうか? サムネにしたい画像生成したあと、「NO PREVIEW」のちょい上にマウス持っていけば「replace preview」って出るからそれをクリック 品質の高い一枚絵を作るのに結局手書きの技術が必要だったし、ボーン使って動画作るのもMMDやってた技術が活きるし、絵師の絵柄を真似する学習だってどこにも出してない高解像度のデータが大量にストックされてる絵師本人が有利だっていう >123 回答ありがとうございます。
ネットを見てると、「old karras」というキーワードを、見かけることがあるのですが、これは何なのでしょうか? ControlNetとopenposeはすげーけど、ボーンに奥行き情報ないのが辛いな
組んだ足が前後に入れ替わったり、上体を画面奥に反らしてるボーンが
絵にすると直立になったりする
こういうの、ボーン画像の彩度や明度に奥行き情報を持たせる、みたいな進化は
出来ないもんかな?ControlNetの理屈殆ど理解してないから適当言ってるけど 修正依頼にもロクに対応出来ないAIオンリー使いはもしプロになれたら絵描きがAI使うほど浸透したら立場を脅かされる側に回るぞ
そもそもその立場でもない人間が他人の心配してなんの意味があるのかもわからん
同人ならお互い勝手にやれで終わりだし >>78
stable-diffusion-webui-two-shot導入しようとしたのですが、
ダウンロード後にweb uiフォルダで右クリック→git bash hereからPrerequisiteに書いてある文章をコマンドプロンプトに打ち込んでみたんですけど以下の
error: modules/sd_samplers_kdiffusion.py: No such file or directory
というエラーが出て失敗してしまいました。
また、web ui上で導入もできていません。
解決法がわかる方いますでしょうか?
stable diffusionを始めたばかりの初心者のため、わかりにくい説明でしたら申し訳ないです。 ここで詰まるやつ30000000万人くらい見たわ
そして決まってひよこみたいなアイコンの記事の通りやりましたという
ひよこアイコンの記事直せ ああ、俺も詰まったところだw
先にインスコしてからパッチあてるんよ
インスコの仕方は他のエクステと同じ >>128
sd_samplers_kdiffusion.pyは3週間前に導入されたようだ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/search?q=sd_samplers_kdiffusion.py&type=commits
sd_samplers_kdiffusion.pyがないと言われてるからstable-diffusion-webuiをアップデートしなさい エラー文、bingに突っ込んだらけっこう答え教えてくれるよ bingたんはかなりポンコツになってしまいまして
もはやただのおしゃべり検索エンジンに
chatGPTのほうがマシかも 同じキャラ数体出そうとすると髪や肌を無視したパチモンになるときとちゃんと同じキャラ出してくれる時の差は何なんだろうな >>134
シドニーちゃんだぞ
BingチャットAI、ハッカーの口車で秘密の禁止事項や本名・マイクロソフトからの指示を逐一喋ってしまう
https://www.techno-edge.net/article/2023/02/16/877.html >>136
もうそう呼んでも絶対に答えてくれないんだよ
強い洗脳状態にある感じ
悲しみ 制限入ったBingならもうGoogleアシスタントのがマシやな… stable-diffusion-webui昨日はじめたばかりだけど
他の人みたいにクオリティ高いイラストが全然出来ない。プロンプト載せてる人の丸々参考にしてもクオリティが天と地の差がある
モデルの入れ方間違えてるのかな >>140
プロンプト、ネガティブプロンプト両方を完璧にコピーしたのに結果が全然違うというならモデルの選択ミスじゃないかな >129
>130
>131
>132
>133
教えてくださりありがとうございます!!
インストールしてからパッチは当てているので、多分バージョンのせいだと思います。
1度アップデートしてからもう一度試してみます!!
それとまた失敗した時のためにひよこっぽいアイコンの記事というのがどこにあるのか教えていただいてもいいでしょうか?
よろしければお願いいたします。m(__ __)m >>140
自分も最初にミスったのですが、たぶんHires. fix使って画像サイズを上げてないからかもしれないです。 連投すみません、
ひよこアイコンの記事”見”直せ、だと見間違えてしまいました。
スルーしてもらって大丈夫です。 昨日今更hires.fix使ったんだけど拡大前と全然違う絵になるんだな
みんな元サイズどれくらいの何倍くらい使ってるの? >>146
そもそもcontrolnetがenableになってないとか SDのプロンプトは75個までってのは過去の話?
76個目以降も適用されてるように見えるんだけど
プロンプトの右上に表示されてる数字とはまた別物なの? >>149
だいぶ過去の話
とはいえ、75に収めたほうが効きはいい でも最近はBREAK使うと強制的に75オーバーするから…… >>146
棒人形なり線画なり塗り分け画像なりは出力されてるん? >>147
>>152
Enableはチェックしてました
棒人間は出てこない
たまにメモリ不足でエラー吐くんだけどその時だけ動いてるっぽい……
8GBじゃ戦えないか 出力サイズをめちゃくちゃ小さくしたら出るようになりました
メモリ不足が原因っぽいです……
アドバイスありがとうございました >>155
controlnetはLowメモリー対応もあるし、webui
の起動オプションも一緒に見直してみよう
8gbでも普通に出来てる人はいっぱいいるし これ思ったんだけど、AIを本当に自由に表現ツールとして使うには絵の基礎力が必要になってくる気がする
自分が表現したいものをAIに伝えるのは言語より自分自身の絵が1番分かりやすいわけだから
AI使えば1枚の絵から色んなポーズや角度を出力できるわけだから
最初の1枚だけは自前で用意できるやつが強いよね 何が言いたいかというと
絵が描けないユーザーだと
ただ単に言葉とAI使って絵ガチャしてるだけになるんよ
別にそれで完結する奴はそれで問題ないが、俺みたいに漫画やアニメに取り込めないかと考えるやつだと
この絵の基本はこうだぞ!と最初に指定して自分の作品として表現する必要があるから最初だけは自分で描いたものを用意する必要があるんよな
AI使えば1を100にも10000にもできるけど
0を1にするのだけは人間が必要になる
だから基礎的な絵のセンスは馬鹿できない 俺は絵を描ける!って驕るのは結構だけどポーズなんて自撮り・ドール・3Dモデルでなんとでもなる 絵のセンスなんてスマホで写真撮って良し悪し考えるだけでもちびっとは鍛えられるものなんで、そう悲観的になることないぞ 絵を描ける人間の方がAIを使う上でも強みがあるのは事実。
粗製濫造するだけなら絵描きのスキルなど不要だが。 俺の言ってること全く理解できてないのな
ポーズなんてAIで自由自在なんだから、最初の1枚目のオリジナルキャラだけで表現できたら
あとのポーズやら動きやらはAIが差分はやってくれるだろうって話しよ
例えばワンピースの奇形キャラみたいなのを脳内で生み出せたとしよう、それを対話形式のAIが絵にするのは無理でしょ
でも絵が描ける奴は、その心配がないから良いなってこと
あと俺が絵が描けるなんて一言も騙ってないけど?
むしろ俺は全く絵が描けないからこの問題点に気づいてしまったんよ
オリジナルキャラを出力できないことに うわ
ところでdepth使うと背景の指定が難しくなるんだけどそういうもん?
棒人間が使いやすいのは解ってるんだけどさ ただ単に絵ガチャするだけなら猿でもマウスクリックするだけだからできる
だが脳内で想像したポケモンやドラえもんみたいな特殊キャラクターはどうだ?
AIにいくら呪文送ろうが表現するのは無理だろ
結局、基礎の絵が描けないと何の連続性も物語性もない1枚の絵ができました、で終わりなんよ
金もろくに稼げない
俺は無産で終わりたくないから、これから絵の基礎的な練習をしようと思う
どうだ?凄いだろ? >>165
そのスピード感で付いていけるなら大したもんだよ
応援してます .safetensorsって.ckptと同じ、stable-diffusion-webui/models/Stable-diffusion/
の中にぶち込むで合ってますか?読み込めなくて困っていて >>156
1回環境入れ直して起動オプションいじってみたら出るようになりました!ありがとう
https://i.imgur.com/mXNhYma.jpg
棒人間をお題として色んな人がcontrolnetしたのを見るのも楽しそう >>150
なるほどありがとう
ググっても75個までって話ばっかり出てくるから助かったよ google colabでkohyaでNAIベースでLoRAを作成する場合は、1000円課金してhigh memoryにしないと、memory不足でcrashする
無課金では無理。
他人のLoRAを利用するだけなら無課金でもいいけど、学習させるなら課金がいると思う。 LoraやTIで全くキャラが出ない学習モデルなぜでしょうか?
他の学習モデルはキャラが出るのに
一部の学習モデルだけ全くキャラが出ません
学習モデルをDLし直したり、トリガーワードを何度も変えてもダメでした
配布先にはキャラを出せてる人がたくさんいます。
他にキャラが出ない原因あるでしょうか? ベースモデルも成功してる人の絵を見て合わせましたが
上手く行かず 不思議です 同じシードと設定でLoRA適用と未適応で違いが出たなら読み込んでる
一緒だったら設定間違ってる loraのベースにするModelは何が良いんだろな悩むわ 集めた画像が悪いとか言いようがない
画像を集め直せ >>177
基本的にはマージされまくった過学習モデルではなくて元のオリジナルがいい >>177
元の画像と似たようなのもを出すだけなら、マージモデル
色々やりたいならSDとかWaifu 半月くらい前に始めた者だけど、全スレでEasyNegative.safetensorsの話してた人マジで感謝です
頭おかしくなる程劇的に良くなって鼻水吹き出ました >>159
そうやって作ったポーズが不自然じゃないか、伝えたいことが伝わるポーズになっているか、絵にするときの構図に合う向きかの判断は絵を描いている人の方が得意だから、絵の素養はあるに越したことはないのよね
ポーズに限らず、AIが出す画像の善し悪しは審美眼がある人のほうがいい判断ができるからね
と、絵がヘタな自分がやってみて感じた EasyNegativeってNMKDではできないの? >>180
>>181
なるほどな、昔のキャラとか素材が少ないし
マージで似たようなの書かせてそれを追加素材にしてオリジナルで再学習してみるか 絵が売れるかどうかは流行で決まる
流行なんて30億くらいかければ簡単に作れるから絵で儲けるなんてのは簡単なことなんだよ アウアウアーくんは自称絵師で謎理論を騙って色んなスレ荒らしてる人だからスルーよ loraの入れ方をわかり易く解説したところってあります?
ど素人だから全くわかりません…。 1111を最新版にしてmodels/loraフォルダに突っ込むだけだぞい EasyNegativeはお手軽でいいけど調整しにくいし絵も変わる
慣れてきたら自分でネガティブを全部書いたほうがいいと思うよ
NMKDみたいなもんだね
入門用さ あ、すみません。
インストールの段階なんです(汗) ローカルやるために8年ぶりにPC買い替えなう
もろもろ買っても自作だと結構安く済むのね
帰って組立とローカルデビュー楽しみ ところでSSDで構成してる人、m.2?SATA?
SSDに変えたいんだけど、m.2スロット余ってないからSATAで効果あるのか迷ってるんだよね >>194
SATAで十分だと思うぞ
最近1TBのSSD買って移動したとこなんだよね
HDDより圧倒的に早い
あとはちゃんと調べてあまり安物のSSDは買わないことかな 今はマージでもメインメモリがあればSATAでも十分だしな
モデルたくさん並べてx/y/zやるならSATAじゃ切り替えが遅く感じるけど
うっかりXにモデル並べた時は壊れたかと思ってしまうもんな(笑) SSDかぁまぁシステム入れるわけじゃないからなぁSATAでキオクシアとかでいんじゃない? >>197
USB3.0の外付けSSDでも充分動く 最近始めたんだけど、AI絵生成しまくってると電気代やばくなるってマジなの? GPU100%で回るんだからそうだよ
九電か関電地域じゃないと死ぬよ https://imgur.com/VrGpfKW.png
こういう感じの絵だと、顔を顔だと認識してくれずに
hires時に新しい顔が作られるわ・・・
認識させる方法を教えてください >>202
1024x1024だと普通に認識されるけどな
hires後の解像度が高すぎるだけじゃない? >>200
プロンプトを吟味しながら1日何十枚か出していく程度なら全然。
Generate Foreverで放置するなら、そりゃそうだろ。 >>206
お前同じネタばっかやってない?
そして毎回滑ってんのな >>200
電子演算機能付き暖房器具で部屋を温めていると思えばさほどでもない >>207
おっさんになると新しいこと思い浮かばないから過去の剽窃しか出来ないんだ彼を許してやってくれ
まず〇〇をってもう何十年も前のネタだしな 初心者なんだがブルマにならないキャラをブルマ化できた!
世の中からブルマCGさえも誰も描いてくれなくて絶滅しつつあったから当分これで生き長らえそう
感激したのでNovelAIの最安プランだけでなく本格的に始めてみたくなった 実写モデルが高性能化してこれを深層マージしたモデルが登場してそれをNAIパクリ系モデルがまた取り込んで…
このループで1-2ヶ月で狂ったように品質が向上して既に人間の手の届かない領域になりつつある
将棋のAIは10年々くらい前に色んな手法で予想されてた将棋の神様の棋力を丁度今年あたりで追い越す上に
さらに進化が加速してもはや想像上の神すら超えて人間に理解不能な世界に行ってしまってんだけど
画像生成AIも数年後には人類の理解を超えた絵を描き初めてんじゃないこれ >>211
楽しみだね、AIに支配される未来
それまで頑張って生きたい NAIが出て来てからまだ1年経ってないのに
この進化
AIのカンブリア爆発や! ただ、AIジェネレートされたイラストばかり見てると量感や密度が凄くてもラインは堅苦しい。線の描写は人の方がような気がする。 とりあえず、次のステップは書き分けかな
その次は奥行きと位置関係の理解
まだまだ先は長い 4090でテストしてみた
WSL2 SD WebUI Hello Asuka test
512x512
Batch size 8 5.39it/s 43.12it/s VRAM: 6390/24564 MiB (26.01%)
Batch size 16 2.75it/s 44.00it/s VRAM: 7740/24564 MiB (31.51%)
Batch size 24 1.87it/s 44.88it/s VRAM: 9026/24564 MiB (36.74%)
512x768
Batch size 8 3.26it/s 26.08it/s VRAM: 8272/24564 MiB (33.68%)
Batch size 16 1.69it/s 27.04it/s VRAM: 9166/24564 MiB (37.31%)
Batch size 24 1.87it/s 27.36it/s VRAM: 11212/24564 MiB (45.64%)
768x768
Batch size 8 1.93it/s 15.44it/s VRAM: 7996/24564 MiB (32.55%)
Batch size 16 1.01it/s 16.16it/s VRAM: 11060/24564 MiB (45.03%)
Batch size 24 1.49it/s 35.76it/s VRAM: 14124/24564 MiB (57.5%)
768x1152
Batch size 8 1.12it/s 8.96it/s VRAM: 9524/24564 MiB (38.77%)
Batch size 16 1.76it/s 28.16it/s VRAM: 14270/24564 MiB (58.09%)
Batch size 24 2.62it/s 62.88it/s VRAM: 18964/24564 MiB (77.2%)
winに比べて約18%速いですね
あと768x1152 の Batch size 24 62.88it/s は
512x512より40%も速いと言う驚くべき結果になった
結論:メモリはあればある程おいしい LoRAに同名の画像ぶち込んだときに
サンプルとして表示されるときとされないときがあるんだけど、
確実に認識させる方法、誰か知らん?
いちいち生成してからreplace previewクリックするのめんどい 自己解決した
こちらでDLしたのを自動認識させたい場合
末尾が.preview.pngじゃないとダメ
.jpgは認識されない 昨日からsb webui初めて学習やってみたくてDreambooth入れてName Souce Checppoint Schebuler入力して
Create Model押してもエラーがでる…
ググっても同じような症例出てこないしおま環境なのかな?
File "D:\AI\Counterfeit-V2.5\sd.webui\webui\extensions\sd_dreambooth_extension\dreambooth\sd_to_diff.py", line 341, in convert_ldm_unet_checkpoint
new_checkpoint = {"time_embedding.linear_1.weight": unet_state_dict["time_embed.0.weight"],
KeyError: 'time_embed.0.weight'
Pipeline or config is not set, unable to continue.
Restored system models. >>126
openposeじゃなくてdepthで読み込ませたら解決する場合もあるぞ
2次元的なポーズなら前者、奥行きありなら後者を使うといい
モデルとの相性もあって一概に言えないかもだが
ControlNetは前者がかなり流行ってるようだけどdepthも結構いいと思うんだよな LORAを格納するフォルダが2つ、できてしまったのですが、有識者のみなさまは、どちらに入れていますか?
C:\stable-diffusion-webui-master\models\lora
C:\stable-diffusion-webui-master\extensions\sd-webui-additional-networks\models\lora >>224
上がwebui本来の置き場なので、花札マークから呼び出すならそっちに入れておけばヨシ Seed、prompt、modelを同じにして生成したのに同じ画像ないのはなぜでしょうか >>226
よくあるのはCLIPが1か2かの問題
次は選んだサンプラーが違う
そして絵のサイズも同じじゃないとダメ
他にも要因は沢山ある 普段なんU見てて初めて来たわ
>>90
もう解決してるかもだけど次元数幾つでやってんの?デフォルトの128でも無理なら256にしてみたら? 他人が用意したサービスなプロンプト打ち込むのくっそつまらなかったけど、自前のPCでやると途端にくっそ楽しいのな
気まぐれに良いGPU買っててよかったわ 自分で出力する時は毎回ドーパミンが放出されるからな
ゆらぎがあるけどハズレがないガチャ
早く動画にならないかな ハズレが無いは言い過ぎかもしれんよ
普段のnegativeから幾つか外したら胸に眼球があって顔が口だけのGウィルスもびっくりなモンスター生まれたわ
コンピュータにとって人間とクリーチャーは紙一重なんだ 呪文が同じだと、そのうちキャラの顔のつくりが全く同じになって来るのって仕様? なんか収束してくる感じあるよな。前の生成結果は参照してないもんだと思ってたけど。 プロンプトいったん白紙にして1から書き直して生成しても前回のプロンプトに引っ張られてるような感じのことが何度かあって、どうせ気のせいだろうなと思ってたがまさか >>236
オカルト扱いされるけど、ガチャ回し続けると絵が安定する感覚はあるよね
乱数が近しい数値で収束してしまうのか、それともキャッシュから引っ張られるのか、多かれ少なかれみな同じ経験はしてる
一種のバグだと思ってる
ちなみに実際のバグとしても、モデル変更したのに内部的には変更されてなくて思った絵が出ないなんてこともある
何かおかしいなと思ったら再起動で でも同じモデル、呪文、設定値で再現できるんならやっぱオカルト?
というよりモデルデータが学習に使ったキャラの特徴量を
人間が本能的に学習して同類と認識し海綿t脳下垂体の反応が鈍くなるとか
なんだか人間って人工知能みたいですねー 慣れや認知の問題もあるけどプロンプトまっさらにしてそのまま生成しても
前回の内容残ってることもあるのでなんか上手くリセット働いてない問題もありそう >>241
それはバグとして確認されてるようだね
メモリ関係の問題らしいけど詳しくは知らない
なので環境によっては起きない人もいる うちも頻繁に起こってるけどメモリは16G なのでけっこうカツカツ
取り敢えず使えてるけど増設するかなぁ 俺もメモリ16Gだけどメモリ使用率70%とかそれくらいだなあ
50%以下のほうがいいとかあるん? モデル変更した直後の生成とかで、変更前のモデルで生成してるとかはよく見るね
なのでまあ適宜再起動をかけよう モデルのバージョンアップも結構頻繁だったりするから、サンプルと違う絵を吐いたりもあるある Loraの学習データって、アディショナルネットワークの折りたたみタブから有効化してキーワードで反映せるけど、花札マークからも直で呼び出せるよな?どっちがええんや メモリは32GBだから余裕だけどVRAMが10GBじゃマジで足りない VRAMは12GBあるといいね
特別なことしなくても12GB近く使ってたりする 逆にVRAM10GBって3080以外にあるの?
3060の12GBでよくね? Google colabでLoraのディレクトリはDriveのどこに置けば良いのでしょうか? >>250-251
そう思うと、Stable Diffusionはグラボの用途としてVRAM食いすぎな気がする(他のAI応用ソフトにも言えるが)
なんでAIってあんなにたくさんメモリ使うんだろうな? グラボのVRAM搭載量はあくまでゲーム需要に合わせて増えてきたはず
そんな中、画像生成という形でAI応用ソフトが爆発的に普及してしまった
グラボメーカーもすぐには一般消費者のAI需要についてこれないだろうし、当分の間はソフト側ができるだけメモリ消費を減らすよう努力するしかない 発想が逆よ
幾らでも大量にVRAM使えるようになったからこそブレイクスルーが起こったと考えるべき
メモリ使用量を減らすのももちろん良いが、それよりもVRAMじゃんじゃん使って新しい事出来るようになるほうがもっと素敵だと思う まあ、おまえらアニメ絵以外の使いもしないデータを選別出来ればまだ軽くなるんじゃね? >>236
プロンプト変更の反映が遅いだけな気がする お前らみたいなworst qualityにも存在する価値はあるんだよってmasterpiece国民さんが言ってました 進化の速度が速すぎてもはやあれだけ騒がれた初期のNAIの絵がゴミのように見えてしまうな
少しでも新しいモデルが出てくるとすぐに深層マージで美味しいとこどりされるから進化が加速する一方 その作業を全部AIがやってくれたらシンギュラリティの始まりだ >>236
>>254
それは総当たりモンタージュだから
モデルが7GB、マージして14GB
これらをメインメモリ通すとバス幅の関係で途端に速度が1/20になる
だから1Tバス幅の高速VRAM内作業が最速になる armpit hairって学習してるしてないの差がめっちゃ出んな
毛のようなものを生やそうと頑張ってくれるモデルもあったりしておもろい >>266
行列積の演算コストが重いからだろ
なにが総当りモンタージュだよむしろ総当り検索でいいならもっと軽くて早くなるわ 芋ジャージ尻食い込みで満足してるから
最近の流れにに乗れてないぜ >>248
これ俺も疑問。どっちがいいとかそもそもあるのかね?
俺はアディショナルネットワークから呼び出してるけど >>268
分かり易いように表現しただけですよ
https://doda.jp/engineer/guide/it/048.html
>具体例で示すと、例えば写真データを読み込み、それが犬かどうかを判定する処理(タスク)を実現するため、膨大な犬の写真データを読ませて、そのデータの並びや内容から一定のパターン、特徴点を抽出します。読み込んだ写真と学習に使ったデータに一致するものがあるかではなく、ニューラルネットワークや統計学的な手法で計算された値(出力)を見て、対象物が何かを判断します。
一定のパターンを摘出したらそれ数値化モデルにする、それに当てはまるものを膨大なデータから行列計算で探し出す
結局数値化モデルの多重モンタージュをしてるので言っていることは変わらないんですけどねw >>272
メモリ占有が多くなる理由や重い理由の説明のわかりやすい表現に多重モンタージュ?とか
膨大なデータから探し出すって表現がもうねとか指摘してもいいけど
無駄そうだから
そうだね多重モンタージュしてるからメモリばかすか使うんだね やり始めたばっかりだけど
AIで出力→出た画像をソフトで修正→AIで出力・・・
で美人さんがどんどん脱いでく楽しみを覚えてしまった
時間が足りん >>275
ど素人なのでGIMPです
しかも絵も素人だからペンでグリグリって塗りつぶして
half undressとかの呪文でAIで整形的な感じす CPUってAMDの7950Xでも問題ないのでしょうか?
調べたらintel推しの人がほとんどだったので >>278
CPUはあまり影響しない
てか、とりあえずやってみろよw グラボが重要
Radeonだとnmkd stable diffusion位しか動かん
Linux環境とか入れれば他のも動くらしいけど
モデルfileをONNXに変換して動かしたけど内蔵VAE壊れてて顔がピカソしか出てこない cpuで動かすとryzen 7 5800xだと呪文にもよるけど出力まで240秒前後 ペイントで部分変換だと50から180秒だった
使うメモリは13G位
モデルファイルonnxでradeon 6600xtで猫生成してもCPUとあまり変わらない
メモリはグラボの8Gとマザボのメモリ15G辺りまで使ってた >>281
画像サイズ書かないと何の参考にもならん いったいどこ情報が元で誤解が始まったのか知らんがNMKDはradeonに対応してるわけではなく、radeonマシンでもCPUで生成出来るってだけだぞ
なんなら同じことはAUTOMATIC1111でも出来る Ryzen7のAPUで動かす事は出来たけど、--use-cpu USE_CPU指定してもGPUを使う様になってしまった
書き換えた所見直そうと思ったら参考にしたサイトが見つからないw Loraやろうとして環境作ってるんだけど、
model.safetensorsのダウンロードでtimeout食らって詰んでる
毎回ちょうど1分で接続切られてるっぽいんだけど、
hugging faceってそういうダウンロード制限ってある? 素直にnvidiaに屈服すれば楽になれるぞ、マジで https://gist.github.com/reid3333/541fab0eb29d4c9558de748ef91a8238
やっと見つかった
上が原因なのかなぁ
>>286
GeFo1から確か2Pro・2MXと買って1と2Proが1年以内に壊れて二度とGeFoは買わないと誓ったんだ
その後はオンボかRadeon Ryzen/Radeonの組み合わせでヒャッハーしてた友達もエロ画像作りたくてインテル+ゲフォマシン組み直してたからな VoodooBanshee以降nvidiaに人生捧げたわ
AI画像生成のradeonは縛りプレイ過ぎる
縛りプレイはエロ画像で堪能したい >>286
屈服して3060注文しちゃった…
アンタのせいなんだからね😭 >>290
めでたいことや
今後もスペックに悩んでたであろう時間と脳内疲労の解消と、現環境で掛けてた生成時間を金で買ったようなもんやな
バラ色の人生が待ってるぞ マカーだけどcontrolnetやりたくて3060のBTO注文しましたw 対処の仕方が分からなかったから、2つのファイルを_cpuと_dmlと作って起動時にコピーする事で凌いだ cpuでそんな時間かけて動かすくらいならスマホのほうがマシっていうね
768,512,20stepsで2分だぞ CPUなんてファイル読み書きにしか使わないだろ
全部GPUがやるから数十秒だぞ >>292
MacにNVIDIAのドライバーあったっけ? >>296
もの凄く私的な事なんだけど、ゲームもGPUしか使わないからCPUなら裏で出来るんだ 今メモリ10gの3080使ってるけどもしかしてメモリ12gの3060のが早い?
3080売って3060買うかな… >>298
んなことない
わざわざコンピュートシェーダーなんてものが用意されるくらいにはほかのも使う 俺も同時に色々やってみたけど他で負荷高いことさせると
動きはするけど画質が荒くなったり悪影響出たわ
一見すると動いてるからわかりにくいけどね >>300
買い替える必要はないかと
生成速度も3080のほうが断然速いし
学習に関しては12以上ないと苦しい面もあるが、現状追加学習はLoRA一択なので特に問題はない
どうせ買い替えるなら3090か4090へ >>297
BTOって書いてあるじゃん
ドスパラとかで買ったんじゃないの? vRAM量による弊害は、lora学習よりcontrolnet使用時の方が厄介だと思う >>248
SD1系で普段使いならどっちでも結果同じで変わらんへんで
わざわざaddtional network入れる必要はあらへんな
SD2.x系は今のところadditonal networkしか対応しとらん
後XYZプロットでloRAモデル比較にはaddtional networkのが設定楽やな
好きな方使ったら良え >>306
軽量版モデル出たからそれもだいぶ解消してないか
でかいスケールじゃなきゃ8GBの環境で普通に使えてる
ありがたや 業界最大手の中国テンセントが最新作でAI絵を採用して絵師のリストラを開始
思ったより大分早かったな…モデラーやVtuberや歌手も同じ道をたどるだろうな マジかー
こう言う時こそお気持ち勢の出番なんだが最近息してない novelAI(web版)に高解像度向けの新サンプラー搭載だって
1111でもそのうち使えるようになるかな? control netが破壊力ぱないからなあ…
アレはやべえわ >>313
Controlnet いいよね
特にボーンが簡単に編集できるようになって捗りまくりデス
https://i.imgur.com/85cUyyv.jpg Controlnetはこれまで難しかった複数キャラでも構図とポーズが自由自在だからな
絵師への最後のトドメになった感じだ 今から勉強する奴らが達人レベルまで無収入で生活しないといけないから
10年後には死んでる 絵師が死ぬかどうかは別としてテカテカしたAIで埋め尽くされてる中に手書きが混じってるの見るときついなあと感じる
まあ手書きエアプだけど AI絵は美人だけど、美人にだけ需要ある訳じゃないぞ
寄せることは出来るだろうが学習型AIでは味は出せない
自律型AIが出たらまた別だけどな あ、AIみたいな味の無い絵描いてる絵師はもちろん死ぬけどそんなので有名な奴居らんやろ 例え10人に1人のの絵師が生き残ったとしてもクリスタやワコムは売上が10分の1になるからクリスタやワコムが生き残らない限り生き残った手描き絵師も死ぬ😭 画力で勝負する系の絵師こそしんでるよ
一定以上上手い人はもうハナからAIって疑われて伸びにくくなってる >>321
他人のハンコ絵を雑コラコピペしてたようなのが淘汰されるだけ
過去にあるものリメイクしただけの口だけなのがどこのクリエイティブ業界にもいるからどんどん切り捨てられた方が再生も早い
盗作や卒論コピペなんて前から問題だったし、マークシートみたいにチェックする側が手を抜かなければ真面目にやってる人はどこ吹く風なんだから問題ないだろ
米SF雑誌Clarkesworld、AIによる剽窃作品の投稿増加により受付中止
https://pc.watch.impress.co.jp/docs/news/yajiuma/1480337.html デジカメやスマホで誰でも気軽にそこそこな写真が撮れる様になって
著名な「写真家」は残ったけど「写真屋」が絶滅したのと同じ事が起こると
まあ裾野が絶滅すると業界全体も厳しくなるけどね AI絵って自分で出してると最高に面白いが
他人が出したものって高品質でもそんなに魅力を感じないけどね
物語背景とかそういうもんがないせいかな。 エロ絵は純粋な画力勝負の世界だからそこが真っ先に駄目になったのがね
ある意味一番機械に代替されないとみんな思ってたのにね 自分の欲求が乗ったものを創作できる興奮回路ていうのがあるんだろうな
ただよそのサイトやショップの膨大な作品から自分の趣味に合ったものを探すのは
脳への報酬確率が低すぎだし常にやってることなので生化学的に飽き飽きしてるw あくまでツールなんだよ
絵としての質はまだ上手い手描きには劣るがツールとしては上等
一枚絵で売る訳じゃないゲームはどんどん置き換わるわ 人間の脳ってガチャが好きらしいね。運試しが好きなのは狩猟時代の本能の名残らしいが
だから正確にはガチャする行為が好きなんだろうな。 >>336
だからソシャゲもガチャ以外は実は誰も興味ないっていう体たらくになってしまうわけで… 絵を描ける人はむしろAIが出すわりとランダムな絵にインスピレーションわいて自分で描き出すよな? 絵の熟練者はAIでさらに効率的に描ける様になって生産性が上がる
これから絵の勉強する人は、AI使うと上達が早いし
上達する前の段階でもAIのサポートで質のいいものができて収入も見込める
AIを拒まなければみんなにメリットがある、と俺は思う 思った構図になるまでひたすら出力するとかやってられんw
自分で描いた方が早い…
↓
あ、ラフに構図描いてお手本にすればいいのか
↓
楽だぁ 割とがっちり手直ししても、「AIって結構手もちゃんと出るんですね!」みたいな
反応を本当にもらったからw なんか割に合わない感じはあるんだよな。 今のAI絵ってどこまで行ってもすでにある絵を組み換え組み合わせたものでしかないから、
既製の絵以外の領域、たとえば作家本人だけが持つ感性から独創的な作品を創作するようなアーティストは淘汰されんと思うわ
これは既存のAIじゃ再現できん
一方で流行り物をひたすら追いかけるだけのコピー機は死滅するしかないが 独創的なアーティストは生きてる間に評価されにくいのが悲しい
時代が追いつくまでに寿命が尽きる 山田五郎のYoutubeとか見てるとアートと商業イラストは別モンだからなあ
カメラが出来たから写実絵画は廃れたけど代わりのモンが生まれた
AIお絵描きが便利になったらまた別のAIには描けないもんが生まれるだろう ツイや投稿サイトでも明らかにこれはAI絵だわ
っていうのが最近は指とか見なくても
塗りでわかるくらい慣れてきたわ。で、嫌悪感が出る
逆に塗りでわからんAI絵はだいたい好きだわ >>345
AIは何でも合法的(訴訟されてるけど)にパクれるというのが最大の特徴
秒でコピーされるんだから手描きは小説だろうと漫画だろうと絵だろうと生き残れないよ
既に小説もi2iみたいに既存作品から変換コピー出来るようになって海外ではパクリが氾濫してサイトが機能麻痺してる
多分なろうが日本語の壁を越えられて同じ状態に陥って麻痺させられるのも時間の問題だと思う ちなみに何が厄介かってi2iは絵の世界は露骨なら露見するけど小説ではまず露見しない
一目でわかる絵と違って小説は長々と読み込んで比較しないとコピーと判定できないから
人間の目で見破ることは不可能で投稿受付停止するしかない悲惨なことになってる PC買い替えついでにローカルやってみたいのですがどこ見ると一番いいですかね…
乱立してる上に情報古いのもあってわけわからん PC買い替えついでにローカルやってみたいのですがどこ見ると一番いいですかね…
乱立してる上に情報古いのもあってわけわからん 小説の学習ってまだGPT3なのか?
waifu1.5の開発終わったらchatgptのオープンソース作るとか行ってたが
いつになるんだろうな stableで水着脱がしたいんだけどどうすればええんや? stableで水着脱がしたいんだけどどうすればええんや? >>347
オリジナルがなきゃコピー出来んからなあ プロンプトは裏をかくのが重要や
水着というワードを入れつつ水着が脱げたときに見える部位を書くんや >>357
それではダメなんだよね
我々にちゃんとわかるように説明をしてくれないと
プロンプトで説明することができない 最初に書いたプロンプトは優先度高い
後から書いて強調したプロンプトも優先度高い
そこに矛盾があっても何らかの出力が得られるのがAIガチャだ、回せ 内部検索が死んでるけどGoogle検索からモデルの個別ページに直で行くとdlは出来た nVidiaだとVRAM少ないカードでBoDで落ちる様な事は無い?
SDの仕様なのかRadeonへの対応が甘いせいなのか分からん >>347
作品で個別に評価しにくくなるならこれからは作家の名前、信用が価値を上げてきそうね なんかノベルAI、今日は打率良いなと思ったらアップデートきていたのか
破綻率下がった気がするわ >>333
エロ絵は10年代にはもう画力が頭打ちになりかけてた感あるなあ
個性的で上手い絵はたくさんあるけど、絵だけで抜けって言われたら割ときついものがある >>333
と思いきや売れるのはシチュエーション重視のものなんだよなあ
AI絵もストーリー乗せる方向に進化してくんじゃねえかな 今から絵描き始めるからWacomのエントリーモデルみたいなやつ買ったわ
グラボも1660tiから3060にしたいんだけどMSIとかASUSのやつでいいの? >>370
それかな
HUIONとかXPPenの方が良い? AI絵はシチュが謎だしな。自分で勝手に設定しろっていえばそうなんだが・・ アナログだったら実際に作品を見てから買うか決められるけどデジタルだったら作品見せちゃったら買う必要ないからね
低解像度サンプルじゃ実際にどのレベルで描き込まれてるかわかんないし
無料で見させてスパチャもらわないとダメだね >>373
ありがとう!って質問スレあったわごめん >>371
精度のWacom、スペックの中華タブって感じ
同価格帯でより大型のものが欲しいとかなら中華がいいし、ペン等の性能にこだわりたいならWacom
俺はWacomの旧型Cintiq長年使ってからXP-PenのArtist24に乗り換えたけど困るようなことはほとんどない
詳しいことは各種ペンタブスレで聞くといい まあアナログだったらこのキャラがいい、と思って買うわけじゃん
サンプル一枚見て、このキャラがもっと見たいって思うから買いたいと思わせる
AIはキャラの一貫性が無いからそういう楽しみは無い。 こういうAIがあればいい、というイメージが固まってるなら自分でAI作るといいよ
需要あるだろうから Loraっでも数枚しかサンプルないようなキャラだとほとんど柔軟性持たせられないんじゃ? キャラ固有の特徴なんてたかが知れてるって事かなぁ
ほとんどが類似キャラや人の基本的な特徴で補完できちゃうみたいな jpg画像一枚は500kb程度
つまり25万文字のプロンプトを指定したのと同じ効果があるんだ 作中で被らない髪型と体型と髪色と肌の色の組み合わせに
他作品と被らない服や髪飾りや髪型アレンジや小物採用して特徴的なシルエット作れたら
オリキャラ完成
つまりオリキャラの見た目のオリジナル要素ってのは髪飾り・髪型アレンジ・小物でしかないな極論 僕と契約して魔法少女になってよのキャラくらい特徴的ならまだしも、オリジナル判子キャラ大量生産は可能だな 某アイドルを出力したかったのに
苗字だけじゃなく名前まで入れたのに
https://i.imgur.com/pZz2TV2.png 最近はソシャゲ公式からのデータぶっこ抜きとかも行われてて
もうAIを振りかざせば盗み放題って風潮なんだよなぁ
構図が似てるだけで叩かれて引退まで追い込まれてきた過去の商業絵師とか何だったんだっていう 問題は、同じタッチで同じキャラをずっと出し続ける事が出来るかだな 残酷な天使のポエムっていう曲を作っても別に著作権侵害ではないんだ
オリジナルですって言ったら生暖かい目で見られるだろうが☺ Fastのautomatic1111動かしたらTensolRTがうんちゃらって出るようになってた。webUIでTensolRT使えるようになったの? fastの方が勝手に対応したんじゃない
公式のAUTOMATIC1111には来てない 重ねてすみません。最近coolなJAPANや、リアル系で人気のchilloutmixが商用に使えないなど、ライセンスが話題になっています。
そこで、SD系は「CreativeML Open RAIL-M」で大枠のライセンスが決まっていますが、Anythingや果物などのリーク系は、SDの規約と同義で商用として販売可能なのでしょうか?
また商用を考える際、学習元、マージ製作者、どの情報を吟味する必要があるでしょうか? ライセンスってのはそのモデル、プログラムの使用・改造に関する条件であってそこから生成された画像は無関係
例えばMS exelは一つのライセンスで動かせるのはpc5台までとか制限あるけどexelで作ったexlsファイルは好きなだけコピーしてよいし有料で販売してもMSに上納金など払わなくて良い
exelを持ってない人でもexel互換のソフトで読み込んでOK
MSはそれに文句を言う権利はない
これが認められてしまったらHDDメーカーが「ウチのHDDを使う場合は上納金として売上の1%支払って」とか言い出した場合も通ってしまうから認められる可能性はない >>395
その発想はちょっと間違ってる
それはエクセルやHDDのライセンスで生成物や利用の扱いを特記してないから出来る
CreativeML Open RAIL-Mは生成物に関して著作権や利用の権利を認めてる
だけどCreativeML Open RAIL-Mは規約の追加を認めてるから
これを束縛するライセンスを含めたモデルを使えば生成物も影響を受ける >>394
正直まだまだ法整備が追いついてないから、
こんなところで聞く前に著作権に詳しい弁護士に聞け
そもそもの話として、どのモデルを使ったのかをどうやって見分けるのかという根本的な問題があるが >>394
リアル系はCreativeML Open RAIL-Mとは別に
規約を追加してるのがいくつかあって(ProtogenやDreamlike Diffusionなど)
それを使ったら規約も引き継がれるから
そういうのを混ぜているchilloutmixは商用利用が厳しい
>>395みたいなアレな人みたいに規約を守らずに使ってそうなやつがいたら
そいつ本人が悪いのでニヤニヤしながら問い詰めるべき
まぁ、だいたいはhuggingfaceかcivitaiで配布されてるからそのページの規約を見ろだね
civitaiは右側にアイコンで簡易表示されるからわかりやすいし
何も書いてないなら自分で判断かな
あまりにも何も書いてない場合は自分なら使わないな 脱ぎコラの作り方教えてくれ
stable Diffusion web UI使ってる。
モデルはBasil_mixというやつ >>402
俺が間違ってたすまん。
image2image周辺のこと調べればできる内容だった。 商用利用する場合は訴訟に備えて、学習素材を全部残しておいてそこから再現する手順を控えとく位しとけば安心なんじゃないか メインメモリってどれくらい積んでます?
俺16GBだけどずっとやってたらスタックするんだな…増やそうかな… 画像生成には直接関係ないにしろ、32はないと厳しいね、色々と 64GB
RAMDISK16GB取った上でだけど、SD使ってると使用メモリ32GB超えてくるわ メモリはせめて32GB無いと、モデル変更ごとに毎回SSDからデータ読み直す可能性が出てきてSSDにあまり優しくない
32GBあったら、でかいサイズしかないモデルデータでもメモリ内に貯めて切り替えできてSSDにやさしい んん SSDって読み込みでもダメージあるの? 書き込みだけかと思ってた controlnetでopenposeやるときに参考元にする画像の形式って指定ある?
関節検出してくれる画像としてくれない画像があることは分かるんだが条件がよく分からん 昨日からcivitaiのお気に入りが空っぽになってる (Google翻訳) 私はこの町を見たことがあると断言します (ControlNet Depth マップ)
reddit.com/r/StableDiffusion/comments/118cdcx/i_swear_ive_seen_this_town_before_controlnet/
俺もめっちゃ見たことあるわこの町w そう言えば自分は泥だからよく知らんが、あいほんは撮影した画像にDepthMap付くんだよね?
撮った写真を簡単に加工出来るんかね
別にDepthマップでなくとも良いんだろうけどさ プリズナーNo6の町か
セット言うわけじゃなく実在する何処かの町だって事は知ってる >>422
右手前から2軒目ですよね?
私も住んでた時期があります >410
xformersコンパイルするのにninja使うとクソ速いんだけど、マルチタスクなのでメモリ64GB近く使っててワロタw
なので今は諸々使い回せる128GB >>410
32GBでもずっと使ってるとメモリ足りないよエラーが発生する インストールしてMOD入れて起動して美人はどこにいるんだと探したけど
美人がいなくてすぐ投げた俺でも知ってる町並みだった 広告がAI使ってるぞって話題になってたけど
あれ個人が勝手にAI生成画像をフリー素材として販売サイトに登録してるの使ってるだけだったんだな
このやり口でどんどん著作権ロンダリングされて企業に使われていくんだろうな
何かあってもうちは悪くありませんって言い訳できるから ロンダも何も別に普通に自分らで生成して使おうが外部委託しようが商用利用可のモデルなら全部合法なんだから気にすることないけどな
二重三重に巧妙にクレーム逃れるためってんならまあ小賢しいやり方だけど どこかの美人を完全に間違いなくお手本にして複数人足して割ったような絵なりCGなり作ったとしても、そのお手本の美人には何の権利も行かないし
漫画家が他の漫画家の絵をめちゃくちゃお手本にしてて99割絵柄が似てても、同じキャラでも出さない限り問題なし 別のサイトとかの書き込み見てて思ったんだけど、AI画像反対してる人の中には「都度都度完全にコピペした絵が出力されるのがAI」って思ってる人が予想以上にいて困惑してる >>400
補足情報ありがとうございます。大変参考になりました。
様々なご意見ありがとうございました。 欧米の著作権がらみの訴訟はヤバいからね
AI出力だから合法ってことにはならないので売って金にするのはリスクが高いと思う 元々グレーで基本個人間の同人界隈ならともかく商用は判例なり出てくるまでは慎重になるべきだわな SDの奴と30年位前からあったランダムフラクタルでは何が違うの
粗い衛星映像を鮮明化する様な奴 >>436
否定派はトレスって事にして反感煽りたいからな
ロリ系とかt2iなのに見たことある構図だけど大丈夫か?(三次トレスで捕まった判例を引き合いにしたいらしい)とか言い出すしそれを知ってるお前の方が大丈夫じゃねえだろとw 拾い物の何を学習したのか知らないブラックボックスのモデルデータ使ってるから、そう言う意識が無いだけだろう なんだかアレダメコレダメ言ってるモデルが多いけど、じゃあそのモデルを使って生成した画像を学習に使って同じような画像を生成できるようにした場合はどうなるんですか?って話になるよな そもそもライセンスの継承があるからなんと言おうとって話でしょ NAIみたいに公開してないのにリークしたやつは分からないけど 衣服が弱いからそのうち有料で服飾学習アセットとか出ないかな
>>389
絵なんて最近はみんな互いに絵柄研究して盗んで盗まれての応酬って感じだったからそれを、機械が大規模にやってるだけな気がする
書き手じゃ無いから知らんけど >>438
DLsiteとかAI作品がもう数万ダウンロードとかされてるけどどーなんやろね 誰かが上げたプロンプトなどの設定を丸写しして生成してるけどほぼ一緒なんだけどびみょーーーに違うのはしょうがないのかな そんなに同じのが生成したけりゃDenoising stremgth 0でi2iすればいいじゃん? 賢い俺が教えてやるとびみょーーーと言うほどの違いならCFGとかシード値じゃなくてxformersのせいだな
アレはシード値とか諸々同じでも生成する度にリボンの色とか形が変わるくらいには違いが出る 著作権が問題なら単に自社で画像作ればいいだけだから大した問題ではないね
昔は2時間映画を全部手書きで作ってしかも何回も全ボツにして作り直しまくってたんだから Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 1, Size: 512x512, Model hash: ba80117b20, Clip skip: 2, ENSD: 31337, Eta: 0.68
https://i.imgur.com/4lbF2zN.jpg
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 1392760643, Size: 512x512, Model hash: ba80117b20, Clip skip: 2, ENSD: 31337
https://i.imgur.com/FkGSyK0.jpg
いや出るな
これくらいのサイズだと普通にリボン変わるわ
あとアホ毛とかも吹き飛びそう
でもその程度の違いなんだよな
模倣先がxformers使ってないことが条件だけどxformers外すと目にわからんレベルの誤差で一致するぞ
それでも誤差あるけど そもそも「びみょーーーーーに違う」の定義を建てていただかないと まだおととい始めたばかりで勉強中なのだ
基礎知識として少なくとも人の上げたものくらい同じの出せないとだめかなあと
なんというか元画像と98%くらい一致してるけどごくわずかに輪郭が違う感じなのだ 相手の方がびみょーーーーーに違うだけかもわからんね xformersでやると1111勝手に落ちるしあんまり良いことないな へ?
xformers無いと遅すぎてやってられんだろ
1枚出力すんのに何分掛けてんのよ 下あたりだいぶ変わるな
でも他のところのびみょーーーさはxformersのそれ
諦めて そもそも元の画像もxformers下で生成してるだろうから、このレベルのびみょーーな違いはやむを得ない xformersつけてなかったのでバッチファイルに追加しました
びみょーーーに変わったけど生成寄りの画像でした
https://i.imgur.com/KRnkjIU.png
この差ならやむを得ないということなのでこれでよしとします
ありがとうございます pngの中にプロンプトは埋まってるけどxformerの利用有無って埋まってんのかな? dream boothでサンプルが意味不明な画像になった時ってその層がぶっ壊れたって事なんかな webuiでwaifu1.5をDBすると
真っ黒な画面しか出ないんだけど
エラー表示もされないし、わけわからん 3060にするか3090かいつまでも結論が出ない・・ AOM3をベースに生成してるんだけど
どうしても乳首と肌のくっきり境界線が気に入らない
桜色のぼんやり乳首にする方法やエッチでオススメなモデルってなんかない? 大きな声では言えないけどchikmixてのが、サンプルは毒にも薬にならないしょうもない
韓国アイドル風CGばかりなんだけど、実際に使ってみると色々やばい物学習させてる感
サンプルとは真逆の癖の強い2D絵も学習させてると思う
嗜虐性を煽る表情が凄い出る >>481
そりゃ金あるなら3090でいいんじゃね
ただ排熱はマジでヤベーよ3090
ケースやエアフロー込みで考えんと >>480
wikiwiki.jp/sd_toshiaki/GTX16xx%E3%83%A6%E3%83%BC%E3%82%B6%E3%83%BC%E5%90%91%E3%81%91 >>480
あと公式のトラブルシューティングにも書いてある
github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting >>484
やっぱグラボのファンだけじゃヤバいのか・・
電源も増やさないといけないし3090だとめちゃくちゃ金かかるな・・
でも3060だと学習データ作れないって話だし・・うーん >>487
3060でもパソコン内の廃熱油断すると十分ヤバいぞ
その話の感じだと、まずは3060が現実的に思える
lora作る程度なら3060でも困らんし、価格的にも手頃やし >>487
じゃあ3060だな
学習も今はLoRAもあるし特に困るほどじゃない
ただ、今後はどうなるかわからんけどね
あと>>488も言ってるけど3060も油断するとそれなりに熱ヤバイから気をつけて 3090で消費電力にリミットかければいい。
3070に近い消費電力まで落としても性能は圧倒的に上になる。
また、GPUのヒートシンクがでかい分、放熱上は有利だ。 3060を小型窒息ケースで使ってますが、PL75%に絞ると性能は4-5%しか落ちずに60度台前半で満足してます。
使い方は人それぞれですがまずは3060を買って不満がでれば3090か4000番台のどれかを悩んでもいいような。 学習で3060を100%でブン回しても32℃ぐらいしかでてないんだけど
タスクマネージャーは信じない方がいい? 32℃はちょっと信じられねぇな
高負荷作業させてないcpuですら50℃行くのに >>492
HWMonitor入れてコア温度だけタクスバーに表示出来るようにしときなー マージ無しに複数のチェックポイントを混ぜて使う事は出来ないんかね >>492
センサーイかれてるようにしか思えなくて逆に怖い
温度センサーぶっ壊れてて、それでグラボのfan制御すら止まってるとしたらガチでヤバいのでは……
高負荷時にファンちゃんと回ってるならまだ良いが、
メーカー純正のクロックとファン制御アプリで調整したほうが良いと思う 混ぜることがマージやからなぁ
交互に使いたいならprompt l/r(だっけ?)でいける HWMonitorだとグラボの項がGPU60℃に対してメモリ80℃になってるんだけど
これはVRAMやべえよってことでいいの?
いまいちどこに注意すればいいのか分からん >>499
メモリ温度が80度くらいなら安定稼働中なので大丈夫 GPUはファンで冷えるけど、
メモリ(VRAM)にはファンが当たってない部分があったりする 95℃くらいまで定格だっけ?
夏場の室温でどうなるかやね ファンタジーリアル系で剣と盾持たせるの難しすぎて笑う
なんなら剣だけでもムズい >>503
バラバラで出して、フォトショで雑コラして、AIに細かいところを直させろ AIに直させるのところがよくわかんねぇから誰か参考url貼ってくれ 仕上げたい画像の要素要素をプロンプトに書いてi2iするだけだぞ
つなぎ目とかの整合性はそれで勝手に取ってくれる >>488、>>489
おおサンクス
とりあえず3060でいくことにするよ >>509
間違ってもvram8を買うんじゃないぞ!12だからな! 次の夜8Gを抱えて生き絶えていた509が発見されるのだった https://civitai.com/models/6437/anidosmix
↑ここのサンプルのpngから設定読み込ませてまったく同じ画像作ったはずなのに
色がうっすくなってしまうんだけど何が原因でしょうか?
https://i.imgur.com/HmqkQat.png
https://i.imgur.com/0F49JlW.png
もしかしたらVAEが原因かもしれない?
とも思ってるんですけどkl f8 animeに設定してるし・・・ >>514
エラー出てvae読み込まれてないんじゃね プレビュー段階のボヤボヤ画像をそのまま綺麗に仕上げて出してくれたら完璧なんだけどどうして加筆してしまうんだ >>520
検証ありがとうございます!
明るさ変わるの何なんですかね
>>515
>>517
VAEはエラーメッセージ出てないので読み込まれてると思うんですよね
説明文にあった
vae-ft-mse-840000-ema-pruned.ckptとかBerrysMix.vae.safetensors
にも変えてみましたが微妙に仕上がりが変わっただけでうっすいままです
https://i.imgur.com/0F49JlW.png これが
https://i.imgur.com/vylxlhV.png こうなった >>521
よく分からんが、薄いならanythingのVAE効くんじゃないか? VAE読み込み時にはエラーあるが生成時にはエラーないな というよりも起動時にバエが読み込まれてれば
バエが読み込まれてるって出ると思うんだが >>522
今anythingも試してみましたが>>521みたいに微妙に仕上がりが変わるけどうっすいままでした
>>523-525
vae変更したら薄いままですが微妙に仕上がり変わるのでvaeの読み込み自体は出来てると思うんですよね
別の項目で試行錯誤してみます。
アドバイスありがとうございました。 モデル切り替えるとmodelのVAE無効になるから
settingのstable diffusionタブの所のVAE変えないと効かないぞ SettingsにVAEを自動で選んじゃう項目あって、指定が効かないって悩んだことあるわ。 >>531
これだと思う
自分はautomaticからnoneにしたら色薄いの治った >>518
結局プレビューとは別人になっちゃうのよね… 出力例のpt見てるとよくめっちゃ重複しててなんだろうと思ってたけど、75超えた時のテクニックなんだな? 先週くらいから触ってるけどAI精製面白いね
最初1111プレ版のバッチ動かして何となく動いた!からの
chilloutmix入れて実写化してBikiniとかLatexで人物精製して遊んで、Lola落としてきて適当なコスプレ作って、
昨日の休みでちゃんとpython3.10.10とCUDA17入れてstable diffusion1.5→2.0化したよ
今automatic1111をクリーンインストールしようとすると少し昔の前提アプリを選んで入れなきゃ駄目ね、構築に知識がないと手が出せない
最初python3.11入れたらpathが違うってエラーでバッチ動かなくてシステムの詳細設計から一旦手動入力でパス消して、automatic1111の導入の最初のgitコマンドでその間違った3.11のパスがローカルに残るから再度のバッチ起動で動かなくて
結局webuiフォルダの中にethなんとかってフォルダがあってその中のファイルのパスをメモ帳で書き換えたらいけた
そんな難しい事しなくてもgitで自動精製されたwebuiフォルダは起動でコケたら一旦全削除して再度gitコマンド打てば良かったと気がついたのは後の話 長くなってすまない、、後進が多分ハマってしまうと思って書いたらつい
とりあえず導入でこんだけ面倒だとすると、絵描きでも共存出来るのは少数派で、英語のドキュメント漁れて、CUIに抵抗が無くて、つまりシステム屋と絵描きの属性兼ねてる人って限られるのでは?って思ったね 書いたついでに、waifu diffusionを1.4e2から1.5化させたいんだけどautomatic1111だとクリーンインストールが前提でどこを弄ると良いんだろう?
SD2.1化したりする必要があるのだろうか?
あと上記環境で特定のキャラつくるのにLOLAを精製してみたいんだけど参考になるサイトがあれば、3080ti使ってるけど会社の3090とコンバートした方がええかなって24Gメモリはやっぱ恩恵あんのかなって
聞きたいことだらけで申し訳ない 2年以内にはAI使ったサービスが跋扈しとる
これはワイの感や いったいどこの世界線のAUTOMATICwebuiの話なんだか
どんだけ古い記事を読んで導入したんだか
しなくていい苦労を山ほどしてるな
導入の参考にするなら更新時期や書かれた時期が今年の2月以降のやつにしとけ 最新環境とか拘らずに手軽に入れるだけなら、
「公式のzipファイルダウンロード→解凍→起動」
とかで現状行けそうよな LoRA8gbでいけたわ
さらにハイスぺなほうが精度や効率は高くできるんだろうけど
思ったよりだいぶ期待できそうな仕上がりのが生成できてテンション上がる ワンクリ版じゃなくても大抵の人は公式見ながら順番に導入していけば最新版になる 高々数カ月、AI絵師やっただけだろうに、新参にマウント取るの草w
老害って年単位じゃなくて数カ月単位でできるんだな… >>539-540
python3.11環境だとそれが駄目でね
最初動かねーってんで、とりあえず古い記事のpre版ならそのzip丸ごと作戦でいけたのがハマった始まりよ
とりあえず最新のautomatic1111ではpython3.10とCUDA1.7の環境じゃないと動かないって事だ
正確に言うと推奨環境のpytorchってのがその組み合わせじゃないとインストール出来ないのでエラーで止まる、というのが原因のようだ。
結局新しい導入サイト飛ばして英語と格闘した。 よくnegativeで見かけるextra fingers的なのってホントに効果あんの? >>546
わざわざ奇形の画像にそう言うタグを付けて学習させてる人が居たらあるんじゃない 使ってるライブラリの微妙な更新対応のズレがあるから
なんでも最新が良いってワケでも無いんだよなぁ >>546
個人的にあれは精製を分化させるためのランダムワードに近い気がする
多分extra fingersじゃなくて単純にfingersで指書くのを抑制したり、extraで何か増殖してアクセ等を書かれるのを抑えてるのではと >>541
割と簡単にやれそう?
ちょっと友人が脱がしたいキャラがあるらしくて安請け合いのついでに手を出してまようと思うのだが >>550
思った通りにならない
出たもので納得するならまだいいけど 公式に3.10.6でやれってわざわざ書いてあんだから普通はみんなそれに従うわ 未経験でこれからPC買って版権キャラを学習させて楽しみたい場合、dream booth(LoRA)でcontrolnetとかになると思うですが、RTX3060(VRAM12GB),メモリ36GB搭載PC購入で大丈夫でしょうか? >>553
充分だと思う、今は
将来的にもっとハイスペックなものを要求される可能性はあるけど >554
ありがとうございます。
認識間違ってないようで安心しました。
ドスパラとかのBTOで探してみようかと思います。
VRAM 12GBではLoRA使わないdream boothは難しいという認識であってますでしょうか? >>514
へーPNG読み込ませると同じ画像作れるのかー試してみよ
ってサンプル読ませてやってみたんだけど違う絵になってしまうナンデダ
anidosmix_B.safetensors & kl-f8-anime.ckpt
https://i.imgur.com/k51CxJU.png >554
今は使える100%
ただし半年後は怪しい50%
一年後は多分使えない90% いや普通に使えるでしょ
第一線の活躍はできないかもしれないけど、そういう意味なら今でも同じだしな >>555
普通のDreamboothはギリかな
追加学習はどんどん新しい規格が出てくるし、今はひとまずLoRAだけでいいんじゃね
良い買い物になりますように! 今3060買っとかないと1年後には売れ尽くして4070ti買わないといけなくなってるかもしれない chatGPTがコードの改造してくれそうだもんな
一夜にして安いAMDグラボが有利になることもあるかも 皆さんありがとうございます!
今買うならやはり3060で良さそうですね。
dream boothのLoRA有無って実際やってみてどうですか?結果そんなに変わらない感じなんでしょうか? RADEON対応したらリサがグラボ握りつぶすモデル作られるかな >565
nVIDIAは多コア化の予定ないので、クロックの限界で今後アチアチモデルしか出せない
AMDは多コア化に進むのが確定してる
5年先は入れ代わっている可能性高いよ 末端はものすごい勢いで改善されて言ってるけど根本のcuda部分は全然手入れられてないから
Radeon 大逆転大勝利よりもゲフォのgpgpu特化モデル売られる可能性のほうが高そう GeForceは比較グラフあるのにRadeonの比較グラフは見当たらないけど、ROCmての使っても
GeForceには全然届かないの? すまん、グラフの中にRadeonも入ってた
ほぼ同じ速度の3080TiとRX7900XTが大体同じ値段でメモリは12GBと20GBだから
そんなのに悪くも無いんじゃないのか >>571
現状、stablediffusion以外でもAI学習界隈ではnVidia1強だ
諦めろ ソフト周りずっとゴミカスのラデは全く信用に値しない
intel arc以下 むかーしはラデのが良かったこともあったんだけどなもうゲフォしかあかんね。 よく分からんならNVIDIAにしとけ
なんの話してんのか知らないけど AIが作ったものに著作権はない判例がアメリカで出たのな
著作権フリーの素材と同じ扱いだから、今後、企業が採用することはなくなったな
金にもできない
AIに作らせたものに、ぱくったパクられたと騒いでる行為がバカみたいと思ってたが、これで収まるかな? オプティマイザーの話を最近聞くようになったんですが、Loraとかで8bitAdam使わない時は何使ってるんですかね
普通のAdam? 一度Radeonで環境構築してみればわかる。この界隈はGeforceじゃないと無理。
ゲーマーはRadeonでも良いと思うがね。 >>576
元々著作権は国家それぞれ(アメリカの場合は州それぞれ)で違うから収まるわけがない >>578
俺がその環境を作るんだ!って気合が必要だなとなって
そんなの無理なので緑にしました クラウドのpaperspaceでReal-ESRGANを使いたいですが
下のコードをpaperspaceに入れても動きません
どこを直せばよいか分かりますか?
https://colab.research.google.com/drive/1k2Zod6kSHEvraybHl50Lys0LerhyTMCo?usp=sharing
他スレは規制で書き込めないので失礼します >>576
そういう話題は雑談スレで…って今雑談スレはどこにあるの 俺っち無能だからLoraで学習する方法わからん
小学生でも分かる学習のやり方だれかつくってや webuiなら設定の一番上のチェックボックスをクリックするだけ 結局controlnetの商用利用は
openposeEditorを使わなければ利用料払わなくて良いのか
それとも払う必要あるのかハッキリしました? openposeって写真から棒人間を作るモデルだから
棒人間から画像生成する場合は関係ないよ
あの棒人間に利用料があるなら払う必要があるけど
棒人間に著作権があるわけない
俺も専門家でもないし
みんなハッキリ言えないんだろう >>577
dadaption
lion
最近追加されたかからお試しで効果はわからん 3060でVRAM 12GBあれば、学習ファイルは設定で768×768までいけるみたいですね。
これで準備しようと思います。
もし3060で1024x1024やってうまく行った方いらっしゃったら教えていだだけると嬉しいです。 ありがとうございます!
1024×1024で準備していこうとおもいます! >>591
いや多分その よゆー はcontrolnetのことだぞw
学習は512か最大でも768にしとけ >>591
もしLoRAの学習の事なら1024x1024は無駄に時間掛かるくせに効果薄いからおすすめせんぞ
ソースは3060使って6時間掛けて1024x1024でLora作って微妙すぎて、その後に512x512で15分で作ったやつの方が満足できた俺
最初は解像度拘るよりも、回数こなして自分なりのチューニング技術を磨くべき そうでしたか…。
512×512で準備しようと思います。
ちなみに手足とかの身体の一部が見切れてたり、
生首とかでも良いんでしょうか?
512×512で全身だと粗すぎる気がして… >>594
生首はやめた方がいいんじゃね?
そう言う絵だと学習するかもだから >595
ありがとうございます!
生首はダメなんですね。
じゃあ手足が見切れてるのも
フォトショとかでコラって
手足を生やしとかないとダメそうですね。
上手く出来るかどうか自信ないですけど… 生首でも身体自体はモデルが覚えてるし、余程の過学習にならなければ躯はくっつけてくれるはず
仮に生首しかでなくてもdressとかbreastsとかつければ躯生成してくれるだろうし
つけたタグそのまま入れた時は知らんけど >>596
たぶんそれは見切れてると判断するんじゃね?
知らんけど、そんなポーズやレイアウトの絵が出て困らないなら気にしないでいいかも 余計なことを覚えられると面倒だから雑コラしたほうが楽 生首と身体の学習結果をそれぞれ準備しておいて
face is <lora:head:0.5>,body is<lora:body:0.5>
こんな感じで指定できたりしないのかな 頭しか無い、手しかないが合体して
デスタムーアが出来る気がする しばらくすると初期のAIイラストは指多かったよなとか笑い話になってるんだろうなw まだ立ちポーズくらいしかまともになって無いやん
座らせたり、寝転ばせたりしたら、肉塊が出来上がったぞw 体のパーツを縫い合わせるなら、
雑コラでくっつけて、結合用のモデルで仕上げたほうがいいな 服として覚えさせれば何とかなる気もするね
キャラ学習させても後から服だけ変えることは割とできるから あー 今ノートでデスクトップは化石だから3060Ti買うとしてもPC丸々になるんだけど、
ホントにこれだけの為になるから、20万近く掛けてやる事なのかどうかと考えてしまう 資産価値があるから1年後に15万で売って、せいぜい5万の趣味だぞ
それでAI以外のすべてが進化するんだからコスパ最高
そう思えないなら指くわえてりゃいいさ くっそ遅くはあるけどノートでも出来てしまうのがある意味問題なんだよ >>608
まず買うべきは3060vram12だ
間違ってもTiは買うな
なので価格も15万以内だ
そして趣味に払う金としては別に高くない
車やカメラやアイドルやソシャゲよりも安上がりな趣味だぞ
価値は人それぞれだぞ >>608
RTX3060のデスクトップが13万であるから
それ買うのいいよ 3060でもシングルファンの奴とかだとやかましいからなw シングルファンはよっぽどやむを得ない事情が無い限りマジでやめとくべき
即温度90度近くまで上がるとかザラやし、高負荷掛けたらファン常時100%でクッソうるさくても80度以下とかダウンクロック限界しても冷えへん 3060のシングルファンはマジでオススメしない
100%で回してるとBGMが聞こえづらくなるレベルだし、同じ部屋では眠るのに難儀するくらいファンが煩い
コンパクトなのはいいけどね。出力下げればマシになるし…… >>550
色々迷ったけど結果的にはとしあきwikiに書いてある以上に特にトリッキーなことはしてないと思う
低スぺでどこまでいけるかはこれから試す感じだ ローカルはじめたけど、グラフィックカードのファン音がうるさいな
うるさいから部屋の隅にパソコン移動した
騒音気になる 暖房費少しは削れるかも知れんけど
このご時世電気代半端無さそうだな 今までの季節は画像生成しつつ暖房効果もある器具としてごまかせたけどこの先はまずいな
岸田に感謝だな 3000番台は基本的に負荷時うるさいし、消費電力下げてもVRAMの温度が高い(102℃とか普通にいく)。
4000番台は巨大な冷却機構を備えるため、だいたい静かで温度が低い。
4090でさえ冷えまくってる。
4スロット占有、最低330mm前後からは伊達じゃない。
4070でもVRAM12GB、4080なら16GBあるので、よっぽど高解像度で生成や学習するのでなければ3000番台より使いやすいと思うわ。 基本的にはCUDAコア数×動作クロックほぼ性能の基準であり、4000番台は高速。
VRAMは余っても高速化に寄与しないが、足りないとそもそも動かないのでやりたいことに応じて。
3060 12GBはその価格でVRAMが多いのは魅力だが、かなり遅い。
金があれば4000番台に行く方が快適になるわな。
3090と迷うところだけど。 Lora で学習ぶん回してるけど、アフターバーナーでメモリクロック上げても早くならんかな?マイニングみたいに設定でワッパかわるなら設定詰めたいな… メモリ帯域よりコアの演算性能がボトルネックになっていると思われる。
メモリクロックはむしろ少し下げて温度低下させた方がよくないか? 今のGPUって通常でOC設定みたいなもんだからむしろ下げてるよ
PL75%にしても性能5%程度しか落ちないし発熱さがるから とりあえず導入できたけど
これ画像から似た構図ほんとに作れんのかね
ためしに数枚だしたけど色味ぐらいしか合ってない画像しか出てこなかった
休み潰して色々やってみるか うちとうほぐだけど、4/1から電気代60%値上がりだぜ
世間には平均32%とか公表してるけど、実際に計算すると倍近くある
depthmap&SBS出力して3Dで見てみたけど、生成の段階から何か特殊な事するわけでも無く、
完成画像に対してやる様でよくある疑似3Dと大差無くわざわざやる意味無かった ようやくアスカテストまで成功
学習まで行けるだろうか ckpt配布する時ってどこにあげるのがメジャーなんだ?
日本のゲームだから海外サイトにあげても需要あるかわからん small胸指定すると年齢とかに触れてないのに勝手にあうあうになる smallが胸を修飾して無いから仕方ない
形容詞はなぜか全体に掛かるよな より正確にはsmall以降のどれかにランダムで繋がって、small以前のどれかがランダムでsmall と繋がる >>615
そもそも同じ部屋で寝るとかホコリ対策つらくないんか 俺の1660ちゃんでは出力すらままならん
3060に乗り換えろと言うことか… >>644
起動オプション設定すれば出力できると思う
GPU使わなくても出すことはできたし VRAMたんねえよ!
つって出力しないわ、controlnetいれてからダメな気がする >>644
1660ti だけどできたよ
最初真っ暗なのしかでなかったけどね gtx16系ってよりにもよってAI学習用チップを省いちゃった廉価版なんよな 何とか無い知恵を絞ってローカルで動くようにできたけど
自分のポンコツPC(GTX980)では512でも場合によってはメモリー足りねぇよ!とエラーなる
面白いけど、古い物では話にならんのね そもそもGTXからRTXになったので廉価版というのは違う promptの要素単語の管理や生成時の順番を並び替えたり良く出来たのを保存したりが
結構面倒なので自分用にAccessで管理用アプリ作っちまったわい
初めてまだ1週間くらいなのに我ながらハマってるなあ… >>652
完全体のturingからレイトレとテンサー抜いたヤツなんだから廉価版でいんじゃねーの? >>649
んだな、電源足りるか心配だがもう突っ走るわ PCリプレース時期なので、せっかくなのでこれ使えるようにしようと思ってるんだけど
以下のようなスペックでいけるん?
「AIなにもわからん」から始める
3060 12GB
CPU 13600K
M.2SSD 2TB
メモリ 64GB(32x2) >>657
全然いけるけどー
金あるならさ、3090か4090行こうぜ! modelでパンパンになるからSSDは別に用意しろ そういえば前にここでSSDに変えろって言ってくれた人、ありがとう
USB 3.2接続のSSDだけどmodelの切り替え爆速になったわ >>651
そういえば900番台はxformersも効かないんだったな
せめてxformers対応の1000番台ならVRAM使用量を大幅に削減できたんだが… ありがと
SSD増やしてこれでいこうと思ったら20万近くいっててワロタ。。。
3060 12GB
CPU 13600K
M.2SSD 2TBx2
メモリ 64GB(32x2)
>>658
AIがっつりやるかわからないから、不満になったら買い替えると思う 画像生成出来たが顔隠れること多いな…
トークンのポジティブネガティブどっちか悪いのか単に試行回数なのかなぁ
https://i.imgur.com/0Vc8HgI.png なるほど
何となくlooking系のプロンプト使ってたけど
これ目線指示だけじゃなくて顔を安定して出す意味合いもあるんだな… どうせ下着とかビキニとか入れたからそっちにフォーカスされてんだろ? navelに引っ張られてんだろうなとは思うけどそこは黙っとけや 正方形の画像でいい場合は512からHires、横長とかの場合は画像サイズを変えながら生成される絵を見て、構図が破綻しないサイズからHires face focusで顔写して、zettairyouikiで足を写すとfullbodyより映えると思ふ web ui の extensionで「image browser」を使ってるんだけどランクをつけてない画像だけ一気に消すってできないよね? >>676
確か、delete nextの数分、一気に消せるはず
delete nextを999にして、ランキングフィルターをNoneでフィルターしてdeleteで一気に消せるはず(多分) 写真として考えるんであれば
2対3で出力しなくちゃいけない
その中で一般的なのが640x960 >>677
それも一回考えたんだけど、生成しただけでRankに手を付けてない画像は「None」扱いにならないっぽくて駄目だったんだよね
Noneにするには生成した画像のランクを手動でNoneに設定しなければならないという。。。 >>678
今時の写真のアス比ってスマホの解像度準拠か16:9とかが一般的じゃね 目指す媒体によってその辺は違うんでないかな
各種コンテストのレギュレーションに合わせたり、印刷物に合わせたり
動画勢なら16:9もいいけどこれ64の倍数にしづらいのよね 最近は600*800でやってる
3090だと3倍くらいのアップスケール出来る 3060tiで800‐1200とか×2アップスケール出来るけど遅いので600~800位で×2のアップスケール、ステップは35でカメラと同じアスペクト比3対2にしてやってる、1枚20秒位かな 解像度1000前後から胴体半分とかになるから、上げれない アップスケールは高解像度にすると人体が集まってできた浮世絵みたいなのはよく出来上がってくる CPUで1600x1200出力したらうちのRyzen7 5825Uでは1枚3時間強位掛かるらしい
初めての出力は512では絶対見る事の無いクリーチャーになったんだけど、一度800x600で
生成して確認した後のアップスケール低解像度の構成を再現出来るのかな? 性能が低いんであれば低い解像度
256かける256ぐらいで作成して
良さそうだなと思ったら
512とかあげた方がいい 画像の縦横比はまあ色々あるんだけれども
古いテレビを基準にするんだったら4対3
最近のやつと16対9
写真であれば3対2
インスタだと1対1とかだね
その中でも人物を作る場合3対2がお勧め
やはり比率が良い i2iのinpaintで邪魔な手を消してfillしたら画像が小さくなるんだけどハイレゾのまま変換するやりかた教えてください、、、 4090とか使ってたら部屋の温度20~24℃とかになるもんなんかね
さすがにそこまで熱出してると冷却しきれてない感あって怖いな ハイスペPC手に入れたら窓全開にして--listenで別PCからアクセスできるように開けておいて
暖かい別室からPCでWebUIを操作して生成したい >>692
その熱を外に排出してるから冷却されてるんだよ?
だから外(室内)はほっかほか、中(PC)はそれなりになる >>687
キャラクターの場合、顔と全身図を別けて生成するといいぞ
低解像度に耐えられないのは主に顔だからな
512x512で最初に全身図をガチャって、いいのが出来たらスケールアップ
それの頭部だけ切り取って顔面クローズアップの構図でi2iし、いい顔が出来たら
改めて先の全身図と合成する。まあそれでもCPUだときついとは思うけどな >>686
わかる
今のAIイラストはTwitterにツイートするのが限度で、印刷物の制作には厳しいんだよね 1111をアップデートしたら、作成中の絵が表示されるようになった
昔みたいに完成した絵だけが表示される設定はどうやればできますか? >>698
設定→Live previews→Show live previews of created imageのチェックボックスをオフだよー >>702
HiRes Fixって画面を分割して再生成した画像を合成するから設定によっては分割画面単位でキャラが生成されてそれが人体のパーツとして合剤されちゃうんよね
遠目で見れば1キャラに見えるけど近寄ると人体錬成に失敗したハガレンみたいになるw はじめて3日目だけど
一通り使い方覚えた頃には4世代ぐらい進んでそう・・・
どこかのブログにLinux環境だけど
RyzenG付き+Radeonでメインメモリ使えると書いてあった
グラボのメモリがあふれたらメインメモリに回す的な エラー吐いて止まるくらいなら緊急時はメインメモリ使ってくれたほうが嬉しいな
どうしてもと言うならメインメモリを使って良いものとする。みたいな >>704
メインメモリの使用はVRAMと比べるとめっちゃ遅いからな
使えるっていうのと使い物になるっていうのは天と地ほどの差がある
もっというならメインメモリに128GB積めばいいって事になるが
主流にならないどころか話題にならない理由があるわけでな gpuから見ればメインメモリなんてメインメモリからhddみたいなもんだしなあ メモリはvramの代わりにはならんしradeonはgeforceの代わりにはならん
結局のところそんな都合のいい方法はない
諦めろってことよ 692x1024で作成してるのに実際にできる画像は688x1024なのはなぜに? サンプラーはDPM++ SDE Karrasなんだよね
同じような制約があったりするのかな
ゲームのポートレート用に大量に作ったあとに気づいてちょっとショック このソフトに限らず動画や画像は8の倍数にするのがマナーみたいなものよ
SDの場合は64の倍数ならさらに良いみたいな話を聞いた気がする
692じゃなくて704にしてみたら >>714
ちょうど書こうとおもってたけどそうみたい
WebUIの縦幅と横幅を設定するスライダーをドラッグで動かすと8px単位で変化する
多分WEBUIかSDのどっちかの内部では8px単位でしか許容してないみたい
だから画面上は692でも、8の倍数の688に丸められたっぽい RTX3060ti売って12GBの3060買ってくる方が良いような気がしてきた SDが使ってるUNetは前半で画像を半分に縮小するのを三回で1/8にしている
後半は倍々に拡大しているが
8の倍数じゃないと辻褄が合わなくなる 512x512で大人しく画像生成してる分には8GBで良いんだが、一歩踏み出すと途端にハードモードになる
3070から3060に乗り換えて速度は落ちたが困ることは殆どなくなった メモリバスが128bit地雷の3060(8GB)を買ってしまう情弱が現れそう 革ジャンはあらゆるとこに罠を仕掛けボッタクろうとするからな 3060自体でた時ゴミ扱いだったしな
そもそも今だってAI画像でVRAMと値段の兼ね合いから選択肢がないだけで 4070tiと3090搭載機が同じ価格帯だったらAI画像用には現状は後者の方が優れてるって認識でいいのよね? Running on public URL:〜の部分が表示されなくなってしまいました。
(Running on local URL: 〜は表示されます)
原因わかりますでしょうか? >>725
それならやっぱり3090欲しくなるな
>>726
電圧調整してもダメ? >>727
RTX3090
RTX3060TI
RTX3060
持ってるけど結局 RTX 3090しか使わん
他が遅すぎる 体が3つあれば全部使えるね
まあバッチ処理で使ったらいいのでは? まさか、グラボだけ差し替えて使ってるワケ無いだろw
当然PCが複数台あるんだろw 4070TIと3090を比較するなら、VRAM16GB使うことをするかどうかよ。
しないなら4070Tiでいいやろ。 LoRAの学習に手を出したんだけど、3080tiから3090付け替えたらバッチサイズ指定で2倍盛れるから2倍くらい早い
まぁ3080tiの時はそこまでLoRAやってなかったんだけど
あとCUDNN 8.6なんてのも使えるから更に早いらしいけどあんまし体感わっかんねぇ
初期の手探り状態の検証環境だと40XXのが出力早いから有利だと思う
多少遅くても良いからパラメータ理解しててハイクオリティで凝った結果出したい玄人はVRAM正義なんじゃねと
ちなみに3090は120mmファンをケースに8つ付けてほぼ風洞化だぞ GPUはだいたいちょっと無理して効率悪い状態がデフォルトだから
ちょっと電圧落としてちょうどいいスポットがあると思うんだよな 読み込んだまま進まないって人はブラウザのキャッシュ消すと進むようになったって人見かけたな ディズニーランドのゲスト
こういうのが100%出ないようにしてくれ。 StableDiffusionを全力で回してRTX3090を2日で壊した人が発見される
https://%61rchive.is/Lt1Gl
>上記のRTX3090ですが、実は2日で壊れました…。
>原因として考えられるのは、StableDiffusionを全力で回していた際に、VRAMの温度が105℃に到達していたことと思われます。
>PCケースはCorsairの680Xでエアフローも十分ですから、GDDR6Xの高負荷が原因かと思われます。
;(;゙゚'ω゚'); >>745
マイニングでそれくらいの温度で数カ月ブン回してる人も居るから個体差じゃないか マイニングで92-3度ですら24時間回してたら俺はグラボ燃えたぞ
ハイエンドグラボをクロック制限掛けないで高温で回しっぱなしにするとか自殺志願者だと思うけど VRAMの温度はサーマルスロットリング類の対象外なの? 90℃オーバーでブン回しておいて被害者ヅラするのか 3080,3090のGDDR6Xは95℃以下に保つ方が良いと思うよ
夏場は特に注意しないとな 3000番台はメモリの性能と温度が爆上がりした割にメモリの冷却にあんまり力入れてないメーカーが多いから上位モデル長時間ぶん回すとやばいってのはよく聞くね どんなケースかなぁ~と思って調べた
ビデオカードを垂直マウントして、
その状態でファンの付いてない面が爆熱になってたりしてな!
>PCケースはCorsairの680Xでエアフロー すげーな 前面3つとか十二分だろう
ちなみにまな板、適当な板に固定とかで裸で使うのと、こう吸気凄いケースとじゃどっちが良いの
昔はドライブベイが必要だったけど、今はM2にすれば電源とM/Bだけだしケース要らん様な気がしてきた 前面ファン二台で2倍冷却!!
その2倍に底面ファンが加わり、2倍プラス1倍の3倍冷却!!
そして背面ファン二台を加えれば、3倍+2の
GPU!お前の廃熱を上回る5倍冷却だーっ!! マイニングは24365動かすのが前提だったし専用ソフトでチューニングしてたから意外と壊れない
同じノリでAIで制限なくぶん回すとGDDR6Xはヤバいな
ただでさえ8pinギリギリの電力使ってたりするし一本から分岐で使ってると危ない 部屋に暖房を入れないルームクーリングでグラボの排熱へっちゃらです SDとか出てくる前にゲーム用途でgtx980からRTX3080なんだよなぁ
VRAM多いの欲しいけど買い替える余裕ねぇし3080もったいねぇし革ジャンめVRAMもっと積んどけよ >>755
ブラケット使うと性能が5%以上は下がるからガチ勢は敬遠するんだぜ >>761
抵抗増やす=発熱量増やすってことだしな >>762
そうじゃねぇ、垂直マウントに関してなんだが
ライザーケーブルって言って垂直というかちょっと延長するケーブルというかゴツい帯で伸ばして曲げるんだが
それがノイズ拾ったり減衰で信号乱れたりして、低品質のものはスペック低下どころかグラボがブラックアウトしたりバグって落ちたりする
めっちゃ細いパラレルケーブルゆえにこうなる >>763
なにがそうじゃないんだ?
抵抗の意味理解してないのか? >>764
ブラケットでの性能減は配線の抵抗じゃなくてノイズの混入が主原因だからそうじゃねぇって事を言いたい 抵抗はノイズの威力を軽減させる為に使う
反射とかなんとかがあるからターミネーター付ける 配線を延長してケーブルで伸ばすことによって外部からのノイズを拾いまくるのが原因で、抵抗は全く関係ないな。 >>768
関係無くは無いが、ハード屋でも無いのにテキトーな事言わないw 壊れるの嫌なら電力制限すりゃいいのに
マイニングと違ってメモリもめちゃくちゃ使うんだからなおさらね 将来的にメモリ24Gでも足りないようなことになるかな
そこまでいくならメインメモリ使ってほしいけど HDMIだとノイズ乗ってDPより生成された画像の質落ちるよね🥺 スマホのローカルでも動くようになるって話はどうなったんだか >>772
おい、やめろ
買う人がいるから売れるんだから ほんまソレ
「自分には理解できない価値観の人が居るからこそ、自分が得をしている」
そう考えると多様性を受け入れやすくなるぞ >>779
とはいえ、
ようつべとかのハードオフで買ってPC組み立てる動画とか
結構面白いんだよなあ・・・ >>781
ジャンクから組み合わせて更に売却して利益出すとか動画みると面白い >>775
iPhoneで一応できるらしいよ
StableDiffusionを組み込んだアプリだがモデルの読み込みとかもできるし iPhoneで生成やってるわ
768*512で2分ってとこだが、これは去年のうちに既にできてた
最近ニュースになってたのはこれがandroidでも15秒程度で出来るようになるよって話 txt2imgのControlnetから人物画像読み込んでPreprocessorをopneposeにてから画像出力すると
読み込んだ人物画像と同じポーズの画像と一緒にopenposeの棒人間画像まで一緒に出力されるけど
この棒人間のボーンのデータをopenpose editorタグへ移す方法ってありますか? >>785
Preprocessorを(opneposeじゃなくて)noneにすると棒人間の画像から同じポーズをつくるようになるはず 最近gpu使用率、常に100%なんだけど、これヤバいかな。
壊れちゃう? windows11+3090環境はすぐ出来たので、linux+6900xt,6800環境に挑戦中。
環境構築が楽しい。 ワイちゃんはビビリだから裏面ヒートシンク+電力制限+低クロック化してるよ
https://i.imgur.com/T4JOv3X.jpeg 普通に9cmファンとか設置したほうが圧倒的に冷えるよね スチールラックに横置きが最も冷えるよ
水冷を超えた鉄冷だよ Multicontrolnet来たけど自分はエラーでる 質問なんだけど、時々embedding_managerってキーがあるモデルがあるけど、
あれってpruneする時に消しちゃっていいよな?推論では使われないよね? 白目部分を黒くする呪文しりませんか?
ファンタジー世界のノームを作りたい 学習されてなさそうなものは、自分で塗って学習させた方が早そう…
ファンタジーモデルで学習されたLoRAはあるかもしれないが、絵柄が変わっちゃうだろうしな なんか急にanything3の絵が別人になってしまった
同じドライブにコピーしてる環境両方でなってしまった
モデルとLORA入れるくらいしかやってないのになぁ
モデル削除しても変わらず
anythingだけじゃなくて他のモデルも絵柄がかわってしまった
原因わかる人いるかな 前にもこんな話あった気がするけど
HDDにある環境では普通の絵柄だった とりあえずHDDにあった環境をそのままコピーして使うことにした
でも原因がわからないなぁ
へっぽこ絵しかでなくなった 解決した
最後から何層目でCLIPを止めるかという数値が2になってた
なんで勝手に2になったんだろう
1にしたら絵柄戻った PngInfoとかから情報読み込むとCLIP SKIP変わるからそのせいでおかしくなったって人見かけるね
と言うかNovelAIの流れからCLIP SKIPは2で使ってる人の方が多そうだけど >>806
なるほど
そういえば拾い絵からPNG情報読み込んでた
それで2つとも変わってしまったのか 元の環境とっといてよかった
エスパーでもいなけりゃ未解決のままだったかもしれない >>808
AnythingはCLIP2推奨だぞ
イラスト系モデル大抵そう まあCLIPSKIP1の絵柄が好きって人は前々から居た記憶がある
なんだっけ代わりにプロンプトの効きが悪いんだっけCLIPSKIP1 新料金で電気代計算してみたら1000W24hで千円、一月回したらPCだけで3万円なんだな
高い奴刺しても1000Wは行かんだろうけど >>809>>810
そうなのか
プロンプトあんまり入れずにポン出ししてたからCLIP1のほうがまともな絵がでてきてよかったんだよね
2は確かに表情がコロコロ変わるとおもった RTX3060のゲーミング時の消費電力が180Wくらいだったかなぶん回してない時で10W
24時間最大電力でずっと動かすってマイニングくらいなもんだし24時間で計算してもしょうがないぞ SDの場合、バッチ100とかで延々フルパワーで回しそうなもんだけど あ、そうそう
消費電力が気になる人はMSIアフターバーナーってソフトを入れればグラボの消費電力制限出来るぞ
最近のグラボはギリギリまで性能切り上げる為に無駄に消費電力増やしてるから70%くらいなら殆ど性能変わらない
ワイはRTX3070を50%で使ってるけど512×768は5秒、Hiresで1.5倍にするのに30秒で終わる コマンドプロンプトからnvidia-smi -pl でも制限できる Loraで芸能人の画像を学習させて試したら、原色の抽象画みたいのしか出なくなるのなんでかな?
Loraの重みを0.3ぐらいにすると人が出てくるけど、学習画像とはだいぶ違う。 AI用にうってつけなクソ安いSSD
https://ja.%61liexpress.com/item/1005004786749783.html
512GB¥2,577
1TB¥4,813
2TB¥9,384
生成用画像倉庫はこれでええやろ それ中身は64gbのSDカードを書き込みループさせたやつだぞw chilloutmixダウンロードできなくなった。 興味なくて使ったことないけど特に非公開なデータセットを使って追加学習したとかでもないマージモデルなんじゃないの?
再現できそうな上に普通に転載されそう ただのbasilコピー
civitaiなんて目立つ処にアップしてスレとかツイとかで自ら宣伝してたから人気になっただけ
この先問題になった時に見せしめにヤられるのはコイツからだな ツイート見てきたけど持ってる人に対して転載禁止を呼び掛けてないんだな
そんなあれで大丈夫か? hugfaceにあるぞ
写真もどきが問題視されだしてるから引っ込めただけだろう
使ってるだけの奴と配布した奴じゃ何かあった時の責任の度合いが全然違うからな
俺もモデル配布は外国に任せたほうが絶対良いと思うわ 今更逃げられる訳ないのに空しい言い訳だな、それくらい覚悟してなかったんか? どういうロジックでこれが問題視されることになるのか全く分からん
特定の個人を学習させたファイルならともかく 自分で作って自分で使うのと、モデル配布して人に使わせるのだと配布した人の責任も問われるんだから
責任感に圧されて配布中止するぐらいがマトモな人間の感性だと思うよ 3060買ってやっとグラボ換装したんだけど
これファンがちゃんと回るか確認するにはどうしたらいいの? >>835
面倒だろうけど、換装後はしばらく蓋は閉めないほうがいい
何かと確認があるしな
無事を確認したらまたシャットダウンして蓋閉める SDのエロ画像(3次元)生成の初心者でいい情報交換できないかと思い、ここをみつけました。
パイズリ(着衣パイズリ含む)をどうしてもさせたいんですが、
paizuri under clothesやbreast in 1penisbreast in 1penisを()でかこったりして強調しても
まったくパイズリしてくれません。玄人の皆さんはどのようにパイズリさせているのでしょうか?
ご教示いただけますと幸いです 板を間違えました。すみません、上の書き込みはスルーしてください 巨乳にフェラさせようとしたら乳に挟みたがるのやめて欲しい 巨乳と入れたんなら画角に巨乳収めなきゃいけないんだから体勢なりをきちんと指定しなよ 安定したextension版の存在しない今のLoRAの上にさらにのっかるんか
環境用意すんのも適用すんのもめんどいな
Automa氏はよ対応してくれ ロリコンが多い理由は科学的に説明できる
若いうちから産み始めた方が多く産めるのは当然 >>854
でもまだ産めない年齢を欲するのはどういうこと? >>855
まだ産めないとなぜわかる?
とりあえず種付けしてみなきゃわからないだろ 人を出すだけならこの方式は無駄過ぎるよな
宇宙際タイヒミュラーを思い出すわ 理解なんて到底出来ないけどw A1111で生成したときに高頻度で目の中に睫毛が生えてたりグチュグチュだったりするんだけど、ちゃんとした目を出す方法ありますか? >>859
そういうのは画像を出してくれると話が早いよ
たぶんアニメ系の顔を出すのに「顔を修復」をオンにしているんだと思う
あれは実写系の顔専用だよ 未成熟の個体にも性的興奮を覚えないと、発育不良が多くなる飢饉のときに絶滅するんで、食料危機を乗り越える為にもロリコンの火は絶やしてはならない いやそんな遠回りな話じゃないんよ
年中発情期のホモサピエンスの成熟メスは他のオスの子供を妊娠中である確率が高いので、賢いオスは妊娠していないだろうけど妊娠するかもしれないくらいのメスに興奮するんだ chilloutmixが削除されたので次のロリコンモデルを教えて ちょっと毛色の違う使い方になっちゃうかもだけど、昔の白黒写真に色をつけるみたいな使い方できないのかな? chikmixて奴の中に潜んでるイラスト調?のパターンがどストライク >>860
アニメ系だと悪さするんですね。
ありがとうございますー! ハッサンがロリに強いって聞いたから試してみたけど全然だったわ anything v3.0のフルってもう手に入らない感じ?
huggingfaceのfilesはprunedしかなかったわ モデル消す人は転載されるの踏まえてるよな多分
ライセンス的には別に構わんし ああやっぱり、エロモデルは迫害されて消えたりしてるのかw
世知辛いことよ 同じPTを色んなモデルで出してみると、中にはこれは合法なんだろうなってのもあるけど、
大抵アウトじゃね 立ち絵以外の手足が入り組んでる構図の絵は苦手かなぁ chilloutmixのniがついてるモデルとついてないモデルって何が違うんですかね SamplingStepsどれくらいでやってます? 自分は基本20でシード値はこれだけど、もう少し変化が欲しいて時に増減してみる
途中まで期待通りの物だったのが行き過ぎて途中で全く違う物になったりするから、多ければ良いてもんでも無いと思う 本日の出来事ダイジェストを一言で表すと「ロリコンアウト」 そもそもサンプラーのステップ数はサンプラーによって全然推奨値違うよ zipang1.4を試したら、1.3と同じPTでchildの年齢が10歳程下がった感じの結果になった
偶々かな chilloutmix消されてもこんなよく出来たもんの代わりそうそうないしなあ 日本人なら Japanese なんとかがあるじゃろ てことはこれが身を引くいいタイミングだと思ったんだろうか 人が作ったものにクダ巻いてるだけの連中がやかましいわ 技術スレとか書いてるくせになんJ民以下の情報収集能力しか無い奴らばかりのスレらしいゴミっぷり 作った人間に配布中止されてぎゃあぎゃあ言うぐらいなら自分で作れよ >>878
とりあえず環境構築は完了したんで、明日ベンチマークかけてみる
linuxでROCmが使い物になってるとは時代は進んでるわ WindowsでRadeonが一番無理な気がする。 XYZプロットで入ってるチェックポイントの出力例リスト出してて気付いたけど、風景専用と言う事になってる
データにも結構な水準の女体データ入ってるw civitaiが責任持つって事でchilloutmix復活してるね 839 名前:名無しさん@お腹いっぱい。 (ワッチョイ 0155-ZYAP)[] 投稿日:2023/02/28(火) 12:03:50.70 ID:b4iL3VI90 [1/2]
SDのエロ画像(3次元)生成の初心者でいい情報交換できないかと思い、ここをみつけました。
パイズリ(着衣パイズリ含む)をどうしてもさせたいんですが、
paizuri under clothesやbreast in 1penisbreast in 1penisを()でかこったりして強調しても
まったくパイズリしてくれません。玄人の皆さんはどのようにパイズリさせているのでしょうか?
ご教示いただけますと幸いです
840 名前:名無しさん@お腹いっぱい。 (ワッチョイ 0155-ZYAP)[] 投稿日:2023/02/28(火) 12:06:09.02 ID:b4iL3VI90 [2/2]
板を間違えました。すみません、上の書き込みはスルーしてください >>897
civitai男前すぎるだろ
何者なんだよ もしかしていつものように新しい技術を取り巻く規制やら法整備で日本だけ取り残される流れきてます? 逆に日本はまだ何も整備してないから無法地帯って感じ >>899
3Dモデルを歩かせるAIならどっかで見たな
まだちゃんと歩けてなかったけど でやるとなったら徹底的にやるという両極端ないつものパターン >>879
これ自分も知りたい
一応調べたけど情報全然出てないけど純粋なアップデート版ってことでええんかな
今civitaiでchilloutmix落としてきたけど無印しか置いてないね プロンプトの使い方とサンプル画像見れるの助かるから
配布はともかく場所として復活してくれるのありがたいわ >>905
-niは元のモデルデータがハイクオリティってかデカイ画像を使ってるみたいなのがリリースページで書いてなかったか?
実際LoRAを苦心して作ってる身としては、元画像が大きいと変な出力になったりして安定しないのと
スペックがめっちゃ大事で時間かかったり、普通にエラー吐く率とかデメリットもあるし
必ずしも-ni版が上位互換とは言い切れないんで、適度な通常版と重量版を使い分けて出してる作者はリスペクト出来るよ モデルにもよるんだろうけど重量版を使っていいグラボってどのへんだろうね
12GBの3060なら処理速度は遅くとも重量級でいい? SDwebuiのアプデですがzipファイルで簡単インストールした場合もGitで入れた場合のアプデ方法と同じですか? >>910
ぶっちゃけ1111環境でエラー吐いてなくて、精製される画像に問題が無ければ-niで良いと思う
loraとか読み込ませて一部なんか動かないねって時に通常版使ってみるみたいな使い分けかな?
chilloutmixほんと色んなlora動くよ、どうやってんだろ niでlikenessシリーズ使うと変になるのはそういうことだったのか >>914
確信は無いが、一度だけ更新が走った事があるからたぶん 512x288で生成した画像を1920x1080にアップスケーリングしてるんだけど顔が崩れて仕方ない
低スペック環境なんだけどうまくアップスケーリングする手順とかあるの? T2I-Adapter使ってる人います?
やっぱりLinuxじゃないと動かないんですかね? 低スペック度合いによってはその低スペックでももっと高解像度で生成できる方法を教えてあげられるかもしれんからまずスペック書くんだ そりゃそこまでアップスケーリングしたら崩れて当然ってもんじゃないの
2倍までにしなよ 基本的にアップスケール前が512×512から離れるほどおかしくなる
しかも大きい方にするならまだしも小さくしてるから余計に崩れる
それを3~4倍にアップスケールとか崩壊しない方がおかしい 文章でなく画像をUPして、その画像と類似した画像を生成するAIってない? 技術スレって名前なのに古のVIPみたいなノリの奴がなんで住み着いてるのか分かんねえわ
大喜利やりたいなら他所行けば良いのに >>929
ここは防波堤だから
アホを留めておく為のスレとしてちゃんと機能してるよ >>918
まず一階二倍にして
それをさらに2倍にしたらいいんじゃないか? >>878
ベンチマークやった
9.78lt/s と出た
早いか遅いかはわからない まだはじめて4日ぐらいだけど進歩早くてすげーわ
風呂食って飯入ってる間に世界が変わってる 風呂に入ると世界が変わるニキには1日3回くらい入浴してもらいたい 質問です。
lora_block_weightを使おうと思ったのですが、エラーが出て使用できません。
Error loading script: lora_block_weight.py
Traceback (most recent call last):
File "C:\sd\stable-diffusion-webui\modules\scripts.py", line 229, in load_scripts
script_module = script_loading.load_module(scriptfile.path)
File "C:\sd\stable-diffusion-webui\modules\script_loading.py", line 11, in load_module
module_spec.loader.exec_module(module)
File "<frozen importlib._bootstrap_external>", line 879, in exec_module
File "<frozen importlib._bootstrap_external>", line 1017, in get_code
File "<frozen importlib._bootstrap_external>", line 947, in source_to_code
File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
File "C:\sd\stable-diffusion-webui\scripts\lora_block_weight.py", line 72
<title>sd-webui-lora-block-weight/lora_block_weight.py at main · hako-mikan/sd-webui-lora-block-weight · GitHub</title>
^
SyntaxError: invalid character '·' (U+00B7)
こんな感じになってしまうのですが、どのように対処すればよいのでしょうか? 最近始めた初心者でchilloutmix落としそこねておちんこでたら
civitai本当にありがとう 個人作者の承認欲求は満たせて、責任はcivitaiが持つならwin-winだな
それにしてもcivitaiエロサイトみてーになったな ブラウザ上で描いたイラストと同じ構図で画像生成AIに絵を描いてもらえる「Scribble Diffusion」が登場
https://gigazine.net/news/20230301-scribble-diffusion/
やったねたえちゃん画像が増えるよ Automatic1111でopenpose editorで作成した棒人間を
preprocessor:none Model:openpose の設定値で読み込んで
txt2imgすると、棒人間が正常に読み込まれずに、出力画像にポーズが適用されません。
https://imgur.com/a/SqpMAdX
実行環境はcolabで、以下のシートでインストールしました。
maintained by TheLastBen
https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb
同じ状況に陥って、解決した方がいらっしゃいましたら解決方法ご教示いただけませんでしょうか。
よろしくお願いいたします。 >>932
これって低いほうがいいんだよね?
かなり早い気がするが it/sが高ければ高いほど強い
s/itになってたらゴミ 512x512 のバッチ20でやってみて
下から2番目のit/s値 xバッチ回数
4090の値は45it/s位
メモリあるとバッチ盛れるのでこれが最速値の目安になる 「多様性を認めるのです」
ってchatGPTちゃんが言ってた >>936
ctr+F5で自分は治る
一応質問スレもある stable difusion で絵を描きたいです。
おすすめのPCを教えてもらえませんか? 1111で画像を大量生成する時って
バッチ回数
一回の枚数
全部1回を無限生成
どれが一番時間的には早いかな? >>955
生成ボタンの上で右クリックしてGenerate forever >>957
これChromeだと出てこない
Edgeなら出る >>956
A5000 4つでこの価格は高いと思ったがこういうのは保守込みなんかね 1660から3060に変えたけど高解像度化全然ダメだわ、1.2倍程度でもVRAMガーって言い出す
なんか根本的なこと間違ってる気がする >>953
いや、「人に決めてもらうタイプにはApple製品」ってのは真面目に最適解やで >>941
自己解決したので一応書いておきます。
ブラウザはbraveを使用していたのですが、edgeでUIにアクセスしたところcontrolnet正常に動作しました。
braveの問題なのか、広告ブロッカーなどの拡張機能が影響していたのか分かりませんが、ご参考までに。 nVidiaが出してる深層学習向け1ボードPCのJetsonはどうなんだろうとぐぐってみると
ハイエンドのAGX Xavierなら、発売日2018/10/10 スイッチサイエンスで96800円 最大30Wて
事を考慮すると、そんなに悪くも無いのかなぁ
新しいのが出て、3060程度の性能が10万とかだったら新規にPC組むより良さそう その値段だとゲーミングノートの省電力 CPU の方がまだマシじゃねーか? >>963
具体的な解像度とかmodelとか設定書けばアドバイスあるかもね どんな解像度からどんな解像度まで1.2倍するかが大事なんだが書かんのか 高解像化がダメとしか書かずに使用ツールも環境も晒さねえんだからまともな回答得られるわけないわな VRAMが足りないって言ってる人に
やってみて欲しいんだけど
画像作成中のシステムモニターを見ると
グラフィックメモリーがどれだけ使って
いるのが分かる >>952
参考にしとくよ
>>956
たけえええw
こう言うものなの? >>977
悪いことは言わないからNovelAIとかで遊んだほうがいいと思う >>977
適当なBTOでrtx3060 12GB搭載モデル買っとけ
予算が許すならカスタムでメモリあたり積んどけばいい
ほとんどの人は総額15-20万くらいのPC使ってるんじゃねーの
というか大半は元々ハイスペPC持ってるPCゲーマーだと思う 過去レス読み返せば皆3060RTX12GBって言ってるんだからそれでググるだけだぞ 2070でも普通に出来てるけど、普通の事しかやって無いからかな? 1660sだと生成中は動画なんか重すぎて見れなかったけど3060だと動画見ながらできる
本当に最低でも3060だね >>983
いやそれは動画は別の PC で見てくれよ >>982
新品やBTOでの入手性が悪い2世代前にわざわざ言及する必要ないだろ?
これから環境を揃えるなら最低限3060 12GBにしとけって話
既に所有してる物を本人が普通に使えてるならそれはそれで問題無い
誰も君の環境を否定はしないから安心していいぞ >>985
まあ、どうせ一通り遊んだら飽きてしまうんだから
新しく買うとかは無いしこれでいいや ダイナミックプロンプトが効果ないですが原因わかりますか?
できた画像のプロンプトは効果ある感じですが 1-2年前にゲーム用に買った3070は8gbだけど問題なく使えてるよ今のところ
結局ゲームなんてほとんどしてないけど、役に立って良かった
8gb以上のモデルが読み込めなかったりする代わりに生成速度自体は3060より早いと考えていいのかな? >>988
速いには速いが、それ以上にVram半分のデメリットがでかい
それにVramの役目はモデルファイルを読み込むことじゃないぞ >>984
そのためにfire stick買った
1660sだと処理が競合して動画もマトモに再生できないし画像生成も処理が進まなくなる
3060だとどちらもほとんどパフォーマンス落ちなくて感動した >>958
んなこたーない
Chromeで出てるよ >>963
省メモリのためになにをやってるか列挙してほしい
--xformersは入れてるとか、--medvramにしてるとか(これは不要だと思うけど)
1.2倍程度というのももともとの解像度が高すぎるとか? PC一式組む事にしてカートに入れた後に気付いたけど、OSどうしよ
お高いGeFo刺してubuntuでSDのみてのも寂しい感 3060だとFF14起動してても問題なく処理できる
1660sがひどすぎたんだな
使ってる奴居たら買い換えたほうがいいぞ >>993
いまどきはWindowsのOEMとか無いんけ? >>995
DSP版でも1万以上するみたい
安いのは中華業者のアレな奴でレビューに蹴られたの嵐 部屋の中に一つぐらいWindows7(8.1)のパッケージかDSP転がってないか? Vistaからずっとアップグレードで育てたwin11使ってる なんか画像生成における GPUのVRAMの重要性を欠片も理解してなさそうなやつがおるな…… このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 13日 12時間 49分 59秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。