X



【StableDiffusion】AI画像生成技術8【Midjourney】
レス数が950を超えています。1000を超えると書き込みができなくなります。
0001名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 16:40:34.56ID:EN25VE7L
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
0851名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 10:57:10.16ID:FjkRtqVh
xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね
0852名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:01:58.50ID:rgXlaQs+
SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
0854名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:37:04.40ID:d+usOTfa
追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?
0857名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 11:58:57.02ID:x0GhWPSO
学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?

https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する

ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?
0859名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 12:33:04.82ID:fu4E24m1
>>855
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない

使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.

で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
0862名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 13:04:46.79ID:s3d8QjiO
ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで

bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"

を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518

あとは、run_webui_mac.shを実行するだけ

ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh

104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす
0863名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 13:46:44.99ID:TZxRUe++
auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった

モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな
0864名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 14:30:32.55ID:zoSlJeQX
NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど
0867名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:31:48.42ID:nQGEYwDS
hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる
0868名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 15:33:18.61ID:hP+5piYT
>>857
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど
0871名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:09:56.53ID:4sACRINh
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
0872名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:12:19.14ID:2kKXaQLK
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
0874名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:15:02.59ID:ljDkNpKQ
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
0876名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:17:06.46ID:4sACRINh
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
0878名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 16:55:45.37ID:lhahwq9Z
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
0880名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:06:20.98ID:wYyHAuYq
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
0885名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:35:35.74ID:PG7EuW3q
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
0887名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:41:36.24ID:LrKWnqH7
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
0890名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 17:52:13.04ID:4sACRINh
>>887
Fullにしてないオチ
0894名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:18:40.75ID:n2Bxn8NT
>>888
autoencoder_kl-f8-trinart_characters.ckpt

trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな

NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
0896名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:30:53.13ID:2kKXaQLK
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
0898名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:44:46.35ID:yqllOzjB
hlkyって死んだの?
0899名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 18:49:49.96ID:AN5V5xfD
>>878
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな
0901名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 19:26:37.90ID:jzVVkhF8
>>894
ありがとう!

colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
0902名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 19:46:35.16ID:jzVVkhF8
>>901
ごめん、このwgetのコマンドは間違い。

vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。

こんな感じになったら、VAEがロードされてるはず。

Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
0903名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:13:46.33ID:ldxtMWb/
私もHypernetworkが上手くいかないので教えてください。

キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?

・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい

1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
 >100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
 ・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
    (「a woman, 1girl, solo, white background」でもだめ) 
0904名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:31:29.55ID:fu4E24m1
>>903
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく

自分ならとりあえずこんな感じで試すかも
0908名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 22:39:57.04ID:UGl0wV53
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
0912名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 23:55:39.15ID:UGl0wV53
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
0913名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 23:57:11.48ID:+Pf/s7hV
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
0914名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:02:36.49ID:j0I0cSk3
>>912
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな
0915名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:06:18.31ID:oKNCSux3
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
0917名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:18:46.14ID:8/hguxf8
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
0918名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:31:00.38ID:93v8L+yq
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
0919名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 00:43:10.46ID:l1T5Qa1Z
diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで

config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
0921名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 04:14:38.49ID:soj7FsTJ
wd1.4の新しいvae来たけど試した?
0924名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:45:17.71ID:cyHLbL5S
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
0925名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:46:54.53ID:TtXnf/fW
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
0926名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 08:47:13.18ID:Lo3y4TAi
>>778 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
0927名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 09:41:15.76ID:RDN7cvBB
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
0928名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:16.00ID:bKPdKQSD
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
0929名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:36:56.24ID:wbrPm6Fj
>>926
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる
0930名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:51:55.46ID:3BBOW5w1
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
0931名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:54:05.13ID:x3uyPhfX
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り

Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.

英語と日本語できる人よろしくたのむ
0932名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 10:58:00.25ID:RDN7cvBB
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
0934名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 11:35:57.20ID:93v8L+yq
>>919
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか

(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png

novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
0935名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:28:22.93ID:l1T5Qa1Z
引数に以下必要かも
--original_config_file=model/config.yaml
0936名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:43:40.98ID:l1T5Qa1Z
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
0937名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 13:50:27.09ID:JoiaNmiz
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
0939名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 14:06:39.39ID:93v8L+yq
>>935
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます

出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
0941名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 15:40:53.95ID:5DgBXIZt
>>929
8割ぐらいかな
でも全身絵を生成すると顔崩れるね

全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う

全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
0943名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 15:58:16.38ID:RDN7cvBB
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
0945名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 16:25:37.33ID:93v8L+yq
>>942
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました

--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]

- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)

return text_model
0948名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 17:21:57.69ID:GXy84LFC
>>941
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます
0949名無しさん@お腹いっぱい。
垢版 |
2022/10/18(火) 19:12:48.64ID:cvFdiqt/
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
レス数が950を超えています。1000を超えると書き込みができなくなります。

ニューススポーツなんでも実況