【Wan2.2】動画生成AI質問スレ3

2025/12/17(水) 13:22:01.25ID:YEP1v7Z20
https://m.youtube.com/watch?v=Rq8gjZgV-jg
wan2.6出た
2025/12/17(水) 13:29:38.16ID:f9yqATwoa
ボーボー好きでpubic hair指定なのに、パイパンになる事の方が圧倒的に多いな
2025/12/17(水) 13:46:21.38ID:1cfdJhQb0
>>631
モデルによるだろ
2025/12/17(水) 13:46:25.97ID:uiPE+xMbC
>>632

2.5オープンにならんかな
2025/12/17(水) 14:37:27.88ID:Ysaz5WcQ0
プロンプトまとめてるサイトって無い感じ?
てかねっとりとしたセックス ならプロンプトより動きをボーンから生成する奴の方がいいのかね
2025/12/17(水) 14:47:44.33ID:1cfdJhQb0
動画はプロンプトと言うよりも小説を書くんだぞ
2025/12/17(水) 15:30:00.55ID:f9yqATwoa
最近、PainterLongvideoやSVIなんかで長時間動画に挑戦中だが、数十秒程度でもプロンプトというより、スクリプトって感じになるな
2025/12/17(水) 16:07:45.21ID:TG4O6FFr0
>>635
VRAM80GBほど使いますと言われそう
2025/12/17(水) 16:09:06.64ID:TG4O6FFr0
80GBは言い過ぎか
でも40は使いそうだよな…量子化で品質どの程度保てるかどうか
2025/12/17(水) 17:00:44.51ID:u0ZdBVLV0
それ俺も気になってAIに見積もらせたんだけど
WAN2.5はVRAM16ー24GB環境だとQ4~Q6が妥当なんじゃないかって回答
ケースに寄っては2.2Q8のがベースとして優秀な可能性はあるんだと
2025/12/17(水) 17:11:16.01ID:viaeTLbr0
まだ出てもいない事をAIに聞いてもねぇ
特にAI関連は嘘をつきまくるから
643名無しさん@お腹いっぱい。 (スフッ Sd32-xJB0)
垢版 |
2025/12/17(水) 18:50:27.42ID:YF3AAcGnd
女にちんこ生える仕様はどうにかならんか
644名無しさん@お腹いっぱい。 (スフッ Sd32-xJB0)
垢版 |
2025/12/17(水) 18:51:10.15ID:YF3AAcGnd
女の子の股間をいじる
って入れるとちんこ生やすし、女の子のまんこをいじるにしてもちんこ生えて草生える
2025/12/17(水) 21:04:30.69ID:kHS7JMRm0
>>643-644
生えないぞ
適当に書くな
2025/12/17(水) 23:14:16.59ID:viaeTLbr0
ここで言われている生えるや吐くなんてほぼ無いのだが
どういうプロンプト入れているんだ
2025/12/17(水) 23:24:56.13ID:52STJUGM0
リアル系だと、放尿させようとすると高確率で口から吐き出す
2次はやってないから知らんが、もっと色々なシチュで吐くらしい
2025/12/17(水) 23:29:31.05ID:viaeTLbr0
リアル系でもアニメ系でもそんな事は無いなぁ
何処から何をというのはちゃんと出来ているぞ
作文の問題だと思う
649名無しさん@お腹いっぱい。 (ワッチョイ a786-gk1Q)
垢版 |
2025/12/18(木) 00:25:39.96ID:eQHWBdNv0
潮吹きLoRaじゃアカンか
650名無しさん@お腹いっぱい。 (ワッチョイ a7d4-Z2sH)
垢版 |
2025/12/18(木) 00:39:25.47ID:oX4rr5gu0
LoraとかSmoothMixのようなLoraマージモデルとか何を使ってるかにもよるだろ
前提抜きで話しても意味ないよ
2025/12/18(木) 12:30:22.57ID:Rtea5Voi0
吐きまくるはLoRA次第だけど
LoRA無しでペニス生えまくる
2025/12/18(木) 12:32:24.79ID:Rtea5Voi0
ペニスっていうか異形の棒が出てくるのが一番多い
ペニスのなり損ない
2025/12/18(木) 12:38:55.01ID:eY1idNFI0
プロンプトの過不足じゃねぇの
2025/12/18(木) 13:00:29.51ID:/m7gnYDwC
wan2.2AOI megaってnsfwモデル使ってるとアニメ動画で男を登場させると変なチンコ出して入れようとするんだけど、そういうモデルなんかな
もう少しソフトなエロを求めてるんだけど
2025/12/19(金) 09:54:25.19ID:6luQmRtT0
時折ティムポがもげてディルド化する現象w
656名無しさん@お腹いっぱい。 (ワッチョイ eb6c-8HMG)
垢版 |
2025/12/19(金) 10:25:47.43ID:TuToLrIW0
Zuntanの「00-I2v_ImageToVideo」WFなんだが、手持ちの動画にRefinerだけ掛けてみたところ、出力動画の1フレーム目が現在読み込まれるStartImageに置き換わってまう…。
StartImageのノードをバイパスしたら今度は処理が途中で止まる。これはどないしたらええんやろか?
657名無しさん@お腹いっぱい。 (ワッチョイ 77c1-1bfe)
垢版 |
2025/12/19(金) 10:26:07.91ID:fpXEP/w90
checkpointを気になってたremixのほうにしたんだけど凄くないかこれ
試行錯誤しながら徐々に完成度上がってたのが一気に改善されたんだが
658名無しさん@お腹いっぱい。 (ワッチョイ 1ed8-gk1Q)
垢版 |
2025/12/19(金) 10:28:49.33ID:EI3hlRMW0
>>656
refineしたい動画の1フレーム目を切り出した画像をstartに入れれば良いのでは
659名無しさん@お腹いっぱい。 (ワッチョイ eb6c-8HMG)
垢版 |
2025/12/19(金) 10:49:41.71ID:TuToLrIW0
>>658
やっぱそうなるか~
そもそもなんでStartImageを取得する必要があるのか分からんけど…
2025/12/19(金) 10:50:01.04ID:g7TLkLuA0
>>656
VHSのselect imagesで動画の0フレーム取得して開始画像が繋がってる
StartImageって変数に繋ぐとか
661名無しさん@お腹いっぱい。 (ワッチョイ eb6c-8HMG)
垢版 |
2025/12/19(金) 11:30:27.38ID:TuToLrIW0
>>660
せっかく提案してくれてるのに申し訳ないやで。ちょっとどういうことかサッパリわからん
662名無しさん@お腹いっぱい。 (ワッチョイ 1f7c-H9XU)
垢版 |
2025/12/19(金) 15:07:38.15ID:sDVa9Gpi0
>>656
それ、俺の環境でもなったことある。
一回もI2Vで生成していないWFで後処理しようとするとそうなる。
一回I2VやったあとのWFなら正常に動作する。
俺の環境ではそうなる。原因はわからない。ためしてみて。
663名無しさん@お腹いっぱい。 (ワッチョイ 1f7c-H9XU)
垢版 |
2025/12/19(金) 15:09:23.35ID:sDVa9Gpi0
続き
具体的には、I2Vで生成したwebpをComfyUIにドロップして表示されたWFでやってみる。
俺の環境ならこれで正常に動作する。
664名無しさん@お腹いっぱい。 (オッペケ Sr47-Ntlx)
垢版 |
2025/12/19(金) 15:29:32.16ID:3eMDOjJUr
単体の被写体の動画しか作らないが二人以上の動画つくる人は大変やろなあとここ見て思う。
細かくプロンプトで動きを指示してもああ!お前じゃない!ってこと起こりそうすぎる笑
665名無しさん@お腹いっぱい。 (ワッチョイ f7e6-qWbP)
垢版 |
2025/12/19(金) 15:54:48.67ID:6WPyY5Rp0
アップスケーリングをしたい場合
どの方法が一番綺麗に仕上がりますか
リアル系動画で使用したいです
2025/12/19(金) 16:15:46.15ID:mq4C7x7l0
>>665
そんなもん好みによるんだから自分で確認しろ
667名無しさん@お腹いっぱい。 (ワッチョイ 726f-dj/E)
垢版 |
2025/12/19(金) 16:21:58.44ID:itbhMc5H0
ちょっと調べれば出てくると思うんだけど、まずは調べた候補を上げて答えを求めようか まあseedVRがおすすめ
668名無しさん@お腹いっぱい。 (ワッチョイ f7e6-qWbP)
垢版 |
2025/12/19(金) 16:47:10.79ID:6WPyY5Rp0
>>667
情報がいろいろ出てますがここの人達の使っているものが確かな気がしたので聞いてみました
試してみますどうもありがとう
669名無しさん@お腹いっぱい。 (ワッチョイ 63d4-1bfe)
垢版 |
2025/12/19(金) 21:19:43.29ID:v8MpNyoq0
スレチ気味かもしれんがTurboDiffusion触った人います?
自分はスペックが足りてなさそうでまだ触ってないです。
2025/12/19(金) 21:28:21.56ID:ZVgoO1+l0
>>669
GitHubのIssueにあるけどI2VだとVRAM24GBでOOM出るっぽいな
Pytorchの設定変えると動くみたいだがパフォーマンスが落ちるとかなんとか
自分はTurboDiffusionのビルドが上手くいかなくてまだ実行すらできてないわ
2025/12/20(土) 02:54:27.06ID:fJXCub2k0
TurboDiffusionはなんjでエッが出来ないからクラウドでいいんじゃねって流れになってた
2025/12/20(土) 07:56:47.90ID:mKUYgv/jp
wanのキャラloraの手順をググってたらt2i用って書いてあったけどwanってt2iもできたん?
t2v用の手順は有料記事ばっかだし参考になる無料で読める記事ないですかね
2025/12/20(土) 08:08:48.29ID:ubaq5ehk0
質問内容がよく分からない、結局wan2.2のt2vがやりたいでいいんだろうか?
何も分からないならcomfyuiのテンプレートにあるワークフローから始めると良い
674名無しさん@お腹いっぱい。 (ワッチョイ a723-Z2sH)
垢版 |
2025/12/20(土) 08:15:35.64ID:ui+dMgQu0
>>672
t2vモデルを使って生成したものから1フレームだけ取り出せば結果的にt2i相当になることは分かるよな?
2025/12/20(土) 08:40:38.90ID:LTXWt/jL0
wan2.2でt2iが流行ってしばらくすると多くがqwenに流れた思い出
2025/12/20(土) 09:02:21.59ID:es3k81cK0
>>674
はい それは分かるんですがわざわざwanでt2i用のキャラlora作る需要あるのかなと
sdxlの方が楽だし
それともt2v用のキャラlora作成って一般的じゃないんだろか
677名無しさん@お腹いっぱい。 (ワッチョイ a7bd-FV3J)
垢版 |
2025/12/20(土) 10:08:55.52ID:ui+dMgQu0
>>676
Wan 2.1のt2iが注目されたのは実写系の表現力と自然言語を含むプロンプトへの追従性だね
SDXLはIllustriousのおかげでイラスト系の表現力はいまだにかなり強力だけど、実写系は(エロ以外)後発のFluxやHiDreamに負けてるという評価だと思う
そこにWan 2.1が出てt2iもイケるんじゃね?となった
けどすぐにQwen-Imageが出て2509でさらに進化した今はほとんど使われてないと思う

俺は実写系はQwen-Imageで初めて使うようになったのでこの話はほとんど↓の受け売りなんだけど
https://pc.watch.impress.co.jp/docs/column/nishikawa/2034503.html

Wan t2i用のキャラLoraの話は知らないし意味も分からないなあ
2025/12/20(土) 11:44:09.99ID:N1LO33Ew0
Wanをt2iで使うのはもう二昔前の話
QwenImageに変わったのも一昔前(QwenImageEditはまだまだ現役)
今はZITと、直近リリースされたpai-flux.2 かな

ZITはその生成の速さと急速なLora増殖で席巻すると思う
2025/12/20(土) 11:45:48.49ID:N1LO33Ew0
で、動画の方はWan2.2で停滞してるんで、はよWan2.5のlocal版出してほしい
2025/12/20(土) 12:22:00.10ID:uNt/YXd00
2.5は出てもメモリ足りないんじゃないか?
もしくはかなりカツカツ
2025/12/20(土) 12:53:27.01ID:QHLsOpzY0
精度落としたら性能もめちゃくちゃ落ちるのは2.2でも体験済みだしな
とは言え2.2よりは確実に良くなるだろうしローカル落ちして欲しい
682名無しさん@お腹いっぱい。 (ワッチョイ a780-gk1Q)
垢版 |
2025/12/20(土) 13:39:00.85ID:2TcDcJFa0
>>667
これプラ感強くないですか?
まだ画像しか試してないけど、シャープさはあるからぱっと見綺麗だけど、肌質が塗りつぶされるからAI感が強めに出がちな印象

topazとかも似たような感じですかね?
2025/12/20(土) 13:44:31.37ID:N1LO33Ew0
seedVR2での画像のアプスケは全然良くないと思うぞ
684名無しさん@お腹いっぱい。 (ワッチョイ 23e6-FV3J)
垢版 |
2025/12/20(土) 13:55:12.87ID:ybXpNaFS0
動画のアプスケはtopazを買い切り出来た内に買えた奴が大勝利やろ
685名無しさん@お腹いっぱい。 (ワッチョイ 7230-dj/E)
垢版 |
2025/12/20(土) 14:06:44.11ID:63cMLsZX0
>>682
どのモデル使ったの?
686名無しさん@お腹いっぱい。 (ワッチョイ 7230-dj/E)
垢版 |
2025/12/20(土) 14:13:02.41ID:63cMLsZX0
>>682
後はflashVSRかな
687名無しさん@お腹いっぱい。 (ワッチョイ a760-gk1Q)
垢版 |
2025/12/20(土) 15:19:03.88ID:2TcDcJFa0
>>685
3b_fp8です
Mac環境なのでデカいのは動かないんですよね

>>686
ありがとう!
試してみます
2025/12/20(土) 17:23:58.96ID:EYu9Uah80
2倍アップスケールでテストしてみたよ
1. 元絵
FlashVSR Ultra-Fast tiled_vae ON FlashVSR-v1.1=342秒
2. FlashVSR Ultra-Fast tiled_vae OFF FlashVSR-v1.1=148秒
3. Upscaler Tensorrt⚡ 4xNomos2_off_esrgan fp32=197秒
4. Upscaler Tensorrt⚡ 4x-AnimeSharp fp16=176秒
VSRのVAE ON以外はどれも大きな差は無いかな
どれも髪の毛やまつ毛が結構崩れているね
この辺はアップスケールソフトの正確さには到底敵わない
Nomos2が実写アニメともノイズざらつきが少なくエッジがクッキリし過ぎて絵じゃんにならなくて好き
https://i.imgur.com/DO07Gp3.jpeg
2025/12/20(土) 17:27:49.02ID:EYu9Uah80
書き忘れたSmoothMix i2vね
2025/12/20(土) 17:30:15.25ID:EYu9Uah80
ごめん崩れるのはi2vのせいか
無かった事にしてくれ
2025/12/20(土) 17:57:17.47ID:EYu9Uah80
アップスケーラーを通さない場合は161秒
2. のVAE OFFは計測間違えでサンプラーの時間が入っていなかったので実際は303秒
やはりUpscaler Tensorrt⚡の方が圧倒的に早い
ただ環境によっては導入が無茶苦茶面倒だ

tiled_ditはメモリ節約でスピード低下という事だが
OFFだとVRAM96GBでもoomになるのでスピードアップは無理っぽい
2025/12/20(土) 19:07:05.93ID:EYu9Uah80
画質の違いを静止画で見てみたよ
1. アップスケーラー無し=2秒
2. FlashVSR Ultra-Fast tiled full=109秒
3. FlashVSR Ultra-Fast tiled tiny=82秒
4. Upscaler Tensorrt⚡4xNomos2_off_esrgan fp32=3秒
5. Upscaler Tensorrt⚡ 4x-AnimeSharp fp16=3秒
画質自体は大差ないか
https://i.imgur.com/cn95K23.png
2025/12/20(土) 19:18:52.07ID:N1LO33Ew0
画像なら同じモデルで再度サンプラー通してのアップスケール(Latent Upscale)、
動画なら、Wan2.2の5Bモデルを使ってのアップスケールが
いまのところ試した中では一番結果がいい
694名無しさん@お腹いっぱい。 (ワッチョイ 1e0e-s4JY)
垢版 |
2025/12/20(土) 19:25:22.03ID:S6N8VT5R0
>>693
wan2.2の5Bモデルを使ったアップスケールってどこかにワークフローある?
試してみたい
2025/12/20(土) 19:42:09.45ID:N1LO33Ew0
>>694
catboxが落ちてるようなので

https://xfs.jp/PcYVF
696名無しさん@お腹いっぱい。 (ワッチョイ 1e0e-s4JY)
垢版 |
2025/12/20(土) 20:16:59.69ID:S6N8VT5R0
>>695
ありがとう
試してみます
697名無しさん@お腹いっぱい。 (ワッチョイ 1f90-1bfe)
垢版 |
2025/12/20(土) 20:48:50.45ID:XDfZpz8z0
実写静止画だったらSeedVR2でいいと思う
元絵を維持したまま毛穴レベルで書き込んでくれる
動画だと重いから使ってないけど
https://files.catbox.moe/uedegi.jpg
https://files.catbox.moe/y095mm.jpg
2025/12/20(土) 23:17:47.78ID:EYu9Uah80
>>697
爆速と言っている割にはTensorRTと大して変わらず
アップスケールモデルの選択肢が無いし速度がTensorrtとは雲泥の差だからなぁ
Tensorrtの導入が出来ない人にはTensorRTよりは簡単に導入出来るから
そういった需要は有るよね
2025/12/20(土) 23:23:14.10ID:EYu9Uah80
>>697
ごめん、おいら何か勘違いしているかも知れない。
ケチを付けたい訳じゃないんさ。
SeedVR2も何かのWFで入っていたと思うけれど
検証した事は無いので次の課題としてやってみるお
2025/12/21(日) 09:29:03.39ID:e0XE/c3s0
redditでもSeedVR2凄いと評判になってて否定意見あまり見なかったな

リアルっぽさを捏造するんだけど
そのさじ加減がなかなかええんよね

当然二次なんかだと評価が変わってくるだろうね
2025/12/21(日) 09:33:46.99ID:e0XE/c3s0
出始めの頃に適当に試した時は
そんなによく感じなかったし
なんか継ぎ目のノイズみたいなん出てダメダメだったな

最近こなれて来たのか、試してみたら確かにいい感じだった

だからWF試すなら最近の評判良いようなモノを試した方が良いかと
2025/12/21(日) 10:49:31.60ID:NG/ybFqV0
Comfy4.0以上で
Tried to unpin tensor not pinned by ComfyUI
ってエラー大量にでるんだけど解決方法ある?
ググったらGGUF関連?ローダーのバージョン変えてみたけど特に改善しなかった
2025/12/21(日) 11:36:49.88ID:NG/ybFqV0
--disable-pinned-memory
付けて起動したらとりあえずでなくなったわ
704名無しさん@お腹いっぱい。 (ワッチョイ cf33-yCt5)
垢版 |
2025/12/21(日) 14:00:18.38ID:oaGNSh1G0
FlashVSR_Ultra_Fastでの動画拡大が時間もリソースもかなり使いますが結構綺麗でした
480p30fps10秒くらいでVRAM10GB、RAM30GBくらい(細かく分割、あとで結合すればリソースを節約しつつ長い動画も出来なくはない)

SeedVR2は初めて知ったんで試してみよう
705名無しさん@お腹いっぱい。 (ワッチョイ 3ff0-6DQo)
垢版 |
2025/12/21(日) 15:41:01.29ID:JG4wP68v0
無知すぎだろRedditで情報収集しな
706名無しさん@お腹いっぱい。 (ワッチョイ 3ff0-6DQo)
垢版 |
2025/12/21(日) 15:47:25.64ID:JG4wP68v0
>>692
見方間違ってるかもしれないけど全部同じ絵じゃないのなぜ?
レスを投稿する

5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況