AIで【動画】を生成するスレです。以下は全て可とします。
・ゼロから動画を作る技術
・画像から動画を作る技術
・既存動画をAIで加工する技術
・節度あるアダルトの話題
・ローカル、Webサービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け
情報を集めて良い動画制作を目指しましょう。
次スレは>>980が立ててください。
前スレ
【StableDiffusion】AI動画生成スレ4
https://mevius.5ch.net/test/read.cgi/cg/1751406411/
【StableDiffusion】AI動画生成スレ5
レス数が1000を超えています。これ以上書き込みはできません。
1名無しさん@お腹いっぱい。
2025/07/23(水) 01:28:29.45ID:uFh+1Cx+2名無しさん@お腹いっぱい。
2025/07/23(水) 01:29:55.83ID:uFh+1Cx+ ローカル環境関連
WanVideo
T2V, I2V, V2V, inpaint, ポーズ制御, LoRAその他いろいろ対応
https://github.com/Wan-Video/Wan2.1
kijai版 実験的な立ち位置
https://github.com/kijai/ComfyUI-WanVideoWrapper
FramePack
Wanと比べて長い動画を作れて破綻も少ないがやや落ち着いたモーション?
https://github.com/lllyasviel/FramePack
kijai版
https://github.com/kijai/ComfyUI-FramePackWrapper
EasyWanVideo
WanVideo,FramePackを簡単に導入する統合的なやつ
https://github.com/Zuntan03/EasyWanVideo
動画のLoRA学習に使えるリポジトリ
https://github.com/kohya-ss/musubi-tuner
https://github.com/tdrussell/diffusion-pipe
WanVideo
T2V, I2V, V2V, inpaint, ポーズ制御, LoRAその他いろいろ対応
https://github.com/Wan-Video/Wan2.1
kijai版 実験的な立ち位置
https://github.com/kijai/ComfyUI-WanVideoWrapper
FramePack
Wanと比べて長い動画を作れて破綻も少ないがやや落ち着いたモーション?
https://github.com/lllyasviel/FramePack
kijai版
https://github.com/kijai/ComfyUI-FramePackWrapper
EasyWanVideo
WanVideo,FramePackを簡単に導入する統合的なやつ
https://github.com/Zuntan03/EasyWanVideo
動画のLoRA学習に使えるリポジトリ
https://github.com/kohya-ss/musubi-tuner
https://github.com/tdrussell/diffusion-pipe
3名無しさん@お腹いっぱい。
2025/07/23(水) 01:30:15.42ID:uFh+1Cx+ ローカル関連2
HunyuanVideo
Wan,FramePack登場まではローカル生成界隈で盛り上がっていた LoRAは多い
https://github.com/Tencent/HunyuanVideo
https://github.com/kijai/ComfyUI-HunyuanVideoWrapper/issues
LTX-Video 最近海外では話題に上がる
https://github.com/Lightricks/LTX-Video
SkyReels-V2 最近海外では話題に上がる2
https://github.com/SkyworkAI/SkyReels-V2
NVIDIA Cosmos
ロボティクス、自動運転などの開発支援などが目的で物理的な表現に強いとされる
https://github.com/NVIDIA/Cosmos
すでに下火っぽい
https://github.com/THUDM/CogVideo
https://github.com/genmoai/mochi
https://github.com/guoyww/AnimateDiff
HunyuanVideo
Wan,FramePack登場まではローカル生成界隈で盛り上がっていた LoRAは多い
https://github.com/Tencent/HunyuanVideo
https://github.com/kijai/ComfyUI-HunyuanVideoWrapper/issues
LTX-Video 最近海外では話題に上がる
https://github.com/Lightricks/LTX-Video
SkyReels-V2 最近海外では話題に上がる2
https://github.com/SkyworkAI/SkyReels-V2
NVIDIA Cosmos
ロボティクス、自動運転などの開発支援などが目的で物理的な表現に強いとされる
https://github.com/NVIDIA/Cosmos
すでに下火っぽい
https://github.com/THUDM/CogVideo
https://github.com/genmoai/mochi
https://github.com/guoyww/AnimateDiff
4名無しさん@お腹いっぱい。
2025/07/23(水) 01:34:18.59ID:uFh+1Cx+ 主なwebサービス(t2vできるやつ)
DeeVid AI
https://deevid.ai/
Google Veo
https://deepmind.google/technologies/veo/
Hailuo AI
https://hailuoai.video/
invideo AI
https://invideo.io/
KlingAI
https://klingai.com/
Leonardo.AI
https://app.leonardo.ai/image-generation/video
Luma DreamMachine
https://dream-machine.lumalabs.ai/
Minmax
https://minmax.ai/video-generator/
Pika
https://pika.art/about
PixVerse
https://app.pixverse.ai/
Sora
https://sora.chatgpt.com/
Runway
https://runwayml.com/
Vidu
https://www.vidu.com/
WanVideo (web)
https://wan.video/
niji・journey
https://nijijourney.com/home
DeeVid AI
https://deevid.ai/
Google Veo
https://deepmind.google/technologies/veo/
Hailuo AI
https://hailuoai.video/
invideo AI
https://invideo.io/
KlingAI
https://klingai.com/
Leonardo.AI
https://app.leonardo.ai/image-generation/video
Luma DreamMachine
https://dream-machine.lumalabs.ai/
Minmax
https://minmax.ai/video-generator/
Pika
https://pika.art/about
PixVerse
https://app.pixverse.ai/
Sora
https://sora.chatgpt.com/
Runway
https://runwayml.com/
Vidu
https://www.vidu.com/
WanVideo (web)
https://wan.video/
niji・journey
https://nijijourney.com/home
5名無しさん@お腹いっぱい。
2025/07/23(水) 05:52:39.31ID:S8ce8HHv runwayって動画生成に画像必要なんすか?
6名無しさん@お腹いっぱい。
2025/07/23(水) 06:04:20.93ID:YZ8LZr0n ピストンloraのanime_piston.safetensorsを誤って削除してしまい再ダウンロードできず困っています
既にhuggingfaceでは削除されてるみたいなのでどこかダウンロードできるリンク先を教えていただけないでしょうか?
もしくはお持ちの方譲っていただけないでしょうか?
既にhuggingfaceでは削除されてるみたいなのでどこかダウンロードできるリンク先を教えていただけないでしょうか?
もしくはお持ちの方譲っていただけないでしょうか?
7名無しさん@お腹いっぱい。
2025/07/23(水) 06:55:22.13ID:wAQqbeSg もっともっとオールドメディアの怪しさについて当たり前のようにみんなが
話し合える世の中になって欲しい。例えばなんで韓国の元軍人が
TBSのプロデューサーやってるのに平気なの?とかね
あとテレビ局や新聞社には朝鮮学校の卒業生が多すぎるとかね
実質それスパイやん
話し合える世の中になって欲しい。例えばなんで韓国の元軍人が
TBSのプロデューサーやってるのに平気なの?とかね
あとテレビ局や新聞社には朝鮮学校の卒業生が多すぎるとかね
実質それスパイやん
8名無しさん@お腹いっぱい。
2025/07/23(水) 07:45:14.86ID:NBUqrrCg スレ建て乙
9名無しさん@お腹いっぱい。
2025/07/23(水) 09:15:23.43ID:0+win20V RTX50系のframepack導入手順とかテンプレどっかにありませんか?YouTubeとかにも無いし詰んでます、
10名無しさん@お腹いっぱい。
2025/07/23(水) 09:50:23.75ID:C9ZVVr+u かなり速いスレになってきたのう
11 警備員[Lv.10]
2025/07/23(水) 09:53:35.89ID:skzA6uQm >>9
前スレ読んだ?
936 名無しさん@お腹いっぱい。 2025/07/22(火) 00:53:45.80 ID:BpW29vzM
840ですが3080積んだ旧PCでは叡智も普通に動きました。5080では普通のFramePackもそのままでは動かず
environment.bat を実行、PyTorch 2.7.0をインストールして動かしているのでそれが原因なのかもしれません
5000シリーズで叡智を動かしてる方はなにか特別な工夫をされているのですか?
942 名無しさん@お腹いっぱい。 2025/07/22(火) 06:52:51.43 ID:CO220raW
>>936
5090だけどこれで動いた
okiniiripasokon.com/blog-entry-2003.html
前スレ読んだ?
936 名無しさん@お腹いっぱい。 2025/07/22(火) 00:53:45.80 ID:BpW29vzM
840ですが3080積んだ旧PCでは叡智も普通に動きました。5080では普通のFramePackもそのままでは動かず
environment.bat を実行、PyTorch 2.7.0をインストールして動かしているのでそれが原因なのかもしれません
5000シリーズで叡智を動かしてる方はなにか特別な工夫をされているのですか?
942 名無しさん@お腹いっぱい。 2025/07/22(火) 06:52:51.43 ID:CO220raW
>>936
5090だけどこれで動いた
okiniiripasokon.com/blog-entry-2003.html
2025/07/23(水) 10:28:24.13ID:R0d+EWge
皆画像なんかよりも動画で動かしたかったんやろなって速度になって来てるよねw
13名無しさん@お腹いっぱい。
2025/07/23(水) 10:33:54.50ID:C9ZVVr+u それはそうでもない
ローカル動画生成はまだまだ(特に日本だと)マイナー勢
オンラインは一定の存在感出てきているけど
それでも「やれてうらやましいな」みたいな見られ方
してるイメージ 月に数千円は一般人にゃ痛いわな
ローカル動画生成はまだまだ(特に日本だと)マイナー勢
オンラインは一定の存在感出てきているけど
それでも「やれてうらやましいな」みたいな見られ方
してるイメージ 月に数千円は一般人にゃ痛いわな
14名無しさん@お腹いっぱい。
2025/07/23(水) 11:01:59.57ID:2olADOc8 wanのプロンプト理解度はklingとかのオンラインサービス並のレベルに達してるから、もう単語を羅列したプロンプト記述すんのバカらしくなったよ
なんというか、もはや「わざわざ静止画で出す必要がない」と言える
なんというか、もはや「わざわざ静止画で出す必要がない」と言える
15名無しさん@お腹いっぱい。
2025/07/23(水) 11:04:10.00ID:C9ZVVr+u それはモノクロ漫画がカラーマンガより劣っているか議論みたいなとこがあるんで
一概には言えない
動画やりたかった勢に選択肢がたくさん出てきたのはいいことやが
一概には言えない
動画やりたかった勢に選択肢がたくさん出てきたのはいいことやが
16名無しさん@お腹いっぱい。
2025/07/23(水) 12:08:14.78ID:Mj5uEbqQ >>11
すんなり行けました!ありがとう。昨日chatGPTに聞きながらやって1日沼ったから感謝です
すんなり行けました!ありがとう。昨日chatGPTに聞きながらやって1日沼ったから感謝です
2025/07/23(水) 12:33:37.67ID:eAU4Dx/c
chatGPTあるいはほかのLLMに限らず最新情報は別に知らないしちょっと込み入った専門情報になるとまったく応用が利かずにでたらめ言うんで注意
18名無しさん@お腹いっぱい。
2025/07/23(水) 14:36:50.52ID:8pcIl2O0 基本的な質問失礼します
NsfwFastって1秒ごとにコントラスト高くなるのでつなげるにしても5秒×3回が限界なんやがどこ触ればいい?
2本目3本目をカラーマッチのWFで処理してもつなぎ目は5秒経過後の色につながるのでおかしくなる
NsfwFastって1秒ごとにコントラスト高くなるのでつなげるにしても5秒×3回が限界なんやがどこ触ればいい?
2本目3本目をカラーマッチのWFで処理してもつなぎ目は5秒経過後の色につながるのでおかしくなる
2025/07/23(水) 14:56:51.61ID:0SFZGXTE
コントラストに一貫性を持たせるたった一つの冴えたやり方はAftereffectだ!
画面の一定化機能があるのはAFだけ!他の編集ソフトではその機能がない!
やっぱプロ仕様のソフトは格が違う!これがたったの1640円!
画面の一定化機能があるのはAFだけ!他の編集ソフトではその機能がない!
やっぱプロ仕様のソフトは格が違う!これがたったの1640円!
2025/07/23(水) 14:58:33.11ID:Ys4UNVx+
21名無しさん@お腹いっぱい。
2025/07/23(水) 15:13:35.88ID:Lwu8CVKC たまに永井豪みたいな絵面になるよね
2025/07/23(水) 15:16:11.07ID:jmgxtOBM
チャッピーは画像生成すると必ずフィルムグレイン効果入れてくるのやめて欲しいw
23名無しさん@お腹いっぱい。
2025/07/23(水) 16:34:46.35ID:C9ZVVr+u24名無しさん@お腹いっぱい。
2025/07/23(水) 16:38:24.85ID:UisPHffA Enhance-A-Videoってなんか意味ある?
違いマジでわからん
違いマジでわからん
25名無しさん@お腹いっぱい。
2025/07/23(水) 16:57:30.39ID:8pcIl2O026名無しさん@お腹いっぱい。
2025/07/23(水) 17:27:05.27ID:UisPHffA >>25
CausVid(特にv1。v2はコントラスト自然らしい)とかFusionXみたいな高速化Lora組み込まれてると
コントラスト高くなったり彩度上がりすぎて飽和みたいになるっぽい
NsfwFastはFastMix〜みたいなモデルを使ってるからそういう傾向になるんではと
画像から動画のI2Vモデル、の箇所をWan21-BothI2v-14B-FastMix-fp8_e5m2でやってるけど個人的には気にならん
CausVid(特にv1。v2はコントラスト自然らしい)とかFusionXみたいな高速化Lora組み込まれてると
コントラスト高くなったり彩度上がりすぎて飽和みたいになるっぽい
NsfwFastはFastMix〜みたいなモデルを使ってるからそういう傾向になるんではと
画像から動画のI2Vモデル、の箇所をWan21-BothI2v-14B-FastMix-fp8_e5m2でやってるけど個人的には気にならん
27名無しさん@お腹いっぱい。
2025/07/23(水) 17:30:05.52ID:0+win20V >>20
マジで大変でした。最後チャッピーに説教してて、我に返ってPCそっ閉じしました。
マジで大変でした。最後チャッピーに説教してて、我に返ってPCそっ閉じしました。
28名無しさん@お腹いっぱい。
2025/07/23(水) 17:57:32.06ID:P8rpvXL6 俺はエラー出た時copilotにメタクソにされてチャッピーに聞いたらすんあり解決した事あるで
チャッピーいわくコパは発達障害やーゆうとったで
チャッピーいわくコパは発達障害やーゆうとったで
29名無しさん@お腹いっぱい。
2025/07/23(水) 18:01:52.03ID:8pcIl2O0 >>26
それ入れてみる。サンガツ!
それ入れてみる。サンガツ!
2025/07/23(水) 18:12:33.74ID:afG3GEfM
>>19
(新規のサブスク1年プランだと1ヶ月計算では)1640円な!
(新規のサブスク1年プランだと1ヶ月計算では)1640円な!
31名無しさん@お腹いっぱい。
2025/07/23(水) 18:16:51.66ID:INFp5oGn 結局前スレのLora作りの話だと動画として学習させるより分割して画像として振り分けたほうがいいのか
32名無しさん@お腹いっぱい。
2025/07/23(水) 18:44:37.30ID:0+win20V しかし、あらためて思うがこんなツール出てきたら少子化になるの分かるわ。リアルな女いるか?てなる
33名無しさん@お腹いっぱい。
2025/07/23(水) 18:47:38.34ID:CTdimJNu34名無しさん@お腹いっぱい。
2025/07/23(水) 18:49:25.42ID:8p8nl0aI チャッキーにコパか
なんかかわいいな
なんかかわいいな
35名無しさん@お腹いっぱい。
2025/07/23(水) 18:52:47.86ID:yOFFoACn >>32
肌の触れ合いも興奮材料のひとつ
肌の触れ合いも興奮材料のひとつ
36名無しさん@お腹いっぱい。
2025/07/23(水) 18:53:27.86ID:0+win20V 片っ端から裸に出来るやん。。もうお腹いっぱい神様ありがとう🙏
37名無しさん@お腹いっぱい。
2025/07/23(水) 18:54:31.23ID:0+win20V >>35
確かに
確かに
38名無しさん@お腹いっぱい。
2025/07/23(水) 19:08:32.43ID:X8NFDfeq ちょっと詳しい人にききたいんだがRTX5000シリーズでFP4がネイティブで高速化される
GPTに聞いたら多少の情報は出るが、実際スタブルオート111でFP4試した人の感想が聞きたい
まだ数が少ない&実用的ではない?
GPTに聞いたら多少の情報は出るが、実際スタブルオート111でFP4試した人の感想が聞きたい
まだ数が少ない&実用的ではない?
2025/07/23(水) 19:15:07.27ID:VES6XY02
RTX50シリーズでframepack導入に躓くのわかるわ
調べてると一番出てくるのはpinokioの導入だと思うが
実はEasywanに付随しているFramepack.batを使うのが一番早くて楽
調べてると一番出てくるのはpinokioの導入だと思うが
実はEasywanに付随しているFramepack.batを使うのが一番早くて楽
40名無しさん@お腹いっぱい。
2025/07/23(水) 19:35:46.14ID:PJ56Vhgi コラボで楽しようぜ
2025/07/23(水) 19:49:29.47ID:tIG6VBvh
俺はFramePack未経験でいきなりFramePack-Eichを導入したから
インストール方法に日本語で丁寧にrtx5000番台の導入手順書いてあったよ
インストール方法に日本語で丁寧にrtx5000番台の導入手順書いてあったよ
42名無しさん@お腹いっぱい。
2025/07/23(水) 19:51:53.17ID:33I2sfSg 詳しい人に質問なんやが、Frame pack studioとeasy wan video入れるならどっちがいい?
グラボは5070tiで普通のframepack入れるだけで一苦労だったのに
動きショボかったからどっちか入れようと思ってる
グラボは5070tiで普通のframepack入れるだけで一苦労だったのに
動きショボかったからどっちか入れようと思ってる
2025/07/23(水) 20:14:02.39ID:Ys4UNVx+
>>42
EasyWan導入して、ノード画面で思考がフリーズしちゃったからFramePackに移行したけど
EasyWanに戻ってきたわ。ちな先週買いたてのRTX506016GBちゃん
EasyWanは自由度高くて、スレ民のおかげで、フレーム幅:480、フレーム高:720、フレーム率32.00フレーム/秒、5秒、
LoRA7個の動画が334.86秒程度で出力できるようになったよ
EasyWan導入して、ノード画面で思考がフリーズしちゃったからFramePackに移行したけど
EasyWanに戻ってきたわ。ちな先週買いたてのRTX506016GBちゃん
EasyWanは自由度高くて、スレ民のおかげで、フレーム幅:480、フレーム高:720、フレーム率32.00フレーム/秒、5秒、
LoRA7個の動画が334.86秒程度で出力できるようになったよ
44名無しさん@お腹いっぱい。
2025/07/23(水) 20:24:37.14ID:33I2sfSg2025/07/23(水) 20:26:45.77ID:uFh+1Cx+
EasyWan民は感謝を込めて1日1回Zuntanの方角へ向けて射精していけ
46名無しさん@お腹いっぱい。
2025/07/23(水) 20:31:33.24ID:TZjfoqC+ 自分は5080でのF1とeichiに躓いてます。普通のFramePackは動くんだけどなぁ
2025/07/23(水) 20:40:22.47ID:Ys4UNVx+
48名無しさん@お腹いっぱい。
2025/07/23(水) 20:49:32.33ID:uFh+1Cx+ ぶっちゃけると、おかずとして数年前から考えたら最上級のモノが作れているはずなのになかなかシコれない。
やっぱり中田氏が上手く表現できないのが物足りない原因なんだろうか
画像だとフィニッシュが比較的作りやすいんだけども
やっぱり中田氏が上手く表現できないのが物足りない原因なんだろうか
画像だとフィニッシュが比較的作りやすいんだけども
49名無しさん@お腹いっぱい。
2025/07/23(水) 20:51:06.48ID:nAO9NE+l50名無しさん@お腹いっぱい。
2025/07/23(水) 20:51:25.50ID:AfWl5Ppa pusa試してみたけど、pusaのloraを1.0で適用するだけでクオリティがグッと上がってる・・・気がする・・・
pusaの謳い文句にあるように、わちゃわちゃっ!とした急激な動きが抑制されてるかな
pusaの謳い文句にあるように、わちゃわちゃっ!とした急激な動きが抑制されてるかな
51名無しさん@お腹いっぱい。
2025/07/23(水) 20:53:39.93ID:33I2sfSg52名無しさん@お腹いっぱい。
2025/07/23(水) 20:54:16.23ID:C9ZVVr+u 文字情報(声情報)と合わせづらいのはネック
クッソ簡単にいい感じのあえぎetcのエロ合成音声と
セットで出せるようになったらまた変わるとは思う
ただ惜しいとこまで来てはいるけどやっぱ割と微妙なんよな
クッソ簡単にいい感じのあえぎetcのエロ合成音声と
セットで出せるようになったらまた変わるとは思う
ただ惜しいとこまで来てはいるけどやっぱ割と微妙なんよな
53名無しさん@お腹いっぱい。
2025/07/23(水) 21:07:04.84ID:8p8nl0aI 抜くだけなら画像にmoaning motionline bluer つけていい感じになったののほうが抜きやすい
あれ?なんで動画作ってるんだ?
あれ?なんで動画作ってるんだ?
2025/07/23(水) 21:11:10.09ID:Ys4UNVx+
>>51
前スレ
【StableDiffusion】AI動画生成スレ4
https://mevius.5ch.net/test/read.cgi/cg/1751406411/
の584さんや589さんの動画だよ〜
pngやらも一緒に落としといたら見返すときに楽だよ
前後で質問にも答えてくださってたからそれらも参考にしてみて
(ちなみに新参者なので質問してたのはワインゴではないンゴ)
前スレ
【StableDiffusion】AI動画生成スレ4
https://mevius.5ch.net/test/read.cgi/cg/1751406411/
の584さんや589さんの動画だよ〜
pngやらも一緒に落としといたら見返すときに楽だよ
前後で質問にも答えてくださってたからそれらも参考にしてみて
(ちなみに新参者なので質問してたのはワインゴではないンゴ)
55名無しさん@お腹いっぱい。
2025/07/23(水) 21:23:47.98ID:h0K5L4sy Kijai版フローをカスタマイズして遊んでんだけど
どうもEnhance-A-Videoは無しにして、NAGだけの方が動きがいいかもしれない
あと、MPSとMoviiGenは両方適用すると喧嘩するな
どちらか一方の方がいいかな(MPSの方がよさげ)
ソースによりまちまちなので、決め手の構成と値(割合)が無いってのがつらいね
無難なのは高速化をせずにuniPC+20stepなんだけどね
一度1分ちょいで生成されるのを知ってしまうと中々元には戻れない・・
どうもEnhance-A-Videoは無しにして、NAGだけの方が動きがいいかもしれない
あと、MPSとMoviiGenは両方適用すると喧嘩するな
どちらか一方の方がいいかな(MPSの方がよさげ)
ソースによりまちまちなので、決め手の構成と値(割合)が無いってのがつらいね
無難なのは高速化をせずにuniPC+20stepなんだけどね
一度1分ちょいで生成されるのを知ってしまうと中々元には戻れない・・
56名無しさん@お腹いっぱい。
2025/07/23(水) 21:28:54.22ID:h0K5L4sy あ、それと
81フレーム以上はContextOption入れると効果絶大だな
プロンプトへの追従の正確性も上がる
(改めて認識)
81フレーム以上はContextOption入れると効果絶大だな
プロンプトへの追従の正確性も上がる
(改めて認識)
57名無しさん@お腹いっぱい。
2025/07/23(水) 21:40:50.58ID:nLBZs1GX 4070TiS買ったんだけど今使ってるミドルケースにギリ入らなかった…
2080から10cm近くもデカくなってるとか思わないわ
無理して買ったのにまた出費が嵩む…
2080から10cm近くもデカくなってるとか思わないわ
無理して買ったのにまた出費が嵩む…
58名無しさん@お腹いっぱい。
2025/07/23(水) 21:48:19.72ID:PwVPCqiu 動画生成中に残り20%みたいなところでブルースクリーン出るようになったんだが.....
これどうすればいい???3回連続ででて再起動してる.....
stable diffusionは動いたので一安心してるが......
これどうすればいい???3回連続ででて再起動してる.....
stable diffusionは動いたので一安心してるが......
59名無しさん@お腹いっぱい。
2025/07/23(水) 21:59:08.08ID:T7yYU+MA phantomめっちゃいいんだけどあんまり話題に出ないからphantom狂のワイ悲しい;;
60名無しさん@お腹いっぱい。
2025/07/23(水) 22:04:50.91ID:uFh+1Cx+ >>49
ぐうわかる、意図の通りに動いてしまうと意外性が欠如しておかずとして見れなくなる
なのでレシピ広めて似たコンセプトの動画が増えるなら嬉しい
でも、モ無しは自家製でしか作れないというジレンマもあったり
ぐうわかる、意図の通りに動いてしまうと意外性が欠如しておかずとして見れなくなる
なのでレシピ広めて似たコンセプトの動画が増えるなら嬉しい
でも、モ無しは自家製でしか作れないというジレンマもあったり
61名無しさん@お腹いっぱい。
2025/07/23(水) 22:05:31.39ID:z5NfUY8B >>58
DDUでグラボのドライバ入れ直してみれば?
DDUでグラボのドライバ入れ直してみれば?
2025/07/23(水) 22:07:14.80ID:2+Eu+Ilt
それエロできるの???
63名無しさん@お腹いっぱい。
2025/07/23(水) 22:10:17.53ID:PwVPCqiu2025/07/23(水) 22:29:51.47ID:NydS3/Sg
65名無しさん@お腹いっぱい。
2025/07/23(水) 23:02:34.32ID:UisPHffA66名無しさん@お腹いっぱい。
2025/07/23(水) 23:04:46.98ID:3gkaDwMW >>57
ワイもグラボ入りきれなかったけど蓋しないで使ってるw
ワイもグラボ入りきれなかったけど蓋しないで使ってるw
67名無しさん@お腹いっぱい。
2025/07/23(水) 23:35:56.93ID:AfWl5Ppa >>65
redditのスレでは「lora適用するだけ」って書いてあったからそれでいいのかな~って思って、ほんと適用してるだけだけど、
体感だと手を振る動作なんかが滑らかだったりになってる気はするんだよなぁ
redditのスレでは「lora適用するだけ」って書いてあったからそれでいいのかな~って思って、ほんと適用してるだけだけど、
体感だと手を振る動作なんかが滑らかだったりになってる気はするんだよなぁ
68名無しさん@お腹いっぱい。
2025/07/24(木) 00:33:58.34ID:TyQwP1r5 >>59
phantomってt2vベースだからプロンプト指示面倒じゃない?
phantomってt2vベースだからプロンプト指示面倒じゃない?
69名無しさん@お腹いっぱい。
2025/07/24(木) 01:12:19.08ID:DyKDA/UQ >>67
確かにじっくり比較したらびみょ〜に良い方向に変わってて、動きが落ち着くというか、優しい感じになってるみたいな
Redditだとlight2xやcausvidに比べて品質が悪いみたいに書かれてるのもあったけど、それもよく分からん…
確かにじっくり比較したらびみょ〜に良い方向に変わってて、動きが落ち着くというか、優しい感じになってるみたいな
Redditだとlight2xやcausvidに比べて品質が悪いみたいに書かれてるのもあったけど、それもよく分からん…
2025/07/24(木) 03:38:09.81ID:hiZqQr7s
さっきcivitaiにあったはずのパンツ下ろしloraもう消えてら
ふたなり用って書いてあったからスルーしたけど応用できるかもしれんからDLしとけばよかった
ふたなり用って書いてあったからスルーしたけど応用できるかもしれんからDLしとけばよかった
2025/07/24(木) 03:41:33.33ID:sl4akaaK
今のcivitaiでの脱ぎ系は例え汚いオッサンが靴下を脱ぐだけのloraでもすぐ消えるぞ
72名無しさん@お腹いっぱい。
2025/07/24(木) 04:59:16.00ID:cEHLPdPR >>66
横が入り切らなかったからどう頑張ってもまず刺さらんw
横が入り切らなかったからどう頑張ってもまず刺さらんw
73名無しさん@お腹いっぱい。
2025/07/24(木) 05:22:04.31ID:OfTwixwL ダブルブロージョブのLoRaでティンポが2本になるのは仕様ですか?
74名無しさん@お腹いっぱい。
2025/07/24(木) 05:36:09.83ID:6do51tm8 なんで脱がし系はあかんの?
エロはドギツイのいくらでもあるのに
実在人物脱がせるからか?
でもそんなの最初から裸にはいくらでもできるわけで脱がす行為だけアウトなのがわからん
エロはドギツイのいくらでもあるのに
実在人物脱がせるからか?
でもそんなの最初から裸にはいくらでもできるわけで脱がす行為だけアウトなのがわからん
75名無しさん@お腹いっぱい。
2025/07/24(木) 06:20:32.27ID:9f+QLXyV76名無しさん@お腹いっぱい。
2025/07/24(木) 07:43:53.68ID:e0Zzwl1Y >>74
変更前の規約から既に脱がすことを目的にしたモデルはNGって規約に入ってる
変更前の規約から既に脱がすことを目的にしたモデルはNGって規約に入ってる
2025/07/24(木) 08:02:28.17ID:9tqhEazW
2080と4070tisってそんなに長さ違ったっけ?
どっちも2ファンと3ファンあったはずだから変わらん気がするけど
どっちも2ファンと3ファンあったはずだから変わらん気がするけど
78名無しさん@お腹いっぱい。
2025/07/24(木) 08:05:57.56ID:cEHLPdPR EasyWan導入しようと思うのですがComfyUIとの関係はどうなりますか?
ComfyUIとModelなど共用して併用出来ますか?
その場合どこにインストールすればいいですか?
ComfyUIとModelなど共用して併用出来ますか?
その場合どこにインストールすればいいですか?
2025/07/24(木) 08:09:39.28ID:iJl+4TYQ
>>74
そもそも実在人物のnsfwを作ることは禁止
裸の画像を作るというけど
、
1、顔画像の差替え(アイコラ)は
ハサミとノリで作るのは、取り締まる手段がないというだけ
2、顔loraはcivitaiでは削除対象
「実在人物の顔loraを作る方法」という記事を出したら削除対象になるのでは
そもそも実在人物のnsfwを作ることは禁止
裸の画像を作るというけど
、
1、顔画像の差替え(アイコラ)は
ハサミとノリで作るのは、取り締まる手段がないというだけ
2、顔loraはcivitaiでは削除対象
「実在人物の顔loraを作る方法」という記事を出したら削除対象になるのでは
2025/07/24(木) 08:40:01.97ID:SyRruZjF
フェイススワップ系のワークフローは残ってるな
これらもいつ消えてもおかしくない
これらもいつ消えてもおかしくない
2025/07/24(木) 09:27:41.47ID:N1OYfAYa
ちゃんとAIにも性教育しないから股間から変な物体が出てくるんだよな
2025/07/24(木) 10:00:15.65ID:nSgDyilO
>>43
そのワークフロー欲しすぎる…
そのワークフロー欲しすぎる…
83名無しさん@お腹いっぱい。
2025/07/24(木) 10:12:35.33ID:FJaoWtuw ai動画生成してると、どんくらい電気代跳ね上がるの?
2025/07/24(木) 10:31:08.99ID:05S7Kv7b
長い時間の動画を生成しても
結局顔が元画像から離れていくから
結局10秒以内の動画しか作らなくなりませんか
対応策ってあるんですか?
結局顔が元画像から離れていくから
結局10秒以内の動画しか作らなくなりませんか
対応策ってあるんですか?
85名無しさん@お腹いっぱい。
2025/07/24(木) 10:46:38.03ID:AbaJAJng >>64
56だけど、画像のようにKijai氏WrapperのSamplerに繋ぐ
「context_options」の入力部からフローを伸ばすと自動で繋がるメニューが出てくるので
そこで選べるはず
このノード、最近アプデされたようなので、WanVideoWrapperを最新のものにした方がいいかも
(git pullして)
https://i.imgur.com/19KPsE1.jpeg
56だけど、画像のようにKijai氏WrapperのSamplerに繋ぐ
「context_options」の入力部からフローを伸ばすと自動で繋がるメニューが出てくるので
そこで選べるはず
このノード、最近アプデされたようなので、WanVideoWrapperを最新のものにした方がいいかも
(git pullして)
https://i.imgur.com/19KPsE1.jpeg
86名無しさん@お腹いっぱい。
2025/07/24(木) 11:06:13.11ID:qJN8oDQm 46だけどようやくF1と叡智が動いた。save_bcthw_as_mp4 が crf 引数をサポートしていない、とのエラーだった
でもFramePackは動いてF1と叡智が駄目だった理由はよーわからんままだ
でもFramePackは動いてF1と叡智が駄目だった理由はよーわからんままだ
2025/07/24(木) 12:00:37.06ID:hiZqQr7s
88名無しさん@お腹いっぱい。
2025/07/24(木) 12:09:23.05ID:5khBvTdx89名無しさん@お腹いっぱい。
2025/07/24(木) 14:21:50.58ID:jDyYrvDt90名無しさん@お腹いっぱい。
2025/07/24(木) 14:50:31.78ID:TyQwP1r5 Phantomも久々に作ってみたがCausvidとlightx2vとMoviiGen入れるとステップ5くらいでそこそこのもん作れるな
オンラインと違っていくらでも参照画像増やせるのが強みか
オンラインと違っていくらでも参照画像増やせるのが強みか
91名無しさん@お腹いっぱい。
2025/07/24(木) 16:45:44.00ID:OfTwixwL >>84
シード値やノイズを固定する
シード値やノイズを固定する
92名無しさん@お腹いっぱい。
2025/07/24(木) 17:44:22.49ID:8rHoh1k3 ほとんどの人がローカル環境だと思うが、GPUクラウド環境の人おる?
GPUSOROBANってところで画像生成始めて、動画生成も始めようと思ったんだがここのサービスだとVRAM16GBのサービスしかなくて、AWS EC2みたいな大手を使わないといけなそうなんだが、NSFW大丈夫なのか気になる
GPUSOROBANってところで画像生成始めて、動画生成も始めようと思ったんだがここのサービスだとVRAM16GBのサービスしかなくて、AWS EC2みたいな大手を使わないといけなそうなんだが、NSFW大丈夫なのか気になる
93名無しさん@お腹いっぱい。
2025/07/24(木) 17:52:27.19ID:cEHLPdPR >>89
ありがとうございます
ということは別にあるComfyUIフォルダの中身をEasyWanの中のComfyフォルダに移してしまえばいいのでしょうか
それともEasyWanのyamlファイルを書き換えた方がいいですか
ありがとうございます
ということは別にあるComfyUIフォルダの中身をEasyWanの中のComfyフォルダに移してしまえばいいのでしょうか
それともEasyWanのyamlファイルを書き換えた方がいいですか
94名無しさん@お腹いっぱい。
2025/07/24(木) 18:13:18.91ID:TRZ52NU6 最強最速高品質で簡単に使えるエラーの出ないNsfw向けのワークフローを教えて下さい(チャッピー風)
2025/07/24(木) 18:22:33.50ID:liRYh4P7
Pusa v1ってエロはどうなの? 5GBもある巨大なLoRAだけど効果あるのかな
2025/07/24(木) 18:48:38.98ID:TyQwP1r5
97名無しさん@お腹いっぱい。
2025/07/24(木) 19:16:35.05ID:8rHoh1k32025/07/24(木) 19:32:55.94ID:TyQwP1r5
>>97
まあそんな感じ
ストレージ容量を気にしつつ、使わない時はモデル消したりして48Gくらいを維持してやってる
まあちょっとくらいオーバーしてもそこまでの金額にはならんが
FreeA100拾えたらもっといいんだが今まで1回しか使えてないわ
まあそんな感じ
ストレージ容量を気にしつつ、使わない時はモデル消したりして48Gくらいを維持してやってる
まあちょっとくらいオーバーしてもそこまでの金額にはならんが
FreeA100拾えたらもっといいんだが今まで1回しか使えてないわ
99名無しさん@お腹いっぱい。
2025/07/24(木) 19:34:38.73ID:OGTGZ0Mi ずっとコラボでA100使ってる
100名無しさん@お腹いっぱい。
2025/07/24(木) 20:22:14.66ID:CSVxtraT >>93
ComfyUIのフォルダごと移すのはやめたほうがいいと思う
前々スレの940に
>EasyWanはComfy本体とノード等の整合性を保つ為に、
>あえて少しバージョン落としたComfyを使ってるって前スレ>>850~>>855あたりの流れで見たよ
>EasyのアプデはするけどComfy本体のアプデは環境壊れそうで慎重になっちゃうな
とある
容量食うのはmodelsフォルダだけだから外部ComfiUIのextra_model_paths.yamlを書き換えて
EasyWan内のmodelsフォルダを参照するのが安心安全
EasyWanでは使えない新しい機能やノードは外部ComfiUIを最新版にして動かせばいいし
ComfyUIのフォルダごと移すのはやめたほうがいいと思う
前々スレの940に
>EasyWanはComfy本体とノード等の整合性を保つ為に、
>あえて少しバージョン落としたComfyを使ってるって前スレ>>850~>>855あたりの流れで見たよ
>EasyのアプデはするけどComfy本体のアプデは環境壊れそうで慎重になっちゃうな
とある
容量食うのはmodelsフォルダだけだから外部ComfiUIのextra_model_paths.yamlを書き換えて
EasyWan内のmodelsフォルダを参照するのが安心安全
EasyWanでは使えない新しい機能やノードは外部ComfiUIを最新版にして動かせばいいし
2025/07/24(木) 20:44:15.26ID:lgI6lcVD
easywanで画像からループ化って、
一度5秒作ってから始まりの画像に数秒付け足して繋げるしかない?
一度5秒作ってから始まりの画像に数秒付け足して繋げるしかない?
2025/07/24(木) 20:55:58.95ID:AbaJAJng
2025/07/24(木) 20:58:52.74ID:AbaJAJng
104名無しさん@お腹いっぱい。
2025/07/24(木) 21:19:33.72ID:cEHLPdPR2025/07/24(木) 21:50:10.48ID:80W5Iutp
俺のCドライブには
Easywan
Nativewan
SDXL
と3つのComfy portable版入れて別々に運用してるわ
Easywan
Nativewan
SDXL
と3つのComfy portable版入れて別々に運用してるわ
2025/07/24(木) 22:01:00.94ID:sl4akaaK
どういう事や・・・
フェラ動画用
ぶっかけ動画用
パイズリ動画用
みたいに分けとんのか・・・?
フェラ動画用
ぶっかけ動画用
パイズリ動画用
みたいに分けとんのか・・・?
107名無しさん@お腹いっぱい。
2025/07/24(木) 22:09:27.02ID:qJN8oDQm Cドラに入れるのはSSDへの負担が怖いから自分はDドラだなぁ
108名無しさん@お腹いっぱい。
2025/07/24(木) 22:19:44.50ID:cEHLPdPR >>100
extra_model_paths.yaml
ですがWebUIの項目にないClipやClip vision、text encoder、unet
などはどうすればいいのでしょうか
下のconfig for comfyuiの項目を書き換えても反映されませんでした
どれも結構でかいファイルなのでダブらせたくはないですが出来なさそうなら諦めてコピペします
それともEasyWanでは必要なかったりします?
extra_model_paths.yaml
ですがWebUIの項目にないClipやClip vision、text encoder、unet
などはどうすればいいのでしょうか
下のconfig for comfyuiの項目を書き換えても反映されませんでした
どれも結構でかいファイルなのでダブらせたくはないですが出来なさそうなら諦めてコピペします
それともEasyWanでは必要なかったりします?
2025/07/24(木) 22:31:22.79ID:80W5Iutp
2025/07/25(金) 00:56:00.44ID:Q/G+ST/d
>>85
詳細に教えてくれてありがとう
詳細に教えてくれてありがとう
111名無しさん@お腹いっぱい。
2025/07/25(金) 01:54:40.60ID:ZZHiZyRA >>96
そこまで高いプランに入ってるなら、普通にPC買った方がよくないか。
RTX5090搭載のPCを自作すれば、使っていけば元取れていく。
短期で高い料金払って使いたいならありだと思うけど、使い続けるのは損でしかない。
そこまで高いプランに入ってるなら、普通にPC買った方がよくないか。
RTX5090搭載のPCを自作すれば、使っていけば元取れていく。
短期で高い料金払って使いたいならありだと思うけど、使い続けるのは損でしかない。
112名無しさん@お腹いっぱい。
2025/07/25(金) 05:50:18.45ID:lyRfsFfT 今後どうなるかわからないコンテンツだからなぁ
ただ人類の歴史的に続くとは思うけどどの程度まで地下に潜るかねぇ
ただ人類の歴史的に続くとは思うけどどの程度まで地下に潜るかねぇ
2025/07/25(金) 06:23:54.45ID:EcdZbIik
mod界隈はディスコードに潜ったよね
114名無しさん@お腹いっぱい。
2025/07/25(金) 07:24:20.88ID:N4tOt/fg >>108
自分の場合、C:/にEasyWanをインスコして、StabilityMatrixのComfiUIから
EasyWanのモデルを参照しているよ(容量を食うフォルダのみ)
StabilityMatrix側のComfiUIのextra_model_paths.yamlは
comfyui:
base_path: C:/EasyWan/ComfyUI/
is_default: true
clip: models/clip/
clip_vision: models/clip_vision/
diffusion_models: models/diffusion_models/
loras: models/loras/
text_encoders: models/text_encoders/
transformers: models/transformers/
unet: models/unet/
vae: models/vae/
としている
その他のフォルダもEasyWan側にあれば追記して参照できるけど、
text_encodersが無いとかよくわからん???
自分の場合、C:/にEasyWanをインスコして、StabilityMatrixのComfiUIから
EasyWanのモデルを参照しているよ(容量を食うフォルダのみ)
StabilityMatrix側のComfiUIのextra_model_paths.yamlは
comfyui:
base_path: C:/EasyWan/ComfyUI/
is_default: true
clip: models/clip/
clip_vision: models/clip_vision/
diffusion_models: models/diffusion_models/
loras: models/loras/
text_encoders: models/text_encoders/
transformers: models/transformers/
unet: models/unet/
vae: models/vae/
としている
その他のフォルダもEasyWan側にあれば追記して参照できるけど、
text_encodersが無いとかよくわからん???
115名無しさん@お腹いっぱい。
2025/07/25(金) 07:43:44.97ID:N4tOt/fg116名無しさん@お腹いっぱい。
2025/07/25(金) 07:44:47.78ID:HWshykz0 snwf終了まで一週間切ったな
2025/07/25(金) 08:00:38.68ID:Q/G+ST/d
wan2.2もうすぐくるん?
2025/07/25(金) 08:05:40.81ID:/avlszUz
wan2.2が来たとしても2.1と同じ程度のローカル環境で動かないとあまり意味ないがその辺はどうなん?
119名無しさん@お腹いっぱい。
2025/07/25(金) 09:15:17.44ID:ZZHiZyRA モデルの容量が大きすぎて生かせないのがあれだよな
48GB超えるGPUが高すぎる
48GB超えるGPUが高すぎる
120名無しさん@お腹いっぱい。
2025/07/25(金) 09:41:20.32ID:pZdElTox2025/07/25(金) 09:41:45.89ID:4ZvQecut
検閲かかるのってgoogle colabだけ?
他のクラウドも検閲されるかと思うとちょっと怖い
Lora作成はrunpodでやってるけど
他のクラウドも検閲されるかと思うとちょっと怖い
Lora作成はrunpodでやってるけど
2025/07/25(金) 09:44:20.76ID:TSL7ltCY
オンラインサービス使う以上は検閲あるものと思った方がいい
無検閲で自由に楽しみたいならローカルしか選択肢が無い
無検閲で自由に楽しみたいならローカルしか選択肢が無い
2025/07/25(金) 09:50:16.41ID:4ZvQecut
やっぱりそうだよな・・・サンクス
生成はローカル、Lora作成だけクラウドのままでいくわ
全然関係ないけど「へ〜こんなの効くんだと思ったプロンプト」置いてく
He grab and cover her mouth from behind with his hand and he puts black tape over her mouth
口に黒いテープを貼る(マスクに変わっちゃう場合有)
After her breasts revealing,She crosses her arms over her chest and covers them with her hands
胸を慌てて隠す
生成はローカル、Lora作成だけクラウドのままでいくわ
全然関係ないけど「へ〜こんなの効くんだと思ったプロンプト」置いてく
He grab and cover her mouth from behind with his hand and he puts black tape over her mouth
口に黒いテープを貼る(マスクに変わっちゃう場合有)
After her breasts revealing,She crosses her arms over her chest and covers them with her hands
胸を慌てて隠す
2025/07/25(金) 10:44:22.89ID:aktrPyXE
2025/07/25(金) 10:48:08.87ID:TSL7ltCY
「Wan2.2出ました!2.1より更に高性能!一気に30秒まで出力可能です!」
「5090?そんなローエンドのオンボみたいなグラボじゃGGUFのQ1がギリ動くかどうかですね!」
みたいになりそう
「5090?そんなローエンドのオンボみたいなグラボじゃGGUFのQ1がギリ動くかどうかですね!」
みたいになりそう
126名無しさん@お腹いっぱい。
2025/07/25(金) 11:07:41.14ID:pkVxmdj0 これでも好きな元画像をいい感じで生成して、そこからその画像に合ったLoraを探して動かすってなると、かなり奥深いな。エロスの刃~無限城篇~やわ。
AI動画職人っていう専門職出来るレベルやで
AI動画職人っていう専門職出来るレベルやで
127名無しさん@お腹いっぱい。
2025/07/25(金) 11:16:14.44ID:smN5exqV 奥深過ぎて時間が全然足らないね。せっかく作った大作を披露する場がないのが何ともだけど
128名無しさん@お腹いっぱい。
2025/07/25(金) 11:28:44.52ID:CwxRyANP 披露はやめてもろて
tiktokとかai汚染がヤバい
あと生成物を学習ネタにすると近親相姦的な問題が出てくるとかないの?
そのへん詳しい人いないかな
tiktokとかai汚染がヤバい
あと生成物を学習ネタにすると近親相姦的な問題が出てくるとかないの?
そのへん詳しい人いないかな
2025/07/25(金) 11:59:08.29ID:4Io8Jgyk
さすがに広くユーザーに使ってもらうのも重要だから
極端なハイスペック要求ってことにはならんでしょ
極端なハイスペック要求ってことにはならんでしょ
2025/07/25(金) 12:03:06.18ID:EcdZbIik
>>128
model collapse IBMでググってみ
model collapse IBMでググってみ
2025/07/25(金) 12:03:38.81ID:WxL8/ZPH
5090Dが24GBに変更されて売られるらしいので、VRAM24GBがデフォになるのかも
んなことはないな
んなことはないな
2025/07/25(金) 12:05:50.12ID:TSL7ltCY
どうせ北米じゃ115ドルなのに日本だと30万円スタートやろ
ASK税+買わせてやる税+精神的苦痛の加算がデカいんよ
ASK税+買わせてやる税+精神的苦痛の加算がデカいんよ
2025/07/25(金) 12:11:43.34ID:vXntyDNF
普通のi2vはだいぶ早く生成できるようになったがVACEはまだ全然あかんな
134名無しさん@お腹いっぱい。
2025/07/25(金) 13:14:27.64ID:5MKRL4HP huggingfaceのkijaiのページにfastwanっていうモデルが登場してるんだけどこれは何なのか・・・検索しても誰も話題にしてないから何も分からん・・・
135名無しさん@お腹いっぱい。
2025/07/25(金) 13:44:56.18ID:CwxRyANP2025/07/25(金) 16:32:14.60ID:SRA3df0v
138名無しさん@お腹いっぱい。
2025/07/25(金) 16:47:46.43ID:5MKRL4HP139名無しさん@お腹いっぱい。
2025/07/25(金) 16:54:01.88ID:Xe/ZAMQE Wan2_1-T2V_FastWan_1_3B_bf16.safetensors使ってみた
どうも1.3BのT2Vにlight2vをマージした感じ
4stepでBlockSwapも不要になるので超高速で生成できる
(14B_fp8_e4m3fn+light2v+BlockSwap20と比べると3倍近く速い)
ただし他のLoRAが効かない?
どうも1.3BのT2Vにlight2vをマージした感じ
4stepでBlockSwapも不要になるので超高速で生成できる
(14B_fp8_e4m3fn+light2v+BlockSwap20と比べると3倍近く速い)
ただし他のLoRAが効かない?
2025/07/25(金) 16:56:47.54ID:3jcv7TkX
来月からwanでキャラLora作らないとならなそうなんだけど、musubi tuner使えば良いんかな?
作った人とか知識ある人おる?
作った人とか知識ある人おる?
141名無しさん@お腹いっぱい。
2025/07/25(金) 17:49:32.82ID:CcIxN9pM 5060Ti16GB メモリ96GB で動画Lora自作って厳しいですか?
大袈裟かもしれませんが、例えば学習に何日も掛かってしまうとか
大袈裟かもしれませんが、例えば学習に何日も掛かってしまうとか
142名無しさん@お腹いっぱい。
2025/07/25(金) 18:41:37.37ID:vXntyDNF つかSDの規制がWanに関係あんの?
143名無しさん@お腹いっぱい。
2025/07/25(金) 18:45:02.05ID:Tnhy0NjV https://www.youtube.com/watch?v=jlA5Y4FmbiA
こういう動画って何のサービスで作れるんすか?
pikaとかrunwayとかありますが、サービス違ってもベースはsdだったりするんでしょうか?
こういう動画って何のサービスで作れるんすか?
pikaとかrunwayとかありますが、サービス違ってもベースはsdだったりするんでしょうか?
144名無しさん@お腹いっぱい。
2025/07/25(金) 18:54:47.82ID:ZZHiZyRA >>141
低解像度、fp8などのコマンドを使用して、VRAMを削減したとしても絶望的な時間です。
RTX5090でスワップドロップ20で10時間かかったりとかするので、VRAM不足で学習できるかできないか、できたとしても三日以上かかる可能性がある。
どうしても自作したいのであれば、Runpodで低価格のRTX A6000を利用して、解像度を少し下げれば学習はできる。
ターゲットフレームが多いと時間かかるから、いろいろ調整して3000spteでだいたい10時間〜20時間。
低解像度、fp8などのコマンドを使用して、VRAMを削減したとしても絶望的な時間です。
RTX5090でスワップドロップ20で10時間かかったりとかするので、VRAM不足で学習できるかできないか、できたとしても三日以上かかる可能性がある。
どうしても自作したいのであれば、Runpodで低価格のRTX A6000を利用して、解像度を少し下げれば学習はできる。
ターゲットフレームが多いと時間かかるから、いろいろ調整して3000spteでだいたい10時間〜20時間。
145名無しさん@お腹いっぱい。
2025/07/25(金) 19:01:31.27ID:kmNSuNSO 一番怖いのは翻訳系が規制されたらだなw
146名無しさん@お腹いっぱい。
2025/07/25(金) 19:39:52.98ID:lyRfsFfT >>144
やっぱ5090でも厳しいのかでもblackWell?は200万とかだしさすがに手が出ない
やっぱ5090でも厳しいのかでもblackWell?は200万とかだしさすがに手が出ない
2025/07/25(金) 19:42:22.50ID:Hp+OOXIO
2025/07/25(金) 20:03:30.40ID:hC9ynTKJ
Framepack eichiでハゲしくエロい動画って作れないのかな?
SDで絵を沢山作って、中間フレームを使っても微妙なのしか出来ない
他に良いのって、このスレを見てるとEasyWan?
SDで絵を沢山作って、中間フレームを使っても微妙なのしか出来ない
他に良いのって、このスレを見てるとEasyWan?
149名無しさん@お腹いっぱい。
2025/07/25(金) 20:07:32.46ID:ZZHiZyRA >>147
分かる。まともに動くLoraが少なくて自作してる。
ほしい動きのある動画を3〜5秒に切り取り、20〜40本(同じ動画一つくらい水増しOK)を用意し、キャッシュし、学習するだけです。
フレームレートをWan推奨は16にしないと、動きがスローのようになったりするから動画の編集は必要で、おそらく動きの遅いLoraはこれが原因。
もし、実施する機会があったら参考にして
分かる。まともに動くLoraが少なくて自作してる。
ほしい動きのある動画を3〜5秒に切り取り、20〜40本(同じ動画一つくらい水増しOK)を用意し、キャッシュし、学習するだけです。
フレームレートをWan推奨は16にしないと、動きがスローのようになったりするから動画の編集は必要で、おそらく動きの遅いLoraはこれが原因。
もし、実施する機会があったら参考にして
150名無しさん@お腹いっぱい。
2025/07/25(金) 20:10:42.71ID:ZZHiZyRA >>148
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、二次元はあんまり綺麗に動いてる8
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、civitaiで人が投稿した二次元はあんまり綺麗に動いてるのは皆無に近い。
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、二次元はあんまり綺麗に動いてる8
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、civitaiで人が投稿した二次元はあんまり綺麗に動いてるのは皆無に近い。
151名無しさん@お腹いっぱい。
2025/07/25(金) 20:14:33.55ID:ZZHiZyRA >>148
なんかおかしくなったので再度レス
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、二次元はあんまり綺麗に動いてくれないイメージ。
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanはLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
EasyWanの場合はリアルはもともに動くけど、civitaiで人が投稿した二次元はあんまり綺麗に動いてるのは皆無に近い
なんかおかしくなったので再度レス
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanの場合はLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
Framepackの場合はある程度プロンプトを記述すれば、それなりに動くって感じ。
EasyWanの場合はリアルはもともに動くけど、二次元はあんまり綺麗に動いてくれないイメージ。
生成速度はEasyWanの方が圧倒的に速いけど、i2tの動きなどはFramepackには勝てないと思う。
EasyWanはLoraの当たり外れが多く、期待通りの動きや速さにならないことが多い。
EasyWanの場合はリアルはもともに動くけど、civitaiで人が投稿した二次元はあんまり綺麗に動いてるのは皆無に近い
2025/07/25(金) 20:17:37.30ID:aktrPyXE
LoRAって学習途中で1回中断して再開って可能なの?
2025/07/25(金) 20:21:03.06ID:Hp+OOXIO
2025/07/25(金) 20:25:16.43ID:hC9ynTKJ
>>151
ありがとうございます
Framepackでプロンプトを細かく書くのが大事なのですね!
もう少しFramepackで色々と試してみます
エロプロンプトのサンプルってほとんど見ないのですが、あまり公開されていないのでしょうか?
ありがとうございます
Framepackでプロンプトを細かく書くのが大事なのですね!
もう少しFramepackで色々と試してみます
エロプロンプトのサンプルってほとんど見ないのですが、あまり公開されていないのでしょうか?
155名無しさん@お腹いっぱい。
2025/07/25(金) 20:32:12.67ID:ZZHiZyRA >>154
FramepackはHunyuan videoをベースに作られてるので、civitaiでLoraモデルを検索する際にi2v生成で動画の動きが良い人のを見つけて、プロンプトが記載されてる場合があるからそれをコピーして使ってみたり!
https://aistudio.google.com/prompts/new_chat、のAIはわりとNSFW文など色々と制限がかからない場合があるから
例:女性が男性の上に乗り、腰を動かしている。彼女は気持ちよさそうな表情をしている。
例:女性が男性のペニスを握り、頭を上下に振ってオーラルセックスをしている。
この日本語を英文の自然言語にしてください。
と、書けばだいたい作ってくれる。
問題なのは、画像に対して何が映っていて、どういう動きをさせてほしいかが重要。
ただ、画像に近いプロンプトが多いと動きが硬くなるので、動画生成AIの推奨100トークン以内、理想は60くらいに収まるようにするといいかもしれない。
FramepackはHunyuan videoをベースに作られてるので、civitaiでLoraモデルを検索する際にi2v生成で動画の動きが良い人のを見つけて、プロンプトが記載されてる場合があるからそれをコピーして使ってみたり!
https://aistudio.google.com/prompts/new_chat、のAIはわりとNSFW文など色々と制限がかからない場合があるから
例:女性が男性の上に乗り、腰を動かしている。彼女は気持ちよさそうな表情をしている。
例:女性が男性のペニスを握り、頭を上下に振ってオーラルセックスをしている。
この日本語を英文の自然言語にしてください。
と、書けばだいたい作ってくれる。
問題なのは、画像に対して何が映っていて、どういう動きをさせてほしいかが重要。
ただ、画像に近いプロンプトが多いと動きが硬くなるので、動画生成AIの推奨100トークン以内、理想は60くらいに収まるようにするといいかもしれない。
2025/07/25(金) 20:52:00.67ID:hC9ynTKJ
2025/07/25(金) 21:06:46.53ID:jYlUeToh
i2t? i2vのことよな?
158名無しさん@お腹いっぱい。
2025/07/25(金) 21:13:03.74ID:ZZHiZyRA159名無しさん@お腹いっぱい。
2025/07/25(金) 21:17:27.44ID:j0ZYqvSs 一般的な動画生成とは違うんだが
https://civitai.com/models/1714513/video-upscale-or-enhancer-using-wan-fusionx-ingredients
の🎨 Light Style Edit?が奥深い
LoRA追加するだけでどんな動画でもAI製じゃない普通の動画でも全く問題なしにいくらでも改変できる
T2I&フォトショで画像作る必要もなくて動画1本と目的に合うLoRAだけでいい
人物変更、体型操作、服装の変更もしくは削除、口元の食べ物を他のものに書き換え、モザ消し(本当に消えるわけじゃなくて、もろちんLoRAによる再描写なんだけど)等いろいろ。
LoRA無くてもポジティブプロンプトで操作できる改変内容もある
デノイズ値を試行錯誤すれば何でも改変できる気がする
https://civitai.com/models/1714513/video-upscale-or-enhancer-using-wan-fusionx-ingredients
の🎨 Light Style Edit?が奥深い
LoRA追加するだけでどんな動画でもAI製じゃない普通の動画でも全く問題なしにいくらでも改変できる
T2I&フォトショで画像作る必要もなくて動画1本と目的に合うLoRAだけでいい
人物変更、体型操作、服装の変更もしくは削除、口元の食べ物を他のものに書き換え、モザ消し(本当に消えるわけじゃなくて、もろちんLoRAによる再描写なんだけど)等いろいろ。
LoRA無くてもポジティブプロンプトで操作できる改変内容もある
デノイズ値を試行錯誤すれば何でも改変できる気がする
2025/07/25(金) 21:26:10.99ID:4ZvQecut
>>159
スカートの下の黒いスパッツをパンツに変換できる?
スカートの下の黒いスパッツをパンツに変換できる?
161名無しさん@お腹いっぱい。
2025/07/25(金) 21:42:17.29ID:lWfLwS8u 今日は、在宅研究に勤しむか
2025/07/25(金) 22:01:11.49ID:WxL8/ZPH
163名無しさん@お腹いっぱい。
2025/07/25(金) 22:05:20.38ID:p477lRyu164名無しさん@お腹いっぱい。
2025/07/25(金) 22:47:05.97ID:gXom28H4 Wan VACEってEasyWanVideoから使える?
165名無しさん@お腹いっぱい。
2025/07/25(金) 22:54:02.23ID:j0ZYqvSs >>160 スカートの下の黒いスパッツを履いている動画
を持ってないんで自分でやってみてくれ
手持ちの、道路を走ってる人物の動画の服装改変はできた。
追加LoRA micropanties 強度1.00
プロンプト micropanties,girl run wearing white panty
step 6
CFG 2.00
Denoise_strength 0.72
なんか有名な選手っぽくて危ないんで絶対アップロードはしない
を持ってないんで自分でやってみてくれ
手持ちの、道路を走ってる人物の動画の服装改変はできた。
追加LoRA micropanties 強度1.00
プロンプト micropanties,girl run wearing white panty
step 6
CFG 2.00
Denoise_strength 0.72
なんか有名な選手っぽくて危ないんで絶対アップロードはしない
2025/07/25(金) 23:06:43.97ID:4ZvQecut
2025/07/25(金) 23:36:56.23ID:Q/G+ST/d
>>159
ゴリゴリに変えるV2Vとまた違って面白いしな
ゴリゴリに変えるV2Vとまた違って面白いしな
168名無しさん@お腹いっぱい。
2025/07/25(金) 23:37:18.86ID:86lCGOa4 >>144
自作Loraって動画何時間分くらい用意してやるもんなの?参考までに
自作Loraって動画何時間分くらい用意してやるもんなの?参考までに
2025/07/25(金) 23:38:13.56ID:Q/G+ST/d
>>167
訂正 「面白いな」
訂正 「面白いな」
170名無しさん@お腹いっぱい。
2025/07/25(金) 23:54:19.58ID:ZZHiZyRA >>144
何時間分はあんまり気にしなくていいよ!
例えば、フェラを学習したいのであれば、様々なフェラ動画からその部分だけ切り取って3〜5秒になるようにする。(動画はリアルでも二次元でもOK)
切り取り動画は多ければ多いほど上手に学習するけど、10個でも大丈夫。理想は20〜50個ほど。
やり方の手順として
musubi-tunerをPCに入れる
↓
切り取り動画準備
↓
tomlファイルを記述(bucket、学習サイズ、キャッシュフォルダの記述など、ターゲットフレームの指定)
arget_frames = [1, 25, 53]
frame_extraction = "head"
frame_sample = 1
max_frames = 53
source_fps = 16.0
num_repeats = 1
基本この設定でうまく学習できてる
↓
I2Vで事前キャッシュさせる。
↓
学習コマンドで実装させるだけ。基本モデルは「Wan2_1-I2V-14B-720P_fp8_e4m3fn.safetensors」
学習率は:0.0002でdim32、alpha1
学習コマンドはURLにTraining / 学習に記載されてる通り、Pythonで学習コマンドで実行
↓
あとはひたすら学習が終わるまで待つ。
https://github.com/kohya-ss/musubi-tuner/blob/main/docs/wan.md
何時間分はあんまり気にしなくていいよ!
例えば、フェラを学習したいのであれば、様々なフェラ動画からその部分だけ切り取って3〜5秒になるようにする。(動画はリアルでも二次元でもOK)
切り取り動画は多ければ多いほど上手に学習するけど、10個でも大丈夫。理想は20〜50個ほど。
やり方の手順として
musubi-tunerをPCに入れる
↓
切り取り動画準備
↓
tomlファイルを記述(bucket、学習サイズ、キャッシュフォルダの記述など、ターゲットフレームの指定)
arget_frames = [1, 25, 53]
frame_extraction = "head"
frame_sample = 1
max_frames = 53
source_fps = 16.0
num_repeats = 1
基本この設定でうまく学習できてる
↓
I2Vで事前キャッシュさせる。
↓
学習コマンドで実装させるだけ。基本モデルは「Wan2_1-I2V-14B-720P_fp8_e4m3fn.safetensors」
学習率は:0.0002でdim32、alpha1
学習コマンドはURLにTraining / 学習に記載されてる通り、Pythonで学習コマンドで実行
↓
あとはひたすら学習が終わるまで待つ。
https://github.com/kohya-ss/musubi-tuner/blob/main/docs/wan.md
171名無しさん@お腹いっぱい。
2025/07/26(土) 03:34:51.67ID:1pmUK1SD このままCivitaiの代替先が決まらなければ結局地下に潜ってくのかな
やっとまともに動画生成ができる時代が来たと思ったのに
やっとまともに動画生成ができる時代が来たと思ったのに
2025/07/26(土) 03:44:06.68ID:WjmE6GCk
動画はSD関係ないけどな
Civitaiがエッチなのはダメですって規約変更してきたらもうあかんが
Civitaiがエッチなのはダメですって規約変更してきたらもうあかんが
2025/07/26(土) 04:23:38.57ID:Y/wzzYc8
>>172
googleが先行指標だと思ったらいいよ、あいつらにエロ期待できないだろ
googleが先行指標だと思ったらいいよ、あいつらにエロ期待できないだろ
174名無しさん@お腹いっぱい。
2025/07/26(土) 04:37:37.07ID:LSiZpBpc2025/07/26(土) 04:55:15.53ID:WjmE6GCk
Wan作ってるのAliだから欧米の規制準拠なんてしないでエロ有りでシェアかっさらうと思うが
2025/07/26(土) 05:04:36.59ID:Y/wzzYc8
>>175
そのAlibabaが規制対象のLora作って・公開してるわけじゃねーし、何言ってんだよ…
そのAlibabaが規制対象のLora作って・公開してるわけじゃねーし、何言ってんだよ…
2025/07/26(土) 05:39:15.12ID:WjmE6GCk
2025/07/26(土) 05:43:21.82ID:i6RwHKUf
24GB未満に収まるようにしてくださいとかコメントにあるけど16GBに収まるようにならんかな
2025/07/26(土) 05:47:42.82ID:bdy3xAcB
2025/07/26(土) 07:03:49.16ID:HOpVBAqq
動画生成中エラーで止まっちゃうんだが
tenserlistってなんやねん!
easywanインストールしてマイクロソフトのアレ入れてモデルもダウンロードできてる
https://i.imgur.com/HmEis92.png
tenserlistってなんやねん!
easywanインストールしてマイクロソフトのアレ入れてモデルもダウンロードできてる
https://i.imgur.com/HmEis92.png
181名無しさん@お腹いっぱい。
2025/07/26(土) 08:25:49.52ID:rZuC3VT4 2.2のアニメスタイルのサンプルもはよ
182名無しさん@お腹いっぱい。
2025/07/26(土) 09:05:21.43ID:fz1MvVZ7 アニメスタイルまじで頼むわ・・・
183名無しさん@お腹いっぱい。
2025/07/26(土) 09:06:15.22ID:JZJomhcY SD規制されたらi2vかなり制限されちゃうな
184名無しさん@お腹いっぱい。
2025/07/26(土) 09:41:53.42ID:HRqHl+L6 SDXLが生きているならどうでもええねん
いざってときのはNovelAIもおる
いざってときのはNovelAIもおる
2025/07/26(土) 09:43:45.69ID:PEKmJ9MI
>>183
それが問題だと思ってるから、
①SDでnsfwでない画像からwanでどうにかする
②wanの画像生成用キャラlora作る
とか試そうと思ってるけど①はたぶん一貫性で上手く行かなそうだし、
②は情報がなくて、あってもVRAM問題とかありそうだからどうしたもんか
それが問題だと思ってるから、
①SDでnsfwでない画像からwanでどうにかする
②wanの画像生成用キャラlora作る
とか試そうと思ってるけど①はたぶん一貫性で上手く行かなそうだし、
②は情報がなくて、あってもVRAM問題とかありそうだからどうしたもんか
186名無しさん@お腹いっぱい。
2025/07/26(土) 09:51:04.25ID:/Bf04N5o SD3.0とか要らんよ
誰もファインチューンしてないんだし
誰もファインチューンしてないんだし
187名無しさん@お腹いっぱい。
2025/07/26(土) 10:18:18.23ID:0SbDMOzD AIの進化凄いよなー。規制入るのも仕方なしか。ブレインダイブとか出る頃までは生きていたいもんだ
188名無しさん@お腹いっぱい。
2025/07/26(土) 12:08:57.29ID:CDJX161K さっきeasywan入れてNSFWFastとかで遊んでたんやが
一緒にダウンロードされたFramepackのEichiとF1ってどうやったら使えるんや?
正直comfyuiもまだ慣れんし、カスタマイズ性の高さ故にどこをいじったら質が上がるんかよく分からん
何から試せばいいか教えてエロい人!
一緒にダウンロードされたFramepackのEichiとF1ってどうやったら使えるんや?
正直comfyuiもまだ慣れんし、カスタマイズ性の高さ故にどこをいじったら質が上がるんかよく分からん
何から試せばいいか教えてエロい人!
189 警備員[Lv.6][芽]
2025/07/26(土) 12:11:22.27ID:/5yz+uou 手順書があるんだから読め
190名無しさん@お腹いっぱい。
2025/07/26(土) 12:34:12.11ID:CDJX161K2025/07/26(土) 12:37:29.85ID:ASdT5Ykv
世の中には無臭の動画も流れてるのに、ここ最近ずっとシャツ捲りあげのオッパイぽろんとかパンツ下げる動画とかをひたすらに作ってる
エロってなんなんだろうな
エロってなんなんだろうな
2025/07/26(土) 12:48:08.57ID:WNEZ5w1A
視覚的にエロいシーン作るより好きな絵に俺の画像コラで置いてちゅっちゅしてるほうが支配欲ですごい捗るのに気づいた
193名無しさん@お腹いっぱい。
2025/07/26(土) 12:56:17.79ID:EtWn+4t6 >>191
哲学的ですね
哲学的ですね
194名無しさん@お腹いっぱい。
2025/07/26(土) 13:02:57.20ID:N57D6niM >>191
ロリ動画はなかなか流れてなくてAIで自給自足しようとするからAI画像生成やAI動画生成にはロリコンが多いんだと思ってる
ロリ動画はなかなか流れてなくてAIで自給自足しようとするからAI画像生成やAI動画生成にはロリコンが多いんだと思ってる
2025/07/26(土) 13:12:44.85ID:WNEZ5w1A
また脱がしLoRAがきたが早期アクセスタイプで配布前に消えそう
2025/07/26(土) 13:20:07.60ID:nJiNgDcQ
そういう情報はlora名伏せたりせずに共有してくれ
2025/07/26(土) 13:22:58.69ID:nJiNgDcQ
件のEA脱がしloraこれやな
Best Pants Pulled Down | WAN 14B T2V | PPD
https://civitai.com/models/1810195/best-pants-pulled-down-or-wan-14b-t2v-or-ppd
Best Pants Pulled Down | WAN 14B T2V | PPD
https://civitai.com/models/1810195/best-pants-pulled-down-or-wan-14b-t2v-or-ppd
2025/07/26(土) 13:30:03.65ID:C5gh7BRK
もうWan2.2がでそうやがEasyWanVideoのNsfwFastを更新しといたで
Update.bat後にDownload\Kijai_NsfwFast.batでモデルDLしてな
主な更新
・Lightx2v Ver. 2でのLoRA互換性向上と動画開始時の色変化低減
・動きの品質も全体的に向上している感あり
・顔のリアル化を低減するAnisoraマージモデル追加
・LoRA相性によっては品質が向上するPusa対応
・Hires. Fixの高速化
https://github.com/Zuntan03/EasyWanVideo#20250726
Update.bat後にDownload\Kijai_NsfwFast.batでモデルDLしてな
主な更新
・Lightx2v Ver. 2でのLoRA互換性向上と動画開始時の色変化低減
・動きの品質も全体的に向上している感あり
・顔のリアル化を低減するAnisoraマージモデル追加
・LoRA相性によっては品質が向上するPusa対応
・Hires. Fixの高速化
https://github.com/Zuntan03/EasyWanVideo#20250726
199名無しさん@お腹いっぱい。
2025/07/26(土) 13:42:00.31ID:HRqHl+L6 要チェックや!
2025/07/26(土) 13:53:31.18ID:nJiNgDcQ
上の脱ぎlora、EA解除されたで
2025/07/26(土) 14:02:01.97ID:cqb3Crf9
寄付ありがとさん
framepack勢だけど確保だけはしておく
framepack勢だけど確保だけはしておく
202名無しさん@お腹いっぱい。
2025/07/26(土) 14:10:54.63ID:HRqHl+L6 どうしてもパンツって言われると別のものを想像してしまうねんな
2025/07/26(土) 14:19:04.47ID:2W/sklLC
204名無しさん@お腹いっぱい。
2025/07/26(土) 16:53:00.31ID:M3o5nd2L205名無しさん@お腹いっぱい。
2025/07/26(土) 17:12:08.65ID:M3o5nd2L 興奮のあまり安価ミスったw
2025/07/26(土) 17:32:16.62ID:2W/sklLC
EasyWanの処理が終わった時に音鳴らしたくて
PlaySoundのノード探してきたけどどこが最終処理かよくわからん
PlaySoundのノード探してきたけどどこが最終処理かよくわからん
2025/07/26(土) 17:37:24.68ID:Jz+HoKMP
208名無しさん@お腹いっぱい。
2025/07/26(土) 17:58:01.13ID:XuLMmUpn >>198
うおおお!!
うおおお!!
209名無しさん@お腹いっぱい。
2025/07/26(土) 18:48:02.37ID:Qwv2Lwlx NsfwFastは参考画像以外の形式でもかなり融通利かせて動かしてくれるからすごい
210名無しさん@お腹いっぱい。
2025/07/26(土) 19:04:54.16ID:I9fEluRs Loraのファイル名って変えても問題ないですよね?
なんでみんなタイトルと違う分かりにくい名前にするんだろう
なんでみんなタイトルと違う分かりにくい名前にするんだろう
211名無しさん@お腹いっぱい。
2025/07/26(土) 19:21:24.26ID:SC8jCVw8 framepackてLORAないよね?
普通に脱いでくれなくて困る
普通に脱いでくれなくて困る
2025/07/26(土) 19:21:27.56ID:hBUjVW6n
直球だとloliとかと同様に単語で狩られるからじゃないかな
213名無しさん@お腹いっぱい。
2025/07/26(土) 19:23:10.17ID:fz1MvVZ7214名無しさん@お腹いっぱい。
2025/07/26(土) 19:51:51.63ID:rbmLJfEL2025/07/26(土) 20:00:27.87ID:C5gh7BRK
>>214
https://raw.githubusercontent.com/wiki/Zuntan03/EasyWanVideo/log/202507/Anisora.png
やで
AnisoraマージでLoRAの効きが悪くなるんとの切り分けが難しいところやが
https://raw.githubusercontent.com/wiki/Zuntan03/EasyWanVideo/log/202507/Anisora.png
やで
AnisoraマージでLoRAの効きが悪くなるんとの切り分けが難しいところやが
2025/07/26(土) 20:08:51.77ID:hll3UQzH
早速試してみます!
217名無しさん@お腹いっぱい。
2025/07/26(土) 20:11:19.31ID:rbmLJfEL >>215
サンガツ、試してみるわ!
サンガツ、試してみるわ!
2025/07/26(土) 20:15:48.00ID:C5gh7BRK
>>206
右側のこの辺に挟むとええんちゃうやろか
https://litter.catbox.moe/jvnbcnfocoadspfg.png
>>207
動画の尺が伸びると開始ポーズに戻ろうとすることがあるみたいやね
右下のVACEプレビューの最後が灰色と白なら延長のハズや
https://litter.catbox.moe/yd4ikcnb1xzhfwor.png
>>215
主語抜けとった
アニメ顔抑制の効果はAnisoraマージでLoRAの効きが悪くなるんとの切り分けが難しいところやが
やね
右側のこの辺に挟むとええんちゃうやろか
https://litter.catbox.moe/jvnbcnfocoadspfg.png
>>207
動画の尺が伸びると開始ポーズに戻ろうとすることがあるみたいやね
右下のVACEプレビューの最後が灰色と白なら延長のハズや
https://litter.catbox.moe/yd4ikcnb1xzhfwor.png
>>215
主語抜けとった
アニメ顔抑制の効果はAnisoraマージでLoRAの効きが悪くなるんとの切り分けが難しいところやが
やね
2025/07/26(土) 20:31:57.02ID:D/wvWnYK
>>211
HunyanのLoRAが使えるはず
HunyanのLoRAが使えるはず
2025/07/26(土) 20:38:25.81ID:AA2elXiQ
>>211
HunyuanVideoが対応してた気がする
HunyuanVideoが対応してた気がする
2025/07/26(土) 20:50:58.76ID:2W/sklLC
2025/07/26(土) 21:02:03.13ID:nuWaSK9u
>>221
on empty queueにしてる?
on empty queueにしてる?
2025/07/26(土) 21:18:27.56ID:2W/sklLC
2025/07/26(土) 21:19:40.64ID:O3FTv3D1
wan2.2になったら何が変わるんだろ?
10秒とか15秒がポン出しとかできるのかな。
それとも単純にプロンプト次第で多彩な構図とか一貫性向上とかだろうか。
10秒とか15秒がポン出しとかできるのかな。
それとも単純にプロンプト次第で多彩な構図とか一貫性向上とかだろうか。
225名無しさん@お腹いっぱい。
2025/07/26(土) 21:28:30.28ID:MF2yp7SE 確かにAnisora試した感じLoRAの効き弱いのか「大人しい」感じの動画になってしまうな
モデル通常に戻して前スレで紹介してもろた「Better anime sex faces」LoRA適用でリアル顔予防出来るから
アニメ動画向けならこっちが良いかも試練
https://files.catbox.moe/136xml.mp4
https://files.catbox.moe/l2yitt.mp4
何にせよZuntanニキ更新乙やで
モデル通常に戻して前スレで紹介してもろた「Better anime sex faces」LoRA適用でリアル顔予防出来るから
アニメ動画向けならこっちが良いかも試練
https://files.catbox.moe/136xml.mp4
https://files.catbox.moe/l2yitt.mp4
何にせよZuntanニキ更新乙やで
2025/07/26(土) 21:31:11.91ID:nuWaSK9u
227名無しさん@お腹いっぱい。
2025/07/26(土) 21:36:59.31ID:fz1MvVZ7 Zuntanニキお疲れ様!
色々生成してみたけど、Pusaは動きが改善されるLoraも多かった!
他の人も言ってる通り、アニメスタイルは動きが硬い、かなり外れしまう生成が多いけど、NSFW系じゃなかったらいい感じだった。
色々生成してみたけど、Pusaは動きが改善されるLoraも多かった!
他の人も言ってる通り、アニメスタイルは動きが硬い、かなり外れしまう生成が多いけど、NSFW系じゃなかったらいい感じだった。
228名無しさん@お腹いっぱい。
2025/07/26(土) 22:34:55.78ID:LSiZpBpc わ~い!zuntanニキだ!
いつもありがとうございます
いつもありがとうございます
229名無しさん@お腹いっぱい。
2025/07/26(土) 23:40:18.81ID:Rnbip6PT230名無しさん@お腹いっぱい。
2025/07/26(土) 23:41:41.40ID:6XjuiQCx Flux 1.Kontext用の基本ワークフロー入れてLOADERとCLIPのノードをGGUF用に変えてモデルもGGUF用に変えて実行したらプロンプトは反映されず元画像がノイズまみれて出力されるの何やろ
fp8で基本ワークフローだと問題ないんやが
fp8で基本ワークフローだと問題ないんやが
231名無しさん@お腹いっぱい。
2025/07/26(土) 23:44:12.97ID:+YJGyRuL2025/07/26(土) 23:52:55.45ID:nJiNgDcQ
2025/07/26(土) 23:54:49.50ID:+bNsxeHo
pusaにそんな効果があるとは
大発見ですな
大発見ですな
234名無しさん@お腹いっぱい。
2025/07/27(日) 00:21:51.70ID:khPnfDHz235名無しさん@お腹いっぱい。
2025/07/27(日) 00:25:20.41ID:SmlsgsJ42025/07/27(日) 00:26:44.35ID:QcPEC5nX
ひさびさにNsfwfast試したら、実写でもめっちゃ自然に動くようになってるな
2025/07/27(日) 00:46:36.10ID:zxV1GjOp
zuntan兄貴の絶え間ない挑戦そしてアプデにほんま頭下がるわ
239名無しさん@お腹いっぱい。
2025/07/27(日) 00:56:07.46ID:AwhtX3ue240名無しさん@お腹いっぱい。
2025/07/27(日) 01:07:02.11ID:khPnfDHz2025/07/27(日) 01:19:38.98ID:ZiHnEVSw
>>223
on empty queueはキューのチェックから0.5秒以内にキューが空にならないと鳴らない仕様なので繋ぐ場所が重要っぽい
自分はキューのチェック方式を変えたやつを使ってる
https://rentry.co/psk4u8yy
on empty queueはキューのチェックから0.5秒以内にキューが空にならないと鳴らない仕様なので繋ぐ場所が重要っぽい
自分はキューのチェック方式を変えたやつを使ってる
https://rentry.co/psk4u8yy
2025/07/27(日) 01:30:38.72ID:IOAf7t10
どこでも当たり前になんJ気分で話す奴不快だよね
2025/07/27(日) 01:32:42.97ID:buq9ak62
住人は殆ど同じなんで気にするな
2025/07/27(日) 01:34:08.29ID:JziNSw1D
>>242
どちらが不快かといえばお前の書き込みのほうが不快だよ
どちらが不快かといえばお前の書き込みのほうが不快だよ
245名無しさん@お腹いっぱい。
2025/07/27(日) 01:42:18.86ID:AwhtX3ue2025/07/27(日) 02:16:19.06ID:50qWsMu5
247名無しさん@お腹いっぱい。
2025/07/27(日) 03:03:52.40ID:294hOmFf ここでアドバイスされた通り
ComfyUIからEasyWanへ主要ファイルを移しExtra_model_pathで併用したいのですがどうもうまくいかないです
t2iやt2vは出来るけどi2vだと失敗してしまう
ComfyUIでChekpointsをロードするノードを作ればEasyWAN下にあるdiffusion-modelsフォルダを読み込めるのですが
ダウンロードしたワークフローだとモデルがないとエラーになり既存のノードから選択しようとしてもリストに何も映りません
他のmodels下にあるフォルダは多分うまく参照されています
workflowsフォルダは全く参照できません
base_pathとconfigはどこのパスを書けばいいのか分からないです
もしかするとここがデフォルトのままなのがダメなのでしょうか?
それと下の#config for comfyの#が冒頭に並ぶ項目はいじる必要ないのでしょうか?
フォルダ共有のところで引っかかってしまって全然動画が作れてないです
よろしくお願いします
ComfyUIからEasyWanへ主要ファイルを移しExtra_model_pathで併用したいのですがどうもうまくいかないです
t2iやt2vは出来るけどi2vだと失敗してしまう
ComfyUIでChekpointsをロードするノードを作ればEasyWAN下にあるdiffusion-modelsフォルダを読み込めるのですが
ダウンロードしたワークフローだとモデルがないとエラーになり既存のノードから選択しようとしてもリストに何も映りません
他のmodels下にあるフォルダは多分うまく参照されています
workflowsフォルダは全く参照できません
base_pathとconfigはどこのパスを書けばいいのか分からないです
もしかするとここがデフォルトのままなのがダメなのでしょうか?
それと下の#config for comfyの#が冒頭に並ぶ項目はいじる必要ないのでしょうか?
フォルダ共有のところで引っかかってしまって全然動画が作れてないです
よろしくお願いします
248名無しさん@お腹いっぱい。
2025/07/27(日) 03:58:55.14ID:1DwcB+FS Trying to create tensor with negative dimension -26: [-26, 4096]
クリーンインストールしたEasyWan(7/26版)のNsfwFastワークフローでこんなエラーが出て生成できませんでした
クリーンインストールしたEasyWan(7/26版)のNsfwFastワークフローでこんなエラーが出て生成できませんでした
249名無しさん@お腹いっぱい。
2025/07/27(日) 04:04:30.14ID:D3KEdJvp エラー出たら諦めれ
お前らアタオカが出力してなんJにペタペタ貼り付けてる逮捕案件の幼女以下のオツムじゃムリムリ
お前らアタオカが出力してなんJにペタペタ貼り付けてる逮捕案件の幼女以下のオツムじゃムリムリ
250名無しさん@お腹いっぱい。
2025/07/27(日) 04:19:46.85ID:AwhtX3ue >>249
なんでおこってん
なんでおこってん
251名無しさん@お腹いっぱい。
2025/07/27(日) 04:35:45.51ID:qNtbjlCl2025/07/27(日) 05:38:41.50ID:QcPEC5nX
>>247
easywanのワークフローはdiffusion-modelsフォルダのサブフォルダを参照するから、downloadフォルダのバッチファイル使ってmodel落とさないとめんどいよ
easywanのワークフローはdiffusion-modelsフォルダのサブフォルダを参照するから、downloadフォルダのバッチファイル使ってmodel落とさないとめんどいよ
253名無しさん@お腹いっぱい。
2025/07/27(日) 05:45:52.15ID:Rz5dw3/b comfyuiのアップデートがあったんかね
依存関係が色々ぶっ壊れてるんやが
依存関係が色々ぶっ壊れてるんやが
254名無しさん@お腹いっぱい。
2025/07/27(日) 05:46:09.43ID:qduqC8oE >>247
Downloadフォルダの下のI2vワークフロー用のbatを実行した?
確かそれでi2v用モデルDLしてくるんじゃなかったっけ
問題を一つずつ解決するために一旦
Extra_model_pathsの編集はやめた方が良いと思われ
適当なフォルダ作ってyaml退避して再起動して
まずはさらの状態で動画が思ったように出来るよう注力すべき
Downloadフォルダの下のI2vワークフロー用のbatを実行した?
確かそれでi2v用モデルDLしてくるんじゃなかったっけ
問題を一つずつ解決するために一旦
Extra_model_pathsの編集はやめた方が良いと思われ
適当なフォルダ作ってyaml退避して再起動して
まずはさらの状態で動画が思ったように出来るよう注力すべき
255名無しさん@お腹いっぱい。
2025/07/27(日) 06:03:17.62ID:VaK720J6 >>197
t2v…
t2v…
256名無しさん@お腹いっぱい。
2025/07/27(日) 06:21:59.59ID:xMVL1kn9257名無しさん@お腹いっぱい。
2025/07/27(日) 07:02:02.70ID:m7RMP01N >>247
yamlファイルの#はコメントなので、その行の#以降は無視される
ちなみにextra_model_paths.yamlはモデルを共有するものなのでワークフローの共有はできないよ
シンボリックリンクを張るって手もあるけど、やらないほうがいいと思う
ComfiUIとEasyWanではComfiUIコアやカスタムノードのバージョンが違うから
片方では動くけど片方では動かないとかが出てくる
まあワークフローのjsonはサイズが小さいからコピーすればいいわけだし
yamlファイルの#はコメントなので、その行の#以降は無視される
ちなみにextra_model_paths.yamlはモデルを共有するものなのでワークフローの共有はできないよ
シンボリックリンクを張るって手もあるけど、やらないほうがいいと思う
ComfiUIとEasyWanではComfiUIコアやカスタムノードのバージョンが違うから
片方では動くけど片方では動かないとかが出てくる
まあワークフローのjsonはサイズが小さいからコピーすればいいわけだし
2025/07/27(日) 07:15:02.98ID:3xefHDQP
>>231
試してないんでうまくいかなかったらゴメンなんだけど
https://civitai.com/models/1602000?modelVersionId=1953144
と併用してみたらどうだろう?(毛有りが好みの人には向かないけど)
試してないんでうまくいかなかったらゴメンなんだけど
https://civitai.com/models/1602000?modelVersionId=1953144
と併用してみたらどうだろう?(毛有りが好みの人には向かないけど)
2025/07/27(日) 08:57:57.33ID:Z5+420Vc
>>241
これだ!まさにやりたかった事ができた、ありがとう!
これだ!まさにやりたかった事ができた、ありがとう!
260名無しさん@お腹いっぱい。
2025/07/27(日) 09:01:31.12ID:khPnfDHz2025/07/27(日) 09:36:31.70ID:mj2uSIwT
昨日pythonパッケージがぐちゃぐちゃになってパッケージ全消し→入れ直しで丸一日潰れてしまった・・
それはさておき、一日目を離すとKijai師がまた新たな機能?をサポートした模様
echoshotと言う、プロンプトのみで複数場面を切り替えられるというもの
T2Vなので、あまり興味ないかもしれんが、面白いのは間違いない
試してみたけど、1.3Bの割には綺麗な映像で、しかも生成メチャ速い
I2Vで使えれば最強のひとつに成り得るかな
それはさておき、一日目を離すとKijai師がまた新たな機能?をサポートした模様
echoshotと言う、プロンプトのみで複数場面を切り替えられるというもの
T2Vなので、あまり興味ないかもしれんが、面白いのは間違いない
試してみたけど、1.3Bの割には綺麗な映像で、しかも生成メチャ速い
I2Vで使えれば最強のひとつに成り得るかな
262名無しさん@お腹いっぱい。
2025/07/27(日) 09:45:27.32ID:HEoBSWQM colpilotさん普通にnsfw系統もアドバイスしてくれてワロタw
geminiさんは話にならんかったが
>生成結果の比較スクショなどがあれば、さらに具体的にアドバイスできますよ!どんなシーンを狙ってるか、もう少し教えてもらえますか?
さすがにこれはまだ…
geminiさんは話にならんかったが
>生成結果の比較スクショなどがあれば、さらに具体的にアドバイスできますよ!どんなシーンを狙ってるか、もう少し教えてもらえますか?
さすがにこれはまだ…
263名無しさん@お腹いっぱい。
2025/07/27(日) 10:16:38.97ID:jM4lOfZP copilotも大人の対応するんだね。
2025/07/27(日) 10:17:00.65ID:u+s61P+m
T2V用Loraでも大抵はI2Vにも使えるね
ものによってはI2V用より精度高いまである
ものによってはI2V用より精度高いまである
2025/07/27(日) 10:23:08.21ID:gwuEnMjk
胸チラ(downblouse)がどんなに頑張ってもできないんですけど作れた人いますか?
前屈みになった時に胸の形が見えるところまではいくんだけど乳首や乳輪を一切出してくれん…
ちなみにphantomなのでt2vです
前屈みになった時に胸の形が見えるところまではいくんだけど乳首や乳輪を一切出してくれん…
ちなみにphantomなのでt2vです
266名無しさん@お腹いっぱい。
2025/07/27(日) 10:49:06.60ID:P0V5YcUn oversized clothesにするとか?
2025/07/27(日) 11:09:13.54ID:JZOszJIm
>>247
ワークフローはシンボリックリンク(ショートカットとは別物)でうまくいく
EasyWanでもEasyフォルダとかがそれだし
Extra_model_pathはちゃんと設定されてるとComfyUIの起動ログに出てくるから、それを参照
ワークフローはシンボリックリンク(ショートカットとは別物)でうまくいく
EasyWanでもEasyフォルダとかがそれだし
Extra_model_pathはちゃんと設定されてるとComfyUIの起動ログに出てくるから、それを参照
268名無しさん@お腹いっぱい。
2025/07/27(日) 11:31:28.74ID:UeAYjX8i2025/07/27(日) 11:44:42.39ID:POrIRXCM
Anisoraは正直まだ微妙だな
乳首がアニメっぽくなってくれるとこはいいんだけど
乳首がアニメっぽくなってくれるとこはいいんだけど
270名無しさん@お腹いっぱい。
2025/07/27(日) 11:53:44.30ID:O3UEkLcR あまり情報追えてないんだけど、image to videoだとまだFramePackが一番効率いい?
Wan2.2とかFusionXとか色んな情報があってどれにしたらいいのやら
ちょっとスレ遡るとAnisoraとかいうのも出たのか
たまにしかいじれないので進化スピードに困る
Wan2.2とかFusionXとか色んな情報があってどれにしたらいいのやら
ちょっとスレ遡るとAnisoraとかいうのも出たのか
たまにしかいじれないので進化スピードに困る
271名無しさん@お腹いっぱい。
2025/07/27(日) 12:15:33.42ID:snlbSWxB >>270 新参者の所感としてはframepackよりeasywanのほうが動いてくれるな
スピードもwanのほうが早い気がするけど、環境とか設定によって変わりそう
AI情勢の変化早すぎるのはまじで同感や
詳しいやり方とか最新情報とかみんなどこから仕入れてるのか知りたいわ
スピードもwanのほうが早い気がするけど、環境とか設定によって変わりそう
AI情勢の変化早すぎるのはまじで同感や
詳しいやり方とか最新情報とかみんなどこから仕入れてるのか知りたいわ
272名無しさん@お腹いっぱい。
2025/07/27(日) 12:42:34.69ID:nwRL7unG framepackと比較して語るならeasywanじゃなくてwanだと思うんですけど…
なんでわざわざ分かりにくい比較の仕方やるんだ
なんでわざわざ分かりにくい比較の仕方やるんだ
2025/07/27(日) 12:55:15.92ID:POrIRXCM
FPは一貫性は強いけどその画像に写ってること以上のことを求めるものじゃないというか
274名無しさん@お腹いっぱい。
2025/07/27(日) 13:01:57.38ID:qduqC8oE スピードのwan クオリティのFramePack
現状グラボのスペック的にwanを選ぶ人が多い印象
しかし巨人アリババ相手に一定の支持者持ってるイリヤ氏
ホンマ凄い
現状グラボのスペック的にwanを選ぶ人が多い印象
しかし巨人アリババ相手に一定の支持者持ってるイリヤ氏
ホンマ凄い
2025/07/27(日) 13:04:11.59ID:zMHfFRaC
EasywanをUpdateしたら下記エラー。
venv消して再実行しても出たから、numpy==1.26.4に固定して回避したけどあってる?
--
pip install -qq -r ComfyUI-Impact-Pack\requirements.txt
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
opencv-contrib-python 4.12.0.88 requires numpy<2.3.0,>=2; python_version >= "3.9", but you have numpy 1.26.4 which is incompatible.
opencv-python 4.12.0.88 requires numpy<2.3.0,>=2; python_version >= "3.9", but you have numpy 1.26.4 which is incompatible.
venv消して再実行しても出たから、numpy==1.26.4に固定して回避したけどあってる?
--
pip install -qq -r ComfyUI-Impact-Pack\requirements.txt
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
opencv-contrib-python 4.12.0.88 requires numpy<2.3.0,>=2; python_version >= "3.9", but you have numpy 1.26.4 which is incompatible.
opencv-python 4.12.0.88 requires numpy<2.3.0,>=2; python_version >= "3.9", but you have numpy 1.26.4 which is incompatible.
2025/07/27(日) 13:06:42.72ID:Z5+420Vc
Lora使える分Wanの方が色々できるな
FramePackもLoraの欄あるから使えるんやろうがよくわからん
FramePackもLoraの欄あるから使えるんやろうがよくわからん
2025/07/27(日) 13:09:37.05ID:W+A/OMSw
wan2.2はwan公式Xでリリース予告しててサンプル動画が投稿されてる段階
2.1の時は予告から4日位で公開されたからそろそろリリースされるはずだけど
そこからcomfyが対応するのに数日かかって
kijai氏とかがモデルの量子化して使えるようになる流れかな
とりあえずどのモデルでも最新のlightx2v rank256のlora使っとけば
4ステップで1分位で十分に満足できる動画作れるから止まらないわ
2.1の時は予告から4日位で公開されたからそろそろリリースされるはずだけど
そこからcomfyが対応するのに数日かかって
kijai氏とかがモデルの量子化して使えるようになる流れかな
とりあえずどのモデルでも最新のlightx2v rank256のlora使っとけば
4ステップで1分位で十分に満足できる動画作れるから止まらないわ
2025/07/27(日) 13:14:34.39ID:Qj6mNIs1
もうこれテンプレに入れておいた方がいいんじゃないか
■EasyWanVideoは付属のupdate.bat以外でのアップデートはしないで下さい
※ComfyUI ManagerでComfyUI本体やノードのアップデート、または追加ノードのインストールは非推奨
※自由にカスタマイズをしたい場合はEasyWanVideoとは別にComfyUIを追加導入しましょう
■EasyWanVideoは付属のupdate.bat以外でのアップデートはしないで下さい
※ComfyUI ManagerでComfyUI本体やノードのアップデート、または追加ノードのインストールは非推奨
※自由にカスタマイズをしたい場合はEasyWanVideoとは別にComfyUIを追加導入しましょう
2025/07/27(日) 13:22:17.59ID:dd89JtHm
EasyWanからノードだけ貰ってポイが一番楽
280名無しさん@お腹いっぱい。
2025/07/27(日) 13:23:27.33ID:f6nedP0X2025/07/27(日) 13:30:11.79ID:W+A/OMSw
numpyのバージョンによってエラー出るみたいなのは他のスレでも見たけど
古いバージョンに固定して問題なく動いてればそれで良いと思う
kijai氏のカスタムノードとかはかなり頻繁に更新されてるし
劇的にメモリ消費少なくしたり日々色んな改善してくれるから
EasyWanだけど毎日git pull origin mainして強制的に最新にしてるわ
不具合も無いしあっても過去のコミットに巻き戻せば良いだけだしな
古いバージョンに固定して問題なく動いてればそれで良いと思う
kijai氏のカスタムノードとかはかなり頻繁に更新されてるし
劇的にメモリ消費少なくしたり日々色んな改善してくれるから
EasyWanだけど毎日git pull origin mainして強制的に最新にしてるわ
不具合も無いしあっても過去のコミットに巻き戻せば良いだけだしな
282名無しさん@お腹いっぱい。
2025/07/27(日) 13:30:43.14ID:f6nedP0X easywan使ってないけど初心者のために尽力してるのは偉いわね
弊社の情シスみたいや
弊社の情シスみたいや
2025/07/27(日) 13:32:04.08ID:AM78UHHv
正直easy wan無かったらまだ動画やってないな
comfyワークフローすらわけわからんかったしな
comfyワークフローすらわけわからんかったしな
284名無しさん@お腹いっぱい。
2025/07/27(日) 13:33:50.72ID:P0V5YcUn MP4での保存の仕方すらわからない
でもEzWnがあるから戦える
でもEzWnがあるから戦える
2025/07/27(日) 13:36:46.83ID:Qj6mNIs1
>>284
EasyWanなら「MP4形式で保存」みたいなボタンあるで
EasyWanなら「MP4形式で保存」みたいなボタンあるで
286名無しさん@お腹いっぱい。
2025/07/27(日) 13:45:22.11ID:gwuEnMjk EasyWanを参考に必要なノードだけ取り出して自分だけのワークフロー作るのが一番いいと思う
>>266
oversized shirtとかHer shirt is looseとか入れてるんですけどダメなんですよね…
なんか前かがみで胸元開いてもシャツに胸が張り付いた感じになって乳首や乳輪が死守される
「乳首や乳輪はシャツで隠されていません」みたいなのにするとシャツから乳首飛び出ることあるし
>>266
oversized shirtとかHer shirt is looseとか入れてるんですけどダメなんですよね…
なんか前かがみで胸元開いてもシャツに胸が張り付いた感じになって乳首や乳輪が死守される
「乳首や乳輪はシャツで隠されていません」みたいなのにするとシャツから乳首飛び出ることあるし
287名無しさん@お腹いっぱい。
2025/07/27(日) 13:53:33.06ID:P0V5YcUn2025/07/27(日) 14:00:13.23ID:Z5+420Vc
289名無しさん@お腹いっぱい。
2025/07/27(日) 14:01:25.05ID:9Cs/Zzxq プロンプトで思い通りの動画作るのってむずすぎへん?ッ(´・ω・`
曖昧なのが悪いのかな
曖昧なのが悪いのかな
2025/07/27(日) 14:07:58.85ID:Qj6mNIs1
>>289
deepl翻訳かける時とか例えば直球で「女が口を開けて男のペニスを咥える」って書かないとあかんで
「その、女性があの・・・えっと・・・お口でですね・・・男性の・・・ふふっ、なんといいますか・・・ね?分かるでしょ?」みたいな何言ってんだコイツ構文やとテキストエンコーダーも🤖「何言ってんだコイツ?」ってなって適当なの生成する
deepl翻訳かける時とか例えば直球で「女が口を開けて男のペニスを咥える」って書かないとあかんで
「その、女性があの・・・えっと・・・お口でですね・・・男性の・・・ふふっ、なんといいますか・・・ね?分かるでしょ?」みたいな何言ってんだコイツ構文やとテキストエンコーダーも🤖「何言ってんだコイツ?」ってなって適当なの生成する
2025/07/27(日) 14:09:44.63ID:OmbbN6MQ
zuntanが善意でeasyシリーズ作ってるのはいいんだけどサポートは自分のリポでやって欲しいわ
スレの何割かはeasywanの話題な気がするし
スレの何割かはeasywanの話題な気がするし
292名無しさん@お腹いっぱい。
2025/07/27(日) 14:10:44.44ID:9Cs/Zzxq2025/07/27(日) 14:11:57.35ID:Qj6mNIs1
>>291
他の話題がしたいなら自分から話振ったらいいだけやぞ
他の話題がしたいなら自分から話振ったらいいだけやぞ
2025/07/27(日) 14:16:08.47ID:Z5+420Vc
使ってる人が多いソフトの話題が多くなるのは当然だししゃーないやろ
295名無しさん@お腹いっぱい。
2025/07/27(日) 14:20:29.24ID:P0V5YcUn2025/07/27(日) 14:21:46.96ID:Z5+420Vc
2025/07/27(日) 14:25:45.02ID:Qj6mNIs1
>>292
ワイはdeepl使って自然言語でそのまま入れてるな
例えば
「日本人の21歳の女性が賑やかな日本の商店街を歩いている。彼女はミディアムロングの黒髪で前髪があり、黒縁のメガネを着けている。彼女はミニスカートのメイド服を着ていて、トップスの胸元は大きく開き胸の谷間が強調されている。彼女は賑やかな日本の商店街をリズミカルで軽快なステップを刻みながら踊るように歩いている。背景は夜で街のネオンが光り輝いている。カメラは彼女の正面から背後に回り込むようにダイナミックな動き」
みたいに書いてそのまま翻訳かけてプロンプトにぶん投げ生成しとるで
なんとなくやけど[被写体指定]→[被写体の詳細]→[動きの詳細]→[背景の詳細]→[カメラポジション]の順に書くとうまく動く気がするわ
ワイはdeepl使って自然言語でそのまま入れてるな
例えば
「日本人の21歳の女性が賑やかな日本の商店街を歩いている。彼女はミディアムロングの黒髪で前髪があり、黒縁のメガネを着けている。彼女はミニスカートのメイド服を着ていて、トップスの胸元は大きく開き胸の谷間が強調されている。彼女は賑やかな日本の商店街をリズミカルで軽快なステップを刻みながら踊るように歩いている。背景は夜で街のネオンが光り輝いている。カメラは彼女の正面から背後に回り込むようにダイナミックな動き」
みたいに書いてそのまま翻訳かけてプロンプトにぶん投げ生成しとるで
なんとなくやけど[被写体指定]→[被写体の詳細]→[動きの詳細]→[背景の詳細]→[カメラポジション]の順に書くとうまく動く気がするわ
2025/07/27(日) 14:36:57.06ID:mj2uSIwT
オレはJanus-proノード使ってLLMに画像を読み込ませて動画用のプロンプトを作成するフローを作って動画作成してる
LLMへの指示プロンプトは以下のような感じ これこのままChatGPTとかへの指示にも使えるよ
まぁ、これに自分のアレンジも加えた方がいいと思うが
You are a prompt creation specialist.
Your goal is to complete a prompt that references a user input image and generates a video of approximately 5-10 seconds in length using this image as a starting frame.
Task Requirements
1. Create a motion-focused prompt to bring the input image to life.
2. The prompt should describe the visual motion of the image (e.g. human action, moving objects, camera movement). Mention subject features (e.g. appearance, facial expression, volume, ethnicity, posture), rendering style, spatial relationships, and camera angles.
3. The entire output should be written in English.
4. The output should incorporate natural actions related to the described subject category and convey attributes of natural motion using simple and direct verbs whenever possible.
5. It should reference detailed information such as the actions, clothing, and background of the people in the image, and highlight the fine details of the photo.
6. The output should always be in English, regardless of the user's input in any language.
LLMへの指示プロンプトは以下のような感じ これこのままChatGPTとかへの指示にも使えるよ
まぁ、これに自分のアレンジも加えた方がいいと思うが
You are a prompt creation specialist.
Your goal is to complete a prompt that references a user input image and generates a video of approximately 5-10 seconds in length using this image as a starting frame.
Task Requirements
1. Create a motion-focused prompt to bring the input image to life.
2. The prompt should describe the visual motion of the image (e.g. human action, moving objects, camera movement). Mention subject features (e.g. appearance, facial expression, volume, ethnicity, posture), rendering style, spatial relationships, and camera angles.
3. The entire output should be written in English.
4. The output should incorporate natural actions related to the described subject category and convey attributes of natural motion using simple and direct verbs whenever possible.
5. It should reference detailed information such as the actions, clothing, and background of the people in the image, and highlight the fine details of the photo.
6. The output should always be in English, regardless of the user's input in any language.
299名無しさん@お腹いっぱい。
2025/07/27(日) 14:56:26.82ID:3pa+E+U6 WANもFPも一長一短あるけど、この季節はFPには触りたくない
生成時間が長すぎてPCからの熱風で部屋が温室状態
まあ先にエアコンを買い替えるべきだわな
生成時間が長すぎてPCからの熱風で部屋が温室状態
まあ先にエアコンを買い替えるべきだわな
2025/07/27(日) 15:02:47.26ID:kJkzBRhW
>>286
https://civitai.com/images/87283180
Bouncy Forward Bends - Wan I2V 14B
WANやってらっしゃるならこのloraはいかが?
試したことないけど一応DLしてる
https://civitai.com/images/87283180
Bouncy Forward Bends - Wan I2V 14B
WANやってらっしゃるならこのloraはいかが?
試したことないけど一応DLしてる
301名無しさん@お腹いっぱい。
2025/07/27(日) 15:10:34.26ID:9Cs/Zzxq2025/07/27(日) 15:12:41.14ID:a3U81zC8
>>265ではないけど、
服の下の服、とか服の上から見える乳首、短パンの下の隙間から見えるパンツ、とかをほとんど認識してくれないんだよね
脱がすならいけるんだけど、SDでも認識してくれなかったから苦手な分野と認識してた
ちなみに胸チラLoraを自作してみたけどチクチラには至らんかった
服の下の服、とか服の上から見える乳首、短パンの下の隙間から見えるパンツ、とかをほとんど認識してくれないんだよね
脱がすならいけるんだけど、SDでも認識してくれなかったから苦手な分野と認識してた
ちなみに胸チラLoraを自作してみたけどチクチラには至らんかった
2025/07/27(日) 15:29:39.84ID:POrIRXCM
Geminiに日本語を認識させてプロンプト化ってのもあるけどエロ系は申し訳されるから案外役立たず
2025/07/27(日) 15:38:32.11ID:JZOszJIm
deepさんはエロ OKなんか
305名無しさん@お腹いっぱい。
2025/07/27(日) 15:41:39.48ID:uS1LxgBV GeminiをAPIで使えばいいのに
公式サイトで使うとどこも独自規制あってより厳しいよ
公式サイトで使うとどこも独自規制あってより厳しいよ
2025/07/27(日) 16:01:55.93ID:POrIRXCM
GeminiをAPIで接続してもガチエロ画像なのは申し訳されるよ
307名無しさん@お腹いっぱい。
2025/07/27(日) 16:02:41.28ID:uS1LxgBV ちゃんとプロンプトで脱獄してどうぞ
年齢明記したロリ小説書かせるのだって通ったぞ
年齢明記したロリ小説書かせるのだって通ったぞ
2025/07/27(日) 16:05:15.13ID:POrIRXCM
Comfyuiのノードでやらせるって話じゃないの?
2025/07/27(日) 17:20:57.72ID:i4yMYtHk
よりけしからん!にするために加筆修正・推敲するからなぁ
Comfy内で完結させる事には拘ってないな
Comfy内で完結させる事には拘ってないな
2025/07/27(日) 17:56:19.72ID:SLkjUdOv
FramePackでwanLoraが使えるって話はF1だと通用しなくない?
使えないLoraあるけど
使えないLoraあるけど
311名無しさん@お腹いっぱい。
2025/07/27(日) 18:06:43.54ID:mg8aqT2n https://x.com/alibaba_wan/status/1949332715071037862?s=46&t=XdLsr3WCSTnMdITE2MwUYg
日本時間7/28(月)21時にwan2.2リリースか
日本時間7/28(月)21時にwan2.2リリースか
2025/07/27(日) 18:08:13.44ID:Z5+420Vc
結局何が変わるんや
2025/07/27(日) 18:12:34.14ID:POrIRXCM
思ってたより早いな…VACEとかみたいにモデル入れ替えるだけで動くんだろうか
2025/07/27(日) 18:15:23.59ID:Qj6mNIs1
モデルサイズ40GBとかで絶望しそうだからあんまり期待はしないでおいてるわ・・・w
315名無しさん@お腹いっぱい。
2025/07/27(日) 18:19:54.43ID:UeAYjX8i >一般的に、小数点以下のバージョンアップは、メジャーバージョンアップ(例: 1.0から2.0)ほど劇的な変更ではないものの、
性能向上、新機能の追加、安定性の改善などが行われることが多いです。
生成動画の品質・打率が上がるなら嬉しいな
性能向上、新機能の追加、安定性の改善などが行われることが多いです。
生成動画の品質・打率が上がるなら嬉しいな
2025/07/27(日) 18:29:19.63ID:W+A/OMSw
サンプル動画が全部5秒だから長時間生成とかはできなさそうだけど
カメラ制御とか一貫性は良くなってそう
wan2.1も量子化してないFP32モデルは70GB近くあるけど
FP8にするだけで16GB位になるしブロックスワップすればそれ未満の低VRAMでも読み込めるし
元のモデルが100GBとかじゃなければ余裕っしょ
カメラ制御とか一貫性は良くなってそう
wan2.1も量子化してないFP32モデルは70GB近くあるけど
FP8にするだけで16GB位になるしブロックスワップすればそれ未満の低VRAMでも読み込めるし
元のモデルが100GBとかじゃなければ余裕っしょ
317名無しさん@お腹いっぱい。
2025/07/27(日) 18:57:03.55ID:jM4lOfZP >>309
その「けしからん!」ってのはトリガーワードっぽいね、雰囲気的に。
その「けしからん!」ってのはトリガーワードっぽいね、雰囲気的に。
318名無しさん@お腹いっぱい。
2025/07/27(日) 19:05:37.10ID:yO3Exj8G >>311
Kijaiニキがヨダレ垂らして待ってそう
Kijaiニキがヨダレ垂らして待ってそう
2025/07/27(日) 19:06:44.85ID:rnTfPwe+
>>290
ワロタ
ワロタ
320名無しさん@お腹いっぱい。
2025/07/27(日) 19:08:55.07ID:QSQCMa80 Zuntanのやつ、今日もアプデ入ってたな。
不具合修正メインだがアニメ顔もプリセット入れたのか。
Hiresの速度向上が思ったより効いてて、512*3s*Hiresなら80秒とかで完了したわ(5070ti)
この速度だともう素体ガチャするよりもHires済みでガチャするのもアリかなってなるな。
不具合修正メインだがアニメ顔もプリセット入れたのか。
Hiresの速度向上が思ったより効いてて、512*3s*Hiresなら80秒とかで完了したわ(5070ti)
この速度だともう素体ガチャするよりもHires済みでガチャするのもアリかなってなるな。
321名無しさん@お腹いっぱい。
2025/07/27(日) 19:14:59.31ID:ph8/G2nv >>123
こういうの助かります
こういうの助かります
2025/07/27(日) 19:15:16.34ID:ExS1g2XI
NsfwなガチエロいプロンプトをChatGPTとかで書いてもらう方法ある?
前にカスタムしたボットか何かでやってたの見た事あるんだよな
前にカスタムしたボットか何かでやってたの見た事あるんだよな
323名無しさん@お腹いっぱい。
2025/07/27(日) 19:29:09.74ID:QSQCMa80 って、Zuntanのアニメ顔プリセットなんか自環境じゃ動かないな
見てみたらAnimeCumshotEmotionがnsfwのフォルダに新規追加されてたけど、プリセットのLora名はAnimeSexFacesだからここが原因かな?
見てみたらAnimeCumshotEmotionがnsfwのフォルダに新規追加されてたけど、プリセットのLora名はAnimeSexFacesだからここが原因かな?
324名無しさん@お腹いっぱい。
2025/07/27(日) 19:34:37.73ID:AwhtX3ue >>303
API使え
API使え
325名無しさん@お腹いっぱい。
2025/07/27(日) 19:53:03.54ID:G1gIDw/8 5秒のままでいいからlive2dもどきじゃなくてリミテッドアニメーションな動きになってくれんか
2025/07/27(日) 20:05:37.11ID:/xRhBvET
>>323 つっこみありがとう
Download/Kijai_NsfwFast.batへのBetterAnimeSexFaces_v40追加漏れでした
Update.bat後にDownload/Kijai_NsfwFast.batで直るはずです
サンプルにアニメ顔LoRA込みの比較動画を追加しときました
通常モデル
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaReal.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaReal.mp4
アニメモデル
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaAnime.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaAnime.mp4
通常モデル+アニメ顔LoRA、一定の効果あり
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaAnimeFaceLora.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaAnimeFaceLora.mp4
Download/Kijai_NsfwFast.batへのBetterAnimeSexFaces_v40追加漏れでした
Update.bat後にDownload/Kijai_NsfwFast.batで直るはずです
サンプルにアニメ顔LoRA込みの比較動画を追加しときました
通常モデル
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaReal.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaReal.mp4
アニメモデル
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaAnime.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaAnime.mp4
通常モデル+アニメ顔LoRA、一定の効果あり
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-PriscillaAnimeFaceLora.mp4
https://yyy.wpx.jp/EasyWanVideo/SampleNsfw/20250727-KaguyaAnimeFaceLora.mp4
327名無しさん@お腹いっぱい。
2025/07/27(日) 20:11:03.13ID:QSQCMa80328名無しさん@お腹いっぱい。
2025/07/27(日) 20:14:43.98ID:oBkoGD// 俺の自撮りをi2vでtnkを2本に増やして化け物作ろうとしたけどなかなかうまくいかねえな
2025/07/27(日) 20:34:49.46ID:dAwZgP/s
うまくいってたまるか
330名無しさん@お腹いっぱい。
2025/07/27(日) 20:38:28.23ID:uS1LxgBV >>318
事実上そこがリリース日みたいなもんよな
事実上そこがリリース日みたいなもんよな
331名無しさん@お腹いっぱい。
2025/07/27(日) 20:47:16.87ID:7w5CIkTu wan2.2に関しては今までの2.1の各種LoRAはやっぱ全滅かな
解像度とフレームレートからしてまず違うからな
まあ数か月もすれば天才が対応してくれるんだろうけど
解像度とフレームレートからしてまず違うからな
まあ数か月もすれば天才が対応してくれるんだろうけど
2025/07/27(日) 20:51:43.26ID:JowIaQyq
初心者ですとか言うのもおこがましい程の質問で恐縮です
ブロックスワップ数とステップ数についてイマイチ分かりません
前者は生成時間で後者は画質なのかなぁと思ってますが見当違いでしょうか?
ブロックスワップ数とステップ数についてイマイチ分かりません
前者は生成時間で後者は画質なのかなぁと思ってますが見当違いでしょうか?
333名無しさん@お腹いっぱい。
2025/07/27(日) 20:52:07.70ID:+TsQ6bvM 久々に来てみたらpusaとかwan2.2とかついていける気がしないっつーの
置いていかないでくれ頼むワイにもスケベさせてくれ
置いていかないでくれ頼むワイにもスケベさせてくれ
334名無しさん@お腹いっぱい。
2025/07/27(日) 20:54:27.90ID:f6nedP0X335名無しさん@お腹いっぱい。
2025/07/27(日) 20:59:55.89ID:+TsQ6bvM >>332
雰囲気で動画生成してるワイから言わせてもらうとブロックスワップはどんぐらいRAMに負担かけますか?つー量りで小さくするほどVRAM君が肩代わりしてくれる
ステップ数は芸術家WANに描き直させる枚数
描き直すほど綺麗になる(意訳)けど時間がかかる
雰囲気で動画生成してるワイから言わせてもらうとブロックスワップはどんぐらいRAMに負担かけますか?つー量りで小さくするほどVRAM君が肩代わりしてくれる
ステップ数は芸術家WANに描き直させる枚数
描き直すほど綺麗になる(意訳)けど時間がかかる
2025/07/27(日) 21:00:09.91ID:JziNSw1D
LoRAの互換性は確かに気になるところ
一枚絵と違ってじゃあ自分で学習回すわってできないからなあ
一枚絵と違ってじゃあ自分で学習回すわってできないからなあ
2025/07/27(日) 21:02:28.16ID:W+A/OMSw
wan2.1のサンプル動画も720Pで30fpsだから
解像度変わってないしfpsは2.1と同じく生成後にフレーム補完してる可能性もある
SkyReels v2はwanを元にしてfpsは24で学習されてるけど
wanで16fpsで学習されたloraも普通に使えるからその辺は柔軟に行ける気がする
新機能があるみたいだけどバージョン2.5とか3じゃないからそんなに大幅に変わらないだろうしな
解像度変わってないしfpsは2.1と同じく生成後にフレーム補完してる可能性もある
SkyReels v2はwanを元にしてfpsは24で学習されてるけど
wanで16fpsで学習されたloraも普通に使えるからその辺は柔軟に行ける気がする
新機能があるみたいだけどバージョン2.5とか3じゃないからそんなに大幅に変わらないだろうしな
338名無しさん@お腹いっぱい。
2025/07/27(日) 21:12:04.32ID:mg8aqT2n なんも機能増えなくてもいいから、初期画像の顔だけは絶対に変わらなくなりましたとかのが死ぬほど嬉しい
339名無しさん@お腹いっぱい。
2025/07/27(日) 21:13:48.41ID:7w5CIkTu 解像度同じか勘違いしてたらしいな失礼
340名無しさん@お腹いっぱい。
2025/07/27(日) 21:16:16.82ID:7w5CIkTu 解像度は同じか勘違いしてたらしい失礼
2025/07/27(日) 21:21:55.08ID:Z5+420Vc
EasyWanカスタムノードのバージョン固定化嬉しい
ちょうど2.2も来るし2.1は今のバージョン保存しとけばこのまま一生使えるな
ちょうど2.2も来るし2.1は今のバージョン保存しとけばこのまま一生使えるな
342名無しさん@お腹いっぱい。
2025/07/27(日) 21:33:58.96ID:1DwcB+FS 新しいEasyWan NsfwFastで
画像サイズ640px、HiresFix 1.5倍、補間ありmp4を保存
これで縦解像度960px、60fpsのほぼフルHDの高画質ぬるぬる動画が生成できるわ
プロンプト長くなるとエラーが出るのは仕方ないか
zuntanニキありがとう
画像サイズ640px、HiresFix 1.5倍、補間ありmp4を保存
これで縦解像度960px、60fpsのほぼフルHDの高画質ぬるぬる動画が生成できるわ
プロンプト長くなるとエラーが出るのは仕方ないか
zuntanニキありがとう
2025/07/27(日) 21:37:17.83ID:JowIaQyq
2025/07/27(日) 21:42:48.35ID:Z5+420Vc
>>342
2倍アップスケール使わんの?
2倍アップスケール使わんの?
345名無しさん@お腹いっぱい。
2025/07/27(日) 22:04:09.49ID:Rz5dw3/b せっかくphantom動かせるようになったのに次は2.2かよ!
2025/07/27(日) 22:09:56.81ID:si5MrVDw
高速Loraリリースが落ち着いたと思ったらスレが高速化しててわろた
2025/07/27(日) 22:14:51.16ID:+OGC+fTD
>>345
phantomマジでいいからがっつり2.1をやっていけ
phantomマジでいいからがっつり2.1をやっていけ
2025/07/27(日) 22:17:31.49ID:+OGC+fTD
>>300
ありがとう!試してみたけどi2v用だからか胸チラは達成できませんでした(前屈みになった時の胸の揺れ方はリアルになったけど画面にノイズが増えた)
ありがとう!試してみたけどi2v用だからか胸チラは達成できませんでした(前屈みになった時の胸の揺れ方はリアルになったけど画面にノイズが増えた)
2025/07/27(日) 22:19:55.30ID:gwuEnMjk
>>302
乳首がチラチラ見える状態にシャツやブラがなるってわりと難しいシチュなんでしょうね
画像だと生成できたはずなのでi2vだったら可能性があるのでしょうけど、特定の顔と服装でやりたいのでphantom使ったt2vでやりたいんですよね
乳首がチラチラ見える状態にシャツやブラがなるってわりと難しいシチュなんでしょうね
画像だと生成できたはずなのでi2vだったら可能性があるのでしょうけど、特定の顔と服装でやりたいのでphantom使ったt2vでやりたいんですよね
2025/07/27(日) 22:21:02.66ID:POrIRXCM
ソフトは持ってるからアップスケールは気に入ったのだけTopazで綺麗にするのがやっぱ効率がいいわ
2025/07/27(日) 22:24:54.23ID:uS1LxgBV
うちは結局素のWanかAniwanに戻りがち
NSFWFastとか他のを使うコツをもうちょっとつかみたい・・・
NSFWFastとか他のを使うコツをもうちょっとつかみたい・・・
2025/07/27(日) 22:29:51.78ID:Z5+420Vc
EasyWanで5秒動画作ってそれ読み込んで追加2秒でループ動画にしてHiresFixオンにすると
WanVideoImageToVideoEncode Trying to create tensor with negative dimension -48: [3, -48, 640, 480]
ってエラー出て止まるわ
ChatGPTに聞いたら動画の長さが負になってるらしいけど使い方間違ってる?
WanVideoImageToVideoEncode Trying to create tensor with negative dimension -48: [3, -48, 640, 480]
ってエラー出て止まるわ
ChatGPTに聞いたら動画の長さが負になってるらしいけど使い方間違ってる?
353名無しさん@お腹いっぱい。
2025/07/27(日) 22:43:31.71ID:eSY5fEh3 EasyWANでKijai Allでダウンロード始めたら朝からやっても終わらないんですがこれ何GBあるんですか?
2025/07/27(日) 22:59:37.91ID:rwQjjz59
2025/07/27(日) 23:01:25.13ID:+LL2daM5
https://www.youtube.com/shorts/AsZ6zC_iT28
https://www.youtube.com/shorts/wgFzQ4l3QVU
WANのvid2vidってここまで出来るのか
音楽と完璧にシンクロしててヌルヌル動いてるやん
https://www.youtube.com/shorts/wgFzQ4l3QVU
WANのvid2vidってここまで出来るのか
音楽と完璧にシンクロしててヌルヌル動いてるやん
356名無しさん@お腹いっぱい。
2025/07/27(日) 23:02:44.12ID:eSY5fEh32025/07/27(日) 23:21:00.29ID:uS1LxgBV
>>355
カンナムスタイルが始まったのかと思った
カンナムスタイルが始まったのかと思った
358名無しさん@お腹いっぱい。
2025/07/27(日) 23:31:53.00ID:m7RMP01N Wan2.2いよいよ明日か
多分ワイ環じゃ動かないだろうなぁ
God KijaiとZuntanニキに期待だわ
多分ワイ環じゃ動かないだろうなぁ
God KijaiとZuntanニキに期待だわ
2025/07/27(日) 23:46:23.80ID:pPVrjS98
5070Ti 16GBとメモリ64G
2.2いけるか…?
2.2いけるか…?
2025/07/27(日) 23:51:26.14ID:QSQCMa80
EasyWanのAnisora+pusa使ってみたけど結構よく動くな。
あとHiresが軽くなったのが大きい、2倍Upscaleと問題なく併用できるようになった気がする。
https://files.catbox.moe/fc4209.mp4
あとHiresが軽くなったのが大きい、2倍Upscaleと問題なく併用できるようになった気がする。
https://files.catbox.moe/fc4209.mp4
361名無しさん@お腹いっぱい。
2025/07/27(日) 23:51:47.96ID:3tjZvTFx >>355
髪とおっぱいの物理すげえぇ...あとキャラかわいいw
髪とおっぱいの物理すげえぇ...あとキャラかわいいw
362名無しさん@お腹いっぱい。
2025/07/27(日) 23:54:22.60ID:q2YT/s4g エロ特化モデルにシステムプロンプトで指示してのプロンプト生成を
ローカルでやるのが普通だと思ってました。
ローカルでやるのが普通だと思ってました。
363名無しさん@お腹いっぱい。
2025/07/28(月) 00:19:24.23ID:dHl0rto1 実際にやってみてaiすげえなと思ったけど
凄いと感じるのはエロだけ
それ以外のもの特に芸術的に意識が高いやつとかはまるで魅力を感じない
何でだろうか
凄いと感じるのはエロだけ
それ以外のもの特に芸術的に意識が高いやつとかはまるで魅力を感じない
何でだろうか
2025/07/28(月) 00:32:50.11ID:SvkjpWYJ
2025/07/28(月) 00:40:00.71ID:wV9s1Xbc
エロも作るけどLive2D風に動かしてこっち向いて微笑むとかも同じくらい作ってる
366名無しさん@お腹いっぱい。
2025/07/28(月) 00:49:54.78ID:2asT5vQz kijai版GGFU対応したって聞いたからEasyWan再インストールしたら動くたびにめっちゃブラーかかるようになったんだけど何が悪いんや
おまけにプロンプト入れても全く動かん。この画像だとあんま入れてないし動きも小さいからブラーも薄いけど、他の画像だともう女風呂くらい何も見えん
https://files.catbox.moe/5sncui.webp
おまけにプロンプト入れても全く動かん。この画像だとあんま入れてないし動きも小さいからブラーも薄いけど、他の画像だともう女風呂くらい何も見えん
https://files.catbox.moe/5sncui.webp
367名無しさん@お腹いっぱい。
2025/07/28(月) 00:55:59.47ID:g30u89pZ wan2.2って本体のモデル、Clip、VAEあたりを既存のワークフローにいれるだけじゃ駄目かな ノードとかも専用になるんかな
368名無しさん@お腹いっぱい。
2025/07/28(月) 02:59:34.70ID:oPA+LJ6S369名無しさん@お腹いっぱい。
2025/07/28(月) 04:02:43.09ID:oPA+LJ6S 昨日更新されたNsfwFast
mp4出力の段階でなんかWARNINGが出るな
映像はちゃんと出力されているけど
mp4出力の段階でなんかWARNINGが出るな
映像はちゃんと出力されているけど
370名無しさん@お腹いっぱい。
2025/07/28(月) 06:50:30.66ID:paWzM3Pk371名無しさん@お腹いっぱい。
2025/07/28(月) 07:08:14.13ID:jnbN5iOn サービスごとにあんまり生成される動画に違いがないのはなぜなのかな?
同じ技術だから?
同じ技術だから?
372名無しさん@お腹いっぱい。
2025/07/28(月) 07:16:43.10ID:jnbN5iOn センスのある動画が作れない
昭和風の動画が作りたい
昭和風の動画が作りたい
373名無しさん@お腹いっぱい。
2025/07/28(月) 07:30:38.09ID:K9pBtCV2 Tiktokで自転車で綺麗な坂道を降りていくアニメ風動画とかガラスで出来た野菜を切る動画とかめっちゃ流行ってるけど最初見た時はやっぱりすげーってなったよ
今は動物トレイルカメラ系が流行ってる
今は動物トレイルカメラ系が流行ってる
374名無しさん@お腹いっぱい。
2025/07/28(月) 07:38:41.09ID:jnbN5iOn グミ化した野獣先輩見てすげーと思った
いや、その発想が
いや、その発想が
2025/07/28(月) 07:52:48.61ID:Vs0nUgGh
そういうのってPikaが元ネタだと思ってた
376名無しさん@お腹いっぱい。
2025/07/28(月) 08:42:50.78ID:2asT5vQz >>368
サンガツ!変えたら上手くいったわ
でも手元にあったやつよく見たら結局T2Vで草(Wan21_T2V_14B_lightx2v_cfg_step_distll_lora_rank32)
今まで上手くいってたから気にしてなかったけど、おかしくなったらT2V外してみるわ
サンガツ!変えたら上手くいったわ
でも手元にあったやつよく見たら結局T2Vで草(Wan21_T2V_14B_lightx2v_cfg_step_distll_lora_rank32)
今まで上手くいってたから気にしてなかったけど、おかしくなったらT2V外してみるわ
2025/07/28(月) 08:57:52.61ID:y/Tx/OYm
>>369
修正しました。
既存のワークフローで警告が出てる場合はVideo Combineノードのformatをh.264以外にしてから戻してください。
デフォルトのcrf 19はサイズが大きいので25~30ぐらいがおすすめです。
修正しました。
既存のワークフローで警告が出てる場合はVideo Combineノードのformatをh.264以外にしてから戻してください。
デフォルトのcrf 19はサイズが大きいので25~30ぐらいがおすすめです。
378名無しさん@お腹いっぱい。
2025/07/28(月) 09:42:28.36ID:SkwGbOPa EasyWanVideo に lora 自分で追加したいときってどの workflow いじるのが推奨でしょうか?
379名無しさん@お腹いっぱい。
2025/07/28(月) 09:47:21.74ID:ZO5rfxLj2025/07/28(月) 10:02:24.38ID:XJCT6SgQ
>>360
なにこの美麗画質すごい
うちの環境じゃアプデ後の最新のNsfwFastは
WanVideoModelLoader
'LoRAAdapter' object is not subscriptable
ってエラーが出て回んなくなっちゃった
他のワークフローで楽しませてもらってるからいいのだけど泣
なにこの美麗画質すごい
うちの環境じゃアプデ後の最新のNsfwFastは
WanVideoModelLoader
'LoRAAdapter' object is not subscriptable
ってエラーが出て回んなくなっちゃった
他のワークフローで楽しませてもらってるからいいのだけど泣
2025/07/28(月) 11:36:59.82ID:wV9s1Xbc
触手によさげなLoRAが来てた
382名無しさん@お腹いっぱい。
2025/07/28(月) 12:12:06.84ID:zzdwQ5pi >>374
岩化したやつのオマージュやろ、たぶん
岩化したやつのオマージュやろ、たぶん
383名無しさん@お腹いっぱい。
2025/07/28(月) 13:58:37.12ID:jnbN5iOn ai動画の質問していい?
テロップは動画編集で入れたほうがいいかな?
指定しても、中国語っぽくなったりする事が多い
風景の一部なら仕方ないんだけどね、、、
テロップは動画編集で入れたほうがいいかな?
指定しても、中国語っぽくなったりする事が多い
風景の一部なら仕方ないんだけどね、、、
384名無しさん@お腹いっぱい。
2025/07/28(月) 14:21:26.21ID:ZO5rfxLj 一年もすれば文字テロップも入れられるようにはなると思うけど、日本語でできるようになるかは分からないよ?
なぜなら日本人が作ってないからね
アメリカ人さんや中国人さんが「しゃーねーなぁ日本語も対応してやるか~」って思ってくれないとね
なぜなら日本人が作ってないからね
アメリカ人さんや中国人さんが「しゃーねーなぁ日本語も対応してやるか~」って思ってくれないとね
2025/07/28(月) 14:25:54.46ID:SvkjpWYJ
>>383-384
どっちもズレてるやろこれ・・・
文字テロップはどう考えても動画編集ソフトの機能的な感じで表れるやろし
すでに多言語の文字起こしは実用化されとるんやから準メジャー言語の
日本語が取り残される理由もない
そもそもPremiereとかでは質が若干微妙とはいえ自動テロップ機能が
すでに日本語も対応で実装されとる あれの認識機能部分が高機能になったら
全然いける
どっちもズレてるやろこれ・・・
文字テロップはどう考えても動画編集ソフトの機能的な感じで表れるやろし
すでに多言語の文字起こしは実用化されとるんやから準メジャー言語の
日本語が取り残される理由もない
そもそもPremiereとかでは質が若干微妙とはいえ自動テロップ機能が
すでに日本語も対応で実装されとる あれの認識機能部分が高機能になったら
全然いける
2025/07/28(月) 15:11:39.85ID:JMATTQho
日本語対応と謳ってる音声合成や音楽生成聞くと分かると思うけど、
所詮アメリカ人や中国人が作った日本語対応は聞くに堪えない
文字なら兎も角、音声は日本人が作らんとダメだろうな・・
となると、当面は無理かな
所詮アメリカ人や中国人が作った日本語対応は聞くに堪えない
文字なら兎も角、音声は日本人が作らんとダメだろうな・・
となると、当面は無理かな
2025/07/28(月) 15:32:43.97ID:vaqkbh2u
時間の無駄、工程わけろ
2025/07/28(月) 16:41:50.12ID:SvkjpWYJ
389名無しさん@お腹いっぱい。
2025/07/28(月) 17:11:08.53ID:jnbN5iOn 動画生成するにもセンスが必要だよね
aiで何でもできるとおもいきや
aiで何でもできるとおもいきや
390名無しさん@お腹いっぱい。
2025/07/28(月) 17:30:33.30ID:oPA+LJ6S391名無しさん@お腹いっぱい。
2025/07/28(月) 17:33:38.91ID:LIfUpznB Trying to create tensor with negative dimension -32: [3, -32, 640, 480]エラーよくでるな
2025/07/28(月) 17:50:16.15ID:y/Tx/OYm
>>391
動画のループや延長のときに動画じゃなく静止画のwebpを読み込んだ場合に起きるエラーかも?
動画のループや延長のときに動画じゃなく静止画のwebpを読み込んだ場合に起きるエラーかも?
393名無しさん@お腹いっぱい。
2025/07/28(月) 17:55:18.78ID:LIfUpznB >>392
NsfwGen読み込んでるからそれはないと思う。
NsfwGen読み込んでるからそれはないと思う。
2025/07/28(月) 18:01:29.70ID:y/Tx/OYm
>>393 NsfwGenを共有してもらえるやろか?
395名無しさん@お腹いっぱい。
2025/07/28(月) 18:08:39.67ID:LIfUpznB >>394
Genの共有方法は分からない
操作としては→Genを投げる→画像になってるからさらに同じGenを入れる→ループで出る時と出ない時がある。割合としては結構でる。
http://www.floral-village.info/up/1753693525.png
Genの共有方法は分からない
操作としては→Genを投げる→画像になってるからさらに同じGenを入れる→ループで出る時と出ない時がある。割合としては結構でる。
http://www.floral-village.info/up/1753693525.png
396名無しさん@お腹いっぱい。
2025/07/28(月) 18:14:55.12ID:LIfUpznB >>394
色々試したら、5秒は何もなく生成されて、3秒は同じ現象になった。
色々試したら、5秒は何もなく生成されて、3秒は同じ現象になった。
397名無しさん@お腹いっぱい。
2025/07/28(月) 18:19:14.12ID:LIfUpznB 追加情報を載せておく。俺のやり方が間違ってたらごめん
Prompt executed in 14.82 seconds
got prompt
Requested to load WanTEModel
loaded completely 12149.117289352416 6419.477203369141 True
Unload Model:
- Clearing Cache...
!!! Exception during processing !!! Trying to create tensor with negative dimension -32: [3, -32, 640, 480]
Traceback (most recent call last):
File "E:\EasyWan\ComfyUI\execution.py", line 327, in execute
output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
File "E:\EasyWan\ComfyUI\execution.py", line 202, in get_output_data
return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
File "E:\EasyWan\ComfyUI\execution.py", line 174, in _map_node_over_list
process_inputs(input_dict, i)
File "E:\EasyWan\ComfyUI\execution.py", line 163, in process_inputs
results.append(getattr(obj, func)(**inputs))
File "E:\EasyWan\ComfyUI\custom_nodes\ComfyUI-WanVideoWrapper\nodes.py", line 666, in process
zero_frames = torch.zeros(3, num_frames-start_image.shape[0], H, W, device=device)
RuntimeError: Trying to create tensor with negative dimension -32: [3, -32, 640, 480]
Prompt executed in 7.29 seconds
Prompt executed in 14.82 seconds
got prompt
Requested to load WanTEModel
loaded completely 12149.117289352416 6419.477203369141 True
Unload Model:
- Clearing Cache...
!!! Exception during processing !!! Trying to create tensor with negative dimension -32: [3, -32, 640, 480]
Traceback (most recent call last):
File "E:\EasyWan\ComfyUI\execution.py", line 327, in execute
output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
File "E:\EasyWan\ComfyUI\execution.py", line 202, in get_output_data
return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
File "E:\EasyWan\ComfyUI\execution.py", line 174, in _map_node_over_list
process_inputs(input_dict, i)
File "E:\EasyWan\ComfyUI\execution.py", line 163, in process_inputs
results.append(getattr(obj, func)(**inputs))
File "E:\EasyWan\ComfyUI\custom_nodes\ComfyUI-WanVideoWrapper\nodes.py", line 666, in process
zero_frames = torch.zeros(3, num_frames-start_image.shape[0], H, W, device=device)
RuntimeError: Trying to create tensor with negative dimension -32: [3, -32, 640, 480]
Prompt executed in 7.29 seconds
398名無しさん@お腹いっぱい。
2025/07/28(月) 18:26:37.08ID:tVCxsMLY うぜえええええええええええええええ
easyなんとかはgithubでやれ出てくんな
easyなんとかはgithubでやれ出てくんな
399名無しさん@お腹いっぱい。
2025/07/28(月) 18:28:52.32ID:LIfUpznB >>398
とか言いながら使ってんだろ?
とか言いながら使ってんだろ?
400名無しさん@お腹いっぱい。
2025/07/28(月) 18:34:49.12ID:iYEMgNt2 ほんならよ、そのeasyなんちゃらを使わず作った素晴らしい動画を見せてクレメンス
2025/07/28(月) 18:34:49.48ID:MFCVkw5u
実写勢だけど、NswfFastが出てすぐの頃に試したらアニメ調に引っ張られて、Zuntanニキがアニメ勢だからやむ無しと大人しくNswfI2vに戻って行ったんだけど、実写も行けると見てただいま試してみたらバッチリじゃねーですか。
時間は7秒動画が250s→150sくらいで、少ししかやってないけど動画自体も前よりリアルな感じ?
Zuntanニキまじ感謝やで。
時間は7秒動画が250s→150sくらいで、少ししかやってないけど動画自体も前よりリアルな感じ?
Zuntanニキまじ感謝やで。
402名無しさん@お腹いっぱい。
2025/07/28(月) 18:37:17.93ID:ocgJu9A5 >>398
なんだこの人…
なんだこの人…
2025/07/28(月) 18:43:57.98ID:pXPeOCzN
何でもここで聞けば解決してくれると思ってGrokとかGeminiに投げるとかもしないのが多そう
404名無しさん@お腹いっぱい。
2025/07/28(月) 18:45:22.72ID:tVCxsMLY 言い方悪かったな
easyなんたらの問題は本家でやってくれ
自分が作者だったらgithubで盛り上がった方が嬉しいと思う
easyなんたらの問題は本家でやってくれ
自分が作者だったらgithubで盛り上がった方が嬉しいと思う
2025/07/28(月) 18:47:05.64ID:Gd8wpo+8
こいついつも同じこと言ってるな
リテラシー高い君ならとっくにご存知かもしれないけど
そんなに嫌ならeasyをNGに入れとけよ
リテラシー高い君ならとっくにご存知かもしれないけど
そんなに嫌ならeasyをNGに入れとけよ
406名無しさん@お腹いっぱい。
2025/07/28(月) 18:47:33.01ID:1ar0RTaG 勝手に作者の気持ち考えてて草
407名無しさん@お腹いっぱい。
2025/07/28(月) 18:52:09.75ID:LIfUpznB >>403
ほならよ、そのエラーなげてアドバイスくれよ
ほならよ、そのエラーなげてアドバイスくれよ
408名無しさん@お腹いっぱい。
2025/07/28(月) 18:54:28.57ID:41E+IERx >>404
お前が出て行けよこっち来んな
お前が出て行けよこっち来んな
409名無しさん@お腹いっぱい。
2025/07/28(月) 18:56:42.75ID:35olU9pk もうすぐwan2.2出るんだから全員落ち着け
このご時世に情報が集積する場所は貴重だからなんであれ一箇所に書き込みが集まるのはいいことやろ
ただし質問は過去ログ見てチャッピーにでも相談してからでも書き込むのは遅くないけど
人がいるからこそ消されそうなLoRA情報が上がったりするんだから枯れ木も山の賑わいと思っていこうや
他に使いやすいツールとかクオリティ高いモデルが出れば話題も移り変わるて
このご時世に情報が集積する場所は貴重だからなんであれ一箇所に書き込みが集まるのはいいことやろ
ただし質問は過去ログ見てチャッピーにでも相談してからでも書き込むのは遅くないけど
人がいるからこそ消されそうなLoRA情報が上がったりするんだから枯れ木も山の賑わいと思っていこうや
他に使いやすいツールとかクオリティ高いモデルが出れば話題も移り変わるて
2025/07/28(月) 18:57:36.28ID:wV9s1Xbc
Easyがどうとかはともかくそろそろ質問スレと雑談で派生させてもいい頃合い
画像生成がそうなように
画像生成がそうなように
2025/07/28(月) 18:58:28.86ID:x150CZhV
スレの流れが速すぎてeasyの話以外出来ない!とかならわからんでもないけど、このくらいでいちいち話題制限してたら過疎るだけだ
2025/07/28(月) 18:59:24.29ID:Gd8wpo+8
無駄にスレ分けると過疎るから良くないよ
追いきれないほど加速もしてないし>>409の言うことを俺は支持する
追いきれないほど加速もしてないし>>409の言うことを俺は支持する
413名無しさん@お腹いっぱい。
2025/07/28(月) 19:02:14.52ID:g30u89pZ 質問したい人は【質問】とか頭に付けたら興味ない人とか分からん人はスルーしやすいね 答えてやろうって人も目に止まりやすい
414名無しさん@お腹いっぱい。
2025/07/28(月) 19:04:51.51ID:0Lv3wPU+ いつもいる汚言症のおっさんだろ
ほっとけ
ほっとけ
2025/07/28(月) 19:10:20.02ID:KSbSCglY
質問スレって基本的に上級者は寄り付かないから幼稚園児の質問に小学生が答えるような状態になりがちなイメージ
2025/07/28(月) 19:19:10.40ID:8yONBPXw
2025/07/28(月) 19:20:22.36ID:JMATTQho
Kijai氏のWrapperの変更修正頻度がすごいな
418名無しさん@お腹いっぱい。
2025/07/28(月) 19:21:32.04ID:ZmMKf9UC EasyWanの話題に耐え切れないマンがEasy民を隔離させようとしてんだろ
419名無しさん@お腹いっぱい。
2025/07/28(月) 19:21:47.79ID:35olU9pk こういう時にオレが作った動画を見ろやとクオリティ高きものを投下したりできるといいんだけどね
人様には見せられないから悲しいね
人様には見せられないから悲しいね
420名無しさん@お腹いっぱい。
2025/07/28(月) 19:28:18.30ID:QPruLncu wan2.2そろそろか
2025/07/28(月) 19:28:42.56ID:hrFgyFff
色んなモデルとかloraの組み合わせとか設定でクオリティを比較するために
2次と3次それぞれにI2V用のフリーのベンチマーク画像みたいなのが欲しいな
2次と3次それぞれにI2V用のフリーのベンチマーク画像みたいなのが欲しいな
2025/07/28(月) 19:29:59.72ID:IMujn08P
2025/07/28(月) 19:31:43.27ID:XJCT6SgQ
>>380 だけど、自決したわ。
以下、備忘録としておいておきます
スレ民様のワークフローでGGUFを使ったmultiGPU系のノードを使用するためにマスター化して運用してたのね
3,4回アプデしてKijai_NsfwFastをDLし直したんだけど、今回はマスター化せずにそのままKijai_NsfwFastを回したら生成できました
結論:
あっしには難しいので今まで通りマスター化してスレ民様のワークフローで生成します
以下、備忘録としておいておきます
スレ民様のワークフローでGGUFを使ったmultiGPU系のノードを使用するためにマスター化して運用してたのね
3,4回アプデしてKijai_NsfwFastをDLし直したんだけど、今回はマスター化せずにそのままKijai_NsfwFastを回したら生成できました
結論:
あっしには難しいので今まで通りマスター化してスレ民様のワークフローで生成します
424名無しさん@お腹いっぱい。
2025/07/28(月) 19:31:49.35ID:oPA+LJ6S 例のパンツ下げLoRA消されたな(作者自ら削除?)
425名無しさん@お腹いっぱい。
2025/07/28(月) 19:38:02.59ID:z7ob5/Pt easyアプデするたびに一回踊り動画作ってしまう勢
426名無しさん@お腹いっぱい。
2025/07/28(月) 19:39:40.90ID:oPA+LJ6S2025/07/28(月) 19:40:11.61ID:6RXkM3BL
エラー画面のスクショとかエラーログとか張りだしたら
それGitHubでやった方がいいんじゃね?
って俺も思うわ
バグの報告やら、それに対する対処とか一か所にまとまってた方が便利やし
修正された時にも告知しやすいし、そういうことするためにGithubにチケット機能あるんやし
それGitHubでやった方がいいんじゃね?
って俺も思うわ
バグの報告やら、それに対する対処とか一か所にまとまってた方が便利やし
修正された時にも告知しやすいし、そういうことするためにGithubにチケット機能あるんやし
428名無しさん@お腹いっぱい。
2025/07/28(月) 19:45:03.32ID:EAaUMJLC >>426
LEOSAMニキ!Redditでも盛り上がって来たな
LEOSAMニキ!Redditでも盛り上がって来たな
429名無しさん@お腹いっぱい。
2025/07/28(月) 19:53:08.66ID:qitsr2SI2025/07/28(月) 19:57:39.61ID:DOTEh57v
>>398
easywan自体の話題は別にいいんだけど環境構築出来ないとか固有のワークフローのエラーはgithubで報告すればいいのにと思う
ここだとすぐ情報流れるし自己解決できない人はスレの検索すらしないことが多いから何度も同じ質問繰り返されてる
easywan自体の話題は別にいいんだけど環境構築出来ないとか固有のワークフローのエラーはgithubで報告すればいいのにと思う
ここだとすぐ情報流れるし自己解決できない人はスレの検索すらしないことが多いから何度も同じ質問繰り返されてる
431名無しさん@お腹いっぱい。
2025/07/28(月) 20:01:02.43ID:yeur0Ru9 やっとkijiai allダウンロード終わって00_kijai_NSFWI2vやってみたけどすごいな
画像貼っただけでお手軽に動画出来た
プロンプトとかLoraいじりたかったらI2Vの方やればいいのか
ダウンロード待ってる間Lora落としまくってたらすごい量になってしまってやばい
名前も変更せずに保存してたからどれがどれだかも分からんしSDなのかXLなのかWANなのかも分からん
みんなどうやってLora整理してるの?
画像貼っただけでお手軽に動画出来た
プロンプトとかLoraいじりたかったらI2Vの方やればいいのか
ダウンロード待ってる間Lora落としまくってたらすごい量になってしまってやばい
名前も変更せずに保存してたからどれがどれだかも分からんしSDなのかXLなのかWANなのかも分からん
みんなどうやってLora整理してるの?
432名無しさん@お腹いっぱい。
2025/07/28(月) 20:08:27.28ID:jnbN5iOn 質問なんだけど、クラウドで動画生成するサービスは10秒動画20本作れるようなプランで1000円程度なのだけど、普通?
hailuoだけど
試行錯誤しながら作りたいのに、これじゃあトライ安堵エラーそんなにやれない
そんなに電気代かかるんかなー
sdでローカルでやるにも金はかなるなー
hailuoだけど
試行錯誤しながら作りたいのに、これじゃあトライ安堵エラーそんなにやれない
そんなに電気代かかるんかなー
sdでローカルでやるにも金はかなるなー
2025/07/28(月) 20:36:41.94ID:JMATTQho
Wan2.2はもうすぐリリースされるモデルは多分ローカルじゃ無理だろうから
実際にはリデュースモデルを待つしかないかな
Kijai師に期待するしかない
実際にはリデュースモデルを待つしかないかな
Kijai師に期待するしかない
2025/07/28(月) 20:51:14.99ID:eruv1Ei6
GGUFモデルなら低VRAMでもいけるし、そうせそうなる
2025/07/28(月) 20:51:20.30ID:Vs0nUgGh
5Bの質が良ければLORA作のに丁度よさそう
436名無しさん@お腹いっぱい。
2025/07/28(月) 21:02:10.60ID:pPmJN35g >>431 stable diffusionのLoraの情報はobsidianにまとめてるな
```
on bed
```
みたいに書いたらコピペボタン出てくるからトリガーワード貼っつけるのに便利や
ただ動画のLoraはまだ触れたことないから他にもメモることあるかも?
ちなみになんかおすすめのLoraある?2次でも3次でもええんやが
```
on bed
```
みたいに書いたらコピペボタン出てくるからトリガーワード貼っつけるのに便利や
ただ動画のLoraはまだ触れたことないから他にもメモることあるかも?
ちなみになんかおすすめのLoraある?2次でも3次でもええんやが
437名無しさん@お腹いっぱい。
2025/07/28(月) 21:04:56.93ID:oPA+LJ6S 2.2モデル上がってきた
https://huggingface.co/Wan-AI
https://huggingface.co/Wan-AI
438名無しさん@お腹いっぱい。
2025/07/28(月) 21:07:56.51ID:oPA+LJ6S2025/07/28(月) 21:09:20.44ID:wV9s1Xbc
TI2Vとはどっちも対応なのか?
2025/07/28(月) 21:10:51.11ID:JMATTQho
t5で10GB超えかい・・・
441名無しさん@お腹いっぱい。
2025/07/28(月) 21:14:13.57ID:7uYBsi8v 81フレーム止まりか
442名無しさん@お腹いっぱい。
2025/07/28(月) 21:16:00.46ID:7uYBsi8v 720Pモデルがないけど、あとから出るのかどうか。
443名無しさん@お腹いっぱい。
2025/07/28(月) 21:17:15.10ID:QPruLncu 720Pも含まれてるでしょ
444名無しさん@お腹いっぱい。
2025/07/28(月) 21:19:25.26ID:7sLZ/2Uj ゴッドkijai待ち
2025/07/28(月) 21:23:54.35ID:hrFgyFff
umt5は変わってないしbf16だから11.4GBなだけ
T2V-A14BもI2V-A14Bも1つのモデルで480Pと720Pの両方の解像度に対応してる
元のFP32モデルが57GBで小さくなってるからFP8とかGGUFにすればもっと小さくなる
kijaiニキが量子化したら本気出すわ
T2V-A14BもI2V-A14Bも1つのモデルで480Pと720Pの両方の解像度に対応してる
元のFP32モデルが57GBで小さくなってるからFP8とかGGUFにすればもっと小さくなる
kijaiニキが量子化したら本気出すわ
2025/07/28(月) 21:27:03.61ID:Vs0nUgGh
A14Bはlowとhighで2つに分かれてるんだよな
447名無しさん@お腹いっぱい。
2025/07/28(月) 21:32:14.29ID:OIoCTYfm wan2.2すごいなこれ
2025/07/28(月) 21:32:31.56ID:hrFgyFff
Mixture-of-Experts(MoE)とか低or高ノイズエキスパートとかはよく分からんな
lowとhighはこのノイズエキスパートの事だろうけど実際の生成動画にはどういう差が出るんだろ
lowとhighはこのノイズエキスパートの事だろうけど実際の生成動画にはどういう差が出るんだろ
449名無しさん@お腹いっぱい。
2025/07/28(月) 21:33:25.10ID:QPruLncu これhighとlow両方読み込まないとダメっぽいな
450名無しさん@お腹いっぱい。
2025/07/28(月) 21:36:16.11ID:vUHcGmh4 トータル27Bのアクティブ14Bか でかいな
451名無しさん@お腹いっぱい。
2025/07/28(月) 21:41:26.10ID:YUfFx/x+ もう来てたんか
早速試すわ
早速試すわ
2025/07/28(月) 21:49:11.77ID:JMATTQho
もうComfyUIにNAtiveフロー来てるじゃん!
早速試すか
早速試すか
453名無しさん@お腹いっぱい。
2025/07/28(月) 21:49:13.31ID:nABcIqBt454名無しさん@お腹いっぱい。
2025/07/28(月) 21:51:33.40ID:nABcIqBt2025/07/28(月) 21:54:22.19ID:JMATTQho
モデルDL中・・・
なるほど、highとlowの2段サンプリングなんだ・・・
block swapやsageが今までのノード使えるなら、然程障壁は大きくないな
なるほど、highとlowの2段サンプリングなんだ・・・
block swapやsageが今までのノード使えるなら、然程障壁は大きくないな
2025/07/28(月) 21:56:04.32ID:hrFgyFff
20GBある5Bモデルはオフロードすれば8GBで動くみたいだけど
やっぱ14Bモデルしか勝たんよな VRAM24GBで行けるかな
やっぱ14Bモデルしか勝たんよな VRAM24GBで行けるかな
457名無しさん@お腹いっぱい。
2025/07/28(月) 21:56:37.94ID:j1fZTvQq2025/07/28(月) 22:01:59.82ID:JMATTQho
24fps、デフォが121フレームになっとる
459名無しさん@お腹いっぱい。
2025/07/28(月) 22:05:54.83ID:NVMsd1cH 俺はCity96ニキを信じてる
光の速さでGGUFを出してくれると
光の速さでGGUFを出してくれると
460名無しさん@お腹いっぱい。
2025/07/28(月) 22:13:45.09ID:qZkQ+LhH 感覚的には初期Soraよりちょい上くらいの性能がローカルで動くくらいの紹介してきたな
2025/07/28(月) 22:17:02.88ID:JMATTQho
I2V 14Bの試し始めたけど、1280x720、121フレームで
省メモリノード/高速化何もせず、デフォのNativeフローで
VRAM使用量22GB、メインRAM34GBくらい。
これは、Wan2.1のI2V 14Bの何も省メモリ化してないときとさほど変わらん
なので、今後すぐ省メモリ化進むんじゃないかな
生成時間はクソ長いな・・・
省メモリノード/高速化何もせず、デフォのNativeフローで
VRAM使用量22GB、メインRAM34GBくらい。
これは、Wan2.1のI2V 14Bの何も省メモリ化してないときとさほど変わらん
なので、今後すぐ省メモリ化進むんじゃないかな
生成時間はクソ長いな・・・
2025/07/28(月) 22:21:51.85ID:hrFgyFff
https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/diffusion_models
comfyのhugに余裕で14BのFP8モデルもアップされてたのね
loraとかはさすがにまだ使えないのかな
高速化できないと使えない体になってしまった
comfyのhugに余裕で14BのFP8モデルもアップされてたのね
loraとかはさすがにまだ使えないのかな
高速化できないと使えない体になってしまった
2025/07/28(月) 22:23:03.49ID:rLv5RyRW
今のところ30step前提みたいだから生成時間はきついね
464名無しさん@お腹いっぱい。
2025/07/28(月) 22:23:56.42ID:lAUNYAFk ディスク容量足りないわ…
SSD買うか…
SSD買うか…
2025/07/28(月) 22:26:58.78ID:wV9s1Xbc
LoRAは既存の使えそう?
2025/07/28(月) 22:38:54.89ID:JMATTQho
まだお試し進行中なので、間違いもあるかもしれんが
・ComfyUIのNativeフローで使うのはfp8モデル(ComfyUI経由で落とせる)
・I2Vはlow,high2段のモデルを使い、2段サンプリングする
省メモリ化何もしないと結構厳しいが、
low,highそれぞれにModel Patcher Order、BlockSwap、Sage attn、TorchCompilerを繋いで
省メモリ/(幾分の)高速化は可能(今までのノードが使える)
・カメラワークが使える?(プロンプトがそんな記述になってた)
高速化Loraが出てこないと積極的に使おう、まではいかないな・・・
・ComfyUIのNativeフローで使うのはfp8モデル(ComfyUI経由で落とせる)
・I2Vはlow,high2段のモデルを使い、2段サンプリングする
省メモリ化何もしないと結構厳しいが、
low,highそれぞれにModel Patcher Order、BlockSwap、Sage attn、TorchCompilerを繋いで
省メモリ/(幾分の)高速化は可能(今までのノードが使える)
・カメラワークが使える?(プロンプトがそんな記述になってた)
高速化Loraが出てこないと積極的に使おう、まではいかないな・・・
2025/07/28(月) 22:44:54.07ID:mUsC9Y3P
2.2は
・MOEとかいうアーキテクチャ採用
・カメラの動き、ライティングの強化
・細かな表情や手指の動きを再現
ってのはなんとなくわかった
・MOEとかいうアーキテクチャ採用
・カメラの動き、ライティングの強化
・細かな表情や手指の動きを再現
ってのはなんとなくわかった
2025/07/28(月) 23:00:44.69ID:JMATTQho
TI2V(T2V I2V兼用)の5Bは14Bに比べると遥かに軽くシンプルだけど、
肝心のBlock swapノードが使えない(エラーになる)
まぁこのままでも動きはするのだが。。。
肝心のBlock swapノードが使えない(エラーになる)
まぁこのままでも動きはするのだが。。。
469名無しさん@お腹いっぱい。
2025/07/28(月) 23:07:14.81ID:dC3Ml9N4 2.2やばいなこれw
2025/07/28(月) 23:09:12.16ID:tGCwh4vs
2025/07/28(月) 23:13:20.89ID:4ozXyDRF
highとlowノイズモデルの差分lora作ってstep条件によってlora_weight変えられたらlowノイズモデルいらない?
2025/07/28(月) 23:23:25.06ID:SvkjpWYJ
アニメ調のエロ動画の結果が出てきたら起こして
2025/07/28(月) 23:28:31.04ID:DS8RijSr
474名無しさん@お腹いっぱい。
2025/07/28(月) 23:41:51.45ID:QPruLncu2025/07/28(月) 23:44:48.77ID:DsgJcIHv
wan2.1は高速化やクオリティアップ系の派生技術が多すぎて付いて行けなくなっちゃったんだよなぁ
2.2は初手から明らかにビッグウェーブだとわかるやつだから乗るしか無い
2.2は初手から明らかにビッグウェーブだとわかるやつだから乗るしか無い
476名無しさん@お腹いっぱい。
2025/07/28(月) 23:46:08.32ID:qZkQ+LhH なんか今夜中にどこまでの2.1機能再現できるかのRTAになってないか?
Zuntanは有給取れ。
Zuntanは有給取れ。
2025/07/28(月) 23:52:40.90ID:Vs0nUgGh
light2xは普通に使えるけど既存のLORAは効きが悪かったりするな
478名無しさん@お腹いっぱい。
2025/07/28(月) 23:53:18.09ID:yeur0Ru9 まだ動画始めたばかりなのに情報量多すぎてついていけない
とりあえず2.2は手を出さず今あるのでやった方がいいですよね?
とりあえず2.2は手を出さず今あるのでやった方がいいですよね?
479名無しさん@お腹いっぱい。
2025/07/28(月) 23:53:30.78ID:oPA+LJ6S >>474
待ってました!
待ってました!
480名無しさん@お腹いっぱい。
2025/07/28(月) 23:54:10.57ID:/69w+1GG 動画生成はやっぱ金持ちしかできんねステップ20で作りまくってたらVRAM劣化したっぽい
ドライバ入れなおしても電源設定変えてもやっぱ80%90%付近で80度付近になるとブルースクリーンになる
当たり前のようにVRAM32Gだったら〜とか話してる人正直2台や3台じゃないだろ所有数.....
ドライバ入れなおしても電源設定変えてもやっぱ80%90%付近で80度付近になるとブルースクリーンになる
当たり前のようにVRAM32Gだったら〜とか話してる人正直2台や3台じゃないだろ所有数.....
2025/07/28(月) 23:54:13.01ID:DKzHmxxw
早すぎやろ どうなっとんねん
482名無しさん@お腹いっぱい。
2025/07/28(月) 23:54:46.70ID:ocgJu9A5 >>478
初っ端から新環境に慣れておくと逆に良い
初っ端から新環境に慣れておくと逆に良い
483名無しさん@お腹いっぱい。
2025/07/28(月) 23:55:29.76ID:YUfFx/x+ diffusion-pipeもwan2.2対応に着手しだした
2025/07/29(火) 00:02:38.69ID:4yTcDMuq
2025/07/29(火) 00:03:41.09ID:bXoWdAvi
明日へダッシュっすか
486名無しさん@お腹いっぱい。
2025/07/29(火) 00:04:12.62ID:63G6yBa4 >>485
若さー若さーっていいな
若さー若さーっていいな
2025/07/29(火) 00:07:40.16ID:YuFaxYx4
私はね
多少のお祭りと聞いてたんだよ
こりゃ本物じゃないか
多少のお祭りと聞いてたんだよ
こりゃ本物じゃないか
2025/07/29(火) 00:12:18.16ID:RDwcs0E+
comfyのネイティブフローだとVHSノードの動画プレビューオンにして
Preview methodをTAESDにして vae_approxフォルダにtaew2_1ファイル入れてても
Latent2RGBの最低画質プレビューしか使えないよね?
wan2.2でも生成時のプレビュー見れるけどRGBはやっぱり画質悪すぎて見づらすぎる
kijai版だとtaew2_1が使えるから生成時のプレビューが高画質なんだけど
これのせいでネイティブ使いたくないんだよなぁ kijai神降臨はまだか
Preview methodをTAESDにして vae_approxフォルダにtaew2_1ファイル入れてても
Latent2RGBの最低画質プレビューしか使えないよね?
wan2.2でも生成時のプレビュー見れるけどRGBはやっぱり画質悪すぎて見づらすぎる
kijai版だとtaew2_1が使えるから生成時のプレビューが高画質なんだけど
これのせいでネイティブ使いたくないんだよなぁ kijai神降臨はまだか
489名無しさん@お腹いっぱい。
2025/07/29(火) 00:15:19.40ID:2XxNP5Oj 4070Ti16GB RAM64GB
5Bモデルでテンプレのまま動かしたら4000秒w
gguf来てたのでQ6で試したら400秒
LoRA無しでもかなり動いてる印象ではある
easywanから入ってまだ一月半ぐらいだけど、先人の軽量高速化の偉大さを身をもって感じられたので初日から触ってみてよかったわw
足を向けんように寝る
5Bモデルでテンプレのまま動かしたら4000秒w
gguf来てたのでQ6で試したら400秒
LoRA無しでもかなり動いてる印象ではある
easywanから入ってまだ一月半ぐらいだけど、先人の軽量高速化の偉大さを身をもって感じられたので初日から触ってみてよかったわw
足を向けんように寝る
490名無しさん@お腹いっぱい。
2025/07/29(火) 00:18:08.49ID:EVjyx4112025/07/29(火) 00:20:50.23ID:R+hrEyrF
Zuntan神いつもありがとう
2025/07/29(火) 00:21:05.61ID:bXoWdAvi
>>489
16GBでQ6が400秒は僥倖やな
16GBでQ6が400秒は僥倖やな
493名無しさん@お腹いっぱい。
2025/07/29(火) 00:33:36.10ID:cVDIZzlE 16GBと24GBじゃやっぱり差でるの?どのくらい??
2025/07/29(火) 00:39:33.27ID:1p9y7M9O
動作報告してる人は全員RTX5090だと思ってるから微塵も参考にしてないわw
2025/07/29(火) 00:39:53.98ID:ppZ8wnnV
14BのほうはVAEが2.2だとエラーになるんだな
サンプルでも2.1になってる
サンプルでも2.1になってる
2025/07/29(火) 00:43:12.67ID:6QwPFxuQ
https://x.com/luta_ai/status/1949856120845250955
5Bモデルでこのクオリティ出せるなら2.2良さそうやね
5Bモデルでこのクオリティ出せるなら2.2良さそうやね
2025/07/29(火) 00:48:06.33ID:1p9y7M9O
>>496
この人もスペック晒してないから5090やろ
この人もスペック晒してないから5090やろ
498名無しさん@お腹いっぱい。
2025/07/29(火) 00:52:22.67ID:63G6yBa42025/07/29(火) 00:52:39.43ID:N1uYaNW4
2つのモデルを使うってなるとどうやってLoRA繋げればいいんだろ
500名無しさん@お腹いっぱい。
2025/07/29(火) 00:53:26.42ID:JlD/1yLi >>497
過去ツイート見ると4090っぽい
過去ツイート見ると4090っぽい
2025/07/29(火) 00:57:17.65ID:jWm6RNzv
2025/07/29(火) 01:01:02.93ID:1p9y7M9O
これ14Bはhighとlowの2つのモデル必須やからVRAM32GB以上必須やんけw
503名無しさん@お腹いっぱい。
2025/07/29(火) 01:10:08.86ID:V7gaf0m8 デノイズが前後半に分かれてるならLoRAも両方に適用が必要な気がするけどまあわからん
2025/07/29(火) 01:58:51.66ID:ItCxm0GT
https://i.4cdn.org/g/1753716534768394.webm
2.2T2Vアニメ絵も良さげ
2.2T2Vアニメ絵も良さげ
505名無しさん@お腹いっぱい。
2025/07/29(火) 02:13:25.30ID:YuFaxYx4 Kijaiニキの沈黙が気になるな
コメントはまだか
コメントはまだか
506名無しさん@お腹いっぱい。
2025/07/29(火) 02:19:18.97ID:7/bn+ki42025/07/29(火) 02:44:09.72ID:6TAy6xTM
508名無しさん@お腹いっぱい。
2025/07/29(火) 02:50:29.10ID:/Bwz77SL t2vアニメいけるってことはi2vも期待していいんかな
FramePack卒業できるか?
FramePack卒業できるか?
2025/07/29(火) 02:50:41.68ID:dP2BBu5L
乗るしか無いこのビッグウェーブ
2025/07/29(火) 03:04:14.73ID:tx+MheRf
取り敢えずアニメに強いのはイイな
i2vも幾つか投稿されてるが2.1の暴れぶりからすると別次元な感がある
これベースのエロアニメ生成環境が整備されたら新たな扉が開くかも知れない
i2vも幾つか投稿されてるが2.1の暴れぶりからすると別次元な感がある
これベースのエロアニメ生成環境が整備されたら新たな扉が開くかも知れない
511名無しさん@お腹いっぱい。
2025/07/29(火) 04:32:01.61ID:2zg+wrAe 一ヶ月くらいでこのスレ人増えすぎだろ
もっと穏やかだったのに
もっと穏やかだったのに
512名無しさん@お腹いっぱい。
2025/07/29(火) 04:32:25.94ID:V7gaf0m8 wan2.2 gguf Q4_K_MでI2Vのテスト
メスガキに指さされて馬鹿にされるシーンを作ろうとしたものの失敗
しかし動きはいいな色々期待できる
https://files.catbox.moe/qztbkn.mp4
メスガキに指さされて馬鹿にされるシーンを作ろうとしたものの失敗
しかし動きはいいな色々期待できる
https://files.catbox.moe/qztbkn.mp4
2025/07/29(火) 04:51:21.17ID:JIihfrHo
>>512
え、いいじゃん、表情からして馬鹿にされてるのは伝わるよ
え、いいじゃん、表情からして馬鹿にされてるのは伝わるよ
2025/07/29(火) 04:55:33.47ID:JIihfrHo
ちな、cvは鈴木愛奈だった
2025/07/29(火) 06:23:32.66ID:HPGIq9G6
wrapperも2.2に対応したっぽいな
2025/07/29(火) 07:47:12.05ID:eEGsWclA
どなたかwan2.1→2.2のすごさをドラゴンボールで例えてみてよ
ミジンコからしたらスケールの大きさを測ることができない
ミジンコからしたらスケールの大きさを測ることができない
2025/07/29(火) 08:18:37.54ID:N1uYaNW4
5Bも14BもLoRA接続できるようにしてみたがログ見るとずっとエラー起こしてるから互換性なさそうな気がする
518名無しさん@お腹いっぱい。
2025/07/29(火) 08:22:09.47ID:gnsRlQD/ 5Bだがビーチク検閲されてね?
519名無しさん@お腹いっぱい。
2025/07/29(火) 08:39:12.58ID:2XxNP5Oj https://www.reddit.com/r/unstable_diffusion/comments/1mbhymv/wan_22_just_dropped_theres_somewhat_native_nsfw/
これがLoRA使ってるのかはわからんけど、2.1と変わらんという書き込みが何個かあるね
これがLoRA使ってるのかはわからんけど、2.1と変わらんという書き込みが何個かあるね
2025/07/29(火) 08:51:33.21ID:HPGIq9G6
wrapperにi2v 14Bのサンプルworkflowが追加された
lightx2vが適用されてるみたい6steps*2だから少し早い
>>517
i2vしかやってないけど2.1のlora使えたよ でも使えないのもあるのかも
lightx2vが適用されてるみたい6steps*2だから少し早い
>>517
i2vしかやってないけど2.1のlora使えたよ でも使えないのもあるのかも
2025/07/29(火) 08:55:35.59ID:NKdJ/ELh
どーせzuntan正式対応まで2,2はお預けかねぇ
それまで2,1で遊んどくしかない
それまで2,1で遊んどくしかない
2025/07/29(火) 09:00:52.84ID:MrhB2E3Y
前屈みシャツからの乳首チラが対応してるといいなぁ
2025/07/29(火) 09:21:30.31ID:HSlkYx9I
触手LoRAを普通のセックス動画に入れたら無限にちんちんが伸びるおじさんが出てきた
524名無しさん@お腹いっぱい。
2025/07/29(火) 09:24:47.74ID:V7gaf0m82025/07/29(火) 09:30:01.51ID:N1uYaNW4
今使ってるPower lora loaderが悪いんだろうか、kijai氏のワークフロー参考にしてみてるかなあ
2025/07/29(火) 09:41:11.25ID:erZKbKmx
>>468
468だけど、昨夜の続きの報告(だれも聞いてない)
Wan2.2 14B I2V fp8モデル Nativeフロー
high,lowそれぞれにblockswap,sage attn,torchcompile繋ぎ、
lightx2v-r128Loraを強度1、cfg=1、
step数は前段4,後段4の計8stepで
81フレーム生成時間は1回目80s強、2回目は60s切ってた
VRAM使用量は大体14GB前後
lightx2vのLoraが使えたのは大きい
Wan2.1と同程度まで追い込めそう
GGUFモデル(Q6)だと、
VRAM19GBだった・・・Q4とかQ5くらいの方がいいかも
Kijai師のWrapperも対応したみたいなので試してみます
468だけど、昨夜の続きの報告(だれも聞いてない)
Wan2.2 14B I2V fp8モデル Nativeフロー
high,lowそれぞれにblockswap,sage attn,torchcompile繋ぎ、
lightx2v-r128Loraを強度1、cfg=1、
step数は前段4,後段4の計8stepで
81フレーム生成時間は1回目80s強、2回目は60s切ってた
VRAM使用量は大体14GB前後
lightx2vのLoraが使えたのは大きい
Wan2.1と同程度まで追い込めそう
GGUFモデル(Q6)だと、
VRAM19GBだった・・・Q4とかQ5くらいの方がいいかも
Kijai師のWrapperも対応したみたいなので試してみます
2025/07/29(火) 09:46:39.60ID:erZKbKmx
2025/07/29(火) 09:49:34.09ID:qtX0jmlP
>>526
めちゃ参考になるサンクス
めちゃ参考になるサンクス
529名無しさん@お腹いっぱい。
2025/07/29(火) 09:59:38.38ID:NsIRzAIj wan3が出たら本気出す
530名無しさん@お腹いっぱい。
2025/07/29(火) 10:09:26.72ID:td6d/qKa すまん、一言で言うと2.2になって何が良くなったんや?
2025/07/29(火) 10:16:19.99ID:erZKbKmx
532名無しさん@お腹いっぱい。
2025/07/29(火) 10:20:49.51ID:VJ/R6sK7 とりあえず5Bで基本のワークフローでギター弾いてるおっさん出てきた
533名無しさん@お腹いっぱい。
2025/07/29(火) 10:25:37.73ID:qN5wugx3 まだ試せてないけどシャツ越しの乳首ぽちには対応してるかな・・・
2.1ではlora使わないとほぼ出なかったし使うと顔が外人っぽくなっちゃってさ
2.1ではlora使わないとほぼ出なかったし使うと顔が外人っぽくなっちゃってさ
2025/07/29(火) 10:26:13.26ID:erZKbKmx
>>526
サンプラーを
前半cfg=2.0で2step、後半cfg=1.0 4step (計6step)
にしたら動きと生成時間のバランスが良くなった
とりまこれで運用
(Wan2.1での分割サンプラーと結果同じ考え)
Kijai師のフローも似たような構成になってる
サンプラーを
前半cfg=2.0で2step、後半cfg=1.0 4step (計6step)
にしたら動きと生成時間のバランスが良くなった
とりまこれで運用
(Wan2.1での分割サンプラーと結果同じ考え)
Kijai師のフローも似たような構成になってる
2025/07/29(火) 10:50:53.64ID:erZKbKmx
2025/07/29(火) 10:57:27.85ID:bXoWdAvi
537名無しさん@お腹いっぱい。
2025/07/29(火) 11:30:45.00ID:63G6yBa4 今回の2.2はプロンプトの忠実性が知りたい
2025/07/29(火) 11:40:10.52ID:erZKbKmx
Kijai師のI2Vフローも短時間生成、動きもいい
プロンプトに対する動きも凄く良くなってる 2.1の時数回ガチャってようやく出ていた動きが一発で出た
こうなると早くVACEとMultitalk対応が欲しい
通常のI2Vはもう2.2でいいや
プロンプトに対する動きも凄く良くなってる 2.1の時数回ガチャってようやく出ていた動きが一発で出た
こうなると早くVACEとMultitalk対応が欲しい
通常のI2Vはもう2.2でいいや
539名無しさん@お腹いっぱい。
2025/07/29(火) 11:57:47.84ID:8jYkoKNs >>512
ジャンケンからのあっち向いてホイで草
ジャンケンからのあっち向いてホイで草
2025/07/29(火) 12:41:13.35ID:T7Y4rWdh
カット切り替え可だと…可能性の塊だな
https://x.com/8co28/status/1950038653570343274
https://x.com/8co28/status/1950038653570343274
2025/07/29(火) 12:50:26.04ID:x2CQgj8I
WAN2.2!?忙しくて前スレ半分しか読んでねえのにやべえよ・・・やべえよ・・
2025/07/29(火) 12:50:43.95ID:IqBZdwAz
2025/07/29(火) 13:13:46.62ID:cFctjJ9+
2025/07/29(火) 13:55:57.41ID:N1uYaNW4
ここのワークフロー使ったらi2vをGGUFでLoRAもエラー出ずに動いて少ないステップで作れるようになったわ
https://www.reddit.com/r/StableDiffusion/comments/1mbsbkd/wan22_i2v_generated_480x832x81f_in_120s_with_rtx/
https://www.reddit.com/r/StableDiffusion/comments/1mbsbkd/wan22_i2v_generated_480x832x81f_in_120s_with_rtx/
2025/07/29(火) 14:24:40.19ID:1p9y7M9O
14bはggufのq2でも5090必須とか書いてあるやんけw
2025/07/29(火) 14:44:18.81ID:4hwRT9Na
Kijaiのi2v良いな
720x720のスワップ20で13GBくらいしか使わないわ
highとlowをggufのq5に変えてあとデフォルト
720x720のスワップ20で13GBくらいしか使わないわ
highとlowをggufのq5に変えてあとデフォルト
547名無しさん@お腹いっぱい。
2025/07/29(火) 14:47:51.69ID:ZTw84HlK2025/07/29(火) 14:55:10.12ID:cNdO7Wwa
ネガティブにあまり頼らなくてもそれなりに動くから今後も高速化が捗りそうだな
2025/07/29(火) 15:08:40.37ID:sBIFuR0t
wan2.2の5B動かそうとしてるけどlora色々使えなさそう
動画生成自体はできそうだけど、処理中めちゃくちゃエラー吐いてる
動画生成自体はできそうだけど、処理中めちゃくちゃエラー吐いてる
2025/07/29(火) 15:10:40.16ID:Zm2Tu0xi
5Bは全く別のモデルだから既存のLORAは使えないよ
2025/07/29(火) 15:11:41.10ID:sBIFuR0t
やっぱそうか
14BのGGUF試してみるかな
14BのGGUF試してみるかな
2025/07/29(火) 15:15:16.27ID:Cyl1JXwJ
553名無しさん@お腹いっぱい。
2025/07/29(火) 15:26:45.57ID:NsIRzAIj wan2.2
lora使わなくても脱いでくれて草
lora使わなくても脱いでくれて草
2025/07/29(火) 15:35:21.67ID:4RvYRwy0
Lowモデルだけで既存ワークフローに組み込めるからこれHighモデルいらなくね?みたいな情報もあるな
2025/07/29(火) 15:37:12.94ID:bXoWdAvi
>>552
ええな
ええな
556名無しさん@お腹いっぱい。
2025/07/29(火) 15:54:09.36ID:WhlDKqR82025/07/29(火) 15:57:43.76ID:RDwcs0E+
high+lowの方がプロンプト通りでloraも強度上げれば良い感じで理想通りの動画ができるけど
確かにlowモデルだけでもloraも使えるし普通に生成できるなw
kijaiフロー見るとhighモデル側がlora効きづらいっぽいから強度3.0とかにしてるし
lowモデルだけで済めばロードする時間とか工程も減らせるし管理も楽で良いんだけどね
確かにlowモデルだけでもloraも使えるし普通に生成できるなw
kijaiフロー見るとhighモデル側がlora効きづらいっぽいから強度3.0とかにしてるし
lowモデルだけで済めばロードする時間とか工程も減らせるし管理も楽で良いんだけどね
2025/07/29(火) 16:24:37.90ID:HPGIq9G6
2025/07/29(火) 16:53:57.28ID:eEGsWclA
560名無しさん@お腹いっぱい。
2025/07/29(火) 17:12:38.87ID:MdgCM8GG 電気代いくらかかるの?
561名無しさん@お腹いっぱい。
2025/07/29(火) 17:15:21.83ID:M90U+Ulp >>558
下脱いだ後髪揺らすのリアルですごい
下脱いだ後髪揺らすのリアルですごい
562名無しさん@お腹いっぱい。
2025/07/29(火) 17:16:53.05ID:afM1PhRc パンツ簡単に脱ぐな
2025/07/29(火) 17:30:27.21ID:bXoWdAvi
564名無しさん@お腹いっぱい。
2025/07/29(火) 17:47:29.86ID:63G6yBa4 2.1のLora使える!
2025/07/29(火) 17:47:43.52ID:vug/hhOJ
雑魚グラボだと14b動かねえ…5070ti superまで待ちかあ
てかその間に2.3とか3.0になってそうだ
てかその間に2.3とか3.0になってそうだ
566名無しさん@お腹いっぱい。
2025/07/29(火) 17:53:36.55ID:MdgCM8GG sdの環境に詳しくないんだけど、google colab無料版で動かすの無理?
無料だと、ram16らしい
無料だと、ram16らしい
567名無しさん@お腹いっぱい。
2025/07/29(火) 17:54:58.26ID:63G6yBa4 >>566
GGUFモデルを使えば16GBでもローカルで動いてる。
GGUFモデルを使えば16GBでもローカルで動いてる。
2025/07/29(火) 18:17:57.18ID:xkMzRSr5
civitaiにあるspining topというloraが
ただの独楽なのか、ちんこの隠語なのか判断できない
ただの独楽なのか、ちんこの隠語なのか判断できない
2025/07/29(火) 18:23:27.29ID:EtxC4QRO
>>558
うお!これぞ求めてたやつじゃん!
うお!これぞ求めてたやつじゃん!
570名無しさん@お腹いっぱい。
2025/07/29(火) 19:08:26.96ID:MdgCM8GG2025/07/29(火) 19:14:17.18ID:N1uYaNW4
ズームとかさせても顔が変わりづらいのは助かるな。引きで写ってる顔だと流石にちょっと変わるけど
2025/07/29(火) 19:15:39.33ID:erZKbKmx
>>559
4090+96GBだけど、
もっと少なくても動くんじゃないかな
動画にフロー埋め込んであるので何なら試してみてくれ
Q6のGGUF使ったけど、Q5とかQ4とかに置き換えれば更に少ないVRAMで動くんじゃないかな
4090+96GBだけど、
もっと少なくても動くんじゃないかな
動画にフロー埋め込んであるので何なら試してみてくれ
Q6のGGUF使ったけど、Q5とかQ4とかに置き換えれば更に少ないVRAMで動くんじゃないかな
2025/07/29(火) 19:23:34.53ID:HPGIq9G6
kijaiのi2v workflowにちょっと手を加えればstart-endもイケル
https://files.catbox.moe/wi3l8k.mp4
https://files.catbox.moe/wi3l8k.mp4
2025/07/29(火) 19:34:28.72ID:eEGsWclA
>>572
レスdクス
可愛いキャラとプロンプト的に前スレでもワークフロー込みで動画上げてくださってたニキですよね?
あの動画めっちゃ参考にさせてもらいましたよ
アドバイスもありがとうございます
あっしのPCはよわよわだけど今回も参考にさせてもらいます
レスdクス
可愛いキャラとプロンプト的に前スレでもワークフロー込みで動画上げてくださってたニキですよね?
あの動画めっちゃ参考にさせてもらいましたよ
アドバイスもありがとうございます
あっしのPCはよわよわだけど今回も参考にさせてもらいます
2025/07/29(火) 19:35:26.14ID:RDwcs0E+
3060 12GBとメモリ64GBでブロックスワップ40にすれば
14B FP8モデルでも動かせるみたいだから
より小さいサイズのGGUFモデル使えば余裕だと思うよ
14B FP8モデルでも動かせるみたいだから
より小さいサイズのGGUFモデル使えば余裕だと思うよ
576名無しさん@お腹いっぱい。
2025/07/29(火) 19:42:49.65ID:jmPdsz3O 最近のComfyは自動オフロード機能付いてて低VRAMでも割といけるって見たような
577名無しさん@お腹いっぱい。
2025/07/29(火) 19:54:41.83ID:gnsRlQD/ 14B行けた!5Bなんていらんかったんや!
578名無しさん@お腹いっぱい。
2025/07/29(火) 19:58:45.56ID:P3r0vAxF ZuntanニキがEasyとは別にSimple Comfy UIというまっさらかつ高速化環境だけのUI出してくれてる
その上でKijaiニキの導入手順を教えてくれるという
このまま数日間追いかけ続ければまともなリファレンスが無いComfyを初心者から学べて、
かつWAN2.2環境でスタートができる。
なんやこれ金取れるレベルじゃん。乗っかるしかないな?
その上でKijaiニキの導入手順を教えてくれるという
このまま数日間追いかけ続ければまともなリファレンスが無いComfyを初心者から学べて、
かつWAN2.2環境でスタートができる。
なんやこれ金取れるレベルじゃん。乗っかるしかないな?
579名無しさん@お腹いっぱい。
2025/07/29(火) 20:02:06.25ID:yCiVBYTs 3080ti+64GBの俺は低みの見物ですか
2025/07/29(火) 20:02:42.74ID:erZKbKmx
>>574
どうもです
ついさっき試してみたんだけど、
何と例のLoraなしでも、プロンプト通りの一連の動きをしました!
(これだとVRAM 10GBちょいでした)
Wan2.2、凄すぎwww
ひょっとしてWan2.1で必要だったNSFW-Loraの大半は不要になるんじゃ?ww
どうもです
ついさっき試してみたんだけど、
何と例のLoraなしでも、プロンプト通りの一連の動きをしました!
(これだとVRAM 10GBちょいでした)
Wan2.2、凄すぎwww
ひょっとしてWan2.1で必要だったNSFW-Loraの大半は不要になるんじゃ?ww
2025/07/29(火) 20:09:20.70ID:bXoWdAvi
なんでもやってくれるのに慣れていたから横長画像のi2vしたとき
デフォ設定の縦長動画のまま(左右クッソ見切れ)になってびっくりした
デフォ設定の縦長動画のまま(左右クッソ見切れ)になってびっくりした
2025/07/29(火) 20:15:14.70ID:FghafBV4
え、もしかしてwan2.2っていちいちLora入れなくても脱いだり開いたりインアウトしてくれんの?
2025/07/29(火) 20:17:53.53ID:apl2d2tR
服を脱ぐのを意地でも断らないのか!
2025/07/29(火) 20:21:15.24ID:0e8/yhHl
まだ触ってないけど2.2そんなに良いのか
Lora無しでNSFWいけるならマジですごいな
Lora無しでNSFWいけるならマジですごいな
2025/07/29(火) 20:24:06.60ID:tyTkE6g4
4060ti16gbと128GBでも14B行けそうなのかな?
問題は生成速度な面もあるけど出回ってる動画見ると出来自体は良さそう
問題は生成速度な面もあるけど出回ってる動画見ると出来自体は良さそう
2025/07/29(火) 20:45:49.72ID:5lG1OQ39
2025/07/29(火) 20:51:34.50ID:bXoWdAvi
2.2、普通に動きで表現すべきとこをカットインで誤魔化そうとする問題もあるなあ
2025/07/29(火) 21:06:51.33ID:bXoWdAvi
589名無しさん@お腹いっぱい。
2025/07/29(火) 21:21:42.67ID:afM1PhRc wan2.2とFLUXの画像での比較だけど全然違うな
https://www.reddit.com/r/StableDiffusion/comments/1mc981k/wan_22_14b_t2v_gguf_q8_vs_flux1_dev_gguf_q8/
https://www.reddit.com/r/StableDiffusion/comments/1mc981k/wan_22_14b_t2v_gguf_q8_vs_flux1_dev_gguf_q8/
2025/07/29(火) 21:28:43.02ID:Q913PnTE
>>585
起動オプションで --disable-smart-memory 使ってるけど普通に14Bfp16でいける、ていうか2.1よりvram余裕がある
そのかわりメインメモリ80GB以上食ってる。
起動オプションで --disable-smart-memory 使ってるけど普通に14Bfp16でいける、ていうか2.1よりvram余裕がある
そのかわりメインメモリ80GB以上食ってる。
2025/07/29(火) 21:41:21.55ID:bXoWdAvi
Wan2.2は素でもエロいことしてくれるけどWan2.1の高速化とかしない奴にLoRA入れたほうがやっぱ動くな
592名無しさん@お腹いっぱい。
2025/07/29(火) 21:50:44.21ID:/bgsFWYg593名無しさん@お腹いっぱい。
2025/07/29(火) 21:53:28.52ID:1nryqJN8594名無しさん@お腹いっぱい。
2025/07/29(火) 21:55:31.48ID:afM1PhRc >>593
左がwanだよ
左がwanだよ
2025/07/29(火) 22:00:15.78ID:v/WouiBE
596名無しさん@お腹いっぱい。
2025/07/29(火) 22:10:25.07ID:tzL3+emr デフォルトのワークフローで14B使ってみたけど2.1の3-4倍くらい生成時間がかかるな
2025/07/29(火) 22:23:56.37ID:VFtBYuck
>>589
wanのAI生成らしい部分が、ハンバーガーを乗せる専用台みたいの何なの?ってくらいしか出てこないな
wanのAI生成らしい部分が、ハンバーガーを乗せる専用台みたいの何なの?ってくらいしか出てこないな
2025/07/29(火) 22:28:06.32ID:N1uYaNW4
2.2だとLive2D風にするLoRAがエラー出るのが困るな
作者がアプデ予定っぽいけど
作者がアプデ予定っぽいけど
2025/07/29(火) 23:04:00.41ID:ItCxm0GT
https://x.com/genmarketai/status/1950177339859521695
ウィル・スミスも2.2で美味そうに食べてるなw
ウィル・スミスも2.2で美味そうに食べてるなw
2025/07/29(火) 23:22:52.72ID:vug/hhOJ
3070のRAM64GBでもQ8のGGUFでいけた
例のcausvidのlora追加してみたけど、ガビガビになるからダメっぽい…
例のcausvidのlora追加してみたけど、ガビガビになるからダメっぽい…
2025/07/29(火) 23:24:14.74ID:eEGsWclA
うちRTX5060ti16GB、RAM32GBというへっぽこ構成なんですが、
>>580さんのWFで、404.96秒で生成自体はできました
ただしスワップしまくりでした
Q4に落として生成したらスワップも半減して391.63秒での生成でした
2.1の時点で検討していましたが、おとなしく過去スレのレコメンド通りRAM増設します
>>580さんのWFで、404.96秒で生成自体はできました
ただしスワップしまくりでした
Q4に落として生成したらスワップも半減して391.63秒での生成でした
2.1の時点で検討していましたが、おとなしく過去スレのレコメンド通りRAM増設します
2025/07/29(火) 23:25:52.93ID:rqlUVkMA
>>599
ブレイクダンスすご
ブレイクダンスすご
603名無しさん@お腹いっぱい。
2025/07/29(火) 23:31:07.56ID:P3r0vAxF Zuntanニキの導きに従ってggufモデルでの生成試そうとしたが、
KeyError: 'blocks.0.cross_attn.k_img.weight'
これが出て生成できないな。
念のためggufモデルの再DLも試みたけど改善しねーわ。
KeyError: 'blocks.0.cross_attn.k_img.weight'
これが出て生成できないな。
念のためggufモデルの再DLも試みたけど改善しねーわ。
2025/07/29(火) 23:35:04.12ID:58q8EYl2
605名無しさん@お腹いっぱい。
2025/07/29(火) 23:38:31.45ID:g3VIdHKh2025/07/30(水) 00:10:27.68ID:+H0Rs8XY
プロンプト適当でも思ったとおりにしてくれるからガチャ率が圧倒的に低くなったな…これはすごい
607名無しさん@お腹いっぱい。
2025/07/30(水) 00:11:23.48ID:P7mt066B >>603
カスタムノードマネージャを開き、ComfyUI-WanVideoWrapperをSwitch verでnightly版に切り替え
カスタムノードマネージャを開き、ComfyUI-WanVideoWrapperをSwitch verでnightly版に切り替え
608名無しさん@お腹いっぱい。
2025/07/30(水) 00:52:30.48ID:QmKabj1k609名無しさん@お腹いっぱい。
2025/07/30(水) 00:58:07.69ID:P7mt066B2025/07/30(水) 01:02:10.03ID:QmKabj1k
プロンプトだけでおせっせっぽいことをしてくれるのはいいんだが、なんか白飛びしちまってるな。
vaeかなんかの問題か、それとも別になにか原因あるんだろうか
https://files.catbox.moe/wi090z.mp4
vaeかなんかの問題か、それとも別になにか原因あるんだろうか
https://files.catbox.moe/wi090z.mp4
611名無しさん@お腹いっぱい。
2025/07/30(水) 01:23:52.77ID:dK1tnjnM みんな基本はt2vで遊んでるの?i2v?
612名無しさん@お腹いっぱい。
2025/07/30(水) 01:56:37.71ID:QvZR5UFO 暫くスレ追ってる限りだと圧倒的にI2Vが多い印象
613名無しさん@お腹いっぱい。
2025/07/30(水) 03:50:10.35ID:Aa4d83R3 easywanだとv2vはできない?
2025/07/30(水) 04:11:06.85ID:BsduMCYv
VRAM12GBのRTX3080でもWan2.2のi2v、t2v、t2iが5分以内で生成出来る様になったから大満足
615名無しさん@お腹いっぱい。
2025/07/30(水) 04:47:14.26ID:I2kLBy5f まだ生成に時間かかるからやる気がでんな
もう少し待つか
もう少し待つか
616名無しさん@お腹いっぱい。
2025/07/30(水) 04:51:06.86ID:HSOCZr70 >>610
多分Split_Stepを設定するノードが宙に浮いているんだと思う
Split_Stepの出力を1段目サンプラ-のend_stepと2段目サンプラーのstart_stepに接続すれば直るよ
これはComfyUI-WanVideoWrapperをnightly版に変更する前にKijaiワークフローを読み込むと、
Split_Stepの行き先がないのでラインが切れてしまうために起こる怪奇現象
ワシもさんざん悩んだわ
多分Split_Stepを設定するノードが宙に浮いているんだと思う
Split_Stepの出力を1段目サンプラ-のend_stepと2段目サンプラーのstart_stepに接続すれば直るよ
これはComfyUI-WanVideoWrapperをnightly版に変更する前にKijaiワークフローを読み込むと、
Split_Stepの行き先がないのでラインが切れてしまうために起こる怪奇現象
ワシもさんざん悩んだわ
617名無しさん@お腹いっぱい。
2025/07/30(水) 05:02:59.18ID:I2kLBy5f RTX5070tiの生成速度
171秒、GGUF Q4
Sampling 81 frames at 512x768 with 6 steps
Allocated memory: memory=0.133 GB
Max allocated memory: max_memory=9.508 GB
Max reserved memory: max_reserved=10.312 GB
samples out stats: mean 0.31782296299934387 std 1.2832763195037842 min -4.562403678894043 max 4.807317733764648
Prompt executed in 171.25 seconds
171秒、GGUF Q4
Sampling 81 frames at 512x768 with 6 steps
Allocated memory: memory=0.133 GB
Max allocated memory: max_memory=9.508 GB
Max reserved memory: max_reserved=10.312 GB
samples out stats: mean 0.31782296299934387 std 1.2832763195037842 min -4.562403678894043 max 4.807317733764648
Prompt executed in 171.25 seconds
618名無しさん@お腹いっぱい。
2025/07/30(水) 05:07:34.48ID:I2kLBy5f 2回目以降は95秒
Allocated memory: memory=0.133 GB
Max allocated memory: max_memory=9.508 GB
Max reserved memory: max_reserved=10.250 GB
samples out stats: mean 0.32770267128944397 std 1.3078057765960693 min -4.637564659118652 max 4.670140266418457
Prompt executed in 95.53 seconds
Allocated memory: memory=0.133 GB
Max allocated memory: max_memory=9.508 GB
Max reserved memory: max_reserved=10.250 GB
samples out stats: mean 0.32770267128944397 std 1.3078057765960693 min -4.637564659118652 max 4.670140266418457
Prompt executed in 95.53 seconds
619名無しさん@お腹いっぱい。
2025/07/30(水) 05:41:13.29ID:I2kLBy5f2025/07/30(水) 05:48:53.29ID:TdI28dqE
乳輪乳首と同じものが股間に描かれてね?
621名無しさん@お腹いっぱい。
2025/07/30(水) 05:56:18.72ID:HSOCZr70622名無しさん@お腹いっぱい。
2025/07/30(水) 06:03:22.54ID:I2kLBy5f623名無しさん@お腹いっぱい。
2025/07/30(水) 06:08:39.05ID:I2kLBy5f 乳首とプッシーとプロンプトにしてたから、性器に変えたらまともになった。
https://files.catbox.moe/mnf97y.mp4
https://files.catbox.moe/mnf97y.mp4
624名無しさん@お腹いっぱい。
2025/07/30(水) 06:20:03.20ID:I2kLBy5f 乳首を一瞬だけ晒す。プロンプトに忠実だから、アップスケールとかできるようになったらすごいんちゃうかな。
https://files.catbox.moe/yqf7il.mp4
https://files.catbox.moe/yqf7il.mp4
2025/07/30(水) 06:39:20.32ID:F46lhTy9
626名無しさん@お腹いっぱい。
2025/07/30(水) 06:43:31.69ID:I2kLBy5f2025/07/30(水) 07:44:34.42ID:pGP/q/Ss
ワンの調教キボンヌ
628名無しさん@お腹いっぱい。
2025/07/30(水) 08:09:09.57ID:I2kLBy5f 性器のLora使ってみたで。Wan 2.2最強
https://files.catbox.moe/t3l2m2.mp4
https://files.catbox.moe/t3l2m2.mp4
2025/07/30(水) 08:11:19.06ID:yRhR+MxI
ワンヘッドのゲームって、同じルールの使い回しはしなくて、製作してから1回しかやらないんだよね?
毒の放出システムとか、ちゃんと爆発するかとか、何十回も動作テストしたんだろうに、使われないギミックもあって、かわいそう
毒の放出システムとか、ちゃんと爆発するかとか、何十回も動作テストしたんだろうに、使われないギミックもあって、かわいそう
2025/07/30(水) 08:12:02.29ID:yRhR+MxI
誤爆です
631名無しさん@お腹いっぱい。
2025/07/30(水) 08:23:18.13ID:P7mt066B632名無しさん@お腹いっぱい。
2025/07/30(水) 08:43:45.83ID:HSOCZr70 ti2v_5B使ったWrapper WF来てた
https://github.com/kijai/ComfyUI-WanVideoWrapper/tree/main/example_workflows
>>631
同じLoRAをlightx2vの左側に接続
比率の正解はわからないけど
lightx2vが3:1になっているのでその比率でやってみたりしている
https://github.com/kijai/ComfyUI-WanVideoWrapper/tree/main/example_workflows
>>631
同じLoRAをlightx2vの左側に接続
比率の正解はわからないけど
lightx2vが3:1になっているのでその比率でやってみたりしている
2025/07/30(水) 08:54:10.89ID:IfFN0kvr
一応今日明日のうちに色んなLora落としといた方がいいか
634名無しさん@お腹いっぱい。
2025/07/30(水) 09:07:52.74ID:jUTIhzQb SDが規制されるだけだから動画生成は関係なくね
635名無しさん@お腹いっぱい。
2025/07/30(水) 09:17:15.37ID:h+mJosBT AIのせいで少子化が加速
636名無しさん@お腹いっぱい。
2025/07/30(水) 09:24:26.78ID:S0+4tkVU google colabで無料どこまでやれるんすか
動画は無理?
動画は無理?
637名無しさん@お腹いっぱい。
2025/07/30(水) 09:28:14.39ID:P7mt066B2025/07/30(水) 09:30:14.36ID:wBWWihl4
639名無しさん@お腹いっぱい。
2025/07/30(水) 09:32:27.71ID:I2kLBy5f >>636
監視されてたら、捕まる場合もあるから覚悟でやったほうがいい。
監視されてたら、捕まる場合もあるから覚悟でやったほうがいい。
640名無しさん@お腹いっぱい。
2025/07/30(水) 09:40:24.16ID:S0+4tkVU642名無しさん@お腹いっぱい。
2025/07/30(水) 10:11:20.18ID:P7mt066B >>641
2.2だとhigh、lowの2段構成になってるから
Loraを読み込ませる時基本同じものを両方に繋げるんだけどその時の強度やね
High Noise側が動きや演出、Low Noise側が顔や背景の安定性を担う役割分担があるらしいけど3倍になってる理由はよく分からん
2.2だとhigh、lowの2段構成になってるから
Loraを読み込ませる時基本同じものを両方に繋げるんだけどその時の強度やね
High Noise側が動きや演出、Low Noise側が顔や背景の安定性を担う役割分担があるらしいけど3倍になってる理由はよく分からん
643名無しさん@お腹いっぱい。
2025/07/30(水) 11:05:30.62ID:f07+GvL8 WAN2.2でi2vのmissionary Loraがうまく動かない。全く効かない感じ。
wan2.1ではうまく動いていました。
強度0.7でhigh,low繋いでいます。
wan2.2-fp16 + step_distil + missio + sage atten → NG
全6Step
wan2.2-fp16 + missio + sage atten → NG
全20Step
wan2.2-gguf + missio → NG
全20Step
参照画像は、実写系の縦長で縦960pxです。
どなたかi2vのmissionary Lora動いた方、情報ください!!
wan2.1ではうまく動いていました。
強度0.7でhigh,low繋いでいます。
wan2.2-fp16 + step_distil + missio + sage atten → NG
全6Step
wan2.2-fp16 + missio + sage atten → NG
全20Step
wan2.2-gguf + missio → NG
全20Step
参照画像は、実写系の縦長で縦960pxです。
どなたかi2vのmissionary Lora動いた方、情報ください!!
644名無しさん@お腹いっぱい。
2025/07/30(水) 11:11:12.26ID:I2kLBy5f >>643
前に誰か言ってたけど、動くものと動かないものがあるから試行錯誤しろ
前に誰か言ってたけど、動くものと動かないものがあるから試行錯誤しろ
2025/07/30(水) 11:20:59.76ID:5WcLGc0z
lightx2vもt2vは動いてもi2vは動かんよね
646名無しさん@お腹いっぱい。
2025/07/30(水) 11:51:48.48ID:bZjbsciw >>642
前段・後段のLora強度の比率が3:1ってことか サンクスです!
前段・後段のLora強度の比率が3:1ってことか サンクスです!
2025/07/30(水) 12:02:54.93ID:TYHHUAvY
648名無しさん@お腹いっぱい。
2025/07/30(水) 12:02:59.56ID:5I0jFM7X SageAttentionとTritonって本当に要る?
なくても動くし高速化されてんのこれ
なくても動くし高速化されてんのこれ
2025/07/30(水) 12:12:55.87ID:ABMsnXmg
2025/07/30(水) 12:26:46.45ID:i9g7hxQQ
Wan2.1 FusionXのほうがいいって言っている奴もXでおるけど
両方触った人的にはどうなん?
両方触った人的にはどうなん?
2025/07/30(水) 12:28:44.02ID:+OJvhnEU
wan2.2 14Bでlightx2v I2V rank256をhighとlow両方に強度1.0で
ありとなしでI2V生成, 同一シードで比較したけどhigh,low両方の生成時にしっかり効果出るし
high側は使わずにlow側だけに使ったりすると結果がボヤけて破綻したりするから普通に両方に適用するのが良かった
lora読み込む時にlora key not loadedがコンソールに大量に表示されるけど
ただのエラー表示なだけっぽいし他のloraも同時に何個か使ってもちゃんと効果あった
highモデルは完全に新しいモデルだから
loraによっては1.5とか2とか強度高めないと効果出なかったりするし
lowモデルは2.1から追加学習させたモデルっぽいからloraが効きやすいみたい
ありとなしでI2V生成, 同一シードで比較したけどhigh,low両方の生成時にしっかり効果出るし
high側は使わずにlow側だけに使ったりすると結果がボヤけて破綻したりするから普通に両方に適用するのが良かった
lora読み込む時にlora key not loadedがコンソールに大量に表示されるけど
ただのエラー表示なだけっぽいし他のloraも同時に何個か使ってもちゃんと効果あった
highモデルは完全に新しいモデルだから
loraによっては1.5とか2とか強度高めないと効果出なかったりするし
lowモデルは2.1から追加学習させたモデルっぽいからloraが効きやすいみたい
652名無しさん@お腹いっぱい。
2025/07/30(水) 12:30:12.20ID:tZ+7ofjY >>634
規制とかに合わせないとクーレマーみたいな奴らに寄って集って叩かれる面倒な世の中だよ。
規制とかに合わせないとクーレマーみたいな奴らに寄って集って叩かれる面倒な世の中だよ。
2025/07/30(水) 12:35:19.84ID:BsduMCYv
lightx2vのrank32~256あるけどrank値が高い方が劣化が少ないって認識でおk?
2025/07/30(水) 12:39:25.03ID:ABMsnXmg
少なくともFusionXは顔の変化が大きいから無いな
高速化Loraはlightx2vの方がいいね
多分2.1+FusionXの方がいいって言ってる人たちは
2.2をちゃんと(高速化効かせて)動かせてないんじゃ?と思うが
高速化Loraはlightx2vの方がいいね
多分2.1+FusionXの方がいいって言ってる人たちは
2.2をちゃんと(高速化効かせて)動かせてないんじゃ?と思うが
2025/07/30(水) 12:45:39.04ID:+OJvhnEU
>>653
rank高い方がもちろんサイズもでっかいし元データからの劣化も少ないはず
"T2V"版はrank高いと逆に影響強くなりすぎて微妙だったりもしたけど
I2V版は256が自分的にはベストだった
I2V rank64はステップ数増やしたり他の高速化lora足したりしないと
ガビガビしてデノイズ足りてない感があったけど256は低ステップでも高品質で良い感じ
rank高い方がもちろんサイズもでっかいし元データからの劣化も少ないはず
"T2V"版はrank高いと逆に影響強くなりすぎて微妙だったりもしたけど
I2V版は256が自分的にはベストだった
I2V rank64はステップ数増やしたり他の高速化lora足したりしないと
ガビガビしてデノイズ足りてない感があったけど256は低ステップでも高品質で良い感じ
656名無しさん@お腹いっぱい。
2025/07/30(水) 13:00:22.59ID:OXK4Q/Hh FusionXの方がいいとか絶対ないわーと思って探してみたら5Bと比べてるだけだった
2025/07/30(水) 13:21:01.03ID:xU3foGRW
658名無しさん@お腹いっぱい。
2025/07/30(水) 13:26:35.36ID:f7MclVJU うわぁああちょっと2-3日別の事やってた間にWan2.2来てたやでぇ!とりあえず大急ぎでZuntanニキのSimple ComyUI入れてるやでぇ!みんな待って~
2025/07/30(水) 13:44:42.98ID:5WcLGc0z
lora key not loaded: diffusion_model.blocks.9.cross_attn.v_img.lora_A.weight
lora key not loaded: diffusion_model.blocks.9.cross_attn.v_img.lora_B.weight
って出るけど動きみたら効いとるんやね
何で2.2で効いてる効いてないを判別したらいいかわからん
lora key not loaded: diffusion_model.blocks.9.cross_attn.v_img.lora_B.weight
って出るけど動きみたら効いとるんやね
何で2.2で効いてる効いてないを判別したらいいかわからん
660名無しさん@お腹いっぱい。
2025/07/30(水) 14:01:37.53ID:sJsdm+Sa 4070TiSで公式ワークフローのままやったらGPUメモリ足りない言われた
デフォが720pだったから700x700にしたら1000sかかったけどすごいクオリティ高い動画出てきたw
GPUメモリ弱い勢はどのモデルがおすすめ?
デフォが720pだったから700x700にしたら1000sかかったけどすごいクオリティ高い動画出てきたw
GPUメモリ弱い勢はどのモデルがおすすめ?
2025/07/30(水) 14:08:15.56ID:i9g7hxQQ
662名無しさん@お腹いっぱい。
2025/07/30(水) 14:38:28.75ID:I2kLBy5f >>661
気合で組む
気合で組む
2025/07/30(水) 14:44:59.22ID:ABMsnXmg
>>661
Lora loaderを数珠つなぎにすればいいだけ(high, lowそれぞれにね)
Lora loaderを数珠つなぎにすればいいだけ(high, lowそれぞれにね)
2025/07/30(水) 14:49:00.22ID:ABMsnXmg
なんでノードの表記を日本語にするんだろ・・
英語のままの方が検索する際もノードを追加する際も何かと便利だろうに
英語のままの方が検索する際もノードを追加する際も何かと便利だろうに
2025/07/30(水) 14:49:01.57ID:5WcLGc0z
元から使ってたPower lora loaderをそのLoRAノードの代わりにして繋げても動くのがわかった
2025/07/30(水) 14:53:31.18ID:+OJvhnEU
I2Vなのに未だにT2V版 lightx使ってるのも微妙だし
ネイティブ版フローは生成時のプレビュー画質が終わってて効率悪いからおすすめできんな
そもそも生成時のプレビューが出せてない人多いと思うけど
https://github.com/kijai/ComfyUI-WanVideoWrapper/issues/229#issuecomment-2729456556
このkijai氏のコメントを参考にtaew2_1.safetensors使えば
kijai版フローでWanVideo Samplerの下部に高画質プレビューが再生されるようになって取捨選択が捗る
wan2.2だとhighモデルでの生成時は動作が主体だからプレビューぼやけて分かりづらいけど
lowモデルの生成時はプレビューが高画質だから1ステップ目で既に良いか悪いか分かる
ネイティブ版フローは生成時のプレビュー画質が終わってて効率悪いからおすすめできんな
そもそも生成時のプレビューが出せてない人多いと思うけど
https://github.com/kijai/ComfyUI-WanVideoWrapper/issues/229#issuecomment-2729456556
このkijai氏のコメントを参考にtaew2_1.safetensors使えば
kijai版フローでWanVideo Samplerの下部に高画質プレビューが再生されるようになって取捨選択が捗る
wan2.2だとhighモデルでの生成時は動作が主体だからプレビューぼやけて分かりづらいけど
lowモデルの生成時はプレビューが高画質だから1ステップ目で既に良いか悪いか分かる
2025/07/30(水) 14:59:33.28ID:i9g7hxQQ
>>663
はえ~それだけでいいんか
はえ~それだけでいいんか
668名無しさん@お腹いっぱい。
2025/07/30(水) 15:05:06.76ID:P7mt066B >>661
https://files.catbox.moe/1dlrot.png
lora loader stack(rgthree)のはノードマネージャーでインストールしてね
クリップを読み込む、から2本それぞれに繋げる
low側のローダーのclipから2本出してそれぞれプロンプトのポジティブとネガティブに繋ぐ
high側出口は何もなし
って自分もよくわかってないから間違ってたら誰か指摘してな
https://files.catbox.moe/1dlrot.png
lora loader stack(rgthree)のはノードマネージャーでインストールしてね
クリップを読み込む、から2本それぞれに繋げる
low側のローダーのclipから2本出してそれぞれプロンプトのポジティブとネガティブに繋ぐ
high側出口は何もなし
って自分もよくわかってないから間違ってたら誰か指摘してな
2025/07/30(水) 15:09:23.04ID:i9g7hxQQ
>>668
thx!
thx!
2025/07/30(水) 15:15:16.78ID:+OJvhnEU
lightx2vはhighモデル側でも効果強いから3.0まで上げなくても良いかもね
rank64だと効果弱いから多少上げた方が良いかもだけど
rank256の場合だとhigh,lowそれぞれ1.0で充分で
強度上げすぎると逆にガビガビ画質で劣化しててアカンかったわ
rank64だと効果弱いから多少上げた方が良いかもだけど
rank256の場合だとhigh,lowそれぞれ1.0で充分で
強度上げすぎると逆にガビガビ画質で劣化しててアカンかったわ
671名無しさん@お腹いっぱい。
2025/07/30(水) 15:36:12.56ID:xDz4qrvc 画像生成始めたばっかだけど今月末までにやっておくべきことある?
672名無しさん@お腹いっぱい。
2025/07/30(水) 15:37:29.32ID:I2kLBy5f >>671
画像スレ
画像スレ
2025/07/30(水) 15:42:16.84ID:I6axZDHq
A4000で誰かやっとらんかな~
と思ったらいた
がやっぱ激厳しそうだな叡智でシコるわ
と思ったらいた
がやっぱ激厳しそうだな叡智でシコるわ
2025/07/30(水) 15:43:29.94ID:RvC0oV2J
wanのframepackもあるみたいだけど2.2あるし要らんよな
2025/07/30(水) 15:48:01.22ID:TYHHUAvY
>>666
taew2_1.safetensorsをmodels/vae_approx/に入れておけば標準のKsamplerでもpreview出るんじゃ?
taew2_1.safetensorsをmodels/vae_approx/に入れておけば標準のKsamplerでもpreview出るんじゃ?
676名無しさん@お腹いっぱい。
2025/07/30(水) 15:56:15.16ID:P7mt066B kijai氏のサンプル(wanvideo2_2_I2V_A14B_example_WIP)と544(Reddit)のを比べた時544の方がなんか動きが地味、というかkijai氏のがいい感じになったんよな
544のはlightx2v high側が1.0だったからそこかなーとか思ったり
スケジューラをdpm++ sdeに合わせてみたり…
ひとまずsageattentionない分遅いがkijai氏のWFでやることにした
544のはlightx2v high側が1.0だったからそこかなーとか思ったり
スケジューラをdpm++ sdeに合わせてみたり…
ひとまずsageattentionない分遅いがkijai氏のWFでやることにした
677名無しさん@お腹いっぱい。
2025/07/30(水) 16:00:05.16ID:P7mt066B2025/07/30(水) 16:03:51.86ID:+OJvhnEU
>>675
vae_approx/にしっかり入れててもネイティブはtaew2_1を使ったプレビューに対応してないみたいだから
ファイルが認識されずにエラー出て最低画質のLatent2RGBプレビューしか使えないんよね
まぁRGBでも大体の動きとかは分かるし無いよりはマシだけど
lightx2vが出てからネイティブとの生成画質の差は無くなったし逆にプレビューの画質が違いすぎて戻れないな
vae_approx/にしっかり入れててもネイティブはtaew2_1を使ったプレビューに対応してないみたいだから
ファイルが認識されずにエラー出て最低画質のLatent2RGBプレビューしか使えないんよね
まぁRGBでも大体の動きとかは分かるし無いよりはマシだけど
lightx2vが出てからネイティブとの生成画質の差は無くなったし逆にプレビューの画質が違いすぎて戻れないな
679名無しさん@お腹いっぱい。
2025/07/30(水) 16:15:24.49ID:f07+GvL8 >>651
PovMissionaryが動かなくてしょんぼりの643ですが、high側の強度を2とか3とかに上げたら動きました!
1以下だと挿入されなかったんですが、3だとバッチリ挿入されて、でも巻き込んで入っていく感じかなぁ。
2だと良さそうだけど、不自然。 色々試してみます。
PovMissionaryが動かなくてしょんぼりの643ですが、high側の強度を2とか3とかに上げたら動きました!
1以下だと挿入されなかったんですが、3だとバッチリ挿入されて、でも巻き込んで入っていく感じかなぁ。
2だと良さそうだけど、不自然。 色々試してみます。
2025/07/30(水) 16:29:46.14ID:6Y77bZhz
>>678
TAESD(slow)とあるけど他のfastより生成時間slowになる?
TAESD(slow)とあるけど他のfastより生成時間slowになる?
2025/07/30(水) 16:34:47.16ID:TYHHUAvY
2025/07/30(水) 16:47:20.56ID:+OJvhnEU
>>680
wan2.2にしてからは正確に比較してないけどプレビュー無しとかRGBに比べると数秒遅くなる程度なはず
でも高画質プレビューだと生成の序盤で意図してない動きとかしてたりする時に
すぐに中止して次の生成に移れるのがかなりのメリットだからトータルで見るとかなり時短になると思う
その場から離れて大量に生成したい時とかはプレビューに時間使うの無駄だから消すのを忘れずにだけど
>>681
Comfy 0.3.46とfront 1.23.4だけど生成開始時に
TAESDがvae_approxフォルダにありません みたいな英語のエラーがコンソールに出てたら
TAESDを選択してても勝手にLatent2RGBプレビューが使われてるはず…
ネイティブでエラー出てもプレビューが表示されないとかじゃないからその画質を確認してみないと分からんな
wan2.2にしてからは正確に比較してないけどプレビュー無しとかRGBに比べると数秒遅くなる程度なはず
でも高画質プレビューだと生成の序盤で意図してない動きとかしてたりする時に
すぐに中止して次の生成に移れるのがかなりのメリットだからトータルで見るとかなり時短になると思う
その場から離れて大量に生成したい時とかはプレビューに時間使うの無駄だから消すのを忘れずにだけど
>>681
Comfy 0.3.46とfront 1.23.4だけど生成開始時に
TAESDがvae_approxフォルダにありません みたいな英語のエラーがコンソールに出てたら
TAESDを選択してても勝手にLatent2RGBプレビューが使われてるはず…
ネイティブでエラー出てもプレビューが表示されないとかじゃないからその画質を確認してみないと分からんな
2025/07/30(水) 16:55:42.36ID:6Y77bZhz
2025/07/30(水) 16:59:30.74ID:TYHHUAvY
>>682
ああ確かに出てる
Warning: TAESD previews enabled, but could not find models/vae_approx/None
ということはフォールバックしてるってことか
しかし何でNoneなんだろう
ああ確かに出てる
Warning: TAESD previews enabled, but could not find models/vae_approx/None
ということはフォールバックしてるってことか
しかし何でNoneなんだろう
2025/07/30(水) 17:28:12.69ID:48XaxNTh
https://litter.catbox.moe/5xqgx6qnuqpqp8dp.jpg
プレビュー比較するの面倒だったから拾い物の2次の比較でwanのプレビューでもないけど大体こんな感じ
上がTAESDの高画質プレビュー 下がLatent2RGBの低画質プレビュー
右側のCombineノードが実際の動画だからかなり差がある
RGBはwanだともうちょいマシな画質だけど完成動画と違いすぎて
生成途中で良いのか悪いのか判断できないんだよね
プレビュー比較するの面倒だったから拾い物の2次の比較でwanのプレビューでもないけど大体こんな感じ
上がTAESDの高画質プレビュー 下がLatent2RGBの低画質プレビュー
右側のCombineノードが実際の動画だからかなり差がある
RGBはwanだともうちょいマシな画質だけど完成動画と違いすぎて
生成途中で良いのか悪いのか判断できないんだよね
686名無しさん@お腹いっぱい。
2025/07/30(水) 18:48:37.37ID:cd0V2KEM EasyWanは追わないことにしたのでUpdateALL 一択なんだが毎回緊張する。多分なにか不具合でるだろうが決行
687名無しさん@お腹いっぱい。
2025/07/30(水) 18:50:31.86ID:u0WySabl なにかすると謎の不具合しか出ねえからもうEasyWanに面倒見てもらうことにしたんだ俺は
2025/07/30(水) 19:05:09.06ID:pW3GD17r
https://pbs.twimg.com/media/Gw_Bw9VbUAAz_3b.jpg:orig
yayoi_mixの人が2.2で出した静止画やが
この日本人顔出せるならもう静止画から動画までWanで完結出来るんとちゃうか
yayoi_mixの人が2.2で出した静止画やが
この日本人顔出せるならもう静止画から動画までWanで完結出来るんとちゃうか
2025/07/30(水) 19:18:12.15ID:Isgxx8kl
2025/07/30(水) 19:32:16.05ID:G7iHgwDf
脱ぎもいいけど脱がしもいい
https://files.catbox.moe/w6fs6m.mp4
https://files.catbox.moe/w6fs6m.mp4
2025/07/30(水) 19:47:04.72ID:pW3GD17r
>>689
こたじろうニキ2.2で2.1のLoRA使えるのありがたいって書いてたから使ってるかもね
https://note.com/kotajiro0001/n/nf4d0007a2869
2.1の時点でこの顔お出ししてたからWan可能性あるわ
https://pbs.twimg.com/media/GwdWN-zbEAAMFp6.jpg:orig
こたじろうニキ2.2で2.1のLoRA使えるのありがたいって書いてたから使ってるかもね
https://note.com/kotajiro0001/n/nf4d0007a2869
2.1の時点でこの顔お出ししてたからWan可能性あるわ
https://pbs.twimg.com/media/GwdWN-zbEAAMFp6.jpg:orig
2025/07/30(水) 19:50:46.83ID:V9ykCGHO
ジパングの人も日本人LoRA上げてたし画像も動画も2.2に移行しても良いかもしれん
https://files.catbox.moe/4v598h.png
https://files.catbox.moe/4v598h.png
2025/07/30(水) 19:51:46.64ID:gOrCVBxl
背後に不純物いて草
2025/07/30(水) 20:06:19.84ID:ABMsnXmg
じいさん・・・www
695名無しさん@お腹いっぱい。
2025/07/30(水) 20:14:01.28ID:I2kLBy5f >>690
クソガギだすんじゃねぇ
クソガギだすんじゃねぇ
2025/07/30(水) 20:21:42.82ID:G7iHgwDf
>>695
すまん削除した
すまん削除した
2025/07/30(水) 20:22:06.59ID:5WcLGc0z
そういや目閉じたi2v画像からでも目明けた状態でも忠実に再現できるようにってならんかね
画像参照生成とかで別シーンを作るんでなく、スタート画像とは別に参考にする画像を用意できるというか
画像参照生成とかで別シーンを作るんでなく、スタート画像とは別に参考にする画像を用意できるというか
698名無しさん@お腹いっぱい。
2025/07/30(水) 20:22:08.13ID:QmKabj1k >>690
やるやん
やるやん
2025/07/30(水) 20:27:57.24ID:Isgxx8kl
2025/07/30(水) 20:31:01.74ID:i9g7hxQQ
701名無しさん@お腹いっぱい。
2025/07/30(水) 20:32:20.59ID:S0+4tkVU veoみたいなサービスと、sdを自分で動かすのでは、高品質な動画にしようと思ったら前者のほうがいいんすかね?
2025/07/30(水) 20:35:25.45ID:feGEVs+G
wan2.2でlora作るにはwan2.1の14Bモデルファイルをwan2.2のhighかlowファイル差し替えるだけでいいのか?アクションloraならhighでスタイルloraならlowとかなのか?
2025/07/30(水) 20:35:46.31ID:ABMsnXmg
high->lowの2段サンプラーに対し、
両方にlightx2vを効かせて均等ステップにしたのを、
前半(high)はlightx2v無しでcfg=5.5の8step、
後半(low)はlightx2v効かせてcfg=1の4step 計12stepの
フローを試してみた。
当然生成時間は少し伸びるんだけど、まぁ許容範囲
で、結果は・・・
めちゃめちゃ動くわ!!
何となくlightx2v入れて少し動きが悪くなった?のが、
一気に解消
キモは、highはじっくり生成させ、lowで迅速仕上げ、ってことなのかな
NativeでもKijaiでも試すこと出来ると思うので、お試しあれ
両方にlightx2vを効かせて均等ステップにしたのを、
前半(high)はlightx2v無しでcfg=5.5の8step、
後半(low)はlightx2v効かせてcfg=1の4step 計12stepの
フローを試してみた。
当然生成時間は少し伸びるんだけど、まぁ許容範囲
で、結果は・・・
めちゃめちゃ動くわ!!
何となくlightx2v入れて少し動きが悪くなった?のが、
一気に解消
キモは、highはじっくり生成させ、lowで迅速仕上げ、ってことなのかな
NativeでもKijaiでも試すこと出来ると思うので、お試しあれ
2025/07/30(水) 20:35:50.62ID:QmKabj1k
>>616
そこが原因だったわ!
確実に言えるのはLoRA無しでもおせっせについてWan2.2は理解しているってことだな
しかもチンコ伸びみたいなのもかなり軽減されてるし、女の子が挿入をサポートするみたいな動きまでちゃんと知ってる
局部の認識力を確認してほしいのであえて藻無し注意
catbox.moe/x0rikh.mp4
そこが原因だったわ!
確実に言えるのはLoRA無しでもおせっせについてWan2.2は理解しているってことだな
しかもチンコ伸びみたいなのもかなり軽減されてるし、女の子が挿入をサポートするみたいな動きまでちゃんと知ってる
局部の認識力を確認してほしいのであえて藻無し注意
catbox.moe/x0rikh.mp4
2025/07/30(水) 20:45:52.20ID:i9g7hxQQ
2025/07/30(水) 20:54:41.05ID:BsduMCYv
×ボタンで「現在の実行を中止」にしてもターミナルとブラウザのタブ閉じるまで一生中止しないの何とかして欲しい
2025/07/30(水) 20:58:31.31ID:BsduMCYv
>>703
それlight2v使わずにhighを完走出来るならlowもlight2v使わずに回した方が良くないか?
それlight2v使わずにhighを完走出来るならlowもlight2v使わずに回した方が良くないか?
2025/07/30(水) 21:03:27.85ID:ABMsnXmg
2025/07/30(水) 21:08:17.54ID:BsduMCYv
2025/07/30(水) 21:14:39.44ID:ABMsnXmg
>>709
Native版ね
・high KSampler 12step設定、cfg=5.5、end_at_step:6、lightx2vは無し
・low Ksampler 12step設定、cfg=1、start_at_step:6、
model loaderの後に、lightx2v_rank128を強度1.0
Native版は上記設定の総step数を12→10でもまぁいけたが、
Kijai版は総step12はOK(?)、総step10は画質が乱れる
現時点こんな感じ
Native版ね
・high KSampler 12step設定、cfg=5.5、end_at_step:6、lightx2vは無し
・low Ksampler 12step設定、cfg=1、start_at_step:6、
model loaderの後に、lightx2v_rank128を強度1.0
Native版は上記設定の総step数を12→10でもまぁいけたが、
Kijai版は総step12はOK(?)、総step10は画質が乱れる
現時点こんな感じ
2025/07/30(水) 21:19:33.31ID:LFZX/frH
サヨナラ
stable diffusion
stable diffusion
2025/07/30(水) 21:20:53.34ID:BsduMCYv
2025/07/30(水) 21:23:36.60ID:ABMsnXmg
2025/07/30(水) 21:25:03.56ID:ABMsnXmg
2025/07/30(水) 21:25:44.53ID:BsduMCYv
2025/07/30(水) 21:50:27.43ID:BsduMCYv
Wan2.2のi2v検証
High(light2v無し)ステップ6
Low(light2v rank64 強度1)ステップ6
生成時間:high 05:42/low 02:46
https://files.catbox.moe/f9usel.mp4
High(light2v rank64 強度1)ステップ6
Low(light2v rank64 強度1)ステップ6
生成時間:high 02:37/low 02:32
https://files.catbox.moe/hv2xj3.mp4
元絵
https://files.catbox.moe/bqzwgu.webp
ワイフロー
https://files.catbox.moe/j76d85.png
ワイ環
i7-10700k、メモリ128GB(DDR4 32GBx4)、RTX3080(VRAM12GB)
High(light2v無し)ステップ6
Low(light2v rank64 強度1)ステップ6
生成時間:high 05:42/low 02:46
https://files.catbox.moe/f9usel.mp4
High(light2v rank64 強度1)ステップ6
Low(light2v rank64 強度1)ステップ6
生成時間:high 02:37/low 02:32
https://files.catbox.moe/hv2xj3.mp4
元絵
https://files.catbox.moe/bqzwgu.webp
ワイフロー
https://files.catbox.moe/j76d85.png
ワイ環
i7-10700k、メモリ128GB(DDR4 32GBx4)、RTX3080(VRAM12GB)
717名無しさん@お腹いっぱい。
2025/07/30(水) 21:56:38.32ID:f7MclVJU Wan2.2の5B GGUFモデル使えるWFってどこにあつの?safetensorsでやる方がいいの?
718名無しさん@お腹いっぱい。
2025/07/30(水) 21:59:35.59ID:f7MclVJU >>710
え?ZuntanニキのEazyWanでもう2.2 GGUF動くの?
え?ZuntanニキのEazyWanでもう2.2 GGUF動くの?
2025/07/30(水) 22:01:42.16ID:iZlce43p
2025/07/30(水) 22:03:46.30ID:ABMsnXmg
2025/07/30(水) 22:04:40.69ID:ABMsnXmg
2025/07/30(水) 22:06:08.93ID:BsduMCYv
>>720
highにlight2v使わないというのは結構アリな気もするから別な題材やt2vの方でもいろいろ試してみるわ
highにlight2v使わないというのは結構アリな気もするから別な題材やt2vの方でもいろいろ試してみるわ
723名無しさん@お腹いっぱい。
2025/07/30(水) 22:06:30.88ID:p0RY+HnU ブラをずらすのと胸を揉むのはどんなプロンプトがいいんだろう
724名無しさん@お腹いっぱい。
2025/07/30(水) 22:10:35.24ID:f7MclVJU >>721
まだ動かせてないんだけど、T2VよりやっぱI2Vの方が綺麗にできる感じ?
まだ動かせてないんだけど、T2VよりやっぱI2Vの方が綺麗にできる感じ?
725名無しさん@お腹いっぱい。
2025/07/30(水) 22:11:27.93ID:f7MclVJU GGUF頑張って5Bと14Bのん落としたけど使われへんのかこれ…
726名無しさん@お腹いっぱい。
2025/07/30(水) 22:12:40.16ID:9YnilLZf2025/07/30(水) 22:13:24.39ID:+OJvhnEU
lightx2vはI2V版が出てて動きもクオリティも改善されてるからI2Vならそっちを使うべきなのよ
I2VなのにT2V版使ってるから余計に動きが悪くなってて外すと良くなってる部分があるし
I2V版での比較見ると元々動きやすいから時間の割に変化少ないと思う
I2VなのにT2V版使ってるから余計に動きが悪くなってて外すと良くなってる部分があるし
I2V版での比較見ると元々動きやすいから時間の割に変化少ないと思う
2025/07/30(水) 22:15:53.71ID:ABMsnXmg
2025/07/30(水) 22:17:01.97ID:ZD41Rn7z
2025/07/30(水) 22:17:49.54ID:BsduMCYv
2025/07/30(水) 22:20:27.81ID:ABMsnXmg
732名無しさん@お腹いっぱい。
2025/07/30(水) 22:20:39.97ID:I2kLBy5f >>726
読込がかなり負荷かかったりするからわりとある速度がまるで違う
読込がかなり負荷かかったりするからわりとある速度がまるで違う
733名無しさん@お腹いっぱい。
2025/07/30(水) 22:21:51.78ID:9YnilLZf >>730
vae2.1って何でなの?合ってなくね
vae2.1って何でなの?合ってなくね
734名無しさん@お腹いっぱい。
2025/07/30(水) 22:22:25.36ID:AFMWrOdb q4のggufだとさすがに劣化が目に見えたりするの? 今はfp8 scaled使ってるけどそんなに劣化しないなら乗り換えたい
735名無しさん@お腹いっぱい。
2025/07/30(水) 22:23:50.47ID:I2kLBy5f >>734
多分、誤差という誤差は分からんと思うけどガチャ率が少し上がったり動きなどが微妙にとろかったり違う時はある。
多分、誤差という誤差は分からんと思うけどガチャ率が少し上がったり動きなどが微妙にとろかったり違う時はある。
736名無しさん@お腹いっぱい。
2025/07/30(水) 22:25:54.24ID:AFMWrOdb >>735
ありがとう q6あたりからはじめようかな
ありがとう q6あたりからはじめようかな
2025/07/30(水) 22:26:28.00ID:BsduMCYv
>>733
主語が無さ過ぎて何の事なのかさっぱり分からんが今は2.2の話をしとるんやぞ?
主語が無さ過ぎて何の事なのかさっぱり分からんが今は2.2の話をしとるんやぞ?
2025/07/30(水) 22:30:29.12ID:+OJvhnEU
>>731
なるほどそれなら良かった ファイル名長いからややこしいよね
FP8と各GGUFモデルはシードとか設定固定して比較すれば差が分かりやすいと思うけど
小さいモデルになってくると割と影響あるから自分が妥協できるモデルを探すべし
俺もQ6使ってるけどそれ位のサイズだと大差は無いと思う
なるほどそれなら良かった ファイル名長いからややこしいよね
FP8と各GGUFモデルはシードとか設定固定して比較すれば差が分かりやすいと思うけど
小さいモデルになってくると割と影響あるから自分が妥協できるモデルを探すべし
俺もQ6使ってるけどそれ位のサイズだと大差は無いと思う
739名無しさん@お腹いっぱい。
2025/07/30(水) 22:30:50.42ID:o57smXZR 2.2のビッグウェーブに乗るためにlightx2vをkijaiさんのところから落とそうとしてるんやけどrank256とadaptiveの違いわかる人おる?
rank**系は480pって書いてあるのが気になったけど脳死で256使っとけばええんかな
rank**系は480pって書いてあるのが気になったけど脳死で256使っとけばええんかな
2025/07/30(水) 22:34:50.03ID:V9ykCGHO
精度的にはfp16>fp8>gguf Q8以下らしい
https://www.stablediffusiontutorials.com/2025/07/gguf-nf4-fp8-fp16.html?m=1
https://www.stablediffusiontutorials.com/2025/07/gguf-nf4-fp8-fp16.html?m=1
741名無しさん@お腹いっぱい。
2025/07/30(水) 22:36:44.02ID:9YnilLZf2025/07/30(水) 22:37:12.98ID:+OJvhnEU
2025/07/30(水) 22:38:02.09ID:ABMsnXmg
>>731
うん、やっぱりhigh側のlightx2vは外した方が動きがいい
そしてlow側のlightx2vは、I2V版よりT2V版(V2)の方が生成時間が短く画質もいい
つまり最初の設定で問題無し
(特定用途だけかもしれんので、突っ込んだ検証は要ると思うが)
うん、やっぱりhigh側のlightx2vは外した方が動きがいい
そしてlow側のlightx2vは、I2V版よりT2V版(V2)の方が生成時間が短く画質もいい
つまり最初の設定で問題無し
(特定用途だけかもしれんので、突っ込んだ検証は要ると思うが)
744名無しさん@お腹いっぱい。
2025/07/30(水) 22:41:00.30ID:4woLqLxY Framepack高速化知らなかったけど導入したらめっちゃ早くてわろた
微エロくらいだったらこれでお手軽量産出来て楽しいな
微エロくらいだったらこれでお手軽量産出来て楽しいな
2025/07/30(水) 22:41:59.00ID:BsduMCYv
2025/07/30(水) 22:47:25.25ID:+OJvhnEU
そいつは動画作れる環境すらなくていつもハードにケチつけてるだけの貧乏暇人やろ
何も得られる物は無いからもっと叡智な動画作るための生産的な話しようぜ
何も得られる物は無いからもっと叡智な動画作るための生産的な話しようぜ
747名無しさん@お腹いっぱい。
2025/07/30(水) 22:51:15.09ID:o57smXZR748名無しさん@お腹いっぱい。
2025/07/30(水) 22:55:18.95ID:9YnilLZf >>745
すまんかったわ
2.1時代の3080の調子はどうだったか知りたいのよ
温度、生成速度、作れた動画の数とか知りたいのよ
だって明らかに君の動画すご過ぎだもん
ちな俺あなたより高スペック持ちなのに
「The expanded size of the tensor (32) must match the existing size (64) at non-singleton dimension 4.
Target sizes: [1, 48, 1, 32, 32]. Tensor sizes: [16, 1, 64, 64]」
これが出て作れないんですよ.............
すまんかったわ
2.1時代の3080の調子はどうだったか知りたいのよ
温度、生成速度、作れた動画の数とか知りたいのよ
だって明らかに君の動画すご過ぎだもん
ちな俺あなたより高スペック持ちなのに
「The expanded size of the tensor (32) must match the existing size (64) at non-singleton dimension 4.
Target sizes: [1, 48, 1, 32, 32]. Tensor sizes: [16, 1, 64, 64]」
これが出て作れないんですよ.............
749名無しさん@お腹いっぱい。
2025/07/30(水) 23:01:44.39ID:dGmWFySu 2.2まだ導入できん…😢
動画の色がメチャクチャになってしまうんだけど
ホントに14Bモデルは2.1のVAEでいいの?
https://files.catbox.moe/b0y3yv.mp4
https://files.catbox.moe/cl98jr.png
動画の色がメチャクチャになってしまうんだけど
ホントに14Bモデルは2.1のVAEでいいの?
https://files.catbox.moe/b0y3yv.mp4
https://files.catbox.moe/cl98jr.png
750名無しさん@お腹いっぱい。
2025/07/30(水) 23:05:28.67ID:HSOCZr70 >>749
616に解決方法が書いてあるよ
616に解決方法が書いてあるよ
2025/07/30(水) 23:07:20.19ID:OPsaZG/+
nightlyにしてからWF読み直す。はまるよな。
2025/07/30(水) 23:08:25.41ID:OPsaZG/+
なお実写の動画あげると変なのが沸くので控えた方がいいと思う。
753名無しさん@お腹いっぱい。
2025/07/30(水) 23:09:42.03ID:I2kLBy5f754名無しさん@お腹いっぱい。
2025/07/30(水) 23:13:55.96ID:dp9iH+pg >>716
ワイフローありがたき幸せ
ワイフローありがたき幸せ
755名無しさん@お腹いっぱい。
2025/07/30(水) 23:28:17.76ID:AFMWrOdb 2.2になってからガチャ率減ったから多少生成時間伸びても全然許容できるわ
756名無しさん@お腹いっぱい。
2025/07/30(水) 23:40:19.23ID:dGmWFySu757名無しさん@お腹いっぱい。
2025/07/30(水) 23:49:50.35ID:QmKabj1k ノードベースUIはこういうトラブルの対処難しいよな
AIに聞いても解決しづらいし
EasyWan民が2.2に合わせて手動デビューしているが、何割が脱落せず生き残れるだろうか・・・
AIに聞いても解決しづらいし
EasyWan民が2.2に合わせて手動デビューしているが、何割が脱落せず生き残れるだろうか・・・
758名無しさん@お腹いっぱい。
2025/07/30(水) 23:52:01.36ID:YamJZMUA AIでプロンプト作れない人用動画プロンプト
https://dengeai.com/prompt-generator
https://dengeai.com/prompt-generator
759名無しさん@お腹いっぱい。
2025/07/30(水) 23:52:41.41ID:HSOCZr70760名無しさん@お腹いっぱい。
2025/07/31(木) 00:17:03.82ID:Fc5ooiS9 739やけどなんとか形になったわ
kijaiさんのフローに各モデルそのままぶち込んでほぼいじらずに出したけどエロ系LoRAなしでこれ出てくるの革命では?
一応二次創作注意
litter.catbox.moe/221c6qroqipdnr8d.mp4
明日は最適設定詰めないとなぁ
kijaiさんのフローに各モデルそのままぶち込んでほぼいじらずに出したけどエロ系LoRAなしでこれ出てくるの革命では?
一応二次創作注意
litter.catbox.moe/221c6qroqipdnr8d.mp4
明日は最適設定詰めないとなぁ
761716
2025/07/31(木) 00:31:20.69ID:KP+uXwE0 >>748
エラーログの詳細
https://x.com/i/grok/share/TECVMO91C7HBhP3DDeB0AVpzo
ワイより高スペならメモリ不足の線は恐らく消えるやろうから可能性としては
・拡散モデルとClipビジョン、テキストエンコーダー、VAEの組み合わせが合ってない
・出力解像度が大き過ぎる、もしくは比率がおかしい(720x480または1280x720が適切)
のどっちかやと思うが、もっと根が深い問題の場合やとワイにも分からんな
ちなみにWan2.2のt2iとt2vはWan2.1用のvaeを使う必要があるんや
Wan2.2用のvaeもあるがそれはti2b_5B用
んでWan2.1の動作やけど
image to video
モデル:i2v-14b-720p-Q8_0.gguf
軽量化:light2v(rank32 強度1)、MobiiGen(強度0.4)、MPS(強度0.5)、Torchコンパイルモデル(inductor)
生成時間:02:26(480x720 81フレーム)
https://files.catbox.moe/tcvbnw.mp4
text to video
モデル:t2v-14b-Q8_0.gguf
軽量化:light2v(rank32 強度0.4)、FusionX(強度0.4)、Torchコンパイルモデル(inductor)
生成時間:04:27(480x720 81フレーム)
https://files.catbox.moe/c5vbdy.mp4
こんな感じや
GPU温度は生成中平均72度くらいやな
生成本数はざっくりやけど失敗ガチャ含めてWan2.1だけで500本以上ある
エラーログの詳細
https://x.com/i/grok/share/TECVMO91C7HBhP3DDeB0AVpzo
ワイより高スペならメモリ不足の線は恐らく消えるやろうから可能性としては
・拡散モデルとClipビジョン、テキストエンコーダー、VAEの組み合わせが合ってない
・出力解像度が大き過ぎる、もしくは比率がおかしい(720x480または1280x720が適切)
のどっちかやと思うが、もっと根が深い問題の場合やとワイにも分からんな
ちなみにWan2.2のt2iとt2vはWan2.1用のvaeを使う必要があるんや
Wan2.2用のvaeもあるがそれはti2b_5B用
んでWan2.1の動作やけど
image to video
モデル:i2v-14b-720p-Q8_0.gguf
軽量化:light2v(rank32 強度1)、MobiiGen(強度0.4)、MPS(強度0.5)、Torchコンパイルモデル(inductor)
生成時間:02:26(480x720 81フレーム)
https://files.catbox.moe/tcvbnw.mp4
text to video
モデル:t2v-14b-Q8_0.gguf
軽量化:light2v(rank32 強度0.4)、FusionX(強度0.4)、Torchコンパイルモデル(inductor)
生成時間:04:27(480x720 81フレーム)
https://files.catbox.moe/c5vbdy.mp4
こんな感じや
GPU温度は生成中平均72度くらいやな
生成本数はざっくりやけど失敗ガチャ含めてWan2.1だけで500本以上ある
2025/07/31(木) 00:53:41.15ID:k6W+xe2a
763名無しさん@お腹いっぱい。
2025/07/31(木) 01:20:03.87ID:7SP9Pkpx2025/07/31(木) 01:20:43.85ID:KP+uXwE0
>>762
light2v噛ましてたら不要やと思うけどSageAttention繋げてみたらどうやろか?
繋げる場所はHightとLowそれぞれに繋がってるlora読み込みノードの後にSageAttentionでええと思う
light2v噛ましてたら不要やと思うけどSageAttention繋げてみたらどうやろか?
繋げる場所はHightとLowそれぞれに繋がってるlora読み込みノードの後にSageAttentionでええと思う
2025/07/31(木) 01:44:03.48ID:k6W+xe2a
>>762
ここでいいんかな?
今生成中だから次やってみる
https://litter.catbox.moe/32847j874h62fa41.png
今だいぶいい感じになってきた
https://litter.catbox.moe/96rywmy428sar9cj.mp4
ここでいいんかな?
今生成中だから次やってみる
https://litter.catbox.moe/32847j874h62fa41.png
今だいぶいい感じになってきた
https://litter.catbox.moe/96rywmy428sar9cj.mp4
2025/07/31(木) 01:49:03.73ID:KP+uXwE0
>>765
よく動いててええやん!
半透明の紫色になってるlora読み込みノードを右クリックして「バイパス」を選んで有効化させたあとHigh側のKサンプラーのcfgを1にするんや
そしたらワイと同じくらいの生成速度になるはずやで
よく動いててええやん!
半透明の紫色になってるlora読み込みノードを右クリックして「バイパス」を選んで有効化させたあとHigh側のKサンプラーのcfgを1にするんや
そしたらワイと同じくらいの生成速度になるはずやで
2025/07/31(木) 01:54:02.33ID:KP+uXwE0
768名無しさん@お腹いっぱい。
2025/07/31(木) 02:05:46.58ID:7SP9Pkpx zuntan神のSimpleComfyUi更新きたな
2025/07/31(木) 02:09:45.20ID:k6W+xe2a
>>766
SageAttentionつなぐと120秒くらいでKサンプラーでエラーが出ちゃうな
https://litter.catbox.moe/u4x5a56qo2azz01u.png
これで合ってるよね?
https://litter.catbox.moe/wpzl6fbt230jid0n.png
SageAttentionつなぐと120秒くらいでKサンプラーでエラーが出ちゃうな
https://litter.catbox.moe/u4x5a56qo2azz01u.png
これで合ってるよね?
https://litter.catbox.moe/wpzl6fbt230jid0n.png
2025/07/31(木) 02:10:34.46ID:k6W+xe2a
SageAttentionなしでやってみます
771名無しさん@お腹いっぱい。
2025/07/31(木) 02:11:39.37ID:caq+JOD7 もしかしてphantom越えた?
2025/07/31(木) 02:15:30.56ID:KP+uXwE0
773名無しさん@お腹いっぱい。
2025/07/31(木) 02:57:06.84ID:k6W+xe2a >>772
SageAttentionで検索して最初に出てきたの適当にいれたんでw
実験ノードONにしたら出てきましたが
High側のKサンプラーのcfg1にするとほとんど動かなくなっちゃってダメでした
https://litter.catbox.moe/o2hiqxb9aivpq1ho.mp4
また明日実験してみます
あざす!
SageAttentionで検索して最初に出てきたの適当にいれたんでw
実験ノードONにしたら出てきましたが
High側のKサンプラーのcfg1にするとほとんど動かなくなっちゃってダメでした
https://litter.catbox.moe/o2hiqxb9aivpq1ho.mp4
また明日実験してみます
あざす!
774名無しさん@お腹いっぱい。
2025/07/31(木) 05:52:09.15ID:mdV8R1hc wan2.2をコラボで起動するのに20分以上かかったんですが、これって普通ですか?
ローカルの方が速ければ乗り換えようと思っています
ローカルの方が速ければ乗り換えようと思っています
775名無しさん@お腹いっぱい。
2025/07/31(木) 06:51:31.36ID:f3gjlhjM >>774
画像生成もそうだけど、クラウドはサーバーを通して行うから遅いよ
画像生成もそうだけど、クラウドはサーバーを通して行うから遅いよ
776名無しさん@お腹いっぱい。
2025/07/31(木) 07:09:22.06ID:yr0pgR7F2025/07/31(木) 07:17:20.96ID:jPvSK29F
名前が可愛くてワロタw
2025/07/31(木) 07:19:10.96ID:2LeLJEpz
ありがとう早速試してみるー
2025/07/31(木) 07:23:11.02ID:Y+vSso7z
ComfyUIはEasyWanしか触れない赤ちゃんだからzuntan神待ってた!ありがとう!
2025/07/31(木) 07:36:58.96ID:V+UPJWoZ
ワンニャンニャンw
zuntanニキありがとう
zuntanニキありがとう
781名無しさん@お腹いっぱい。
2025/07/31(木) 07:41:07.12ID:f3gjlhjM zuntanありがとう!Hiresも期待するよ!
782名無しさん@お腹いっぱい。
2025/07/31(木) 07:55:06.87ID:f3gjlhjM このファイルをmodel→vae_approxに入れるとプレビュー見れるよ。
設定
Manager→左側にある選択で「Preview method TAESD (Slow)を選択」
↓
ComfyUIの左下の歯車の設定ボタン
↓
VHSを選択
↓
Samplingの「Display animated previews when sampling」のチェックをON
https://huggingface.co/Kijai/WanVideo_comfy/blob/main/taew2_1.safetensors
設定
Manager→左側にある選択で「Preview method TAESD (Slow)を選択」
↓
ComfyUIの左下の歯車の設定ボタン
↓
VHSを選択
↓
Samplingの「Display animated previews when sampling」のチェックをON
https://huggingface.co/Kijai/WanVideo_comfy/blob/main/taew2_1.safetensors
2025/07/31(木) 08:09:57.21ID:3UUxm3p2
>>771
2.2にphantomみたいな画像参照機能がもうあるの?
2.2にphantomみたいな画像参照機能がもうあるの?
2025/07/31(木) 08:58:05.44ID:Nq4fF6Ya
はよ仕事から帰りたい…
785 警備員[Lv.7]
2025/07/31(木) 09:03:47.75ID:O6mpPoOF すまないがワンニャンニャンを構築したときの容量教えてくれんか?
あんまり空きがないから必要ストレージの表記がないと入れ損になりそう
あんまり空きがないから必要ストレージの表記がないと入れ損になりそう
786名無しさん@お腹いっぱい。
2025/07/31(木) 09:15:14.10ID:f3gjlhjM >>785
モデルによるけど50〜60GB
モデルによるけど50〜60GB
787名無しさん@お腹いっぱい。
2025/07/31(木) 09:15:55.72ID:/jB6tT4x788名無しさん@お腹いっぱい。
2025/07/31(木) 09:21:54.12ID:UQH68ZOG Civitai逝ったか
Nsfwのテコ入れしたんか
Nsfwのテコ入れしたんか
789名無しさん@お腹いっぱい。
2025/07/31(木) 09:22:33.22ID:yr0pgR7F Civitai繋がらなくなった
俺って英国人?
Uh-oh, there was a problem!
SSL handshake failed
Cloudflare is unable to establish an SSL connection to the origin server.
俺って英国人?
Uh-oh, there was a problem!
SSL handshake failed
Cloudflare is unable to establish an SSL connection to the origin server.
790名無しさん@お腹いっぱい。
2025/07/31(木) 09:22:42.69ID:/60dvUcp EasyWan22のComfyUi.bat動かすと
ImportError: DLL load failed while importing libtriton: ダイナミックリンクライブラリ(DLL初期化ルーチンの実行に失敗しました)
というエラーが出て立ち上がらん…。
ComfyUi_NoArgs.batなら起動する。
AIに聞くとトリトン関連でpythonのバージョンが3.10じゃないからやと言われるんだけど、インストーラー起動して自動的に3.12が導入されてるからこれが問題なら全員動かないやろし…。
一回全部消してやり直したが改善せん。なんか抜けてる…?
ImportError: DLL load failed while importing libtriton: ダイナミックリンクライブラリ(DLL初期化ルーチンの実行に失敗しました)
というエラーが出て立ち上がらん…。
ComfyUi_NoArgs.batなら起動する。
AIに聞くとトリトン関連でpythonのバージョンが3.10じゃないからやと言われるんだけど、インストーラー起動して自動的に3.12が導入されてるからこれが問題なら全員動かないやろし…。
一回全部消してやり直したが改善せん。なんか抜けてる…?
2025/07/31(木) 09:31:13.21ID:gd9tIlQ+
>>790
vc関連でgitのissue390、noteにも記事があるけど読んだ?
vc関連でgitのissue390、noteにも記事があるけど読んだ?
792名無しさん@お腹いっぱい。
2025/07/31(木) 09:32:01.45ID:UQH68ZOG2025/07/31(木) 09:37:58.65ID:rGofZIXr
794名無しさん@お腹いっぱい。
2025/07/31(木) 09:38:04.90ID:/60dvUcp795名無しさん@お腹いっぱい。
2025/07/31(木) 09:42:38.12ID:f3gjlhjM >>787
使ってみたけど、ヌルヌルだよ。Loraも使えて速いし大丈夫だった
使ってみたけど、ヌルヌルだよ。Loraも使えて速いし大丈夫だった
796名無しさん@お腹いっぱい。
2025/07/31(木) 09:46:51.63ID:caq+JOD7 あ、忘れてた
今日はSDの命日か
今日はSDの命日か
798名無しさん@お腹いっぱい。
2025/07/31(木) 09:56:14.95ID:f3gjlhjM799名無しさん@お腹いっぱい。
2025/07/31(木) 10:10:30.97ID:mffp6c/6800名無しさん@お腹いっぱい。
2025/07/31(木) 10:11:33.22ID:/jB6tT4x >>798
試しに俺のPC(RAM32GB RTX4070)で480*848 81フレームでやってみたら約3分半で生成出来たわ これはすげぇ
試しに俺のPC(RAM32GB RTX4070)で480*848 81フレームでやってみたら約3分半で生成出来たわ これはすげぇ
801名無しさん@お腹いっぱい。
2025/07/31(木) 10:19:30.94ID:f3gjlhjM >>800
VARMによって、24フレームで6秒くらいで落ちるから、16フレームで伸ばすしかない。
VARMによって、24フレームで6秒くらいで落ちるから、16フレームで伸ばすしかない。
802名無しさん@お腹いっぱい。
2025/07/31(木) 10:21:35.41ID:YC++wsBi >>716
ニキのWF貰って頑張ってやってみたんやけどなんかエラー出た。。。
ChatGPTに聞いてもSD3のサンプラー使わんと別のにしろとかトンチンカンな事言ってくるんやけどワイが何か読み込むファイル間違ったんやろか?
https://files.catbox.moe/2z7buh.png
エラー
Given groups=1, weight of size [5120, 36, 1, 2, 2], expected input[1, 32, 21, 90, 60] to have 36 channels, but got 32 channels instead
ニキのWF貰って頑張ってやってみたんやけどなんかエラー出た。。。
ChatGPTに聞いてもSD3のサンプラー使わんと別のにしろとかトンチンカンな事言ってくるんやけどワイが何か読み込むファイル間違ったんやろか?
https://files.catbox.moe/2z7buh.png
エラー
Given groups=1, weight of size [5120, 36, 1, 2, 2], expected input[1, 32, 21, 90, 60] to have 36 channels, but got 32 channels instead
803名無しさん@お腹いっぱい。
2025/07/31(木) 10:26:38.89ID:YC++wsBi804名無しさん@お腹いっぱい。
2025/07/31(木) 10:37:25.44ID:f3gjlhjM805名無しさん@お腹いっぱい。
2025/07/31(木) 10:38:42.29ID:f3gjlhjM2025/07/31(木) 10:41:40.20ID:mvRDh3LJ
LightX2Vのチームが2.2の蒸留モデルに取り組んでるとか言ってるからそれ待ちだなー
2.1用のやつを無理やり使った状態でこれだから今後が楽しみだ
2.1用のやつを無理やり使った状態でこれだから今後が楽しみだ
807名無しさん@お腹いっぱい。
2025/07/31(木) 10:44:51.71ID:N467LkUh lightx2vの恩恵がデカすぎる
808名無しさん@お腹いっぱい。
2025/07/31(木) 10:47:20.09ID:Pu330jSy >>787
redditでも言われてるようにwan2.1みたいな出力になるね
俺の設定がおかしいのかもしれないけど
統合版
https://files.catbox.moe/dkxogr.mp4
high+low
https://files.catbox.moe/8ej9aq.mp4
redditでも言われてるようにwan2.1みたいな出力になるね
俺の設定がおかしいのかもしれないけど
統合版
https://files.catbox.moe/dkxogr.mp4
high+low
https://files.catbox.moe/8ej9aq.mp4
2025/07/31(木) 10:49:58.02ID:fqQ6FF+m
おま環かもしれんが、
Wan2.2、現時点はKijaiフローよりNativeフローの方が
GPUの使用効率がいいな
KijaiフローはGPUパワーがばたつくが、
Nativeフローは最大パワーにほぼ張り付く
(これはAfterBurnerでモニターすれば分る)
どこが違うのかよく分からんが・・・
(2.1の時は両者の差は殆ど無かった)
Wan2.2、現時点はKijaiフローよりNativeフローの方が
GPUの使用効率がいいな
KijaiフローはGPUパワーがばたつくが、
Nativeフローは最大パワーにほぼ張り付く
(これはAfterBurnerでモニターすれば分る)
どこが違うのかよく分からんが・・・
(2.1の時は両者の差は殆ど無かった)
810名無しさん@お腹いっぱい。
2025/07/31(木) 10:50:25.10ID:XP3dwGZQ 今年の盆はなぜか帰省時に卒アルを持ち帰る人間が続出
811名無しさん@お腹いっぱい。
2025/07/31(木) 10:51:41.92ID:jaYcxX11 Nativeは自動でオフロードするからその差だと思う
2025/07/31(木) 10:52:04.89ID:/bZD67B7
WFをpngファイルで読み込むとwidgetの中身が消えて
コネクタ部分をダブルクリックしないと値の設定ができなくなるんだが
解決策分かるニキいるかい
コネクタ部分をダブルクリックしないと値の設定ができなくなるんだが
解決策分かるニキいるかい
2025/07/31(木) 10:53:56.17ID:Wm0qKzML
2025/07/31(木) 10:55:19.21ID:rGofZIXr
>>801
modelとmodelSamplingSD3の間にWanVideoBlockSwapを入れると大きい・長いビデオも行けそう
modelとmodelSamplingSD3の間にWanVideoBlockSwapを入れると大きい・長いビデオも行けそう
815名無しさん@お腹いっぱい。
2025/07/31(木) 11:02:59.48ID:YC++wsBi2025/07/31(木) 11:06:03.26ID:rGofZIXr
>>808
Model Cardに
> Basically, I mixed in "high" + "low" WAN 2.2, WAN 2.1 models, and finally added Lightx2v and PUSA loras for speed.
って書いてあるからWan2.1の要素がかなり混じっているんじゃないかな
Wan2.1のLoRAが使えるようにしたってその後に書いているからその目的で混ぜてんだろうという気がする
i2vだと割と影響少なそうな気がするけどまだ1例しか出せてないので色々試してみないとなんとも言えないところ
Model Cardに
> Basically, I mixed in "high" + "low" WAN 2.2, WAN 2.1 models, and finally added Lightx2v and PUSA loras for speed.
って書いてあるからWan2.1の要素がかなり混じっているんじゃないかな
Wan2.1のLoRAが使えるようにしたってその後に書いているからその目的で混ぜてんだろうという気がする
i2vだと割と影響少なそうな気がするけどまだ1例しか出せてないので色々試してみないとなんとも言えないところ
817名無しさん@お腹いっぱい。
2025/07/31(木) 11:09:05.84ID:0n/ae52N >>802
カスタムノードフォルダの中のflow2-wan-videoフォルダを削除する
自分はそれでそのエラーでなくなった
https://www.reddit.com/r/StableDiffusion/comments/1mc2gkq/given_groups1_weight_of_size_5120_36_1_2_2/
にそのエラーのことが書いてある
カスタムノードフォルダの中のflow2-wan-videoフォルダを削除する
自分はそれでそのエラーでなくなった
https://www.reddit.com/r/StableDiffusion/comments/1mc2gkq/given_groups1_weight_of_size_5120_36_1_2_2/
にそのエラーのことが書いてある
2025/07/31(木) 11:18:55.98ID:gvu+4kN7
Highの粗めのサンプリングとLowの詳細サンプリの2パスやらなきゃWan2.2の画質にはならないのでは
それ以外の機能で何か意義があるなら別だが
それ以外の機能で何か意義があるなら別だが
819名無しさん@お腹いっぱい。
2025/07/31(木) 11:23:41.75ID:GFyWMt7J AIでの生成自体が10日前ぐらいから始めたド素人で最初はFramePackから初めて昨日初めてwan2.2さわったので
ワークフローとかがまだ全然わからん。下手に2.1時代のやりかたとか見る前に、今有志が試行錯誤されてるのが
結果出た奴を参考にするほうがいいよね?
ワークフローとかがまだ全然わからん。下手に2.1時代のやりかたとか見る前に、今有志が試行錯誤されてるのが
結果出た奴を参考にするほうがいいよね?
820名無しさん@お腹いっぱい。
2025/07/31(木) 11:32:48.77ID:yr0pgR7F >>810
その手があったか!w
その手があったか!w
821名無しさん@お腹いっぱい。
2025/07/31(木) 11:35:51.80ID:f3gjlhjM >>819
そればかりは過去遡ってレス見ろとしか言えない
そればかりは過去遡ってレス見ろとしか言えない
2025/07/31(木) 11:38:30.24ID:MxF9eyv2
EasyWan22のワークフロー、LoRAつないでいるのはないんかな
>>668を参考に改造してみるか
>>668を参考に改造してみるか
823名無しさん@お腹いっぱい。
2025/07/31(木) 11:56:00.96ID:6rCePTA4 卒アルでわいせつ動画を!とかいうけど、それってその子の本物の乳首でも無いし、本物のまんこじゃないよね
2025/07/31(木) 12:01:20.64ID:SrnP/g6N
まあ俺たちがその昔想像しながらだったのが、映像という形で具現化できるようになっただけなんだよなぁ
2025/07/31(木) 12:08:28.09ID:59KbzHoi
浴衣を着た初恋の人が
イケメンとの夏祭りの待ち合わせで彼を見つけた瞬間嬉しそうに顔を赤らめる
そんなシーンを目撃した瞬間を切り取って泣きながら泣きたい
イケメンとの夏祭りの待ち合わせで彼を見つけた瞬間嬉しそうに顔を赤らめる
そんなシーンを目撃した瞬間を切り取って泣きながら泣きたい
2025/07/31(木) 12:10:47.47ID:59KbzHoi
脱がしなんてしない
過去に実際にあったであろうその瞬間を俺も泣きながら見させてもらう
過去に実際にあったであろうその瞬間を俺も泣きながら見させてもらう
2025/07/31(木) 12:11:17.58ID:2tzKh8br
Adobeのコラ調和させるやつもこの絶妙なタイミングで合わせてきたかのようだw
2025/07/31(木) 12:12:49.45ID:ORmNDUKf
829名無しさん@お腹いっぱい。
2025/07/31(木) 12:14:35.77ID:6rCePTA4 >>825
どうしてそんな自傷行為を…
どうしてそんな自傷行為を…
830名無しさん@お腹いっぱい。
2025/07/31(木) 12:17:20.83ID:caq+JOD7 あ、これドラえもん越えたかも
831名無しさん@お腹いっぱい。
2025/07/31(木) 12:45:07.42ID:jTB3hdDG その内頭に電極刺して疑似体験ができるようになるな
確かにいたんだ…俺の彼女…まるで天使みたいに笑って…
確かにいたんだ…俺の彼女…まるで天使みたいに笑って…
832名無しさん@お腹いっぱい。
2025/07/31(木) 12:45:59.83ID:USucXoP1 まあフェラ顔は見れますわな
2025/07/31(木) 12:46:49.83ID:MxF9eyv2
それにしてもEasyWan22は早くて動いてええな
他の自力でやっとるニキは最初からこういうのに
たどりついてたのかもしらんが
LoRAだけつなぎ方がわからんかったので
そこだけワークフローのアプデがくれば・・・
他の自力でやっとるニキは最初からこういうのに
たどりついてたのかもしらんが
LoRAだけつなぎ方がわからんかったので
そこだけワークフローのアプデがくれば・・・
834名無しさん@お腹いっぱい。
2025/07/31(木) 12:49:01.07ID:+aRLzwlo2025/07/31(木) 12:50:41.35ID:ta8dw+kO
なんか画像ほどハマれない時間が数秒だからか
人の見てるだけでいいや
人の見てるだけでいいや
2025/07/31(木) 13:00:38.15ID:/bZD67B7
837名無しさん@お腹いっぱい。
2025/07/31(木) 13:07:26.22ID:YaOCtAwc これ、作った動画3D化って出来るの?それ出来たらもうゴールでよくないか?
838名無しさん@お腹いっぱい。
2025/07/31(木) 13:15:23.29ID:mffp6c/6 あと3年もすればプロンプトだけで3DのVRエロ動画作れるだろなぁ
そんな未来が見えているだけでも強く生きていける
そんな未来が見えているだけでも強く生きていける
839名無しさん@お腹いっぱい。
2025/07/31(木) 13:22:04.47ID:YC++wsBi840名無しさん@お腹いっぱい。
2025/07/31(木) 13:33:00.81ID:f3gjlhjM2025/07/31(木) 13:47:52.81ID:fqQ6FF+m
コンソールログに全ての真実が詳細に記されている
まず、それを読み、英語が分からなければgoogle翻訳にかける
その意味が分からなければ、そのエラーを検索する
大抵はこれで解決する
エラーをAIに聞くのは最後の手段だ AIは最新の情報を持っていない
まず、それを読み、英語が分からなければgoogle翻訳にかける
その意味が分からなければ、そのエラーを検索する
大抵はこれで解決する
エラーをAIに聞くのは最後の手段だ AIは最新の情報を持っていない
842名無しさん@お腹いっぱい。
2025/07/31(木) 14:10:53.89ID:iKjHIU8B2025/07/31(木) 14:13:11.33ID:KP+uXwE0
>>839
>>716のワイフローで使用してるモデルは
■ベースモデル
wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
■テキストエンコーダー
umt5_xxl_fp8_e4m3fn_scaled.safetensors
■VAE
wan_2.1_vae.safetensors
■軽量化Lora
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64_fixed.safetensors
これに合わせたらいいと思う
もしくはベースモデルだけGGUFに変更しても動く
ワイ環のVRAM12GBでもベースモデルそのままで5秒生成に6分や
>>716のワイフローで使用してるモデルは
■ベースモデル
wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
■テキストエンコーダー
umt5_xxl_fp8_e4m3fn_scaled.safetensors
■VAE
wan_2.1_vae.safetensors
■軽量化Lora
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64_fixed.safetensors
これに合わせたらいいと思う
もしくはベースモデルだけGGUFに変更しても動く
ワイ環のVRAM12GBでもベースモデルそのままで5秒生成に6分や
2025/07/31(木) 14:14:20.31ID:KP+uXwE0
すまんファイル名のコピペミス
wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
↓
wan2.2_i2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors
こっちやw
wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
↓
wan2.2_i2v_high_noise_14B_fp8_scaled.safetensors
wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors
こっちやw
2025/07/31(木) 14:17:17.82ID:b4vQESG9
>>823
これ主張する奴頻繁に見かけるけどよくわからんわ
同級生やアイドルとかオナネタにしてた時に「その子の本物の乳首や本物のまんこ」じゃなくても妄想で補完してたやろ?
それを妄想レベルから画像や動画に具体化できてるんだから十分やろ
これ主張する奴頻繁に見かけるけどよくわからんわ
同級生やアイドルとかオナネタにしてた時に「その子の本物の乳首や本物のまんこ」じゃなくても妄想で補完してたやろ?
それを妄想レベルから画像や動画に具体化できてるんだから十分やろ
2025/07/31(木) 14:35:02.50ID:fqQ6FF+m
>>842
手っ取り早いのは、sage-attnをスキップすることだ 無くても生成出来るから
入れたいなら、環境にもよるが、venv環境なら、コマンドプロンプトで
venv環境にしてから、
pip install sageattention だ
portable版なら、 ComfyUI_windows_portable\python_embeded ディレクトリに入って、
python.exe -m pip install sageattention だ
今使ってるcomfyUIはどんな版?
手っ取り早いのは、sage-attnをスキップすることだ 無くても生成出来るから
入れたいなら、環境にもよるが、venv環境なら、コマンドプロンプトで
venv環境にしてから、
pip install sageattention だ
portable版なら、 ComfyUI_windows_portable\python_embeded ディレクトリに入って、
python.exe -m pip install sageattention だ
今使ってるcomfyUIはどんな版?
847名無しさん@お腹いっぱい。
2025/07/31(木) 14:40:13.27ID:caq+JOD7 t2vはまだ発展途上な感じやね
GGUF入れたけど生成時間が長すぎる
GGUF入れたけど生成時間が長すぎる
2025/07/31(木) 14:45:32.44ID:RWQp9nRC
ワイフロー入れてみたけど画像編集ソフト?への保存を切るにはどうすればええんや
2025/07/31(木) 14:46:55.99ID:fqQ6FF+m
850名無しさん@お腹いっぱい。
2025/07/31(木) 14:52:19.33ID:x0KxGih5 2.2じゃなきゃダメだ の理由が俺にはない
851名無しさん@お腹いっぱい。
2025/07/31(木) 14:55:01.85ID:caq+JOD7 今のところt2vはfusion Xの方が使いやすい
ワークフロー次第でバケるとは思うが
ワークフロー次第でバケるとは思うが
2025/07/31(木) 14:56:51.31ID:fqQ6FF+m
モーションを求めるならもう2.1には戻れないな・・・
叡智系なら多分2.1(ていうかEasyWan)で現時点十分だろう
叡智系なら多分2.1(ていうかEasyWan)で現時点十分だろう
853名無しさん@お腹いっぱい。
2025/07/31(木) 14:57:12.62ID:/60dvUcp >>790
ImportError: DLL load failed while importing libtriton:
の問題、解決したので一応メモしておきます。
・vc++のパッケージを更新(vc_redist.x64.exe)
・system32フォルダから一部dllをコピー
・pythonのフォルダ内のものと置き換える
※この場所が分からずハマった…仮想環境でeasywanのディレクトリ以下にあるもんだと思ってたらCのユーザー以下にあった…(この辺勉強不足)
やっと起動したので色々試すぞ…。
ImportError: DLL load failed while importing libtriton:
の問題、解決したので一応メモしておきます。
・vc++のパッケージを更新(vc_redist.x64.exe)
・system32フォルダから一部dllをコピー
・pythonのフォルダ内のものと置き換える
※この場所が分からずハマった…仮想環境でeasywanのディレクトリ以下にあるもんだと思ってたらCのユーザー以下にあった…(この辺勉強不足)
やっと起動したので色々試すぞ…。
854名無しさん@お腹いっぱい。
2025/07/31(木) 14:59:58.38ID:wIElLm3V 一度使えば2.1に戻る理由は何一つ無くなると思うけどな
生成結果の、こうはならんやろwwとかそうじゃないんだよなぁ〜?が劇的に減る
生成結果の、こうはならんやろwwとかそうじゃないんだよなぁ〜?が劇的に減る
855名無しさん@お腹いっぱい。
2025/07/31(木) 15:09:46.12ID:USucXoP1 俺は入門したばかりのEasywanしか使えない初心者さんなので2.2への上げ方すら分からずただただ指を咥えて見ているぜ
2025/07/31(木) 15:11:02.28ID:MxF9eyv2
>>852
叡智系こそ「なんでお前はそうピストンに対して理解がねえんだ」ってので苦しんどると思うが
あとチンコがびろーんって伸びたり
Wan2.2で学習されたピストンLoRAがどれくらいのクオリティになるか楽しみ
叡智系こそ「なんでお前はそうピストンに対して理解がねえんだ」ってので苦しんどると思うが
あとチンコがびろーんって伸びたり
Wan2.2で学習されたピストンLoRAがどれくらいのクオリティになるか楽しみ
857名無しさん@お腹いっぱい。
2025/07/31(木) 15:26:39.34ID:iKjHIU8B858名無しさん@お腹いっぱい。
2025/07/31(木) 15:35:59.10ID:iKjHIU8B 適当な画像入れて適当なプロンプト書いても自然に動いてくれるのすごい
プロンプトは無視されたけど
プロンプトは無視されたけど
859名無しさん@お腹いっぱい。
2025/07/31(木) 15:44:36.35ID:f3gjlhjM 色々調べればいくらでも出てくるのに、プロンプトを理解できない人は淘汰されていくんだろうな
2025/07/31(木) 15:53:11.94ID:ORmNDUKf
2.2はプロンプトがより重要になってきたんで都度Geminiに細かく作らせるようにしたわ
861名無しさん@お腹いっぱい。
2025/07/31(木) 16:02:48.23ID:f3gjlhjM ほぼ規制がないAPIを実装した方が良いよ
862名無しさん@お腹いっぱい。
2025/07/31(木) 16:31:53.32ID:x0KxGih5 歴長がやっとみつけたプロンプトでドヤってる見てる事の寂しさと優越感
863名無しさん@お腹いっぱい。
2025/07/31(木) 16:48:20.72ID:k6W+xe2a >>716のアニキのワークフローいじってようやく安定して5秒動画出せるようになってきたわ
ありがと
https://litter.catbox.moe/d0z6xycx3f1vua48.mp4
https://litter.catbox.moe/1k3bvhyhas0cvs8k.mp4
でもやっぱ10分ぐらいかかるな。
RTX5060Ti16G メインメモリ96G
メインメモリまだまだ空きがあるから単純にGPUのパワー不足なんやろか
ありがと
https://litter.catbox.moe/d0z6xycx3f1vua48.mp4
https://litter.catbox.moe/1k3bvhyhas0cvs8k.mp4
でもやっぱ10分ぐらいかかるな。
RTX5060Ti16G メインメモリ96G
メインメモリまだまだ空きがあるから単純にGPUのパワー不足なんやろか
864名無しさん@お腹いっぱい。
2025/07/31(木) 16:52:43.69ID:K0Lp+qIT chatGPTだののAIは最新のツールとかの質問すると「これで100%動きます」とか言って平気で間違った回答してくれるので泥沼はまりやすいな
回答がループ始めたらさっさと切り上げて別な解決策探さないと一生終わらない
回答がループ始めたらさっさと切り上げて別な解決策探さないと一生終わらない
2025/07/31(木) 16:54:24.07ID:KP+uXwE0
866名無しさん@お腹いっぱい。
2025/07/31(木) 16:54:28.10ID:gFnXXgRQ チャッピーは知ってることはサクサク答えてくれるけど、
知らないことまで知ってるフリしてデマ言って来るからね
知ったかおじさん化しちゃったらそれ以上話すだけ無駄
知らないことまで知ってるフリしてデマ言って来るからね
知ったかおじさん化しちゃったらそれ以上話すだけ無駄
2025/07/31(木) 17:04:58.03ID:jPvSK29F
そういうAIの知ったかぶりをハルシネーションと言うとAIに教えてもらった。幻覚見たかのように嘘をつくからw
868名無しさん@お腹いっぱい。
2025/07/31(木) 17:14:19.03ID:f3gjlhjM でもお前ら今そのAIのおかげで動画作れてるからな
2025/07/31(木) 17:14:28.47ID:QR5UT7Pl
>>863
美人さんだしセンスも良き
美人さんだしセンスも良き
870名無しさん@お腹いっぱい。
2025/07/31(木) 17:18:48.55ID:YC++wsBi >>840,843
ニキ達ありがとう!サンガツ!よー確認したらclipモデルがscaledが入ってないの使っててポカしてたワイがアホやった…
やっと動いたイージーワンニャンで動いたで!
99_WIP_Kijai_LowSpec.jsonに比べて処理時間はだいぶんかかったけど、映像クオリティーはだいぶええな!
特にINT版はスムーズやね
ニキのワークフローでだと動画はtemp入っとるんやが、これをoutputフォルダー内に出力するにはどうしたらええの?
ニキ達ありがとう!サンガツ!よー確認したらclipモデルがscaledが入ってないの使っててポカしてたワイがアホやった…
やっと動いたイージーワンニャンで動いたで!
99_WIP_Kijai_LowSpec.jsonに比べて処理時間はだいぶんかかったけど、映像クオリティーはだいぶええな!
特にINT版はスムーズやね
ニキのワークフローでだと動画はtemp入っとるんやが、これをoutputフォルダー内に出力するにはどうしたらええの?
871名無しさん@お腹いっぱい。
2025/07/31(木) 17:34:21.95ID:f3gjlhjM >>870
Video Combineの一番下のsave_output
Video Combineの一番下のsave_output
2025/07/31(木) 17:35:23.79ID:KP+uXwE0
873名無しさん@お腹いっぱい。
2025/07/31(木) 17:35:57.21ID:oenyVC+9 >>864
提示された自信満々な解決案を実行してもエラーになると伝えると、はいその方法は間違っていますと平気に返されるね。
提示された自信満々な解決案を実行してもエラーになると伝えると、はいその方法は間違っていますと平気に返されるね。
874名無しさん@お腹いっぱい。
2025/07/31(木) 17:56:03.87ID:YC++wsBi >>866
インド人みたいにほんまは知らん事でも嘘ついて教えてきよるよなw
インド人みたいにほんまは知らん事でも嘘ついて教えてきよるよなw
2025/07/31(木) 18:02:45.37ID:uVpefr0B
Wan2.2以降のWFは、プロンプトで#(コメント)が効かないのだが、
単に使っているノードの問題?
単に使っているノードの問題?
876名無しさん@お腹いっぱい。
2025/07/31(木) 18:03:32.02ID:YC++wsBi >>871,872
おおきに、基本やね… しょうもないこと聞いたのに親切に教えてくれてありがとうです
おおきに、基本やね… しょうもないこと聞いたのに親切に教えてくれてありがとうです
2025/07/31(木) 18:24:46.94ID:yZnmm6VL
LORAの強度のかけ方と混ぜ方は
スパイスのブレンドみたいでおもしろい
自分にとって最適な配合があるんだよなやっぱり
スパイスのブレンドみたいでおもしろい
自分にとって最適な配合があるんだよなやっぱり
2025/07/31(木) 18:28:20.94ID:gvu+4kN7
チャッピー: 皆様方のおかげで勉強させていただいております
879名無しさん@お腹いっぱい。
2025/07/31(木) 18:29:34.60ID:wIElLm3V 結局2.2のloraの強度はhigh:low=3:1くらいでやっとんるんか?みんなは
880名無しさん@お腹いっぱい。
2025/07/31(木) 18:32:29.04ID:YC++wsBi まだhigh:lowの調整とか何もしとらんけどええね
生成速度はWan2.1より掛かってるんかな?たぶん…
アニメ調でも2.2のが恩恵あるんかなぁ?
優しいニキらのおかげで1個できました
https://files.catbox.moe/mztchu.mp4
生成速度はWan2.1より掛かってるんかな?たぶん…
アニメ調でも2.2のが恩恵あるんかなぁ?
優しいニキらのおかげで1個できました
https://files.catbox.moe/mztchu.mp4
2025/07/31(木) 18:36:24.86ID:8DlnhK/w
Easywanvideoってクラウドでは使えない?
普通にWanvideoをクラウドで動かすやり方はネットに載ってるけど
Easywanvideoの動かし方はどこにも載ってない
普通にWanvideoをクラウドで動かすやり方はネットに載ってるけど
Easywanvideoの動かし方はどこにも載ってない
882名無しさん@お腹いっぱい。
2025/07/31(木) 18:38:37.35ID:f3gjlhjM883名無しさん@お腹いっぱい。
2025/07/31(木) 18:40:39.94ID:f3gjlhjM2025/07/31(木) 18:45:21.24ID:8DlnhK/w
>>882
すまん出直してくる
すまん出直してくる
2025/07/31(木) 18:47:45.78ID:ORmNDUKf
実行ファイルの中身を見てそれと同じ環境を整えればできそうだけど
俺はできないのでクラウド環境でEasy使わず遊んでる
俺はできないのでクラウド環境でEasy使わず遊んでる
2025/07/31(木) 18:49:00.74ID:uVpefr0B
>>881
クラウドはubuntu(Docker)がほとんどだからWindowsベースという時点でそのままは無理。
俺はクラウドで近しいComfyUI構成用意してWFだけ流用して使ってた。
モデルのパス配置変えれば基本そのままで動く。
クラウドはubuntu(Docker)がほとんどだからWindowsベースという時点でそのままは無理。
俺はクラウドで近しいComfyUI構成用意してWFだけ流用して使ってた。
モデルのパス配置変えれば基本そのままで動く。
2025/07/31(木) 18:57:05.01ID:8DlnhK/w
2025/07/31(木) 19:04:27.12ID:t2GzJ/9V
チャッピー: 皆様方の嗜好を記録してマーケティングデータとして売却します
889名無しさん@お腹いっぱい。
2025/07/31(木) 19:04:50.17ID:wIElLm3V >>883
いや、そらそうなんやけどね。
ワイちゃんは3や、ボクちゃんは1.5でやっとるでーみたいなのをゆるく聞きたかったんや
自分でもいくつかパターン試したが2、3倍ぐらいが安定かね。
highが1やと明らかに足りてないが、5やとやりすぎる感じやね
いや、そらそうなんやけどね。
ワイちゃんは3や、ボクちゃんは1.5でやっとるでーみたいなのをゆるく聞きたかったんや
自分でもいくつかパターン試したが2、3倍ぐらいが安定かね。
highが1やと明らかに足りてないが、5やとやりすぎる感じやね
890名無しさん@お腹いっぱい。
2025/07/31(木) 19:18:22.18ID:/60dvUcp 2.1だとまぁこんなもんだなぐらいで満足してたプロンプトと動画が全部過去になるぐらい動くね
細部詰めだしたらキリがなくなりそう…
細部詰めだしたらキリがなくなりそう…
2025/07/31(木) 19:21:40.66ID:39hnRCPE
2.1でボツってたネタを2.2でリメイクするといい感じになるかもしれない
2025/07/31(木) 19:26:20.28ID:fqQ6FF+m
2.1で生成した動画を片っ端から2.2で再生成しては感動している(笑)
2025/07/31(木) 19:32:30.69ID:cUZvWinp
WAN2.2-14B-Rapid-AllInOne モデル、すごすぎ あれもこれもマージしていて
テキストエンコーダーも入ってる Highノイズ Lowノイズとか分けなくていい
16 fpsにも対応しているから Wan 2.1ぽくも使える
832x480 16fps 5sec が VRAM 20GBのマシンでわずか2分だった
テキストエンコーダーも入ってる Highノイズ Lowノイズとか分けなくていい
16 fpsにも対応しているから Wan 2.1ぽくも使える
832x480 16fps 5sec が VRAM 20GBのマシンでわずか2分だった
894名無しさん@お腹いっぱい。
2025/07/31(木) 19:40:46.53ID:YC++wsBi やっぱ2.2の方がより正確にヌルヌル動くんかな?
とりあえずイージーワンニャンってことやし、犬猫の動画作ったら綺麗に動いたわw
とりあえずイージーワンニャンってことやし、犬猫の動画作ったら綺麗に動いたわw
895名無しさん@お腹いっぱい。
2025/07/31(木) 19:42:37.99ID:GFyWMt7J loraなしでプロンプトだけでもブラを脱がすことはできるのですか?先輩方
2025/07/31(木) 19:46:33.48ID:fqQ6FF+m
かなりのモノがプロンプトに対し正確に(忠実に)動くね
逆にプロンプトに書いてないと動かないから、プロンプトの出来に左右されるようだ
プロンプト自動生成のLLMを繋がないといかんな。。。
逆にプロンプトに書いてないと動かないから、プロンプトの出来に左右されるようだ
プロンプト自動生成のLLMを繋がないといかんな。。。
2025/07/31(木) 19:49:13.88ID:MxF9eyv2
2.1と感覚だいぶ違うのはあるわね
2025/07/31(木) 19:54:36.64ID:gvu+4kN7
>>609
同じ質問をCopilotにしたけどアカンかったな
チャッピーは教えてくれたけど
いずれにしても両方ともめちゃくちゃな回答ではあったw
結局、マネージャーでVideoWrapperのバージョン確認して最新のnightlyなってて試したけどだめで
このスレ見直してて間違いないと確信して
VideoWrapperインストールしたら動いた
同じ質問をCopilotにしたけどアカンかったな
チャッピーは教えてくれたけど
いずれにしても両方ともめちゃくちゃな回答ではあったw
結局、マネージャーでVideoWrapperのバージョン確認して最新のnightlyなってて試したけどだめで
このスレ見直してて間違いないと確信して
VideoWrapperインストールしたら動いた
2025/07/31(木) 19:56:05.76ID:gvu+4kN7
そりゃ踊り子さんが拒まなければねw
2025/07/31(木) 19:58:54.35ID:fqQ6FF+m
WanVudeoWrapperはこのところ更新頻度が半端ないから、
ComfyUIManager経由のアプデでは追いつかないね
手動で git pull するのがベスト
ComfyUIManager経由のアプデでは追いつかないね
手動で git pull するのがベスト
2025/07/31(木) 20:08:38.30ID:T9OQZx7F
2.2はスカートも捲ったり下ろしたり自由自在だな
ズボンもちゃんと脱いでくれる
ズボンもちゃんと脱いでくれる
2025/07/31(木) 20:10:15.60ID:MxF9eyv2
EasyWanアプデしたんやけどEndFrameをONにしてもどうも効いてる気がしないなあ
2025/07/31(木) 20:10:32.77ID:MxF9eyv2
EasyWan22って書かないとダメだった
904名無しさん@お腹いっぱい。
2025/07/31(木) 20:11:06.25ID:YC++wsBi >>895
無理ですね
無理ですね
905名無しさん@お腹いっぱい。
2025/07/31(木) 20:13:18.64ID:f3gjlhjM >>904
無理じゃない
無理じゃない
906名無しさん@お腹いっぱい。
2025/07/31(木) 20:26:52.67ID:caq+JOD7 パイモミLoRaいらんやん
ガシガシ揉みよるわ
ガシガシ揉みよるわ
907名無しさん@お腹いっぱい。
2025/07/31(木) 20:30:47.17ID:caq+JOD7 2.2だけどi2vに比べてt2vって処理時間異様に長くない?
gguf入れて同じ条件でやってんだけど体感で4-5倍かかっているイメージ
gguf入れて同じ条件でやってんだけど体感で4-5倍かかっているイメージ
908名無しさん@お腹いっぱい。
2025/07/31(木) 20:36:05.20ID:c349JhNR EasyWan22のEndFrame上手く動かない問題だけど、EndImageの画像からEndImageの下にあるImageResizeのimageにノード引き直したらそれらしい動作した
こんふぃーよくわかんないけど!
こんふぃーよくわかんないけど!
909名無しさん@お腹いっぱい。
2025/07/31(木) 20:39:21.45ID:/60dvUcp 動きのLoRAはよほどじゃないと要らないレベルだけど脱いだ後の体型に関する部分は入れた方がよさそうね
脱ぐけどおっぱいのカタチがガチャになってるw
脱ぐけどおっぱいのカタチがガチャになってるw
2025/07/31(木) 20:45:45.21ID:6VKd+CNJ
>>908 ツッコミありがとうございます。
取り急ぎ接続を修正してコミットしました。
取り急ぎ接続を修正してコミットしました。
911名無しさん@お腹いっぱい。
2025/07/31(木) 20:45:51.90ID:Wc3tnhZf うーん俺は化け物が局部に張り物して現れた
叡智ばかりやってて、WANは初めてだから研究せねば
叡智ばかりやってて、WANは初めてだから研究せねば
2025/07/31(木) 20:47:42.89ID:KP+uXwE0
913名無しさん@お腹いっぱい。
2025/07/31(木) 20:49:25.11ID:YC++wsBi >>905
うわっ!マジや!プロンプトだけで脱ぎよった!
2.2からか?ほな先々週くらいに服脱がせLoraでキャッキャしてたワイらはいったいなんやってん…
https://files.catbox.moe/boip7j.mp4
>>895
嘘吐きました脱ぎました
うわっ!マジや!プロンプトだけで脱ぎよった!
2.2からか?ほな先々週くらいに服脱がせLoraでキャッキャしてたワイらはいったいなんやってん…
https://files.catbox.moe/boip7j.mp4
>>895
嘘吐きました脱ぎました
2025/07/31(木) 20:50:40.57ID:MxF9eyv2
915名無しさん@お腹いっぱい。
2025/07/31(木) 20:50:40.79ID:k6W+xe2a なんかもう可愛すぎてずっと眺めてられるわ・・・
https://litter.catbox.moe/djrr75fym8vs2ng7.mp4
https://litter.catbox.moe/djrr75fym8vs2ng7.mp4
916名無しさん@お腹いっぱい。
2025/07/31(木) 20:58:05.79ID:L7NYvYVW 動画生成AI専用SSDを買おうと思ってるんだが2TBじゃ少ない?
2025/07/31(木) 20:59:19.16ID:MxF9eyv2
>>916
十分やと思うで
ただそれと別に倉庫のHDDもあったほうがええ
普段使いは2TBで問題ないが、「これ消そうかなどうしようかな」みたいのを
退避させるとこもほしくなるはず(で、だいたい後で一度も使わない)
十分やと思うで
ただそれと別に倉庫のHDDもあったほうがええ
普段使いは2TBで問題ないが、「これ消そうかなどうしようかな」みたいのを
退避させるとこもほしくなるはず(で、だいたい後で一度も使わない)
918名無しさん@お腹いっぱい。
2025/07/31(木) 21:01:59.22ID:jaYcxX11 動画はモデルファイルでかいし4-8TBにしといた方が後悔しない
919名無しさん@お腹いっぱい。
2025/07/31(木) 21:05:22.82ID:YC++wsBi >>915
若干中性的なところもミステリアスでええね
若干中性的なところもミステリアスでええね
2025/07/31(木) 21:07:45.54ID:EeMmjUdp
2025/07/31(木) 21:08:08.84ID:QR5UT7Pl
>>916
うちも2TBのSSDだよ
wan2.1で約150GB
wan2.2で約150GB
SD(StableDiffusion)で約80GB
EasyWanとか最小環境にするために再インスコしたから
これで空きが約1TBだよ〜
FP(FramePack:約70GB)とかSM(StabilityMatrix:約16GB)は外付けHDDに退避させた
うちも2TBのSSDだよ
wan2.1で約150GB
wan2.2で約150GB
SD(StableDiffusion)で約80GB
EasyWanとか最小環境にするために再インスコしたから
これで空きが約1TBだよ〜
FP(FramePack:約70GB)とかSM(StabilityMatrix:約16GB)は外付けHDDに退避させた
2025/07/31(木) 21:12:41.44ID:gvu+4kN7
Wan2.2 高速モーションでも崩れないのすごいな
923名無しさん@お腹いっぱい。
2025/07/31(木) 21:12:53.97ID:YC++wsBi ワイの作った動画の女の子、いっつも高速で口パクパクしとんのやけどどうやったら辞めさせれるん?
あと気づいたけどプロンプトで脱がしたらたまにドス黒乳首がガチャで出てくるわ
あと気づいたけどプロンプトで脱がしたらたまにドス黒乳首がガチャで出てくるわ
2025/07/31(木) 21:18:46.74ID:fqQ6FF+m
いやー2TBじゃすぐ足りなくなるよ
オレ環境 OS用2TB+AIシステム/モデル用4TB+生成物保存用HDD6TBだけど、
4TBが使用量80%・・・
(まぁ、動画用の他にSD,SDXL,FLUX1,その他諸々いれてるけど)
これらとは別にtemp/検討用に以前使ってたSSD1TB
オレ環境 OS用2TB+AIシステム/モデル用4TB+生成物保存用HDD6TBだけど、
4TBが使用量80%・・・
(まぁ、動画用の他にSD,SDXL,FLUX1,その他諸々いれてるけど)
これらとは別にtemp/検討用に以前使ってたSSD1TB
2025/07/31(木) 21:26:54.89ID:h+jbF4y6
性器のloraは欲しいな
割とエグいのしか出なくて一瞬で冷めてしまう
何学習させたんだろってレベルw
割とエグいのしか出なくて一瞬で冷めてしまう
何学習させたんだろってレベルw
2025/07/31(木) 21:40:50.28ID:MxF9eyv2
>>925
そりゃモノホンやろ
そりゃモノホンやろ
927名無しさん@お腹いっぱい。
2025/07/31(木) 21:43:02.40ID:YiU2XB0I 草
928名無しさん@お腹いっぱい。
2025/07/31(木) 21:44:26.42ID:dI93DcKB ループ動画作れるWFほしい。。。
2025/07/31(木) 21:45:44.24ID:MxF9eyv2
なんかでも勝手にループっぽくなりがちじゃない?
End指定していないとき
End指定していないとき
2025/07/31(木) 21:48:06.83ID:yZnmm6VL
光演算ってAIにどう関与するのかなあ
931名無しさん@お腹いっぱい。
2025/07/31(木) 21:58:30.91ID:/60dvUcp 簡単に動きすぎて疲れてきたw
この先に元画像作り、LoRA選び、プロンプトの調整があるとは…
この先に元画像作り、LoRA選び、プロンプトの調整があるとは…
932名無しさん@お腹いっぱい。
2025/07/31(木) 22:15:06.03ID:YC++wsBi >>890
乳揺れはまだLora必須やない?
乳揺れはまだLora必須やない?
933名無しさん@お腹いっぱい。
2025/07/31(木) 22:15:07.72ID:eC0RFYBu 脱げって言ってないのに脱ぐんですけど!
934名無しさん@お腹いっぱい。
2025/07/31(木) 22:28:47.27ID:k6W+xe2a935名無しさん@お腹いっぱい。
2025/07/31(木) 22:48:35.75ID:Q7Z1FuZp >>934
すご!これどうやってプロンプトで指示してるの?
すご!これどうやってプロンプトで指示してるの?
936名無しさん@お腹いっぱい。
2025/07/31(木) 23:04:13.86ID:k6W+xe2a >>935
雨の街で傘を差した女性が激しく踊る、ってだけでだよ
https://litter.catbox.moe/hbxvyji6l79ku8e3.mp4
失敗版
https://litter.catbox.moe/1cdoyghwprcn1l2c.mp4
雨の街で傘を差した女性が激しく踊る、ってだけでだよ
https://litter.catbox.moe/hbxvyji6l79ku8e3.mp4
失敗版
https://litter.catbox.moe/1cdoyghwprcn1l2c.mp4
937名無しさん@お腹いっぱい。
2025/07/31(木) 23:21:25.32ID:+hmbvfxN >>936
そっか!ガチャ必須だから時間も電気代もかかるんだなぁ 失敗作もよく見たら黒ブラをちゃんと継続してる
そっか!ガチャ必須だから時間も電気代もかかるんだなぁ 失敗作もよく見たら黒ブラをちゃんと継続してる
2025/07/31(木) 23:24:52.38ID:MxF9eyv2
電気代なんて誤差よ
939名無しさん@お腹いっぱい。
2025/07/31(木) 23:27:21.55ID:k6W+xe2a 失敗版は艶っぽく踊るって指示したせいでストリッパーになったんだと思うw
2025/07/31(木) 23:38:27.47ID:gvu+4kN7
下手に英語のスラングになってたりすると思わぬ動きをする
941名無しさん@お腹いっぱい。
2025/07/31(木) 23:42:40.72ID:Un8y+1gj わんにゃんにゃん
5070ti
image size 720 FPS 60 81f
画像拡大 ON / REFI VFI ON
1024*1408
生成速度:160s
https://files.catbox.moe/gu1ic9.mp4
同時生成されるWIPの画像を見ると、目や細部がかなり圧縮の影響で濁っちゃうな。
これはHires待ちをするしかないんかね
5070ti
image size 720 FPS 60 81f
画像拡大 ON / REFI VFI ON
1024*1408
生成速度:160s
https://files.catbox.moe/gu1ic9.mp4
同時生成されるWIPの画像を見ると、目や細部がかなり圧縮の影響で濁っちゃうな。
これはHires待ちをするしかないんかね
2025/07/31(木) 23:45:36.73ID:KP+uXwE0
Rapidは早いんだけど何か2.1に戻ったような動画にならんか?
あとプロンプトへの追従性がバチクソ低い気がするわ
あとプロンプトへの追従性がバチクソ低い気がするわ
943名無しさん@お腹いっぱい。
2025/07/31(木) 23:51:32.33ID:yr0pgR7F944名無しさん@お腹いっぱい。
2025/07/31(木) 23:57:32.61ID:F7PBJBQA ほんまやRapidはや
https://files.catbox.moe/qa2yy8.mp4
https://files.catbox.moe/qa2yy8.mp4
2025/07/31(木) 23:58:52.84ID:/bZD67B7
wan2.2を何回か試したけど、かなりの自然言語を理解して表現してくれる代わりに
コントロールが難しい
wan2.1で表現できなかったことの多くは解消されてるから後は高速化とプロンプト書式のコツかな
これだけの自然言語を理解するってどれだけのパターンを学習させたんだと思うと脱帽だよ
コントロールが難しい
wan2.1で表現できなかったことの多くは解消されてるから後は高速化とプロンプト書式のコツかな
これだけの自然言語を理解するってどれだけのパターンを学習させたんだと思うと脱帽だよ
946名無しさん@お腹いっぱい。
2025/08/01(金) 00:02:32.07ID:5/xN5pkg 理由あって分けたのに混ぜたら意味ないって誰にでもわかるよなw
947名無しさん@お腹いっぱい。
2025/08/01(金) 00:04:38.05ID:MVwcMES6 Rapidは微妙ちゃうの?
Redditでも2.1みたいって結構言われよるし
そんなに簡単にマージできるんだったらそもアリババの偉いエンジニアの人がhigh low分けて2.2リリースせんやろって話
Redditでも2.1みたいって結構言われよるし
そんなに簡単にマージできるんだったらそもアリババの偉いエンジニアの人がhigh low分けて2.2リリースせんやろって話
948名無しさん@お腹いっぱい。
2025/08/01(金) 00:10:18.87ID:mMiyrE5s 熟女とロリを合体させるのと同じく愚行だよ説
ロリババアならお得じゃん説
好きな方を選べ
ロリババアならお得じゃん説
好きな方を選べ
2025/08/01(金) 00:11:39.14ID:PlsrsBMf
lora使ったエロはまだ2.1がええな
2025/08/01(金) 00:14:50.86ID:Rq1OReMP
なんかちょっと動きすぎて制御しづらいなあ、それと開始画像時点のノイズが目立つかも
と思って色々弄ってたがやっぱみんなそんな感想か
容量節約できてよかったんだけどな
と思って色々弄ってたがやっぱみんなそんな感想か
容量節約できてよかったんだけどな
2025/08/01(金) 00:18:14.99ID:jF5u3Opz
>>949
2.2の学習が出てきてからが本番やろね
2.2の学習が出てきてからが本番やろね
2025/08/01(金) 00:36:54.90ID:zb1nPEaw
2.1より大分動くからLoraは補助的な感じで強度抑えて試している
953名無しさん@お腹いっぱい。
2025/08/01(金) 01:04:20.62ID:IahBMphl 実写の猫でRapidとhigh+low出し比べしたけど、>>808ほど露骨に全然違う感じにはならずどっちもほぼ一緒のイメージクオリティーやね。((言うて動画のイメージクオリティー比較は動いてるから難しいのでパッと見の印象)
というか同じプロンプトやのにニャンコが全く違う動きって方が気になるわ
ただRapidのあの生成速度は魅力。それぞれ何が出来る出来ひんは今後分かっていくやろね
というか同じプロンプトやのにニャンコが全く違う動きって方が気になるわ
ただRapidのあの生成速度は魅力。それぞれ何が出来る出来ひんは今後分かっていくやろね
954名無しさん@お腹いっぱい。
2025/08/01(金) 01:44:58.24ID:H6ij2/Oh 簡単に脱ぐようになった分、脱ぎ方とか下着とかにこだわれるようになったことで丸出しのエロとは違う奥ゆかしいエロスが手軽に表現できてしまう…
露出度合いだけでは測れないこの胸のときめき…
露出度合いだけでは測れないこの胸のときめき…
955名無しさん@お腹いっぱい。
2025/08/01(金) 01:48:29.43ID:Go0u89xK 2.2でいい具合の実写系おぱんちゅになるプロンプトない?
pantyとかpantiesだけだと旧ザクかよってぐらい無骨なパンツになるんだが
pantyとかpantiesだけだと旧ザクかよってぐらい無骨なパンツになるんだが
2025/08/01(金) 01:57:45.31ID:5OFdze9q
957名無しさん@お腹いっぱい。
2025/08/01(金) 02:11:45.98ID:t/PBATkw パンチーシュットケン シュットケン シュットケン
パンチーシュットケン de まずん まずん
パンチーシュットケン de まずん まずん
2025/08/01(金) 02:30:52.59ID:sfjHSx75
micro panties
side-tie panties
lace-trimmed panties
2.2で試してないから結果はわからんが
side-tie panties
lace-trimmed panties
2.2で試してないから結果はわからんが
959名無しさん@お腹いっぱい。
2025/08/01(金) 02:31:06.06ID:ArfEIxKV 水着の女子が二人いてお互いの水着をずらしてお互いの乳を揉みながらキスをするにはどんなプロンプトが良いのでしょうか…
2025/08/01(金) 02:33:47.56ID:WUS55GzU
2025/08/01(金) 02:48:32.09ID:123BdU7b
962名無しさん@お腹いっぱい。
2025/08/01(金) 02:58:56.47ID:H6ij2/Oh 感情表現が豊かになった分、照れ笑いみたいな微妙なニュアンスがバチっとハマった時の達成感がすごい
LoRA無しでできることできないこと、得手不得手はなんとなくわかってきたな
>>959
元画像次第だけどそのままDeepLに突っ込んで出てきた英文で動きそうな気がする。
ただ要素絞らんと慌ただしかったり変な動きになるよ。
特に動きが交差するようなのは出づらい。
まぁ一回欲張りセットで動かしてみて、要素減らしながら落とし所探すのがいいんじゃいかと。
LoRA無しでできることできないこと、得手不得手はなんとなくわかってきたな
>>959
元画像次第だけどそのままDeepLに突っ込んで出てきた英文で動きそうな気がする。
ただ要素絞らんと慌ただしかったり変な動きになるよ。
特に動きが交差するようなのは出づらい。
まぁ一回欲張りセットで動かしてみて、要素減らしながら落とし所探すのがいいんじゃいかと。
963名無しさん@お腹いっぱい。
2025/08/01(金) 03:18:57.86ID:NuBzAxqB964名無しさん@お腹いっぱい。
2025/08/01(金) 03:19:46.57ID:15whFxKD もう次スレ行きそうなのかよ
2.2祭り凄いな
2.2祭り凄いな
2025/08/01(金) 04:49:27.58ID:uEtPQXt6
>>913
乳首茹で上がってんじゃん
乳首茹で上がってんじゃん
966名無しさん@お腹いっぱい。
2025/08/01(金) 05:12:01.95ID:F/AdENhm t2vはフュージョンXが最強ですかね?
2.2もクオリティは高いんだけど生成時間がキツい
2.2もクオリティは高いんだけど生成時間がキツい
967名無しさん@お腹いっぱい。
2025/08/01(金) 06:41:07.77ID:j7S55zOt EasyWan22でlora追加の設定入れたけど反映させかたがわからない。自動適用ではないよね?
968名無しさん@お腹いっぱい。
2025/08/01(金) 07:12:40.35ID:LE3sX878 たしかに勢いすげぇな
2.1導入して動画入門したばかりだからもう少ししたら2.2俺も使ってみたい
2.1導入して動画入門したばかりだからもう少ししたら2.2俺も使ってみたい
969名無しさん@お腹いっぱい。
2025/08/01(金) 08:01:53.87ID:SYAZccr5 wan2.2で実写系のmissionary-pov頑張ってるマンです。
既存のだとWan2.1のときから場合によって挿入が浅かった。Wan2.2だと扱いが難しい。
https://civitai.com/models/1331682/wan-pov-missionary
新しいmissionary-povが出たので試したら、挿入が深くなった!
https://civitai.com/models/1745090/wan-dr34m15h-multi-perspective-missionary-pov
既存のだとWan2.1のときから場合によって挿入が浅かった。Wan2.2だと扱いが難しい。
https://civitai.com/models/1331682/wan-pov-missionary
新しいmissionary-povが出たので試したら、挿入が深くなった!
https://civitai.com/models/1745090/wan-dr34m15h-multi-perspective-missionary-pov
970名無しさん@お腹いっぱい。
2025/08/01(金) 08:46:22.29ID:IahBMphl2025/08/01(金) 09:27:31.42ID:gEFvJOft
>>963
ワンオクっぽい曲作るの上手
ワンオクっぽい曲作るの上手
972名無しさん@お腹いっぱい。
2025/08/01(金) 09:28:02.87ID:j7S55zOt CMの賞とかが先だろうね
973名無しさん@お腹いっぱい。
2025/08/01(金) 09:30:45.54ID:D6lGjmTs EasyWAN22に移行するならこれまでのはモデル消しちゃっていいのかな?
500GB圧迫しててストレージがきつい
500GB圧迫しててストレージがきつい
2025/08/01(金) 09:57:24.35ID:sZ5iZ0rU
>>973
loraはもう手に入らない物や流用できる物があるから残しといた方がいいかも
loraはもう手に入らない物や流用できる物があるから残しといた方がいいかも
2025/08/01(金) 10:00:32.04ID:wTVUiFoG
そういえばcivitai普通にえちえちlora配布してるね
976名無しさん@お腹いっぱい。
2025/08/01(金) 10:06:15.25ID:Q+Tuf3c6 civitaiがcivitaiの都合でモデルの一斉粛清をする可能性はいつでもあるけど、
stabilityAIの規約変更に糞真面目に即日対応すると思ってる人は流石に物事を予測する能力低過ぎかな
stabilityAIの規約変更に糞真面目に即日対応すると思ってる人は流石に物事を予測する能力低過ぎかな
2025/08/01(金) 10:11:01.36ID:6etHPXL7
上に政策あれば下に対策あり
2025/08/01(金) 10:11:13.84ID:T8zm58Wt
EasyWANをcドライブにインストールしたのですが色々ダウンロードしたら300gb以上容量食ってビビってます
2tbのssdを買ってきてそちらにフォルダごと移行したいのですが、無理ですかね
またインストールやり直しですかね
2tbのssdを買ってきてそちらにフォルダごと移行したいのですが、無理ですかね
またインストールやり直しですかね
2025/08/01(金) 10:16:16.14ID:sZ5iZ0rU
>>978
設定ファイルにフルパスが入ってなければ大丈夫かと
設定ファイルにフルパスが入ってなければ大丈夫かと
2025/08/01(金) 10:17:34.69ID:sZ5iZ0rU
>>978
動かなかったら最低限だけ入れて一番大きいmodelフォルダだけ移植すれば大丈夫じゃないかな
動かなかったら最低限だけ入れて一番大きいmodelフォルダだけ移植すれば大丈夫じゃないかな
981名無しさん@お腹いっぱい。
2025/08/01(金) 11:07:17.10ID:MVwcMES6 >>980
次スレよろしくでごんす
次スレよろしくでごんす
2025/08/01(金) 11:30:32.65ID:ZsOm9hHC
動画生成の為にComfyUIの勉強始めたけど
とりあえずA1111と同じ品質の画像生成出来るまで覚えた。
それでメインの動画生成やるためEasywan導入したんだけどチュートリアルのノード群を見て膝から崩れ落ちたよ…
でも生成速度メッチャ速くて品質凄いね(wan2.1だけど)FPより3倍は速い。
とりあえずA1111と同じ品質の画像生成出来るまで覚えた。
それでメインの動画生成やるためEasywan導入したんだけどチュートリアルのノード群を見て膝から崩れ落ちたよ…
でも生成速度メッチャ速くて品質凄いね(wan2.1だけど)FPより3倍は速い。
983名無しさん@お腹いっぱい。
2025/08/01(金) 11:56:19.22ID:MVwcMES6 >>982
Nsfwfastはやばすぎよねw
いじらず使う分には全然困らないんだけど
2.2環境になっちゃうが勉強ならSimpleComfyUIが面倒な環境構築全部やってくれて、
kijai氏のサンプルワークフローも使えるし良かったな
Easywan22も出たばっかりだからか付属ワークフローもシンプル
まだ試してないけど2.2の画像生成めちゃいいらしいな
Nsfwfastはやばすぎよねw
いじらず使う分には全然困らないんだけど
2.2環境になっちゃうが勉強ならSimpleComfyUIが面倒な環境構築全部やってくれて、
kijai氏のサンプルワークフローも使えるし良かったな
Easywan22も出たばっかりだからか付属ワークフローもシンプル
まだ試してないけど2.2の画像生成めちゃいいらしいな
2025/08/01(金) 11:59:30.31ID:T8zm58Wt
985名無しさん@お腹いっぱい。
2025/08/01(金) 12:08:25.88ID:ArfEIxKV SSDへのダメージ考えるとCドラで動かしたくはないな。OS入ったドライブが飛んだら再構築が面倒だし
986名無しさん@お腹いっぱい。
2025/08/01(金) 12:24:58.71ID:/JSMnukT ごちゃごちゃうるせぇな
987名無しさん@お腹いっぱい。
2025/08/01(金) 12:29:12.11ID:MVwcMES6 SSDのダメージの人、何度か見かけるけど同じ人?
2TBでTBW1500、4TBで3000とかあるわけで
派手に書き込んでても10年は余裕ぐらいの計算になるでしょうが
この前換装した2TBのSSD、2年で書き込み130TBやったわ。TBW3600も使い切れん
2TBでTBW1500、4TBで3000とかあるわけで
派手に書き込んでても10年は余裕ぐらいの計算になるでしょうが
この前換装した2TBのSSD、2年で書き込み130TBやったわ。TBW3600も使い切れん
2025/08/01(金) 12:29:38.05ID:GXMg7+0A
どこに入れてようと飛ぶ時は飛ぶからこまめな一番大事なのはバックアップや
989名無しさん@お腹いっぱい。
2025/08/01(金) 12:34:41.25ID:/JSMnukT SSDくらい買えよ
990名無しさん@お腹いっぱい。
2025/08/01(金) 12:46:24.26ID:BiHbxh7V 代わりに立てて来ようか
991名無しさん@お腹いっぱい。
2025/08/01(金) 12:47:50.48ID:BiHbxh7V992名無しさん@お腹いっぱい。
2025/08/01(金) 12:55:05.57ID:D6lGjmTs RedditにあったWAN2.2のT2Iワークフローやってみたけどすごい
デフォのままだけど写真と変わらない女スーパーマンが出てきた
デフォのままだけど写真と変わらない女スーパーマンが出てきた
2025/08/01(金) 12:56:09.39ID:wTVUiFoG
>>991
乙です
乙です
2025/08/01(金) 12:56:46.80ID:5Zt1Vdcw
スレ立てありがとうー
995名無しさん@お腹いっぱい。
2025/08/01(金) 12:58:34.53ID:MVwcMES6 >>991
ありがとうね
ありがとうね
2025/08/01(金) 13:14:23.06ID:FSllffUE
997名無しさん@お腹いっぱい。
2025/08/01(金) 13:38:25.30ID:TWzADCrr WAN2.1に比べて2.2はめちゃ動くね
表現が増えた分、プロンプト制御が難しくなった感ある
loraもっと増えてほしいわね
表現が増えた分、プロンプト制御が難しくなった感ある
loraもっと増えてほしいわね
998名無しさん@お腹いっぱい。
2025/08/01(金) 13:42:25.12ID:rc6nALLK2025/08/01(金) 13:43:24.74ID:peY5Mg4d
うめ
1000名無しさん@お腹いっぱい。
2025/08/01(金) 13:55:48.03ID:dL7/F8ri 梅
10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 9日 12時間 27分 19秒
新しいスレッドを立ててください。
life time: 9日 12時間 27分 19秒
10021002
Over 1000Thread 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
レス数が1000を超えています。これ以上書き込みはできません。
ニュース
- 中国外務省「正式な発言撤回なければ受け入れず」 高市首相は台湾有事「存立危機事態」言及せずも「言及しないことと撤回は別問題」 [ぐれ★]
- 【テレビ】玉川徹「これ天災じゃなくて人災でしょ。責任どうするんだ」 日本のホテル、中国人観光客からのキャンセルが相次ぐ [冬月記者★]
- プーチン大統領「ウクライナ軍が撤退すれば戦闘は終わる」と主張 [どどん★]
- 【文春】元TOKIO・国分太一(51)「女性スタッフ2名への“わいせつ事案”」日テレ事情聴取の全貌が分かった! ★10 [Ailuropoda melanoleuca★]
- 高市総理の「そんなことよりも」発言を釈明 木原官房長官「急いで話題転換する趣旨」 [ぐれ★]
- 【中国国防省】日本は戦争犯罪を悔い改め、憲法改正と軍備増強という危険な試みをただちに改めよと発信… [BFU★]
- 【WOWOW】UEFAチャンピオンズリーグ・ヨーロッパリーグ ★15
- 巨専】 ★2
- とらせん IP
- ハム専
- 【WOWOW】UEFAチャンピオンズリーグ・ヨーロッパリーグ ★14
- こいせん 全レス転載禁止
- すまん、俺の勝ちで良いか?
- 【高市悲報】中国、世界中に是非を問うwwwwwwwwwwwwwwwwwww [308389511]
- ほぼ全ての男性医は結婚しているが女医の半分は結婚してないという事実
- ぼくニートがTOKYOに住んで思ったこと書くね【吉祥寺】
- 冬眠って冬の間ずっと寝てるってこと?
- 何故、田中はメジャーなんだ
