X



【StableDiffusion】AI動画生成スレ1

2025/04/09(水) 22:52:31.34ID:EQDamiBl
EasyWanのワークフロー(00_Kijai_I2v)が使いやすいので、
クラウド環境(Runpod/Docker)で機嫌よく使っていたのだが、今朝から動かなくなってしまった。

>WanVideoSampler
>Promotion for Float8 Types is not supported, attempted to promote Float8_e4m3fn and Float

Loraを無効にすると出なくなるのだけど、ドライバやPytorchの組み合わせの問題でしょうか。。
2025/04/10(木) 02:08:06.86ID:QhEc3hw6
自分も数時間前にEasyWanを更新(新規)したら
「Nashikone」と「NashikoneI2v720p」のLoRAを使おうとするとエラーが出るようになってしまった
フォルダ外へ移動させたのは動くからジャンクションがまずいのかね?
でも「nims1」は問題ないしなぁ
わからんちんちん
2025/04/10(木) 15:27:29.41ID:ZAwYb7it
vi2vええな
アニメ系だからか顔は変わってしまったけど動きはかなり元動画に近い
リアル系だと色々出来るのかな
2025/04/10(木) 16:40:12.25ID:mQfxKMSf
>>560
ComfyUI-WanVideoWrapperをロールバックしたら治った。
2025/04/10(木) 21:48:06.98ID:Bup7CJSX
動画で手が崩壊するのって防ぐ方法あるかな?あったら教えて下さい
2025/04/11(金) 09:33:55.01ID:zjDZPWpa
vi2vとエンドフレームワークフローを組み合わせることも一応できる
俺の環境だと完全に一致してくれないけど使えなくはない
2025/04/11(金) 12:39:09.78ID:LeeqqOvB
AI動画は二次元世界に入り込んで好きな子とちゅっちゅするという願望を叶えてくれる
567名無しさん@お腹いっぱい。
垢版 |
2025/04/11(金) 21:32:53.75ID:EA/BUlYe
vi2vちゃんとした動画作るですら難しいわ
やっぱLoRAか
568名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 11:17:36.50ID:8vEVn0e+
File "C:\EasyWan\ComfyUI\venv\lib\site-packages\triton\backends\amd\compiler.py", line 2, in <module>
from triton._C.libtriton import ir, passes, llvm, amd
ImportError: DLL load failed while importing libtriton: ダイナミック リンク ライブラリ (DLL) 初期化ルーチンの実行に失敗しました。



SageAttentionのビルド必要なくなったEasyWanでSageAttention使おうとしてもtritronのdllがないとか言われて駄目だ
569名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:19:02.77ID:8vEVn0e+

解決した
EasyWan環境とは別にpythonインストールしてる場合の問題
pythonがインストールされてる全てのフォルダをコマンドプロンプト(PowerShell)から「where python」で探し
python.exeと同じ全てのフォルダに「msvcp140.dll」「vcruntime140.dll」「vcruntime140_1.dll」の3つのdllファイルを
「c:\windows\system32」からコピーすればSageAttention使えるようになった

参考
https://github.com/woct0rdho/triton-windows?tab=readme-ov-file#test-if-it-works
570名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:23:23.81ID:8vEVn0e+
SageAttentionは、AIモデルの推論を高速化するための量子化技術を活用した注意機構です。
この技術は、特にGPU上での効率的な動作を目指して設計されており、以下のような特徴があります:

INT8量子化: 精度を保ちながら計算を軽量化し、推論速度を向上させます。
スムージング技術: アウトライア(外れ値)を平滑化することで、計算の安定性を向上。
プラグアンドプレイ: 既存のモデルに簡単に統合できる設計。
幅広いGPU対応: AmpereやHopperなどの最新GPUアーキテクチャに最適化されています。

この技術は、FlashAttentionやxformersといった他の注意機構と比較しても、速度と精度の両面で優れたパフォーマンスを発揮することが報告されています

SageAttentionはTritonを活用して実装されています。TritonはGPUプログラミングを効率化するための言語であり、SageAttentionの高速化や効率的な動作に寄与しています

Tritonは、OpenAIが開発したGPUプログラミング言語で、特に機械学習の高速な計算処理をサポートする目的で設計されています。以下のような特徴があります:

シンプルなGPUプログラミング: CUDAに代わる簡易な方法でGPUの並列計算を実行可能。
自動並列化: コードを簡潔にし、効率的な計算を実現。
動的カーネル生成: 最適な演算プランを適用する機能。
メモリ管理の最適化: 高速なデータ転送を可能に。
571名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:30:22.09ID:8vEVn0e+
1. ディフュージョン・トランスフォーマー(DIT)内部での自己注意
Wan2.1の中核部分として用いられているのが、Denoising Diffusion Transformer(DiT)です。
DiTは従来の畳み込みニューラルネットワークとは異なり、
Transformerアーキテクチャに基づいた構造となっており、自己注意(Self-Attention)層を複数積み重ねています。
この自己注意機構は、各フレーム内の局所的な空間情報だけでなく、動画全体における時系列的な依存関係も同時に学習するのに役立っています。
たとえば、フレーム間の連続性や、シーン内の細部の関連性を捉えることで、全体として一貫性のある動画を生成できるようになっています。[¹^]

2. テキスト・プロンプトとのクロスアテンション
Wan2.1は「Text-to-Video」など、テキスト入力による動画生成もサポートしています。
この場合、テキスト情報を映像生成に効果的に反映させるため、
クロスアテンション(Cross-Attention)が利用されます。
具体的には、T5エンコーダーなどのテキストエンコーダーにより抽出された意味的な特徴が、
生成プロセス内の各段階で映像情報と融合され、テキストに即したシーンや動作が形成される仕組みになっています。
2025/04/12(土) 21:32:43.62ID:8vEVn0e+
アテンション機構内で最も計算負荷が高いのは、クエリ (Q) とキー (K) の内積計算です。
この処理では、入力シーケンス内のすべてのトークンに対して、
各トークンのクエリと全トークンのキーとの内積を計算する必要があり、
その結果、生成される注意スコア行列のサイズはシーケンス長の二乗に比例します。
たとえば、シーケンス長が N の場合、計算量はおおよそ O(N²) となり、大規模なシーケンス処理ではこれが大きなボトルネックになります。


wan2.1ではアテンション(注意機構)がかなり使われるんで、アテンションで一番重いベクトルの内積計算を8bit整数に量子化して計算するSageAttention入れると精度は犠牲になるけど生成が速くなると
2025/04/13(日) 17:48:24.63ID:UJqhbz6P
そのへんのVisualStudioとの連携がうまくいってないのよくあるよね
モデル名忘れたがText2Speechの音声合成でも同じようなこと起きた記憶
2025/04/14(月) 00:50:03.70ID:Dt/Ge+Tn
そうなんだ

今度は、EasyWanで最初と最後のフレームの画像を指定する03_Kijai_I2vEnd.jsonと02_KijaiFun_I2vEnd.jsonで

RuntimeError: Sizes of tensors must match except in dimension 0. Expected size 480 but got size 464 for tensor number 1 in the list.

ってエラーが出て行き詰まり中
最初のフレームの画像だけ指定する普通のi2vは同じ画像でこのエラー出ないけど
2025/04/14(月) 07:10:02.05ID:uM+aKqRG
入力画像のサイズが合ってないんじゃないかな
2025/04/14(月) 10:58:59.03ID:UoV0bWKU
>>574

多分これじゃないかな(218から始まるツリー)
https://fate.5ch.net/test/read.cgi/liveuranus/1744454985/240
577名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 20:38:09.11ID:frRftHx+
LTX videoやってる人いる?早いの?
578名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:10:39.60ID:Dt/Ge+Tn
>>574
ありがとう
なんJにEasyWanの作者さんが常駐しててそこがEasyWan本スレだったとは
update.batかけたら修正されてた
579名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:21:32.90ID:Dt/Ge+Tn
EasyWanで長い動画

(1) 初期画像をワークフロー00_Kijai_I2vで、3秒くらいの崩れない範囲で何個も動画生成
(2) 生成した動画から良い動画を選び、さらにその動画をコマ送りして良いコマの画像を選び、そこまでの動画を切り出して出力(コマ送りと切り出しはTMPGEnc VideoMasteringとかで
(3) 選んだコマ画像を次の初期画像にして(1)へ

あまりに顔が崩れたらワークフロー02_KijaiFun_I2vEndで一番最初の画像に戻す動画を生成

最後に切り出した動画全てをffmpegとかでつなぐ

なかなか時間がかかる
2025/04/15(火) 01:13:04.67ID:vai9GtxV
動画繋げても動きの緩急が一気に変わるから違和感半端ない
2025/04/15(火) 06:20:33.57ID:YpbAcxWn
Kijai版のWanVideo Context Option使って81フレーム超え作る事も可能だけどVRAM富豪じゃないとあかんからなあ
2025/04/15(火) 11:31:26.26ID:ktG5FtZS
wanだとVRAM8GB(RAM64GB)でも161フレーム作れたけど生成3時間弱かかってガチャはとても無理だったよ
6秒だと30分くらいなのに、VRAMから溢れ出すとやっぱり急に遅くなるね
2025/04/15(火) 11:32:05.48ID:ktG5FtZS
fpsいい忘れた、16だから161は10秒っす
584名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 03:03:25.99ID:0lAZB8Qo
WAN2.1のlora作ってる人に聞いてみたいんですが
どんな学習素材と設定でやってますか?

画像生成の方と違って情報が少なすぎて…
2025/04/16(水) 08:05:10.26ID:zWaDIqPE
Wanは生成が遅いのがダメだね クオリティはあるんだけど
2025/04/16(水) 08:15:52.03ID:Q5g0CTsA
Wanは最低でもVRAM16GB, RAM96GBはないとまともに生成できないと思った方がいい
2025/04/16(水) 09:38:14.40ID:K0Ax00TT
wan14Bは1280x720の81フレームで10分ぐらい蒸留すれば6分ぐらいで生成できる
もう少し早くなればいいけど今は1.3Bでガチャして遊ぶのが好きだわ
588名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 11:57:12.22ID:h4HCsIOB
解像度高くて秒数多いとどうしても時間かかるから、もっと時短で確認だけでもする方法ないだろうか
41フレーム、81フレーム目だけでも画像で見せてくれれば、破綻没作に時間割かなくても済みそうだけど
2025/04/16(水) 12:15:45.69ID:K0Ax00TT
>>588
生成中のpreviewである程度見れる
590名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 16:34:19.82ID:J4pARLav
ComfyUIのブラウザの左上あたりにずっと「Type here to search」って検索窓みたいなの出てるんだが、これなに?
じゃまでしかないんだけど、消し方がわからん。
591名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 17:06:31.60ID:J4pARLav
>>585

数十分待って、ガチャ失敗してるの最悪
2025/04/17(木) 05:16:36.11ID:jFEcKhdJ
>>589
preview設定どこにあるの?
2025/04/17(木) 08:16:56.50ID:cV2N4eAi
Preview

settings->VHS and set "Advanced Previews" to "Always"

at the top set "Preview method" to "Auto"
594名無しさん@お腹いっぱい。
垢版 |
2025/04/17(木) 09:20:30.84ID:VGVastie
【速報】動画生成AI『Kling』が2.0にアップデート!
2025/04/17(木) 19:49:39.91ID:ndyzAyOU
動きを大きくすると外人成分が濃くなっていって誰?になっていく罠
結局、外人化抑えるため、プロンプト控えめにして動き小さくして量産しとる
2025/04/17(木) 22:04:13.51ID:mPsKqN+1
https://github.com/lllyasviel/FramePack
2025/04/18(金) 11:34:26.07ID:5m2w5oNF
FramePackってForge作者のイリヤスフィール氏の新作で、VRAM消費が少ないってことだけど
中身はHunyuanVideo。それをちょこっと作り直しただけだね・・・。
4090使っても5秒の動画に15分かかる。こんなに遅いんじゃWan2.1で十分じゃないかよ
2025/04/18(金) 15:12:20.62ID:fSFGWptC
FramePack、確かにフレーム数多い動画を省メモリで作成出来るんだけど、
動きはやっぱりHunyuannだなぁって感じで、背景とか全く動かないんだよね。。
全体的な動きはWan2.1の方が上だと感じる。
出たばっかなので今後改良されていくとは思うけど。
2025/04/18(金) 15:54:58.56ID:so4hvG+k
lllyasvielニキだからたぶん改良せずに終わると思うよw
2025/04/18(金) 17:38:58.29ID:V4n9RjWA
なーにこっからkijai氏はじめ有志も魔改造始めるだろうて
2025/04/18(金) 17:43:36.88ID:3VIZdzdk
Wan2.1と同等の生成速度じゃないとな厳しいよなぁ
2025/04/18(金) 18:43:10.34ID:ZYBaUkV8
アダルトアニメ動画のアルゴリズム第二世代
このやり方教えろよお前ら
これがあればAVを作れるんだから
2025/04/18(金) 18:45:41.85ID:q0HQPzhk
ワンクリック版が出たで
UIも超簡単や
604名無しさん@お腹いっぱい。
垢版 |
2025/04/18(金) 20:41:59.36ID:HZWmpfGS
>>597
VRAM少なくていいというのが大きい
6GBで行けるならiPhoneやiPadでもいけるはず
まあ生成時間はかかるだろうけど出来るかできないかの差は大きい
そうなるとユーザーが増えるのでLoraも増える!
色々改良する人も出てくるだろうさ
2025/04/18(金) 21:22:07.16ID:kDLyI7LJ
framepackは生成中も出来上がっていく動画眺めてられるのがええね
2025/04/18(金) 22:10:01.02ID:5k9KWNmV
framepackって終わりから始めに向かって生成される?
間違えて100秒でスタートしたら全然終わらんけど
少しずつ時間が前に向かって生成されてる気がする
5秒で生成したらmp4の時間が短いからかサイズが小さいからか
Windowsのデフォのプレイヤーだと再生できない
ブラウザに放り込むと再生できるから生成に失敗してるわけではない
2025/04/19(土) 01:33:11.29ID:2nF2NXT2
初期版はコーデック指定が特殊で再生環境を選んだけど
今は修正されたようだよ
2025/04/19(土) 01:49:38.42ID:oL1pxSEo
GPUを6GBに設定しても12GB使ってるしメモリは50GB使っとる
2025/04/19(土) 05:04:04.47ID:XXSLLha5
6GB単位で並列しとるんじゃよ
2025/04/19(土) 05:26:38.56ID:X5X5Smen
12GBあったら倍速になるってこと?
611名無しさん@お腹いっぱい。
垢版 |
2025/04/19(土) 19:50:11.86ID:gTelBzvm
VRAM6GBのHPノーパソで動いたわ
forgeと同じくらいアツアツだけどたまに触るならいい感じ
NAIで出した版権絵がそのまま踊るの怖過ぎる
これ表に出したら炎上するな
2025/04/19(土) 20:48:42.14ID:0TIlqO4S
FramePack昨日知って今試し中
ビデオメモリ6GBのサブ機で一応動いてるけど、メインメモリ32GBしかないからどうなることやら
2025/04/19(土) 21:31:24.79ID:oL1pxSEo
3060だが12GB選択したほうが早く生成される

タスクみると6GBでも12
GBでもGPUほぼ100%使ってるのが謎
2025/04/19(土) 22:32:44.57ID:0TIlqO4S
5秒のはずがなぜか4秒で終わってしまった
1時間以上かかったw
615名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 01:09:53.91ID:6D4KjzYM
>>597
4090環境で5秒動画作るのに3時間半かかったんだけど。入力画像1080×1920が良くなかったのだろうか。
2025/04/20(日) 10:58:24.96ID:BhB7DgiL
でかい画像入れても結局リサイズされるから関係ないと思う
2025/04/20(日) 15:30:00.80ID:yZwN+9T+
FramePackなんで流行ってるのかよくわからない
破綻少なくても動きの制御出来ないし動きがスローになるし背景の時間は止まってることが多い
618名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:48:35.65ID:h70gme1e
comfyみたいに初見で「うえっ」となりにくいwebUIだからとっつきやすいんでしょ
619名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:51:33.78ID:iUCULtja
新しもの好きが触ってるだけだよ
エロできるようになってからが本番
2025/04/20(日) 18:01:52.78ID:MzBv5fTa
>>619
みんな試してるだろうけどアダルト規制ないよ。ローカルで使える動画生成としては一番手軽でエロ利用可能
2025/04/20(日) 18:29:51.68ID:InosU5ej
エロプロンプトへの追従性が低いって事じゃねえかな
622名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 18:39:14.68ID:Gpya3ZYf
エロ系の動きがスポイルされてるんじゃね感
初期のSDXLみたいにすっぽ抜けてる
2025/04/20(日) 20:17:06.00ID:qGhrWgJX
civitaiにあったWan2.1用の女の服を脱がせる系Loraが軒並み消されてるな
624名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:35:50.67ID:6D4KjzYM
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
625名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:39:54.92ID:6D4KjzYM
ComfyUIでWan2.1動かしてたんだけど
GGUF版だとプロンプトに全然従わないのかな?
ただGGUFでもi2vで5秒出すのに20分近くかかる。
もうちょっと高速化されないとガチャ回す気にもならない。
626名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:13:05.86ID:2nr+78fQ
ワテのスペックやとwan2.1はきつい、ram増やしてeasywanで何とかやってる。
627名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:55:26.67ID:c7OcIU8u
>>625
わかる
628名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:57:15.90ID:c7OcIU8u
動画生成ってこんな時間かかるんだな
動画をローカルで自由自在に生成できる未来は遠そうだね
2025/04/21(月) 03:45:39.73ID:wwgEZgNC
vi2vならガチャせんでもいいと思ったけど
アニメのエロモーション動画がそもそも少ない
現実のAVならいっぱいあるけど
630名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:00:49.99ID:tT9VOlNi
動画生成のプロンプトwikiってないのかな
NAI 5ch wikiみたいなさ
631名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:30:54.04ID:eYnD80my
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
632名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:37:31.23ID:gLySYCrG
>>628
SDも当初から比べれば生成速度はだいぶ早くなったから
そのうち早くはなるだろうけど
5090とか4090で1〜2分で5秒動画が出せるくらいにならないと厳しいな
2025/04/21(月) 15:22:45.35ID:9D5Crj+6
背景固定じゃなくて逆に背景のピンボケの小さな人物が歩いて、主人公がほぼ固定になった
2025/04/21(月) 15:37:26.21ID:9D5Crj+6
クソ時間かかるけどガチャしないから静止画1枚より時間かからないとも言える
2025/04/21(月) 16:00:02.52ID:XZlvQMxQ
背景水面だとプロンプト書かなくても割と自然に揺らめいてくれるし
露骨なモーションは無理でも体くねらせて角度が変わっても
(何がとは言わないが)綺麗に破綻なく描写してくれるので
昔生成した健康的な温泉プロモ画像を次々と温泉ダンス動画にしてるわ

手作りラーメンの様に自由な味には作れないけど
気軽に狭いキッチン(VRAM)でも作れるカップ麺的な価値はあるかな
2025/04/21(月) 16:03:43.50ID:9D5Crj+6
プロパティにもビデオプレーヤにも4秒って表示されるからおかしいなあと思ってたけど、ストップウォッチで測ったらちゃんと5秒あったw
637名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 16:22:16.02ID:kf2iGxFE
FramePackって、ファイルを入力するときにオフラインだとエラーになるんだが
これ解消法ない?
2025/04/21(月) 17:37:46.32ID:cXLJ1ads
1秒の動画を作るのに300秒かかっている これだとちょっと厳しい
2025/04/21(月) 17:43:58.78ID:ElsAcF4j
wan1.3bなら97fで3分ぐらいだな
2025/04/21(月) 18:20:36.98ID:d1OJNV8L
svdがまともに使えるようになる日はいつ来るのか
641名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:04:43.99ID:WVHVKGJ7
FramePackってフレームレートの設定は出来ないのか
1秒辺り10コマあれば良い
642名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:37:11.40ID:kf2iGxFE
FramePack、RAMはめっちゃ使うのにVRAM全然使ってくれないのはなんで?
16GB VRAMなのに6GB程度しか使わないんだが
2025/04/21(月) 22:14:55.93ID:w5SwUVXr
FramePack導入して試してみた

うちだとメインメモリ64GBとVRAM16GBどっちもほぼフルで使うな
生成終了後に、メインメモリは解放されないけどVRAMは解放される挙動が気になる
2025/04/21(月) 22:38:01.21ID:PsceRiNk
動きがスローモーションぽいのどうにかならんかな
キビキビ動いてほしい
2025/04/22(火) 08:17:50.57ID:hdioz1Im
>>644
動画編集アプリで再生速度速くして動画再作成すればいい
2025/04/22(火) 08:21:18.05ID:BlOaMonv
>>625
VRAM減らす量子化GGUFは通常版より遅くなる
まぁそのうち高速版が出てくるのでは?
Hunyuanの6steps Fastモデル + TCacheが速い 動きの精度はWanに負けるけど
647名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:00:06.96ID:F2ip0g3w
>>646
GGUFの方が遅くなるのか
TCache使うと変なノイズが生まれるからそこに悩まされている
648名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:43:05.72ID:kOVg4QMl
ステップ数減らす、TCache、GGUF
どれを犠牲にするのがクオリティと速度の影響コスパがいいのかいまいちわからん…

感覚的なものでいいので皆様感想教えてくだせぇ

自分はステップ30までは優先してあげるのがいい気がする…
感覚的なものでたまたまガチャ当たった成功体験イメージかもしれんが
2025/04/22(火) 11:20:37.48ID:P+gHN7s/
グフ
2025/04/23(水) 13:01:18.94ID:cHADN1Vl
FramePack使ってみたけど、
ダンスはまあいいかな。適当な入力画像でもちゃんと踊ってくれる。前側しかない画像でも背中ちゃんと想像で書いてくれる

で、ダンス動画が出来たから何?って問題が
プロンプトに色んな動作入力しまくってるけどまともにアクションしねぇ・・・
2025/04/23(水) 13:57:00.13ID:mS137RmW
FramePack日本以外じゃ流行ってないし…
外人に滑らかに動くゴミだって言われてて笑った
652名無しさん@お腹いっぱい。
垢版 |
2025/04/23(水) 14:56:10.60ID:mFoZwJjD
wan2.1のほうがいいからね
2025/04/23(水) 16:17:06.18ID:s+bjE77v
FramePackの滑らかさと破綻しにくさでWan2.1並に動かないとローカル動画は先に進まないとは思うけど
人によるけど現状動いてくれた方が良いからwan2.1の圧勝だよな
2025/04/23(水) 16:48:07.59ID:cHADN1Vl
破綻やちらつきの少なさは武器だと思うけどねぇ

画像:好きなエロ画像
プロンプト:They shake their bories.
で及第点の動画は生成できそう。プロンプト頑張っても成果は得られなかった・・・
2025/04/23(水) 22:43:27.90ID:rl46ym8l
>>651
ああやっぱそうなのか
張り切ってダウンロードしたけど全然だめでなにこれってなったわ
たぶんキーフレームとか全部細かく設定してやればいいのかもだけど
それはちょっとめんどすぎるだろっていう
EasyWanvideoなんだけど該当ファイルがどれなのかわからんので消せねえ・・・・・・
2025/04/24(木) 00:13:07.29ID:J6Ur1wr/
wan ユッサ、ユッサ。FP ポヨン、ポヨン。
2025/04/24(木) 10:07:59.31ID:NZp0SxQi
>>655
>たぶんキーフレームとか全部細かく設定してやれば

そんなん設定するところ無いだろ
2025/04/24(木) 10:39:08.12ID:CGEdAwuM
とか言ってる間にFramepack-eichiとか出てきたな

まだ入れたばかりでキーフレームは試してないけど
最終フレーム指定だけでも
たくし上げやポロリやクパァは簡単にできそうね
2025/04/24(木) 10:46:47.10ID:NzRqWTiT
叡智版はイリヤ神版から「低VRAM動作」と「簡単操作」の神要素を排除してただのHunyuan Videoに戻しただけ感
2025/04/24(木) 11:55:46.47ID:NvB+bnas
多くの人が試してみたくなるような話題になった先端機能をいち早く実装してくれてる開発者に対して
よくもまぁそんなネガティブな言葉を発せられるもんだね

自分のニーズに合わないのなら使わなきゃ良いだけなのは何もこの事に限った話じゃないだろう
2025/04/24(木) 12:20:47.16ID:LJxxne0t
Grokとか一番信用出来ない
おすすめポストに興味がない何度クリックしても何度も再表示される 
2025/04/24(木) 12:36:11.76ID:q3FY7r1c
wan初めたばかりで楽しい
2025/04/25(金) 09:05:25.48ID:22UYVesT
FramePackの欠点はずっと1stフレームを参照するせいで背景の通行人が
ずっと同じ位置で足踏みしたりして、そういうのが破綻してる
ドライブ映像だと背景が固定されたりするし
せいぜいアニメのループモーションに役立つ程度だねぇ
664名無しさん@お腹いっぱい。
垢版 |
2025/04/25(金) 17:02:26.19ID:ypM27SIZ
質問する場所がここで合っているか分かりませんが質問させていただきます。ComfyUIでWAN2.1を動かそうと思っているのですが、この表示が何度も出てしまいうまくいかないです。GPTに聞いているのですが堂々巡りでずっと同じ対処を繰り返していて、解決に至りません。どなたかご尽力いただけると幸いです。
https://i.imgur.com/ERZrDyx.png
https://i.imgur.com/E4Sb58N.png
https://i.imgur.com/hvSsbId.png
2025/04/25(金) 17:35:11.79ID:GKNtftcN
そのままの意味だろ
ノードが無い
ウインドウ右下にインスコマネージャーのボタンが有るだろ
2025/04/25(金) 17:47:36.00ID:lbk6St06
なんとなくノードがないというのを理解してなさそう
そこからなのか…(困惑
2025/04/25(金) 17:58:34.38ID:UzTtLmHz
まずは足りてないカスタムノードをインストールするんだ。
そういや、今のcomfyuiってミッシングは自動的にダウンロードするようになってなかったっけか?
モデルだけだったかな?
2025/04/25(金) 19:20:30.90ID:v92A8Zqv
英語が出来る必要は無いが
この程度の英文をgoogle翻訳にすらかけられないものだろうか
それじゃプロンプトすら書けないだろうに
2025/04/25(金) 22:29:29.79ID:R+zLUgS8
やっと4090環境が出来た
4080の悲鳴から解放された
2025/04/26(土) 02:14:35.84ID:/KVOMXQC
調べるのは出来ないけど丁寧な質問はできる人間と顔も知らない相手に嫌味を言うしかしない暇な人間と
2025/04/26(土) 02:30:28.50ID:zftaZOkM
恋しさと切なさと心強さと
2025/04/26(土) 04:04:10.51ID:pjg5dH3o
>>670
ちょっと調べれば分かる事を調べもしないで聞く他力本願
そういうのは丁寧とは言わず狡猾と言うんだよ
公への質問とは何度も調べて試して駄目だったから助けを求める者がする事
2025/04/26(土) 06:51:39.65ID:bszvPwgq
FramePack-eichi が面白そう 詳しくはNote.comの記事参照
複数のキーフレームを用意することで狙い通りに動くようだ
2025/04/26(土) 07:21:40.24ID:i5ZFqL3D
>>673
試してみた?
自分は複数キーフレーム用意する時点で挫折しているんだが
675名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 09:51:16.57ID:hQnGwCGG
叡智でlora適用でやってもサンプル1秒から増えないんだが。時間かかるのか
676名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 11:11:26.75ID:+bUq4Vdw
ああカスメとかコイカツとかLive2Dない人はi2iの構図元すぐでねぇのか
2025/04/26(土) 14:30:56.93ID:jMHnySbo
久々に来たらレベルが低いのが混じってんな
2025/04/26(土) 15:00:46.09ID:vi4g1wkF
よう昨日ぶり
2025/04/26(土) 15:21:22.82ID:3a9LxDdL
数日前に出たWan2.1用の脱衣系Loraがまた消えてるな
規制が厳しくなったのかと思ったけどHunyuanの脱衣系Loraは普通に残ってるんだよな・・・
680名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 16:08:41.06ID:0sW0ypg8
FramePack-eichi
早速環境構築して5秒動画生成中
i7-16gb Rtx4060ti16gb
メインメモリパンパン
gpuメモリ余裕(12gb消費)
1時間でやっと8%進んだよ
2025/04/26(土) 16:50:58.70ID:cogARbrv
16GBて
よくOOMにならんな
2025/04/26(土) 17:03:27.70ID:3a9LxDdL
>>680
RTX3080(12GB)でも6秒生成に12分だぞ

>>681
いやVRAM16GBあったらFramePackでOOMになりようが無いだろw
683名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 17:09:22.53ID:+bUq4Vdw
>>680
SSDすごい勢いで削ってるヤーツ
2025/04/26(土) 18:24:32.52ID:qGqLJFlQ
メモリ64GBでも足りねーって言われている動画生成で16GBでチャレンジするのはかなりきつくね?
685名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 18:38:45.00ID:0sW0ypg8
あーメモリ増やさんとダメか
32gbがマザボの上限なんだよなあ
2025/04/26(土) 18:39:19.06ID:8sUaWkGr
オンラインの動画生成AIの進歩がすごすぎて
2世代くらい遅れてるローカル環境の動画生成AIでは満足できない
2025/04/26(土) 18:43:25.63ID:gvPZDAGq
スマソ動画初心者なんだがメインメモリの容量とか仕様が関係するの?
2025/04/26(土) 19:11:46.88ID:Lrx1oh61
>>686
エロ出来るだけでだいぶ満足出来るわ、その領域はサブスクサービスだと不可能だから
2025/04/26(土) 19:29:35.27ID:IgI4NaRs
>>687
動画生成ではメインメモリは関係大アリ

時々勘違いしている人がいるんだけど、FramePackがVRAM6GBで動くというのはVRAMだけの話であって
メインメモリはたくさんいるのよ

FramePack(本家、kijai両方)やHunyuanVideoやWanのkijai版ワークフローの場合、モデルは基本的に
メインメモリに展開される。モデルの一部をVRAMに載せられる範囲で載せ、載せられない部分は
メインメモリに載せて動画生成処理を行う

HunyuanVideoだと、プロンプトを処理するllava_llama3がFP16で16.1GB、動画を生成するモデル本体が
BF16で25.6GBもあるし、FP8モデルでもllava_llama3が9.09GBで、本体が13.2GBだから、本体はGeforce
3060 12GBの場合どうやっても全部は載せられない

モデルは他にVAEが必要だし、I2Vや開始終了画像指定の場合画像を処理するVLMがさらに必要になる
全部でFP8でも25GBぐらい、FP16では50GB近くあり、VRAMに入らない部分はメインメモリに展開しないと
いけない

だからメインメモリが32GBでも厳しいという話になるわけ

ComfyUI Native版HunyuanVideoやWanワークフローの場合もそのままでは同じだけど、GGUF形式で量子化
(圧縮)したモデルを使うよう修正したワークフローが存在する

GGUFの場合、llava_llama3がQ4_K_Mで4.92GB、本体がQ4_K_Mで7.88GBだから、直接VRAMにllava_llama3を
載せ、プロンプト処理後にllava_llama3をアンロードし、本体をVRAMにロードして動画生成するならVRAMに
全部収まり、メインメモリは使わずに済む(実際は両方メインメモリにも展開されていると思うが)

GGUFはモデルを小さくした分精度が下がるので、生成される動画の品質は下がってしまうけどね

なお、現状FramePackはGGUFに未対応でつ
2025/04/26(土) 20:58:05.84ID:gvPZDAGq
>>689
言ってる事の半分も理解できないけど、動画ではメインメモリの容量が大事なのは伝わった。当然速度も早い方がいいのだろうけどまずは容量なんだね。
半分くらいは理解できたのでありがとう
現状32GB 3060VRAM12GB
128GBは現実的じゃないけど64GBにするのはかなり前向きに考えてる
グラボは5080買うんでそれを機にウpしてみる
ありがとう そしてよろしこ^^
2025/04/26(土) 21:02:22.66ID:3a9LxDdL
>i7-16gb Rtx4060ti16gb
>メインメモリパンパン

こう書いてあるからCPUはi7-16gbでグラボはRTX4060ti(VRAM16GB)
メモリは何故か伏せられているけど「パンパン」と表記してるから
恐らく最大値積載とエスパーして128GBか256GBと仮定してレスしてたわw
いやまさかRAM16GBとは思わんやろ・・・
2025/04/26(土) 21:08:02.41ID:3a9LxDdL
>>690
マジレスすると現実的に考えてメモリは128GB積んでおいた方がいいぞ
俺がいま128GB積んでるけどFramePackが半分の64GBくらい占有してる
他のAI生成でもメモリ積載量は大正義だからよほどの理由が無い限りはマジで128GB積んだ方がいい
2025/04/26(土) 21:17:48.76ID:gvPZDAGq
ってことは動画メインに考えるならグラボよりメモリに金使えって事かいのう?
2025/04/26(土) 21:21:04.59ID:gvPZDAGq
ろろろろ六万!
2025/04/26(土) 21:25:37.00ID:3a9LxDdL
両方やな・・・
これは金のかかる遊びなんや・・・
俺はいまRTX3080(VRAM12GB)だけどグラボを新調する余裕は無いからメモリだけでも爆盛りしとこうと思って128GBにしたけどWan2.1でもFramePackでも効果絶大で快適に生成出来るようになったよ
何より生成中にPCで他の事を出来るのがでかい
696名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 21:50:58.82ID:0sW0ypg8
皆さんのレスで64gb乗せることにしました最後でエラーになって動画が出来なかった
2025/04/26(土) 21:51:06.88ID:38uRJaID
メインメモリは多いほどいいぞ
ComfyUIだと「multigpu」のノード使えばVRAMの一部をメインメモリ(勿論他のVRAMにも)に
退避できるようになるので今まで動かなかったモデルも動けるような設定が可能になる
大抵のモデルロード(clipやVAE含め)のノードのmultigpuノードがサポートされてるから、
メモリ多い人は試してみるべし
メモリは64GBだと微妙に足りない場面が多くて、96GB(48GBの2枚挿し)か、
128GB(32GBの4枚挿し)を狙うといい
2025/04/26(土) 21:58:44.12ID:gvPZDAGq
>>695
他事できるのはいいね。これは完全同意だわ
えー128GBかーえ~
2025/04/26(土) 21:59:50.38ID:BUmSqVEk
メモリ4枚挿しとか遅くなんね?
2025/04/26(土) 22:01:17.77ID:DlGtSxre
ぶっちゃけローカルでやるメリットってエロ以外なくね?
2025/04/26(土) 22:09:42.46ID:Jx+zcO/R
それ以外に何が必要なんだよ
サイトによっては
本数制限や順番待ちが発生する
2025/04/26(土) 22:11:17.66ID:nRkxe4OL
外部サイトで有料や回数制限がある中で
微妙なのとかクリーチャー出たらノーカンに出来るの?
703名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:23:55.82ID:l0TmBsd+
健全なイラスト生成利用だっていちいちクラウドに金払ってトライアンドエラーやってられんだろ
2025/04/26(土) 22:36:05.90ID:Lrx1oh61
4枚差し96GBだけどDDR4だから別に大差ないな
問題が出るのってDDR5の話って聞くし
2025/04/26(土) 22:38:55.13ID:3a9LxDdL
うちもDDR4の32GBx4で128GBだけど別にパフォーマンス落ちたりしてないな
精神衛生上memtest86回した時は18時間くらい掛かってしんどかったが・・・
706名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:48:02.50ID:BBwJpqK7
128GBは18時間かかるのか
memtestは2、3周してエラーなくても4周目でエラー起きるとかあるから1周だとまだ不安が残る
1周するのに18時間かかるとなると2,3日かけっぱとかの方が安心できるな
でも流石にメインのPC2、3日使えないのはキツイ
ただメモリがダメだと最悪ファイルのコピーでファイルが壊れていくからなー
2025/04/26(土) 22:50:53.58ID:3a9LxDdL
>>706
いや1周というか4パス完走するのに18時間や
2025/04/27(日) 04:01:03.92ID:1cLFBwpR
動画やってないけどDDR5 192GB積んでるわ。
本来はメモリ速度が落ちるけど、メモリオーバークロックして通常の速度にしてる。
2025/04/27(日) 10:10:27.21ID:3mQR4J30
1年くらい前の動画生成AIは開始イメージくらいしか指定できなかったし、プロンプトの認識も頭悪くてからまともな動画できるまでかなりかかったけど
最新の動画生成AIは開始終了フレーム指定でプロンプトも画像内の複数の人物の判定が正確になってほぼ思った通りの動画が一発で出来るようになったよ
710名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:43:51.74ID:ghdrQXbq
ASCll×AIの記事でFramePackのwebUI版導入したんだけどパソコンの電源を起動
し直すたびに使えなくなるんだけどどうやってまたwebUI使えるのかわかる人いますか?
711名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:48:47.34ID:ghdrQXbq
すみません
自己解決しました
またrun.butのファイルを起動したらいけました
2025/04/27(日) 15:12:33.55ID:OQ2j+/Vw
低スペックなPCでもWEBサービスはコーヒー1杯の値段で高速生成してくれる
どっちをとるかやな
713名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 15:27:03.76ID:t/XDPTn1
ここの人たちって叡智なのが主目的なんじゃないのん?
ならWEBサービスって最初から論外になんない?
2025/04/27(日) 15:52:45.76ID:3Tlc6hAy
どうせ非エロとか、仕事とか商用目的視野にしてない人だとちょっと触って飽きて終わる未来しか見えない
2025/04/27(日) 15:54:57.51ID:cLSIkbx6
個人的には服着ててもフェ●チオジェスチャーみたいなのを
口開けて叡智に動かしてくれるだけで満足できる自信があるけど
オンボードで動画生成できるスペックがそもそもない
2025/04/27(日) 15:56:12.95ID:OQ2j+/Vw
>>713
タイトルの【】内はWebUIなんやでって何でまたこういうレベルの説明せなアカンねん
2025/04/27(日) 16:23:33.59ID:5yYx6aiA
>>713
サイト専用の可愛いモデルが有るから
組み合わせて作ってLoRAの素材にするんだよ
2025/04/27(日) 16:56:50.33ID:yFUcxuIr
まだ環境構築してないのにソフマップのDDR5 128GBキット48000円が最安で買うか迷ってる
719名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 20:03:34.63ID:ldkL6x4a
680です
メモリ64GB(16GB×4枚、総額1万2千円くらい)にしたら速い速い
5秒動画が10分かからないくらいになった
ピーク50GBくらい使うのな
2025/04/27(日) 21:11:17.14ID:vxnA/8mb
諦めたら試合終了なんです
如何にオンラインの検閲を誤魔化して
叡智な画像を作るか
検閲に引っかからない絵で如何に妄想するか
むしろ露骨な丸出しってキモくない?
2025/04/28(月) 02:41:05.48ID:bRzbyCI2
全然
モザイクで興奮するなんて言うやつも理解不能
2025/04/28(月) 08:53:04.32ID:5dwf2ez+
というかモザイクって欧米ではやってないよ
日本がガラパゴスなだけ
2025/04/28(月) 09:11:47.57ID:uKyu3YAl
でも欧米人ってアニメで湯気越しのおっぱいが出ただけで凄い反応するんだぜ?
2025/04/28(月) 15:06:04.77ID:9VYZZOuS
全裸だったらもっとすごい反応します
2025/04/28(月) 15:25:47.86ID:hCWJASNP
それは全年齢版にエロを混ぜんなっていう別の話
日本でも任天堂のプラットフォームは厳しいだろ
2025/04/28(月) 15:28:32.23ID:QDrx49td
俺からしたらエロいのキモいとかいう感性がもうキモいわ
女ならともかく男が言ってたら脳の深刻な病気を疑う
2025/04/28(月) 15:54:54.84ID:CJm5VNQd
任天堂Switchのエロゲコーナー
https://i.imgur.com/RSVO2qS.jpeg
2025/04/28(月) 15:56:50.02ID:HsU82IVa
>>725
PG12とかを見てオッサンが口をあんぐり開けていたりする方が異様だ
2025/04/28(月) 15:59:08.50ID:ABEYSPy7
だってプロンプトにgirlだけ入れてもまんこ描画する素敵なモデルばかりだしなぁ
2025/04/28(月) 16:11:58.25ID:5dwf2ez+
>>725
任天堂プラットフォームはめちゃくちゃ緩いんだけど
ソニーの方がポリコレ配慮でエロに厳しい
分かりやすい例がLoveR

ちなみに肌が見えるだけでエロ判定する人もいるけど
そこまで言うなら厳格なイスラム原理主義の国に移住した方がいいと思うよ
女性の肌見せるのはNGだし、女性のポスターも恐らく禁止
2025/04/28(月) 17:21:25.23ID:76KT1+x7
ソニーはポリゴンの繋ぎ目が件股間に見えてただけで意図を問われるからなぁ
732名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:30:39.17ID:W9imuHi9
>>719
Win10pro64bit、corei5、CPU16GB(DDR3、8GB×2)、RTX3060(12GB)で5秒動画に5時間以上かかるから、これ見てメモリ増設しようとしたらスロット埋ってて増設不可だったm(__)m
2025/04/28(月) 17:40:37.94ID:zot09Eo5
メモリそれでやろうとするならストレージの寿命爆速で縮みそうで怖すぎる、PC壊れる
32×32の64GBか48×48の96GBで2枚差しにするか、マザボ変えるか、分からなければ素直に買い替えの3択やな
おすすめは96GB以上
2025/04/28(月) 17:42:09.36ID:zot09Eo5
てかDDR3じゃねーか
流石に買い替えた方が良さそう…
735名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:57:52.31ID:g/kaiV7C
AIいじる土俵にすら上がってないのでは。
学生とかでも少しバイトして金ためりゃすぐ買えるだろ
あれこれ動作環境で頭悩ませながら延々と四苦八苦するより、さっさと金用意してPC更新した方がいいと気づこうぜ
736名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:00:07.48ID:SeIRlYU8
>>727
こういうのは昔vitaやpspが担ってたけど、携帯機がこれしかなくなってからswichに変わったよね
737名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:13:11.42ID:W9imuHi9
>>734
>>735
やっぱそうなのね、静止画(sd1.5)では
それなりに動いてたんだけど、動画は流石にきびしいかぁ
どうもです
2025/04/28(月) 18:28:20.33ID:0OALh26X
未だにDDR3のマザー使ってる事に驚いた
2025/04/28(月) 18:40:05.14ID:zot09Eo5
使ってるというか昔完成済みのローミドル帯ゲーミングPC(2枚までならノートか?)買ってそのままなのでは?って感じがする
DDR3ならストレージも今主流のSSDではなくHDDの可能性すらあるかもしれない()
740名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 22:05:23.15ID:B6yi49pz
プロンプトは画像より難しい
例のThe girl dances gracefullyしかまともに動かない
オススメのプロンプトある?
2025/04/28(月) 22:25:03.91ID:kZkFSo1f
VRAM32GBか...いいな
金は有るのだがノートしか置けない環境だからなぁ
742名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 11:03:13.15ID:DPSmX0UA
3090から5090で同じ環境での生成速度差
5090の在庫が普通に並ぶようになってきたので参考までに

size:720*720
Steps:30
Frames:120
Model:720p-Q8
高速化:Sage Attention,tea cache

[生成時間]
3090→2100秒前後
5090→400秒前後
2025/04/29(火) 11:18:11.69ID:fM1wwv/j
スペックの話ばっかりやな
PCなくてもVastaiとかでも作れる時代なのに
2025/04/29(火) 11:23:08.86ID:JlJByp63
4060ti16GBと5060ti16GBの比較が欲しいんだよな…
745名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 14:10:14.07ID:BatT8ZjD
>>744
https://nunogameblog.jp/rtx5060ti/#index_id16
2025/04/29(火) 15:34:32.85ID:YIbL4j9i
参考にならなくて笑った
まぁ、ちゃんと設定しないとダメだよという事の証明なのかもしれないが
2025/04/29(火) 17:51:39.43ID:gBWwMdNG
>>742
これ3090のほうはVRAMが漏れてるとかいうオチじゃなくて純粋にこんな速くなるのか?
貧民だけどちょっと検討したくなった
2025/04/29(火) 19:19:01.39ID:2pwPeiRJ
>>742
3090って思ったよりも遅いんだな。。
4090で大体600sくらいなので、
これだと5090に乗り換えなくてもいいかな

中国では48GB搭載の4090が出回っているらしい。
どうやったら入手できるのかな
2025/04/29(火) 19:53:39.77ID:7mi3FKSb
>>748
魔改造4090の入手手段なんてアリエク見張ってるくらいじゃね?
750名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 20:22:29.22ID:tXpYH5ti
円高気味なんで
i9 RAM128GB Rtx5090
が50万くらいで買えるようにならんかな
今80万はかかる
2025/04/30(水) 03:48:29.83ID:FvOdVPJF
中国のなんて殆どが詐欺だろ
80TBのSSDとかさ
2025/04/30(水) 08:00:32.95ID:seQabHYQ
初心者なりに簡単な報告
RTX3060 12GBからRTX5060ti 16GBへ換装
easywan、Kijai_I2v、480×320、10step
各種高速化オプション使用で5秒動画の生成が6分から2分半に短縮された
2025/04/30(水) 09:39:38.48ID:OLoMC+lh
すごくありそうな換装やからみんなの参考になるわね
2025/04/30(水) 09:41:58.45ID:+00Mx9Sv
>>751
あれに騙されて買う人が普通にいるのが恐ろしい
義務教育レベルでそのへんの情報基礎教育は必要だと感じる
2025/04/30(水) 09:58:01.76ID:nvWkOAvG
遂に5090 32Gが普通に買えるようになってきたね
A4000から積み替えるかぁと思ってもやっぱ60万だと動画生成の差がわかんないと怖くて買えないね
2025/04/30(水) 14:26:26.51ID:Q4+AAnuu
framepackから動画生成を始めたんだけどもう一つの話題になってるWanは元画像そのままで動画に出来るの?以前に試したAnimatediffは元画像と別物の動画になってたから。
2025/04/30(水) 14:36:32.43ID:S4wDX7Dq
出来るよ
758名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 15:15:51.48ID:uansnY30
>>747
3090はかなり設定詰めてたからVRAMは溢れてない
VRAM下げたくないから3090→5090乗り換え勢は結構多いと思う

>>748
生成時間がかかってるのは
720*720、Step30、120Frame(7.5秒)、だからかと
どれぐらい速度上がるかは同じ条件で出力して比較してみるといいよ

あとeasyWan、というかKijai Workflowは初期Stepが10とかじゃなかったか
実写系だとノイズ感強いというかサンプリングが合っていない感が強くて使ってないので比較できない
2025/04/30(水) 15:19:16.41ID:L7SQ1fHD
>>756
異空間からチンポが出て来て入れちゃうぞ
腕を下げているポーズなのに腋見せしたりしてAIすげーと思うわ
2025/04/30(水) 17:46:15.89ID:Q4+AAnuu
>>757
>>759
ありがとう、正直ガチエロでFramePackは限界を感じたから連休でWanの勉強頑張るわ。
2025/04/30(水) 18:04:04.47ID:Jw+BBSMB
FramePackEichiのLoraが「要VRAM16GB」と書いてあるけど
DDR4-128GBにRTX3080(VRAM12GB)で5秒の動画が生成出来たので報告
ただし生成中はメモリ128GBをほぼほぼフルで使ってる模様・・・
ちょっとビビるけどこの為にメモリ爆盛りにしたんだから活用しないとな
VRAM12GBしか無いけどFramePackでLoraも使いたいって人はメモリ128GBでカバー出来るぞ
2025/04/30(水) 18:07:12.15ID:S4wDX7Dq
破綻しにくさと一貫性があるのは分かったからwan並に動きがキビキビするようになってからまた起こしてくれ
2025/04/30(水) 18:08:30.72ID:hTfOcJag
>>761
4070tiと32GBでも動いたな・・・生成開始直後にSSDの負荷が爆上がりしたからもうやりたくないけど
そして生成物にはLORAの効果が全然出てなかったという悲しみ
2025/04/30(水) 18:57:20.77ID:OLoMC+lh
っていうかFramePackでて大騒ぎになっとる理由がようわからんねんな
EasyWanVideoの段階で画期的やしエロでは以前トップやろ
2025/04/30(水) 19:00:11.07ID:aKo9Jb0Y
FramePackは軽いからって理由で話題になってるから容量十分な奴はwanの14Bでええやろ
2025/04/30(水) 19:00:30.64ID:Nk4nd6Kg
>>763
そりゃVRAM→メモリ→ストレージ(一時ファイル)の順で足りないと負荷がかかっていくからな
一時ファイル専用のSSDを用意してそいつに負荷を押し付けてやればいいよ
2025/04/30(水) 19:10:13.03ID:hTfOcJag
>>766
さすがに100%近くまでアクティブ率があがって、これはやばい!と思った
FramePack用に学習し直されたLORAを使って全く効果なかったから暫くは良いかな
LORAを使ったりしなければ、SSDに負荷かからないし
768名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 19:12:10.25ID:IZEuXNP1
>>764
comfyUIじゃないって時点でかなーりハードル下がるんだよ
あのスパゲッティ見るとムリムリムリムリってなる人多い
2025/04/30(水) 19:20:14.75ID:OLoMC+lh
もったいねえなあ
2025/04/30(水) 19:23:21.04ID:2y/lcK4+
FramePack入れようとしたけどbatでダウソ始まらないで何かキーを...になるから止めた
Comfy+Wanでいいや
2025/04/30(水) 19:23:45.39ID:Z9wN683h
完全に慣れの問題で、別に難しいことはないと思うんだよなあ。ComfyUI。
サンプルワークフローも豊富だし、自分の好きなようにノード配置出来るし。
2025/04/30(水) 19:44:27.98ID:2y/lcK4+
Comfyは一瞬で環境が変えられるから
flux他で元絵を作って直ぐにwanへ切り替えるとか出来るし
今何を処理しているのかが分かって楽しいわね
773名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:03:05.02ID:eTyI/HHr
FramePackは世間的にはエロがではなく
破綻が少ない動画が作りやすく
有料サービスより長時間対応すげーってことかと
2025/04/30(水) 20:07:59.35ID:IeMqLMyR
最近のComfyは変化が大きくてなんか微妙に操作が変わったりするし
古いCustom Nodeがどんどん使えなくなっていくし
775名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:19:36.23ID:BWmowv5f
framepackはmacでも使えるようになったのな
時間かかるとはいえMacBookAir(ユニファイドメモリ24GB)で作れるってのは大きいな
2025/04/30(水) 20:20:00.55ID:/ZHbIOSE
初心者はpinokioでやるのがオススメだよ
2025/04/30(水) 20:39:06.77ID:Jw+BBSMB
画像生成ならともかく動画生成だと現状のComfyUIは
自分でノード書き換えとか出来るスキル持ってないと無理ゲーになりつつあるよな
俺はStabilityMatrixのComfyUIにZuntanニキのワークフローを拝借してWan2.1使ってたけど
もう諦めて動画生成専用にEasyWanVideo導入したわ
実質ComfyUIが二つ入ってる状態なのが気持ち悪いけど仕方ない・・・
2025/04/30(水) 20:45:47.13ID:wtr/clJB
ComfyUIの楽しいところは自分でノードを付け足して機能拡張したりアレンジしたり
するところなので、ポンつけのWebUI系は全然面白くない
FramePackもComfyUI版でしか試してないな
779名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 21:54:28.56ID:zkppWgQk
easywan使ってんだけど、loraだけ新しく入れたり出来るの?エロ系普通に探しても出て来ないんやが。
780名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 22:02:18.22ID:eTyI/HHr
civitaiは必修科目ですよ
781名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 23:01:10.59ID:uansnY30
easywan(というかKijaiWorkFlow)使ってる人多いが画質がピーキー過ぎないか?
特にピクセルエリアの少ない人物の顔が潰れるのとハイコントラスト時の肌がノイジーになるのがキツイ
歯とかめちゃグニャる
Model、clipModel、VAEをいじればそこそそマシになるがそれでも諦めた。

GGUFも使えないし、そもそもデフォだと制限かかってて
modules\model.py
modules\clip.py
ComfyUI-WanVideoWrapper\nodes.py
のソースいじらないとモデル変更もできない

kijaiは速度に命かけてる感があるので何かを犠牲にしてるんだろうが...

↓参考までに左がeasywanI2V、右はUmeWorkflowで同じ条件で出力した1フレーム目の比較
https://imgur.com/a/bZWgHLL

1フレーム目から顔とハイコントラストの肌の質感がだいぶ潰れる
モロにSamplerの影響に見えるけど統一しても同じ
静止画1枚だと分かりづらいけど、両方試せる人は試してみてほしい
2025/04/30(水) 23:30:00.62ID:6zEwlUi0
その程度の違いどうでもいいわ
2025/05/01(木) 00:09:15.16ID:X8NeLKbL
Kijaiの10ステップで生成してるけど全然問題感じないし
ネイティブで30ステップで生成時間3倍になる方がデメリットすぎるよね

720PのQ8って18GBでFP8よりも1GBでかいけど目に見えて品質は改善されるのかな
それにQ8はFP8よりも複雑に量子化されてるから生成遅くなるらしいけどどの位変わるんだろ
784名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 03:15:50.86ID:eG3GI6pW
Kijaiを否定するつもりはまったくないけどステップを3倍にしたら生成時間が3倍、とはならない
同じ条件で動画にしたが

[右 ume]  Steps:25で61秒
[左 Kijai] Steps:10で72秒

https://i.imgur.com/xEsaSqO.mp4

5090環境なのとumeの設定をカスタムして詰めてるのもあるだろうがステップ数を倍にしてもumeの方が早い
ステップ数が少ないと動きが早いモーション時なんかにノイズでガビガビになる(特に手と口と柄物)
動画の最後の歯の部分なんかがわかりやすい。ノイズは引き継がれるので長尺の動画になればなるほど後半に影響が出る。
「引き抜いた竿がツルツルになる」みたいなのに悩んでる人も多いだろう。

あと初心者への配慮からかVideoWrapperのpyがいじられているので他のWorkflowとの互換性がすこぶる悪い。
他のWorkflow入れた時のノードエラーが解決しない人も多いのでは?

おそらく仮想環境のpytorchとSageAttentionのハードルの高さからeasyWanが使われることが多いんだろうが、
それが理由ならUmeAiRTが3日前にauto installer公開してるので比較してみるといい

https://civitai.com/models/1309415/comfyui-auto-installer-wan21-or-sageattention-or-50xx-cards-compatible-or

個人的にはGGUFはVRAMを解像度とステップ数に回せるのでマスト
ステップ数を上げるとガチャ確率も上がるので結果トータルの生成時間効率も上がる
2025/05/01(木) 03:50:27.08ID:8qT1LUvc
Umeの方はComfyUIとManager、各種ノードのバージョン管理を出来て
尚且つPythonコードを書ける事が前提みたいなワークフローだから安易に人には勧められんな・・・
更に言うとそこまで頑張ったとしてもEasyWanVideoの方と比較して
圧倒的なクオリティ差があるかと言われれば別にそんな事も無いし・・・

そしてこれは誰もが思う事だから言うけど5090環境での生成速度レポートはマジで何の参考にもならない
「そりゃ速いでしょうね」意外の感想なんて出てこないよ
2025/05/01(木) 06:00:46.27ID:2/k4YZaI
>>785
同環境での比較見てその感想しか出ないことはないでしょ
2025/05/01(木) 06:44:38.35ID:8qT1LUvc
>>786
EasyWanVideo使う様な低スペ層に5090の比較速度が何の参考になるの?
2025/05/01(木) 07:02:32.43ID:3Gahlv9z
そもそも急に出てきたUmeって何だよという感じだったけどCivitaiでWorkflowを配布してる人の名前なのね
普通、プログラムだと思うじゃない
説明してくれないと自分みたいな赤ちゃんは困っちゃうよ

こっちは逆にEasyWAN(Kijai)の設定をカスタムして詰めてるけど当然というかUme(Native?)の方が遅かったな(4060Ti)
たぶんEasyで「Set_BlocksToSwap」の設定をしなかったか、後入れの高速化を何か入れてなかったんじゃないかね

Ume(gguf)は確かに高画質というかi2vの元絵から劣化が少ない気がするけど
何故かLoRAを使うと絵が壊れるし自分の環境には合わなかった
インストール時に色々と最新を入れてくれてる気がするから5000系ならお手軽でいいのかもしれないが

とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
2025/05/01(木) 11:51:37.64ID:ia1dq4En
しかしながら、LORAや設定もだが、プロンプトも超大事。

動画内の時間の流れや物体の位置を把握して書くと全然違うわ。
2025/05/01(木) 12:07:17.84ID:i+CPIHYS
大事なのはわかるんだけどどこがどう効いているのか実感しづらいんだよなあ
特にWanについては結局LoRAがほぼ全てな気がする
791名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 12:28:45.81ID:eG3GI6pW
>Umeの方はPythonコードを書ける事が前提

は具体的に何を指している?UmeAiRTのWorkflowは初心者用のauto installerもありプレーン環境を汚さないし、
「pythonコードを書ける事が前提」これはまったくの逆でKijai Workflowではclipを変更するだけでも

LoadWanVideoClipTextEncoder
if "log_scale" not in sd:
raise ValueError("Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model")

と制限しているので書き換えが必要でお気に入りのカスタムノードやWorkflowを使おうと思うたびにコード修正をしないといけない。
これはまさにあなたが言っている「Pythonコードを書ける事が前提」そのものでは?

思うに初心者が「EasyWANが早い!」となるのはMicrosoft Visual Studioでのビルドやら環境変数へのCUDA PATHへの追記やらをしなくてもEasyWANにTritonベースのSageAttentionがincludeされているのが原因だろう。
逆にTea CacheとSageAttentionが有効に出来ているなら速度差の要素なんて解像度とStep数程度しかない。


>とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
これはまさにその通りで好きなものを使えばいいのだけど、Wan2.1とくにEasyWANではモデルデータが100GB超えなのもあり比較が難しい面もある。
実際比較を試しても生成時間がネックになり試行回数も少なくなり、ガチャの当たり外れもあって判断は難しい。
なので、わざわざ「ComfyUIを2つ作り」「同じ生成時間になるように設定を組み」「同じ元画像で動きの少ない動画を作り」比較しないといけない。

自分は人物のダイナミックな動きのある動画を生成しているので、顔や手にノイズの乗りやすいKijai Workflowは相性が悪いと感じる。



まったく関係ないが「竿が奥まで入らない」問題は
「深く入れる」「奥まで入れる」より
The penis disappears into the vagina(膣の中に消える)
のPromptがめちゃくちゃ効果あった。時々霧散するが。
792名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 15:47:32.45ID:LyBEq8mQ
途中までおおっなんか深そうな話してる分かってる感あってカッコイーと思って読んでたら最後でうん・・・てなった
いやある意味一番有益な情報かもしれんが
2025/05/01(木) 16:44:04.43ID:3Gahlv9z
5090使ってて生成時間がネックで比較が~とか書かれてもみんな泣いちゃうよ
EasyWanの開発者は3060Tiじゃ無かったっけw

色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだね
Umeは0.13だけどEasyは0.20
この数字が大きいほど早くなるけど、劣化も大きくなる
Tea cacheを使わないか0.13に下げればEasyWanでも画質は良くなると思うよ

EasyWan(kijai)はFramePack対応に忙しそうでWan環境はあんまり更新されなくなった
Umeは最新を追ってるから速度の差が縮まっているのはその違いって気もするけどね
これから新規にWanだけを始めるなら最新環境が一発で整うUmeがいいんじゃないのかな

色々試したいならEasyWanの方が楽しめると思うよ
好きなの使おう!
両方使ってもいいわけだし
2025/05/01(木) 17:06:02.00ID:D0R/SKc6
Wan2.1はNative版のフローの方が良い結果が出る
生成時間は少し長いが、結果ガチャ回数減るので結局Native版使ってる
あと、ちょい前はTeaCache使ってたけど、これも品質阻害要因なんだよね
今はスキップさせてるわ
2025/05/01(木) 17:13:01.17ID:E5h3CIGn
nativeのTEの方が品質いいのはわかるけどそれもブリッジで使えるし設定同じにすればそんなに差はないと思うんやけどな
ggufは少し品質良くても常に遅いから使わんけど
2025/05/01(木) 17:14:04.32ID:X8NeLKbL
EasyWanにnativeは倍以上ステップが必要とか
生成時間も長いって書いてたから使ってなかったけど試したら確かに良いな
I2V-720P-FP8でnativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
nativeだと720×480とかで生成しても元画像からの劣化が少ない

umeとやらは余計なノードとか多かったから最小限のワークフローに
TeaCache, SkipLayerGuidance, Sage attentionとlora3つ位入れて
3090で18ステップ位で生成してるけど時間もkijaiの10ステップと大差無かった

俺は時短のためにnativeのTeaCacheは0.33で5ステップ分スキップさせてるけど
それでも自分の環境だと明らかにkijaiより綺麗で良い

nativeだとkijai版のumt5 xxlは使えないから変更必須なのと
block swapは専用の拡張入れないと使えないっぽいのが注意か
797名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 18:52:07.23ID:eG3GI6pW
>色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだねUmeは0.13だけどEasyは0.20
当然だけど大前提として両方統一して結果に差が出る
EasyWanではなくkijaiのWanVideoWrapperのSamplingが影響している


>>796
が言いたいことはほとんど言ってくれた
>nativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
>kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
>nativeだと720×480とかで生成しても元画像からの劣化が少ない
言いたかったのはまさにそれ
同一ソースから出力して初めて気づく
UMEと比較するんじゃなくてnativeと比較するほうがわかりやすかったね

そしてnativeを使うならわざわざプレーン環境を汚すEasyWanを使うのはどうなの?と言いたかっただけ。
べつにUMEに拘ってはいない。どんなWorkflowでもいい。
ただ自分がしる限りSageAttention(Triton)がincludeされているのがUMEとEasyWanしかないので初心者はUMEのオールインパックという選択肢もある

何度もいうがEasyWanを下げているわけじゃない。
初心者がワンクリックでオール・インできる環境は素晴らしいし、Modelに制限かけているのも初心者がミスマッチなModelを選んでしまうのを防ぐためなのだろう。


だからこそ「Umeの方はPythonコードを書ける事が前提」といった初心者が勘違いするようなことは言うべきではない
2025/05/01(木) 19:00:17.68ID:D0R/SKc6
Kijai版のWan使う人はClip visionが「clip_vision_h.safetensors」になってるか確認した方がいい
現状(最新のワークフロー)はそうなってるみたいだけど、以前は違ってたからね。
で、異なるClip visionだと全然動いてくれなった記憶がある
2025/05/01(木) 19:17:26.08ID:D0eUC69t
Native版は使ったことがないんで知らないんだけど、Kijai版にあるSLG(Skip Layer Guidance)はNative版にもあるのかな?
Layer=9, start=0~0.2, end=0.6~0.8ぐらいで入れるのと入れないのとでかなり動きの安定度とか違ってたと記憶してる
2025/05/01(木) 20:00:24.02ID:X8NeLKbL
ComfyUI-KJNodesのSkip Layer Guidance WanVideoノードでnativeでも使えるね

別件だけどkijai版のモデルローダーはbase_precisionでfp16_fastを指定すると
fp16 accumulationが有効にできて20%位生成加速できたんだけど
native版のモデルローダーだと量子化後のfp8とかのdtypeしか選択できなくて困っとる
どこで指定すれば良いんだろうか…
2025/05/01(木) 20:38:29.09ID:E5h3CIGn
Diffusion model loader KJ
2025/05/01(木) 20:53:26.94ID:X8NeLKbL
>>801
これもKJNodesにあったのか!やっぱり20%位速くなったわありがとう!
2025/05/01(木) 20:57:36.28ID:D0eUC69t
>>800
使えるんだ サンガツ 今度ネイティブ版も試してみるかな
自分の場合画質があまり気にならなかったのは608x960で作ってるからかな
2025/05/01(木) 21:25:18.49ID:cH+/zmPC
なんUのFramePackでHunyuanVideoLoRA使って崩れにくいエロが出来るようになったの見て来たか…(ガタッ
みたいになってるんだけどRAMどんだけいりそうなんだろうか
2025/05/01(木) 21:33:31.05ID:/men2COp
>>804
最低でも64GBは必要そう
以前のVerは32GBでSSDの寿命削りながらも一度だけ完走させたけど、今のVerはさらに負荷が凄くなってて怖くて止めた
2025/05/01(木) 22:56:01.30ID:pURyNRqn
動画系は128GB以上あった方がええで
最低でも96GB
2025/05/01(木) 23:00:35.30ID:i+CPIHYS
DDR5が4枚差し不安定とかいう余計な不安要素もあるんだよな
64x2だと5万円コースってなあ
2025/05/01(木) 23:10:36.33ID:cH+/zmPC
>>805-806
96GB必要か、wan2.1のために96GBに最近増設したからそれで行けるのならありがたい限り
その状態で他の作業出来ないとなるのなら128GBまで…は流石にしんどいしHOMEだからなぁ
2025/05/02(金) 00:57:26.93ID:pL5rYzXG
しきりにkijai下げしている奴って何なの?
初心者向けの物なのだから画質だ長さだと言う物では無いと思うのだが
それからステップアップしたいのならご自由にって事だろ
何を比べてんだよ
810名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 04:29:26.40ID:vGI3MmCW
どうせ喚いてるだけだから長文はスルーでおk
2025/05/02(金) 05:41:23.12ID:doIoJoIr
Kijai版は初心者向けじゃないでしょ EasyWanならともかく
Wanに限らずKijai版はComfyUI本家がインプリメントする前に実装される事や実験的実装が入ってくるので色々試してみたい人向けだと思うけど
実際機能追加の関係でバージョンアップしたらWorkflow組み替えないといけないこともあったし
2025/05/02(金) 06:50:28.19ID:ET1i6OG8
>>811
もう一回自分で読んで修正してからレスして
2025/05/02(金) 07:04:16.55ID:Zfj3dfOh
読みやすい文だと思うが
2025/05/02(金) 07:07:59.95ID:FazZX2WO
>>811
チミの名は。
2025/05/02(金) 09:11:06.56ID:2wV2VS/w
kijai氏は初心者でも簡単に導入できるプラグインやノードを提供してくれているのに
それを否定している意味がわからん
2025/05/02(金) 11:14:39.10ID:a40a8vDT
梅の話が出ていたので試してみようと思ったが
面倒くさいので全てallにしたら30GBのファイルを
ゴリゴリダウンロードしまくっている
慌ててドライブの他データを移動した
2025/05/02(金) 13:19:31.48ID:uuh6AxUg
動画だと1つで100GB以上のデータファイルとかもあるしなぁ…
2025/05/02(金) 13:56:24.49ID:0H8+qkkD
インストーラなんか邪魔なだけ
easywanもumeとやらもワークフローだけ貰えばそれで終わりだよ
2025/05/02(金) 15:49:59.35ID:5lYgDT4G
UMEというのをここで知ったのでワークフローだけ落としてきて試してみた
なかなか面白い処理の流れをしてたので自分用に改変してテスト中
Native版ともまた違った処理だけど、生成時間はなかなか速い
最終段にColor Match使ってるのはいいアイデアだと思った
原画にHiDream使うと何故か途中で色味が変わることがあったからな
2025/05/02(金) 16:19:01.18ID:lfoLGaF8
動画というかi2vにColor Match使うのはKijai氏のWorkflowで知ってよく使わせてもらっている
知ったのはHunyuanVideoWrapperのときだったかな
そもそもColorMatchNode自体がKijai氏のCustomNodeやしね

ところでUME氏のFlowなんだけど自分も落としてきたんだけどHiDreamのLoRAに感けていて試せてない
中身眺めているとTeaCache Onにすると0.275とかなり強めにかかるみたい
>>793にはUmeは0.13と書いてあるけど自分が落としたWorkflowとは違うのかな?
821名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 19:23:38.40ID:sU3xMGoG
LoadWanVideoClipTextEncoder
Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model

EasyWanのチュートリアルで躓いてます
必要なファイルは入ってるんじゃないんですか?
2025/05/02(金) 21:38:01.86ID:3Swh18/t
KijaiはAI動画時代黎明期の役目を終えた感あるな
画質はクソだし、ガチャの当たり低すぎだし、エラーだらけだし、クソUIだったけど
短い間だったけどよくやったよ
もう起動すること無いだろうけどkimiのことは忘れないよ!今週まで忘れないよ!黙祷!
2025/05/02(金) 22:09:00.63ID:NGBexPe4
結局比較動画も貼らないで逃げたんかw
2025/05/02(金) 22:11:08.90ID:A0n6aprg
>>821
左の方の該当ノードでモデルを選ぶ必要がある
Easyと言いながらハマりどころはそれなりにある
825名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 22:59:38.11ID:FYwoTz1T
AI動画作ってる人らってどこにアップロードとかしてんの?
2025/05/02(金) 23:00:45.33ID:3Swh18/t
そりゃYoutubeだよ
2025/05/02(金) 23:16:24.41ID:Zfj3dfOh
エロなら渋かXか支援サイトやろけど、ちびたいに上げる人もおるらしいな
2025/05/03(土) 02:57:48.19ID:krznmrJW
シビタエーアイだろ
2025/05/03(土) 09:34:04.75ID:/IhKPF4o
EasyWanVideoの導入は通常簡単だけど
いわゆる今の「3行以上の長文は読めない人」にはNightmareWanVideoだから
マジで文章を読む力が無い奴は諦めた方がいいよ
2025/05/03(土) 11:03:36.13ID:SZDRfllP
誰と会話してらっしゃるの?
2025/05/03(土) 12:00:32.61ID:yPIJFkKI
人形と話してるんじゃないかな
2025/05/03(土) 14:44:42.09ID:9wopPkas
Framepackがオールインワンで簡単に動くとか言ってるから落としてみたがおま環で起動すらしないわ
エラーも馬鹿みたいに出てるしオールインワン嫌いや
レスを投稿する

5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。