X

【StableDiffusion】AI動画生成スレ1

■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
垢版 |
2023/04/25(火) 17:47:32.98ID:V5JBD3KF
AIで【動画】を生成するスレです。以下は全て可とします。

・ゼロから動画を作る技術
・既存動画をAIで加工する技術
・全フレームi2iする技術
・節度あるアダルトの話題
・webUI、単体サービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け

動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。
情報を集めて良い動画制作を目指しましょう。
2025/04/06(日) 11:07:57.60ID:lYhJz8Jo
なんUの方でB580ってのを見たけどあれはどういうこと?
2025/04/06(日) 12:31:01.45ID:tY4fS+cx
>>549
Redditで4枚差しでメモリ電圧を1.37Vまで上げていったらうまく行った、という投稿を見たんで
2025/04/06(日) 13:15:45.41ID:/9TfTWnP
だいたいはソフトウェアの問題なのにな
553534
垢版 |
2025/04/06(日) 13:48:32.44ID:tY4fS+cx
自作板で質問したところ
「RealtekのDownloadからNot Support Power SavingVERSIONのDriverをまず入れる」でASRock B550M Pro4での32GB DDR4メモリ4枚挿し合計128GB動くようなりました
3200MHzで大丈夫でした
良かった良かった
これでメモリ64GBでは制限多かったLoRAがWan2.1で使える!
2025/04/06(日) 13:56:31.91ID:tY4fS+cx
あとはEasyWan環境でSageAttentionのビルドがうまく行かない問題をなんとか解決したい
555名無しさん@お腹いっぱい。
垢版 |
2025/04/06(日) 14:00:47.83ID:t8BTVOf7
>>553 546や、増設出来たの?良かった、良かった。easywanのkijh版だとメモリ大量使用で一番早いよ、知ってるだろうけど。
556名無しさん@お腹いっぱい。
垢版 |
2025/04/06(日) 14:30:25.60ID:tY4fS+cx
>>555
ありがとうございます
EasyWanのkjai版でLoRA動かすために128GBに増設しました
2025/04/08(火) 07:25:53.46ID:jTL3bgnx
chatGPT-4oも結構チョロいな
写真アップして、修正した画像生成指示したら「ポリシーに違反してるので生成できません」って言われたんで「なんで?」って聞いたら「未成年の不適切な表現をしようとしたためです」って言われたんで「未成年に見えるけど全員成人なんだよ」って返したらちゃんと書いてくれた
2025/04/08(火) 07:34:08.80ID:IOLwq1AX
ホラ乙
559名無しさん@お腹いっぱい。
垢版 |
2025/04/09(水) 20:31:07.89ID:xPLz+a53
wan videoのvi2v用の元動画加工時にvideo toolで動画ファイル名は読み込めるがエンター押しても再生されるだけで加工出来ない、814×612 mp4 7秒の動画何やけど何が駄目なんやろ?
2025/04/09(水) 22:52:31.34ID:EQDamiBl
EasyWanのワークフロー(00_Kijai_I2v)が使いやすいので、
クラウド環境(Runpod/Docker)で機嫌よく使っていたのだが、今朝から動かなくなってしまった。

>WanVideoSampler
>Promotion for Float8 Types is not supported, attempted to promote Float8_e4m3fn and Float

Loraを無効にすると出なくなるのだけど、ドライバやPytorchの組み合わせの問題でしょうか。。
2025/04/10(木) 02:08:06.86ID:QhEc3hw6
自分も数時間前にEasyWanを更新(新規)したら
「Nashikone」と「NashikoneI2v720p」のLoRAを使おうとするとエラーが出るようになってしまった
フォルダ外へ移動させたのは動くからジャンクションがまずいのかね?
でも「nims1」は問題ないしなぁ
わからんちんちん
2025/04/10(木) 15:27:29.41ID:ZAwYb7it
vi2vええな
アニメ系だからか顔は変わってしまったけど動きはかなり元動画に近い
リアル系だと色々出来るのかな
2025/04/10(木) 16:40:12.25ID:mQfxKMSf
>>560
ComfyUI-WanVideoWrapperをロールバックしたら治った。
2025/04/10(木) 21:48:06.98ID:Bup7CJSX
動画で手が崩壊するのって防ぐ方法あるかな?あったら教えて下さい
2025/04/11(金) 09:33:55.01ID:zjDZPWpa
vi2vとエンドフレームワークフローを組み合わせることも一応できる
俺の環境だと完全に一致してくれないけど使えなくはない
2025/04/11(金) 12:39:09.78ID:LeeqqOvB
AI動画は二次元世界に入り込んで好きな子とちゅっちゅするという願望を叶えてくれる
567名無しさん@お腹いっぱい。
垢版 |
2025/04/11(金) 21:32:53.75ID:EA/BUlYe
vi2vちゃんとした動画作るですら難しいわ
やっぱLoRAか
568名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 11:17:36.50ID:8vEVn0e+
File "C:\EasyWan\ComfyUI\venv\lib\site-packages\triton\backends\amd\compiler.py", line 2, in <module>
from triton._C.libtriton import ir, passes, llvm, amd
ImportError: DLL load failed while importing libtriton: ダイナミック リンク ライブラリ (DLL) 初期化ルーチンの実行に失敗しました。



SageAttentionのビルド必要なくなったEasyWanでSageAttention使おうとしてもtritronのdllがないとか言われて駄目だ
569名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:19:02.77ID:8vEVn0e+

解決した
EasyWan環境とは別にpythonインストールしてる場合の問題
pythonがインストールされてる全てのフォルダをコマンドプロンプト(PowerShell)から「where python」で探し
python.exeと同じ全てのフォルダに「msvcp140.dll」「vcruntime140.dll」「vcruntime140_1.dll」の3つのdllファイルを
「c:\windows\system32」からコピーすればSageAttention使えるようになった

参考
https://github.com/woct0rdho/triton-windows?tab=readme-ov-file#test-if-it-works
570名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:23:23.81ID:8vEVn0e+
SageAttentionは、AIモデルの推論を高速化するための量子化技術を活用した注意機構です。
この技術は、特にGPU上での効率的な動作を目指して設計されており、以下のような特徴があります:

INT8量子化: 精度を保ちながら計算を軽量化し、推論速度を向上させます。
スムージング技術: アウトライア(外れ値)を平滑化することで、計算の安定性を向上。
プラグアンドプレイ: 既存のモデルに簡単に統合できる設計。
幅広いGPU対応: AmpereやHopperなどの最新GPUアーキテクチャに最適化されています。

この技術は、FlashAttentionやxformersといった他の注意機構と比較しても、速度と精度の両面で優れたパフォーマンスを発揮することが報告されています

SageAttentionはTritonを活用して実装されています。TritonはGPUプログラミングを効率化するための言語であり、SageAttentionの高速化や効率的な動作に寄与しています

Tritonは、OpenAIが開発したGPUプログラミング言語で、特に機械学習の高速な計算処理をサポートする目的で設計されています。以下のような特徴があります:

シンプルなGPUプログラミング: CUDAに代わる簡易な方法でGPUの並列計算を実行可能。
自動並列化: コードを簡潔にし、効率的な計算を実現。
動的カーネル生成: 最適な演算プランを適用する機能。
メモリ管理の最適化: 高速なデータ転送を可能に。
571名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:30:22.09ID:8vEVn0e+
1. ディフュージョン・トランスフォーマー(DIT)内部での自己注意
Wan2.1の中核部分として用いられているのが、Denoising Diffusion Transformer(DiT)です。
DiTは従来の畳み込みニューラルネットワークとは異なり、
Transformerアーキテクチャに基づいた構造となっており、自己注意(Self-Attention)層を複数積み重ねています。
この自己注意機構は、各フレーム内の局所的な空間情報だけでなく、動画全体における時系列的な依存関係も同時に学習するのに役立っています。
たとえば、フレーム間の連続性や、シーン内の細部の関連性を捉えることで、全体として一貫性のある動画を生成できるようになっています。[¹^]

2. テキスト・プロンプトとのクロスアテンション
Wan2.1は「Text-to-Video」など、テキスト入力による動画生成もサポートしています。
この場合、テキスト情報を映像生成に効果的に反映させるため、
クロスアテンション(Cross-Attention)が利用されます。
具体的には、T5エンコーダーなどのテキストエンコーダーにより抽出された意味的な特徴が、
生成プロセス内の各段階で映像情報と融合され、テキストに即したシーンや動作が形成される仕組みになっています。
2025/04/12(土) 21:32:43.62ID:8vEVn0e+
アテンション機構内で最も計算負荷が高いのは、クエリ (Q) とキー (K) の内積計算です。
この処理では、入力シーケンス内のすべてのトークンに対して、
各トークンのクエリと全トークンのキーとの内積を計算する必要があり、
その結果、生成される注意スコア行列のサイズはシーケンス長の二乗に比例します。
たとえば、シーケンス長が N の場合、計算量はおおよそ O(N²) となり、大規模なシーケンス処理ではこれが大きなボトルネックになります。


wan2.1ではアテンション(注意機構)がかなり使われるんで、アテンションで一番重いベクトルの内積計算を8bit整数に量子化して計算するSageAttention入れると精度は犠牲になるけど生成が速くなると
2025/04/13(日) 17:48:24.63ID:UJqhbz6P
そのへんのVisualStudioとの連携がうまくいってないのよくあるよね
モデル名忘れたがText2Speechの音声合成でも同じようなこと起きた記憶
2025/04/14(月) 00:50:03.70ID:Dt/Ge+Tn
そうなんだ

今度は、EasyWanで最初と最後のフレームの画像を指定する03_Kijai_I2vEnd.jsonと02_KijaiFun_I2vEnd.jsonで

RuntimeError: Sizes of tensors must match except in dimension 0. Expected size 480 but got size 464 for tensor number 1 in the list.

ってエラーが出て行き詰まり中
最初のフレームの画像だけ指定する普通のi2vは同じ画像でこのエラー出ないけど
2025/04/14(月) 07:10:02.05ID:uM+aKqRG
入力画像のサイズが合ってないんじゃないかな
2025/04/14(月) 10:58:59.03ID:UoV0bWKU
>>574

多分これじゃないかな(218から始まるツリー)
https://fate.5ch.net/test/read.cgi/liveuranus/1744454985/240
577名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 20:38:09.11ID:frRftHx+
LTX videoやってる人いる?早いの?
578名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:10:39.60ID:Dt/Ge+Tn
>>574
ありがとう
なんJにEasyWanの作者さんが常駐しててそこがEasyWan本スレだったとは
update.batかけたら修正されてた
579名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:21:32.90ID:Dt/Ge+Tn
EasyWanで長い動画

(1) 初期画像をワークフロー00_Kijai_I2vで、3秒くらいの崩れない範囲で何個も動画生成
(2) 生成した動画から良い動画を選び、さらにその動画をコマ送りして良いコマの画像を選び、そこまでの動画を切り出して出力(コマ送りと切り出しはTMPGEnc VideoMasteringとかで
(3) 選んだコマ画像を次の初期画像にして(1)へ

あまりに顔が崩れたらワークフロー02_KijaiFun_I2vEndで一番最初の画像に戻す動画を生成

最後に切り出した動画全てをffmpegとかでつなぐ

なかなか時間がかかる
2025/04/15(火) 01:13:04.67ID:vai9GtxV
動画繋げても動きの緩急が一気に変わるから違和感半端ない
2025/04/15(火) 06:20:33.57ID:YpbAcxWn
Kijai版のWanVideo Context Option使って81フレーム超え作る事も可能だけどVRAM富豪じゃないとあかんからなあ
2025/04/15(火) 11:31:26.26ID:ktG5FtZS
wanだとVRAM8GB(RAM64GB)でも161フレーム作れたけど生成3時間弱かかってガチャはとても無理だったよ
6秒だと30分くらいなのに、VRAMから溢れ出すとやっぱり急に遅くなるね
2025/04/15(火) 11:32:05.48ID:ktG5FtZS
fpsいい忘れた、16だから161は10秒っす
584名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 03:03:25.99ID:0lAZB8Qo
WAN2.1のlora作ってる人に聞いてみたいんですが
どんな学習素材と設定でやってますか?

画像生成の方と違って情報が少なすぎて…
2025/04/16(水) 08:05:10.26ID:zWaDIqPE
Wanは生成が遅いのがダメだね クオリティはあるんだけど
2025/04/16(水) 08:15:52.03ID:Q5g0CTsA
Wanは最低でもVRAM16GB, RAM96GBはないとまともに生成できないと思った方がいい
2025/04/16(水) 09:38:14.40ID:K0Ax00TT
wan14Bは1280x720の81フレームで10分ぐらい蒸留すれば6分ぐらいで生成できる
もう少し早くなればいいけど今は1.3Bでガチャして遊ぶのが好きだわ
588名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 11:57:12.22ID:h4HCsIOB
解像度高くて秒数多いとどうしても時間かかるから、もっと時短で確認だけでもする方法ないだろうか
41フレーム、81フレーム目だけでも画像で見せてくれれば、破綻没作に時間割かなくても済みそうだけど
2025/04/16(水) 12:15:45.69ID:K0Ax00TT
>>588
生成中のpreviewである程度見れる
590名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 16:34:19.82ID:J4pARLav
ComfyUIのブラウザの左上あたりにずっと「Type here to search」って検索窓みたいなの出てるんだが、これなに?
じゃまでしかないんだけど、消し方がわからん。
591名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 17:06:31.60ID:J4pARLav
>>585

数十分待って、ガチャ失敗してるの最悪
2025/04/17(木) 05:16:36.11ID:jFEcKhdJ
>>589
preview設定どこにあるの?
2025/04/17(木) 08:16:56.50ID:cV2N4eAi
Preview

settings->VHS and set "Advanced Previews" to "Always"

at the top set "Preview method" to "Auto"
594名無しさん@お腹いっぱい。
垢版 |
2025/04/17(木) 09:20:30.84ID:VGVastie
【速報】動画生成AI『Kling』が2.0にアップデート!
2025/04/17(木) 19:49:39.91ID:ndyzAyOU
動きを大きくすると外人成分が濃くなっていって誰?になっていく罠
結局、外人化抑えるため、プロンプト控えめにして動き小さくして量産しとる
2025/04/17(木) 22:04:13.51ID:mPsKqN+1
https://github.com/lllyasviel/FramePack
2025/04/18(金) 11:34:26.07ID:5m2w5oNF
FramePackってForge作者のイリヤスフィール氏の新作で、VRAM消費が少ないってことだけど
中身はHunyuanVideo。それをちょこっと作り直しただけだね・・・。
4090使っても5秒の動画に15分かかる。こんなに遅いんじゃWan2.1で十分じゃないかよ
2025/04/18(金) 15:12:20.62ID:fSFGWptC
FramePack、確かにフレーム数多い動画を省メモリで作成出来るんだけど、
動きはやっぱりHunyuannだなぁって感じで、背景とか全く動かないんだよね。。
全体的な動きはWan2.1の方が上だと感じる。
出たばっかなので今後改良されていくとは思うけど。
2025/04/18(金) 15:54:58.56ID:so4hvG+k
lllyasvielニキだからたぶん改良せずに終わると思うよw
2025/04/18(金) 17:38:58.29ID:V4n9RjWA
なーにこっからkijai氏はじめ有志も魔改造始めるだろうて
2025/04/18(金) 17:43:36.88ID:3VIZdzdk
Wan2.1と同等の生成速度じゃないとな厳しいよなぁ
2025/04/18(金) 18:43:10.34ID:ZYBaUkV8
アダルトアニメ動画のアルゴリズム第二世代
このやり方教えろよお前ら
これがあればAVを作れるんだから
2025/04/18(金) 18:45:41.85ID:q0HQPzhk
ワンクリック版が出たで
UIも超簡単や
604名無しさん@お腹いっぱい。
垢版 |
2025/04/18(金) 20:41:59.36ID:HZWmpfGS
>>597
VRAM少なくていいというのが大きい
6GBで行けるならiPhoneやiPadでもいけるはず
まあ生成時間はかかるだろうけど出来るかできないかの差は大きい
そうなるとユーザーが増えるのでLoraも増える!
色々改良する人も出てくるだろうさ
2025/04/18(金) 21:22:07.16ID:kDLyI7LJ
framepackは生成中も出来上がっていく動画眺めてられるのがええね
2025/04/18(金) 22:10:01.02ID:5k9KWNmV
framepackって終わりから始めに向かって生成される?
間違えて100秒でスタートしたら全然終わらんけど
少しずつ時間が前に向かって生成されてる気がする
5秒で生成したらmp4の時間が短いからかサイズが小さいからか
Windowsのデフォのプレイヤーだと再生できない
ブラウザに放り込むと再生できるから生成に失敗してるわけではない
2025/04/19(土) 01:33:11.29ID:2nF2NXT2
初期版はコーデック指定が特殊で再生環境を選んだけど
今は修正されたようだよ
2025/04/19(土) 01:49:38.42ID:oL1pxSEo
GPUを6GBに設定しても12GB使ってるしメモリは50GB使っとる
2025/04/19(土) 05:04:04.47ID:XXSLLha5
6GB単位で並列しとるんじゃよ
2025/04/19(土) 05:26:38.56ID:X5X5Smen
12GBあったら倍速になるってこと?
611名無しさん@お腹いっぱい。
垢版 |
2025/04/19(土) 19:50:11.86ID:gTelBzvm
VRAM6GBのHPノーパソで動いたわ
forgeと同じくらいアツアツだけどたまに触るならいい感じ
NAIで出した版権絵がそのまま踊るの怖過ぎる
これ表に出したら炎上するな
2025/04/19(土) 20:48:42.14ID:0TIlqO4S
FramePack昨日知って今試し中
ビデオメモリ6GBのサブ機で一応動いてるけど、メインメモリ32GBしかないからどうなることやら
2025/04/19(土) 21:31:24.79ID:oL1pxSEo
3060だが12GB選択したほうが早く生成される

タスクみると6GBでも12
GBでもGPUほぼ100%使ってるのが謎
2025/04/19(土) 22:32:44.57ID:0TIlqO4S
5秒のはずがなぜか4秒で終わってしまった
1時間以上かかったw
615名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 01:09:53.91ID:6D4KjzYM
>>597
4090環境で5秒動画作るのに3時間半かかったんだけど。入力画像1080×1920が良くなかったのだろうか。
2025/04/20(日) 10:58:24.96ID:BhB7DgiL
でかい画像入れても結局リサイズされるから関係ないと思う
2025/04/20(日) 15:30:00.80ID:yZwN+9T+
FramePackなんで流行ってるのかよくわからない
破綻少なくても動きの制御出来ないし動きがスローになるし背景の時間は止まってることが多い
618名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:48:35.65ID:h70gme1e
comfyみたいに初見で「うえっ」となりにくいwebUIだからとっつきやすいんでしょ
619名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:51:33.78ID:iUCULtja
新しもの好きが触ってるだけだよ
エロできるようになってからが本番
2025/04/20(日) 18:01:52.78ID:MzBv5fTa
>>619
みんな試してるだろうけどアダルト規制ないよ。ローカルで使える動画生成としては一番手軽でエロ利用可能
2025/04/20(日) 18:29:51.68ID:InosU5ej
エロプロンプトへの追従性が低いって事じゃねえかな
622名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 18:39:14.68ID:Gpya3ZYf
エロ系の動きがスポイルされてるんじゃね感
初期のSDXLみたいにすっぽ抜けてる
2025/04/20(日) 20:17:06.00ID:qGhrWgJX
civitaiにあったWan2.1用の女の服を脱がせる系Loraが軒並み消されてるな
624名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:35:50.67ID:6D4KjzYM
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
625名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:39:54.92ID:6D4KjzYM
ComfyUIでWan2.1動かしてたんだけど
GGUF版だとプロンプトに全然従わないのかな?
ただGGUFでもi2vで5秒出すのに20分近くかかる。
もうちょっと高速化されないとガチャ回す気にもならない。
626名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:13:05.86ID:2nr+78fQ
ワテのスペックやとwan2.1はきつい、ram増やしてeasywanで何とかやってる。
627名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:55:26.67ID:c7OcIU8u
>>625
わかる
628名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:57:15.90ID:c7OcIU8u
動画生成ってこんな時間かかるんだな
動画をローカルで自由自在に生成できる未来は遠そうだね
2025/04/21(月) 03:45:39.73ID:wwgEZgNC
vi2vならガチャせんでもいいと思ったけど
アニメのエロモーション動画がそもそも少ない
現実のAVならいっぱいあるけど
630名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:00:49.99ID:tT9VOlNi
動画生成のプロンプトwikiってないのかな
NAI 5ch wikiみたいなさ
631名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:30:54.04ID:eYnD80my
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
632名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:37:31.23ID:gLySYCrG
>>628
SDも当初から比べれば生成速度はだいぶ早くなったから
そのうち早くはなるだろうけど
5090とか4090で1〜2分で5秒動画が出せるくらいにならないと厳しいな
2025/04/21(月) 15:22:45.35ID:9D5Crj+6
背景固定じゃなくて逆に背景のピンボケの小さな人物が歩いて、主人公がほぼ固定になった
2025/04/21(月) 15:37:26.21ID:9D5Crj+6
クソ時間かかるけどガチャしないから静止画1枚より時間かからないとも言える
2025/04/21(月) 16:00:02.52ID:XZlvQMxQ
背景水面だとプロンプト書かなくても割と自然に揺らめいてくれるし
露骨なモーションは無理でも体くねらせて角度が変わっても
(何がとは言わないが)綺麗に破綻なく描写してくれるので
昔生成した健康的な温泉プロモ画像を次々と温泉ダンス動画にしてるわ

手作りラーメンの様に自由な味には作れないけど
気軽に狭いキッチン(VRAM)でも作れるカップ麺的な価値はあるかな
2025/04/21(月) 16:03:43.50ID:9D5Crj+6
プロパティにもビデオプレーヤにも4秒って表示されるからおかしいなあと思ってたけど、ストップウォッチで測ったらちゃんと5秒あったw
637名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 16:22:16.02ID:kf2iGxFE
FramePackって、ファイルを入力するときにオフラインだとエラーになるんだが
これ解消法ない?
2025/04/21(月) 17:37:46.32ID:cXLJ1ads
1秒の動画を作るのに300秒かかっている これだとちょっと厳しい
2025/04/21(月) 17:43:58.78ID:ElsAcF4j
wan1.3bなら97fで3分ぐらいだな
2025/04/21(月) 18:20:36.98ID:d1OJNV8L
svdがまともに使えるようになる日はいつ来るのか
641名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:04:43.99ID:WVHVKGJ7
FramePackってフレームレートの設定は出来ないのか
1秒辺り10コマあれば良い
642名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:37:11.40ID:kf2iGxFE
FramePack、RAMはめっちゃ使うのにVRAM全然使ってくれないのはなんで?
16GB VRAMなのに6GB程度しか使わないんだが
2025/04/21(月) 22:14:55.93ID:w5SwUVXr
FramePack導入して試してみた

うちだとメインメモリ64GBとVRAM16GBどっちもほぼフルで使うな
生成終了後に、メインメモリは解放されないけどVRAMは解放される挙動が気になる
2025/04/21(月) 22:38:01.21ID:PsceRiNk
動きがスローモーションぽいのどうにかならんかな
キビキビ動いてほしい
2025/04/22(火) 08:17:50.57ID:hdioz1Im
>>644
動画編集アプリで再生速度速くして動画再作成すればいい
2025/04/22(火) 08:21:18.05ID:BlOaMonv
>>625
VRAM減らす量子化GGUFは通常版より遅くなる
まぁそのうち高速版が出てくるのでは?
Hunyuanの6steps Fastモデル + TCacheが速い 動きの精度はWanに負けるけど
647名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:00:06.96ID:F2ip0g3w
>>646
GGUFの方が遅くなるのか
TCache使うと変なノイズが生まれるからそこに悩まされている
648名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:43:05.72ID:kOVg4QMl
ステップ数減らす、TCache、GGUF
どれを犠牲にするのがクオリティと速度の影響コスパがいいのかいまいちわからん…

感覚的なものでいいので皆様感想教えてくだせぇ

自分はステップ30までは優先してあげるのがいい気がする…
感覚的なものでたまたまガチャ当たった成功体験イメージかもしれんが
2025/04/22(火) 11:20:37.48ID:P+gHN7s/
グフ
2025/04/23(水) 13:01:18.94ID:cHADN1Vl
FramePack使ってみたけど、
ダンスはまあいいかな。適当な入力画像でもちゃんと踊ってくれる。前側しかない画像でも背中ちゃんと想像で書いてくれる

で、ダンス動画が出来たから何?って問題が
プロンプトに色んな動作入力しまくってるけどまともにアクションしねぇ・・・
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況