X

【StableDiffusion】AI動画生成スレ2

1名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 16:15:55.51ID:X+049ZVU
AIで【動画】を生成するスレです。以下は全て可とします。

・ゼロから動画を作る技術
・画像から動画を作る技術
・既存動画をAIで加工する技術
・節度あるアダルトの話題
・ローカル、Webサービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け

情報を集めて良い動画制作を目指しましょう。
次スレは>>980が立ててください。

前スレ
【StableDiffusion】AI動画生成スレ1
https://mevius.5ch.net/test/read.cgi/cg/1682412452/
2名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 16:55:37.12ID:NIEG31Bm
ローカル環境関連

WanVideo
T2V, I2V, V2V, inpaint, ポーズ制御, LoRAその他いろいろ対応
https://github.com/Wan-Video/Wan2.1
kijai版 実験的な立ち位置
https://github.com/kijai/ComfyUI-WanVideoWrapper

FramePack
Wanと比べて長い動画を作れて破綻も少ないがやや落ち着いたモーション?
https://github.com/lllyasviel/FramePack
kijai版
https://github.com/kijai/ComfyUI-FramePackWrapper

EasyWanVideo
WanVideo,FramePackを簡単に導入する統合的なやつ
https://github.com/Zuntan03/EasyWanVideo

動画のLoRA学習に使えるリポジトリ
https://github.com/kohya-ss/musubi-tuner
https://github.com/tdrussell/diffusion-pipe
3名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 18:23:39.16ID:NIEG31Bm
ローカル関連2
HunyuanVideo
Wan,FramePack登場まではローカル生成界隈で盛り上がっていた LoRAは多い
https://github.com/Tencent/HunyuanVideo
https://github.com/kijai/ComfyUI-HunyuanVideoWrapper/issues
LTX-Video 最近海外では話題に上がる
https://github.com/Lightricks/LTX-Video
SkyReels-V2 最近海外では話題に上がる2
https://github.com/SkyworkAI/SkyReels-V2
NVIDIA Cosmos
ロボティクス、自動運転などの開発支援などが目的で物理的な表現に強いとされる
https://github.com/NVIDIA/Cosmos

すでに下火っぽい
https://github.com/THUDM/CogVideo
https://github.com/genmoai/mochi
https://github.com/guoyww/AnimateDiff
4名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 19:57:32.07ID:NIEG31Bm
主なwebサービス(t2vできるやつ)

DeeVid AI
https://deevid.ai/
Google Veo
https://deepmind.google/technologies/veo/
Hailuo AI
https://hailuoai.video/
invideo AI
https://invideo.io/
KlingAI
https://klingai.com/
Leonardo.AI
https://app.leonardo.ai/image-generation/video
Luma DreamMachine
https://dream-machine.lumalabs.ai/
Minmax
https://minmax.ai/video-generator/
Pika
https://pika.art/about
PixVerse
https://app.pixverse.ai/
Sora
https://sora.chatgpt.com/
Runway
https://runwayml.com/
Vidu
https://www.vidu.com/
WanVideo (web)
https://wan.video/
5名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 01:21:51.12ID:wrwsLpPt
>>1


AIの言いなりでpythonの実行環境作ってるけど1ミリも分かってない
プロンプトの結果を貼って次に何を実行するかをコピペしてるとこいつだけでいいんじゃって気分になる
2025/05/11(日) 07:54:54.89ID:Ac2mYMRq
まとにかくお金が許す限り VRAM が多いやつを買う その他はとりあえずは適当で良い 金が貯まったら買う
7名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 08:21:03.03ID:D8K8DuvQ
これって何で作ってるかわかりますか?

ttps://youtube.com/shorts/0kEYXls1ASU?si=oYOuBP07eI8xc3Pl
2025/05/11(日) 09:59:49.39ID:ogh0MXXu
モーキャプじゃないのか?
2025/05/11(日) 12:02:10.22ID:3i2VprsH
>>7みたいなのをここ荒らす初心者が作れるとは思えんわ
2025/05/11(日) 12:08:59.85ID:8mSplsfk
AI生成で普通に考えるならv2vじゃね?
まあローカルの精度は分からないけど
11名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 12:23:29.19ID:hVhM0R9I
動画始めると読み込む静止画も拘って作っちまうな
別にテキトーな画像でも構わないのに
2025/05/11(日) 14:02:18.96ID:eOKutuby
種画像でしっかり静脈バキバキチンポ出しとかんとツルツルCGチンポになってまう
137
垢版 |
2025/05/11(日) 14:48:40.80ID:D8K8DuvQ
自己解決しました。
スレ汚し失礼しました。
2025/05/11(日) 14:59:44.80ID:SPofalWE
静脈バキバキチ○ポLoRAにはお世話になってるなあ
自分で素材集めて作ろうと思わんから感謝しかないw
2025/05/11(日) 16:45:47.92ID:OPXrrx6M
wanで動画生成していますが、たまに変な中国語が画像の数フレーム(1、2秒)に入ってきます。
これって検閲されてるって事でしょうか?
16名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 17:05:47.13ID:zaXrSE8E
なにそれこわい
2025/05/11(日) 18:58:01.41ID:NTMNEsJW
Google翻訳だけだと不十分でdeep翻訳で繰り返しやってスペルの見直しとかしないと変な方向に行ったりするからなぁ
18名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 19:44:22.43ID:cPeC0xrf
普通に学習材料に入っていただけってわからないのか(困惑)
2025/05/11(日) 21:22:31.83ID:nHrhy5Ip
5070tiでEasyWanVideoは動かせましたが、こちらで見たUmeAiRTを動かしてみたいとインストールしたのですが詰まってしまいました。お知恵をお借りしたいです。
All-in-oneで大体インストールしたと思うのですが、ComfyUI Managerが備え付けでなかったのか?、自分の環境でgitが上手く動いていなかったようなのでわかりませんが、手動でComfyUI Managerをインストールしました。
初回はこのワークフローはほぼ真っ赤だったのですが、Install Missing Custom Nodesを実行してほとんどの赤枠は取れました。
が、ModelとIndex framesの赤枠がどうしても取れません。
ComfyUI Impact PackはInstallをしても何も変わらず、ComfyUI-MultiGPUは自分のバージョンが1.7.3でSwitch Verで覗くと最新が1.5.0?
ComfyUIは初心者なので見当違いが多いかもしれませんがご教授いただきたいです。

https://i.imgur.com/Fl6rZAD.png
https://i.imgur.com/jBlAbOt.png
https://i.imgur.com/1fQyzYD.png
https://i.imgur.com/bEA5IA6.png
https://i.imgur.com/46KlCYJ.png
https://i.imgur.com/gZgfNCZ.png
20名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 21:27:27.34ID:w53dr9Ma
Wanでバトルものアニメをソースにして顔面パンチを学習してみた
ソース20個程度で60エポック解像度512, I2V用として学習
アニメチックな動的表現をするLoRAって少ないけど試してみると伸びしろは結構ありそう

最初の2つはvi2v(denoise_strength 0.8~9)、残りはI2Vポン出し
変なとこ多いけどまあスタイル学習の実験メインなのでってことで
https://files.catbox.moe/qzdtdp.mp4

何本も腕が出てきてしまう失敗ケースがわりと発生
9,17フレームなど短いソースを含めたせいで繰り返されてる、そもそも学習が半端だったとか複数原因は思い当たる
https://files.catbox.moe/ctf9gr.mp4

なぜかπにも当てられた(エッチ注意)
Wanモデルに元々πをつつく表現が学習されててそこから派生したっぽい
https://files.catbox.moe/yq0itd.mp4
21名無しさん@お腹いっぱい。
垢版 |
2025/05/11(日) 21:40:45.12ID:cPeC0xrf
>>20
ちょっとグロいのもあるけどすごいすごい
2025/05/11(日) 21:56:11.24ID:dJObgV6C
>>19
updateフォルダからupdate_comfyui.batしてみたらどう?
2025/05/11(日) 22:13:19.84ID:7c5WZDMk
>>20
違和感無くてスゲェ...学習させたいけど4090以上とかじゃないとキツいのかな
2025/05/11(日) 23:12:28.97ID:UsawZuL0
>>20
動画2つ目の腕が何本も出るやつ、女の子フルボッコでわらった。
Loraを正しく作ればここまで反映させる事が出来るのを知れて勉強になるわ。
2025/05/11(日) 23:43:27.37ID:hvWz5Q3g
>>19
モデルがGGUFなのにGGUF用のワークフローになっていないとか?
2025/05/12(月) 00:23:40.96ID:dNooOEI3
FramePack Eichi最新版で実装されたVAEキャッシュを使用して高速化する機能だけどRTX4090でも逆に遅くなる…1秒動画=70秒が有りだと140秒。
VRAM設定が良くないのかな、色々試したけど2分切らないわ。
むしろ通常生成の速度がどんどん上がってない?前は1秒動画で2分くらい掛かってたのに。
27名無しさん@お腹いっぱい。
垢版 |
2025/05/12(月) 00:34:25.46ID:6g1nVEy5
>>21
1個目の最後のやつかなw
ジャイアンパンチ的なギャグ表現のつもりだったんだけど

>>23
自分は3090x2の並列でdiffusion-pipeで学習したけど2か月くらい前のデフォルト設定からほぼ変えてないので今や非効率な設定になってる可能性はある
なんUで出来のいいLoRAを配布してる方は24GBで学習していたらしくその人とはちらほら設定違う
https://huggingface.co/nashikone/iroiroLoRA/blob/main/Wan2.1-T2V-14B_LoRAReadme.txt
オプティマイザとかblocks_to_swapとかそういう設定次第で16GBでもそこそこいけるとかいう話もredditで見かけた
まあでも画像と比べるとまだノウハウも少ないし敷居高いのは事実

>>24
結果を見てみると明らかに学習データセットにないような表現も現れてるんだよね(殴られて歯っぽいのが吹っ飛んでる結果とかもあったけどそんなソースはない)
実はWanに元々それなりにアニメ的表現が内在していてプロンプトと上手く紐づいてないだけでLoRA学習次第で大きくアニメ表現を強められるんじゃないかと期待してる
俺はそんなセンスないほうだから他の人もアニメ学習トライしてほしい
28名無しさん@お腹いっぱい。
垢版 |
2025/05/12(月) 00:39:28.38ID:U8vWJXUH
土日にmusubi tunerのセットアップだけで終わった
しかも失敗してるし
何の成果も得られませんでした
2025/05/12(月) 00:53:34.26ID:VY+ylGMe
>>27
ありがと16GBからいけるのかあ...
>>20でも十分自然なアニメっぽい表現出来てると思うから応援してますぜ
30名無しさん@お腹いっぱい。
垢版 |
2025/05/12(月) 05:05:56.57ID:JdB++66N
みんな凄いな
先月中古の3060 12gb買ってStable Matrix経由でStable Diffusion,Comfyui,Kohya,wan2.1って入れたら1TのSSDかなり圧迫したので2TのSSD増設してStability Matrixごと移動
FramePackも入れてEici入れたらエラー連発無印は動くのに
copilotに色々聞きながらやって何とか動くようになった
というわけでまだ使うのこれからだけど自分が書いた絵動かすのはFramePack Eiciが良いのかなって感じだけどどうかな
2025/05/12(月) 05:18:24.09ID:I9FklIQ6
>>30
グラブによるとしか言えないと思うけど 306012 GB ならそれでいいんじゃないか
32名無しさん@お腹いっぱい。
垢版 |
2025/05/12(月) 07:32:15.67ID:7HYnJMTP
>>30
メモリが64GB以上は必要だな
2025/05/12(月) 09:26:55.58ID:MQdapGsa
FramePackから動画触り始めてLora入れて生成試してるレベルだけど自前で学習させて違和感なく出力させてるの凄いなあ
単純な叡智動画ならLoraの組み合わせと係数、プロンプトの記述次第で何とかなってるけど
34名無しさん@お腹いっぱい。
垢版 |
2025/05/12(月) 12:52:00.78ID:AKFswNWY
叡智でloraが効くようになったのでいろいろ試してるけど、
wanよりあらぶらなくていいな
画面の明るさも今のところ変化しない
適用体位が少ないけど確実性がありそう
お手軽にバッチで連続出力できないんだろうか?
レスを投稿する

5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況