X



【StableDiffusion】AI動画生成スレ1

レス数が1000を超えています。これ以上書き込みはできません。
2025/04/23(水) 16:48:07.59ID:cHADN1Vl
破綻やちらつきの少なさは武器だと思うけどねぇ

画像:好きなエロ画像
プロンプト:They shake their bories.
で及第点の動画は生成できそう。プロンプト頑張っても成果は得られなかった・・・
2025/04/23(水) 22:43:27.90ID:rl46ym8l
>>651
ああやっぱそうなのか
張り切ってダウンロードしたけど全然だめでなにこれってなったわ
たぶんキーフレームとか全部細かく設定してやればいいのかもだけど
それはちょっとめんどすぎるだろっていう
EasyWanvideoなんだけど該当ファイルがどれなのかわからんので消せねえ・・・・・・
2025/04/24(木) 00:13:07.29ID:J6Ur1wr/
wan ユッサ、ユッサ。FP ポヨン、ポヨン。
2025/04/24(木) 10:07:59.31ID:NZp0SxQi
>>655
>たぶんキーフレームとか全部細かく設定してやれば

そんなん設定するところ無いだろ
2025/04/24(木) 10:39:08.12ID:CGEdAwuM
とか言ってる間にFramepack-eichiとか出てきたな

まだ入れたばかりでキーフレームは試してないけど
最終フレーム指定だけでも
たくし上げやポロリやクパァは簡単にできそうね
2025/04/24(木) 10:46:47.10ID:NzRqWTiT
叡智版はイリヤ神版から「低VRAM動作」と「簡単操作」の神要素を排除してただのHunyuan Videoに戻しただけ感
2025/04/24(木) 11:55:46.47ID:NvB+bnas
多くの人が試してみたくなるような話題になった先端機能をいち早く実装してくれてる開発者に対して
よくもまぁそんなネガティブな言葉を発せられるもんだね

自分のニーズに合わないのなら使わなきゃ良いだけなのは何もこの事に限った話じゃないだろう
2025/04/24(木) 12:20:47.16ID:LJxxne0t
Grokとか一番信用出来ない
おすすめポストに興味がない何度クリックしても何度も再表示される 
2025/04/24(木) 12:36:11.76ID:q3FY7r1c
wan初めたばかりで楽しい
2025/04/25(金) 09:05:25.48ID:22UYVesT
FramePackの欠点はずっと1stフレームを参照するせいで背景の通行人が
ずっと同じ位置で足踏みしたりして、そういうのが破綻してる
ドライブ映像だと背景が固定されたりするし
せいぜいアニメのループモーションに役立つ程度だねぇ
664名無しさん@お腹いっぱい。
垢版 |
2025/04/25(金) 17:02:26.19ID:ypM27SIZ
質問する場所がここで合っているか分かりませんが質問させていただきます。ComfyUIでWAN2.1を動かそうと思っているのですが、この表示が何度も出てしまいうまくいかないです。GPTに聞いているのですが堂々巡りでずっと同じ対処を繰り返していて、解決に至りません。どなたかご尽力いただけると幸いです。
https://i.imgur.com/ERZrDyx.png
https://i.imgur.com/E4Sb58N.png
https://i.imgur.com/hvSsbId.png
2025/04/25(金) 17:35:11.79ID:GKNtftcN
そのままの意味だろ
ノードが無い
ウインドウ右下にインスコマネージャーのボタンが有るだろ
2025/04/25(金) 17:47:36.00ID:lbk6St06
なんとなくノードがないというのを理解してなさそう
そこからなのか…(困惑
2025/04/25(金) 17:58:34.38ID:UzTtLmHz
まずは足りてないカスタムノードをインストールするんだ。
そういや、今のcomfyuiってミッシングは自動的にダウンロードするようになってなかったっけか?
モデルだけだったかな?
2025/04/25(金) 19:20:30.90ID:v92A8Zqv
英語が出来る必要は無いが
この程度の英文をgoogle翻訳にすらかけられないものだろうか
それじゃプロンプトすら書けないだろうに
2025/04/25(金) 22:29:29.79ID:R+zLUgS8
やっと4090環境が出来た
4080の悲鳴から解放された
2025/04/26(土) 02:14:35.84ID:/KVOMXQC
調べるのは出来ないけど丁寧な質問はできる人間と顔も知らない相手に嫌味を言うしかしない暇な人間と
2025/04/26(土) 02:30:28.50ID:zftaZOkM
恋しさと切なさと心強さと
2025/04/26(土) 04:04:10.51ID:pjg5dH3o
>>670
ちょっと調べれば分かる事を調べもしないで聞く他力本願
そういうのは丁寧とは言わず狡猾と言うんだよ
公への質問とは何度も調べて試して駄目だったから助けを求める者がする事
2025/04/26(土) 06:51:39.65ID:bszvPwgq
FramePack-eichi が面白そう 詳しくはNote.comの記事参照
複数のキーフレームを用意することで狙い通りに動くようだ
2025/04/26(土) 07:21:40.24ID:i5ZFqL3D
>>673
試してみた?
自分は複数キーフレーム用意する時点で挫折しているんだが
675名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 09:51:16.57ID:hQnGwCGG
叡智でlora適用でやってもサンプル1秒から増えないんだが。時間かかるのか
676名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 11:11:26.75ID:+bUq4Vdw
ああカスメとかコイカツとかLive2Dない人はi2iの構図元すぐでねぇのか
2025/04/26(土) 14:30:56.93ID:jMHnySbo
久々に来たらレベルが低いのが混じってんな
2025/04/26(土) 15:00:46.09ID:vi4g1wkF
よう昨日ぶり
2025/04/26(土) 15:21:22.82ID:3a9LxDdL
数日前に出たWan2.1用の脱衣系Loraがまた消えてるな
規制が厳しくなったのかと思ったけどHunyuanの脱衣系Loraは普通に残ってるんだよな・・・
680名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 16:08:41.06ID:0sW0ypg8
FramePack-eichi
早速環境構築して5秒動画生成中
i7-16gb Rtx4060ti16gb
メインメモリパンパン
gpuメモリ余裕(12gb消費)
1時間でやっと8%進んだよ
2025/04/26(土) 16:50:58.70ID:cogARbrv
16GBて
よくOOMにならんな
2025/04/26(土) 17:03:27.70ID:3a9LxDdL
>>680
RTX3080(12GB)でも6秒生成に12分だぞ

>>681
いやVRAM16GBあったらFramePackでOOMになりようが無いだろw
683名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 17:09:22.53ID:+bUq4Vdw
>>680
SSDすごい勢いで削ってるヤーツ
2025/04/26(土) 18:24:32.52ID:qGqLJFlQ
メモリ64GBでも足りねーって言われている動画生成で16GBでチャレンジするのはかなりきつくね?
685名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 18:38:45.00ID:0sW0ypg8
あーメモリ増やさんとダメか
32gbがマザボの上限なんだよなあ
2025/04/26(土) 18:39:19.06ID:8sUaWkGr
オンラインの動画生成AIの進歩がすごすぎて
2世代くらい遅れてるローカル環境の動画生成AIでは満足できない
2025/04/26(土) 18:43:25.63ID:gvPZDAGq
スマソ動画初心者なんだがメインメモリの容量とか仕様が関係するの?
2025/04/26(土) 19:11:46.88ID:Lrx1oh61
>>686
エロ出来るだけでだいぶ満足出来るわ、その領域はサブスクサービスだと不可能だから
2025/04/26(土) 19:29:35.27ID:IgI4NaRs
>>687
動画生成ではメインメモリは関係大アリ

時々勘違いしている人がいるんだけど、FramePackがVRAM6GBで動くというのはVRAMだけの話であって
メインメモリはたくさんいるのよ

FramePack(本家、kijai両方)やHunyuanVideoやWanのkijai版ワークフローの場合、モデルは基本的に
メインメモリに展開される。モデルの一部をVRAMに載せられる範囲で載せ、載せられない部分は
メインメモリに載せて動画生成処理を行う

HunyuanVideoだと、プロンプトを処理するllava_llama3がFP16で16.1GB、動画を生成するモデル本体が
BF16で25.6GBもあるし、FP8モデルでもllava_llama3が9.09GBで、本体が13.2GBだから、本体はGeforce
3060 12GBの場合どうやっても全部は載せられない

モデルは他にVAEが必要だし、I2Vや開始終了画像指定の場合画像を処理するVLMがさらに必要になる
全部でFP8でも25GBぐらい、FP16では50GB近くあり、VRAMに入らない部分はメインメモリに展開しないと
いけない

だからメインメモリが32GBでも厳しいという話になるわけ

ComfyUI Native版HunyuanVideoやWanワークフローの場合もそのままでは同じだけど、GGUF形式で量子化
(圧縮)したモデルを使うよう修正したワークフローが存在する

GGUFの場合、llava_llama3がQ4_K_Mで4.92GB、本体がQ4_K_Mで7.88GBだから、直接VRAMにllava_llama3を
載せ、プロンプト処理後にllava_llama3をアンロードし、本体をVRAMにロードして動画生成するならVRAMに
全部収まり、メインメモリは使わずに済む(実際は両方メインメモリにも展開されていると思うが)

GGUFはモデルを小さくした分精度が下がるので、生成される動画の品質は下がってしまうけどね

なお、現状FramePackはGGUFに未対応でつ
2025/04/26(土) 20:58:05.84ID:gvPZDAGq
>>689
言ってる事の半分も理解できないけど、動画ではメインメモリの容量が大事なのは伝わった。当然速度も早い方がいいのだろうけどまずは容量なんだね。
半分くらいは理解できたのでありがとう
現状32GB 3060VRAM12GB
128GBは現実的じゃないけど64GBにするのはかなり前向きに考えてる
グラボは5080買うんでそれを機にウpしてみる
ありがとう そしてよろしこ^^
2025/04/26(土) 21:02:22.66ID:3a9LxDdL
>i7-16gb Rtx4060ti16gb
>メインメモリパンパン

こう書いてあるからCPUはi7-16gbでグラボはRTX4060ti(VRAM16GB)
メモリは何故か伏せられているけど「パンパン」と表記してるから
恐らく最大値積載とエスパーして128GBか256GBと仮定してレスしてたわw
いやまさかRAM16GBとは思わんやろ・・・
2025/04/26(土) 21:08:02.41ID:3a9LxDdL
>>690
マジレスすると現実的に考えてメモリは128GB積んでおいた方がいいぞ
俺がいま128GB積んでるけどFramePackが半分の64GBくらい占有してる
他のAI生成でもメモリ積載量は大正義だからよほどの理由が無い限りはマジで128GB積んだ方がいい
2025/04/26(土) 21:17:48.76ID:gvPZDAGq
ってことは動画メインに考えるならグラボよりメモリに金使えって事かいのう?
2025/04/26(土) 21:21:04.59ID:gvPZDAGq
ろろろろ六万!
2025/04/26(土) 21:25:37.00ID:3a9LxDdL
両方やな・・・
これは金のかかる遊びなんや・・・
俺はいまRTX3080(VRAM12GB)だけどグラボを新調する余裕は無いからメモリだけでも爆盛りしとこうと思って128GBにしたけどWan2.1でもFramePackでも効果絶大で快適に生成出来るようになったよ
何より生成中にPCで他の事を出来るのがでかい
696名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 21:50:58.82ID:0sW0ypg8
皆さんのレスで64gb乗せることにしました最後でエラーになって動画が出来なかった
2025/04/26(土) 21:51:06.88ID:38uRJaID
メインメモリは多いほどいいぞ
ComfyUIだと「multigpu」のノード使えばVRAMの一部をメインメモリ(勿論他のVRAMにも)に
退避できるようになるので今まで動かなかったモデルも動けるような設定が可能になる
大抵のモデルロード(clipやVAE含め)のノードのmultigpuノードがサポートされてるから、
メモリ多い人は試してみるべし
メモリは64GBだと微妙に足りない場面が多くて、96GB(48GBの2枚挿し)か、
128GB(32GBの4枚挿し)を狙うといい
2025/04/26(土) 21:58:44.12ID:gvPZDAGq
>>695
他事できるのはいいね。これは完全同意だわ
えー128GBかーえ〜
2025/04/26(土) 21:59:50.38ID:BUmSqVEk
メモリ4枚挿しとか遅くなんね?
2025/04/26(土) 22:01:17.77ID:DlGtSxre
ぶっちゃけローカルでやるメリットってエロ以外なくね?
2025/04/26(土) 22:09:42.46ID:Jx+zcO/R
それ以外に何が必要なんだよ
サイトによっては
本数制限や順番待ちが発生する
2025/04/26(土) 22:11:17.66ID:nRkxe4OL
外部サイトで有料や回数制限がある中で
微妙なのとかクリーチャー出たらノーカンに出来るの?
703名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:23:55.82ID:l0TmBsd+
健全なイラスト生成利用だっていちいちクラウドに金払ってトライアンドエラーやってられんだろ
2025/04/26(土) 22:36:05.90ID:Lrx1oh61
4枚差し96GBだけどDDR4だから別に大差ないな
問題が出るのってDDR5の話って聞くし
2025/04/26(土) 22:38:55.13ID:3a9LxDdL
うちもDDR4の32GBx4で128GBだけど別にパフォーマンス落ちたりしてないな
精神衛生上memtest86回した時は18時間くらい掛かってしんどかったが・・・
706名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:48:02.50ID:BBwJpqK7
128GBは18時間かかるのか
memtestは2、3周してエラーなくても4周目でエラー起きるとかあるから1周だとまだ不安が残る
1周するのに18時間かかるとなると2,3日かけっぱとかの方が安心できるな
でも流石にメインのPC2、3日使えないのはキツイ
ただメモリがダメだと最悪ファイルのコピーでファイルが壊れていくからなー
2025/04/26(土) 22:50:53.58ID:3a9LxDdL
>>706
いや1周というか4パス完走するのに18時間や
2025/04/27(日) 04:01:03.92ID:1cLFBwpR
動画やってないけどDDR5 192GB積んでるわ。
本来はメモリ速度が落ちるけど、メモリオーバークロックして通常の速度にしてる。
2025/04/27(日) 10:10:27.21ID:3mQR4J30
1年くらい前の動画生成AIは開始イメージくらいしか指定できなかったし、プロンプトの認識も頭悪くてからまともな動画できるまでかなりかかったけど
最新の動画生成AIは開始終了フレーム指定でプロンプトも画像内の複数の人物の判定が正確になってほぼ思った通りの動画が一発で出来るようになったよ
710名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:43:51.74ID:ghdrQXbq
ASCll×AIの記事でFramePackのwebUI版導入したんだけどパソコンの電源を起動
し直すたびに使えなくなるんだけどどうやってまたwebUI使えるのかわかる人いますか?
711名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:48:47.34ID:ghdrQXbq
すみません
自己解決しました
またrun.butのファイルを起動したらいけました
2025/04/27(日) 15:12:33.55ID:OQ2j+/Vw
低スペックなPCでもWEBサービスはコーヒー1杯の値段で高速生成してくれる
どっちをとるかやな
713名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 15:27:03.76ID:t/XDPTn1
ここの人たちって叡智なのが主目的なんじゃないのん?
ならWEBサービスって最初から論外になんない?
2025/04/27(日) 15:52:45.76ID:3Tlc6hAy
どうせ非エロとか、仕事とか商用目的視野にしてない人だとちょっと触って飽きて終わる未来しか見えない
2025/04/27(日) 15:54:57.51ID:cLSIkbx6
個人的には服着ててもフェ●チオジェスチャーみたいなのを
口開けて叡智に動かしてくれるだけで満足できる自信があるけど
オンボードで動画生成できるスペックがそもそもない
2025/04/27(日) 15:56:12.95ID:OQ2j+/Vw
>>713
タイトルの【】内はWebUIなんやでって何でまたこういうレベルの説明せなアカンねん
2025/04/27(日) 16:23:33.59ID:5yYx6aiA
>>713
サイト専用の可愛いモデルが有るから
組み合わせて作ってLoRAの素材にするんだよ
2025/04/27(日) 16:56:50.33ID:yFUcxuIr
まだ環境構築してないのにソフマップのDDR5 128GBキット48000円が最安で買うか迷ってる
719名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 20:03:34.63ID:ldkL6x4a
680です
メモリ64GB(16GB×4枚、総額1万2千円くらい)にしたら速い速い
5秒動画が10分かからないくらいになった
ピーク50GBくらい使うのな
2025/04/27(日) 21:11:17.14ID:vxnA/8mb
諦めたら試合終了なんです
如何にオンラインの検閲を誤魔化して
叡智な画像を作るか
検閲に引っかからない絵で如何に妄想するか
むしろ露骨な丸出しってキモくない?
2025/04/28(月) 02:41:05.48ID:bRzbyCI2
全然
モザイクで興奮するなんて言うやつも理解不能
2025/04/28(月) 08:53:04.32ID:5dwf2ez+
というかモザイクって欧米ではやってないよ
日本がガラパゴスなだけ
2025/04/28(月) 09:11:47.57ID:uKyu3YAl
でも欧米人ってアニメで湯気越しのおっぱいが出ただけで凄い反応するんだぜ?
2025/04/28(月) 15:06:04.77ID:9VYZZOuS
全裸だったらもっとすごい反応します
2025/04/28(月) 15:25:47.86ID:hCWJASNP
それは全年齢版にエロを混ぜんなっていう別の話
日本でも任天堂のプラットフォームは厳しいだろ
2025/04/28(月) 15:28:32.23ID:QDrx49td
俺からしたらエロいのキモいとかいう感性がもうキモいわ
女ならともかく男が言ってたら脳の深刻な病気を疑う
2025/04/28(月) 15:54:54.84ID:CJm5VNQd
任天堂Switchのエロゲコーナー
https://i.imgur.com/RSVO2qS.jpeg
2025/04/28(月) 15:56:50.02ID:HsU82IVa
>>725
PG12とかを見てオッサンが口をあんぐり開けていたりする方が異様だ
2025/04/28(月) 15:59:08.50ID:ABEYSPy7
だってプロンプトにgirlだけ入れてもまんこ描画する素敵なモデルばかりだしなぁ
2025/04/28(月) 16:11:58.25ID:5dwf2ez+
>>725
任天堂プラットフォームはめちゃくちゃ緩いんだけど
ソニーの方がポリコレ配慮でエロに厳しい
分かりやすい例がLoveR

ちなみに肌が見えるだけでエロ判定する人もいるけど
そこまで言うなら厳格なイスラム原理主義の国に移住した方がいいと思うよ
女性の肌見せるのはNGだし、女性のポスターも恐らく禁止
2025/04/28(月) 17:21:25.23ID:76KT1+x7
ソニーはポリゴンの繋ぎ目が件股間に見えてただけで意図を問われるからなぁ
732名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:30:39.17ID:W9imuHi9
>>719
Win10pro64bit、corei5、CPU16GB(DDR3、8GB×2)、RTX3060(12GB)で5秒動画に5時間以上かかるから、これ見てメモリ増設しようとしたらスロット埋ってて増設不可だったm(__)m
2025/04/28(月) 17:40:37.94ID:zot09Eo5
メモリそれでやろうとするならストレージの寿命爆速で縮みそうで怖すぎる、PC壊れる
32×32の64GBか48×48の96GBで2枚差しにするか、マザボ変えるか、分からなければ素直に買い替えの3択やな
おすすめは96GB以上
2025/04/28(月) 17:42:09.36ID:zot09Eo5
てかDDR3じゃねーか
流石に買い替えた方が良さそう…
735名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:57:52.31ID:g/kaiV7C
AIいじる土俵にすら上がってないのでは。
学生とかでも少しバイトして金ためりゃすぐ買えるだろ
あれこれ動作環境で頭悩ませながら延々と四苦八苦するより、さっさと金用意してPC更新した方がいいと気づこうぜ
736名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:00:07.48ID:SeIRlYU8
>>727
こういうのは昔vitaやpspが担ってたけど、携帯機がこれしかなくなってからswichに変わったよね
737名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:13:11.42ID:W9imuHi9
>>734
>>735
やっぱそうなのね、静止画(sd1.5)では
それなりに動いてたんだけど、動画は流石にきびしいかぁ
どうもです
2025/04/28(月) 18:28:20.33ID:0OALh26X
未だにDDR3のマザー使ってる事に驚いた
2025/04/28(月) 18:40:05.14ID:zot09Eo5
使ってるというか昔完成済みのローミドル帯ゲーミングPC(2枚までならノートか?)買ってそのままなのでは?って感じがする
DDR3ならストレージも今主流のSSDではなくHDDの可能性すらあるかもしれない()
740名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 22:05:23.15ID:B6yi49pz
プロンプトは画像より難しい
例のThe girl dances gracefullyしかまともに動かない
オススメのプロンプトある?
2025/04/28(月) 22:25:03.91ID:kZkFSo1f
VRAM32GBか...いいな
金は有るのだがノートしか置けない環境だからなぁ
742名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 11:03:13.15ID:DPSmX0UA
3090から5090で同じ環境での生成速度差
5090の在庫が普通に並ぶようになってきたので参考までに

size:720*720
Steps:30
Frames:120
Model:720p-Q8
高速化:Sage Attention,tea cache

[生成時間]
3090→2100秒前後
5090→400秒前後
2025/04/29(火) 11:18:11.69ID:fM1wwv/j
スペックの話ばっかりやな
PCなくてもVastaiとかでも作れる時代なのに
2025/04/29(火) 11:23:08.86ID:JlJByp63
4060ti16GBと5060ti16GBの比較が欲しいんだよな…
745名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 14:10:14.07ID:BatT8ZjD
>>744
https://nunogameblog.jp/rtx5060ti/#index_id16
2025/04/29(火) 15:34:32.85ID:YIbL4j9i
参考にならなくて笑った
まぁ、ちゃんと設定しないとダメだよという事の証明なのかもしれないが
2025/04/29(火) 17:51:39.43ID:gBWwMdNG
>>742
これ3090のほうはVRAMが漏れてるとかいうオチじゃなくて純粋にこんな速くなるのか?
貧民だけどちょっと検討したくなった
2025/04/29(火) 19:19:01.39ID:2pwPeiRJ
>>742
3090って思ったよりも遅いんだな。。
4090で大体600sくらいなので、
これだと5090に乗り換えなくてもいいかな

中国では48GB搭載の4090が出回っているらしい。
どうやったら入手できるのかな
2025/04/29(火) 19:53:39.77ID:7mi3FKSb
>>748
魔改造4090の入手手段なんてアリエク見張ってるくらいじゃね?
750名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 20:22:29.22ID:tXpYH5ti
円高気味なんで
i9 RAM128GB Rtx5090
が50万くらいで買えるようにならんかな
今80万はかかる
2025/04/30(水) 03:48:29.83ID:FvOdVPJF
中国のなんて殆どが詐欺だろ
80TBのSSDとかさ
2025/04/30(水) 08:00:32.95ID:seQabHYQ
初心者なりに簡単な報告
RTX3060 12GBからRTX5060ti 16GBへ換装
easywan、Kijai_I2v、480×320、10step
各種高速化オプション使用で5秒動画の生成が6分から2分半に短縮された
2025/04/30(水) 09:39:38.48ID:OLoMC+lh
すごくありそうな換装やからみんなの参考になるわね
2025/04/30(水) 09:41:58.45ID:+00Mx9Sv
>>751
あれに騙されて買う人が普通にいるのが恐ろしい
義務教育レベルでそのへんの情報基礎教育は必要だと感じる
2025/04/30(水) 09:58:01.76ID:nvWkOAvG
遂に5090 32Gが普通に買えるようになってきたね
A4000から積み替えるかぁと思ってもやっぱ60万だと動画生成の差がわかんないと怖くて買えないね
2025/04/30(水) 14:26:26.51ID:Q4+AAnuu
framepackから動画生成を始めたんだけどもう一つの話題になってるWanは元画像そのままで動画に出来るの?以前に試したAnimatediffは元画像と別物の動画になってたから。
2025/04/30(水) 14:36:32.43ID:S4wDX7Dq
出来るよ
758名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 15:15:51.48ID:uansnY30
>>747
3090はかなり設定詰めてたからVRAMは溢れてない
VRAM下げたくないから3090→5090乗り換え勢は結構多いと思う

>>748
生成時間がかかってるのは
720*720、Step30、120Frame(7.5秒)、だからかと
どれぐらい速度上がるかは同じ条件で出力して比較してみるといいよ

あとeasyWan、というかKijai Workflowは初期Stepが10とかじゃなかったか
実写系だとノイズ感強いというかサンプリングが合っていない感が強くて使ってないので比較できない
2025/04/30(水) 15:19:16.41ID:L7SQ1fHD
>>756
異空間からチンポが出て来て入れちゃうぞ
腕を下げているポーズなのに腋見せしたりしてAIすげーと思うわ
2025/04/30(水) 17:46:15.89ID:Q4+AAnuu
>>757
>>759
ありがとう、正直ガチエロでFramePackは限界を感じたから連休でWanの勉強頑張るわ。
2025/04/30(水) 18:04:04.47ID:Jw+BBSMB
FramePackEichiのLoraが「要VRAM16GB」と書いてあるけど
DDR4-128GBにRTX3080(VRAM12GB)で5秒の動画が生成出来たので報告
ただし生成中はメモリ128GBをほぼほぼフルで使ってる模様・・・
ちょっとビビるけどこの為にメモリ爆盛りにしたんだから活用しないとな
VRAM12GBしか無いけどFramePackでLoraも使いたいって人はメモリ128GBでカバー出来るぞ
2025/04/30(水) 18:07:12.15ID:S4wDX7Dq
破綻しにくさと一貫性があるのは分かったからwan並に動きがキビキビするようになってからまた起こしてくれ
2025/04/30(水) 18:08:30.72ID:hTfOcJag
>>761
4070tiと32GBでも動いたな・・・生成開始直後にSSDの負荷が爆上がりしたからもうやりたくないけど
そして生成物にはLORAの効果が全然出てなかったという悲しみ
2025/04/30(水) 18:57:20.77ID:OLoMC+lh
っていうかFramePackでて大騒ぎになっとる理由がようわからんねんな
EasyWanVideoの段階で画期的やしエロでは以前トップやろ
2025/04/30(水) 19:00:11.07ID:aKo9Jb0Y
FramePackは軽いからって理由で話題になってるから容量十分な奴はwanの14Bでええやろ
2025/04/30(水) 19:00:30.64ID:Nk4nd6Kg
>>763
そりゃVRAM→メモリ→ストレージ(一時ファイル)の順で足りないと負荷がかかっていくからな
一時ファイル専用のSSDを用意してそいつに負荷を押し付けてやればいいよ
2025/04/30(水) 19:10:13.03ID:hTfOcJag
>>766
さすがに100%近くまでアクティブ率があがって、これはやばい!と思った
FramePack用に学習し直されたLORAを使って全く効果なかったから暫くは良いかな
LORAを使ったりしなければ、SSDに負荷かからないし
768名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 19:12:10.25ID:IZEuXNP1
>>764
comfyUIじゃないって時点でかなーりハードル下がるんだよ
あのスパゲッティ見るとムリムリムリムリってなる人多い
2025/04/30(水) 19:20:14.75ID:OLoMC+lh
もったいねえなあ
2025/04/30(水) 19:23:21.04ID:2y/lcK4+
FramePack入れようとしたけどbatでダウソ始まらないで何かキーを...になるから止めた
Comfy+Wanでいいや
2025/04/30(水) 19:23:45.39ID:Z9wN683h
完全に慣れの問題で、別に難しいことはないと思うんだよなあ。ComfyUI。
サンプルワークフローも豊富だし、自分の好きなようにノード配置出来るし。
2025/04/30(水) 19:44:27.98ID:2y/lcK4+
Comfyは一瞬で環境が変えられるから
flux他で元絵を作って直ぐにwanへ切り替えるとか出来るし
今何を処理しているのかが分かって楽しいわね
773名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:03:05.02ID:eTyI/HHr
FramePackは世間的にはエロがではなく
破綻が少ない動画が作りやすく
有料サービスより長時間対応すげーってことかと
2025/04/30(水) 20:07:59.35ID:IeMqLMyR
最近のComfyは変化が大きくてなんか微妙に操作が変わったりするし
古いCustom Nodeがどんどん使えなくなっていくし
775名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:19:36.23ID:BWmowv5f
framepackはmacでも使えるようになったのな
時間かかるとはいえMacBookAir(ユニファイドメモリ24GB)で作れるってのは大きいな
2025/04/30(水) 20:20:00.55ID:/ZHbIOSE
初心者はpinokioでやるのがオススメだよ
2025/04/30(水) 20:39:06.77ID:Jw+BBSMB
画像生成ならともかく動画生成だと現状のComfyUIは
自分でノード書き換えとか出来るスキル持ってないと無理ゲーになりつつあるよな
俺はStabilityMatrixのComfyUIにZuntanニキのワークフローを拝借してWan2.1使ってたけど
もう諦めて動画生成専用にEasyWanVideo導入したわ
実質ComfyUIが二つ入ってる状態なのが気持ち悪いけど仕方ない・・・
2025/04/30(水) 20:45:47.13ID:wtr/clJB
ComfyUIの楽しいところは自分でノードを付け足して機能拡張したりアレンジしたり
するところなので、ポンつけのWebUI系は全然面白くない
FramePackもComfyUI版でしか試してないな
779名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 21:54:28.56ID:zkppWgQk
easywan使ってんだけど、loraだけ新しく入れたり出来るの?エロ系普通に探しても出て来ないんやが。
780名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 22:02:18.22ID:eTyI/HHr
civitaiは必修科目ですよ
781名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 23:01:10.59ID:uansnY30
easywan(というかKijaiWorkFlow)使ってる人多いが画質がピーキー過ぎないか?
特にピクセルエリアの少ない人物の顔が潰れるのとハイコントラスト時の肌がノイジーになるのがキツイ
歯とかめちゃグニャる
Model、clipModel、VAEをいじればそこそそマシになるがそれでも諦めた。

GGUFも使えないし、そもそもデフォだと制限かかってて
modules\model.py
modules\clip.py
ComfyUI-WanVideoWrapper\nodes.py
のソースいじらないとモデル変更もできない

kijaiは速度に命かけてる感があるので何かを犠牲にしてるんだろうが...

↓参考までに左がeasywanI2V、右はUmeWorkflowで同じ条件で出力した1フレーム目の比較
https://imgur.com/a/bZWgHLL

1フレーム目から顔とハイコントラストの肌の質感がだいぶ潰れる
モロにSamplerの影響に見えるけど統一しても同じ
静止画1枚だと分かりづらいけど、両方試せる人は試してみてほしい
2025/04/30(水) 23:30:00.62ID:6zEwlUi0
その程度の違いどうでもいいわ
2025/05/01(木) 00:09:15.16ID:X8NeLKbL
Kijaiの10ステップで生成してるけど全然問題感じないし
ネイティブで30ステップで生成時間3倍になる方がデメリットすぎるよね

720PのQ8って18GBでFP8よりも1GBでかいけど目に見えて品質は改善されるのかな
それにQ8はFP8よりも複雑に量子化されてるから生成遅くなるらしいけどどの位変わるんだろ
784名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 03:15:50.86ID:eG3GI6pW
Kijaiを否定するつもりはまったくないけどステップを3倍にしたら生成時間が3倍、とはならない
同じ条件で動画にしたが

[右 ume]  Steps:25で61秒
[左 Kijai] Steps:10で72秒

https://i.imgur.com/xEsaSqO.mp4

5090環境なのとumeの設定をカスタムして詰めてるのもあるだろうがステップ数を倍にしてもumeの方が早い
ステップ数が少ないと動きが早いモーション時なんかにノイズでガビガビになる(特に手と口と柄物)
動画の最後の歯の部分なんかがわかりやすい。ノイズは引き継がれるので長尺の動画になればなるほど後半に影響が出る。
「引き抜いた竿がツルツルになる」みたいなのに悩んでる人も多いだろう。

あと初心者への配慮からかVideoWrapperのpyがいじられているので他のWorkflowとの互換性がすこぶる悪い。
他のWorkflow入れた時のノードエラーが解決しない人も多いのでは?

おそらく仮想環境のpytorchとSageAttentionのハードルの高さからeasyWanが使われることが多いんだろうが、
それが理由ならUmeAiRTが3日前にauto installer公開してるので比較してみるといい

https://civitai.com/models/1309415/comfyui-auto-installer-wan21-or-sageattention-or-50xx-cards-compatible-or

個人的にはGGUFはVRAMを解像度とステップ数に回せるのでマスト
ステップ数を上げるとガチャ確率も上がるので結果トータルの生成時間効率も上がる
2025/05/01(木) 03:50:27.08ID:8qT1LUvc
Umeの方はComfyUIとManager、各種ノードのバージョン管理を出来て
尚且つPythonコードを書ける事が前提みたいなワークフローだから安易に人には勧められんな・・・
更に言うとそこまで頑張ったとしてもEasyWanVideoの方と比較して
圧倒的なクオリティ差があるかと言われれば別にそんな事も無いし・・・

そしてこれは誰もが思う事だから言うけど5090環境での生成速度レポートはマジで何の参考にもならない
「そりゃ速いでしょうね」意外の感想なんて出てこないよ
2025/05/01(木) 06:00:46.27ID:2/k4YZaI
>>785
同環境での比較見てその感想しか出ないことはないでしょ
2025/05/01(木) 06:44:38.35ID:8qT1LUvc
>>786
EasyWanVideo使う様な低スペ層に5090の比較速度が何の参考になるの?
2025/05/01(木) 07:02:32.43ID:3Gahlv9z
そもそも急に出てきたUmeって何だよという感じだったけどCivitaiでWorkflowを配布してる人の名前なのね
普通、プログラムだと思うじゃない
説明してくれないと自分みたいな赤ちゃんは困っちゃうよ

こっちは逆にEasyWAN(Kijai)の設定をカスタムして詰めてるけど当然というかUme(Native?)の方が遅かったな(4060Ti)
たぶんEasyで「Set_BlocksToSwap」の設定をしなかったか、後入れの高速化を何か入れてなかったんじゃないかね

Ume(gguf)は確かに高画質というかi2vの元絵から劣化が少ない気がするけど
何故かLoRAを使うと絵が壊れるし自分の環境には合わなかった
インストール時に色々と最新を入れてくれてる気がするから5000系ならお手軽でいいのかもしれないが

とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
2025/05/01(木) 11:51:37.64ID:ia1dq4En
しかしながら、LORAや設定もだが、プロンプトも超大事。

動画内の時間の流れや物体の位置を把握して書くと全然違うわ。
2025/05/01(木) 12:07:17.84ID:i+CPIHYS
大事なのはわかるんだけどどこがどう効いているのか実感しづらいんだよなあ
特にWanについては結局LoRAがほぼ全てな気がする
791名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 12:28:45.81ID:eG3GI6pW
>Umeの方はPythonコードを書ける事が前提

は具体的に何を指している?UmeAiRTのWorkflowは初心者用のauto installerもありプレーン環境を汚さないし、
「pythonコードを書ける事が前提」これはまったくの逆でKijai Workflowではclipを変更するだけでも

LoadWanVideoClipTextEncoder
if "log_scale" not in sd:
raise ValueError("Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model")

と制限しているので書き換えが必要でお気に入りのカスタムノードやWorkflowを使おうと思うたびにコード修正をしないといけない。
これはまさにあなたが言っている「Pythonコードを書ける事が前提」そのものでは?

思うに初心者が「EasyWANが早い!」となるのはMicrosoft Visual Studioでのビルドやら環境変数へのCUDA PATHへの追記やらをしなくてもEasyWANにTritonベースのSageAttentionがincludeされているのが原因だろう。
逆にTea CacheとSageAttentionが有効に出来ているなら速度差の要素なんて解像度とStep数程度しかない。


>とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
これはまさにその通りで好きなものを使えばいいのだけど、Wan2.1とくにEasyWANではモデルデータが100GB超えなのもあり比較が難しい面もある。
実際比較を試しても生成時間がネックになり試行回数も少なくなり、ガチャの当たり外れもあって判断は難しい。
なので、わざわざ「ComfyUIを2つ作り」「同じ生成時間になるように設定を組み」「同じ元画像で動きの少ない動画を作り」比較しないといけない。

自分は人物のダイナミックな動きのある動画を生成しているので、顔や手にノイズの乗りやすいKijai Workflowは相性が悪いと感じる。



まったく関係ないが「竿が奥まで入らない」問題は
「深く入れる」「奥まで入れる」より
The penis disappears into the vagina(膣の中に消える)
のPromptがめちゃくちゃ効果あった。時々霧散するが。
792名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 15:47:32.45ID:LyBEq8mQ
途中までおおっなんか深そうな話してる分かってる感あってカッコイーと思って読んでたら最後でうん・・・てなった
いやある意味一番有益な情報かもしれんが
2025/05/01(木) 16:44:04.43ID:3Gahlv9z
5090使ってて生成時間がネックで比較が~とか書かれてもみんな泣いちゃうよ
EasyWanの開発者は3060Tiじゃ無かったっけw

色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだね
Umeは0.13だけどEasyは0.20
この数字が大きいほど早くなるけど、劣化も大きくなる
Tea cacheを使わないか0.13に下げればEasyWanでも画質は良くなると思うよ

EasyWan(kijai)はFramePack対応に忙しそうでWan環境はあんまり更新されなくなった
Umeは最新を追ってるから速度の差が縮まっているのはその違いって気もするけどね
これから新規にWanだけを始めるなら最新環境が一発で整うUmeがいいんじゃないのかな

色々試したいならEasyWanの方が楽しめると思うよ
好きなの使おう!
両方使ってもいいわけだし
2025/05/01(木) 17:06:02.00ID:D0R/SKc6
Wan2.1はNative版のフローの方が良い結果が出る
生成時間は少し長いが、結果ガチャ回数減るので結局Native版使ってる
あと、ちょい前はTeaCache使ってたけど、これも品質阻害要因なんだよね
今はスキップさせてるわ
2025/05/01(木) 17:13:01.17ID:E5h3CIGn
nativeのTEの方が品質いいのはわかるけどそれもブリッジで使えるし設定同じにすればそんなに差はないと思うんやけどな
ggufは少し品質良くても常に遅いから使わんけど
2025/05/01(木) 17:14:04.32ID:X8NeLKbL
EasyWanにnativeは倍以上ステップが必要とか
生成時間も長いって書いてたから使ってなかったけど試したら確かに良いな
I2V-720P-FP8でnativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
nativeだと720×480とかで生成しても元画像からの劣化が少ない

umeとやらは余計なノードとか多かったから最小限のワークフローに
TeaCache, SkipLayerGuidance, Sage attentionとlora3つ位入れて
3090で18ステップ位で生成してるけど時間もkijaiの10ステップと大差無かった

俺は時短のためにnativeのTeaCacheは0.33で5ステップ分スキップさせてるけど
それでも自分の環境だと明らかにkijaiより綺麗で良い

nativeだとkijai版のumt5 xxlは使えないから変更必須なのと
block swapは専用の拡張入れないと使えないっぽいのが注意か
797名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 18:52:07.23ID:eG3GI6pW
>色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだねUmeは0.13だけどEasyは0.20
当然だけど大前提として両方統一して結果に差が出る
EasyWanではなくkijaiのWanVideoWrapperのSamplingが影響している


>>796
が言いたいことはほとんど言ってくれた
>nativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
>kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
>nativeだと720×480とかで生成しても元画像からの劣化が少ない
言いたかったのはまさにそれ
同一ソースから出力して初めて気づく
UMEと比較するんじゃなくてnativeと比較するほうがわかりやすかったね

そしてnativeを使うならわざわざプレーン環境を汚すEasyWanを使うのはどうなの?と言いたかっただけ。
べつにUMEに拘ってはいない。どんなWorkflowでもいい。
ただ自分がしる限りSageAttention(Triton)がincludeされているのがUMEとEasyWanしかないので初心者はUMEのオールインパックという選択肢もある

何度もいうがEasyWanを下げているわけじゃない。
初心者がワンクリックでオール・インできる環境は素晴らしいし、Modelに制限かけているのも初心者がミスマッチなModelを選んでしまうのを防ぐためなのだろう。


だからこそ「Umeの方はPythonコードを書ける事が前提」といった初心者が勘違いするようなことは言うべきではない
2025/05/01(木) 19:00:17.68ID:D0R/SKc6
Kijai版のWan使う人はClip visionが「clip_vision_h.safetensors」になってるか確認した方がいい
現状(最新のワークフロー)はそうなってるみたいだけど、以前は違ってたからね。
で、異なるClip visionだと全然動いてくれなった記憶がある
2025/05/01(木) 19:17:26.08ID:D0eUC69t
Native版は使ったことがないんで知らないんだけど、Kijai版にあるSLG(Skip Layer Guidance)はNative版にもあるのかな?
Layer=9, start=0〜0.2, end=0.6〜0.8ぐらいで入れるのと入れないのとでかなり動きの安定度とか違ってたと記憶してる
2025/05/01(木) 20:00:24.02ID:X8NeLKbL
ComfyUI-KJNodesのSkip Layer Guidance WanVideoノードでnativeでも使えるね

別件だけどkijai版のモデルローダーはbase_precisionでfp16_fastを指定すると
fp16 accumulationが有効にできて20%位生成加速できたんだけど
native版のモデルローダーだと量子化後のfp8とかのdtypeしか選択できなくて困っとる
どこで指定すれば良いんだろうか…
2025/05/01(木) 20:38:29.09ID:E5h3CIGn
Diffusion model loader KJ
2025/05/01(木) 20:53:26.94ID:X8NeLKbL
>>801
これもKJNodesにあったのか!やっぱり20%位速くなったわありがとう!
2025/05/01(木) 20:57:36.28ID:D0eUC69t
>>800
使えるんだ サンガツ 今度ネイティブ版も試してみるかな
自分の場合画質があまり気にならなかったのは608x960で作ってるからかな
2025/05/01(木) 21:25:18.49ID:cH+/zmPC
なんUのFramePackでHunyuanVideoLoRA使って崩れにくいエロが出来るようになったの見て来たか…(ガタッ
みたいになってるんだけどRAMどんだけいりそうなんだろうか
2025/05/01(木) 21:33:31.05ID:/men2COp
>>804
最低でも64GBは必要そう
以前のVerは32GBでSSDの寿命削りながらも一度だけ完走させたけど、今のVerはさらに負荷が凄くなってて怖くて止めた
2025/05/01(木) 22:56:01.30ID:pURyNRqn
動画系は128GB以上あった方がええで
最低でも96GB
2025/05/01(木) 23:00:35.30ID:i+CPIHYS
DDR5が4枚差し不安定とかいう余計な不安要素もあるんだよな
64x2だと5万円コースってなあ
2025/05/01(木) 23:10:36.33ID:cH+/zmPC
>>805-806
96GB必要か、wan2.1のために96GBに最近増設したからそれで行けるのならありがたい限り
その状態で他の作業出来ないとなるのなら128GBまで…は流石にしんどいしHOMEだからなぁ
2025/05/02(金) 00:57:26.93ID:pL5rYzXG
しきりにkijai下げしている奴って何なの?
初心者向けの物なのだから画質だ長さだと言う物では無いと思うのだが
それからステップアップしたいのならご自由にって事だろ
何を比べてんだよ
810名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 04:29:26.40ID:vGI3MmCW
どうせ喚いてるだけだから長文はスルーでおk
2025/05/02(金) 05:41:23.12ID:doIoJoIr
Kijai版は初心者向けじゃないでしょ EasyWanならともかく
Wanに限らずKijai版はComfyUI本家がインプリメントする前に実装される事や実験的実装が入ってくるので色々試してみたい人向けだと思うけど
実際機能追加の関係でバージョンアップしたらWorkflow組み替えないといけないこともあったし
2025/05/02(金) 06:50:28.19ID:ET1i6OG8
>>811
もう一回自分で読んで修正してからレスして
2025/05/02(金) 07:04:16.55ID:Zfj3dfOh
読みやすい文だと思うが
2025/05/02(金) 07:07:59.95ID:FazZX2WO
>>811
チミの名は。
2025/05/02(金) 09:11:06.56ID:2wV2VS/w
kijai氏は初心者でも簡単に導入できるプラグインやノードを提供してくれているのに
それを否定している意味がわからん
2025/05/02(金) 11:14:39.10ID:a40a8vDT
梅の話が出ていたので試してみようと思ったが
面倒くさいので全てallにしたら30GBのファイルを
ゴリゴリダウンロードしまくっている
慌ててドライブの他データを移動した
2025/05/02(金) 13:19:31.48ID:uuh6AxUg
動画だと1つで100GB以上のデータファイルとかもあるしなぁ…
2025/05/02(金) 13:56:24.49ID:0H8+qkkD
インストーラなんか邪魔なだけ
easywanもumeとやらもワークフローだけ貰えばそれで終わりだよ
2025/05/02(金) 15:49:59.35ID:5lYgDT4G
UMEというのをここで知ったのでワークフローだけ落としてきて試してみた
なかなか面白い処理の流れをしてたので自分用に改変してテスト中
Native版ともまた違った処理だけど、生成時間はなかなか速い
最終段にColor Match使ってるのはいいアイデアだと思った
原画にHiDream使うと何故か途中で色味が変わることがあったからな
2025/05/02(金) 16:19:01.18ID:lfoLGaF8
動画というかi2vにColor Match使うのはKijai氏のWorkflowで知ってよく使わせてもらっている
知ったのはHunyuanVideoWrapperのときだったかな
そもそもColorMatchNode自体がKijai氏のCustomNodeやしね

ところでUME氏のFlowなんだけど自分も落としてきたんだけどHiDreamのLoRAに感けていて試せてない
中身眺めているとTeaCache Onにすると0.275とかなり強めにかかるみたい
>>793にはUmeは0.13と書いてあるけど自分が落としたWorkflowとは違うのかな?
821名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 19:23:38.40ID:sU3xMGoG
LoadWanVideoClipTextEncoder
Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model

EasyWanのチュートリアルで躓いてます
必要なファイルは入ってるんじゃないんですか?
2025/05/02(金) 21:38:01.86ID:3Swh18/t
KijaiはAI動画時代黎明期の役目を終えた感あるな
画質はクソだし、ガチャの当たり低すぎだし、エラーだらけだし、クソUIだったけど
短い間だったけどよくやったよ
もう起動すること無いだろうけどkimiのことは忘れないよ!今週まで忘れないよ!黙祷!
2025/05/02(金) 22:09:00.63ID:NGBexPe4
結局比較動画も貼らないで逃げたんかw
2025/05/02(金) 22:11:08.90ID:A0n6aprg
>>821
左の方の該当ノードでモデルを選ぶ必要がある
Easyと言いながらハマりどころはそれなりにある
825名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 22:59:38.11ID:FYwoTz1T
AI動画作ってる人らってどこにアップロードとかしてんの?
2025/05/02(金) 23:00:45.33ID:3Swh18/t
そりゃYoutubeだよ
2025/05/02(金) 23:16:24.41ID:Zfj3dfOh
エロなら渋かXか支援サイトやろけど、ちびたいに上げる人もおるらしいな
2025/05/03(土) 02:57:48.19ID:krznmrJW
シビタエーアイだろ
2025/05/03(土) 09:34:04.75ID:/IhKPF4o
EasyWanVideoの導入は通常簡単だけど
いわゆる今の「3行以上の長文は読めない人」にはNightmareWanVideoだから
マジで文章を読む力が無い奴は諦めた方がいいよ
2025/05/03(土) 11:03:36.13ID:SZDRfllP
誰と会話してらっしゃるの?
2025/05/03(土) 12:00:32.61ID:yPIJFkKI
人形と話してるんじゃないかな
2025/05/03(土) 14:44:42.09ID:9wopPkas
Framepackがオールインワンで簡単に動くとか言ってるから落としてみたがおま環で起動すらしないわ
エラーも馬鹿みたいに出てるしオールインワン嫌いや
2025/05/03(土) 15:28:34.52ID:4GUdzEQ1
>>820
Sizeの下にある設定が0.13でそこが反映される
左下の0.275は無効(操作できない)になってるはず
2025/05/03(土) 16:26:58.80ID:iHyoI8cF
>>833
自分の落としたWorkflowにはSizeの下に設定なんかないしTeaCache Nodeの入出力もModelだけしか繋がっていないな
と思ったらsimpleとcompleteと2バージョンあるんか ややこしいな
2025/05/03(土) 16:50:40.43ID:PtFh3sHn
834が書いてるように、TeaCacheのノードには外部からの設定ノードは何も繋がってないな
まぁ、0.275のままでも特に崩壊はないのだが、もう少し小さくしたくなるな
2025/05/03(土) 17:17:32.74ID:4GUdzEQ1
こういう画面じゃなかったら違うのを使っているんじゃないかな
Umeはかなりたくさん出してるし
https://civitai.com/images/71236839

さらに言えば上で話してるのはこのインストーラーの事ね
これ経由で入れたならその画面になるはずよ(ggufテンプレ版)
https://civitai.com/models/1309415
837名無しさん@お腹いっぱい。
垢版 |
2025/05/03(土) 17:38:41.20ID:uY+F0Ipy
>>832
だいたいダウンロードミス
2025/05/03(土) 17:40:36.22ID:6FMMafQe
vidu気に入ったんだけどすぐクレジットなくなっちゃうなこれ
アルティメットプランの非ピークモードの生成時間は今はどんな感じなんだろう
2025/05/03(土) 17:44:19.80ID:uBrBw++I
>>832
仮想メモリ足して100GBぐらいにしたら動いたぞ
2025/05/03(土) 18:33:30.91ID:PBVc48bf
Viduって小さい解像度だとグチャりすぎない?
2025/05/03(土) 19:09:04.40ID:PtFh3sHn
>>836
835だけど、当方確認したのはworkflow単体でアップされてるやつだな

あまりにも流れが見えづらいのでほぼほぼノードを再配置し直したよ
842名無しさん@お腹いっぱい。
垢版 |
2025/05/03(土) 19:32:15.97ID:aITS1d5v
F1試した。
次世代レベルで進化してるな
2025/05/03(土) 23:22:54.93ID:4Fup2c6b
てす
2025/05/04(日) 05:00:08.71ID:CGTRNKjc
64GBの2枚組買ったけどメモリーエラーが発生して起動できないぜ
48GBモジュールまでしか使えないっぽいからBIOSアップデート待ちだよ…
2025/05/04(日) 05:12:35.14ID:rNUppjlA
ちゃんと差し込んでないんじゃないの〜?
2025/05/04(日) 05:59:04.94ID:CGTRNKjc
レスどうもです
1枚だけで全部のスロットに差したりもしたから2枚とも8回は差したと思う
毎回ラッチかかるまで体重かけて差したよ
2025/05/04(日) 07:03:23.95ID:g+Vcvnh5
マザボが64か96までしか対応してなかったとかありそう
2025/05/04(日) 07:17:12.14ID:CGTRNKjc
7000系CPUとB650安物マザーボードだから投げ捨てて両方買い直せと言われそう
マザーボードメーカーのQVL見たら48GBモジュールまでしか載ってないので確認せずに買った自分が悪いで確定
2025/05/04(日) 07:35:36.59ID:4chQ7eXR
投げ捨てろとは言わないが、マザーボードを足してもう一台生やせ。
2025/05/04(日) 09:09:02.96ID:CGTRNKjc
マザーボード買うお金あるならSSD買いたいっすよ
851名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 15:13:46.01ID:VPZ/YdVc
easywan、アップデートしたらノイズ入る様になった。誰か直し方教えて? kijai版i2v、ramは96gb。前より速くなった気するので調整とかあんのかな?
2025/05/04(日) 15:20:34.40ID:+cwdwat6
なんUにも同じこと書いてよね
プロンプトで(:◯.◯)の強調使ってるとなったりした事はあるけどそれくらいしか分からんけど参考になれば…
853名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 17:05:56.43ID:IdOADkiE
>>852 なんjにも書いたよ、動画強調するの駄目なんや、知らんかった。教えてくれてありがとう。
2025/05/04(日) 17:10:12.71ID:mqYGP+ge
動画は普通の文章で書いた方が良い
855名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 17:57:56.53ID:IdOADkiE
>>854 ありがとう、ずっと画像のプロンプトをそのまま動画に使ってたわ。ノイズが出たの、結構プロンプト強調してたな。
2025/05/04(日) 18:30:08.65ID:xBFL7qFu
1人の女の子、可愛い、ベッド、横に寝ている、
ではなくて
かわいらしい女の子が1人ベッドに横たわっている。
の方が良いって事よね
2025/05/04(日) 19:15:08.24ID:bF2HkRPn
Janus-Pro使って画像読込ませて動画用プロンプトを自動生成させると
悩まなくて済むぞ
858名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 23:00:54.51ID:yzerAtHb
>>856
まじかい、そっちの方がいいんだ
2025/05/05(月) 00:17:40.72ID:ftWgW6lK
シーアートやシビタでプロンプトが見られるので
動画の成功例を参考にすると良いね
失敗して偶然の成功例が多いのと
翻訳で変わってしまう部分が多いから修正が必要
英語の語彙の少なさに困惑する
2025/05/05(月) 00:35:39.84ID:tsH6gz8L
FramePackでLora使ってたまに瞬きして欲しいんだけど
eyes blinkって入れるとずっと目を閉じたままで
eyes openって入れるとずっと目を開いてんだよ?
なんて入れたらええん?
2025/05/05(月) 00:40:25.87ID:ftWgW6lK
何でblinkが瞬きなのにeyesを入れているの?
動画なのだから単語を連ねるよりも
流れるような文章で綴った方がAIは混乱しない
2025/05/05(月) 01:07:17.18ID:tsH6gz8L
なんかblinkだけ入れると画面が明暗することがあるんだよ?
eyesを入れると確実に目に作用する
2025/05/05(月) 05:03:02.15ID:zDbfJQWA
自分がまばたきすると画面が暗転しますよね、つまりはそういうことです
2025/05/05(月) 06:35:09.45ID:ChHpxBKl
no pov、とか?
もしくは第三者視点からとか
2025/05/05(月) 10:42:35.21ID:5j/maIVi
>>857
age
866名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 15:15:07.27ID:vTvnoBJH
>>781から>>803にかけてのWanのGGUF(ume)とKijai(easywan)の対比が有益すぎる
早速Ume版インストールして試してみたら元絵から崩れず高精細でびっくり
easy版は軽くて動きもダイナミックな印象あって、それぞれ良さがあるから使い分けていこかな
2025/05/05(月) 20:56:39.01ID:QK6iEwAq
動画スレなのに動画なし
2025/05/05(月) 21:27:05.23ID:mRamMdp2
大半の人はエッチなのを生成してるだろうから
この一般板では貼りにくいだろうね
2025/05/05(月) 21:35:15.41ID:ChHpxBKl
なんUでは貼れるんやがこっちだとちょっとね…
870名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 22:44:33.71ID:XH3qdDnW
なんUなんて板あるの初めて知ったわ
VとかMとかSとかいろいろあんのな
871名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 22:47:13.86ID:Bk4emlL+
なんJはガチでゴーストタウンみたいになってるんだよな、エッヂに皆移住した
2025/05/06(火) 01:28:51.49ID:mm1xEgor
easywanのnative使ってるんだが
長辺480なら大きく動くのに720に上げたらちょびっとしか動かないのは
そういうものと割り切るべきなのかな
kijai使ってた時も似た症状だったし
2025/05/06(火) 02:02:32.88ID:wH8UlIKC
そのサイズで学習されたloraじゃないとあんまり動かんと聞く
2025/05/06(火) 03:05:32.16ID:hZJ6Zfbc
civitaiのサンプル動画わろた
https://civitai.com/images/65726528
笑えるwan動画で溢れかえってるなw
2025/05/06(火) 04:48:06.61ID:60fK2AJa
揺れすげぇ
2025/05/06(火) 13:51:31.43ID:lBSJL/1T
>>873
loraの互換性は盲点だったわ
静止画では気にかけていたんだが
サンキュー
2025/05/06(火) 14:18:51.90ID:3xnSuJXA
>>856
age
2025/05/06(火) 14:38:49.28ID:O9FO3GIa
>>873
あーそんなのもあるんか
たまに480にして試してみるかな
879名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 17:43:55.77ID:sXxy+m16
easywan、kijai版i2vで顔が結構変わるの前からだっけ?外人ぽく変化するんやが、調整とかあるの?
2025/05/06(火) 18:00:17.82ID:cdvhSv24
Hunyuan側にも言えることだけど叡智系ならほぼ国産なく外人が作ってるLoraの効果でそっちに寄っていくだからどうにもなぁ…という感じ
一応はanime styleとかJapanese digital animationとかまじないで入れる程度だけど効果は…はい…
881名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 18:45:38.10ID:sXxy+m16
>>880 そうなんか、そう言うもんだと。2秒くらいなら良いけど、5秒とかだと駄目になるなぁ。
2025/05/06(火) 21:30:16.81ID:49byXWLs
>>879
Loraの組み合わせと重みの最適値を探ってみたり
画像からのプロンプト生成してCfg Valueの調整
Skip Layer GuidanceやCFG-Zeroの値調整
モデル変えるor解像度変える とかかなあ自分も数値変えてバッチ処理しつつ沼り中
2025/05/06(火) 21:38:00.08ID:EmbfYKDz
>>874
ワッショイ!ワッショイ!
このくらい揺らしたいけどこれもNativeWanかな
https://civitai.com/images/72653503
884名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:11:51.46ID:m36uYJ7c
あれ、もしかしてCivitaiからwan用の服を脱ぐ系のLora消されてる?
単純に服を脱ぐLoraと、カメラを手で隠した後に素っ裸になってるLoraがあったはずだけど
885名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:20:25.01ID:0tyMnrgG
>>884
ちょっと前に全消去くらったらしい
2025/05/06(火) 22:40:31.08ID:an77fohN
https://civitaiarchive.com/
消されても誰かがHuggingFaceに上げとるやろってあんま心配してない
めっちゃ検索されてるやつはすぐ下に出てるし
887名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:52:03.82ID:m36uYJ7c
ほんまや4/20にはもう消されてるって書き込みあるね
まあ写真1枚で何でもアリ過ぎるから流石にか
2025/05/06(火) 23:03:45.26ID:ar+D4O0D
LoRA5つくらい重ねて工夫しているから隙なしだぜ
2025/05/07(水) 01:47:40.13ID:yoD/RC1L
ChatGPT脱獄せずに継続調教でエロい事も淫語もペラペラ喋るようになったけど通常作業時にも隙あらばエロい話にしようとして来る致命的な弊害があるわ・・・
2025/05/07(水) 05:54:48.63ID:y4vO23rO
アニメ系で動画作ると口の部分をでっかい唇と解釈して
口の中から口みたいな変な動画が出来上がる事が度々あったな
なんで一枚絵の時点で歯をプロンプトに追加してる
891名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 12:33:56.45ID:Ikd+FQsW
ちょっと間空いてframepackを google colab で使おうと思ったんだけど
transformerリロードエラー: モデルファイルが見つかりませんでした。
って出てつかえてなくなってるんだがなんか仕様変わった?
何か追加でDLする必要があるのだろうか。知恵を貸してください
892名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 17:53:48.63ID:LdCYUUmw
MacでWanしてる自分は異端か、そこそこ遅いけど動くだけで感動
2025/05/07(水) 18:55:27.90ID:QtgCXMax
>>883
すっげ
動きの滑らかさは流石Wanやな
894名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 19:11:10.80ID:U1v/FBUR
SingularUnity - Twerk - Wan2.1 I2Vで作られた動画の中にある
見た目はプラスティックのフィギュアが、腰を振ってるのってエロいな。
徹夜明けの時の幻覚に出てきそう。
2025/05/07(水) 19:12:23.10ID:DLY9Y4rW
>>883
こういうプロンプトのどれがどこまで効いているのかわからんけど
プロンプトに意味があるのは確実なのよなあ
2025/05/07(水) 19:15:16.51ID:B49cGH5U
いいねだけして後で保存しよ…ってなってるやつ消えてたわ
一期一会やな
2025/05/07(水) 19:26:57.83ID:VMt2OM5b
動画スレなのに〜って上にあるのでエロだけどなんUに貼ったやつこっちにも貼っとくね(一般だと貼り辛いのはマジでその通りw)
https://files.catbox.moe/z8ffua.mp4
FramePack F1でLoraはHunyuanで色々と変なところはあるけどここまで動くには動く
どうしてもリアル調になって来たりちん長すぎね?やったりするところはあるけどAnimateDiff時代から比べると満足はできるようになってきたよ
wanもいいけどどっちがいいかは感情の問題かもね
2025/05/07(水) 19:33:53.90ID:DLY9Y4rW
とにかく当時と違うのはチラチラしないことやね
そういうもんとは思ってたけど当時の見るとギャグやで
2025/05/07(水) 19:51:45.56ID:fRJJDcH1
>>874
>>883
これに使ってるPCスペックとWANのワークフロー知りたいわ
900名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 19:58:27.79ID:fFIUTGTa
rtx5000シリーズは、4000シリーズ位にはai、stable diffusion、ComfyUI出来る様になったの? 出来るけど
ある程度知識無いと無理なのかな?
901名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 20:26:12.89ID:34H0Ybju
>>900
【画像生成AI】RTX5000番代のAI生成
https://mevius.5ch.net/test/read.cgi/cg/1743000768/
2025/05/07(水) 20:46:41.47ID:OKSmSWfX
5000て高いんだな
さっきビックカメラで55万円の値札が付いてるの見た
903名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 21:46:42.37ID:eRlxthJJ
>>891
俺も試してやめた口だから言うけど有料プランか?
無料はもらえるストレージが20GB以下で有料は100GB~なわけよ
つまり空き容量に対してモデルが50GB近くあって入らねぇんだ
2025/05/07(水) 23:50:18.68ID:n5TBqFoA
>>894
2Bのケツ揺らしてるやつも好き
https://civitai.com/images/70968131
2025/05/08(木) 02:32:02.22ID:EwRnCnNe
FramePack Eichiで自動生成する為にPythonとAutoHotKeyでフォルダ開く→画像選ぶ→生成ボタン押すってのを作ったけどバッチ処理してる人はどうやってるの?
FramePackスタジオという派生版はバッチ処理出来るらしいけどLora効かないのは厳しい。
2025/05/08(木) 07:32:00.17ID:ltsZHIGW
>>904
すげぇ…違和感ないな
907名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 08:23:15.99ID:pNiLWrMr
FramePack eichi f1で使うモーションのLoraとかってローカルで気軽に作れるものではないのかな
個人の学習スピードより環境の進化スピードのほうが早くて困る
2025/05/08(木) 10:13:56.30ID:a18b5o9Y
できなくはないっぽいけど気軽なもんじゃないようだぞ
まだ知見が足りなさすぎる
2025/05/08(木) 10:51:35.99ID:mPdHidYa
>>905
Eichiバージョンで何をしたいかによるが、通常のF1(+lora)なら、
ComfyUI使えば画像フォルダから順次読込んで動画生成というフローは可能だね
2025/05/08(木) 11:30:05.48ID:CKho3Ixx
musubiで簡単に作れるよ
framepackで学習させるよりHunyuanで学習させて使った方が良さそうだけど
2025/05/08(木) 11:37:41.05ID:vF6Z87jb
動画系のloraはvramつよつよじゃないとダメとかで4090の24GBが最低ラインとか聞くしなぁ
912名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 12:14:10.29ID:5cVyK327
学習は16gbでも話にならんのだろ
RAMも96gbからとか
2025/05/08(木) 12:39:00.49ID:a18b5o9Y
いちおうできるらしいけどやった人の話はきかない>16GB
914sage
垢版 |
2025/05/08(木) 12:45:57.40ID:SpCSGuZp
F1使ってるんだが、lora使ってもイマイチダイナミックに動いてくれない。特に男が。
有識者の方、なにかわかればご教授を…

https://imgur.com/a/8tTHs9G

lora doggystyle from the side v2.0

プロンプト
Male and female have sex in doggystyle position , The female have semen dripping all over their bodies,The female is bent over on all fours, The male is thrusting his hips back and forth rapidly, You have a clear view on the penis pussy penetration, The Penis is penetrating the pussy vulva, The female's large breasts are swinging back and forth and the large ass is bouncing by the force of the pushing male,
2025/05/08(木) 13:15:03.30ID:AHExEVkY
>>914
rapidlyじゃなくてintently使うと良い気がする
2025/05/08(木) 13:34:47.66ID:a18b5o9Y
あとこの体位だとclear view on the penis つーてもムリがないか
よっぽど動かないと見えないやろw
2025/05/08(木) 17:39:12.33ID:ix1KHVsZ
>>914
普通に英語の文法で書いていないからAIでも意味不明なんだろ
918名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 18:11:49.43ID:pNiLWrMr
今の自分のPCと知識ではLoraはできてもしばらく先に
なりそうですね
叡智なゲームであるスロー→普通→高速→フィニッシュみたいな差分を作れないかと思ったのですが
2025/05/08(木) 18:21:12.05ID:SMHGc7as
ちょっと開始フレームから試してみたけど男全然動かないね
原因考えてみたけど
・LoRAがそうした動きを学習していない
・LoRAに設定された適切なプロンプトを指定できていない
・プロンプトが不適切でセットアップ(画像の何がどこにどうあるか)ができていない
・そもそも構図が動かしにくい
あたりかな

まずDoggystyleのLoRAも主観、横、正面用があるから正面用を入れた上でサンプルでちゃんと動いてるものがどうプロンプト指定してるか要確認
2025/05/09(金) 01:56:31.36ID:wzMBDBD4
studio使って再現するとその動きはかなり出るんだけど、それ以外だと特定の動きしかしてくれないんだよな 惜しい
2025/05/09(金) 07:09:34.10ID:qZeksJGb
>>918
入力画像次第な面もあるけど高速が制御というか出にくい気がする
タイムスタンプかセクション別プロンプトだとしても難しいような
上手い具合に出来たやつを編集で繋ぎ合わせるのが1番手っ取り早そう
あとやっぱり動いて欲しい箇所に方向ブラー掛けるのは有効で生成中にブラーの効果切れるまでは割と高速に動いてくれやすくなる…気がする
922名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 12:21:34.98ID:5SPkJQOp
>>921
速度はまだ試行の余地があるんですがフィニッシュ的なやつはその域にも行ってないんですよね…
2025/05/09(金) 13:04:54.22ID:qZeksJGb
書き込んだ後にそっちの方が難しいなってなってた
なんUの方でぶっかけは見るからその手法を真似すればなんとかなるか?くらいでloraなしプロンプト単体だと現状むりなきがする
2025/05/09(金) 13:17:30.01ID:+X4OsQQA
ぶっかけはあるLoRAにクッソ頼る形なんよ
日本人の1人の変態が存在しているだけで二次エロが救われるんや
2025/05/09(金) 13:19:21.71ID:V2SMOAyZ
ぶっかけなんてクリスタから素材を持って来て作れば良いだけじゃねの
2025/05/09(金) 13:24:17.52ID:qZeksJGb
画像ならそれで良いだろうけどここ動画スレなんだよなぁ
切り抜いて1フレームずつ編集するの手間掛かるし…
上に書いた手法はキーフレーム使うやつだったはずだけどやったことがないから分からない
てか直接的になかだしloraあるなら欲しい
2025/05/09(金) 13:29:26.34ID:uVHIUYmS
そんなのAIがやってくれるだろ
何の為のAI動画なんだって
静止画を加えただけでもダラダラプラプラ流れるって
2025/05/09(金) 13:33:00.60ID:+X4OsQQA
>>927
お前は何もわかってない
2025/05/09(金) 13:37:04.94ID:a0k33/Ag
>>928
>>928
2025/05/09(金) 13:46:45.35ID:wMm9V3cS
どの程度のをやりたいのか知らんけど
ドピュドピュやプシャァァァくらいなら
画像を何枚かでLoRA作れば出来る
液体だけでも良いけれど不自然さが有る場合は
出るモノと受けるモノも入れないと駄目だぞ
2025/05/09(金) 13:48:27.62ID:+X4OsQQA
びゅる…びゅる…じわあ…どろお…じゃダメなんだよ
あのLoRAのビューッ!ビューッ!びちゃっ!びちゃっ!ビュルルッ!どろどろぉ…

みたいなのを使ってない奴は損しとるよ
2025/05/09(金) 13:49:49.13ID:+X4OsQQA
あと中出しなら多分びゅる…びゅる…じわあ…どろお…で特に問題ないと思う
断面図までやりたいなら別やけどそれもびゅる…びゅる…で事足りるんちゃうかな
2025/05/09(金) 13:52:24.51ID:wMm9V3cS
そういうのをやりたければ
そういうのを作れば良いだけだろ
作り方が下手なだけだな
絵心が無ければ無理もないが
2025/05/09(金) 13:57:45.75ID:+X4OsQQA
いやだからそういうLoRAがあるって話をしとるのに
「ぶっかけなんてクリスタから素材を」とか「AIがやってくれるだろ」とか
意味不明な話する奴がおるんだよなあ・・・
2025/05/09(金) 14:01:19.24ID:+X4OsQQA
つーかこれ ID:wMm9V3cS も静止画像の話だと思っとるな
CG技術板にあるからってロクにAI動画触ってない奴が冷やかしで来るの
やめてもらえますかね
2025/05/09(金) 14:12:08.84ID:qZeksJGb
wanとFramePackの登場でローカルでも触りやすくなってるからまあ触っておいでって感じ
ram96GB以上は欲しいけどな
2025/05/09(金) 14:14:54.03ID:+X4OsQQA
まあ64でも十分いける
96か128にしてえなあ でもグラボ買ったばっかやし
2025/05/09(金) 14:33:29.63ID:qZeksJGb
64でも大丈夫だけどFramePackでlora使う場合はまだ最適化されてない?のもあってlora切り替えで96手前まで行くから多いに越したことはないんだよな
怖すぎてlora2つ使えるようにはなったけど使えないわw
2025/05/09(金) 15:02:52.56ID:ay+jdBj/
応用力が無い奴は何をやっても駄目だわ
動画というものは静止画が元なんだよ
2025/05/09(金) 15:07:14.61ID:+X4OsQQA
だからEndFrameにぶっかけ後の画像を設定するなんて
基礎スキル中の基礎スキルで言及する価値もないけど
そこに至るまでの変化が「じわぁ・・・」か「ビューッ!」か
モーションLoRAで変わってくるんだよ
(ぶっちゃけEndFrame設定しなくてもいいLoRAは十分解釈してくれるし)

エアプはだまってろ
2025/05/09(金) 15:16:54.31ID:gnW9zXxx
>>939
気付く能力が欠けている人には何を言っても理解すらできないと思うよ
だからこんな所で質問する人がいるわけだし
2025/05/09(金) 15:26:15.60ID:qZeksJGb
コロコロID変わった単発が言っても説得力ないんですよね
943名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 15:29:09.98ID:Quja+aqN
おまえらのクソくだらないアレコレは置いておいて
パンチラメインのLoRAが見当たらない事について議論しようぜ
2025/05/09(金) 15:29:49.44ID:m0NwBvdd
>>940
許せ息子よ
お前が何を言っているのか
父ちゃんにはサッパリわからないのだ
2025/05/09(金) 15:32:42.74ID:pt3LwMsa
液体の再生速度や粘土の表現が変わってくるってことじゃないの
2025/05/09(金) 15:45:42.13ID:tliwT3Ne
エンドフレームやキーフレーム指定だけで上手くいくんだったら誰も苦労してないんよ…w
まあ完全にエアプでしょ
2025/05/09(金) 16:11:23.24ID:nlz9McNL
>>943
なんかこの間後ろ向いたら風吹いてパンチラみたいなのは見かけた気がするけど
もっと色々ほしいんだよな
2025/05/09(金) 16:13:17.88ID:N3YfQ3gX
Civitaiの消された動画用Loraだけど設定変えたらサムネは見れた、クリックしたら404ページになるけど。
それで何が消されたか見てたんだけど服が弾け飛ぶTorn Clothesってのがあったのね…
めちゃくちゃ欲しい何ならお金出しても良い、どうにか入手する方法はないのでしょうか?
2025/05/09(金) 16:13:49.23ID:p8VLNPYz
>>942
人形としか会話していない患者の特徴
相手が1人だけだと思い込んでいる
2025/05/09(金) 17:11:45.03ID:+Tsr7DyA
こっちの両SDスレが死んでてなんUのNVA部に人が流れるのが分かる流れ
2025/05/09(金) 17:13:22.94ID:owE0bPFE
5chですら馴染めないとかもうどこにも居場所ないやん
952名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 17:31:04.56ID:SGTk+utQ
変な奴が本性剥き出しで絡んでくるから現実として5chの方が馴染み難くない?
2025/05/09(金) 18:01:23.17ID:R/yFJ5wd
>>943
>>947
https://civitai.com/models/1500572/simple-panties-for-wan21lora
これかにゃ
2025/05/09(金) 18:16:28.25ID:fpIiVcRo
CG技術板だからしょうがない
2025/05/09(金) 18:20:05.03ID:2SrlP+/3
>>946
お前の頭が悪いから出来ないだけだろ
2025/05/09(金) 18:34:41.62ID:zqXmW9iI
CG板というかワッチョイが無いとアレな人が紛れ込んじゃうだけ
2025/05/09(金) 19:19:36.28ID:zOHOT95g
気色悪い性癖を再現しようとするもAIに拒否される男の図
958名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 22:40:42.91ID:T6EiVRmD
>>948
https://civitaiarchive.com/models/1210174
2025/05/10(土) 00:43:46.66ID:jtKAK6vq
>>931
キモすぎぃぃぃ
2025/05/10(土) 01:11:33.76ID:4nFLhO0Y
>>958
心の底から感謝するわ、あとアーカイブがあるってことは探せば他のLoraもあるかも知れないのね。
本当にありがとう。
2025/05/10(土) 01:59:09.68ID:dBQklogw
>>960
zuntanニキのeasywanに付いてるサンプルダウンロードすると国産Lora色々入ってるね
nashikoneニキのtorn clothesてwan用のやつもあったよ
https://github.com/Zuntan03/EasyWanVideo
2025/05/10(土) 02:09:21.10ID:4nFLhO0Y
>>961
ありがと、ただメインで使ってるのがFramePackなんでHunyuanVideoのLoraなのよね。
これから先、ローカル動画生成がWanとFPが主流になるならLora共通化できないのは痛いね…
2025/05/10(土) 02:20:17.11ID:dBQklogw
>>962
ありゃこりゃ失礼
wan用のやつframepackでも効くのがあるって聞いた気もするけど
何にせよ数少ないlora共用できたらいいよね
2025/05/10(土) 06:27:31.43ID:KCJy2haK
wanとhunyuanでモデルの構造違うのに使えんと思うけどな
965名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 07:00:31.68ID:0kP3dCer
だよな
親切な方がそれそれトレーニングしてくれてんのによくテキトーな事言えるよ
2025/05/10(土) 07:20:17.72ID:u5IkDyO8
>>961
その中に3つぶっかけLoraあるけど
ビューッびちゃっ!
びゅる…どろお…
ビュルルッ!
ってな感じでそれぞれ違って面白いw
2025/05/10(土) 09:15:05.64ID:aUfp3/Qh
きめぇ
2025/05/10(土) 09:38:58.40ID:zgf66vmI
ぶっかけか
5秒は欲しいよな
969名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 11:51:18.08ID:AnQnBCx8
動画生成始めようとgpu選んでるのですが、
5060ti 16gb
5070 12gb
どちらの方が良いでしょうか?メインメモリ128gb積んだ場合、この候補だと5070の方が速いですか?
2025/05/10(土) 12:14:22.70ID:q4tGr6HE
当面は5070のが速いんじゃないかって気がするけど12GBじゃできませーんってことが
でてくるかもしれないしなあ

そもそも動画生成12GBでも動くってのがあくまで動くってだけで通常のメモリに退避させることで
ボトルネックになるって話であれば今でも5060Tiのが速い・変わらないまでありうるしな
本来は5070Tiが正解なんやとは思うが予算ないならしゃーない
2025/05/10(土) 12:41:00.57ID:N3nOeFj5
>>969
もう少し待って&頑張ってお金出して、
5080 24GBにしろ
色んな動画生成やり始めると16GBでも足りないぞ

96GBのPRO、いいなぁ 160万?だっけ?
2025/05/10(土) 12:41:31.53ID:Cwj/ddL1
速さより量!
動画生成は時間かかるのは確実なんだから出来る事を減らすより時間かかった方がええやろ?
そもそもメインメモリに退避した分は結局遅くなるしな
2025/05/10(土) 12:47:34.80ID:D+0tSUjO
5070superが18GBらしいけど本当ならそこら辺が1番良い落とし所な気がする、本当ならな
2025/05/10(土) 13:19:57.75ID:q4tGr6HE
>>971
ってか出るの年末とか、ヘタすると来年やろ? そしたらもう60XXまで見えてくるで
今の日進月歩の状態でそんなに待つのあんま勧めないなあ
2025/05/10(土) 13:22:27.17ID:W4NJTb1q
>>969
微妙なとこだけど速さ考えたら5070かな
16GBあればって場面もあるかもしれないから悩ましいが
2025/05/10(土) 13:50:39.60ID:5P02Oyo5
12Gなんて静止画でも処理出来ないことがある
2025/05/10(土) 14:01:14.11ID:DsJPGBmO
16GBを奨めるかな
FramePackはともかく他の動画生成AIは16GBが最低ライン
2025/05/10(土) 14:05:36.09ID:W4NJTb1q
ここ動画生成だったか じゃ16GBだな
979名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 14:18:19.88ID:NIEG31Bm
そろそろ次スレだけどテンプレとかどうする?
2025/05/10(土) 14:37:08.26ID:yVApiKli
>>979
>>1のうち、

>・全フレームi2iする技術
>動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。

このへんはなくしちゃっていいと思うのよね
あと前スレのURLと「次スレは>>980が立ててください」みたいなのを入れる

スレ立てからここまで2年かかったけどついに一般的になってきたねえ~
2025/05/10(土) 14:42:06.21ID:yVApiKli
あと>>2は古いので全部差し替えるとして、紹介するとしたらEasyWanVideo、FramePackとeichiあたりかな
でも新しいのがまたすぐ出てきそうだから、「今ホットなローカルAI動画生成環境」と断って載せるとか
2025/05/10(土) 15:08:11.11ID:q4tGr6HE
>>977
いちおうWanも12でいいことになっとるけどね
983名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 16:00:17.84ID:AnQnBCx8
皆さんありがとうございます。
5070tiまでいくと電源変えなくてはなので、それならcpuも3700xだしマザボから全部交換するかになってしまいそうで…
他の用途(主にtvai)での60と70の速度差が大きいので結局決めきれない…70無印はなんで12gbなんだ…
2025/05/10(土) 16:19:24.64ID:X+049ZVU
次スレ立てました

https://mevius.5ch.net/test/read.cgi/cg/1746861355/

タイトルの【StableDiffusion】はいらなかったかな、でも板をStable Diffusionで検索する人もいるかも
2025/05/10(土) 16:27:58.84ID:NIEG31Bm
>>984
おつ
まあ近い技術を使ってるけど直接関係なさそうだから今後は外してもいいかもね
2025/05/10(土) 16:28:03.42ID:D+0tSUjO
スレ立て時のホットなローカルAI動画生成環境は確かにいるかもしれんね

>>983
自分も去年買い換える時に4070か4060ti16GBで1ヶ月悩んでたからよく分かる
最終的に4060ti16GB選んだけど後悔はない
2025/05/10(土) 16:30:32.07ID:W4NJTb1q
あとは詳しい人が動画生成ツール列挙してもらえれば
2025/05/10(土) 16:40:21.83ID:q4tGr6HE
処理速度はちょっと長く待てばええだけやけどVRAM不足は単純に動かないことあるからねえ
2025/05/10(土) 17:00:09.00ID:OcJDpe8f
PyTorch
最初にパイタッチと空目した時から
俺の中では今でもパイタッチだ
2025/05/10(土) 17:41:47.67ID:VGDJIpct
>>984
立て乙

>>980
最近動画初めてここ辿り着いたのに2年も前からスレ立ててたなんて尊敬するわ
2025/05/10(土) 17:53:31.07ID:q4tGr6HE
AnimatedDiffでも動画は作れたからね
当時のチラつくのはそう解消されないと思ってたから
手元でWanで生成できたときは感動したわ
2025/05/10(土) 18:32:44.58ID:UhOmXZvW
顔が笑うと知らない人になるのどうにかならないの。笑顔とか真顔とか何パターンとか最初に登録して参照させればいいんだろうけど、pytorchとかtransformersとかよくわからないよ
2025/05/10(土) 18:42:03.34ID:PUWOdiXE
パイターッチ!
いや~ん!まいっちんぐ
2025/05/10(土) 18:52:49.64ID:q4tGr6HE
>>992
それっぽいこと言っているけどむしろトンチンカンってので逆に感動した
995名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 19:33:04.61ID:sTHyEzhz
PyPI(ぱいぱい)
PIL(ぴる)
Pyzuri(ぱいずり)
Pypants(ぱいぱんつ)
Pychinko(ぱいちんこ)
Pypan(ぱいぱん)
2025/05/10(土) 19:48:22.64ID:RJWN5rQt
質問いいですか?
2025/05/10(土) 20:19:38.83ID:NIEG31Bm
hunyuanが登場したあたりからスレが一気に加速したな
今後は2,3か月くらいで1スレ消費しそうだ
modelscopeで学習生成してた頃のデータがまだストレージにあって見てみると荒々しいながらも懐かしく味わい深い
2025/05/10(土) 22:28:22.95ID:GR/VU3ZZ
マチコ先生が浮かぶようではまだまだ青いのぅ
永井豪のハレンチ学園じゃろう
2025/05/10(土) 23:40:31.08ID:9sovJUs7
うめ
2025/05/10(土) 23:41:21.75ID:9sovJUs7
次スレ
>>984
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 746日 5時間 53分 50秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。

▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/

▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況