破綻やちらつきの少なさは武器だと思うけどねぇ
画像:好きなエロ画像
プロンプト:They shake their bories.
で及第点の動画は生成できそう。プロンプト頑張っても成果は得られなかった・・・
【StableDiffusion】AI動画生成スレ1
レス数が1000を超えています。これ以上書き込みはできません。
2025/04/23(水) 16:48:07.59ID:cHADN1Vl
2025/04/23(水) 22:43:27.90ID:rl46ym8l
>>651
ああやっぱそうなのか
張り切ってダウンロードしたけど全然だめでなにこれってなったわ
たぶんキーフレームとか全部細かく設定してやればいいのかもだけど
それはちょっとめんどすぎるだろっていう
EasyWanvideoなんだけど該当ファイルがどれなのかわからんので消せねえ・・・・・・
ああやっぱそうなのか
張り切ってダウンロードしたけど全然だめでなにこれってなったわ
たぶんキーフレームとか全部細かく設定してやればいいのかもだけど
それはちょっとめんどすぎるだろっていう
EasyWanvideoなんだけど該当ファイルがどれなのかわからんので消せねえ・・・・・・
2025/04/24(木) 00:13:07.29ID:J6Ur1wr/
wan ユッサ、ユッサ。FP ポヨン、ポヨン。
2025/04/24(木) 10:07:59.31ID:NZp0SxQi
2025/04/24(木) 10:39:08.12ID:CGEdAwuM
とか言ってる間にFramepack-eichiとか出てきたな
まだ入れたばかりでキーフレームは試してないけど
最終フレーム指定だけでも
たくし上げやポロリやクパァは簡単にできそうね
まだ入れたばかりでキーフレームは試してないけど
最終フレーム指定だけでも
たくし上げやポロリやクパァは簡単にできそうね
2025/04/24(木) 10:46:47.10ID:NzRqWTiT
叡智版はイリヤ神版から「低VRAM動作」と「簡単操作」の神要素を排除してただのHunyuan Videoに戻しただけ感
2025/04/24(木) 11:55:46.47ID:NvB+bnas
多くの人が試してみたくなるような話題になった先端機能をいち早く実装してくれてる開発者に対して
よくもまぁそんなネガティブな言葉を発せられるもんだね
自分のニーズに合わないのなら使わなきゃ良いだけなのは何もこの事に限った話じゃないだろう
よくもまぁそんなネガティブな言葉を発せられるもんだね
自分のニーズに合わないのなら使わなきゃ良いだけなのは何もこの事に限った話じゃないだろう
2025/04/24(木) 12:20:47.16ID:LJxxne0t
Grokとか一番信用出来ない
おすすめポストに興味がない何度クリックしても何度も再表示される
おすすめポストに興味がない何度クリックしても何度も再表示される
2025/04/24(木) 12:36:11.76ID:q3FY7r1c
wan初めたばかりで楽しい
2025/04/25(金) 09:05:25.48ID:22UYVesT
FramePackの欠点はずっと1stフレームを参照するせいで背景の通行人が
ずっと同じ位置で足踏みしたりして、そういうのが破綻してる
ドライブ映像だと背景が固定されたりするし
せいぜいアニメのループモーションに役立つ程度だねぇ
ずっと同じ位置で足踏みしたりして、そういうのが破綻してる
ドライブ映像だと背景が固定されたりするし
せいぜいアニメのループモーションに役立つ程度だねぇ
664名無しさん@お腹いっぱい。
2025/04/25(金) 17:02:26.19ID:ypM27SIZ 質問する場所がここで合っているか分かりませんが質問させていただきます。ComfyUIでWAN2.1を動かそうと思っているのですが、この表示が何度も出てしまいうまくいかないです。GPTに聞いているのですが堂々巡りでずっと同じ対処を繰り返していて、解決に至りません。どなたかご尽力いただけると幸いです。
https://i.imgur.com/ERZrDyx.png
https://i.imgur.com/E4Sb58N.png
https://i.imgur.com/hvSsbId.png
https://i.imgur.com/ERZrDyx.png
https://i.imgur.com/E4Sb58N.png
https://i.imgur.com/hvSsbId.png
2025/04/25(金) 17:35:11.79ID:GKNtftcN
そのままの意味だろ
ノードが無い
ウインドウ右下にインスコマネージャーのボタンが有るだろ
ノードが無い
ウインドウ右下にインスコマネージャーのボタンが有るだろ
2025/04/25(金) 17:47:36.00ID:lbk6St06
なんとなくノードがないというのを理解してなさそう
そこからなのか…(困惑
そこからなのか…(困惑
2025/04/25(金) 17:58:34.38ID:UzTtLmHz
まずは足りてないカスタムノードをインストールするんだ。
そういや、今のcomfyuiってミッシングは自動的にダウンロードするようになってなかったっけか?
モデルだけだったかな?
そういや、今のcomfyuiってミッシングは自動的にダウンロードするようになってなかったっけか?
モデルだけだったかな?
2025/04/25(金) 19:20:30.90ID:v92A8Zqv
英語が出来る必要は無いが
この程度の英文をgoogle翻訳にすらかけられないものだろうか
それじゃプロンプトすら書けないだろうに
この程度の英文をgoogle翻訳にすらかけられないものだろうか
それじゃプロンプトすら書けないだろうに
2025/04/25(金) 22:29:29.79ID:R+zLUgS8
やっと4090環境が出来た
4080の悲鳴から解放された
4080の悲鳴から解放された
2025/04/26(土) 02:14:35.84ID:/KVOMXQC
調べるのは出来ないけど丁寧な質問はできる人間と顔も知らない相手に嫌味を言うしかしない暇な人間と
2025/04/26(土) 02:30:28.50ID:zftaZOkM
恋しさと切なさと心強さと
2025/04/26(土) 04:04:10.51ID:pjg5dH3o
2025/04/26(土) 06:51:39.65ID:bszvPwgq
FramePack-eichi が面白そう 詳しくはNote.comの記事参照
複数のキーフレームを用意することで狙い通りに動くようだ
複数のキーフレームを用意することで狙い通りに動くようだ
2025/04/26(土) 07:21:40.24ID:i5ZFqL3D
675名無しさん@お腹いっぱい。
2025/04/26(土) 09:51:16.57ID:hQnGwCGG 叡智でlora適用でやってもサンプル1秒から増えないんだが。時間かかるのか
676名無しさん@お腹いっぱい。
2025/04/26(土) 11:11:26.75ID:+bUq4Vdw ああカスメとかコイカツとかLive2Dない人はi2iの構図元すぐでねぇのか
2025/04/26(土) 14:30:56.93ID:jMHnySbo
久々に来たらレベルが低いのが混じってんな
2025/04/26(土) 15:00:46.09ID:vi4g1wkF
よう昨日ぶり
2025/04/26(土) 15:21:22.82ID:3a9LxDdL
数日前に出たWan2.1用の脱衣系Loraがまた消えてるな
規制が厳しくなったのかと思ったけどHunyuanの脱衣系Loraは普通に残ってるんだよな・・・
規制が厳しくなったのかと思ったけどHunyuanの脱衣系Loraは普通に残ってるんだよな・・・
680名無しさん@お腹いっぱい。
2025/04/26(土) 16:08:41.06ID:0sW0ypg8 FramePack-eichi
早速環境構築して5秒動画生成中
i7-16gb Rtx4060ti16gb
メインメモリパンパン
gpuメモリ余裕(12gb消費)
1時間でやっと8%進んだよ
早速環境構築して5秒動画生成中
i7-16gb Rtx4060ti16gb
メインメモリパンパン
gpuメモリ余裕(12gb消費)
1時間でやっと8%進んだよ
2025/04/26(土) 16:50:58.70ID:cogARbrv
16GBて
よくOOMにならんな
よくOOMにならんな
2025/04/26(土) 17:03:27.70ID:3a9LxDdL
683名無しさん@お腹いっぱい。
2025/04/26(土) 17:09:22.53ID:+bUq4Vdw >>680
SSDすごい勢いで削ってるヤーツ
SSDすごい勢いで削ってるヤーツ
2025/04/26(土) 18:24:32.52ID:qGqLJFlQ
メモリ64GBでも足りねーって言われている動画生成で16GBでチャレンジするのはかなりきつくね?
685名無しさん@お腹いっぱい。
2025/04/26(土) 18:38:45.00ID:0sW0ypg8 あーメモリ増やさんとダメか
32gbがマザボの上限なんだよなあ
32gbがマザボの上限なんだよなあ
2025/04/26(土) 18:39:19.06ID:8sUaWkGr
オンラインの動画生成AIの進歩がすごすぎて
2世代くらい遅れてるローカル環境の動画生成AIでは満足できない
2世代くらい遅れてるローカル環境の動画生成AIでは満足できない
2025/04/26(土) 18:43:25.63ID:gvPZDAGq
スマソ動画初心者なんだがメインメモリの容量とか仕様が関係するの?
2025/04/26(土) 19:11:46.88ID:Lrx1oh61
>>686
エロ出来るだけでだいぶ満足出来るわ、その領域はサブスクサービスだと不可能だから
エロ出来るだけでだいぶ満足出来るわ、その領域はサブスクサービスだと不可能だから
2025/04/26(土) 19:29:35.27ID:IgI4NaRs
>>687
動画生成ではメインメモリは関係大アリ
時々勘違いしている人がいるんだけど、FramePackがVRAM6GBで動くというのはVRAMだけの話であって
メインメモリはたくさんいるのよ
FramePack(本家、kijai両方)やHunyuanVideoやWanのkijai版ワークフローの場合、モデルは基本的に
メインメモリに展開される。モデルの一部をVRAMに載せられる範囲で載せ、載せられない部分は
メインメモリに載せて動画生成処理を行う
HunyuanVideoだと、プロンプトを処理するllava_llama3がFP16で16.1GB、動画を生成するモデル本体が
BF16で25.6GBもあるし、FP8モデルでもllava_llama3が9.09GBで、本体が13.2GBだから、本体はGeforce
3060 12GBの場合どうやっても全部は載せられない
モデルは他にVAEが必要だし、I2Vや開始終了画像指定の場合画像を処理するVLMがさらに必要になる
全部でFP8でも25GBぐらい、FP16では50GB近くあり、VRAMに入らない部分はメインメモリに展開しないと
いけない
だからメインメモリが32GBでも厳しいという話になるわけ
ComfyUI Native版HunyuanVideoやWanワークフローの場合もそのままでは同じだけど、GGUF形式で量子化
(圧縮)したモデルを使うよう修正したワークフローが存在する
GGUFの場合、llava_llama3がQ4_K_Mで4.92GB、本体がQ4_K_Mで7.88GBだから、直接VRAMにllava_llama3を
載せ、プロンプト処理後にllava_llama3をアンロードし、本体をVRAMにロードして動画生成するならVRAMに
全部収まり、メインメモリは使わずに済む(実際は両方メインメモリにも展開されていると思うが)
GGUFはモデルを小さくした分精度が下がるので、生成される動画の品質は下がってしまうけどね
なお、現状FramePackはGGUFに未対応でつ
動画生成ではメインメモリは関係大アリ
時々勘違いしている人がいるんだけど、FramePackがVRAM6GBで動くというのはVRAMだけの話であって
メインメモリはたくさんいるのよ
FramePack(本家、kijai両方)やHunyuanVideoやWanのkijai版ワークフローの場合、モデルは基本的に
メインメモリに展開される。モデルの一部をVRAMに載せられる範囲で載せ、載せられない部分は
メインメモリに載せて動画生成処理を行う
HunyuanVideoだと、プロンプトを処理するllava_llama3がFP16で16.1GB、動画を生成するモデル本体が
BF16で25.6GBもあるし、FP8モデルでもllava_llama3が9.09GBで、本体が13.2GBだから、本体はGeforce
3060 12GBの場合どうやっても全部は載せられない
モデルは他にVAEが必要だし、I2Vや開始終了画像指定の場合画像を処理するVLMがさらに必要になる
全部でFP8でも25GBぐらい、FP16では50GB近くあり、VRAMに入らない部分はメインメモリに展開しないと
いけない
だからメインメモリが32GBでも厳しいという話になるわけ
ComfyUI Native版HunyuanVideoやWanワークフローの場合もそのままでは同じだけど、GGUF形式で量子化
(圧縮)したモデルを使うよう修正したワークフローが存在する
GGUFの場合、llava_llama3がQ4_K_Mで4.92GB、本体がQ4_K_Mで7.88GBだから、直接VRAMにllava_llama3を
載せ、プロンプト処理後にllava_llama3をアンロードし、本体をVRAMにロードして動画生成するならVRAMに
全部収まり、メインメモリは使わずに済む(実際は両方メインメモリにも展開されていると思うが)
GGUFはモデルを小さくした分精度が下がるので、生成される動画の品質は下がってしまうけどね
なお、現状FramePackはGGUFに未対応でつ
2025/04/26(土) 20:58:05.84ID:gvPZDAGq
>>689
言ってる事の半分も理解できないけど、動画ではメインメモリの容量が大事なのは伝わった。当然速度も早い方がいいのだろうけどまずは容量なんだね。
半分くらいは理解できたのでありがとう
現状32GB 3060VRAM12GB
128GBは現実的じゃないけど64GBにするのはかなり前向きに考えてる
グラボは5080買うんでそれを機にウpしてみる
ありがとう そしてよろしこ^^
言ってる事の半分も理解できないけど、動画ではメインメモリの容量が大事なのは伝わった。当然速度も早い方がいいのだろうけどまずは容量なんだね。
半分くらいは理解できたのでありがとう
現状32GB 3060VRAM12GB
128GBは現実的じゃないけど64GBにするのはかなり前向きに考えてる
グラボは5080買うんでそれを機にウpしてみる
ありがとう そしてよろしこ^^
2025/04/26(土) 21:02:22.66ID:3a9LxDdL
>i7-16gb Rtx4060ti16gb
>メインメモリパンパン
こう書いてあるからCPUはi7-16gbでグラボはRTX4060ti(VRAM16GB)
メモリは何故か伏せられているけど「パンパン」と表記してるから
恐らく最大値積載とエスパーして128GBか256GBと仮定してレスしてたわw
いやまさかRAM16GBとは思わんやろ・・・
>メインメモリパンパン
こう書いてあるからCPUはi7-16gbでグラボはRTX4060ti(VRAM16GB)
メモリは何故か伏せられているけど「パンパン」と表記してるから
恐らく最大値積載とエスパーして128GBか256GBと仮定してレスしてたわw
いやまさかRAM16GBとは思わんやろ・・・
2025/04/26(土) 21:08:02.41ID:3a9LxDdL
>>690
マジレスすると現実的に考えてメモリは128GB積んでおいた方がいいぞ
俺がいま128GB積んでるけどFramePackが半分の64GBくらい占有してる
他のAI生成でもメモリ積載量は大正義だからよほどの理由が無い限りはマジで128GB積んだ方がいい
マジレスすると現実的に考えてメモリは128GB積んでおいた方がいいぞ
俺がいま128GB積んでるけどFramePackが半分の64GBくらい占有してる
他のAI生成でもメモリ積載量は大正義だからよほどの理由が無い限りはマジで128GB積んだ方がいい
2025/04/26(土) 21:17:48.76ID:gvPZDAGq
ってことは動画メインに考えるならグラボよりメモリに金使えって事かいのう?
2025/04/26(土) 21:21:04.59ID:gvPZDAGq
ろろろろ六万!
2025/04/26(土) 21:25:37.00ID:3a9LxDdL
両方やな・・・
これは金のかかる遊びなんや・・・
俺はいまRTX3080(VRAM12GB)だけどグラボを新調する余裕は無いからメモリだけでも爆盛りしとこうと思って128GBにしたけどWan2.1でもFramePackでも効果絶大で快適に生成出来るようになったよ
何より生成中にPCで他の事を出来るのがでかい
これは金のかかる遊びなんや・・・
俺はいまRTX3080(VRAM12GB)だけどグラボを新調する余裕は無いからメモリだけでも爆盛りしとこうと思って128GBにしたけどWan2.1でもFramePackでも効果絶大で快適に生成出来るようになったよ
何より生成中にPCで他の事を出来るのがでかい
696名無しさん@お腹いっぱい。
2025/04/26(土) 21:50:58.82ID:0sW0ypg8 皆さんのレスで64gb乗せることにしました最後でエラーになって動画が出来なかった
2025/04/26(土) 21:51:06.88ID:38uRJaID
メインメモリは多いほどいいぞ
ComfyUIだと「multigpu」のノード使えばVRAMの一部をメインメモリ(勿論他のVRAMにも)に
退避できるようになるので今まで動かなかったモデルも動けるような設定が可能になる
大抵のモデルロード(clipやVAE含め)のノードのmultigpuノードがサポートされてるから、
メモリ多い人は試してみるべし
メモリは64GBだと微妙に足りない場面が多くて、96GB(48GBの2枚挿し)か、
128GB(32GBの4枚挿し)を狙うといい
ComfyUIだと「multigpu」のノード使えばVRAMの一部をメインメモリ(勿論他のVRAMにも)に
退避できるようになるので今まで動かなかったモデルも動けるような設定が可能になる
大抵のモデルロード(clipやVAE含め)のノードのmultigpuノードがサポートされてるから、
メモリ多い人は試してみるべし
メモリは64GBだと微妙に足りない場面が多くて、96GB(48GBの2枚挿し)か、
128GB(32GBの4枚挿し)を狙うといい
2025/04/26(土) 21:58:44.12ID:gvPZDAGq
2025/04/26(土) 21:59:50.38ID:BUmSqVEk
メモリ4枚挿しとか遅くなんね?
2025/04/26(土) 22:01:17.77ID:DlGtSxre
ぶっちゃけローカルでやるメリットってエロ以外なくね?
2025/04/26(土) 22:09:42.46ID:Jx+zcO/R
それ以外に何が必要なんだよ
サイトによっては
本数制限や順番待ちが発生する
サイトによっては
本数制限や順番待ちが発生する
2025/04/26(土) 22:11:17.66ID:nRkxe4OL
外部サイトで有料や回数制限がある中で
微妙なのとかクリーチャー出たらノーカンに出来るの?
微妙なのとかクリーチャー出たらノーカンに出来るの?
703名無しさん@お腹いっぱい。
2025/04/26(土) 22:23:55.82ID:l0TmBsd+ 健全なイラスト生成利用だっていちいちクラウドに金払ってトライアンドエラーやってられんだろ
2025/04/26(土) 22:36:05.90ID:Lrx1oh61
4枚差し96GBだけどDDR4だから別に大差ないな
問題が出るのってDDR5の話って聞くし
問題が出るのってDDR5の話って聞くし
2025/04/26(土) 22:38:55.13ID:3a9LxDdL
うちもDDR4の32GBx4で128GBだけど別にパフォーマンス落ちたりしてないな
精神衛生上memtest86回した時は18時間くらい掛かってしんどかったが・・・
精神衛生上memtest86回した時は18時間くらい掛かってしんどかったが・・・
706名無しさん@お腹いっぱい。
2025/04/26(土) 22:48:02.50ID:BBwJpqK7 128GBは18時間かかるのか
memtestは2、3周してエラーなくても4周目でエラー起きるとかあるから1周だとまだ不安が残る
1周するのに18時間かかるとなると2,3日かけっぱとかの方が安心できるな
でも流石にメインのPC2、3日使えないのはキツイ
ただメモリがダメだと最悪ファイルのコピーでファイルが壊れていくからなー
memtestは2、3周してエラーなくても4周目でエラー起きるとかあるから1周だとまだ不安が残る
1周するのに18時間かかるとなると2,3日かけっぱとかの方が安心できるな
でも流石にメインのPC2、3日使えないのはキツイ
ただメモリがダメだと最悪ファイルのコピーでファイルが壊れていくからなー
2025/04/26(土) 22:50:53.58ID:3a9LxDdL
>>706
いや1周というか4パス完走するのに18時間や
いや1周というか4パス完走するのに18時間や
2025/04/27(日) 04:01:03.92ID:1cLFBwpR
動画やってないけどDDR5 192GB積んでるわ。
本来はメモリ速度が落ちるけど、メモリオーバークロックして通常の速度にしてる。
本来はメモリ速度が落ちるけど、メモリオーバークロックして通常の速度にしてる。
2025/04/27(日) 10:10:27.21ID:3mQR4J30
1年くらい前の動画生成AIは開始イメージくらいしか指定できなかったし、プロンプトの認識も頭悪くてからまともな動画できるまでかなりかかったけど
最新の動画生成AIは開始終了フレーム指定でプロンプトも画像内の複数の人物の判定が正確になってほぼ思った通りの動画が一発で出来るようになったよ
最新の動画生成AIは開始終了フレーム指定でプロンプトも画像内の複数の人物の判定が正確になってほぼ思った通りの動画が一発で出来るようになったよ
710名無しさん@お腹いっぱい。
2025/04/27(日) 14:43:51.74ID:ghdrQXbq ASCll×AIの記事でFramePackのwebUI版導入したんだけどパソコンの電源を起動
し直すたびに使えなくなるんだけどどうやってまたwebUI使えるのかわかる人いますか?
し直すたびに使えなくなるんだけどどうやってまたwebUI使えるのかわかる人いますか?
711名無しさん@お腹いっぱい。
2025/04/27(日) 14:48:47.34ID:ghdrQXbq すみません
自己解決しました
またrun.butのファイルを起動したらいけました
自己解決しました
またrun.butのファイルを起動したらいけました
2025/04/27(日) 15:12:33.55ID:OQ2j+/Vw
低スペックなPCでもWEBサービスはコーヒー1杯の値段で高速生成してくれる
どっちをとるかやな
どっちをとるかやな
713名無しさん@お腹いっぱい。
2025/04/27(日) 15:27:03.76ID:t/XDPTn1 ここの人たちって叡智なのが主目的なんじゃないのん?
ならWEBサービスって最初から論外になんない?
ならWEBサービスって最初から論外になんない?
2025/04/27(日) 15:52:45.76ID:3Tlc6hAy
どうせ非エロとか、仕事とか商用目的視野にしてない人だとちょっと触って飽きて終わる未来しか見えない
2025/04/27(日) 15:54:57.51ID:cLSIkbx6
個人的には服着ててもフェ●チオジェスチャーみたいなのを
口開けて叡智に動かしてくれるだけで満足できる自信があるけど
オンボードで動画生成できるスペックがそもそもない
口開けて叡智に動かしてくれるだけで満足できる自信があるけど
オンボードで動画生成できるスペックがそもそもない
2025/04/27(日) 15:56:12.95ID:OQ2j+/Vw
>>713
タイトルの【】内はWebUIなんやでって何でまたこういうレベルの説明せなアカンねん
タイトルの【】内はWebUIなんやでって何でまたこういうレベルの説明せなアカンねん
2025/04/27(日) 16:23:33.59ID:5yYx6aiA
2025/04/27(日) 16:56:50.33ID:yFUcxuIr
まだ環境構築してないのにソフマップのDDR5 128GBキット48000円が最安で買うか迷ってる
719名無しさん@お腹いっぱい。
2025/04/27(日) 20:03:34.63ID:ldkL6x4a 680です
メモリ64GB(16GB×4枚、総額1万2千円くらい)にしたら速い速い
5秒動画が10分かからないくらいになった
ピーク50GBくらい使うのな
メモリ64GB(16GB×4枚、総額1万2千円くらい)にしたら速い速い
5秒動画が10分かからないくらいになった
ピーク50GBくらい使うのな
2025/04/27(日) 21:11:17.14ID:vxnA/8mb
諦めたら試合終了なんです
如何にオンラインの検閲を誤魔化して
叡智な画像を作るか
検閲に引っかからない絵で如何に妄想するか
むしろ露骨な丸出しってキモくない?
如何にオンラインの検閲を誤魔化して
叡智な画像を作るか
検閲に引っかからない絵で如何に妄想するか
むしろ露骨な丸出しってキモくない?
2025/04/28(月) 02:41:05.48ID:bRzbyCI2
全然
モザイクで興奮するなんて言うやつも理解不能
モザイクで興奮するなんて言うやつも理解不能
2025/04/28(月) 08:53:04.32ID:5dwf2ez+
というかモザイクって欧米ではやってないよ
日本がガラパゴスなだけ
日本がガラパゴスなだけ
2025/04/28(月) 09:11:47.57ID:uKyu3YAl
でも欧米人ってアニメで湯気越しのおっぱいが出ただけで凄い反応するんだぜ?
2025/04/28(月) 15:06:04.77ID:9VYZZOuS
全裸だったらもっとすごい反応します
2025/04/28(月) 15:25:47.86ID:hCWJASNP
それは全年齢版にエロを混ぜんなっていう別の話
日本でも任天堂のプラットフォームは厳しいだろ
日本でも任天堂のプラットフォームは厳しいだろ
2025/04/28(月) 15:28:32.23ID:QDrx49td
俺からしたらエロいのキモいとかいう感性がもうキモいわ
女ならともかく男が言ってたら脳の深刻な病気を疑う
女ならともかく男が言ってたら脳の深刻な病気を疑う
2025/04/28(月) 15:54:54.84ID:CJm5VNQd
任天堂Switchのエロゲコーナー
https://i.imgur.com/RSVO2qS.jpeg
https://i.imgur.com/RSVO2qS.jpeg
2025/04/28(月) 15:56:50.02ID:HsU82IVa
>>725
PG12とかを見てオッサンが口をあんぐり開けていたりする方が異様だ
PG12とかを見てオッサンが口をあんぐり開けていたりする方が異様だ
2025/04/28(月) 15:59:08.50ID:ABEYSPy7
だってプロンプトにgirlだけ入れてもまんこ描画する素敵なモデルばかりだしなぁ
2025/04/28(月) 16:11:58.25ID:5dwf2ez+
>>725
任天堂プラットフォームはめちゃくちゃ緩いんだけど
ソニーの方がポリコレ配慮でエロに厳しい
分かりやすい例がLoveR
ちなみに肌が見えるだけでエロ判定する人もいるけど
そこまで言うなら厳格なイスラム原理主義の国に移住した方がいいと思うよ
女性の肌見せるのはNGだし、女性のポスターも恐らく禁止
任天堂プラットフォームはめちゃくちゃ緩いんだけど
ソニーの方がポリコレ配慮でエロに厳しい
分かりやすい例がLoveR
ちなみに肌が見えるだけでエロ判定する人もいるけど
そこまで言うなら厳格なイスラム原理主義の国に移住した方がいいと思うよ
女性の肌見せるのはNGだし、女性のポスターも恐らく禁止
2025/04/28(月) 17:21:25.23ID:76KT1+x7
ソニーはポリゴンの繋ぎ目が件股間に見えてただけで意図を問われるからなぁ
732名無しさん@お腹いっぱい。
2025/04/28(月) 17:30:39.17ID:W9imuHi9 >>719
Win10pro64bit、corei5、CPU16GB(DDR3、8GB×2)、RTX3060(12GB)で5秒動画に5時間以上かかるから、これ見てメモリ増設しようとしたらスロット埋ってて増設不可だったm(__)m
Win10pro64bit、corei5、CPU16GB(DDR3、8GB×2)、RTX3060(12GB)で5秒動画に5時間以上かかるから、これ見てメモリ増設しようとしたらスロット埋ってて増設不可だったm(__)m
2025/04/28(月) 17:40:37.94ID:zot09Eo5
メモリそれでやろうとするならストレージの寿命爆速で縮みそうで怖すぎる、PC壊れる
32×32の64GBか48×48の96GBで2枚差しにするか、マザボ変えるか、分からなければ素直に買い替えの3択やな
おすすめは96GB以上
32×32の64GBか48×48の96GBで2枚差しにするか、マザボ変えるか、分からなければ素直に買い替えの3択やな
おすすめは96GB以上
2025/04/28(月) 17:42:09.36ID:zot09Eo5
てかDDR3じゃねーか
流石に買い替えた方が良さそう…
流石に買い替えた方が良さそう…
735名無しさん@お腹いっぱい。
2025/04/28(月) 17:57:52.31ID:g/kaiV7C AIいじる土俵にすら上がってないのでは。
学生とかでも少しバイトして金ためりゃすぐ買えるだろ
あれこれ動作環境で頭悩ませながら延々と四苦八苦するより、さっさと金用意してPC更新した方がいいと気づこうぜ
学生とかでも少しバイトして金ためりゃすぐ買えるだろ
あれこれ動作環境で頭悩ませながら延々と四苦八苦するより、さっさと金用意してPC更新した方がいいと気づこうぜ
736名無しさん@お腹いっぱい。
2025/04/28(月) 18:00:07.48ID:SeIRlYU8 >>727
こういうのは昔vitaやpspが担ってたけど、携帯機がこれしかなくなってからswichに変わったよね
こういうのは昔vitaやpspが担ってたけど、携帯機がこれしかなくなってからswichに変わったよね
737名無しさん@お腹いっぱい。
2025/04/28(月) 18:13:11.42ID:W9imuHi92025/04/28(月) 18:28:20.33ID:0OALh26X
未だにDDR3のマザー使ってる事に驚いた
2025/04/28(月) 18:40:05.14ID:zot09Eo5
使ってるというか昔完成済みのローミドル帯ゲーミングPC(2枚までならノートか?)買ってそのままなのでは?って感じがする
DDR3ならストレージも今主流のSSDではなくHDDの可能性すらあるかもしれない()
DDR3ならストレージも今主流のSSDではなくHDDの可能性すらあるかもしれない()
740名無しさん@お腹いっぱい。
2025/04/28(月) 22:05:23.15ID:B6yi49pz プロンプトは画像より難しい
例のThe girl dances gracefullyしかまともに動かない
オススメのプロンプトある?
例のThe girl dances gracefullyしかまともに動かない
オススメのプロンプトある?
2025/04/28(月) 22:25:03.91ID:kZkFSo1f
VRAM32GBか...いいな
金は有るのだがノートしか置けない環境だからなぁ
金は有るのだがノートしか置けない環境だからなぁ
742名無しさん@お腹いっぱい。
2025/04/29(火) 11:03:13.15ID:DPSmX0UA 3090から5090で同じ環境での生成速度差
5090の在庫が普通に並ぶようになってきたので参考までに
size:720*720
Steps:30
Frames:120
Model:720p-Q8
高速化:Sage Attention,tea cache
[生成時間]
3090→2100秒前後
5090→400秒前後
5090の在庫が普通に並ぶようになってきたので参考までに
size:720*720
Steps:30
Frames:120
Model:720p-Q8
高速化:Sage Attention,tea cache
[生成時間]
3090→2100秒前後
5090→400秒前後
2025/04/29(火) 11:18:11.69ID:fM1wwv/j
スペックの話ばっかりやな
PCなくてもVastaiとかでも作れる時代なのに
PCなくてもVastaiとかでも作れる時代なのに
2025/04/29(火) 11:23:08.86ID:JlJByp63
4060ti16GBと5060ti16GBの比較が欲しいんだよな…
745名無しさん@お腹いっぱい。
2025/04/29(火) 14:10:14.07ID:BatT8ZjD2025/04/29(火) 15:34:32.85ID:YIbL4j9i
参考にならなくて笑った
まぁ、ちゃんと設定しないとダメだよという事の証明なのかもしれないが
まぁ、ちゃんと設定しないとダメだよという事の証明なのかもしれないが
2025/04/29(火) 17:51:39.43ID:gBWwMdNG
2025/04/29(火) 19:19:01.39ID:2pwPeiRJ
>>742
3090って思ったよりも遅いんだな。。
4090で大体600sくらいなので、
これだと5090に乗り換えなくてもいいかな
中国では48GB搭載の4090が出回っているらしい。
どうやったら入手できるのかな
3090って思ったよりも遅いんだな。。
4090で大体600sくらいなので、
これだと5090に乗り換えなくてもいいかな
中国では48GB搭載の4090が出回っているらしい。
どうやったら入手できるのかな
2025/04/29(火) 19:53:39.77ID:7mi3FKSb
>>748
魔改造4090の入手手段なんてアリエク見張ってるくらいじゃね?
魔改造4090の入手手段なんてアリエク見張ってるくらいじゃね?
750名無しさん@お腹いっぱい。
2025/04/29(火) 20:22:29.22ID:tXpYH5ti 円高気味なんで
i9 RAM128GB Rtx5090
が50万くらいで買えるようにならんかな
今80万はかかる
i9 RAM128GB Rtx5090
が50万くらいで買えるようにならんかな
今80万はかかる
2025/04/30(水) 03:48:29.83ID:FvOdVPJF
中国のなんて殆どが詐欺だろ
80TBのSSDとかさ
80TBのSSDとかさ
2025/04/30(水) 08:00:32.95ID:seQabHYQ
初心者なりに簡単な報告
RTX3060 12GBからRTX5060ti 16GBへ換装
easywan、Kijai_I2v、480×320、10step
各種高速化オプション使用で5秒動画の生成が6分から2分半に短縮された
RTX3060 12GBからRTX5060ti 16GBへ換装
easywan、Kijai_I2v、480×320、10step
各種高速化オプション使用で5秒動画の生成が6分から2分半に短縮された
2025/04/30(水) 09:39:38.48ID:OLoMC+lh
すごくありそうな換装やからみんなの参考になるわね
2025/04/30(水) 09:41:58.45ID:+00Mx9Sv
2025/04/30(水) 09:58:01.76ID:nvWkOAvG
遂に5090 32Gが普通に買えるようになってきたね
A4000から積み替えるかぁと思ってもやっぱ60万だと動画生成の差がわかんないと怖くて買えないね
A4000から積み替えるかぁと思ってもやっぱ60万だと動画生成の差がわかんないと怖くて買えないね
2025/04/30(水) 14:26:26.51ID:Q4+AAnuu
framepackから動画生成を始めたんだけどもう一つの話題になってるWanは元画像そのままで動画に出来るの?以前に試したAnimatediffは元画像と別物の動画になってたから。
2025/04/30(水) 14:36:32.43ID:S4wDX7Dq
出来るよ
758名無しさん@お腹いっぱい。
2025/04/30(水) 15:15:51.48ID:uansnY302025/04/30(水) 15:19:16.41ID:L7SQ1fHD
2025/04/30(水) 17:46:15.89ID:Q4+AAnuu
2025/04/30(水) 18:04:04.47ID:Jw+BBSMB
FramePackEichiのLoraが「要VRAM16GB」と書いてあるけど
DDR4-128GBにRTX3080(VRAM12GB)で5秒の動画が生成出来たので報告
ただし生成中はメモリ128GBをほぼほぼフルで使ってる模様・・・
ちょっとビビるけどこの為にメモリ爆盛りにしたんだから活用しないとな
VRAM12GBしか無いけどFramePackでLoraも使いたいって人はメモリ128GBでカバー出来るぞ
DDR4-128GBにRTX3080(VRAM12GB)で5秒の動画が生成出来たので報告
ただし生成中はメモリ128GBをほぼほぼフルで使ってる模様・・・
ちょっとビビるけどこの為にメモリ爆盛りにしたんだから活用しないとな
VRAM12GBしか無いけどFramePackでLoraも使いたいって人はメモリ128GBでカバー出来るぞ
2025/04/30(水) 18:07:12.15ID:S4wDX7Dq
破綻しにくさと一貫性があるのは分かったからwan並に動きがキビキビするようになってからまた起こしてくれ
2025/04/30(水) 18:08:30.72ID:hTfOcJag
2025/04/30(水) 18:57:20.77ID:OLoMC+lh
っていうかFramePackでて大騒ぎになっとる理由がようわからんねんな
EasyWanVideoの段階で画期的やしエロでは以前トップやろ
EasyWanVideoの段階で画期的やしエロでは以前トップやろ
2025/04/30(水) 19:00:11.07ID:aKo9Jb0Y
FramePackは軽いからって理由で話題になってるから容量十分な奴はwanの14Bでええやろ
2025/04/30(水) 19:00:30.64ID:Nk4nd6Kg
2025/04/30(水) 19:10:13.03ID:hTfOcJag
>>766
さすがに100%近くまでアクティブ率があがって、これはやばい!と思った
FramePack用に学習し直されたLORAを使って全く効果なかったから暫くは良いかな
LORAを使ったりしなければ、SSDに負荷かからないし
さすがに100%近くまでアクティブ率があがって、これはやばい!と思った
FramePack用に学習し直されたLORAを使って全く効果なかったから暫くは良いかな
LORAを使ったりしなければ、SSDに負荷かからないし
768名無しさん@お腹いっぱい。
2025/04/30(水) 19:12:10.25ID:IZEuXNP12025/04/30(水) 19:20:14.75ID:OLoMC+lh
もったいねえなあ
2025/04/30(水) 19:23:21.04ID:2y/lcK4+
FramePack入れようとしたけどbatでダウソ始まらないで何かキーを...になるから止めた
Comfy+Wanでいいや
Comfy+Wanでいいや
2025/04/30(水) 19:23:45.39ID:Z9wN683h
完全に慣れの問題で、別に難しいことはないと思うんだよなあ。ComfyUI。
サンプルワークフローも豊富だし、自分の好きなようにノード配置出来るし。
サンプルワークフローも豊富だし、自分の好きなようにノード配置出来るし。
2025/04/30(水) 19:44:27.98ID:2y/lcK4+
Comfyは一瞬で環境が変えられるから
flux他で元絵を作って直ぐにwanへ切り替えるとか出来るし
今何を処理しているのかが分かって楽しいわね
flux他で元絵を作って直ぐにwanへ切り替えるとか出来るし
今何を処理しているのかが分かって楽しいわね
773名無しさん@お腹いっぱい。
2025/04/30(水) 20:03:05.02ID:eTyI/HHr FramePackは世間的にはエロがではなく
破綻が少ない動画が作りやすく
有料サービスより長時間対応すげーってことかと
破綻が少ない動画が作りやすく
有料サービスより長時間対応すげーってことかと
2025/04/30(水) 20:07:59.35ID:IeMqLMyR
最近のComfyは変化が大きくてなんか微妙に操作が変わったりするし
古いCustom Nodeがどんどん使えなくなっていくし
古いCustom Nodeがどんどん使えなくなっていくし
775名無しさん@お腹いっぱい。
2025/04/30(水) 20:19:36.23ID:BWmowv5f framepackはmacでも使えるようになったのな
時間かかるとはいえMacBookAir(ユニファイドメモリ24GB)で作れるってのは大きいな
時間かかるとはいえMacBookAir(ユニファイドメモリ24GB)で作れるってのは大きいな
2025/04/30(水) 20:20:00.55ID:/ZHbIOSE
初心者はpinokioでやるのがオススメだよ
2025/04/30(水) 20:39:06.77ID:Jw+BBSMB
画像生成ならともかく動画生成だと現状のComfyUIは
自分でノード書き換えとか出来るスキル持ってないと無理ゲーになりつつあるよな
俺はStabilityMatrixのComfyUIにZuntanニキのワークフローを拝借してWan2.1使ってたけど
もう諦めて動画生成専用にEasyWanVideo導入したわ
実質ComfyUIが二つ入ってる状態なのが気持ち悪いけど仕方ない・・・
自分でノード書き換えとか出来るスキル持ってないと無理ゲーになりつつあるよな
俺はStabilityMatrixのComfyUIにZuntanニキのワークフローを拝借してWan2.1使ってたけど
もう諦めて動画生成専用にEasyWanVideo導入したわ
実質ComfyUIが二つ入ってる状態なのが気持ち悪いけど仕方ない・・・
2025/04/30(水) 20:45:47.13ID:wtr/clJB
ComfyUIの楽しいところは自分でノードを付け足して機能拡張したりアレンジしたり
するところなので、ポンつけのWebUI系は全然面白くない
FramePackもComfyUI版でしか試してないな
するところなので、ポンつけのWebUI系は全然面白くない
FramePackもComfyUI版でしか試してないな
779名無しさん@お腹いっぱい。
2025/04/30(水) 21:54:28.56ID:zkppWgQk easywan使ってんだけど、loraだけ新しく入れたり出来るの?エロ系普通に探しても出て来ないんやが。
780名無しさん@お腹いっぱい。
2025/04/30(水) 22:02:18.22ID:eTyI/HHr civitaiは必修科目ですよ
781名無しさん@お腹いっぱい。
2025/04/30(水) 23:01:10.59ID:uansnY30 easywan(というかKijaiWorkFlow)使ってる人多いが画質がピーキー過ぎないか?
特にピクセルエリアの少ない人物の顔が潰れるのとハイコントラスト時の肌がノイジーになるのがキツイ
歯とかめちゃグニャる
Model、clipModel、VAEをいじればそこそそマシになるがそれでも諦めた。
GGUFも使えないし、そもそもデフォだと制限かかってて
modules\model.py
modules\clip.py
ComfyUI-WanVideoWrapper\nodes.py
のソースいじらないとモデル変更もできない
kijaiは速度に命かけてる感があるので何かを犠牲にしてるんだろうが...
↓参考までに左がeasywanI2V、右はUmeWorkflowで同じ条件で出力した1フレーム目の比較
https://imgur.com/a/bZWgHLL
1フレーム目から顔とハイコントラストの肌の質感がだいぶ潰れる
モロにSamplerの影響に見えるけど統一しても同じ
静止画1枚だと分かりづらいけど、両方試せる人は試してみてほしい
特にピクセルエリアの少ない人物の顔が潰れるのとハイコントラスト時の肌がノイジーになるのがキツイ
歯とかめちゃグニャる
Model、clipModel、VAEをいじればそこそそマシになるがそれでも諦めた。
GGUFも使えないし、そもそもデフォだと制限かかってて
modules\model.py
modules\clip.py
ComfyUI-WanVideoWrapper\nodes.py
のソースいじらないとモデル変更もできない
kijaiは速度に命かけてる感があるので何かを犠牲にしてるんだろうが...
↓参考までに左がeasywanI2V、右はUmeWorkflowで同じ条件で出力した1フレーム目の比較
https://imgur.com/a/bZWgHLL
1フレーム目から顔とハイコントラストの肌の質感がだいぶ潰れる
モロにSamplerの影響に見えるけど統一しても同じ
静止画1枚だと分かりづらいけど、両方試せる人は試してみてほしい
2025/04/30(水) 23:30:00.62ID:6zEwlUi0
その程度の違いどうでもいいわ
2025/05/01(木) 00:09:15.16ID:X8NeLKbL
Kijaiの10ステップで生成してるけど全然問題感じないし
ネイティブで30ステップで生成時間3倍になる方がデメリットすぎるよね
720PのQ8って18GBでFP8よりも1GBでかいけど目に見えて品質は改善されるのかな
それにQ8はFP8よりも複雑に量子化されてるから生成遅くなるらしいけどどの位変わるんだろ
ネイティブで30ステップで生成時間3倍になる方がデメリットすぎるよね
720PのQ8って18GBでFP8よりも1GBでかいけど目に見えて品質は改善されるのかな
それにQ8はFP8よりも複雑に量子化されてるから生成遅くなるらしいけどどの位変わるんだろ
784名無しさん@お腹いっぱい。
2025/05/01(木) 03:15:50.86ID:eG3GI6pW Kijaiを否定するつもりはまったくないけどステップを3倍にしたら生成時間が3倍、とはならない
同じ条件で動画にしたが
[右 ume] Steps:25で61秒
[左 Kijai] Steps:10で72秒
https://i.imgur.com/xEsaSqO.mp4
5090環境なのとumeの設定をカスタムして詰めてるのもあるだろうがステップ数を倍にしてもumeの方が早い
ステップ数が少ないと動きが早いモーション時なんかにノイズでガビガビになる(特に手と口と柄物)
動画の最後の歯の部分なんかがわかりやすい。ノイズは引き継がれるので長尺の動画になればなるほど後半に影響が出る。
「引き抜いた竿がツルツルになる」みたいなのに悩んでる人も多いだろう。
あと初心者への配慮からかVideoWrapperのpyがいじられているので他のWorkflowとの互換性がすこぶる悪い。
他のWorkflow入れた時のノードエラーが解決しない人も多いのでは?
おそらく仮想環境のpytorchとSageAttentionのハードルの高さからeasyWanが使われることが多いんだろうが、
それが理由ならUmeAiRTが3日前にauto installer公開してるので比較してみるといい
https://civitai.com/models/1309415/comfyui-auto-installer-wan21-or-sageattention-or-50xx-cards-compatible-or
個人的にはGGUFはVRAMを解像度とステップ数に回せるのでマスト
ステップ数を上げるとガチャ確率も上がるので結果トータルの生成時間効率も上がる
同じ条件で動画にしたが
[右 ume] Steps:25で61秒
[左 Kijai] Steps:10で72秒
https://i.imgur.com/xEsaSqO.mp4
5090環境なのとumeの設定をカスタムして詰めてるのもあるだろうがステップ数を倍にしてもumeの方が早い
ステップ数が少ないと動きが早いモーション時なんかにノイズでガビガビになる(特に手と口と柄物)
動画の最後の歯の部分なんかがわかりやすい。ノイズは引き継がれるので長尺の動画になればなるほど後半に影響が出る。
「引き抜いた竿がツルツルになる」みたいなのに悩んでる人も多いだろう。
あと初心者への配慮からかVideoWrapperのpyがいじられているので他のWorkflowとの互換性がすこぶる悪い。
他のWorkflow入れた時のノードエラーが解決しない人も多いのでは?
おそらく仮想環境のpytorchとSageAttentionのハードルの高さからeasyWanが使われることが多いんだろうが、
それが理由ならUmeAiRTが3日前にauto installer公開してるので比較してみるといい
https://civitai.com/models/1309415/comfyui-auto-installer-wan21-or-sageattention-or-50xx-cards-compatible-or
個人的にはGGUFはVRAMを解像度とステップ数に回せるのでマスト
ステップ数を上げるとガチャ確率も上がるので結果トータルの生成時間効率も上がる
2025/05/01(木) 03:50:27.08ID:8qT1LUvc
Umeの方はComfyUIとManager、各種ノードのバージョン管理を出来て
尚且つPythonコードを書ける事が前提みたいなワークフローだから安易に人には勧められんな・・・
更に言うとそこまで頑張ったとしてもEasyWanVideoの方と比較して
圧倒的なクオリティ差があるかと言われれば別にそんな事も無いし・・・
そしてこれは誰もが思う事だから言うけど5090環境での生成速度レポートはマジで何の参考にもならない
「そりゃ速いでしょうね」意外の感想なんて出てこないよ
尚且つPythonコードを書ける事が前提みたいなワークフローだから安易に人には勧められんな・・・
更に言うとそこまで頑張ったとしてもEasyWanVideoの方と比較して
圧倒的なクオリティ差があるかと言われれば別にそんな事も無いし・・・
そしてこれは誰もが思う事だから言うけど5090環境での生成速度レポートはマジで何の参考にもならない
「そりゃ速いでしょうね」意外の感想なんて出てこないよ
2025/05/01(木) 06:00:46.27ID:2/k4YZaI
>>785
同環境での比較見てその感想しか出ないことはないでしょ
同環境での比較見てその感想しか出ないことはないでしょ
2025/05/01(木) 06:44:38.35ID:8qT1LUvc
>>786
EasyWanVideo使う様な低スペ層に5090の比較速度が何の参考になるの?
EasyWanVideo使う様な低スペ層に5090の比較速度が何の参考になるの?
2025/05/01(木) 07:02:32.43ID:3Gahlv9z
そもそも急に出てきたUmeって何だよという感じだったけどCivitaiでWorkflowを配布してる人の名前なのね
普通、プログラムだと思うじゃない
説明してくれないと自分みたいな赤ちゃんは困っちゃうよ
こっちは逆にEasyWAN(Kijai)の設定をカスタムして詰めてるけど当然というかUme(Native?)の方が遅かったな(4060Ti)
たぶんEasyで「Set_BlocksToSwap」の設定をしなかったか、後入れの高速化を何か入れてなかったんじゃないかね
Ume(gguf)は確かに高画質というかi2vの元絵から劣化が少ない気がするけど
何故かLoRAを使うと絵が壊れるし自分の環境には合わなかった
インストール時に色々と最新を入れてくれてる気がするから5000系ならお手軽でいいのかもしれないが
とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
普通、プログラムだと思うじゃない
説明してくれないと自分みたいな赤ちゃんは困っちゃうよ
こっちは逆にEasyWAN(Kijai)の設定をカスタムして詰めてるけど当然というかUme(Native?)の方が遅かったな(4060Ti)
たぶんEasyで「Set_BlocksToSwap」の設定をしなかったか、後入れの高速化を何か入れてなかったんじゃないかね
Ume(gguf)は確かに高画質というかi2vの元絵から劣化が少ない気がするけど
何故かLoRAを使うと絵が壊れるし自分の環境には合わなかった
インストール時に色々と最新を入れてくれてる気がするから5000系ならお手軽でいいのかもしれないが
とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
2025/05/01(木) 11:51:37.64ID:ia1dq4En
しかしながら、LORAや設定もだが、プロンプトも超大事。
動画内の時間の流れや物体の位置を把握して書くと全然違うわ。
動画内の時間の流れや物体の位置を把握して書くと全然違うわ。
2025/05/01(木) 12:07:17.84ID:i+CPIHYS
大事なのはわかるんだけどどこがどう効いているのか実感しづらいんだよなあ
特にWanについては結局LoRAがほぼ全てな気がする
特にWanについては結局LoRAがほぼ全てな気がする
791名無しさん@お腹いっぱい。
2025/05/01(木) 12:28:45.81ID:eG3GI6pW >Umeの方はPythonコードを書ける事が前提
は具体的に何を指している?UmeAiRTのWorkflowは初心者用のauto installerもありプレーン環境を汚さないし、
「pythonコードを書ける事が前提」これはまったくの逆でKijai Workflowではclipを変更するだけでも
LoadWanVideoClipTextEncoder
if "log_scale" not in sd:
raise ValueError("Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model")
と制限しているので書き換えが必要でお気に入りのカスタムノードやWorkflowを使おうと思うたびにコード修正をしないといけない。
これはまさにあなたが言っている「Pythonコードを書ける事が前提」そのものでは?
思うに初心者が「EasyWANが早い!」となるのはMicrosoft Visual Studioでのビルドやら環境変数へのCUDA PATHへの追記やらをしなくてもEasyWANにTritonベースのSageAttentionがincludeされているのが原因だろう。
逆にTea CacheとSageAttentionが有効に出来ているなら速度差の要素なんて解像度とStep数程度しかない。
>とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
これはまさにその通りで好きなものを使えばいいのだけど、Wan2.1とくにEasyWANではモデルデータが100GB超えなのもあり比較が難しい面もある。
実際比較を試しても生成時間がネックになり試行回数も少なくなり、ガチャの当たり外れもあって判断は難しい。
なので、わざわざ「ComfyUIを2つ作り」「同じ生成時間になるように設定を組み」「同じ元画像で動きの少ない動画を作り」比較しないといけない。
自分は人物のダイナミックな動きのある動画を生成しているので、顔や手にノイズの乗りやすいKijai Workflowは相性が悪いと感じる。
まったく関係ないが「竿が奥まで入らない」問題は
「深く入れる」「奥まで入れる」より
The penis disappears into the vagina(膣の中に消える)
のPromptがめちゃくちゃ効果あった。時々霧散するが。
は具体的に何を指している?UmeAiRTのWorkflowは初心者用のauto installerもありプレーン環境を汚さないし、
「pythonコードを書ける事が前提」これはまったくの逆でKijai Workflowではclipを変更するだけでも
LoadWanVideoClipTextEncoder
if "log_scale" not in sd:
raise ValueError("Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model")
と制限しているので書き換えが必要でお気に入りのカスタムノードやWorkflowを使おうと思うたびにコード修正をしないといけない。
これはまさにあなたが言っている「Pythonコードを書ける事が前提」そのものでは?
思うに初心者が「EasyWANが早い!」となるのはMicrosoft Visual Studioでのビルドやら環境変数へのCUDA PATHへの追記やらをしなくてもEasyWANにTritonベースのSageAttentionがincludeされているのが原因だろう。
逆にTea CacheとSageAttentionが有効に出来ているなら速度差の要素なんて解像度とStep数程度しかない。
>とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
これはまさにその通りで好きなものを使えばいいのだけど、Wan2.1とくにEasyWANではモデルデータが100GB超えなのもあり比較が難しい面もある。
実際比較を試しても生成時間がネックになり試行回数も少なくなり、ガチャの当たり外れもあって判断は難しい。
なので、わざわざ「ComfyUIを2つ作り」「同じ生成時間になるように設定を組み」「同じ元画像で動きの少ない動画を作り」比較しないといけない。
自分は人物のダイナミックな動きのある動画を生成しているので、顔や手にノイズの乗りやすいKijai Workflowは相性が悪いと感じる。
まったく関係ないが「竿が奥まで入らない」問題は
「深く入れる」「奥まで入れる」より
The penis disappears into the vagina(膣の中に消える)
のPromptがめちゃくちゃ効果あった。時々霧散するが。
792名無しさん@お腹いっぱい。
2025/05/01(木) 15:47:32.45ID:LyBEq8mQ 途中までおおっなんか深そうな話してる分かってる感あってカッコイーと思って読んでたら最後でうん・・・てなった
いやある意味一番有益な情報かもしれんが
いやある意味一番有益な情報かもしれんが
2025/05/01(木) 16:44:04.43ID:3Gahlv9z
5090使ってて生成時間がネックで比較が~とか書かれてもみんな泣いちゃうよ
EasyWanの開発者は3060Tiじゃ無かったっけw
色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだね
Umeは0.13だけどEasyは0.20
この数字が大きいほど早くなるけど、劣化も大きくなる
Tea cacheを使わないか0.13に下げればEasyWanでも画質は良くなると思うよ
EasyWan(kijai)はFramePack対応に忙しそうでWan環境はあんまり更新されなくなった
Umeは最新を追ってるから速度の差が縮まっているのはその違いって気もするけどね
これから新規にWanだけを始めるなら最新環境が一発で整うUmeがいいんじゃないのかな
色々試したいならEasyWanの方が楽しめると思うよ
好きなの使おう!
両方使ってもいいわけだし
EasyWanの開発者は3060Tiじゃ無かったっけw
色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだね
Umeは0.13だけどEasyは0.20
この数字が大きいほど早くなるけど、劣化も大きくなる
Tea cacheを使わないか0.13に下げればEasyWanでも画質は良くなると思うよ
EasyWan(kijai)はFramePack対応に忙しそうでWan環境はあんまり更新されなくなった
Umeは最新を追ってるから速度の差が縮まっているのはその違いって気もするけどね
これから新規にWanだけを始めるなら最新環境が一発で整うUmeがいいんじゃないのかな
色々試したいならEasyWanの方が楽しめると思うよ
好きなの使おう!
両方使ってもいいわけだし
2025/05/01(木) 17:06:02.00ID:D0R/SKc6
Wan2.1はNative版のフローの方が良い結果が出る
生成時間は少し長いが、結果ガチャ回数減るので結局Native版使ってる
あと、ちょい前はTeaCache使ってたけど、これも品質阻害要因なんだよね
今はスキップさせてるわ
生成時間は少し長いが、結果ガチャ回数減るので結局Native版使ってる
あと、ちょい前はTeaCache使ってたけど、これも品質阻害要因なんだよね
今はスキップさせてるわ
2025/05/01(木) 17:13:01.17ID:E5h3CIGn
nativeのTEの方が品質いいのはわかるけどそれもブリッジで使えるし設定同じにすればそんなに差はないと思うんやけどな
ggufは少し品質良くても常に遅いから使わんけど
ggufは少し品質良くても常に遅いから使わんけど
2025/05/01(木) 17:14:04.32ID:X8NeLKbL
EasyWanにnativeは倍以上ステップが必要とか
生成時間も長いって書いてたから使ってなかったけど試したら確かに良いな
I2V-720P-FP8でnativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
nativeだと720×480とかで生成しても元画像からの劣化が少ない
umeとやらは余計なノードとか多かったから最小限のワークフローに
TeaCache, SkipLayerGuidance, Sage attentionとlora3つ位入れて
3090で18ステップ位で生成してるけど時間もkijaiの10ステップと大差無かった
俺は時短のためにnativeのTeaCacheは0.33で5ステップ分スキップさせてるけど
それでも自分の環境だと明らかにkijaiより綺麗で良い
nativeだとkijai版のumt5 xxlは使えないから変更必須なのと
block swapは専用の拡張入れないと使えないっぽいのが注意か
生成時間も長いって書いてたから使ってなかったけど試したら確かに良いな
I2V-720P-FP8でnativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
nativeだと720×480とかで生成しても元画像からの劣化が少ない
umeとやらは余計なノードとか多かったから最小限のワークフローに
TeaCache, SkipLayerGuidance, Sage attentionとlora3つ位入れて
3090で18ステップ位で生成してるけど時間もkijaiの10ステップと大差無かった
俺は時短のためにnativeのTeaCacheは0.33で5ステップ分スキップさせてるけど
それでも自分の環境だと明らかにkijaiより綺麗で良い
nativeだとkijai版のumt5 xxlは使えないから変更必須なのと
block swapは専用の拡張入れないと使えないっぽいのが注意か
797名無しさん@お腹いっぱい。
2025/05/01(木) 18:52:07.23ID:eG3GI6pW >色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだねUmeは0.13だけどEasyは0.20
当然だけど大前提として両方統一して結果に差が出る
EasyWanではなくkijaiのWanVideoWrapperのSamplingが影響している
>>796
が言いたいことはほとんど言ってくれた
>nativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
>kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
>nativeだと720×480とかで生成しても元画像からの劣化が少ない
言いたかったのはまさにそれ
同一ソースから出力して初めて気づく
UMEと比較するんじゃなくてnativeと比較するほうがわかりやすかったね
そしてnativeを使うならわざわざプレーン環境を汚すEasyWanを使うのはどうなの?と言いたかっただけ。
べつにUMEに拘ってはいない。どんなWorkflowでもいい。
ただ自分がしる限りSageAttention(Triton)がincludeされているのがUMEとEasyWanしかないので初心者はUMEのオールインパックという選択肢もある
何度もいうがEasyWanを下げているわけじゃない。
初心者がワンクリックでオール・インできる環境は素晴らしいし、Modelに制限かけているのも初心者がミスマッチなModelを選んでしまうのを防ぐためなのだろう。
だからこそ「Umeの方はPythonコードを書ける事が前提」といった初心者が勘違いするようなことは言うべきではない
当然だけど大前提として両方統一して結果に差が出る
EasyWanではなくkijaiのWanVideoWrapperのSamplingが影響している
>>796
が言いたいことはほとんど言ってくれた
>nativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
>kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
>nativeだと720×480とかで生成しても元画像からの劣化が少ない
言いたかったのはまさにそれ
同一ソースから出力して初めて気づく
UMEと比較するんじゃなくてnativeと比較するほうがわかりやすかったね
そしてnativeを使うならわざわざプレーン環境を汚すEasyWanを使うのはどうなの?と言いたかっただけ。
べつにUMEに拘ってはいない。どんなWorkflowでもいい。
ただ自分がしる限りSageAttention(Triton)がincludeされているのがUMEとEasyWanしかないので初心者はUMEのオールインパックという選択肢もある
何度もいうがEasyWanを下げているわけじゃない。
初心者がワンクリックでオール・インできる環境は素晴らしいし、Modelに制限かけているのも初心者がミスマッチなModelを選んでしまうのを防ぐためなのだろう。
だからこそ「Umeの方はPythonコードを書ける事が前提」といった初心者が勘違いするようなことは言うべきではない
2025/05/01(木) 19:00:17.68ID:D0R/SKc6
Kijai版のWan使う人はClip visionが「clip_vision_h.safetensors」になってるか確認した方がいい
現状(最新のワークフロー)はそうなってるみたいだけど、以前は違ってたからね。
で、異なるClip visionだと全然動いてくれなった記憶がある
現状(最新のワークフロー)はそうなってるみたいだけど、以前は違ってたからね。
で、異なるClip visionだと全然動いてくれなった記憶がある
2025/05/01(木) 19:17:26.08ID:D0eUC69t
Native版は使ったことがないんで知らないんだけど、Kijai版にあるSLG(Skip Layer Guidance)はNative版にもあるのかな?
Layer=9, start=0〜0.2, end=0.6〜0.8ぐらいで入れるのと入れないのとでかなり動きの安定度とか違ってたと記憶してる
Layer=9, start=0〜0.2, end=0.6〜0.8ぐらいで入れるのと入れないのとでかなり動きの安定度とか違ってたと記憶してる
2025/05/01(木) 20:00:24.02ID:X8NeLKbL
ComfyUI-KJNodesのSkip Layer Guidance WanVideoノードでnativeでも使えるね
別件だけどkijai版のモデルローダーはbase_precisionでfp16_fastを指定すると
fp16 accumulationが有効にできて20%位生成加速できたんだけど
native版のモデルローダーだと量子化後のfp8とかのdtypeしか選択できなくて困っとる
どこで指定すれば良いんだろうか…
別件だけどkijai版のモデルローダーはbase_precisionでfp16_fastを指定すると
fp16 accumulationが有効にできて20%位生成加速できたんだけど
native版のモデルローダーだと量子化後のfp8とかのdtypeしか選択できなくて困っとる
どこで指定すれば良いんだろうか…
2025/05/01(木) 20:38:29.09ID:E5h3CIGn
Diffusion model loader KJ
2025/05/01(木) 20:53:26.94ID:X8NeLKbL
>>801
これもKJNodesにあったのか!やっぱり20%位速くなったわありがとう!
これもKJNodesにあったのか!やっぱり20%位速くなったわありがとう!
2025/05/01(木) 20:57:36.28ID:D0eUC69t
2025/05/01(木) 21:25:18.49ID:cH+/zmPC
なんUのFramePackでHunyuanVideoLoRA使って崩れにくいエロが出来るようになったの見て来たか…(ガタッ
みたいになってるんだけどRAMどんだけいりそうなんだろうか
みたいになってるんだけどRAMどんだけいりそうなんだろうか
2025/05/01(木) 21:33:31.05ID:/men2COp
2025/05/01(木) 22:56:01.30ID:pURyNRqn
動画系は128GB以上あった方がええで
最低でも96GB
最低でも96GB
2025/05/01(木) 23:00:35.30ID:i+CPIHYS
DDR5が4枚差し不安定とかいう余計な不安要素もあるんだよな
64x2だと5万円コースってなあ
64x2だと5万円コースってなあ
2025/05/01(木) 23:10:36.33ID:cH+/zmPC
>>805-806
96GB必要か、wan2.1のために96GBに最近増設したからそれで行けるのならありがたい限り
その状態で他の作業出来ないとなるのなら128GBまで…は流石にしんどいしHOMEだからなぁ
96GB必要か、wan2.1のために96GBに最近増設したからそれで行けるのならありがたい限り
その状態で他の作業出来ないとなるのなら128GBまで…は流石にしんどいしHOMEだからなぁ
2025/05/02(金) 00:57:26.93ID:pL5rYzXG
しきりにkijai下げしている奴って何なの?
初心者向けの物なのだから画質だ長さだと言う物では無いと思うのだが
それからステップアップしたいのならご自由にって事だろ
何を比べてんだよ
初心者向けの物なのだから画質だ長さだと言う物では無いと思うのだが
それからステップアップしたいのならご自由にって事だろ
何を比べてんだよ
810名無しさん@お腹いっぱい。
2025/05/02(金) 04:29:26.40ID:vGI3MmCW どうせ喚いてるだけだから長文はスルーでおk
2025/05/02(金) 05:41:23.12ID:doIoJoIr
Kijai版は初心者向けじゃないでしょ EasyWanならともかく
Wanに限らずKijai版はComfyUI本家がインプリメントする前に実装される事や実験的実装が入ってくるので色々試してみたい人向けだと思うけど
実際機能追加の関係でバージョンアップしたらWorkflow組み替えないといけないこともあったし
Wanに限らずKijai版はComfyUI本家がインプリメントする前に実装される事や実験的実装が入ってくるので色々試してみたい人向けだと思うけど
実際機能追加の関係でバージョンアップしたらWorkflow組み替えないといけないこともあったし
2025/05/02(金) 06:50:28.19ID:ET1i6OG8
>>811
もう一回自分で読んで修正してからレスして
もう一回自分で読んで修正してからレスして
2025/05/02(金) 07:04:16.55ID:Zfj3dfOh
読みやすい文だと思うが
2025/05/02(金) 07:07:59.95ID:FazZX2WO
>>811
チミの名は。
チミの名は。
2025/05/02(金) 09:11:06.56ID:2wV2VS/w
kijai氏は初心者でも簡単に導入できるプラグインやノードを提供してくれているのに
それを否定している意味がわからん
それを否定している意味がわからん
2025/05/02(金) 11:14:39.10ID:a40a8vDT
梅の話が出ていたので試してみようと思ったが
面倒くさいので全てallにしたら30GBのファイルを
ゴリゴリダウンロードしまくっている
慌ててドライブの他データを移動した
面倒くさいので全てallにしたら30GBのファイルを
ゴリゴリダウンロードしまくっている
慌ててドライブの他データを移動した
2025/05/02(金) 13:19:31.48ID:uuh6AxUg
動画だと1つで100GB以上のデータファイルとかもあるしなぁ…
2025/05/02(金) 13:56:24.49ID:0H8+qkkD
インストーラなんか邪魔なだけ
easywanもumeとやらもワークフローだけ貰えばそれで終わりだよ
easywanもumeとやらもワークフローだけ貰えばそれで終わりだよ
2025/05/02(金) 15:49:59.35ID:5lYgDT4G
UMEというのをここで知ったのでワークフローだけ落としてきて試してみた
なかなか面白い処理の流れをしてたので自分用に改変してテスト中
Native版ともまた違った処理だけど、生成時間はなかなか速い
最終段にColor Match使ってるのはいいアイデアだと思った
原画にHiDream使うと何故か途中で色味が変わることがあったからな
なかなか面白い処理の流れをしてたので自分用に改変してテスト中
Native版ともまた違った処理だけど、生成時間はなかなか速い
最終段にColor Match使ってるのはいいアイデアだと思った
原画にHiDream使うと何故か途中で色味が変わることがあったからな
2025/05/02(金) 16:19:01.18ID:lfoLGaF8
動画というかi2vにColor Match使うのはKijai氏のWorkflowで知ってよく使わせてもらっている
知ったのはHunyuanVideoWrapperのときだったかな
そもそもColorMatchNode自体がKijai氏のCustomNodeやしね
ところでUME氏のFlowなんだけど自分も落としてきたんだけどHiDreamのLoRAに感けていて試せてない
中身眺めているとTeaCache Onにすると0.275とかなり強めにかかるみたい
>>793にはUmeは0.13と書いてあるけど自分が落としたWorkflowとは違うのかな?
知ったのはHunyuanVideoWrapperのときだったかな
そもそもColorMatchNode自体がKijai氏のCustomNodeやしね
ところでUME氏のFlowなんだけど自分も落としてきたんだけどHiDreamのLoRAに感けていて試せてない
中身眺めているとTeaCache Onにすると0.275とかなり強めにかかるみたい
>>793にはUmeは0.13と書いてあるけど自分が落としたWorkflowとは違うのかな?
821名無しさん@お腹いっぱい。
2025/05/02(金) 19:23:38.40ID:sU3xMGoG LoadWanVideoClipTextEncoder
Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model
EasyWanのチュートリアルで躓いてます
必要なファイルは入ってるんじゃないんですか?
Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model
EasyWanのチュートリアルで躓いてます
必要なファイルは入ってるんじゃないんですか?
2025/05/02(金) 21:38:01.86ID:3Swh18/t
KijaiはAI動画時代黎明期の役目を終えた感あるな
画質はクソだし、ガチャの当たり低すぎだし、エラーだらけだし、クソUIだったけど
短い間だったけどよくやったよ
もう起動すること無いだろうけどkimiのことは忘れないよ!今週まで忘れないよ!黙祷!
画質はクソだし、ガチャの当たり低すぎだし、エラーだらけだし、クソUIだったけど
短い間だったけどよくやったよ
もう起動すること無いだろうけどkimiのことは忘れないよ!今週まで忘れないよ!黙祷!
2025/05/02(金) 22:09:00.63ID:NGBexPe4
結局比較動画も貼らないで逃げたんかw
2025/05/02(金) 22:11:08.90ID:A0n6aprg
825名無しさん@お腹いっぱい。
2025/05/02(金) 22:59:38.11ID:FYwoTz1T AI動画作ってる人らってどこにアップロードとかしてんの?
2025/05/02(金) 23:00:45.33ID:3Swh18/t
そりゃYoutubeだよ
2025/05/02(金) 23:16:24.41ID:Zfj3dfOh
エロなら渋かXか支援サイトやろけど、ちびたいに上げる人もおるらしいな
2025/05/03(土) 02:57:48.19ID:krznmrJW
シビタエーアイだろ
2025/05/03(土) 09:34:04.75ID:/IhKPF4o
EasyWanVideoの導入は通常簡単だけど
いわゆる今の「3行以上の長文は読めない人」にはNightmareWanVideoだから
マジで文章を読む力が無い奴は諦めた方がいいよ
いわゆる今の「3行以上の長文は読めない人」にはNightmareWanVideoだから
マジで文章を読む力が無い奴は諦めた方がいいよ
2025/05/03(土) 11:03:36.13ID:SZDRfllP
誰と会話してらっしゃるの?
2025/05/03(土) 12:00:32.61ID:yPIJFkKI
人形と話してるんじゃないかな
2025/05/03(土) 14:44:42.09ID:9wopPkas
Framepackがオールインワンで簡単に動くとか言ってるから落としてみたがおま環で起動すらしないわ
エラーも馬鹿みたいに出てるしオールインワン嫌いや
エラーも馬鹿みたいに出てるしオールインワン嫌いや
2025/05/03(土) 15:28:34.52ID:4GUdzEQ1
2025/05/03(土) 16:26:58.80ID:iHyoI8cF
>>833
自分の落としたWorkflowにはSizeの下に設定なんかないしTeaCache Nodeの入出力もModelだけしか繋がっていないな
と思ったらsimpleとcompleteと2バージョンあるんか ややこしいな
自分の落としたWorkflowにはSizeの下に設定なんかないしTeaCache Nodeの入出力もModelだけしか繋がっていないな
と思ったらsimpleとcompleteと2バージョンあるんか ややこしいな
2025/05/03(土) 16:50:40.43ID:PtFh3sHn
834が書いてるように、TeaCacheのノードには外部からの設定ノードは何も繋がってないな
まぁ、0.275のままでも特に崩壊はないのだが、もう少し小さくしたくなるな
まぁ、0.275のままでも特に崩壊はないのだが、もう少し小さくしたくなるな
2025/05/03(土) 17:17:32.74ID:4GUdzEQ1
こういう画面じゃなかったら違うのを使っているんじゃないかな
Umeはかなりたくさん出してるし
https://civitai.com/images/71236839
さらに言えば上で話してるのはこのインストーラーの事ね
これ経由で入れたならその画面になるはずよ(ggufテンプレ版)
https://civitai.com/models/1309415
Umeはかなりたくさん出してるし
https://civitai.com/images/71236839
さらに言えば上で話してるのはこのインストーラーの事ね
これ経由で入れたならその画面になるはずよ(ggufテンプレ版)
https://civitai.com/models/1309415
837名無しさん@お腹いっぱい。
2025/05/03(土) 17:38:41.20ID:uY+F0Ipy >>832
だいたいダウンロードミス
だいたいダウンロードミス
2025/05/03(土) 17:40:36.22ID:6FMMafQe
vidu気に入ったんだけどすぐクレジットなくなっちゃうなこれ
アルティメットプランの非ピークモードの生成時間は今はどんな感じなんだろう
アルティメットプランの非ピークモードの生成時間は今はどんな感じなんだろう
2025/05/03(土) 17:44:19.80ID:uBrBw++I
>>832
仮想メモリ足して100GBぐらいにしたら動いたぞ
仮想メモリ足して100GBぐらいにしたら動いたぞ
2025/05/03(土) 18:33:30.91ID:PBVc48bf
Viduって小さい解像度だとグチャりすぎない?
2025/05/03(土) 19:09:04.40ID:PtFh3sHn
842名無しさん@お腹いっぱい。
2025/05/03(土) 19:32:15.97ID:aITS1d5v F1試した。
次世代レベルで進化してるな
次世代レベルで進化してるな
2025/05/03(土) 23:22:54.93ID:4Fup2c6b
てす
2025/05/04(日) 05:00:08.71ID:CGTRNKjc
64GBの2枚組買ったけどメモリーエラーが発生して起動できないぜ
48GBモジュールまでしか使えないっぽいからBIOSアップデート待ちだよ…
48GBモジュールまでしか使えないっぽいからBIOSアップデート待ちだよ…
2025/05/04(日) 05:12:35.14ID:rNUppjlA
ちゃんと差し込んでないんじゃないの〜?
2025/05/04(日) 05:59:04.94ID:CGTRNKjc
レスどうもです
1枚だけで全部のスロットに差したりもしたから2枚とも8回は差したと思う
毎回ラッチかかるまで体重かけて差したよ
1枚だけで全部のスロットに差したりもしたから2枚とも8回は差したと思う
毎回ラッチかかるまで体重かけて差したよ
2025/05/04(日) 07:03:23.95ID:g+Vcvnh5
マザボが64か96までしか対応してなかったとかありそう
2025/05/04(日) 07:17:12.14ID:CGTRNKjc
7000系CPUとB650安物マザーボードだから投げ捨てて両方買い直せと言われそう
マザーボードメーカーのQVL見たら48GBモジュールまでしか載ってないので確認せずに買った自分が悪いで確定
マザーボードメーカーのQVL見たら48GBモジュールまでしか載ってないので確認せずに買った自分が悪いで確定
2025/05/04(日) 07:35:36.59ID:4chQ7eXR
投げ捨てろとは言わないが、マザーボードを足してもう一台生やせ。
2025/05/04(日) 09:09:02.96ID:CGTRNKjc
マザーボード買うお金あるならSSD買いたいっすよ
851名無しさん@お腹いっぱい。
2025/05/04(日) 15:13:46.01ID:VPZ/YdVc easywan、アップデートしたらノイズ入る様になった。誰か直し方教えて? kijai版i2v、ramは96gb。前より速くなった気するので調整とかあんのかな?
2025/05/04(日) 15:20:34.40ID:+cwdwat6
なんUにも同じこと書いてよね
プロンプトで(:◯.◯)の強調使ってるとなったりした事はあるけどそれくらいしか分からんけど参考になれば…
プロンプトで(:◯.◯)の強調使ってるとなったりした事はあるけどそれくらいしか分からんけど参考になれば…
853名無しさん@お腹いっぱい。
2025/05/04(日) 17:05:56.43ID:IdOADkiE >>852 なんjにも書いたよ、動画強調するの駄目なんや、知らんかった。教えてくれてありがとう。
2025/05/04(日) 17:10:12.71ID:mqYGP+ge
動画は普通の文章で書いた方が良い
855名無しさん@お腹いっぱい。
2025/05/04(日) 17:57:56.53ID:IdOADkiE >>854 ありがとう、ずっと画像のプロンプトをそのまま動画に使ってたわ。ノイズが出たの、結構プロンプト強調してたな。
2025/05/04(日) 18:30:08.65ID:xBFL7qFu
1人の女の子、可愛い、ベッド、横に寝ている、
ではなくて
かわいらしい女の子が1人ベッドに横たわっている。
の方が良いって事よね
ではなくて
かわいらしい女の子が1人ベッドに横たわっている。
の方が良いって事よね
2025/05/04(日) 19:15:08.24ID:bF2HkRPn
Janus-Pro使って画像読込ませて動画用プロンプトを自動生成させると
悩まなくて済むぞ
悩まなくて済むぞ
858名無しさん@お腹いっぱい。
2025/05/04(日) 23:00:54.51ID:yzerAtHb >>856
まじかい、そっちの方がいいんだ
まじかい、そっちの方がいいんだ
2025/05/05(月) 00:17:40.72ID:ftWgW6lK
シーアートやシビタでプロンプトが見られるので
動画の成功例を参考にすると良いね
失敗して偶然の成功例が多いのと
翻訳で変わってしまう部分が多いから修正が必要
英語の語彙の少なさに困惑する
動画の成功例を参考にすると良いね
失敗して偶然の成功例が多いのと
翻訳で変わってしまう部分が多いから修正が必要
英語の語彙の少なさに困惑する
2025/05/05(月) 00:35:39.84ID:tsH6gz8L
FramePackでLora使ってたまに瞬きして欲しいんだけど
eyes blinkって入れるとずっと目を閉じたままで
eyes openって入れるとずっと目を開いてんだよ?
なんて入れたらええん?
eyes blinkって入れるとずっと目を閉じたままで
eyes openって入れるとずっと目を開いてんだよ?
なんて入れたらええん?
2025/05/05(月) 00:40:25.87ID:ftWgW6lK
何でblinkが瞬きなのにeyesを入れているの?
動画なのだから単語を連ねるよりも
流れるような文章で綴った方がAIは混乱しない
動画なのだから単語を連ねるよりも
流れるような文章で綴った方がAIは混乱しない
2025/05/05(月) 01:07:17.18ID:tsH6gz8L
なんかblinkだけ入れると画面が明暗することがあるんだよ?
eyesを入れると確実に目に作用する
eyesを入れると確実に目に作用する
2025/05/05(月) 05:03:02.15ID:zDbfJQWA
自分がまばたきすると画面が暗転しますよね、つまりはそういうことです
2025/05/05(月) 06:35:09.45ID:ChHpxBKl
no pov、とか?
もしくは第三者視点からとか
もしくは第三者視点からとか
2025/05/05(月) 10:42:35.21ID:5j/maIVi
>>857
age
age
866名無しさん@お腹いっぱい。
2025/05/05(月) 15:15:07.27ID:vTvnoBJH2025/05/05(月) 20:56:39.01ID:QK6iEwAq
動画スレなのに動画なし
2025/05/05(月) 21:27:05.23ID:mRamMdp2
大半の人はエッチなのを生成してるだろうから
この一般板では貼りにくいだろうね
この一般板では貼りにくいだろうね
2025/05/05(月) 21:35:15.41ID:ChHpxBKl
なんUでは貼れるんやがこっちだとちょっとね…
870名無しさん@お腹いっぱい。
2025/05/05(月) 22:44:33.71ID:XH3qdDnW なんUなんて板あるの初めて知ったわ
VとかMとかSとかいろいろあんのな
VとかMとかSとかいろいろあんのな
871名無しさん@お腹いっぱい。
2025/05/05(月) 22:47:13.86ID:Bk4emlL+ なんJはガチでゴーストタウンみたいになってるんだよな、エッヂに皆移住した
2025/05/06(火) 01:28:51.49ID:mm1xEgor
easywanのnative使ってるんだが
長辺480なら大きく動くのに720に上げたらちょびっとしか動かないのは
そういうものと割り切るべきなのかな
kijai使ってた時も似た症状だったし
長辺480なら大きく動くのに720に上げたらちょびっとしか動かないのは
そういうものと割り切るべきなのかな
kijai使ってた時も似た症状だったし
2025/05/06(火) 02:02:32.88ID:wH8UlIKC
そのサイズで学習されたloraじゃないとあんまり動かんと聞く
2025/05/06(火) 03:05:32.16ID:hZJ6Zfbc
2025/05/06(火) 04:48:06.61ID:60fK2AJa
揺れすげぇ
2025/05/06(火) 13:51:31.43ID:lBSJL/1T
2025/05/06(火) 14:18:51.90ID:3xnSuJXA
>>856
age
age
2025/05/06(火) 14:38:49.28ID:O9FO3GIa
879名無しさん@お腹いっぱい。
2025/05/06(火) 17:43:55.77ID:sXxy+m16 easywan、kijai版i2vで顔が結構変わるの前からだっけ?外人ぽく変化するんやが、調整とかあるの?
2025/05/06(火) 18:00:17.82ID:cdvhSv24
Hunyuan側にも言えることだけど叡智系ならほぼ国産なく外人が作ってるLoraの効果でそっちに寄っていくだからどうにもなぁ…という感じ
一応はanime styleとかJapanese digital animationとかまじないで入れる程度だけど効果は…はい…
一応はanime styleとかJapanese digital animationとかまじないで入れる程度だけど効果は…はい…
881名無しさん@お腹いっぱい。
2025/05/06(火) 18:45:38.10ID:sXxy+m16 >>880 そうなんか、そう言うもんだと。2秒くらいなら良いけど、5秒とかだと駄目になるなぁ。
2025/05/06(火) 21:30:16.81ID:49byXWLs
>>879
Loraの組み合わせと重みの最適値を探ってみたり
画像からのプロンプト生成してCfg Valueの調整
Skip Layer GuidanceやCFG-Zeroの値調整
モデル変えるor解像度変える とかかなあ自分も数値変えてバッチ処理しつつ沼り中
Loraの組み合わせと重みの最適値を探ってみたり
画像からのプロンプト生成してCfg Valueの調整
Skip Layer GuidanceやCFG-Zeroの値調整
モデル変えるor解像度変える とかかなあ自分も数値変えてバッチ処理しつつ沼り中
2025/05/06(火) 21:38:00.08ID:EmbfYKDz
884名無しさん@お腹いっぱい。
2025/05/06(火) 22:11:51.46ID:m36uYJ7c あれ、もしかしてCivitaiからwan用の服を脱ぐ系のLora消されてる?
単純に服を脱ぐLoraと、カメラを手で隠した後に素っ裸になってるLoraがあったはずだけど
単純に服を脱ぐLoraと、カメラを手で隠した後に素っ裸になってるLoraがあったはずだけど
885名無しさん@お腹いっぱい。
2025/05/06(火) 22:20:25.01ID:0tyMnrgG >>884
ちょっと前に全消去くらったらしい
ちょっと前に全消去くらったらしい
2025/05/06(火) 22:40:31.08ID:an77fohN
887名無しさん@お腹いっぱい。
2025/05/06(火) 22:52:03.82ID:m36uYJ7c ほんまや4/20にはもう消されてるって書き込みあるね
まあ写真1枚で何でもアリ過ぎるから流石にか
まあ写真1枚で何でもアリ過ぎるから流石にか
2025/05/06(火) 23:03:45.26ID:ar+D4O0D
LoRA5つくらい重ねて工夫しているから隙なしだぜ
2025/05/07(水) 01:47:40.13ID:yoD/RC1L
ChatGPT脱獄せずに継続調教でエロい事も淫語もペラペラ喋るようになったけど通常作業時にも隙あらばエロい話にしようとして来る致命的な弊害があるわ・・・
2025/05/07(水) 05:54:48.63ID:y4vO23rO
アニメ系で動画作ると口の部分をでっかい唇と解釈して
口の中から口みたいな変な動画が出来上がる事が度々あったな
なんで一枚絵の時点で歯をプロンプトに追加してる
口の中から口みたいな変な動画が出来上がる事が度々あったな
なんで一枚絵の時点で歯をプロンプトに追加してる
891名無しさん@お腹いっぱい。
2025/05/07(水) 12:33:56.45ID:Ikd+FQsW ちょっと間空いてframepackを google colab で使おうと思ったんだけど
transformerリロードエラー: モデルファイルが見つかりませんでした。
って出てつかえてなくなってるんだがなんか仕様変わった?
何か追加でDLする必要があるのだろうか。知恵を貸してください
transformerリロードエラー: モデルファイルが見つかりませんでした。
って出てつかえてなくなってるんだがなんか仕様変わった?
何か追加でDLする必要があるのだろうか。知恵を貸してください
892名無しさん@お腹いっぱい。
2025/05/07(水) 17:53:48.63ID:LdCYUUmw MacでWanしてる自分は異端か、そこそこ遅いけど動くだけで感動
2025/05/07(水) 18:55:27.90ID:QtgCXMax
894名無しさん@お腹いっぱい。
2025/05/07(水) 19:11:10.80ID:U1v/FBUR SingularUnity - Twerk - Wan2.1 I2Vで作られた動画の中にある
見た目はプラスティックのフィギュアが、腰を振ってるのってエロいな。
徹夜明けの時の幻覚に出てきそう。
見た目はプラスティックのフィギュアが、腰を振ってるのってエロいな。
徹夜明けの時の幻覚に出てきそう。
2025/05/07(水) 19:12:23.10ID:DLY9Y4rW
2025/05/07(水) 19:15:16.51ID:B49cGH5U
いいねだけして後で保存しよ…ってなってるやつ消えてたわ
一期一会やな
一期一会やな
2025/05/07(水) 19:26:57.83ID:VMt2OM5b
動画スレなのに〜って上にあるのでエロだけどなんUに貼ったやつこっちにも貼っとくね(一般だと貼り辛いのはマジでその通りw)
https://files.catbox.moe/z8ffua.mp4
FramePack F1でLoraはHunyuanで色々と変なところはあるけどここまで動くには動く
どうしてもリアル調になって来たりちん長すぎね?やったりするところはあるけどAnimateDiff時代から比べると満足はできるようになってきたよ
wanもいいけどどっちがいいかは感情の問題かもね
https://files.catbox.moe/z8ffua.mp4
FramePack F1でLoraはHunyuanで色々と変なところはあるけどここまで動くには動く
どうしてもリアル調になって来たりちん長すぎね?やったりするところはあるけどAnimateDiff時代から比べると満足はできるようになってきたよ
wanもいいけどどっちがいいかは感情の問題かもね
2025/05/07(水) 19:33:53.90ID:DLY9Y4rW
とにかく当時と違うのはチラチラしないことやね
そういうもんとは思ってたけど当時の見るとギャグやで
そういうもんとは思ってたけど当時の見るとギャグやで
2025/05/07(水) 19:51:45.56ID:fRJJDcH1
900名無しさん@お腹いっぱい。
2025/05/07(水) 19:58:27.79ID:fFIUTGTa rtx5000シリーズは、4000シリーズ位にはai、stable diffusion、ComfyUI出来る様になったの? 出来るけど
ある程度知識無いと無理なのかな?
ある程度知識無いと無理なのかな?
901名無しさん@お腹いっぱい。
2025/05/07(水) 20:26:12.89ID:34H0Ybju2025/05/07(水) 20:46:41.47ID:OKSmSWfX
5000て高いんだな
さっきビックカメラで55万円の値札が付いてるの見た
さっきビックカメラで55万円の値札が付いてるの見た
903名無しさん@お腹いっぱい。
2025/05/07(水) 21:46:42.37ID:eRlxthJJ2025/05/07(水) 23:50:18.68ID:n5TBqFoA
2025/05/08(木) 02:32:02.22ID:EwRnCnNe
FramePack Eichiで自動生成する為にPythonとAutoHotKeyでフォルダ開く→画像選ぶ→生成ボタン押すってのを作ったけどバッチ処理してる人はどうやってるの?
FramePackスタジオという派生版はバッチ処理出来るらしいけどLora効かないのは厳しい。
FramePackスタジオという派生版はバッチ処理出来るらしいけどLora効かないのは厳しい。
2025/05/08(木) 07:32:00.17ID:ltsZHIGW
>>904
すげぇ…違和感ないな
すげぇ…違和感ないな
907名無しさん@お腹いっぱい。
2025/05/08(木) 08:23:15.99ID:pNiLWrMr FramePack eichi f1で使うモーションのLoraとかってローカルで気軽に作れるものではないのかな
個人の学習スピードより環境の進化スピードのほうが早くて困る
個人の学習スピードより環境の進化スピードのほうが早くて困る
2025/05/08(木) 10:13:56.30ID:a18b5o9Y
できなくはないっぽいけど気軽なもんじゃないようだぞ
まだ知見が足りなさすぎる
まだ知見が足りなさすぎる
2025/05/08(木) 10:51:35.99ID:mPdHidYa
2025/05/08(木) 11:30:05.48ID:CKho3Ixx
musubiで簡単に作れるよ
framepackで学習させるよりHunyuanで学習させて使った方が良さそうだけど
framepackで学習させるよりHunyuanで学習させて使った方が良さそうだけど
2025/05/08(木) 11:37:41.05ID:vF6Z87jb
動画系のloraはvramつよつよじゃないとダメとかで4090の24GBが最低ラインとか聞くしなぁ
912名無しさん@お腹いっぱい。
2025/05/08(木) 12:14:10.29ID:5cVyK327 学習は16gbでも話にならんのだろ
RAMも96gbからとか
RAMも96gbからとか
2025/05/08(木) 12:39:00.49ID:a18b5o9Y
いちおうできるらしいけどやった人の話はきかない>16GB
914sage
2025/05/08(木) 12:45:57.40ID:SpCSGuZp F1使ってるんだが、lora使ってもイマイチダイナミックに動いてくれない。特に男が。
有識者の方、なにかわかればご教授を…
https://imgur.com/a/8tTHs9G
lora doggystyle from the side v2.0
プロンプト
Male and female have sex in doggystyle position , The female have semen dripping all over their bodies,The female is bent over on all fours, The male is thrusting his hips back and forth rapidly, You have a clear view on the penis pussy penetration, The Penis is penetrating the pussy vulva, The female's large breasts are swinging back and forth and the large ass is bouncing by the force of the pushing male,
有識者の方、なにかわかればご教授を…
https://imgur.com/a/8tTHs9G
lora doggystyle from the side v2.0
プロンプト
Male and female have sex in doggystyle position , The female have semen dripping all over their bodies,The female is bent over on all fours, The male is thrusting his hips back and forth rapidly, You have a clear view on the penis pussy penetration, The Penis is penetrating the pussy vulva, The female's large breasts are swinging back and forth and the large ass is bouncing by the force of the pushing male,
2025/05/08(木) 13:15:03.30ID:AHExEVkY
>>914
rapidlyじゃなくてintently使うと良い気がする
rapidlyじゃなくてintently使うと良い気がする
2025/05/08(木) 13:34:47.66ID:a18b5o9Y
あとこの体位だとclear view on the penis つーてもムリがないか
よっぽど動かないと見えないやろw
よっぽど動かないと見えないやろw
2025/05/08(木) 17:39:12.33ID:ix1KHVsZ
>>914
普通に英語の文法で書いていないからAIでも意味不明なんだろ
普通に英語の文法で書いていないからAIでも意味不明なんだろ
918名無しさん@お腹いっぱい。
2025/05/08(木) 18:11:49.43ID:pNiLWrMr 今の自分のPCと知識ではLoraはできてもしばらく先に
なりそうですね
叡智なゲームであるスロー→普通→高速→フィニッシュみたいな差分を作れないかと思ったのですが
なりそうですね
叡智なゲームであるスロー→普通→高速→フィニッシュみたいな差分を作れないかと思ったのですが
2025/05/08(木) 18:21:12.05ID:SMHGc7as
ちょっと開始フレームから試してみたけど男全然動かないね
原因考えてみたけど
・LoRAがそうした動きを学習していない
・LoRAに設定された適切なプロンプトを指定できていない
・プロンプトが不適切でセットアップ(画像の何がどこにどうあるか)ができていない
・そもそも構図が動かしにくい
あたりかな
まずDoggystyleのLoRAも主観、横、正面用があるから正面用を入れた上でサンプルでちゃんと動いてるものがどうプロンプト指定してるか要確認
原因考えてみたけど
・LoRAがそうした動きを学習していない
・LoRAに設定された適切なプロンプトを指定できていない
・プロンプトが不適切でセットアップ(画像の何がどこにどうあるか)ができていない
・そもそも構図が動かしにくい
あたりかな
まずDoggystyleのLoRAも主観、横、正面用があるから正面用を入れた上でサンプルでちゃんと動いてるものがどうプロンプト指定してるか要確認
2025/05/09(金) 01:56:31.36ID:wzMBDBD4
studio使って再現するとその動きはかなり出るんだけど、それ以外だと特定の動きしかしてくれないんだよな 惜しい
2025/05/09(金) 07:09:34.10ID:qZeksJGb
>>918
入力画像次第な面もあるけど高速が制御というか出にくい気がする
タイムスタンプかセクション別プロンプトだとしても難しいような
上手い具合に出来たやつを編集で繋ぎ合わせるのが1番手っ取り早そう
あとやっぱり動いて欲しい箇所に方向ブラー掛けるのは有効で生成中にブラーの効果切れるまでは割と高速に動いてくれやすくなる…気がする
入力画像次第な面もあるけど高速が制御というか出にくい気がする
タイムスタンプかセクション別プロンプトだとしても難しいような
上手い具合に出来たやつを編集で繋ぎ合わせるのが1番手っ取り早そう
あとやっぱり動いて欲しい箇所に方向ブラー掛けるのは有効で生成中にブラーの効果切れるまでは割と高速に動いてくれやすくなる…気がする
922名無しさん@お腹いっぱい。
2025/05/09(金) 12:21:34.98ID:5SPkJQOp >>921
速度はまだ試行の余地があるんですがフィニッシュ的なやつはその域にも行ってないんですよね…
速度はまだ試行の余地があるんですがフィニッシュ的なやつはその域にも行ってないんですよね…
2025/05/09(金) 13:04:54.22ID:qZeksJGb
書き込んだ後にそっちの方が難しいなってなってた
なんUの方でぶっかけは見るからその手法を真似すればなんとかなるか?くらいでloraなしプロンプト単体だと現状むりなきがする
なんUの方でぶっかけは見るからその手法を真似すればなんとかなるか?くらいでloraなしプロンプト単体だと現状むりなきがする
2025/05/09(金) 13:17:30.01ID:+X4OsQQA
ぶっかけはあるLoRAにクッソ頼る形なんよ
日本人の1人の変態が存在しているだけで二次エロが救われるんや
日本人の1人の変態が存在しているだけで二次エロが救われるんや
2025/05/09(金) 13:19:21.71ID:V2SMOAyZ
ぶっかけなんてクリスタから素材を持って来て作れば良いだけじゃねの
2025/05/09(金) 13:24:17.52ID:qZeksJGb
画像ならそれで良いだろうけどここ動画スレなんだよなぁ
切り抜いて1フレームずつ編集するの手間掛かるし…
上に書いた手法はキーフレーム使うやつだったはずだけどやったことがないから分からない
てか直接的になかだしloraあるなら欲しい
切り抜いて1フレームずつ編集するの手間掛かるし…
上に書いた手法はキーフレーム使うやつだったはずだけどやったことがないから分からない
てか直接的になかだしloraあるなら欲しい
2025/05/09(金) 13:29:26.34ID:uVHIUYmS
そんなのAIがやってくれるだろ
何の為のAI動画なんだって
静止画を加えただけでもダラダラプラプラ流れるって
何の為のAI動画なんだって
静止画を加えただけでもダラダラプラプラ流れるって
2025/05/09(金) 13:33:00.60ID:+X4OsQQA
>>927
お前は何もわかってない
お前は何もわかってない
2025/05/09(金) 13:37:04.94ID:a0k33/Ag
2025/05/09(金) 13:46:45.35ID:wMm9V3cS
どの程度のをやりたいのか知らんけど
ドピュドピュやプシャァァァくらいなら
画像を何枚かでLoRA作れば出来る
液体だけでも良いけれど不自然さが有る場合は
出るモノと受けるモノも入れないと駄目だぞ
ドピュドピュやプシャァァァくらいなら
画像を何枚かでLoRA作れば出来る
液体だけでも良いけれど不自然さが有る場合は
出るモノと受けるモノも入れないと駄目だぞ
2025/05/09(金) 13:48:27.62ID:+X4OsQQA
びゅる…びゅる…じわあ…どろお…じゃダメなんだよ
あのLoRAのビューッ!ビューッ!びちゃっ!びちゃっ!ビュルルッ!どろどろぉ…
みたいなのを使ってない奴は損しとるよ
あのLoRAのビューッ!ビューッ!びちゃっ!びちゃっ!ビュルルッ!どろどろぉ…
みたいなのを使ってない奴は損しとるよ
2025/05/09(金) 13:49:49.13ID:+X4OsQQA
あと中出しなら多分びゅる…びゅる…じわあ…どろお…で特に問題ないと思う
断面図までやりたいなら別やけどそれもびゅる…びゅる…で事足りるんちゃうかな
断面図までやりたいなら別やけどそれもびゅる…びゅる…で事足りるんちゃうかな
2025/05/09(金) 13:52:24.51ID:wMm9V3cS
そういうのをやりたければ
そういうのを作れば良いだけだろ
作り方が下手なだけだな
絵心が無ければ無理もないが
そういうのを作れば良いだけだろ
作り方が下手なだけだな
絵心が無ければ無理もないが
2025/05/09(金) 13:57:45.75ID:+X4OsQQA
いやだからそういうLoRAがあるって話をしとるのに
「ぶっかけなんてクリスタから素材を」とか「AIがやってくれるだろ」とか
意味不明な話する奴がおるんだよなあ・・・
「ぶっかけなんてクリスタから素材を」とか「AIがやってくれるだろ」とか
意味不明な話する奴がおるんだよなあ・・・
2025/05/09(金) 14:01:19.24ID:+X4OsQQA
つーかこれ ID:wMm9V3cS も静止画像の話だと思っとるな
CG技術板にあるからってロクにAI動画触ってない奴が冷やかしで来るの
やめてもらえますかね
CG技術板にあるからってロクにAI動画触ってない奴が冷やかしで来るの
やめてもらえますかね
2025/05/09(金) 14:12:08.84ID:qZeksJGb
wanとFramePackの登場でローカルでも触りやすくなってるからまあ触っておいでって感じ
ram96GB以上は欲しいけどな
ram96GB以上は欲しいけどな
2025/05/09(金) 14:14:54.03ID:+X4OsQQA
まあ64でも十分いける
96か128にしてえなあ でもグラボ買ったばっかやし
96か128にしてえなあ でもグラボ買ったばっかやし
2025/05/09(金) 14:33:29.63ID:qZeksJGb
64でも大丈夫だけどFramePackでlora使う場合はまだ最適化されてない?のもあってlora切り替えで96手前まで行くから多いに越したことはないんだよな
怖すぎてlora2つ使えるようにはなったけど使えないわw
怖すぎてlora2つ使えるようにはなったけど使えないわw
2025/05/09(金) 15:02:52.56ID:ay+jdBj/
応用力が無い奴は何をやっても駄目だわ
動画というものは静止画が元なんだよ
動画というものは静止画が元なんだよ
2025/05/09(金) 15:07:14.61ID:+X4OsQQA
だからEndFrameにぶっかけ後の画像を設定するなんて
基礎スキル中の基礎スキルで言及する価値もないけど
そこに至るまでの変化が「じわぁ・・・」か「ビューッ!」か
モーションLoRAで変わってくるんだよ
(ぶっちゃけEndFrame設定しなくてもいいLoRAは十分解釈してくれるし)
エアプはだまってろ
基礎スキル中の基礎スキルで言及する価値もないけど
そこに至るまでの変化が「じわぁ・・・」か「ビューッ!」か
モーションLoRAで変わってくるんだよ
(ぶっちゃけEndFrame設定しなくてもいいLoRAは十分解釈してくれるし)
エアプはだまってろ
2025/05/09(金) 15:16:54.31ID:gnW9zXxx
2025/05/09(金) 15:26:15.60ID:qZeksJGb
コロコロID変わった単発が言っても説得力ないんですよね
943名無しさん@お腹いっぱい。
2025/05/09(金) 15:29:09.98ID:Quja+aqN おまえらのクソくだらないアレコレは置いておいて
パンチラメインのLoRAが見当たらない事について議論しようぜ
パンチラメインのLoRAが見当たらない事について議論しようぜ
2025/05/09(金) 15:29:49.44ID:m0NwBvdd
2025/05/09(金) 15:32:42.74ID:pt3LwMsa
液体の再生速度や粘土の表現が変わってくるってことじゃないの
2025/05/09(金) 15:45:42.13ID:tliwT3Ne
エンドフレームやキーフレーム指定だけで上手くいくんだったら誰も苦労してないんよ…w
まあ完全にエアプでしょ
まあ完全にエアプでしょ
2025/05/09(金) 16:11:23.24ID:nlz9McNL
2025/05/09(金) 16:13:17.88ID:N3YfQ3gX
Civitaiの消された動画用Loraだけど設定変えたらサムネは見れた、クリックしたら404ページになるけど。
それで何が消されたか見てたんだけど服が弾け飛ぶTorn Clothesってのがあったのね…
めちゃくちゃ欲しい何ならお金出しても良い、どうにか入手する方法はないのでしょうか?
それで何が消されたか見てたんだけど服が弾け飛ぶTorn Clothesってのがあったのね…
めちゃくちゃ欲しい何ならお金出しても良い、どうにか入手する方法はないのでしょうか?
2025/05/09(金) 16:13:49.23ID:p8VLNPYz
2025/05/09(金) 17:11:45.03ID:+Tsr7DyA
こっちの両SDスレが死んでてなんUのNVA部に人が流れるのが分かる流れ
2025/05/09(金) 17:13:22.94ID:owE0bPFE
5chですら馴染めないとかもうどこにも居場所ないやん
952名無しさん@お腹いっぱい。
2025/05/09(金) 17:31:04.56ID:SGTk+utQ 変な奴が本性剥き出しで絡んでくるから現実として5chの方が馴染み難くない?
2025/05/09(金) 18:01:23.17ID:R/yFJ5wd
2025/05/09(金) 18:16:28.25ID:fpIiVcRo
CG技術板だからしょうがない
2025/05/09(金) 18:20:05.03ID:2SrlP+/3
>>946
お前の頭が悪いから出来ないだけだろ
お前の頭が悪いから出来ないだけだろ
2025/05/09(金) 18:34:41.62ID:zqXmW9iI
CG板というかワッチョイが無いとアレな人が紛れ込んじゃうだけ
2025/05/09(金) 19:19:36.28ID:zOHOT95g
気色悪い性癖を再現しようとするもAIに拒否される男の図
958名無しさん@お腹いっぱい。
2025/05/09(金) 22:40:42.91ID:T6EiVRmD2025/05/10(土) 00:43:46.66ID:jtKAK6vq
>>931
キモすぎぃぃぃ
キモすぎぃぃぃ
2025/05/10(土) 01:11:33.76ID:4nFLhO0Y
2025/05/10(土) 01:59:09.68ID:dBQklogw
>>960
zuntanニキのeasywanに付いてるサンプルダウンロードすると国産Lora色々入ってるね
nashikoneニキのtorn clothesてwan用のやつもあったよ
https://github.com/Zuntan03/EasyWanVideo
zuntanニキのeasywanに付いてるサンプルダウンロードすると国産Lora色々入ってるね
nashikoneニキのtorn clothesてwan用のやつもあったよ
https://github.com/Zuntan03/EasyWanVideo
2025/05/10(土) 02:09:21.10ID:4nFLhO0Y
>>961
ありがと、ただメインで使ってるのがFramePackなんでHunyuanVideoのLoraなのよね。
これから先、ローカル動画生成がWanとFPが主流になるならLora共通化できないのは痛いね…
ありがと、ただメインで使ってるのがFramePackなんでHunyuanVideoのLoraなのよね。
これから先、ローカル動画生成がWanとFPが主流になるならLora共通化できないのは痛いね…
2025/05/10(土) 02:20:17.11ID:dBQklogw
2025/05/10(土) 06:27:31.43ID:KCJy2haK
wanとhunyuanでモデルの構造違うのに使えんと思うけどな
965名無しさん@お腹いっぱい。
2025/05/10(土) 07:00:31.68ID:0kP3dCer だよな
親切な方がそれそれトレーニングしてくれてんのによくテキトーな事言えるよ
親切な方がそれそれトレーニングしてくれてんのによくテキトーな事言えるよ
2025/05/10(土) 07:20:17.72ID:u5IkDyO8
2025/05/10(土) 09:15:05.64ID:aUfp3/Qh
きめぇ
2025/05/10(土) 09:38:58.40ID:zgf66vmI
ぶっかけか
5秒は欲しいよな
5秒は欲しいよな
969名無しさん@お腹いっぱい。
2025/05/10(土) 11:51:18.08ID:AnQnBCx8 動画生成始めようとgpu選んでるのですが、
5060ti 16gb
5070 12gb
どちらの方が良いでしょうか?メインメモリ128gb積んだ場合、この候補だと5070の方が速いですか?
5060ti 16gb
5070 12gb
どちらの方が良いでしょうか?メインメモリ128gb積んだ場合、この候補だと5070の方が速いですか?
2025/05/10(土) 12:14:22.70ID:q4tGr6HE
当面は5070のが速いんじゃないかって気がするけど12GBじゃできませーんってことが
でてくるかもしれないしなあ
そもそも動画生成12GBでも動くってのがあくまで動くってだけで通常のメモリに退避させることで
ボトルネックになるって話であれば今でも5060Tiのが速い・変わらないまでありうるしな
本来は5070Tiが正解なんやとは思うが予算ないならしゃーない
でてくるかもしれないしなあ
そもそも動画生成12GBでも動くってのがあくまで動くってだけで通常のメモリに退避させることで
ボトルネックになるって話であれば今でも5060Tiのが速い・変わらないまでありうるしな
本来は5070Tiが正解なんやとは思うが予算ないならしゃーない
2025/05/10(土) 12:41:00.57ID:N3nOeFj5
2025/05/10(土) 12:41:31.53ID:Cwj/ddL1
速さより量!
動画生成は時間かかるのは確実なんだから出来る事を減らすより時間かかった方がええやろ?
そもそもメインメモリに退避した分は結局遅くなるしな
動画生成は時間かかるのは確実なんだから出来る事を減らすより時間かかった方がええやろ?
そもそもメインメモリに退避した分は結局遅くなるしな
2025/05/10(土) 12:47:34.80ID:D+0tSUjO
5070superが18GBらしいけど本当ならそこら辺が1番良い落とし所な気がする、本当ならな
2025/05/10(土) 13:19:57.75ID:q4tGr6HE
2025/05/10(土) 13:22:27.17ID:W4NJTb1q
2025/05/10(土) 13:50:39.60ID:5P02Oyo5
12Gなんて静止画でも処理出来ないことがある
2025/05/10(土) 14:01:14.11ID:DsJPGBmO
16GBを奨めるかな
FramePackはともかく他の動画生成AIは16GBが最低ライン
FramePackはともかく他の動画生成AIは16GBが最低ライン
2025/05/10(土) 14:05:36.09ID:W4NJTb1q
ここ動画生成だったか じゃ16GBだな
979名無しさん@お腹いっぱい。
2025/05/10(土) 14:18:19.88ID:NIEG31Bm そろそろ次スレだけどテンプレとかどうする?
2025/05/10(土) 14:37:08.26ID:yVApiKli
2025/05/10(土) 14:42:06.21ID:yVApiKli
あと>>2は古いので全部差し替えるとして、紹介するとしたらEasyWanVideo、FramePackとeichiあたりかな
でも新しいのがまたすぐ出てきそうだから、「今ホットなローカルAI動画生成環境」と断って載せるとか
でも新しいのがまたすぐ出てきそうだから、「今ホットなローカルAI動画生成環境」と断って載せるとか
2025/05/10(土) 15:08:11.11ID:q4tGr6HE
>>977
いちおうWanも12でいいことになっとるけどね
いちおうWanも12でいいことになっとるけどね
983名無しさん@お腹いっぱい。
2025/05/10(土) 16:00:17.84ID:AnQnBCx8 皆さんありがとうございます。
5070tiまでいくと電源変えなくてはなので、それならcpuも3700xだしマザボから全部交換するかになってしまいそうで…
他の用途(主にtvai)での60と70の速度差が大きいので結局決めきれない…70無印はなんで12gbなんだ…
5070tiまでいくと電源変えなくてはなので、それならcpuも3700xだしマザボから全部交換するかになってしまいそうで…
他の用途(主にtvai)での60と70の速度差が大きいので結局決めきれない…70無印はなんで12gbなんだ…
2025/05/10(土) 16:19:24.64ID:X+049ZVU
次スレ立てました
https://mevius.5ch.net/test/read.cgi/cg/1746861355/
タイトルの【StableDiffusion】はいらなかったかな、でも板をStable Diffusionで検索する人もいるかも
https://mevius.5ch.net/test/read.cgi/cg/1746861355/
タイトルの【StableDiffusion】はいらなかったかな、でも板をStable Diffusionで検索する人もいるかも
2025/05/10(土) 16:27:58.84ID:NIEG31Bm
2025/05/10(土) 16:28:03.42ID:D+0tSUjO
スレ立て時のホットなローカルAI動画生成環境は確かにいるかもしれんね
>>983
自分も去年買い換える時に4070か4060ti16GBで1ヶ月悩んでたからよく分かる
最終的に4060ti16GB選んだけど後悔はない
>>983
自分も去年買い換える時に4070か4060ti16GBで1ヶ月悩んでたからよく分かる
最終的に4060ti16GB選んだけど後悔はない
2025/05/10(土) 16:30:32.07ID:W4NJTb1q
あとは詳しい人が動画生成ツール列挙してもらえれば
2025/05/10(土) 16:40:21.83ID:q4tGr6HE
処理速度はちょっと長く待てばええだけやけどVRAM不足は単純に動かないことあるからねえ
2025/05/10(土) 17:00:09.00ID:OcJDpe8f
PyTorch
最初にパイタッチと空目した時から
俺の中では今でもパイタッチだ
最初にパイタッチと空目した時から
俺の中では今でもパイタッチだ
2025/05/10(土) 17:41:47.67ID:VGDJIpct
2025/05/10(土) 17:53:31.07ID:q4tGr6HE
AnimatedDiffでも動画は作れたからね
当時のチラつくのはそう解消されないと思ってたから
手元でWanで生成できたときは感動したわ
当時のチラつくのはそう解消されないと思ってたから
手元でWanで生成できたときは感動したわ
2025/05/10(土) 18:32:44.58ID:UhOmXZvW
顔が笑うと知らない人になるのどうにかならないの。笑顔とか真顔とか何パターンとか最初に登録して参照させればいいんだろうけど、pytorchとかtransformersとかよくわからないよ
2025/05/10(土) 18:42:03.34ID:PUWOdiXE
パイターッチ!
いや~ん!まいっちんぐ
いや~ん!まいっちんぐ
2025/05/10(土) 18:52:49.64ID:q4tGr6HE
>>992
それっぽいこと言っているけどむしろトンチンカンってので逆に感動した
それっぽいこと言っているけどむしろトンチンカンってので逆に感動した
995名無しさん@お腹いっぱい。
2025/05/10(土) 19:33:04.61ID:sTHyEzhz PyPI(ぱいぱい)
PIL(ぴる)
Pyzuri(ぱいずり)
Pypants(ぱいぱんつ)
Pychinko(ぱいちんこ)
Pypan(ぱいぱん)
PIL(ぴる)
Pyzuri(ぱいずり)
Pypants(ぱいぱんつ)
Pychinko(ぱいちんこ)
Pypan(ぱいぱん)
2025/05/10(土) 19:48:22.64ID:RJWN5rQt
質問いいですか?
2025/05/10(土) 20:19:38.83ID:NIEG31Bm
hunyuanが登場したあたりからスレが一気に加速したな
今後は2,3か月くらいで1スレ消費しそうだ
modelscopeで学習生成してた頃のデータがまだストレージにあって見てみると荒々しいながらも懐かしく味わい深い
今後は2,3か月くらいで1スレ消費しそうだ
modelscopeで学習生成してた頃のデータがまだストレージにあって見てみると荒々しいながらも懐かしく味わい深い
2025/05/10(土) 22:28:22.95ID:GR/VU3ZZ
マチコ先生が浮かぶようではまだまだ青いのぅ
永井豪のハレンチ学園じゃろう
永井豪のハレンチ学園じゃろう
2025/05/10(土) 23:40:31.08ID:9sovJUs7
うめ
1000名無しさん@お腹いっぱい。
2025/05/10(土) 23:41:21.75ID:9sovJUs7 次スレ
>>984
>>984
10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 746日 5時間 53分 50秒
新しいスレッドを立ててください。
life time: 746日 5時間 53分 50秒
10021002
Over 1000Thread 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
レス数が1000を超えています。これ以上書き込みはできません。
ニュース
- 【調査】7割が習い事なし 世帯年収が300万円未満の低所得世帯の小学生―体験格差に懸念 [ぐれ★]
- 【永野芽郁】クラシエ「いち髪」公式サイトから削除「ブランドの価値を伝えていくことが難しい」 これで8社目 [Ailuropoda melanoleuca★]
- WHO、米国からの資金停止で部門半減へ…テドロス事務局長「人々が救命治療を受けられなくなる」 [少考さん★]
- 自民・小野寺政調会長「国がもうけてどうすんだ」 備蓄米を安値で売り出し検討 動画あり [お断り★]
- 【MLB】佐々木朗希が激白! 負傷者リスト入りは「投げ続けたいが、逆に迷惑かかるので申告」「ロッテ時代の古傷が完治しない中で…」★2 [冬月記者★]
- 就職氷河期世代が苦難激白「正社員になれるシステムがなかった」「政治は高齢者に対策したが氷河期世代はなし」 ★5 [お断り★]
- マクド、ポテト単品480円… ありがとう自民党… [667744927]
- ガンダムGquuuuuX、ガチで終わる、考察要素だと思われたモノがすべからくアイドルオタクの監督の趣味と判明して終わる ★5 [348480855]
- 【悲報】斎藤元彦陣営のネット広報担当会社が投稿したnoteで騒然★693 [931948549]
- いじわる糞ジャップ、富士山ローソンに黒幕をかけるも観光客が減ってしまったため、慌ててこっそりと元に戻すwwwwwwwwwwwwwwwww [271912485]
- 【悲報】斎藤元彦陣営のネット広報担当会社が投稿したnoteで騒然★694 [931948549]
- ▶お昼のホロライブファンスレ