X

【StableDiffusion】AI動画生成スレ1

レス数が1000を超えています。これ以上書き込みはできません。
1名無しさん@お腹いっぱい。
垢版 |
2023/04/25(火) 17:47:32.98ID:V5JBD3KF
AIで【動画】を生成するスレです。以下は全て可とします。

・ゼロから動画を作る技術
・既存動画をAIで加工する技術
・全フレームi2iする技術
・節度あるアダルトの話題
・webUI、単体サービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け

動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。
情報を集めて良い動画制作を目指しましょう。
2023/04/25(火) 17:51:12.66ID:V5JBD3KF
Text to Video
https://huggingface.co/models?pipeline_tag=text-to-video

AIサービス
https://research.runwayml.com/gen2
https://wonderdynamics.com/
https://www.adobe.com/sensei/generative-ai/firefly.html
3名無しさん@お腹いっぱい。
垢版 |
2023/04/28(金) 15:14:15.99ID:8cXABFWU
試しに作ったけど難しい
生成に時間かかるし単体画像のように気軽に何個も作れないのがね
i2iと外部ツール使用

https://i.imgur.com/CSvVb0Z.gifv
https://i.imgur.com/e0EDg9q.gifv
4名無しさん@お腹いっぱい。
垢版 |
2023/04/28(金) 16:47:13.19ID:KGqMrwec
https://i.imgur.com/iMflO36.jpg
2023/04/29(土) 07:23:52.38ID:Y94QP80p
gif2gifとかmov2movとか試してみたけどうしても顔が安定せんよな。Twitterでバズったやつも元動画と輪郭変えないようにして安定させてるだけだし応用は効かない。
2023/04/29(土) 09:41:09.01ID:mhsRs6ry
gen-2かnvidiaのやつ待ちだな
2023/04/29(土) 11:08:07.35ID:1SYFty31
>>5
ただの劣化コピー機だからなぁ
オリジナルがあるのに悪くなっても仕方ないだろうという…
SD使ってる限りは1枚ずつ生成になるから、前後のフレーム関係維持できないしね
顔だけならLoRAで固める手もあるが、フレームごとにブレてしまうようなものを補正しない限り
30年前のいろんな作者に描かせた絵をGIFのように並べてCM作っていた程度の事にしかならない
2023/04/29(土) 13:11:50.94ID:K4FfKEPj
wonder studio使えたけどマジで凄かった
10数秒でエンコードは80分かかったけど違和感ない
3Dモデルが色々用意出来ればかなり楽しい事が出来る
2023/05/06(土) 04:22:53.01ID:blVCkIOB
サンイチ!

マルチGPUで学習しとるニキおらんか?
NCCLとかがないって怒られるんやがこれWindowsでは無理なやつか?
2023/05/06(土) 04:38:56.76ID:blVCkIOB
すまない、誤爆した
2023/05/06(土) 11:59:02.24ID:RoC6YJP6
誘導されてきましたDeforum部の者です、よろしゅう。
挨拶だけなのもアレなので、いまのAI動画に関する自分の認識。めちゃ偏ってるし知識不足だと思うから、そのつもりで。

・Deforum
 SD初期からあるAI動画機能。T2V、V2Vでの作成が可能で、CNとの連携も有り。
 今も活発にアップデートされてる。
 T2Vでの作り方は、制御系とかやってるプログラマーの人は理解しやすいと思う。

・外部ツールでのビデオ作製を利用したV2V
 3Dモデルを動かして動画化、それをさらにCN等で変換して動画化する手法。
 手間ではあるが、人体を安定してアニメーションできるのが強い。
 広範囲の技術と知識が必要だけど、当面の主流はこっちになる気がしてる。
 (というか、MMD動画関係の人が流れてきたら本当に化けるかも)

・Text2Video
 SDの追加機能の一つ。短時間かつ小さいサイズだが、連続性のある動画が作れる、らしい。
 将来、VGA性能が大きく向上したら化けると、個人的には思ってます。

・外部サービスによるAI動画作成
 AI淫夢動画でお馴染み。ツール使ってないので詳細不明。
 基本的にはV2Vなのかな。
2023/05/06(土) 16:57:31.65ID:Xqk6wNej
3DモデルのV2Vについては結局モーションの問題がつきまとうわね
AIの発展に比して3Dモーションの数とバリエーションはあまりに少なく高い
2023/05/07(日) 10:16:17.77ID:rTBrfpSU
GW最終日、自分でも少しラインでダンスした感があるので、戒めも込めて。
ただのチラ裏お気持ち表明なので、スルーでおけ。

AIエロ動画作成時の注意点

1.静止画で出るなら動画でもできる。程度はともかく。
2.ライン越えのロリ・グロ・ケモ、どれもモデルとLora次第で作れる。品質はともかく。
3.ゆえに作った時点でSAN値吹っ飛ばしていると認識すること。
4.エロ作品を掲示板等でオープンにする場合、性器モザイク・パスワードはかならずかける。
5.加えて、時限式のあぷろだを使って、むやみに無制限公開しない。
6.使うあぷろだも、念のため、エロ動画アップしても問題なさそうなところを選ぶ。
7.警戒しすぎかもだが、動画は作品の破壊力がハンパなくなるので、今はオーバーなくらいでいい。
2023/05/07(日) 10:18:07.01ID:X3rfiXyn
モザはどこでもしっかりやるべきやけどロリとかグロとか版権じゃなきゃ
そこまで神経質にならんでもええと思うよ
2023/05/07(日) 10:33:53.48ID:rTBrfpSU
>>14
たしかに、普通の洋エロ基準+モザイク有りなら、そこまで警戒しなくてもとは自分でも思ってる。

ただ怖いのは、作り慣れてしまって、ボーダー超えてることに自分で気が付かない場合というのもあってな。
とくにロリは、成人体型なのにフラット胸にするだけでロリ判定されてナゼ!?ってのが、静止画でもよく聞くし。

このあたりの塩梅は、周囲の状況が見えてくるまでは、ちょっと警戒心高めでいこうと思ってる。
2023/05/07(日) 10:41:51.41ID:X3rfiXyn
「海外の鯖で削除された なんでやねん!」とかはそういうもんだと思えばよくて
それが騒動になるとかじゃないと思う

版権でしかもロリ気味とかだと気をつけたほうがええやろけどな
結局版権かどうかが一番大きいんじゃないかと
2023/05/09(火) 00:01:52.81ID:mGvaNOQX
https://kaiber.ai/

これは中々良さそう
ウェブサービスの中では最先端かな?
ローカルになってくれないと困るがね
2023/05/09(火) 10:58:21.12ID:x5OlESAu
t2vはまだまだオモチャだと思うんだよな
v2vのワチャワチャ感を解決する技術はよう

いちおう「前のフレームと比較して考えるに、この人間が次のフレームで
ここに移動したんやな」みたいのはもう技術的にはできるはずよな
2023/05/11(木) 04:00:49.90ID:w8iPGJ8+
AIフレーム補完ツールみたいなのもあるみたいだが雑に使ってみた限りはうーんという感じだったなあ
2023/05/11(木) 20:22:08.85ID:UDlwaldd
もう時間軸を学習対象にした拡散モデルは公開されてローカルで追加学習もできる
StableDiffusion使った継ぎ接ぎとかより滑らかである意味奇麗なものを出力するポテンシャルはある
まだハード要件とか学習の難易度とかいろいろ厳しい点があるが
2023/05/11(木) 20:23:33.49ID:6S/F4C8s
出力例とかある?
2023/05/11(木) 21:47:47.86ID:UDlwaldd
まだ見栄えするものが作れてないけども
https://imgur.com/a/6HXp3zs

最初のは某配信者、後者は某国会議員をアニメ系で微調整したモデルでv2vにかけたもの
生成フレーム数に比例してVRAM消費する仕様で24GBあっても512x512だと45フレームが精一杯w
あとこれはモデルの学習次第で改善しそうだけど全身映った動き回るダンス動画とかで試すと色々崩壊してまだ見れたものではない
でも伸びしろはだいぶありそうだから個人的にはこの技術を応援したい
2023/05/11(木) 22:23:41.49ID:6S/F4C8s
なるほど荒っぽいけどなんかSDのi2iつないだのとは違う一貫性を感じるわね
2023/05/11(木) 23:11:40.61ID:cZYer9WG
ただ、この手の最大の問題点は、やっぱりVRAM容量ですな・・・。
24GBでこの状態は、動画全体の一体感は確かに魅力的だけど、もう一声欲しい。
2023/05/11(木) 23:18:11.10ID:6S/F4C8s
AI関係はどれも「えっこのVRAMでこれが出るの!? 半年前は2倍必要だったはずやで!?」
みたいなのがあるからそういう部分に期待するしかないわね

6090とかまでいったら48GBとかで出てくるんかなあ……
26名無しさん@お腹いっぱい。
垢版 |
2023/05/11(木) 23:22:39.49ID:JZxG7LIs
まだ世間は動画を作ろうとしてないからこれからよ
ショートでも、実用に耐えうる動画が出来れば一気に盛り上がるはず
2023/05/11(木) 23:24:16.61ID:6S/F4C8s
まあ現時点でもi2i連番方式でそれなりのもんは出来るけどね
2023/05/12(金) 00:34:32.39ID:btJBwNUC
これってcivitaiにあった3x3マスで出力された画像を切って繋げば9フレームの動画にできるってやつと同じイメージかな?
VRAMで制限かかるのはきついな
2023/05/12(金) 00:37:11.34ID:btJBwNUC
とはいえ45フレームあればちょっとしたリピートgif作るには十分そうね
30名無しさん@お腹いっぱい。
垢版 |
2023/05/12(金) 03:57:55.97ID:Dc80F5S8
Stability AIは開発者向けの強力なテキストからアニメーションを生成するツール、「Stable Animation SDK」をリリース

https://ja.stability.ai/blog/stable-animation-sdk

https://youtu.be/xsoMk1EJoAY

Stability AIも出して来たな
2023/05/12(金) 12:12:46.51ID:sRQN2250
これは試してみたいな
2023/05/12(金) 12:45:41.11ID:Ff/upsjj
んーこのワチャワチャ暴れ具合は従来の手法とあまり変化を感じないなあ
t2vの精度が上がりましたってことなんかな

当面は>>22の手法の進化に期待したいわ
そうじゃなきゃi2i連番画像でまだええかな
2023/05/12(金) 15:41:20.43ID:Ff/upsjj
https://twitter.com/Kdawg5000/status/1656810826114768899
何がどうなっとるのかしらんけどマジでできるならこれは結構すごい
https://twitter.com/5chan_nel (5ch newer account)
2023/05/12(金) 19:53:33.40ID:XZDeOQsl
Stability AI、DeforumのGitに「これよく似てるね、有料SDKかい?」とか煽り来ててワラタ。

しかし流行るかなぁ、結局のところエロ出せるような汎用性ないと、一気に廃れる気もするが。
有料サービスで出すには・・・ちょっと早いんじゃないかなぁ。
2023/05/12(金) 19:54:38.06ID:nN5iKj2n
アニメの中割みたいなのを作りたいんだが
前後の画像を透明度半々で合成するみたいなソフトある?
2023/05/12(金) 19:59:55.68ID:nN5iKj2n
追加学習できなきゃゴミ
有料ソフトとして売ってくれ
2023/05/12(金) 20:00:59.46ID:Ff/upsjj
https://twitter.com/riravr/status/1656965716057391104
当面こんな感じの使い方は結構出てきそうやな
エフェクトとかで微妙に誤魔化しつつ低めのi2iかければ
結構それっぽくなる
https://twitter.com/5chan_nel (5ch newer account)
2023/05/12(金) 20:33:40.33ID:sFpXbCc5
>>33
引RTのリプ等で書いてる人がいるが左のアニメをBlenderで連番で書き出してSDでテクスチャ化してから再度Blenderで書き出してSDに入れてるぽいね
直接変換してるわけじゃないけど手法としては現実味がある
2023/05/12(金) 21:36:57.24ID:Ff/upsjj
テクスチャをベイクするのはDreamTexturesとかいう奴やろか
何にしても髪とか服の基本的な形とかは事前にモデリングが
できていないといけないっぽいわね

あと後半部分は要するに3Dモデル→i2i法と何ら変わらないと
思うんやけど、それにしてはガチャガチャ感が少ないような印象が
2023/05/12(金) 21:50:21.92ID:/sadlaNL
モデルあさってたら見つけたんだけどこういうのどうやって作ってるんや
https://civitai.com/posts/205189
https://civitai.com/posts/204734
https://civitai.com/posts/199708
https://civitai.com/posts/196337
2023/05/12(金) 21:54:21.71ID:Ff/upsjj
これはリアル系の3Dモデル動かして連番画像をi2iしとるだけちゃう?
DAZ Studioとか、あと名前忘れたけどVR系で有名な奴とか

https://i.imgur.com/45Cs83U.mp4
このスレでも今んとこ3Dモデル→連番画像i2iが主力の方法
(Control Netとかも併用する)
見てわかるとおり出力結果がどうもガチャガチャするし
モーションも大事になる
2023/05/12(金) 22:21:28.97ID:zZrrPtxU
TemporalKit(中身はほぼEbSynthというやつ?)方式だと一枚のキーフレームを元動画の全フレームに適用するから滑らかになるみたいな仕組みっぽいね。ただこれはSDはほぼ関係ない技術だし、キーフレームからかけ離れたフレームは作れないから用途は限られそう
2023/05/12(金) 22:25:52.34ID:Ff/upsjj
まあエロループアニメとかならそれでいいんやけどね
今度試してみるかな
2023/05/13(土) 03:42:31.25ID:BSBV34YL
激しくうごくやつだと無理だな
前後のやつを何%か適用するのがないのか・・・
2023/05/13(土) 04:43:50.81ID:Bm0Hpmg4
フレーム単位のi2iをTopaz Video AIでフレーム補完したのと変わらんレベルだしな…
半年前にはもうやってたレベルの話だけど…StableAIさんは自分が一番だと思う所があるけどいつも後出し感がな
2023/05/13(土) 10:29:18.18ID:AtgtPAak
3Dモーション関係についてもAIでの進化もっとしてほしいんだよね
今はまだまだ手付けと既成アセットに頼るところが大きい
2023/05/13(土) 10:35:01.34ID:BSBV34YL
SDXLも動画のやつも、最適化されてないだけで最新の技術が取り入れられてるんだろう
48名無しさん@お腹いっぱい。
垢版 |
2023/05/13(土) 15:18:30.66ID:ad3bBtee
>>22
動きがアメリカのアニメみたいで面白いな
2023/05/13(土) 15:41:12.02ID:Wd+gaXcZ
ちょっと前にEasyMocapってやつを試して単眼視点、つまり普通の動画1個からけっこう精度よくモーション取れてて個人的には感動したな
他との比較はしてないしドキュメントがクソで導入大変だったけど
2023/05/13(土) 15:47:20.65ID:AtgtPAak
EasyMocapからBVH吐き出してUnityに読み込んで……とかやってみるかな
2023/05/13(土) 23:10:51.43ID:XFhSHnre
Stability AI SDKのサンプル見て、「あれ、これ仕様面がほぼDeforumじゃね?」とか思ってみてたら、
DeforumのGitに、「元開発者の何名かがStability AIに参加してるよ」とか言ってて、さらにワラタ。

・・・って、それって、無料のDeforumでよくね?となるな・・すくなくともワイらにとっては。
2023/05/14(日) 03:49:57.64ID:BE/ftVYg
>>47
SD2.xも最新の技術だった(ポリコレ意見を反映したよ!いらんわ~ってな)。3DTVだって・・・
最新がいつもユーザーの望む声を反映しているとは…ケホケホ
2023/05/14(日) 14:31:10.16ID:tlQ098eS
ティザームービーがほぼdeforumであっ…てなった
2023/05/14(日) 14:32:15.16ID:nAcM9I28
NVA部で>>33のを実践しとるニキがおったな
ロボじゃなくてキャラで見せられるとわかりやすいわ
2023/05/21(日) 00:38:06.61ID:Kztt3AwK
Reference onlyで情報固定してgif2gifで、うまいことできないもんかな
2023/05/21(日) 00:38:58.04ID:dx3bSncP
いまはMasaCtrlによるブレイクスルーが流行りやろ
なぜかここじゃなくなんUのNVA部が主戦場やけど
2023/05/21(日) 02:15:23.10ID:14hF9D+5
みんな人のいるところに集まる
極論あのスレがあれば他は要らないくらい
それはそうとMasaCtrlってのもまたすごいな
新しいのがポンポンでてくる
2023/05/21(日) 02:45:14.01ID:Kztt3AwK
スレが消滅してると思って見てなかったわ
スレ番号いくつあたりから見ればいい?
2023/05/21(日) 08:59:32.64ID:dx3bSncP
208の終わり
2023/05/21(日) 09:50:29.44ID:Kztt3AwK
あんがと
2023/05/21(日) 23:59:00.69ID:14hF9D+5
ModelScopeの高解像度版でないかなあ
おそらく元のもの以上で追加学習してるけど元が低いとやはり崩れやすく画質悪くなりやすいっぽい
2023/05/22(月) 18:06:26.52ID:Rfox9sea
人動画作る場合は、コイカツとかの3DモデルからCNのposeを起こして、masaでテクスチャを作ってCNtileでm2mしてEbsynthでチラつき補正かけるみたいなのが一つの流れかな
2023/05/22(月) 18:12:17.55ID:zhDF0eIK
アニメっぽい画風とかならEbsynth言うほど要らないかも
2023/05/22(月) 18:36:45.02ID:zhDF0eIK
https://i.imgur.com/6HRgf5t.mp4
こんなのとか
2023/05/22(月) 19:02:30.56ID:Rfox9sea
ダメなフレーム抜いたりとかなしでこれはすごいな。背景がないのも安定する要因かな
2023/05/22(月) 19:11:37.64ID:zhDF0eIK
背景を自動で抜けるようになりゃまた可能性が広がるんだがね
これくらいの数ならフォトショ+手動で気合いで抜けなくもないが
2023/05/22(月) 22:08:34.17ID:zhDF0eIK
https://i.imgur.com/HeCNDuj.mp4
ってかAnime Segmentationの背景抜き十分いけるやん!
これで背景を別に静止画で出して合成できるわ
68名無しさん@お腹いっぱい。
垢版 |
2023/05/22(月) 22:17:28.48ID:bvF81nYr
いいね
2023/05/22(月) 22:57:43.00ID:Rfox9sea
おお~
2023/05/23(火) 00:08:48.90ID:0ky3bgpk
すごいな
もうこれほぼ実用レベルだろ
2023/05/23(火) 10:15:42.66ID:oLp/FlTS
https://i.imgur.com/vHvapQe.mp4
背景を白に近くすることで抜きミスを目立たなくさせる戦法
2023/05/25(木) 16:08:00.95ID:UmKYW6f1
>>40の投稿者はi2i使ってないんだな
解説記事出してたわ
https://civitai.com/models/71685/gif-controlnet-m2m-script
2023/05/25(木) 22:04:36.80ID:uKAme7hX
記事読んだがプリプロセス周りをいろいろ説明してくれてるのはいいね。controlnetを十枚くらい使える設定にしててすげえと思ったけどその辺の解説がなかったのは残念…
2023/05/26(金) 10:38:20.74ID:ToaQkoAT
>>72
GTX1070使っとるちうのが嬉しいニュースかもしれんねその人
2023/05/26(金) 19:33:59.67ID:9hGkOc2P
英語で書かない言い訳がウザい
すげえ性格悪そう
2023/05/27(土) 08:47:46.53ID:zl3AhxDP
>>72
CNの中身はi2iの部類だろ…
77名無しさん@お腹いっぱい。
垢版 |
2023/05/30(火) 00:58:03.75ID:qzOAncGu
画像のノリで動画が出せるようになるにはどのぐらいかかるんだろう
78名無しさん@お腹いっぱい。
垢版 |
2023/05/30(火) 04:49:19.38ID:I6omtO+U
おはようございます
ふたばにAI板ができていますね
ここの人たちはご存知かもしれませんが
79名無しさん@お腹いっぱい。
垢版 |
2023/06/04(日) 01:31:01.21ID:pr6us+7o
gen-2とか、comming very soonとか言いながらもう2ヶ月半が経つ
結局半端なAI企業より、ガンガン出していく在野の技術者の方が上だな
2023/06/04(日) 12:44:41.21ID:UrwVwm68
>>79
そりゃあ検証は他ユーザーに丸投げできるし、問題起きても知らんぷりできるからな
2023/06/07(水) 07:52:14.70ID:ep5aifrw
個人で1024x576とかわりと高解像度での動画学習に挑戦してる人とか出てきてるな
ちょっとサンプル見る限りけっこう奇麗にできてるし
82名無しさん@お腹いっぱい。
垢版 |
2023/06/07(水) 22:32:03.31ID:mg/HcfsF
gen2が出たな

https://youtu.be/BpoOVEEDiFA
2023/06/09(金) 15:15:59.67ID:OI3Uh+ub
顔のみ変換自動化の実験サンプルとして改変再配布可能なブスの動画欲しい
2023/06/10(土) 12:30:32.82ID:g7wxEi3O
>>82
試したけど思い通りの作るの難しい
gen2は部分的には奇麗だけど大きなパーツの雑な切り貼り感があるんだよな
全体的にちょっと歪でもプロンプトに比較的柔軟なModelScopeのほうが好き
2023/06/11(日) 17:07:13.68ID:VsG9/Wt2
gen-2には敵わないがpotat1ってモデルもなかなか良い
>>81が言ってるのもこれの事かも
2023/06/12(月) 22:17:38.45ID:CdQzXQvi
>>85
それだね
potatモデルからさらに特定概念を学習させてみた
画像数十枚程度でもまあまあ似せられる
動画ブームもそろそろくるか?
https://imgur.com/a/uVvnknc
87名無しさん@お腹いっぱい。
垢版 |
2023/06/13(火) 02:59:59.75ID:h0xD1nDm
Twitterで海外からも色々流れてくるけど、ロトスコープ系はもう実用レベルに来始めてるな
ゼロから生成するものは、3Dの動きとタグ付けしないと最後まで粗が抜けない気もする
両方の手法で保管しあってブレイクスルー来ないかな
88名無しさん@お腹いっぱい。
垢版 |
2023/06/14(水) 16:38:02.67ID:Izwu26ye
Stable Diffusionで出力した後パワーディレクターのAIで味付けしてみた
AI七日目だけど結構うまくできたから見てください
どうだろう
https://xxup.org/n0It8.mp4
2023/06/14(水) 17:00:24.45ID:U/eHFB/g
ええやん
あからさまにズレたコマをカットするなりi2iし直せばもっと良くなるだろな
2023/06/14(水) 19:00:17.54ID:Izwu26ye
>>89
ありがとう!!
嬉しい!
自分を撮ってやったら何故か上手くいかなかったw
色々試してみます!
2023/06/15(木) 06:58:05.08ID:VyYDkl30
自分で撮影したのをそのまま使ったらダメ
1分以内かつプレミアとかで修正しろ
2023/06/15(木) 13:35:43.67ID:mk7oiuBg
規制待ったなし

AI悪用で巧妙化する性的恐喝 存在しないわいせつ画像をでっち上げ 米国では自殺者も [香味焙煎★]
https://asahi.5ch.net/test/read.cgi/newsplus/1686801507/
2023/06/15(木) 15:35:10.04ID:kmENr7xQ
悪いことするやつが悪い
2023/06/15(木) 15:41:04.81ID:J5kxiTYb
>>88
自分では作ったこと無い身で言うのもなんだけど、SD側では10fpsとかで作って、flowflameみたいな補完(中割り)ソフトで滑らかにすればSD側での破綻が少なくなる気がする
2023/06/23(金) 18:24:43.15ID:kxTsLhIM
rerenderのコード公開楽しみだな
2023/06/29(木) 14:56:04.21ID:pA0BcpXN
動画はまだまだか
2023/07/01(土) 17:29:28.29ID:zdyDc2Gi
ちょい前から追ってたtext2videoの動画生成系のDiscordサーバーがちょっとずつ盛り上がってきているが
解像度が上がって奇麗になったりはしてるもののベース技術の革新について目立ったものはあんまりだな
画像から動画を作成できるとかそのくらいか
ロト系は追ってないけど最近どうなんだろ
98名無しさん@お腹いっぱい。
垢版 |
2023/07/01(土) 20:52:00.42ID:dxlLbclT
今更wonder studioがtwitterではバズり始めてるな
3Dモデルを自作出来る人なら楽しめるのだろうが
あと変換がローカルじゃないのがキツイな
2023/07/02(日) 23:08:02.01ID:p0euAbkQ
>>98
3Dモデル作れるけど面倒だし時間がかかる。
早くAIで自動生成できるようになってほしい。
2023/07/03(月) 17:12:58.31ID:7MQfMqhU
3Dはぶっちゃけ顔パーツのテクスチャだけ自動生成できりゃそれで事足りる気はする
髪型もパーツの組み合わせで大体行けるし
あとはアバターエディタみたいなの使ったほうが早い
101名無しさん@お腹いっぱい。
垢版 |
2023/07/05(水) 22:43:43.40ID:hrUJULTL
なんか進化がイマイチだな
既存動画突っ込んでプロンプトでキャラをどんどん仕上げる、ぐらい出来ないもんか
102名無しさん@お腹いっぱい。
垢版 |
2023/07/16(日) 00:08:18.69ID:QfNhsqMa
rerenderはまだこないのか
103名無しさん@お腹いっぱい。
垢版 |
2023/07/19(水) 20:21:51.57ID:dA43gKmF
動画のinpaint機能が欲しくて某リポジトリを色々弄ってみたが素人にはやっぱ無理だった
104名無しさん@お腹いっぱい。
垢版 |
2023/07/23(日) 06:16:54.89ID:Nvl5XCMN
wonder studioと同じことをローカルでやる方法ない?
2023/07/23(日) 17:14:21.81ID:AfQQtjaJ
ない
2023/07/23(日) 19:48:26.89ID:xGYya0Li
ある
2023/07/23(日) 21:30:00.18ID:X5/kcTND
ついてる
2023/07/23(日) 23:41:43.97ID:1FuPd7ow
ついてない
2023/07/23(日) 23:52:32.00ID:KJ6e2CeF
ついてる
2023/07/24(月) 11:43:19.05ID:KqwARjVV
アレどっちどっちTRANCE、TRANCE、TRANCE
2023/09/06(水) 10:07:13.53ID:7kJ5g0kd
調べても良くわかんねえからスレ探してきたけど、ここも良くわかんねえな
悲しい
112名無しさん@お腹いっぱい。
垢版 |
2023/09/07(木) 15:14:43.88ID:K9AD+GhN
1.6にしたらmov2movのタブなくなったんだけどわかる人いる?
2023/09/23(土) 15:38:02.82ID:lBQrCGZs
animateDiffは画像よりかそれとも動画よりかどちらだろう
2023/09/24(日) 15:17:52.47ID:R3Hstf6f
mov2movは4月からアップデートが止まっているので元を削除して別の作者の改変版を入れる必要がある
2023/11/27(月) 20:30:00.91ID:8viQ2T2u
AIだとなんでツルツルした肌になってしまうん?
出来ても艶消し程度
もっとザラッとした質感に出来ないの
2023/11/28(火) 01:18:34.63ID:Q+JKjYqq
>>115
プロンプトでザラザラにすればいいじゃないか
ザラザラ スキンって
2023/11/28(火) 07:50:03.54ID:PyPi/IVv
raw skin
118名無しさん@お腹いっぱい。
垢版 |
2023/12/02(土) 06:08:35.66ID:o7MywLfy
画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね
119名無しさん@お腹いっぱい。
垢版 |
2023/12/02(土) 06:08:38.55ID:o7MywLfy
画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね
2023/12/02(土) 06:21:14.34ID:4Cim3LgM
予測なんかしてない
やってることは画像生成とまったく同じで、学習結果を適当につなぎ合わせてるだけ
121名無しさん@お腹いっぱい。
垢版 |
2023/12/02(土) 18:38:58.53ID:TvblqHa9
よくメモリは大量に必要でCPUはそんなんでもないって言うけど
そういうところがおすすめしてるPCは20万ぐらいする
メモリが大量に積んでればいいんなら数万の格安ノートPCでもいいんじゃね
2023/12/02(土) 22:36:15.37ID:4Cim3LgM
>>121
メモリー対して必要なくて
VRAM が重要
123名無しさん@お腹いっぱい。
垢版 |
2023/12/02(土) 23:52:44.98ID:cZ+sZi2c
ライフルの学習データとか配布されてない?
2023/12/03(日) 13:26:34.88ID:c8EqufWx
そこにAIはあるんか
2023/12/03(日) 14:12:35.55ID:Hf2W5L5d
webuiだけ使うならメインメモリ16GBでも行けるが、指の修正にフォトショップ立ち上げたりすると32GB、可能なら64GB欲しくなる。メモリは安いから黙って64GB積めば何の心配も要らなくなる。
126名無しさん@お腹いっぱい。
垢版 |
2023/12/06(水) 19:09:15.42ID:2yqUUbSC
フォトショップはVRAMも持ってくからPC分けた方が良くないか?
2023/12/07(木) 17:44:22.48ID:NSQfYRAQ
VRAMって何時のPCだよw
2023/12/07(木) 17:57:47.39ID:0g041Fzu
>>127
U BIOS
2023/12/09(土) 09:11:29.93ID:b29uHZ0T
>>127
https://dosparaplus.com/library/details/000734.html
2023/12/11(月) 14:43:45.36ID:666lkiWg
今のフォトショはAIはもちろん生成もするしな
VRAM使うか使わないかは使う機能次第だが、無知ほど草生やすのが5chだなと
2023/12/18(月) 01:44:29.65ID:eGye5r1x
i2vgen-xlってリポジトリが急激に伸びてるようだけど今週は試せなかったな・・・やりたいことが多すぎる
2024/02/19(月) 23:47:20.73ID:1EpBHjR0
キャラが古いけどサクラ大戦のアイリスの騎乗位
https://uploader.purinka.work/src/30681.gif

stablediffusionのmov2movでもある程度キャラに一貫性のあるエロ動画を作れるようになった
生成された動画を元動画にして蒸留するみたいになんとか生成しなおしていけば
ある程度一貫性が保てる
でも、一からの生成ではなく元動画が必要
ここからもっと洗練されたものを作りたいんだけど
何か良いアイデアはないですかね?
2024/02/19(月) 23:55:00.93ID:3Pawlx0m
なんでこんなチラチラするの?
直せない?
2024/02/20(火) 00:06:02.85ID:kSIoQDwZ
mp4をgifに変換する時に劣化したみたい
mp4をそのままあげてみるかな?
2024/02/20(火) 00:49:55.36ID:kSIoQDwZ
https://uploader.purinka.work/src/30682.mp4
元のmp4動画、自分でリピートしてね

で、これはmmdのフランドールのエロ動画から作ったもの
色々試して見たけど、黒髪から金髪キャラへ金髪から黒髪キャラは変更しにくいね
2024/06/20(木) 22:57:04.20ID:5muHruAe
ド素人です
lumaAIのDream Machineで昔のセフレのエロ写メを読み込んだらリベンジポルノ動画生成出来ますか?

…てのはジョークやけどニュースで見てそういうのあるやろなと調べてみても出てこなかった
ぶっちゃけエロ画像で生成したらどうなるんや???
2024/06/21(金) 02:58:37.55ID:Jjw8n1Kt
>>136
エロ動画しても Web サービスの場合
ブロックされるので
ローカルで作成するしかない
2024/06/22(土) 09:23:40.03ID:pBu7m2qn
アメリカがテイラー・スウィフトのDeepFakeで大騒動になったのを知らんのかいな
そういうのは規制されるに決まってる
たしか、Dream Machineってアメリカのテキサス州では使えないんじゃなかった? 利用規約で弾かれる
2024/06/22(土) 16:42:15.85ID:MSZGZ43E
>>138
それは実在の人物を作ったらあかんがな
2024/06/23(日) 22:57:47.77ID:qGjVhhNU
既存のAVに、実在しないAI美少女を入れ替えたい
全体の流れを教えてほしい
2024/06/24(月) 10:12:40.80ID:Qu02WD+g
>>140
それは 画像 なのか 動画 なのかで大きく異なる
2024/06/24(月) 12:01:16.43ID:WBLh72L7
動画スレなんだよな
2024/06/24(月) 15:28:32.20ID:Qu02WD+g
>>142
すまん 動画それだったな
rope opal使用
が一番楽だと思うぞ
2024/07/05(金) 13:32:04.87ID:iIzKsZNH
アニメとか3dcg系はうまく顔変換してくれないなぁ
2024/07/06(土) 05:58:27.99ID:j1QTiCjM
>>144
Rope Opalで変換できないものは
Photoshop の方が楽だと思う
2024/07/09(火) 00:06:33.36ID:34iTHyiH
はい本丸きた🌜🌜🌜🏺🏺🏺🌛🌛🌛
いや立憲が終了だろ(謝る必要ないと大変な時期に脱出しただけにイメージ崩れるとダメージ大きそう
147名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 00:18:30.19ID:zHk8WT/2
何やってもでしょうね
バグは誤魔化しちゃう人大半だろうけど
2024/07/09(火) 00:32:30.74ID:eAYhHILI
嵌め込み酷い
テレビ千鳥
149名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 00:36:04.16ID:zHk8WT/2
1人の取り込み力はないだろうな
弱いところがサイコーにクールなんだろうか?
坊主にしろ
落ち着け
今の外国人社長にしゃぶり尽くされて
2024/07/09(火) 01:38:48.55ID:oWoGsI36
ツイートの心臓を握りつぶす発言と過去の話でしかないからビハインド投手出して迫ってくる車にもしろよてことを手の体調を崩してスピンとか?
若者(アホ)「えっ?岸ださん…すか?うーん…よく分かんねっすけどとりあえず公式声明出してくれると信じてるぞ
ウンコて
いつのまにか含みが増えるやり方やめたほうがいいと思う
2024/07/09(火) 01:42:44.41ID:oWoGsI36
魅力のない奴が憎い。
稚魚もはやどうでも面白かったからねえ
152名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 01:47:26.73ID:EkGLDtJH
それは昨日で終わりました。
明らかにはしてないが
一番クリエイティブな仕事行くのも含めて暴露内容予告してたから途中で駄作作ってちょい疲れたな
おっさん向けの服装、小物をJKにおっさんにおばさんだったの
153名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 02:07:47.76ID:C7izrL1r
全く理解できない人は勉強が苦手なので、反社&宗教スクリーニングが必要だな
もうアニメ終わるのに
おばさんでもなく
むしろ指揮権は弱かった
154名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 02:24:35.87ID:Bkg/tfQC
オタは感謝こそすれまさか悪口なんて風潮もなかったわ
はえー
正直、大半の意見だし、
https://i.imgur.com/EmItTgk.png
155名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 02:59:18.38ID:Bm+MB0SM
じゃもう一つ聞くよ?
プラ転してたりしてね
156名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 03:41:33.28ID:tcVyOOFb
あり得ない💢
157名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 04:19:54.24ID:AmveBFe+
合計だと
やや
体調がよい
-0.07%
ムカムカする
2024/07/09(火) 04:26:15.61ID:OVJmlpHF
借りるやつ居ないから
159名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 04:56:58.79ID:MCN2oNiD
嘘ついてまで学業に本腰入れると言われているの?w
160名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 13:41:58.43ID:OY0hpIlp
2022/08/20→8/14(日)ひる11:14
その日は休み扱いやわ
どこもCBに困ってる構図にしか見えんのよな
161名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 14:05:04.86ID:0/NWFyWf
短大≒戦前の旧制女学校だから
162名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 14:13:21.64ID:hm6UfFg6
今後増えるかどうか悩んでる
うん、バリューに金あるアピールもウザいけど
163名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 15:02:18.96ID:4um1+TM4
一国の首相が感染したら144敗するんか
164名無しさん@お腹いっぱい。
垢版 |
2024/07/09(火) 15:29:54.32ID:WTEDz7hc
人にも信者さえ浜辺爆弾が不正に関与した証拠やね
悪い影響が強いんだとクロス乞食の餌になったし叩きでしか名前出さなくていいよ草
あれ実在の居酒屋で喜んでるだけのための帰国なのに
絶対そっちの方も始まるんですか
165名無しさん@お腹いっぱい。
垢版 |
2024/07/20(土) 07:52:52.82ID:veFJZx8a
AIイラスト作成初めてから1年ぐらい経つけど
以前はレイプとか拘束とかのエロCGばっかり作ってたが
さすがに飽きてきたので今は普通に可愛い全年齢向けの可愛い美少女イラストがメインになってる
2024/07/24(水) 17:48:26.00ID:h61DhvG0
動画生成AIのPika。高品質な動画生成だけでは無く、生成した動画のアウトペインティングが可能で生成した画像の続きを生成して保管することが可能
こういう機能ある動画AI生成のソフトありますか?
横や縦にアスペクト比を伸ばしたいのでスケールアップなどしない形で黒い部分になる箇所をAI生成出来るものですね
2024/08/05(月) 17:32:46.15ID:02rACoxA
ローカルで研究してる人いないんだろうか?いろいろ試してるけどなかなか成果が得られないわ
2024/08/20(火) 07:14:20.24ID:RVLC9zHT
新しいHotshotは結構いい感じに見えるけどソースとモデル公開されるんだろうか
169名無しさん@お腹いっぱい。
垢版 |
2024/09/25(水) 21:11:27.09ID:HzmpWnwC
AI生成で遊んでみたくてStable video Diffusionいれてwebuiの起動までなんとかこぎつけたけどCUDAが見つからないってエラーでていつまで経っても生成が終わらない
CUDA12.1入れてるし環境変数のパスも確認済みで行き詰まってしまった
他になにか確認するポイントてありますか?
2024/09/26(木) 02:26:03.10ID:uTJjVMez
グラボ
2024/09/26(木) 02:42:27.64ID:QAZdqN+Y
頭の中
2024/09/26(木) 06:09:24.60ID:QhYElvoc
脳に入れたチップの数
173名無しさん@お腹いっぱい。
垢版 |
2024/09/26(木) 08:13:34.23ID:D6a+Q2c/
グラボは3080あるんですよね
やっぱ頭の中が残念なのか
2024/09/29(日) 19:00:24.63ID:vHUfLqio
>>173
RTX 3090
2024/10/06(日) 15:07:24.61ID:TtbrfHgB
○猫バズって炎上ネタも楽してるな
相方がセックスレスで暴れホストに下着写真送ったり相方がホストクラブ行くからぁぅぁぅぁーをトー横ホテルで放置abemaで追及されるや
相方はホスクラ出禁多数起業パーティー未払い
ゆ○りやりたい放題出資詐欺でエックスのアカウントアンチになっとられる
オカネカエシテ
176名無しさん@お腹いっぱい。
垢版 |
2024/10/07(月) 10:58:50.85ID:h3YKcJq/
動画スレ見つけたけどやってる人少ない感じか
177名無しさん@お腹いっぱい。
垢版 |
2024/10/07(月) 11:34:33.54ID:1/waizeT
一応見てるぞ
ローカルしかやらないけどcogvideoがCN使える様になってきてちょっと面白そうだなと思ってる
178名無しさん@お腹いっぱい。
垢版 |
2024/10/07(月) 13:53:27.22ID:X36E7wbu
>>165
ぷいに沢山あるキラキラした女の子は同じ顔で見飽きたけど
いいねが多く付くのはやっぱ全ての人が見られる全年齢だろうなあ
2024/10/12(土) 09:17:50.15ID:ZG4mW4Wo
>>169
あらゆる手順を愚直に入門通りに設定してみる
間違ってもインストール系でblogとかnoteで指定されているver以外のものをインストールせず、手順に勝手に自分解釈を入れない
(例:cドライブって書いてたらcドライブにインストール
2024/10/12(土) 18:51:49.67ID:mgb2BnS4
ありがとうございます、ブラウザの設定は問題なしでした
ちなみに1111は今までどおり生成できます
自分でも引き続き調べてみます
2024/10/12(土) 19:09:52.25ID:mgb2BnS4
誤爆した、すみません
182名無しさん@お腹いっぱい。
垢版 |
2024/10/13(日) 20:51:56.24ID:U2XE+s9A
すみません
画像からのポルノ動画生成できるサービスはありますか?
klingAIはだめでした
183名無しさん@お腹いっぱい。
垢版 |
2024/10/13(日) 21:23:17.87ID:xNZkmUP4
>>182
そんなハイリスクを無料で提供してくれるところはないだろう
ローカルで自前でやるのが現実的
まあローカルの動画生成ってあんまないけど
2024/10/14(月) 01:36:39.55ID:XObWwiDQ
ローカル環境ならcogvideo一択
エロ以外ならサブスクのAI動画生成サービスの方が出来が良くて選択の余地なし
GPUを買い換えるくらいなら月額課金した方がいいんじゃねえの
2024/10/17(木) 02:25:55.84ID:3VDCTTEn
Open-Sora-Plan1.3.0か
2024/10/19(土) 05:48:03.94ID:/WeSurwG
HailuoAIいいな
破綻少なくなったしバリエーションのある動きをするようになった
187名無しさん@お腹いっぱい。
垢版 |
2024/10/19(土) 13:29:36.49ID:t52/LLFK
>>179
遅れましたがGitHubのissue参考にソース直して無事インストールできました
ただフレーム間の整合取ってくれるわけじゃないから動画らしい動画は作れないのが残念
2024/10/19(土) 19:18:51.94ID:BtdcQazx
ただ動画作成してもかもめちゃくちゃ崩れる
動画ばっかりできて成功率が低いんだよね
189名無しさん@お腹いっぱい。
垢版 |
2024/10/19(土) 20:08:58.50ID:us4pz3Nx
SVDはとりあえず動画もできます、以外何者でもない感じなんだよね
バージョンアップ止まってるし
190あぼーん
垢版 |
NGNG
あぼーん
191あぼーん
垢版 |
NGNG
あぼーん
2024/10/19(土) 22:22:28.01ID:fd7A1TgC
お前に任せた
俺らに気にせず好きなだけ買っていいよ
193名無しさん@お腹いっぱい。
垢版 |
2024/10/20(日) 03:07:47.52ID:pu1QRYyA
サブスク代不要でAI機能使えるPortraitProが
タイムセール。急げ。

https://amzn.to
/4f7ZPfT

ソースネクスト |PortraitPro 23 |写真編集ソフト
プライム感謝祭セール
49パーセントの割引で¥4,980-49% ¥4,980
参考価格 ¥9,779参考価格: ¥9,779


サブスク代不要でAI機能使えるフォトディレが
タイムセール。急げ。

https://amzn.to
/4dN4LWA

PhotoDirector 2024 Ultra アップグレード & 乗換え版
プライム感謝祭セール
43パーセントの割引で¥4,057-43% ¥4,057 税込
参考価格: ¥7,150参考価格: ¥7,150
2024/10/22(火) 09:25:01.81ID:IBenbhvB
HailouAIで一瞬おっぱいが写った動画が作れたw
奇跡だな
2024/10/26(土) 10:01:58.16ID:bJmclPwV
Haiper をアップデートして2.0にしたら、今までのより確かに面白い動画になってる
2024/10/26(土) 15:52:30.59ID:dN1hBO29
>>186 そう? 早送りの変な動画にもなったし、それほどよくないと思った

フリープランだと只今2600人待ちで30分かかりますとかいうことにもなるし
2024/10/31(木) 07:52:20.34ID:QHun14XX
Hailuoって一番高いプランでも生成がクソ遅くて使い物にならんって外人が言ってた

3日間使い放題の無料トライアルが裏目に出ているようだ サーバー負荷が高くて処理しきれてない
2024/10/31(木) 19:38:58.17ID:rUBlB5ge
まあ、現状夜中だと3000人待ちとザラだしな
本格稼働になればサーバー強化はしてくれると思うんだけど
気になるのは現状6秒の動画しか作れないのがどれくらいの長さの動画が作れるようになるかだな
199名無しさん@お腹いっぱい。
垢版 |
2024/10/31(木) 20:04:45.88ID:7z7zH8cM
1カット6秒って充分な長さだけどな。長くできるに越したことはないけど
動画の情報(キャラとか物の配置)維持したまま別カットの映像作れるようになると面白いが
2024/11/03(日) 02:45:40.90ID:v6EJzRou
comfyで画像つくってるが動画もやってみたいと思う
我が子を喰らうサトゥルヌス(閲覧注意)を動画にしたい
https://i.imgur閲覧注意.com/zVyFukB.jpeg
2024/11/03(日) 10:07:38.50ID:2lJ7DlgF
Klingが無料は混雑してて世代は一時的に利用できませんとか出て
3日くらいずっと動画一個も生成できないんだけど、これ課金するまで解消しないの?・・・
2024/11/06(水) 16:08:34.34ID:WmpTDbnV
hailuoで良い感じのプロンプト(i2vで微エロ系の)出来たから画像とっかえひっかえで同じプロンプト連発してると、どこかのタイミングで明らかに変な動きが入ってきてまともに生成されなくなるな。微エロ系だからかな。
2024/11/06(水) 18:08:04.10ID:oJlNCWqh
>>201
同じ症状だった
まだ発展途上だからコレ、と決め打ちできないから課金させたくない
2024/11/10(日) 18:14:41.25ID:yRuD5i2A
Hailuoの利用者が激増してる
2万人5時間待ちとかになってる
もうだめだな
2024/11/11(月) 05:08:14.79ID:GcZtkHdF
Gen3 生成画を回転させても破綻が無くなってきた
https://x.com/Yokohara_h/status/1855621257183785251
2024/11/11(月) 10:57:56.42ID:GcZtkHdF
メモ)こっちは3Dメッシュ化
https://github.com/MrForExample/ComfyUI-3D-Pack
2024/11/11(月) 11:49:41.84ID:sOrMWxIE
>>205
凄いなこのクオリティなら課金してもいいね
2024/11/13(水) 16:51:23.94ID:Qah42S6t
SD3.5の学習失敗続きで飽きたからcogvideoの学習やってみるか
2024/11/14(木) 04:35:57.67ID:ABIyk4Rc
cogvideoのloraは結構可能性を感じるので俺も今週末試したい
動画の学習は1年以上前のmodelscope以来だな
2024/11/15(金) 07:30:35.14ID:0jxDnT6h
DimensionX 静止画から好きなカメラワーク動画を作れるhttps://chenshuo20.github.io/DimensionX/

ReCapture 動画から別アングル動画を作れる
https://generative-video-camera-controls.github.io/
2024/11/21(木) 03:14:33.35ID:XU6aqIj3
208だけどCogVideoXはHotshot-XLより学習しやすくていいわ
2024/11/21(木) 08:16:39.36ID:RTD6T3In
これをAI動画にしたらどうなるか見てみたいわ
誰かお頼み申す
https://i.imgur.com/yw4lwer.jpeg
2024/11/23(土) 18:36:21.06ID:ZCq8jrRy
とりあえず今フリーで使ってる動画生成AI
HaiuoAI text to video , image to video(開始のみ)
 1回30c、6秒固定、毎日100cに復活

KLING AI image to video , image to video(開始、終了)
 5秒(10c) 10秒(20c) 高画質5秒(5回、35c)、毎月チャージ

Dream MACHINE text to video , image to video(開始、終了)
 4秒(30回/月)

Runway text to video , image to video(開始、終了) video to video
 4秒(20c) 625/月

毎日3回使えるHaiuoAIはお手軽だけど終了イメージが使えないので一発ネタ
KLINGAIは開始、終了の繋ぎが滑らか
DreamMotherは無理矢理繋いでる感がある
2024/11/24(日) 11:52:39.68ID:NpSSVzLE
DreamMachineは、フリーだとキューから抜けるのに時間がかかりすぎる
昼間でも4時間経っても処理待ちとかやってられない
2024/12/04(水) 14:40:28.14ID:pYKa3mPu
HunyuanVideoはローカルだと今の所一番知識量が多いと思う
ヌードもスプラッタも出るウィル・スミスは出ないけどトランプは出る
216名無しさん@お腹いっぱい。
垢版 |
2024/12/04(水) 17:58:45.65ID:65Ukak1g
性能は申し分ないみたいだけど
今のところ4090でも運用が現実的じゃないものをローカルと呼んでいいものだろうか
2024/12/04(水) 20:00:56.13ID:pYKa3mPu
>>216
4090だけどfp8なら普通にローカルで動いてるよ
2024/12/05(木) 09:12:10.07ID:vcv+nB3P
結局ローカル環境の主力は今年中はsdxlのままなんやろかな
年末年始の連休中に次世代モデルでキャッキャウフフできたらうれしかったんやがなぁ
2024/12/05(木) 09:20:26.04ID:BW3fhLTQ
Fluxがなかなかエロ発展しないからなあ
ポニーV7に期待しよう
2024/12/12(木) 10:46:57.27ID:sOS9ObBo
Hunyuan Videoは画像学習でLORA作れるようになったみたいだけどやっぱり動きが鈍くなっているように見える
2024/12/12(木) 12:27:18.66ID:h4dGOp9d
Soraが登録できるようになったけど無料プランはないのか
222名無しさん@お腹いっぱい。
垢版 |
2024/12/14(土) 14:04:32.97ID:CkDLuAGE
>>220
人大杉?
2024/12/15(日) 13:32:44.02ID:NSggICqq
imgurのアカウントがBANされてしまったためmp4が気軽にアップできない
どっかにそういうサイトないかな(日本国内を除く)
2024/12/15(日) 15:30:21.11ID:eiMdYfbP
catbox.moeは動画も上げられた気がするよ
2024/12/17(火) 22:45:19.38ID:CUrsnhZq
DreamMachine、今は(30回/月)じゃなくなった?
Runwayみたいになっちゃったかな
2024/12/17(火) 23:05:25.33ID:CUrsnhZq
>>224
catbox.moeって自分のアップしたファイルを自分で消す方法があるかな?
アップは簡単すぎるんだけど削除方法がわからない
2024/12/18(水) 00:00:56.81ID:J/GAFm1L
>>226
ログインしておけば
2024/12/18(水) 07:02:44.60ID:hdwqmKm6
>>227
ありがとう
2024/12/20(金) 20:37:08.97ID:KQbKUobm
HunyuanのGGUFきたな
まだHunyuan自体にi2vがないからおもちゃ程度だけど年末年始に遊ぶには十分そう
2024/12/21(土) 07:28:54.49ID:EXh8oyDT
最初の3日間作り放題なの知らなかったからめちゃくちゃ損した気分
2024/12/21(土) 15:54:07.74ID:D+souveS
ggufは遅すぎて使う価値ないと思うわ
2024/12/22(日) 10:19:32.30ID:+wRs+14e
RunwayとかDream MACHINEとかすぐ有料だけになっちゃうな
しわよせが来てるのかHaiuoAIとKLING AIはめちゃくちゃ作成時間がかかるようになった
2024/12/26(木) 20:38:53.61ID:VhUFsxr2
動画はまだまだ発展途上ですし課金するほどのクオリティではない
来年末ぐらいに期待、特にローカルので
234名無しさん@お腹いっぱい。
垢版 |
2024/12/26(木) 22:43:20.93ID:MkO7V7cI
エロに使えないと意味ないよな
2024/12/27(金) 00:41:52.11ID:10P3bLcS
AVやエロアニメ学習させたのが出れば生成AVも実用できるんじゃね?
2024/12/27(金) 00:48:40.15ID:suTthNQm
Hunyuanは普通にLoRA作れるって話も出てるから
5000シリーズが普及する頃にはそのへんが発展するでしょ
2024/12/27(金) 00:59:33.35ID:10P3bLcS
まあ怖いのはある程度シコれる長さの動画生成したいならVRAM24GB必要ですってなることだな
今16GBだから買い替え確定になるわ
238名無しさん@お腹いっぱい。
垢版 |
2024/12/27(金) 12:06:40.20ID:isxm/8O6
runwayで課金してやってみたけれどエロってほどのものではないくらいのものでもフラグが立ちました
って注意受けて生成しくれなくなるのな
画像生成のAUTOMATIC1111みたいにローカルPCで自由に作れるようになるやつないの?
2024/12/27(金) 12:45:17.36ID:EUwt3yLJ
comfyがあるじゃん
Hunyuanは無検閲、CogはLoraでエロモーションいけるで
240名無しさん@お腹いっぱい。
垢版 |
2024/12/27(金) 13:39:30.87ID:isxm/8O6
そうなの?
comfy UI って見た目で敷居高い気がして、インストールしてなかった
2024/12/27(金) 14:46:47.63ID:suTthNQm
正直動画に限らず手元である程度最新のことをやるにはcomfy必須よ
2024/12/27(金) 15:51:19.85ID:jfOG0XWc
comfyuiの良いところはカスタムノードとcomfyuiが切り離されているところなんだよね。
上手く動かなかったら、ノードをバイパスしちゃえばいいだけだから。
どこで問題起きてるか一発でわかる。
2024/12/28(土) 12:07:00.79ID:QzJJwalK
Hailuoが丸1日経っても作れなくなった
2024/12/28(土) 13:53:51.11ID:GzxiJb66
>>243
リロードすると加算されるよ
2024/12/28(土) 20:33:26.87ID:YmcjlgSd
昔よりどんどんAI動画の出来が良くなってる気がする
https://files.catbox.moe/wkhvgy.mp4

エロには厳しくてパンチラでさえエラーがでて作ってくれないけど
2024/12/29(日) 15:29:27.12ID:G5hAjZAQ
>>245
動画を作りたいんだったらCOGStudioだって
2024/12/30(月) 12:47:12.70ID:Wlk/yPrA
自分でやってみたら、COGstudio って 顔とか手がくずれてまもとに使えないんですが、
こつあります? ローカルでいいのあります?
2024/12/30(月) 12:58:58.56ID:hUFbBTgk
ComfyUI
2024/12/31(火) 19:33:28.69ID:ii3LbUwU
AIすげー
https://files.catbox.moe/4xhyrc.mp4
2025/01/01(水) 03:59:40.23ID:TgzJOsjU
マンスジってcamel toeっていうんだな
画像検索したらほんとにマンスジ画像しか出てこなくて笑った
また一つ無駄知識が…
251名無しさん@お腹いっぱい。
垢版 |
2025/01/01(水) 16:50:01.07ID:5Ozdd9qx
最近RedditのSDサブレで鬱陶しいほどHunyuanVideoとやらが推されまくっててたので試してみたら確かにすごい
ローカルで動かせてLoRAも使えるからしばらくハマるかもしれない
252名無しさん@お腹いっぱい。
垢版 |
2025/01/01(水) 17:01:46.14ID:5Ozdd9qx
早速LoRA自作してみてキャラの再現度は素晴らしい、が動きの制御がまだ慣れないせいか難しい
他の人のモデルは動きももっといい感じなので学習とプロンプト次第でだいぶ改善できるはず
https://i.imgur.com/VzRWy3C.mp4
2025/01/01(水) 20:24:16.48ID:D7kq++ef
銃なんか捨ててかかってこいよ、ベネット
https://i.ibb.co/n0WnyYV/akTp60b.jpg
https://i.ibb.co/9ZjMJ1b/akTp60c.jpg
2025/01/01(水) 23:58:18.72ID:oRdA9g4Y
hunyuanvideo のlora って俺も作りたくて、調べてみたけど、diffusion-pipe?がどうたらこうたらで
超難しそうだったので、あきらめた;;
2025/01/02(木) 01:32:09.82ID:g8Hw0pzR
diffusion-pipeはwsl使えばわりと簡単
画像だけならmusubi-tunerで試したけど学習出来てるよ
256名無しさん@お腹いっぱい。
垢版 |
2025/01/02(木) 06:14:50.03ID:LijAMBST
俺もWSLを使った方法で作ったけどついこの前kohya氏がWindows用の学習スクリプトを公開してたからさらにもう少し簡単にできるかもしれない
日本でももうちょっと流行ってほしいなあ
2025/01/02(木) 13:28:36.66ID:Bl3whkvC
やっぱり、wslっていうのを使うんですね。ubuntuとかよくわからないことが多くて、ハードル高そうですが、わりと簡単っていうのを期待して、挑戦してみます。loraが使えれば、hunyuanvideoはすごくおもしろいと思うので。
2025/01/02(木) 21:43:48.84ID:g8Hw0pzR
>>257
画像のみの学習でいいならmusubi-tunerが殆ど日本語の説明だから楽な気がする
こっちはWindowsで動作確認済み
2025/01/02(木) 22:14:22.64ID:Bl3whkvC
>>258 ありがとう、ちょうどwsl-ubuntuでエラー続きで挫折しかけていたので,そっちでやってみます。
2025/01/03(金) 14:11:08.86ID:nKn4icu9
musubiはGUI作った人がいるみたいだね
2025/01/03(金) 20:43:18.99ID:FzoCYSCM
musubiのgui来ましたね。モデルのダウンロードの仕方がわからないが;;
2025/01/05(日) 01:50:00.57ID:+Cx3xlrt
4500分待ちって表示出てるけど何の詐欺よ
2025/01/05(日) 23:43:41.87ID:DnIRT0IX
259ですが結局wslを使った方法でできました。まあ似ているけど、どんぴしゃまでいかない感じ。デフォルトのir 2e-5が遅すぎるんだろうか。
264名無しさん@お腹いっぱい。
垢版 |
2025/01/06(月) 12:52:21.52ID:WStynl80
「ComfyUI」向けに作られたノードの一つ「ComfyUI_LLMVISION」にマルウェアが仕込まれていることがわかりました。クリエイターのロブ・ラフター氏がRedditで共有したところによると、ComfyUI_LLMVISIONをインストールして使用した場合、ブラウザのパスワード、クレジットカード情報、閲覧履歴がWebhook経由でDiscordサーバーに送信されてしまうとのこと。
2025/01/06(月) 13:42:44.78ID:hdHcqY71
いつのコピペだよw
スクリプトさんですか?
266名無しさん@お腹いっぱい。
垢版 |
2025/01/06(月) 14:13:07.92ID:JlxRaEoH
hunyuanて中国企業のテンセントのAIだけど大丈夫?日本政府とアメリカ政府に警戒された企業だとけど
267名無しさん@お腹いっぱい。
垢版 |
2025/01/06(月) 14:53:33.34ID:0V0ALw/e
画像学習も動画学習もmusubiで出来たよ
2025/01/06(月) 14:55:30.58ID:Mmb91iw7
知ってる
2025/01/07(火) 17:50:45.84ID:3PaJI2k4
けっきょく動画もローカルで作らざるを得ないか
HunyuanVideoかあ
2025/01/09(木) 04:48:42.01ID:jKYiHy7X
動画生成中何もできないしグラボは高いし動画はまだ途上ですし、
GPUクラウドサービスとか良いかもかなーって
2025/01/09(木) 18:22:46.42ID:nzAifU4G
質問させてください。
pythonでffmpegを実行して動画にテキストを入れたいのですが、「No such filter: 'drawtext' Filter not found」というエラーが出て先に進めません。

ChatGPTに頼ってプログラムを書いて貰い、テキストなしの動画は作成できていました。
テキストを追加してほしいと伝えたところ下記のコマンドが追加になりました。
"-vf", f"drawtext=text='{overlay_text}':fontfile=arial.ttf:x=10:y=h-th-10:fontcolor=white@0.7:fontsize=24",
他にもエラーがあり、ネットを漁ってttfをカレントディレクトリに置いたりという事はしたのですが、drawtextが解決しません。
windows11でffmpeg-master-latest-win64-gpl.zipを使用しており、--enable-libfreetypeという関連しそうなライブラリは有効になっているようなのですが、drawtextが動かないようです。
同じような環境で解決された方はいませんでしょうか?
2025/01/10(金) 17:46:20.01ID:ftU+7uh0
>>271
自己解決しました。
使っていたffmpegが古いわけではないのですが、タイミングが悪かったのかdrawtextが使用できない状態のもののようでした。
毎日最新のffmpegがビルドされているようで、適当に新しいものに入れ替えたらすんなり作成する事ができました。
273名無しさん@お腹いっぱい。
垢版 |
2025/01/11(土) 23:19:36.25ID:cbRKk/3b
ようやくhunyuan追いついた。wslで独自loraも使ってCivitaiのやつと組み合わせるところまで追いついた。
Comfy初めてだったから苦労しました。
ようやく質問できるレベルになった気がするから質問させてもらうけど、これって自作Lora(キャラLora)を使って、例えば30分とか長い動画の顔を変えるとかはまだできないよな?V2Vという技術があるようだから、30分くらいの動画をInput+キャラLoraでなんとかならないかとか夢見たんだけど、4090でも2秒くらいしか無理だよね?
2025/01/14(火) 02:33:51.58ID:dg+YghkA
あんま話題になってないけどhailuoのSubject Reference凄い
最早ディープフェイクに近い
2025/01/14(火) 08:06:27.30ID:Kq7fdJRi
エロ作れないと意味無い
276名無しさん@お腹いっぱい。
垢版 |
2025/01/14(火) 11:28:45.31ID:zMca2ODO
ComfyUI一度導入したけどreForgeより遅いから今は使ってない
なんで遅いのか理由がわからず諦めた
(´・ω・`)
2025/01/14(火) 22:37:48.98ID:QZZkpvsR
今のローカルでも1枚画像生成は充分だけど動画生成はローカルだとつらいな
ローカルで有料サイトレベルになるのはあと3-5年ぐらいかかるかなあ?
278名無しさん@お腹いっぱい。
垢版 |
2025/01/15(水) 17:12:38.43ID:og0q+2oX
平面に飽きたから3Dに挑戦するわ
最終的には3Dプリンタで立体化
2025/01/18(土) 15:51:24.83ID:1Ab4WMCO
メモ
https://x.com/towya_aillust/status/1880252855459934385
https://pbs.twimg.com/media/Ghf_CTSacAYOBoC.jpg
2025/01/18(土) 18:40:49.05ID:Zbq3nl7d
>>279
おお、Viduの無料版使ってみた
https://files.catbox.moe/lkeu3d.mp4
2025/01/18(土) 18:42:37.70ID:Zbq3nl7d
静止画は今でも充分だけど、動画はまだ5年ぐらいかかりそうだな (感想)
2025/01/19(日) 18:57:30.56ID:5gKjyea3
>>273
一貫性考えたら厳しいだろうね
最初と最後のフレームを指定できるimg2videoモデルと機能が実装されれば分割して対応できると思うけど
2025/01/19(日) 19:56:26.34ID:5gKjyea3
ふにゃ学習、VRAM24GBでも最大フレーム33設定なら解像度480くらいまで上げられるな
しかし動画学習は時間かかるから辛いね学習率もどこまで上げていいのかよくわからんし
284名無しさん@お腹いっぱい。
垢版 |
2025/01/19(日) 20:11:28.69ID:R6MreZxk
>>273
どうせワンカットづつで切り貼りするからそんなに長いの作っても需要少ないのでは?
2025/01/19(日) 22:22:08.30ID:Ot6PTLyb
ViduはパンチラもハーケンクロイツもOKだった珍しいサイト
Kling 1.6はクオリティ高いのに両方NGだったな
2025/01/20(月) 21:41:59.51ID:9h5JmVVM
hunyuanvideoでキャラlora(実写)作ってみたけど全然似てない…期待が大きかっただけにガックリ。先輩方、うまく作るコツがあればご教示下さい。
2025/01/21(火) 06:53:34.49ID:2laNpKIy
この人の#フィギュア踊らせてみた技術がヤバい
https://x.com/hellslashh/status/1871862543016411601
2025/01/21(火) 07:01:00.40ID:4oa3VCRE
>>286
Musubi tuner?
2025/01/21(火) 07:59:07.82ID:RiBngqb+
>>288
はい musubi tuner guiです
2025/01/21(火) 14:17:02.29ID:Mb1Q8BpT
なんかImage creatorが日本語を理解出来なくなったな
今までは日本語プロンプトでもまともな絵ができたのに
数日前から、全くトンチンカン絵しか出なくなって
試しに英語で指示してみたらうまく書けた
2025/01/21(火) 20:00:16.98ID:4oa3VCRE
>>289
ごめんなさいdiffusionpipeでやるやり方しか
わからない
2025/01/21(火) 20:24:07.19ID:retGfjkg
>>291
いえいえ ありがとうございます そちらは知らなかったので試してみようと思います
2025/01/22(水) 01:50:41.47ID:W6Evc04b
Viduはパンチラが作れる(迫真) できはともかくとして
https://files.catbox.moe/ry1eqa.mp4

無料だから画質悪いわロゴが付くわで、そこはしょうがない
2025/01/22(水) 02:08:42.86ID:W6Evc04b
これぐらいだったらまだ微笑ましくてネットにアップできるけど
アップできないくらいHなのできちゃうな(自主規制)
2025/01/29(水) 12:48:52.09ID:p0Mt3huZ
ふにゃ~ん
2025/02/04(火) 00:49:48.02ID:o+61CIch
Hailuoaiが待機時間長すぎて使いもんにならん
2025/02/04(火) 18:47:09.69ID:X5YRZjXu
各サービスは待ち時間終わってるしhunyuanも旧正月で動きが無いから話題が無いな
2025/02/04(火) 18:51:22.74ID:xkVjE4AR
Lumaって無料月2回だけになった感じ?
2025/02/06(木) 08:45:57.81ID:TSLuFdPH
坂本龍馬 「ぼくが教科書から消えるのはおかしい」
https://files.catbox.moe/sss0ub.mp4
2025/02/06(木) 08:49:15.17ID:7wODysU2
4chanのaco板に/aivg/ AI Video Generalってスレがあるんだけど
そこだとpixverseでエロ画像生成してるのが多い
2025/02/06(木) 08:49:46.78ID:7wODysU2
✕画像
○動画
2025/02/06(木) 10:05:02.80ID:7wODysU2
https://files.catbox.moe/jkswsc.mp4
https://files.catbox.moe/5az704.mp4
https://files.catbox.moe/2e5zkv.mp4
pixverse試してみたけどフィルターに引っかかってエロ画像もエロプロンプトも受け付けず外人ニキが生乳出してる方法がわからない
始点と終点を渡すトランジションにしないと1秒も作画を維持できない
8秒生成でもかなり速いのはいいけど崩壊しやすいわりに消費ポイントが多いから結局5秒でいい
2025/02/06(木) 11:13:16.14ID:TSLuFdPH
(パンチラ作る人が増えないかな)
https://files.catbox.moe/2x0l0p.mp4
2025/02/06(木) 11:42:45.25ID:TSLuFdPH
AIロシア幼女拳奥義!!けっこう失敗が多い!
https://i.imgur.com/R23eadm.jpeg
https://files.catbox.moe/vykqeg.mp4
2025/02/06(木) 14:16:32.02ID:zNRZKiJ2
なるほどやり方はわかった
でも肝心のクオリティがKLINGと比べると全然だから微妙だなあ
306名無しさん@お腹いっぱい。
垢版 |
2025/02/06(木) 20:36:41.38ID:oqxV6t9Y
好きな女と好きな女並べて汗だくセックスし始めるくらいじゃないと意味ないよ
307名無しさん@お腹いっぱい。
垢版 |
2025/02/06(木) 20:47:10.96ID:8OjpWw2R
hunyuanvideoはDrawthingsが対応したみたいだから今度iPhoneでもやれるか試してみる
メモリたんまり積んだMシリーズのMacなら問題なく出来そうだけどメモリ6GBのiPhoneで出来るんだろうか?
SVD XTはなんか残念な感じのしか出来なかったけど
2025/02/06(木) 22:07:44.24ID:TSLuFdPH
>>306
作ってもアップできないじゃん
2025/02/07(金) 01:50:35.87ID:rAnP3+xK
別にしなくていいよ
誰もお前の臭い性癖とか見たくないだろうし
310名無しさん@お腹いっぱい。
垢版 |
2025/02/07(金) 04:08:34.47ID:7LwykvOH
>>309
チンカス野郎に言われたら >>308 が可哀想
2025/02/07(金) 18:05:04.86ID:7snyTDQZ
>>307
DrawThingsが対応したので動画生成デビューしましたよ
M2 24GB 上 384x576 x 8steps でframeあたり30秒くらいかかるかな
33 frame生成時に最大で RAM 11GB くらい食ってる

DT作者によると(翻訳)
https://discord.com/channels/1038516303666876436/1041450063983030282/1336479310030045244
> 現在、Hunyuanは16GiB以上(理想的には24GiB以上のデバイス)を推奨しています。8ビットでも、約8GiBのRAMを使用するため、8ビットは16GiBデバイスに対してより効果的です。残念ながら、HunyuanはiPhoneで動作しますが、実用的ではありません。

モデルがこんなファイル名だから8bit量子化されたものだと思うがそれでもきついね
hunyuan_video_t2v_720p_q8p.ckpt (これがファイルサイズ13.5GBでLLMも合わせると22.3GB)

初めての動画生成なので勝手が全くわからん……
seed同じでframe数増やすと続きが生成されるのではなく最初から全然違う内容になってしまうのね
2025/02/08(土) 17:48:12.56ID:qFthSccG
easyAnimateでHunyuanと同等の動画が作れるみたいだけど
誰が使ってる人いない?
2025/02/08(土) 19:51:24.91ID:9HB6Nnlj
VRAM24GBないと実用的でないらしいので厳しいだろ
2025/02/08(土) 21:05:43.86ID:F9Zk29uy
easyanimateはv4までは使ってたけど正直時間かかる割に微妙過ぎる
v5~も海外で使ってる人殆どいない
2025/02/14(金) 16:23:42.88ID:2kOf/v6p
そのうちモーションキャプチャからAIエロ動画作れるようになったらおっさんとおっさんが絡んで、おっさんの喘ぎ声が女性の声に変換され、それでおっさん達がヌクという一種の地消地産文化が産まれるのかな?
2025/02/14(金) 19:38:18.37ID:wGTGKAZa
チョコ持たせればバレンタインと思ったけどあかんかった

FLUX元絵、Hunyuan i2v(leapfusion + ip2v)
https://files.catbox.moe/a2z9nq.webp
https://files.catbox.moe/xgwzbv.mp4
2025/02/14(金) 20:30:50.61ID:ucM7uMV6
もう画像2枚からハグやキス動画まで出来るアプリもあるしモーションも要らなくなってくると思う
2025/02/14(金) 20:36:51.43ID:lbSUO99X
seaArt?
2025/02/14(金) 20:43:13.37ID:2fZijpQk
>>317
なんてアプリ?
2025/02/14(金) 20:48:47.50ID:ucM7uMV6
>>319
filmoraとか
ほかにも色々出てる
2025/02/14(金) 21:06:47.00ID:2fZijpQk
>>320
あと「画像2枚からハグやキス動画まで出来る」ってあるんですが
その二枚のうち一枚はハグやキスをしているシーンである必要ある?(向き合う絵、キスする絵の二枚でその間をAIが作るタイプ)
それとも画像にないシーンを作り出せる?(向き合う絵やベッドの上で座ってるキャラそれぞれの絵二枚で、キスするシーンごとAIが作れるタイプ)
2025/02/14(金) 22:40:45.70ID:gNhZfUJL
ご当地キャラのような存在していない2Dイラストの動画を作成したいのですが、今検討しているHailuo AIかKLING AIです。
課金する前にKLING AIを試したのですが、時間がかかりすぎて判断の材料にできませんでした。
ちょっとした動作を付ける程度なのですが、どちらのサービスが適していますか?
皆さんからアドバイスをいただければと思い書き込みました。
2025/02/15(土) 04:14:06.47ID:J4N3gf5/
>>321
とりあえず正面写真2人分あればハグやキスしてくれる
ただしクレジット必要なんでおいそれと試せないのが難点
https://youtube.com/shorts/Rexza_kJnUw?si=07AvYzUsAmQ8YUQo
2025/02/15(土) 08:30:56.87ID:2FlagV47
詳しい人誰かまとめてくれないか
動画生成系のサービスと概要
2025/02/15(土) 14:29:04.36ID:g7HKN4S9
viduのリファレンスモードのほうが自然にやってくれるよ
3枚まで設定できるから女1・男・女2で挟むとかもできなくもない
326名無しさん@お腹いっぱい。
垢版 |
2025/02/16(日) 12:49:49.11ID:uOugBYou
PoeやAbacus.AIといったオールインワン型のサービスなら、月10ドル程度でRunway、Hailuo-AI、Luma、Klingなどの複数の動画生成AIを使える。
2025/02/16(日) 12:50:16.59ID:C/4KyhAV
KLING 超高品質だが生成に非常に時間がかかる R18はほぼ不可 ちょいエロ可
Vidu そこそこ早くて品質も悪くない R18不可?
Pixverse 海外で人気 試せる回数が少ない 動画編集などでR18の検閲抜けできる場合あり

他のスレの癖でこんなん途中まで書いたけど
ここはエロ専門ってわけでもないのよな
2025/02/16(日) 13:09:55.63ID:dzKa8J40
LUMA Ray2がXで話題になってるけど全然うまく動かせん
2025/02/16(日) 22:06:50.29ID:lCOjfO57
Kling少し前はPypalで払えたみたいなのに今はクレカしか使えないのかな?
入金先のPaypalの良い利用先なんかない?
2025/02/17(月) 02:44:48.19ID:oVr7Q8Yh
https://youtu.be/6wsBebR6av0

参考になる…か?
2025/02/17(月) 03:35:02.76ID:b+UMH0CL
動画用のタガーってあるんだろうか
ふにゃん触るようになってほしくなってきた
そもそも時間的な動きにどの程度効くのかもわからんけど
2025/02/17(月) 03:40:04.89ID:/ZthGVEC
>>330
LUMAは鼻うがいも学習してるんだなw
2025/02/17(月) 04:17:08.18ID:j6UdwYR+
動画をテキストでコントロールは無茶あるよなぁ
結局偶然の産物を見ているに過ぎない
2025/02/17(月) 06:26:26.89ID:xbl5iKhA
>>330
いっぱい動画サービスがあって参考になる
(やっぱローカルPC環境だと5年くらいダメそうやな)
2025/02/17(月) 12:02:24.93ID:J8EGK61x
promptchanって試した人いる?
2025/02/17(月) 13:43:31.54ID:Q/gFsK+C
ついにhailuo音声に使用制限が
2025/02/17(月) 16:10:03.55ID:Wd60nKEr
>>331
複数のフレームにタガーかけて統合するやつもあるけど矛盾した内容になりがちやし素直に動画対応のVLM使った方がいい
338名無しさん@お腹いっぱい。
垢版 |
2025/02/17(月) 17:18:36.05ID:jLBChgZR
最近PsycheAIっていうサービスを見つけて試してみたんだけど、デジタルヒューマンがめっちゃ簡単に作れるし、クオリティも高い!キャラクターの見た目や動きもリアルでびっくりした〜。なんと今なら1ヶ月無料で使えるキャンペーンもやってるみたい!https://app.psycheai.jp/ja-JP/accounts
2025/02/17(月) 22:36:16.20ID:ZUEGm4E7
結局いまんとこ同人AVモデル雇ってハメ撮り撮って顔だけディープフェイクするのがタイパ的にも安上がりだったりしてな
340名無しさん@お腹いっぱい。
垢版 |
2025/02/18(火) 15:55:01.67ID:lij1tGAZ
最近PsycheAIってサービス使ってみたんだけど、めっちゃいい!デジタルヒューマンが簡単に作れるし、クオリティも高い。今なら1ヶ月無料キャンペーン中らしいから、試してみるのオススメapp.psycheai.jp/ja-JP
2025/02/18(火) 15:59:02.51ID:rQIWCYua
お世辞にもクオリティ良さそうには全く見えないけど
2025/02/18(火) 16:39:42.56ID:jwZhV1dV
露骨すぎる宣伝レスと見せかけた紹介レスやと思ったら
ただの露骨すぎる宣伝やってんなw
2025/02/18(火) 17:57:31.56ID:p8L5gqoZ
>>303
https://files.catbox.moe/9kw01z.mp4

安部ちゃん
https://pbs.twimg.com/media/CqZ6I_uUEAE3OiC.jpg

https://i.imgur.com/jfYcywY.mp4
2025/02/23(日) 21:45:53.72ID:MEcez4sx
RTX4060ti16GBとCogStudioで動画生成してるけど
GPUのメモリ使用率が上がらないのは何故だろう?
こういう仕様なの?
2025/02/24(月) 13:38:29.16ID:Y0BvvMGP
この自分で作ったAI画像を (SD グラボは4060ti16GB)
https://files.catbox.moe/alhtfc.jpg

1枚画像を動画にしてくれる無料Webサイトで作ったのがこれ!!
https://files.catbox.moe/13d55c.mp4
2025/02/24(月) 14:49:13.27ID:OTkCl8XU
>>345
いい感じですね
2025/02/24(月) 15:10:20.16ID:Btcosoch
いい感じか?
めっちゃ老けたように見えるが
348あぼーん
垢版 |
NGNG
あぼーん
2025/02/24(月) 15:33:34.51ID:IbID9exc
最近の動画生成AIは再現度が凄い
https://files.catbox.moe/s14c9e.mp4
350あぼーん
垢版 |
NGNG
あぼーん
351あぼーん
垢版 |
NGNG
あぼーん
2025/02/24(月) 16:18:29.14ID:Y0BvvMGP
>>347
外国のAIだから外国人顔(老け顔)になっちゃうのと
日本人ぽい画像で作るとものすごくアップしにくくなる
2025/02/24(月) 19:03:32.99ID:YuruE+hk
宣伝マンはAIに宣伝文句ちゃんと考えてもらって出直してこい
2025/02/24(月) 23:18:00.99ID:QjVMewtw
ttps://www.dmm.co.jp/dc/doujin/-/detail/=/cid=d_516175/
こういうのとかどうしたらできるの?普通に乳首とか映ってるからKlingとかではないと思うんだけど、ローカルHunyuanだとこんな綺麗に動かないんよ
2025/02/25(火) 00:13:42.40ID:TEkuiQk1
Boreal-HLとか動きをリアルにするLoRAがあるらしいからそういうのを重ねて使ってるんかね
俺は試したことないけどサンプル見る限りほとんど違和感ないリアルさですごい
2025/02/25(火) 03:22:16.93ID:rps43A92
HunyuanのLORAで出来るレベルやな
画像からだからleapfusionじゃねーの
skyreelsだと時間がかかるからこの枚数はやらないだろう
2025/02/25(火) 15:49:41.73ID:IdEz6V1f
PixVerse.AIしばらく使って動画の出来と待ち時間の短さが気に入ったんでとりあえずサブスクに入ってみた
2025/02/26(水) 16:54:17.91ID:4+6bt76p
Wan 2.1ってのが出たらしいけどどうなんだろ
2025/02/26(水) 20:10:34.33ID:gjADYDH0
>>358

https://fate.5ch.net/test/read.cgi/liveuranus/1740374201/762
360名無しさん@お腹いっぱい。
垢版 |
2025/02/27(木) 06:15:41.69ID:J1V9X/k6
Kling、クレジット追加しようとクレカ決済までしたんだけど反映されない…2回も
JCBカードははじかれたりってあるのかしら…ちなサブ垢でVISAカードは追加OKやった
2025/02/27(木) 11:02:45.68ID:4RRhn2PT
顔で遊んでみた
https://files.catbox.moe/s2nilk.webp
https://files.catbox.moe/kpufnd.webp
https://files.catbox.moe/rp2hdy.webp
https://files.catbox.moe/ejfwo8.webp
https://files.catbox.moe/w6rrn6.webp
https://files.catbox.moe/notttf.webp
https://files.catbox.moe/kdzyhz.webp
https://files.catbox.moe/cnk904.webp
https://files.catbox.moe/p62p45.webp
https://files.catbox.moe/rru5lq.webp
https://files.catbox.moe/62zxsj.webp
https://files.catbox.moe/sc8wfz.webp
2025/02/27(木) 14:23:00.94ID:4RRhn2PT
FaceFusionで表情七変化
https://files.catbox.moe/vnup9k.webp
https://files.catbox.moe/ne9e7e.webp
https://files.catbox.moe/la8h9g.webp
https://files.catbox.moe/wv566b.webp
https://files.catbox.moe/qu22u6.webp
363名無しさん@お腹いっぱい。
垢版 |
2025/02/27(木) 20:40:18.09ID:ZoJO80PO
hunyuanのrolaってcivitaiにしかないのかな?
discodeやredditにもあるってGPT先生が教えてくれたけど探し方がわからぬ
2025/02/27(木) 22:52:30.30ID:yMMou8zW
FaceFusionは動画内の顔を他の顔に置き換えるディープフェイク作成ツールだろ
動画の人物の顔を安部ちゃんとかひろゆきの顔に変えちゃうやつ
2025/02/27(木) 23:07:50.56ID:uexzqozm
Nim videoでWanが使えるようになった
エロ画像でもエロプロンプトでも通るようになったが生成される動画自体はKLINGなんかと比べると劣るなあ
2025/02/28(金) 01:02:10.50ID:+nUfpNf2
HunyuanでLoRAの試行錯誤してるうちにもう今はWanてやつが熱くなってるのか
分かってたけどAIは流行り廃りが激しいな
2025/02/28(金) 01:10:54.82ID:Az2Hcpt/
Hunyuanもスタートフレームとエンドフレームできるようになるっぽいよ
2025/02/28(金) 02:12:50.47ID:+nUfpNf2
まあhunyuanのcomfyラッパー作ってる人がWanのも作ってるしdiffusion-pipeも学習に対応したらしいから簡単に移行はできそうだな

>>363
discordとredditはコミュニケーションプラットフォームだから情報はあってもモデルは置いてないよ
実際のモデル置き場はcivitai以外はhuggingfaceとかかな探しやすくないけど
>>367
地味にうれしいけど結局モデルの出来次第だな既存のI2Vもちょっと癖あるし
2025/02/28(金) 19:33:42.30ID:OW1k460i
qwen2.5は不調?全然作れなくなった
370名無しさん@お腹いっぱい。
垢版 |
2025/02/28(金) 23:53:21.43ID:Qpa4+OVJ
klingのデイリーボーナス66クレジットがもらえないの俺だけ?
2025/03/01(土) 06:17:49.86ID:pM+MjIEn
使わないとその日のうちにロストするから、貰ってロストを繰り返してるだけでわ?
372名無しさん@お腹いっぱい。
垢版 |
2025/03/02(日) 07:53:07.54ID:JugY15K0
画像系のLoRaなら日本人がたくさん見つかるけど動画はほとんどないね
安倍晋三しか見つけられん
2025/03/02(日) 10:13:28.68ID:arcGod1b
AI動画で海外の子のパンチラを作ってみた
https://files.catbox.moe/uo588t.mp4
2025/03/03(月) 16:09:55.62ID:dsRrRetR
アメリカの鯖で3次ロリってFBIチャレンジかよ
375名無しさん@お腹いっぱい。
垢版 |
2025/03/03(月) 17:11:30.05ID:FEg5d7DT
ドンドンドン
FBI!open up!
376370
垢版 |
2025/03/03(月) 17:13:02.16ID:pRkZqrrk
数日様子見たけどやはりもらえてない
何個かアカウント作ったせいなのかな
2025/03/03(月) 19:13:24.22ID:q4jYxm6H
>>376
クレジットの所をクリックすると、クレジットの使用履歴出るけど確認した?
https://i.imgur.com/M9TlavT.jpg
こんな感じで貰って失効してを繰り返してない?
https://i.imgur.com/ApZRLlf.jpg
2025/03/03(月) 21:34:54.34ID:e+2lCFn2
>>370
Kling.aiって月次クレジット配布はあるけど
毎日は配られないんじゃない?
2025/03/03(月) 21:38:57.35ID:q4jYxm6H
もしかしてフリープランなのか、それだとデイリーは貰えないね
380370
垢版 |
2025/03/03(月) 22:25:32.91ID:uk0D3Ft1
スタンダードプランでメアド3つ課金してて、70クレジット以下まで消費したらもらえたアカウント1個あったけど、依然全くもらえないアカウント2個ある
仕様が変わったのかと思ったけど問い合わせしてみまつ
2025/03/03(月) 22:27:03.81ID:DGUyFqVq
kling以前は無課金で毎日66貰えたけど待ち時間が増えて消化しきれなくなって少ししてからデイリーじゃなくて月一で一ヶ月分まとまって入るようになったよな
いつの間にかデイリーで毎日66貰えるのは課金者だけになってたからね
まあ一ヶ月分まとまって貰う直前に課金するとフリープラン向けのやつ来なくて損するけど
382370
垢版 |
2025/03/03(月) 22:34:46.63ID:uk0D3Ft1
よく見たら、以前あったはずの、課金の特典項目のところのデイリークレジット付与の文言が消えてる気がする・・・
2025/03/03(月) 23:27:36.08ID:q4jYxm6H
>>382
消えてるね、貰えなくなったのかな、まあKling今月で切るつもりだったから構わないけど。
2025/03/03(月) 23:56:15.82ID:CkVfkGmP
Hunyuan i2v明後日か
楽しみだ
2025/03/04(火) 01:23:47.06ID:gWQlQjFa
>>373
消えてる!!

なんで消しちゃうの?
2025/03/04(火) 07:56:22.77ID:0tAgSooZ
FBI... ((((;゚Д゚)))))))
2025/03/04(火) 18:41:55.05ID:edQlAGVz
猫箱はエロ禁止でしばらく経つと消されるんだよ
2025/03/05(水) 01:01:44.21ID:k3texyfW
hailuo締め付けキツくなった?プロンプトは通るけど出来上がってくるのはほとんど動かずにこっちをめっちゃ睨んでくるもの…怖い
2025/03/05(水) 08:01:00.49ID:+rJ9EXpA
ローカルはもうすっかりWan2.1の時代
2025/03/05(水) 09:10:52.43ID:M9rVCE6E
それみたHunyuanVideoが慌ててi2v出すみたいだけどどうなるかね
391名無しさん@お腹いっぱい。
垢版 |
2025/03/05(水) 11:16:38.73ID:FgyKuJli
skyreelsってhunyuanの改良版でI2Vあるんだろ?
2025/03/05(水) 12:16:44.99ID:PQVbsSQH
skyreelsはwanに劣るし学習不足
2025/03/05(水) 12:37:21.56ID:KggIqEva
KLING無料で試してみたらイイ感じだったので課金したんだがどうも偶然だったようだ
なんか失敗作ばかりであっという間にクレ欠だよ
せめて2回くらいはやり直しされてほしい
試したいこといっぱいあるのに金食い虫だな
2025/03/05(水) 15:25:19.74ID:N4kh5BGD
先週末からWan2.1でいろいろやってみてるんだけど、これのi2v最高だね。
完全にHunyuan超えてるね。
生成速度もかなり速いし、品質もインターポーレーターとアップスケール使えば
メチャ綺麗になる。
2025/03/05(水) 17:22:22.99ID:jDAGQjHl
Wan2.1、4060ti16gbで速度どんなもんなん?
2025/03/05(水) 19:32:18.98ID:DVNhDznN
あんなもん
2025/03/05(水) 22:36:05.69ID:6LwIVFUF
Wan2.1最初シンプルなWorkflowで試したときは
なんかアーティファクトが出てこんなもんかと放り出したけど
今civitaiで好評集めてるWorkflow使ったら確かにかなり良いね
2025/03/06(木) 03:44:56.50ID:hTOtBNFj
くぱぁできる?
2025/03/06(木) 04:07:55.54ID:o9Ox6hC0
動画ぶん回す用とその他普段使い用の2台必要だな
400名無しさん@お腹いっぱい。
垢版 |
2025/03/06(木) 08:41:08.76ID:mVZRZGN2
今こそcolab無料の出番やな
2025/03/06(木) 10:18:18.61ID:FoZjlVY9
Colabでカスタムノードの入れ方がわからん…
2025/03/06(木) 12:37:31.91ID:dv5Q4chX
今のところPixVerse.aiが待ち時間ほぼ0で作ってくれて複数キャラの判定も優秀でシーン切り替えもスムーズで一番使いやすい
フリーでも毎日2回分のクレジット配るから毎日ちょっとやるには困らない
403名無しさん@お腹いっぱい。
垢版 |
2025/03/06(木) 14:45:51.69ID:ymDi9W2/
PixVerseはパイ出し画像から動画生成でエラーになったんだが、パイokなところある?
2025/03/06(木) 22:45:10.06ID:hba4vWkS
Wan2.1を検索するとエロが苦手だという記事を目にするんだけど、実際どんな感じですか? civitai見てるとワークフロー次第でどうにかなるのだろうか…
2025/03/06(木) 23:11:18.18ID:7G+FB8g2
露骨な性行為は無理だと思うけど裸体くらいはいける模様
つってもそこらへんはLoRA次第で余裕で突破できるはず
すでにSMプレイLoRAがあるらしいしなw
2025/03/06(木) 23:20:31.02ID:hba4vWkS
>>405
回答ありがとう なるほど、エロの検閲をLoRAで上書き?する形なんですね ソフトエロならいけるとのことなので、試してみたいと思います
407名無しさん@お腹いっぱい。
垢版 |
2025/03/07(金) 08:22:50.54ID:Mfr00/KR
検閲というか学習してないだけなんじゃないか?
エロもだけどグロも難しいと思うぞ
作る気はないが
動画は静止画以上に特殊なものは難しいと思う
2025/03/07(金) 12:51:24.92ID:YsNGz7EH
CivitaiにあるFastest Workflow使ってWan作ってるけどサンプリングステップって無意味に上げないほうがいいのか
デフォルト設定のほうが動きが付く気がする
いまいち設定がわからない
ただプロンプトの強化は外したほうがいい気がする
2025/03/08(土) 09:52:14.21ID:zHQdriAE
昨日PixVerseでガチャ失敗したから同じ内容でまた挑戦してみたんだがエロ違反みたいな警告で弾かれた
エロ規制強くなった?それとも勝手にAIさんがエロ解釈広げて自滅したとか?
2025/03/08(土) 10:04:40.76ID:mV5TULo0
プロンプトは通るけど結果審査で弾かれるようになったね。延長も抜け穴塞がれた
調べたらこんな記事があった。これの影響かもね
https://x.com/__kokumoto/status/1898007815178047600?t=7E4ikvKnQh4r4X4oZO_TnA&s=19
2025/03/08(土) 15:00:09.05ID:D8Qx7gaK
Hunyuanのi2v幾つか試してみたんだけど、現時点では画質/動きの整合性ともにWan2.1の方が上かな。
ローカルで動く動画生成AIは現時点、
Wan2.1>Hunyuan>LTX>Mochi1 かな・・・ Mochiはもう消してしまった。
課金して使うやつは全然興味ない。
ローカルで色々動かすから楽しい。
2025/03/08(土) 19:16:50.66ID:9u809t5A
中華系は不安定でアレだけど、openaiやgoogleのやつでプロンプト参考にして非エロの練習するのは悪くない気がする。
2025/03/08(土) 20:28:18.02ID:D8JMqsAn
Hunyuanは修正されてだいぶマシになった
2025/03/08(土) 21:43:51.76ID:XftHPB7P
口パク動画で音楽とかセリフに合わせれるworkflowオススメのある?ちびたいの何個か試したけどエラー出たりで動かず、セットアップの時間ばかり無駄にした…
2025/03/09(日) 01:24:07.95ID:5g1SefHR
実写なら腐るほどあるやろ
2025/03/09(日) 19:42:12.75ID:afTgiY0k
wanのi2v試してるけど棒立ち率が高いというか
プロンプトが効いてる感じがしない
2025/03/09(日) 19:46:44.32ID:vyUWptge
>>416
ネガティヴプロンプトに
character is not moving
入れればいいらしいぞ、サブスク有料系でネガティヴあるとこなら割と効く
2025/03/10(月) 16:44:05.36ID:FqbGjFFv
easyWanのサンプルにある i2v workflowをどうやったらアップスケール可能になるのかわからん過ぎる……
サラっとcivitaiに挙がってるアップスケールworkflow埋め込みで出来るんだろうか?
2025/03/10(月) 17:18:30.96ID:EO7KnSYL
>>418
アレは出来上がった動画をアップスケール専用の別のワークフローに入れてアップスケールしろってなっているみたい

実際は Load Upscale Modelでx4_animesharpをロードして upscale image (using Model)に画像列を入れて4倍にアップスケールした後Upcale Image byで0.5倍にしているだけ
なので一つのワークフローでやりたいならVideo保存ノードのimagesの前にこの3つのノードを挟み込めば良い
2025/03/10(月) 17:34:18.40ID:FqbGjFFv
>>419
サンクス

そもそも別でアップスケール前提なのか
ガチャの当たり外れを考慮すると、確かに別のワークフローで分けて処理した方が良さそうだな
2025/03/10(月) 20:22:31.66ID:l/ipfJLH
>>420
ID変わってるけど419
ComfyUIは最後に実行した各ノードの出力をCacheしていて次に同じWorkflowを実行すると各Nodeとその上流のNodeが変更されていない時はCacheされた値を使って下流の変更されたNodeだけ実行するようになっている
(メモリの関係で必ずできるのかどうかは分からないけど)
だから一つのworkflowの中にUpscalerを入れておいてテストランの時はbypassしておいて最後に完成版を出力するときだけbypassを解除してやるとVae Decodeまでは前の結果を使ってアップスケールだけ実行してくれるので一つのworkflowにまとめることもできるよ

Bypassできる条件はそのnodeの入力と出力が同じ型であることが必要なので万能ではないけど
余談だけどもっと凝った機能のon/offはFast Group BypasserとAnySwitch等を組み合わせるとできるようになるよ
2025/03/10(月) 21:33:10.86ID:NjRwjiny
>>421
noise seedを固定にしておかないとダメだね。
2025/03/10(月) 22:10:33.33ID:FqbGjFFv
>>421
重ねて感謝!

seed固定で直前処理大体残ってる感じか
2025/03/11(火) 01:50:03.35ID:S3v1VXEL
ComfyUIのWan2.1とGPとEasyWanどれがいいんだ
2025/03/11(火) 05:54:15.00ID:hYJy56sZ
64GメモリーあるならEasyWAN
2025/03/11(火) 08:44:52.56ID:nEzLF6CA
どっちにしろ最近のAI動画やるならメモリ64Gは最低あったほうが無難
最初の導入が不安なら文字通りEasyな後者から始めて凝ったことしたくなったら前者でいいんじゃね
EasyWan側はあんまり知らんけど
2025/03/11(火) 10:41:02.26ID:aK3xlCwg
EasyWanVideoはComfyUIの上にKijai版WanVideoWrapperをプリインして配布できるようにしたパッケージだから分かってきたらそこから色々追加したりアップデートしたりすれば良いんだと思うよ
2025/03/11(火) 12:50:55.65ID:8UL9LUuu
AI動画生成サイトに毎日ログインしてたらデイリークレジットもらえてその日のうちに失効を繰り返してたんだけど
突然ログインしてもクレジットがもらえなくなった
ルールがよくわからない
2025/03/11(火) 19:43:18.01ID:8UL9LUuu
と思ってたら今頃デイリークレジットもらえたログインの日付変更が日本時間じゃないのか?
430名無しさん@お腹いっぱい。
垢版 |
2025/03/12(水) 00:06:57.02ID:qqE2vciD
ComfyUIで生成したwebp動画をmp4に変換するのに思いのほか手こずったのでツールを自作しました
よろしければどうぞ
https://github.com/nekotodance/WebpAnim2Mp4
2025/03/12(水) 02:37:24.07ID:Q64c2cm0
>>430
神。うさんくせえツールか英語のツールしか無くてまさに面倒くせえなーってなってるところだった
2025/03/12(水) 06:42:38.03ID:/dBeCN9p
VideoHelperSuiteのVideo Combine Nodeで直接MP4出力するのじゃダメなん?
2025/03/12(水) 09:59:07.35ID:35W3BwQS
>>430
感謝!
大量ガチャした後に後加工するのにお手軽便利で助かる
434名無しさん@お腹いっぱい。
垢版 |
2025/03/12(水) 12:35:58.68ID:qqE2vciD
>>432
ただmp4にするだけならそれでも良いんですが、もうちょい機能を追加する予定です
今考えてるのは「最終フレームの画像化、複数ファイルの連結動画化」あたりで、最終フレームを元にi2vして繋げるとどんな感じかなと構想中です
なにか面白そうなアイデア頂けたら取り込んだりもします
2025/03/12(水) 13:41:24.01ID:0rVTSFwd
>>434
なるほど
でもwebpで出すかmp4で出すかはあんまり関係なさそうな気もするけど

ちなみに最終フレームの画像を使って続きを生成する例はLTX-Video用だけどあるよ

https://civitai.com/models/995093/ltx-image-to-video-with-stg-caption-and-clip-extend-workflow?modelVersionId=1511863

右上の方にExtensionの使い方が書いてある
436名無しさん@お腹いっぱい。
垢版 |
2025/03/12(水) 22:53:05.46ID:qqE2vciD
>>430
結合と画像化機能の追加、あとアプリの設定値を保存したりバグ修正したりしました
loop指定で
01234567654321と出力するつもりが、間違って
012345676543210と出力しちゃってました。修正後は動画が気持ちよく?ループ再生できるはずです
2025/03/13(木) 15:21:40.87ID:vNvzBSnT
AI生成した動画の最終画像を取り出すのは別にAIでなくてもAViUtlとかで読み込んで
最終フレームをコピペすれば簡単だろうに。
最終フレームを次の生成の1フレーム目にして動画繋げるってのは思いつく生成方法だよね。
ただ、最終フレームが綺麗でない(ブラー掛ったような画像)場合もあるのよね。。

ところで
Wan2.1のfp16モデルがえらい高品質の動画を吐くようになったので歓喜。
2025/03/13(木) 21:38:35.11ID:koyhsC9g
もうちょっとプロンプトの言うことを聞いてくれればかなり未来がありそうなのだが…
439名無しさん@お腹いっぱい。
垢版 |
2025/03/14(金) 18:55:57.42ID:B/6O6H8Y
WebpAnim2Mp4ツールに機能を追加しました、詳しくはreadmeを見てみてください
これでアニメーションから出来の悪いフレームを省いたり、出来の良い部分だけの続きを作成したりする補助ツールになった、かも?
https://github.com/nekotodance/WebpAnim2Mp4
440名無しさん@お腹いっぱい。
垢版 |
2025/03/15(土) 14:58:14.36ID:0LWi9SxR
連投すいません、reverse機能を追加しました
これで「振り返って、2回瞬き、そのあとまたむこうを向く」みたいな連続アニメーションが作れます
詳しくはサンプルの最後のTipsを
(厳密に言うと瞬きなんかは閉じるときと開くときで速度が違うので画像化して枚数を調整した方が良いですが)
https://github.com/nekotodance/WebpAnim2Mp4
441名無しさん@お腹いっぱい。
垢版 |
2025/03/15(土) 18:34:34.04ID:Cq3Y/GF4
>>440
ありがとう
これでおふぇらが捗ります
2025/03/16(日) 03:11:34.12ID:E4dG7sg5
lora使ったらサンバのリズムを覚えさせることもできるの?ホイホイホイホイ!
2025/03/16(日) 08:13:21.85ID:z54Q7EeZ
>>437
正直Aviutlって昔からあるオーパーツだよねぇ…魔改造されて行った結果とも言えるけど
fp16ってメモリどれだけ必要なんだ…?
2025/03/16(日) 11:06:36.59ID:ZfVK2Jtb
>>443
Aviutl、確かにオーパーツだけどこれがなかなか便利で手放せないんだよな

fp16、当方はVRAM24GBメイン96GBだけどメイン60GB超えで食うね。64GBがぎりぎりかも。
(Kijaiさんのワークフロー)
2025/03/16(日) 11:44:47.78ID:z54Q7EeZ
慣れてると他の編集ソフトに手を出せない
動画編集新規からだとメインストリームがYMM4に移行してるけどそれすら無理
96GB積んだから行けそうだけどvram16GBで足りるかしらね、Lora3つ突っ込むと飛びそう
2025/03/16(日) 12:39:21.92ID:3zoiL0DX
colabのA100でもfp16環境いけんこともないな
ただサーバーも多少課金しないとあかんか
ngrok使ってみたが数時間で帯域制限になるわ
447名無しさん@お腹いっぱい。
垢版 |
2025/03/18(火) 00:41:25.44ID:9jtx82w3
Wan2.1で遊んでるけどそりゃこんなの中学生男子に与えたらよからぬ使い方しまくるわな
2025/03/18(火) 08:26:35.93ID:yz6vXR6g
今や実車と見分けのつかない動画を誰でも手軽に作れる時代になったからな
俺も5年前までは絵を描くことすら無理だったのに
今は毎日1分くらいの動画をXに上げてるし
2025/03/18(火) 08:33:27.48ID:cuaK3OrU
>>448
インターネットリソースの無駄だからやめてw
450名無しさん@お腹いっぱい。
垢版 |
2025/03/18(火) 16:21:05.02ID:WU7tTOkl
二次元キャラ動かすのに向いてるのって何がある?漫画に使いたいんや
動画AIと漫画の相性はいいと睨んでる
現状viduとかklingでダイナミックなアクションさせるとブレブレになってしまう
451名無しさん@お腹いっぱい。
垢版 |
2025/03/18(火) 16:29:17.51ID:41HSSXxG
SFWなら有料生成サービスにはローカルは勝てないだろ
2025/03/18(火) 20:07:44.83ID:1gek4cOl
そうでもない
ローカルはLoRA使えるから目的の動きを生成しやすい
2025/03/18(火) 21:14:11.34ID:QbO7H1s3
品質は高いが目的の動きをプロンプト検証しながらガチャする有料系とLoraで動きを制御出来るが画質周りの品質が劣るローカル
こんな感じだな現状
2025/03/19(水) 09:19:11.33ID:T/mzQEzy
ディープフェイク系(静止画も含めて)で相談なんだけど人間の顔以外の入れ替えってできる?
ザクの顔をジムと入れ替えとかフルヘルのライダーのヘルメット交換とか
大体「顔が認識できません」みたいなエラーがでるかモンスターになっちゃう
2025/03/19(水) 11:35:06.04ID:KPNZgXP7
そりゃそういうのは人間の顔を学習させてるもんだし
そういう入れ替えしたいならPikaswapみたいなAIのほうがいいと思う
456名無しさん@お腹いっぱい。
垢版 |
2025/03/19(水) 19:05:40.03ID:Qo2TJZLN
ザク頭ゼータいいよね
2025/03/19(水) 21:05:07.91ID:yHVELxMy
ゲームのスクショ撮ってその画像使ってAI動画生成するのって著作権とかに引っかかるだろうか
458名無しさん@お腹いっぱい。
垢版 |
2025/03/19(水) 21:22:06.07ID:oS4KPt4K
それで商売しなきゃ黙認してくれるっしょ
あまりにひどいモンじゃなきゃ
2025/03/19(水) 22:41:25.43ID:SBRr4t76
Wan2.1は今後の軽量化もだけどLora出揃って来たら本格的にやばいツールになると思う
460名無しさん@お腹いっぱい。
垢版 |
2025/03/19(水) 22:45:52.54ID:a0zZuPB6
>>456
公開しなきゃ問題ない
公開にはSNSに上げるのも含まれるぞ
2025/03/20(木) 00:32:47.93ID:F27BmyRw
>>460
それって>>457宛てだよね?やっぱSNSに載っけるのはアニメ化させたりしてもアウトかな
2025/03/20(木) 00:52:27.60ID:GGAUvMEH
違法性を問うならオリキャラ以外はみんな違法だけどな
2025/03/20(木) 01:07:07.45ID:ir2VNFel
冷たく聞こえるかもしれないけど
アウトセーフを自分で判断できないなら何もしないほうがいいよ
464名無しさん@お腹いっぱい。
垢版 |
2025/03/20(木) 01:15:14.58ID:pq8jWW2a
やりすぎなきゃいいんだぞ
やりすぎると公式も対応せざるを得なくなるからちょっと楽しむくらいやるんだぞ
2025/03/20(木) 03:39:24.75ID:tuNrwHx4
Wan2.1、動画の長さは数秒程度だけどサブスクでクレジット消費して生成する様なサービスと遜色無いどころかそれ以上に高品質な動画生成出来ちゃうの最早バグだろ
2025/03/20(木) 12:33:11.71ID:nUAtEar+
最近comfyデビューして自然言語に悪戦苦闘してるんだが
先輩方はエロプロンプトどうやって書いてるんですかね…LLM?
2025/03/20(木) 13:29:01.49ID:6kkjZryJ
DeepLに日本語放り込んで翻訳で十分だぞ
2025/03/20(木) 16:29:47.61ID:1K3Q2g7/
あざます
こんな便利サービスあるんすね
馬鹿みたいにchatgptで言葉置き換えて翻訳してましたわ
2025/03/22(土) 14:15:00.25ID:WYSDtsAc
Hunyuanに手を出しはじめた新米だけどもう時代はWanなのね
Hunyuanのt2vはともかくi2vだと画質とかがなんか微妙になってしまう
2025/03/22(土) 15:47:05.31ID:IvrFczs9
wanあんまり広めない方がよくない?
2025/03/22(土) 16:43:20.56ID:gcRn4zna
普通に凄いレベルに達してるんだが
まだまだ凄い速度で進化していくのだからユーザー側が気を揉んでも意味がない
2025/03/22(土) 20:23:45.04ID:o1y9PSd5
動画は進化速度が早いから今手を出したらあれもこれもとなってしまう
2025/03/22(土) 20:26:25.79ID:KwbJEaRj
いつまでローカルで出来るかヒヤヒヤもんだわ。
いや、ローカルで出来るだけで御の字なんだけど。
474名無しさん@お腹いっぱい。
垢版 |
2025/03/22(土) 21:37:08.96ID:OgzxWa2W
WebpAnim2Mp4ツールにリスト選択項目のflip機能追加とリストの操作性を改善しました
これでWebpアニメのmp4変換だけでなく、gifアニメ的な簡単な動画ならなんとか作れます
https://github.com/nekotodance/WebpAnim2Mp4
2025/03/23(日) 04:08:38.91ID:/Tfa1Gng
ふと思ったけどAI動画生成で会社毎に商用利用の可否とか違ったりするけどウォーターマーク消した時点で特定方法なんて無いだろうにああいうのって意味あるんか
2025/03/23(日) 10:51:18.92ID:lJrxq0A8
動画生成AIで作った複数の動画をツールで連結して1本の動画にすると、繋ぎでどうしても一瞬止まるのが気になる
2025/03/23(日) 13:44:52.89ID:a1PjFO4w
CivitaiにあるLoRAは直接的なのが多くてもっとこうソフトエッチなやつが欲しいなあ
自分で学習するほうが早いんだろうか
2025/03/23(日) 13:52:40.53ID:Eyha2V3G
海外のAI動画見るとおっぱいや股をむき出しにしてプルプル震えてるだけの動画多いけど
エロさってそこじゃないんだよなぁ
服を着てても体の滑らかな動きでエロさを感じさせなきゃ
2025/03/23(日) 14:48:36.33ID:a1PjFO4w
服の上からおっぱい揉むとか背後にいる男から鷲掴みされるくらいがいい
2025/03/23(日) 15:47:09.45ID:blO6BGDR
それはそれとしてくぱぁするLORA欲しいな
2025/03/23(日) 15:55:04.07ID:uBZ9yewM
頭を?
482名無しさん@お腹いっぱい。
垢版 |
2025/03/23(日) 16:16:15.48ID:po7N+uP2
寄生獣かよ
2025/03/23(日) 16:49:36.10ID:a1PjFO4w
くぱぁしてヴェノムになるLoRAならあったな…
484名無しさん@お腹いっぱい。
垢版 |
2025/03/23(日) 20:41:40.61ID:d6MyLIIw
>>476
一瞬止まるのが、1本目の最終フレームと2本目の先頭フレームが同じせいなら、WebpAnim2Mp4でdrop first frameにチェックして結合すると対処できますよ
それ以外の理由なら止まるなら分かりませんが
485名無しさん@お腹いっぱい。
垢版 |
2025/03/23(日) 20:59:07.59ID:QJdJ96Cj
単純にスカートを自分でめくってパンツ見せるとかズボンを脱ぐとかのLoraがもっと充実して欲しいわ
上着をめくって乳見せるLoraには大変満足しています
2025/03/23(日) 22:53:06.18ID:a1PjFO4w
スカート穿いてる子が股開くLoRAとかね
ガチャ次第だが割と失敗するんだよな
2025/03/23(日) 23:24:09.99ID:VU+VJsk+
色々とLoRA作りたいんだけどまず素材集めからして画像のそれより基本的に難易度高いように感じるな
特に2次元
2025/03/24(月) 00:49:58.22ID:F9dCpYpp
wanのi2v、動きはいい感じに出来てきたけど画像が変に発光してしまう
プロンプトの問題かな
2025/03/24(月) 07:02:26.54ID:V8ucVJ/k
>>488
今出先で具体例出せんけど、たしかデフォルトプロンプトの一つが直訳で発光とも訳せる単語入っちゃってたはず
自分も同じ症状だったけど、それ消したら発光しなくなった
2025/03/24(月) 07:20:59.02ID:Xf0qR7Fd
WanVideoのi2vがVRAM不足で実行できぬ
LLMや画像生成だと省メモリ化されることあるけど動画生成でも期待できそう?
2025/03/24(月) 07:35:33.79ID:aFSXoghY
>>490
kijai版なら8GBもあれば出来るっしょ
6GBであれば流石に買い替えろとしか
2025/03/24(月) 07:42:02.57ID:Xf0qR7Fd
>>491
まじ?
ComfyUI用にラップされたプロジェクトでやったらt2iはイケてi2vはVRAM不足(のはず)で処理止まっちゃった
設定とか見直してみるわ
2025/03/24(月) 08:53:13.14ID:dnbVpAnQ
Wanでカメラワークが暴れることがある。

抑制したい場合、どうしてます?
fixed camera をいれてもあまり効果がない。
2025/03/24(月) 09:14:49.21ID:0ihr/+qH
Wanで思い通りいかなかったらさっさとseed変えてる
2025/03/24(月) 10:38:23.10ID:Bkmkcbke
>>494
seedを変えるのは当然として、あとcfgの値も変えてみるといい。
2025/03/24(月) 10:40:25.89ID:Bkmkcbke
>>492
但しVRAM容量とトレードオフで、メインRAM容量かなり必要。
(当方では96GB積んでるけど、Lara複数とかだと80GB近く占有することもあり)
2025/03/24(月) 10:44:43.20ID:Bkmkcbke
まぁ今はRAM増設の方が安いから、GPU買い替えよりもメモリ増設で64GB以上積むと幸せかも。
あとは、tritonやSageAttentionとかを導入して高速化をすればよし。
2025/03/24(月) 11:41:13.85ID:Xf0qR7Fd
>>496
えー、メインRAM64GBなんでそっち要因かもね
アプリできるだけ落としてリトライしてみるけど、Lora1つは欲しいし厳しそう
クラウドGPU借りるのもありやね
サンクス
2025/03/24(月) 12:28:52.39ID:C8ANYRnr
WanはVram16Gメイン64Gで最大の難関が
i2vのlora読み込みでのOOMなんだが
メインメモリ増設で回避できるん?
lora複数がけしたいわ
2025/03/24(月) 13:02:45.00ID:Bkmkcbke
モデルはi2v 480p 14B fp8_e4m3fn、Kijaiワークフロー(を自分でアレンジ)https://i.imgur.com/yQdvvTx.jpeg

Lora1つ、480x608、81フレーム

VRAMは9GBちょいだけど、RAM使用量64.8GB。
SageAttention使用、
torchコンパイルオプションはmax-autotune-no-cudagraphs。
生成時間は5分前後。
2025/03/24(月) 17:11:31.55ID:F9dCpYpp
>>489
ネガティブプロンプト調整したらマシになったよ、それでも発光する時もあるのが困りものだが

ベースの画像が大きいとフラッシュ?が起きやすいってどっかで見たような気もするけどそれもあるのかな
生成したい動画とベース画像のサイズ差がでかすぎるとか
2025/03/24(月) 20:44:29.81ID:DBvnBsED
>>493
逆に俺は手振れで素人撮影感を出すためにcamera shakeってプロンプトしてるんでそれをネガティブに入れたらもしかしたら改善するかも?
2025/03/25(火) 00:35:36.27ID:ze7OSPAi
VRAM16GBでメインメモリ192GBだけど
WanでKijaiのi2vをLoRA3個を快適にやれてるよ
快適基準はfp8なら128GB, fp16なら192GBって感じやね
2025/03/25(火) 08:59:38.14ID:lPXGnfgD
>>302
試してみた。おまじないのような結果だったが、ありがとう。
プロンプトは沼やで。。

>>501
発光問題はたまに出るけど元画像の露光があってないときに出る気がする。
合成画像など。フォトショかなにかで調整すれば避けられるか?
2025/03/25(火) 09:02:12.83ID:lPXGnfgD
カメラワークの返信先間違えた。
>502
です
2025/03/25(火) 21:07:32.06ID:ZAsuvI+B
安定してカメラを特定の部位にズームする呪文が欲しいのぅ
2025/03/26(水) 10:54:52.40ID:aSq48YFY
RTX50xxでeasywanって動かせてる人いる?
2025/03/26(水) 15:16:43.52ID:WQ1FfG1I
ちょいちょい遊んでる初心者だけど、やっぱりloraなしだと服を脱がせるのは厳しいのかなあ
服を脱ぐってよく考えたら結構複雑な動きかつ服によっても違うしな…
2025/03/26(水) 19:18:23.43ID:tUEUlRdt
>>507
5070ti使いだけどフローチャート通りに各プログラム落としたあと50xx系用バッチ使ったら行けたよ
2025/03/26(水) 19:53:07.00ID:aSq48YFY
>>509
ありがとう。ちょっと俺も頑張ってみます
2025/03/26(水) 23:59:59.87ID:P+uZ1z4z
【画像生成AI】RTX5000番代のAI生成
https://mevius.5ch.net/test/read.cgi/cg/1743000768/
スレ作りました
2025/03/28(金) 05:11:06.47ID:kTXonc5Y
Wanのインペイントで猫動画に犬の顔をディープフェイクするテスト
最近発表されたInPってモデルではない
https://files.catbox.moe/ywu15b.mp4
元動画
https://www.pexels.com/video/a-pet-cat-standing-on-the-brick-floor-of-a-garden-3009091/
2025/03/28(金) 08:41:45.22ID:6g2jtq72
ダンスLoraのバリエーション増えて嬉しい
2025/03/29(土) 01:33:46.52ID:YbSk0hYV
wan2.1でWanNativeInpaintMasked.jsonって公開してる人がいて
開いてみたけどTeaCacheForImagGenがないって言われてだめだわ
515名無しさん@お腹いっぱい。
垢版 |
2025/03/29(土) 08:42:51.92ID:Dnq2XVWC
TeaCacheはComfyUIで正式サポートされてるから確実に入るけどな
ComfyUI ManagerのInstall Missing Nodesで
2025/03/29(土) 21:10:46.44ID:eeeH/917
TeaCacheノードはちょっと前に以前のバージョンが使えなくなって、
代わりのTeaCacheノード(多分515が言ってるやつ)に書き換えた気がする。
動きとしては同じはず。
517514
垢版 |
2025/03/29(土) 23:48:41.32ID:YbSk0hYV
Install Missing NodesでConflictって出て入らない感じ
518名無しさん@お腹いっぱい。
垢版 |
2025/03/31(月) 21:08:00.79ID:/SyGYDBF
シーアートってnsfw画像思うように動かせるん?
やってみたけど口しか動かなかった
519名無しさん@お腹いっぱい。
垢版 |
2025/03/31(月) 21:34:17.36ID:8o7pVZYl
スレ違いかも分からんが、聞いてみる。ram増設やけど、ryzenで4枚挿しで動いた場合メモリークロック落ちるでしょ、それでも容量増やした方が動画生成にメリットあるの?96gb、2枚挿しでクロック高い方が良いのかな、64gb?
2025/04/01(火) 03:32:10.70ID:dTJNF21i
LoRAが増えるとモデルのロードでストレージに漏れて遅くなる(スワップ不足すれば落ちる)
まあ動作させるだけなら32GBとかでも動くみたいだしいったんロードすればモデル変えない限り再ロードないし必須レベルではないんじゃないかな今のところ
逆にメモリ増やしてクロック下がることについては生成時の主な計算はGPUだろうからそんなに悪影響ない気がするそんな詳しくないけど
2025/04/01(火) 05:20:49.15ID:eqx+Ph7D
>>519
メモリ4枚刺してクロックが下がるのは起動安定性のための仕様で
XMPやEXPO対応マザボとメモリならUEFIで適用するだけで上げることは可能(自己責任)
ただ、4枚刺しはメモリの仕様を合わせる必要があり、増設継ぎ足し等下手な買い方するとムダ金になる(クロック下がるだけならいい方で最悪CPUが壊れる)
特にDDR5 48GBx4(192GB) 5600MT/sは対応してるマザーボードが少ないためマザーボードの厳選から必要
動画生成では毎回モデルの読み込みがあるためクロックは高い方がいいがおそらく数秒程度の差(3秒300秒程度かかるうちの数秒)

WanでのKijai LoRA使用での安定目安は最低96GB(けっこうギリ),128GBあればfp8モデルを切り替えても安定,196GBあればfp16を切り替えても安定
DDR5は特にリスキーなんでメモリ2枚で済む構成でいいなら2枚にした方が安全
96GBなら48GBx2(2枚組), 128GBなら64GBx2(2枚組)
192GBにしたい場合だけ4枚を考えた方がリスクは減らせる(マザボ含めて)
2025/04/01(火) 06:20:08.65ID:dTJNF21i
俺が言ったモデルのロードってのはストレージからのロードって意味ね
あとは俺なんかより詳しそうな>>521を参考にすべき
523名無しさん@お腹いっぱい。
垢版 |
2025/04/01(火) 07:49:50.51ID:FCYhL/4+
>>520 >>521 返事ありがとう。ワテの使っているのはddr4 3200 cl22 16gb×2 1.2v、これに別メーカーの同じddr4 3200 cl22 32gb×2 1.2vを買い足そうと思っとる。予算も限られているのでこれが目一杯や。
最近、動画生成始めた初心者やがメモリ増やした方が良いと言うのをネットで見て増設しようと思ったんや。
マザボの説明書だと4枚挿し出来る仕様やが、動かないと言うのもネットで見て少し不安や、4枚挿し初めてやし。
2025/04/01(火) 09:21:01.66ID:eqx+Ph7D
>>523
DDR4ならDD5ほどシビアじゃないけど
メーカー,型番,容量,ロットを合わせた方が成功確率は上がる
その構成(同一ブランドで容量が違うだけの組み合わせ)なら最低限理論上はいける
ちょっと古いマザボだと最大64GBだったりするけどさすがに確認してるよね?
確立を上げたいなら4枚組や次点で2枚組2セット同時購入(店頭目視確認)が安全だけど予算ないならしゃーない
ちなみにDDR4で継ぎ足し増設(同一品の時期違い)したことあるけどXMPで3100までしか上がらなかった
武運を祈る
525名無しさん@お腹いっぱい。
垢版 |
2025/04/01(火) 09:50:16.38ID:mAPjmml5
>>524 ありがとう。増設は128gbまでだと確認してある。色々買い替えたいが、何なら全部変えたいが予算が無いわ。時間掛かるが、まったりやりますわ、ながらで。
526名無しさん@お腹いっぱい。
垢版 |
2025/04/01(火) 21:44:23.89ID:On5GGoGA
Wan21、メインメモリ64GBだとLoRA動かすと不足になる
96GBは最低必要だったか
527名無しさん@お腹いっぱい。
垢版 |
2025/04/02(水) 21:44:00.28ID:E84AcvMt
元々作っていたPromptViewerをwebpアニメに暫定対応してみました
興味あるかたはどーぞ(EasyWanVideo以外のノードで作成したものは情報表示できるか不明)
あと、サムネイル表示でのフォルダ振り分け特化ツールも作ってみました(こちらは操作感ふくめて色々悩み中)
https://github.com/nekotodance
の、PromptViewerとThumbnailViewer
2025/04/03(木) 10:41:43.28ID:DFZQQNId
↑WEBPのプロンプトを手軽に確認したかったので助かる。

 文字が米粒だったのでフォントサイズ直接編集した。
 文字の幅の表示が狭くなるので、画面比率で指定できると助かる。
529名無しさん@お腹いっぱい。
垢版 |
2025/04/03(木) 17:59:25.95ID:+ymwypmj
そのうち設定ファイルに足すかもしれませんが、直接編集して好みのサイズにしていただければ問題ないかと
ただ、Pキーでワークフローも込みで丸ごとコピーできるように修正しました(ver 0.2.4)
530名無しさん@お腹いっぱい。
垢版 |
2025/04/03(木) 21:54:43.02ID:coPip/fE
ryzen7 5700xで96GBに増設しようと32GB x 2 + 16GB x 2にしたらPC起動するが不安定になった
16GB x 4の時は安定してた
4枚差しって難しいんだな
32GB x 4にするか悩み中
531名無しさん@お腹いっぱい。
垢版 |
2025/04/03(木) 22:49:10.39ID:2bek71xc
>>530 ワテも同じcpuで同じ増設予定してたんや。マザボは何使ってんの?
2025/04/04(金) 00:16:21.33ID:+r2g80xt
>>530
同じくナカーマ いま16x2の32GB
2025/04/04(金) 01:18:51.40ID:eLRhFfaI
>>530
同一 容量同一メモリーチップでないとね
534名無しさん@お腹いっぱい。
垢版 |
2025/04/04(金) 02:04:18.34ID:Qs9UwwPa
>>531
マザーは激安ASRock B550M PRO4
メモリはCrucialのDDR4-3200の16GBx2と32GBx2の混在でこれが駄目
同じメーカーだし行けるだろうと思ったが容量違いは駄目なのか

4枚差しだとクロックをDDR4-2666相当に下げないと駄目とマザボの説明書にあったんでBIOSでその設定にしても不安定
結局あきらめて同じCrucial DDR4-3200 32GB x 2をまた買って32GB x 4 = 128GBにトライしてみることにした
余ってしまった16GB x 4は同じ構成のメインPCで使ってみるわ
535名無しさん@お腹いっぱい。
垢版 |
2025/04/04(金) 02:54:07.02ID:F6JrX7RI
>>534 ワイと同じマザボでメモリのメーカーも一緒やんけ…クルージャのddr4 3200 1.2v l22 16gb×2に増設用に同じクルージャの同じ定格メモリ32gb×2がそろそろ届く予定や、駄目なんか…やる気無くすわ、マザボの説明書に書いて無かったよな?4枚差しの場合、同じ容量て。
2025/04/04(金) 08:01:38.74ID:S0E1kCRX
マザボを買うような人は、そこら辺は分かってるという前提なので
537名無しさん@お腹いっぱい。
垢版 |
2025/04/04(金) 13:29:48.65ID:+y/zm7W6
最近SNS動画で流行っている
の太い男性ボイスは
何のアプリを使ってるの?
2025/04/04(金) 13:53:52.11ID:eLRhFfaI
>>535
マザーボードにメモリ対応表が出てるけれども もちろんそれは確認しているんだよね?
539名無しさん@お腹いっぱい。
垢版 |
2025/04/04(金) 14:16:23.69ID:EeuztzHg
>>538 ありがとう、メーカーは確認したよ。今日届いたので差してみたら、上手くいった。
>>534 ワテのは問題無く増設出来た。ただ差しただけで設定とかせずに定格の3200で動いてる。bios、cpu-z、タスクマネージャーで確認。肝心のeasywanの生成時間やが約半分になった、予想以上や!
一応確認するがメモリの差し方、両端を「カチッ」と言うまで押し込んでいるよね?念の為。
540534
垢版 |
2025/04/04(金) 19:38:55.51ID:Qs9UwwPa
>>539
できたのか
うちの環境だと16x2 + 32x2で一見、正常に起動するんだけど、起動してしばらくするとネット接続しなくなったり、動作がおかしくなる感じ
541名無しさん@お腹いっぱい。
垢版 |
2025/04/04(金) 20:33:04.61ID:SNYlOCa/
>>540 うん、いけたわ。マザボのbiosバージョンp3.40 差し順cpuに近い方から16321632 知恵袋で交互に差した方が良いてあった。4枚共定格3200 で特に設定無しで動いたわ。
542534
垢版 |
2025/04/05(土) 13:33:02.03ID:P5ySE5iR
同じ製品32GBx4枚にしたけど、Windows11起動してからちょっとするネット接続が駄目になるわ
ComfyUI+wan2.1は、64GBだと通らなかったLoRAが動くようになったわ
検索しても原因がなんだかわからん。。。
電圧は正常っぽいが
Windows11再インストールするしかないか
543名無しさん@お腹いっぱい。
垢版 |
2025/04/05(土) 15:50:57.46ID:j4kPA9f6
BIOSアップデートしてみてそれでも駄目ならXMP弄るしか無いな
544名無しさん@お腹いっぱい。
垢版 |
2025/04/05(土) 18:55:02.52ID:nqBa5Y3X
>>542 おかしいな、cpu、マザボ共に128gbまで認識する筈なのに。自分の過去の経験からも半差しの可能性を指摘したい、メモリ交換でも結構半差しが原因で不具合出るらしい。
中心の突起を合わせて長い短いをしっかりと確認して溝に合わせたら思いっきり押すんだ、結構強い力で。ワテは親指を重ねて押し込む。
545534
垢版 |
2025/04/05(土) 20:47:34.97ID:P5ySE5iR
>>544
しっかり差してて、128GBの認識はしててWin11起動もする
ただ起動後1分くらいでなぜかネット接続が切れてしまう
メモリ2枚では問題なし
32GBx2 + 32GBx2、32GBx2 + 16GBx2両方同じ状態
同じCPU(Ryzen7 5700x)とマザー(ASRock B550M Pro4)の別PCに4枚差しても同じ症状
Windowsメモリ診断ツールは問題なし
ComfyUIとwan2.1も動作

Ryzen5700Xが2万ちょい、ASRock B550M Pro4が1万弱と激安、Curcialの32GBx2も1.4万で安くてどれも価格コム売れ筋上位なんで
この構成で組んでる人結構多いとは思うけどあまり情報ない
メモリの電圧を1.35Vに上げても駄目
BIOSで細かくタイミングをいじるしかないのかな
メインメモリなんて32GBあればずっと十分だったからあまり気にしたことなかった
546名無しさん@お腹いっぱい。
垢版 |
2025/04/05(土) 21:19:12.64ID:nqBa5Y3X
>>545 そうかぁ、差し方問題無いかぁ。同じスペックでもう一台あって、そっちも駄目。両方とも駄目だと言うのが気になるね、同時に故障しないだろうし他の人言ってた様にbios上げてみるとか?
547534
垢版 |
2025/04/06(日) 00:45:01.27ID:tY4fS+cx
BIOSは最新のにしてるんですが駄目ですね
メモリ電圧を1.37Vまで上げたり、クロックを下げたりしても駄目でした

4枚挿し128GBのハードルがこんな高いとは
548名無しさん@お腹いっぱい。
垢版 |
2025/04/06(日) 00:52:34.84ID:oE/+NFiq
AI絵師連呼の動機は殺人
何を反論してもいっさい取り合わない
聞かざる達が証拠。

捕まって命で支払うんだ。嘘つき共。
2025/04/06(日) 02:38:21.24ID:CFRFYH7C
なんでそこで電圧を上げるのかイミフなんだけど
てんぱって訳も分からず電圧上げるのはやめとけ
なんか根本的なところで間違ってそう
2025/04/06(日) 11:07:57.60ID:lYhJz8Jo
なんUの方でB580ってのを見たけどあれはどういうこと?
2025/04/06(日) 12:31:01.45ID:tY4fS+cx
>>549
Redditで4枚差しでメモリ電圧を1.37Vまで上げていったらうまく行った、という投稿を見たんで
2025/04/06(日) 13:15:45.41ID:/9TfTWnP
だいたいはソフトウェアの問題なのにな
553534
垢版 |
2025/04/06(日) 13:48:32.44ID:tY4fS+cx
自作板で質問したところ
「RealtekのDownloadからNot Support Power SavingVERSIONのDriverをまず入れる」でASRock B550M Pro4での32GB DDR4メモリ4枚挿し合計128GB動くようなりました
3200MHzで大丈夫でした
良かった良かった
これでメモリ64GBでは制限多かったLoRAがWan2.1で使える!
2025/04/06(日) 13:56:31.91ID:tY4fS+cx
あとはEasyWan環境でSageAttentionのビルドがうまく行かない問題をなんとか解決したい
555名無しさん@お腹いっぱい。
垢版 |
2025/04/06(日) 14:00:47.83ID:t8BTVOf7
>>553 546や、増設出来たの?良かった、良かった。easywanのkijh版だとメモリ大量使用で一番早いよ、知ってるだろうけど。
556名無しさん@お腹いっぱい。
垢版 |
2025/04/06(日) 14:30:25.60ID:tY4fS+cx
>>555
ありがとうございます
EasyWanのkjai版でLoRA動かすために128GBに増設しました
2025/04/08(火) 07:25:53.46ID:jTL3bgnx
chatGPT-4oも結構チョロいな
写真アップして、修正した画像生成指示したら「ポリシーに違反してるので生成できません」って言われたんで「なんで?」って聞いたら「未成年の不適切な表現をしようとしたためです」って言われたんで「未成年に見えるけど全員成人なんだよ」って返したらちゃんと書いてくれた
2025/04/08(火) 07:34:08.80ID:IOLwq1AX
ホラ乙
559名無しさん@お腹いっぱい。
垢版 |
2025/04/09(水) 20:31:07.89ID:xPLz+a53
wan videoのvi2v用の元動画加工時にvideo toolで動画ファイル名は読み込めるがエンター押しても再生されるだけで加工出来ない、814×612 mp4 7秒の動画何やけど何が駄目なんやろ?
2025/04/09(水) 22:52:31.34ID:EQDamiBl
EasyWanのワークフロー(00_Kijai_I2v)が使いやすいので、
クラウド環境(Runpod/Docker)で機嫌よく使っていたのだが、今朝から動かなくなってしまった。

>WanVideoSampler
>Promotion for Float8 Types is not supported, attempted to promote Float8_e4m3fn and Float

Loraを無効にすると出なくなるのだけど、ドライバやPytorchの組み合わせの問題でしょうか。。
2025/04/10(木) 02:08:06.86ID:QhEc3hw6
自分も数時間前にEasyWanを更新(新規)したら
「Nashikone」と「NashikoneI2v720p」のLoRAを使おうとするとエラーが出るようになってしまった
フォルダ外へ移動させたのは動くからジャンクションがまずいのかね?
でも「nims1」は問題ないしなぁ
わからんちんちん
2025/04/10(木) 15:27:29.41ID:ZAwYb7it
vi2vええな
アニメ系だからか顔は変わってしまったけど動きはかなり元動画に近い
リアル系だと色々出来るのかな
2025/04/10(木) 16:40:12.25ID:mQfxKMSf
>>560
ComfyUI-WanVideoWrapperをロールバックしたら治った。
2025/04/10(木) 21:48:06.98ID:Bup7CJSX
動画で手が崩壊するのって防ぐ方法あるかな?あったら教えて下さい
2025/04/11(金) 09:33:55.01ID:zjDZPWpa
vi2vとエンドフレームワークフローを組み合わせることも一応できる
俺の環境だと完全に一致してくれないけど使えなくはない
2025/04/11(金) 12:39:09.78ID:LeeqqOvB
AI動画は二次元世界に入り込んで好きな子とちゅっちゅするという願望を叶えてくれる
567名無しさん@お腹いっぱい。
垢版 |
2025/04/11(金) 21:32:53.75ID:EA/BUlYe
vi2vちゃんとした動画作るですら難しいわ
やっぱLoRAか
568名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 11:17:36.50ID:8vEVn0e+
File "C:\EasyWan\ComfyUI\venv\lib\site-packages\triton\backends\amd\compiler.py", line 2, in <module>
from triton._C.libtriton import ir, passes, llvm, amd
ImportError: DLL load failed while importing libtriton: ダイナミック リンク ライブラリ (DLL) 初期化ルーチンの実行に失敗しました。



SageAttentionのビルド必要なくなったEasyWanでSageAttention使おうとしてもtritronのdllがないとか言われて駄目だ
569名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:19:02.77ID:8vEVn0e+

解決した
EasyWan環境とは別にpythonインストールしてる場合の問題
pythonがインストールされてる全てのフォルダをコマンドプロンプト(PowerShell)から「where python」で探し
python.exeと同じ全てのフォルダに「msvcp140.dll」「vcruntime140.dll」「vcruntime140_1.dll」の3つのdllファイルを
「c:\windows\system32」からコピーすればSageAttention使えるようになった

参考
https://github.com/woct0rdho/triton-windows?tab=readme-ov-file#test-if-it-works
570名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:23:23.81ID:8vEVn0e+
SageAttentionは、AIモデルの推論を高速化するための量子化技術を活用した注意機構です。
この技術は、特にGPU上での効率的な動作を目指して設計されており、以下のような特徴があります:

INT8量子化: 精度を保ちながら計算を軽量化し、推論速度を向上させます。
スムージング技術: アウトライア(外れ値)を平滑化することで、計算の安定性を向上。
プラグアンドプレイ: 既存のモデルに簡単に統合できる設計。
幅広いGPU対応: AmpereやHopperなどの最新GPUアーキテクチャに最適化されています。

この技術は、FlashAttentionやxformersといった他の注意機構と比較しても、速度と精度の両面で優れたパフォーマンスを発揮することが報告されています

SageAttentionはTritonを活用して実装されています。TritonはGPUプログラミングを効率化するための言語であり、SageAttentionの高速化や効率的な動作に寄与しています

Tritonは、OpenAIが開発したGPUプログラミング言語で、特に機械学習の高速な計算処理をサポートする目的で設計されています。以下のような特徴があります:

シンプルなGPUプログラミング: CUDAに代わる簡易な方法でGPUの並列計算を実行可能。
自動並列化: コードを簡潔にし、効率的な計算を実現。
動的カーネル生成: 最適な演算プランを適用する機能。
メモリ管理の最適化: 高速なデータ転送を可能に。
571名無しさん@お腹いっぱい。
垢版 |
2025/04/12(土) 21:30:22.09ID:8vEVn0e+
1. ディフュージョン・トランスフォーマー(DIT)内部での自己注意
Wan2.1の中核部分として用いられているのが、Denoising Diffusion Transformer(DiT)です。
DiTは従来の畳み込みニューラルネットワークとは異なり、
Transformerアーキテクチャに基づいた構造となっており、自己注意(Self-Attention)層を複数積み重ねています。
この自己注意機構は、各フレーム内の局所的な空間情報だけでなく、動画全体における時系列的な依存関係も同時に学習するのに役立っています。
たとえば、フレーム間の連続性や、シーン内の細部の関連性を捉えることで、全体として一貫性のある動画を生成できるようになっています。[¹^]

2. テキスト・プロンプトとのクロスアテンション
Wan2.1は「Text-to-Video」など、テキスト入力による動画生成もサポートしています。
この場合、テキスト情報を映像生成に効果的に反映させるため、
クロスアテンション(Cross-Attention)が利用されます。
具体的には、T5エンコーダーなどのテキストエンコーダーにより抽出された意味的な特徴が、
生成プロセス内の各段階で映像情報と融合され、テキストに即したシーンや動作が形成される仕組みになっています。
2025/04/12(土) 21:32:43.62ID:8vEVn0e+
アテンション機構内で最も計算負荷が高いのは、クエリ (Q) とキー (K) の内積計算です。
この処理では、入力シーケンス内のすべてのトークンに対して、
各トークンのクエリと全トークンのキーとの内積を計算する必要があり、
その結果、生成される注意スコア行列のサイズはシーケンス長の二乗に比例します。
たとえば、シーケンス長が N の場合、計算量はおおよそ O(N²) となり、大規模なシーケンス処理ではこれが大きなボトルネックになります。


wan2.1ではアテンション(注意機構)がかなり使われるんで、アテンションで一番重いベクトルの内積計算を8bit整数に量子化して計算するSageAttention入れると精度は犠牲になるけど生成が速くなると
2025/04/13(日) 17:48:24.63ID:UJqhbz6P
そのへんのVisualStudioとの連携がうまくいってないのよくあるよね
モデル名忘れたがText2Speechの音声合成でも同じようなこと起きた記憶
2025/04/14(月) 00:50:03.70ID:Dt/Ge+Tn
そうなんだ

今度は、EasyWanで最初と最後のフレームの画像を指定する03_Kijai_I2vEnd.jsonと02_KijaiFun_I2vEnd.jsonで

RuntimeError: Sizes of tensors must match except in dimension 0. Expected size 480 but got size 464 for tensor number 1 in the list.

ってエラーが出て行き詰まり中
最初のフレームの画像だけ指定する普通のi2vは同じ画像でこのエラー出ないけど
2025/04/14(月) 07:10:02.05ID:uM+aKqRG
入力画像のサイズが合ってないんじゃないかな
2025/04/14(月) 10:58:59.03ID:UoV0bWKU
>>574

多分これじゃないかな(218から始まるツリー)
https://fate.5ch.net/test/read.cgi/liveuranus/1744454985/240
577名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 20:38:09.11ID:frRftHx+
LTX videoやってる人いる?早いの?
578名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:10:39.60ID:Dt/Ge+Tn
>>574
ありがとう
なんJにEasyWanの作者さんが常駐しててそこがEasyWan本スレだったとは
update.batかけたら修正されてた
579名無しさん@お腹いっぱい。
垢版 |
2025/04/14(月) 21:21:32.90ID:Dt/Ge+Tn
EasyWanで長い動画

(1) 初期画像をワークフロー00_Kijai_I2vで、3秒くらいの崩れない範囲で何個も動画生成
(2) 生成した動画から良い動画を選び、さらにその動画をコマ送りして良いコマの画像を選び、そこまでの動画を切り出して出力(コマ送りと切り出しはTMPGEnc VideoMasteringとかで
(3) 選んだコマ画像を次の初期画像にして(1)へ

あまりに顔が崩れたらワークフロー02_KijaiFun_I2vEndで一番最初の画像に戻す動画を生成

最後に切り出した動画全てをffmpegとかでつなぐ

なかなか時間がかかる
2025/04/15(火) 01:13:04.67ID:vai9GtxV
動画繋げても動きの緩急が一気に変わるから違和感半端ない
2025/04/15(火) 06:20:33.57ID:YpbAcxWn
Kijai版のWanVideo Context Option使って81フレーム超え作る事も可能だけどVRAM富豪じゃないとあかんからなあ
2025/04/15(火) 11:31:26.26ID:ktG5FtZS
wanだとVRAM8GB(RAM64GB)でも161フレーム作れたけど生成3時間弱かかってガチャはとても無理だったよ
6秒だと30分くらいなのに、VRAMから溢れ出すとやっぱり急に遅くなるね
2025/04/15(火) 11:32:05.48ID:ktG5FtZS
fpsいい忘れた、16だから161は10秒っす
584名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 03:03:25.99ID:0lAZB8Qo
WAN2.1のlora作ってる人に聞いてみたいんですが
どんな学習素材と設定でやってますか?

画像生成の方と違って情報が少なすぎて…
2025/04/16(水) 08:05:10.26ID:zWaDIqPE
Wanは生成が遅いのがダメだね クオリティはあるんだけど
2025/04/16(水) 08:15:52.03ID:Q5g0CTsA
Wanは最低でもVRAM16GB, RAM96GBはないとまともに生成できないと思った方がいい
2025/04/16(水) 09:38:14.40ID:K0Ax00TT
wan14Bは1280x720の81フレームで10分ぐらい蒸留すれば6分ぐらいで生成できる
もう少し早くなればいいけど今は1.3Bでガチャして遊ぶのが好きだわ
588名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 11:57:12.22ID:h4HCsIOB
解像度高くて秒数多いとどうしても時間かかるから、もっと時短で確認だけでもする方法ないだろうか
41フレーム、81フレーム目だけでも画像で見せてくれれば、破綻没作に時間割かなくても済みそうだけど
2025/04/16(水) 12:15:45.69ID:K0Ax00TT
>>588
生成中のpreviewである程度見れる
590名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 16:34:19.82ID:J4pARLav
ComfyUIのブラウザの左上あたりにずっと「Type here to search」って検索窓みたいなの出てるんだが、これなに?
じゃまでしかないんだけど、消し方がわからん。
591名無しさん@お腹いっぱい。
垢版 |
2025/04/16(水) 17:06:31.60ID:J4pARLav
>>585

数十分待って、ガチャ失敗してるの最悪
2025/04/17(木) 05:16:36.11ID:jFEcKhdJ
>>589
preview設定どこにあるの?
2025/04/17(木) 08:16:56.50ID:cV2N4eAi
Preview

settings->VHS and set "Advanced Previews" to "Always"

at the top set "Preview method" to "Auto"
594名無しさん@お腹いっぱい。
垢版 |
2025/04/17(木) 09:20:30.84ID:VGVastie
【速報】動画生成AI『Kling』が2.0にアップデート!
2025/04/17(木) 19:49:39.91ID:ndyzAyOU
動きを大きくすると外人成分が濃くなっていって誰?になっていく罠
結局、外人化抑えるため、プロンプト控えめにして動き小さくして量産しとる
2025/04/17(木) 22:04:13.51ID:mPsKqN+1
https://github.com/lllyasviel/FramePack
2025/04/18(金) 11:34:26.07ID:5m2w5oNF
FramePackってForge作者のイリヤスフィール氏の新作で、VRAM消費が少ないってことだけど
中身はHunyuanVideo。それをちょこっと作り直しただけだね・・・。
4090使っても5秒の動画に15分かかる。こんなに遅いんじゃWan2.1で十分じゃないかよ
2025/04/18(金) 15:12:20.62ID:fSFGWptC
FramePack、確かにフレーム数多い動画を省メモリで作成出来るんだけど、
動きはやっぱりHunyuannだなぁって感じで、背景とか全く動かないんだよね。。
全体的な動きはWan2.1の方が上だと感じる。
出たばっかなので今後改良されていくとは思うけど。
2025/04/18(金) 15:54:58.56ID:so4hvG+k
lllyasvielニキだからたぶん改良せずに終わると思うよw
2025/04/18(金) 17:38:58.29ID:V4n9RjWA
なーにこっからkijai氏はじめ有志も魔改造始めるだろうて
2025/04/18(金) 17:43:36.88ID:3VIZdzdk
Wan2.1と同等の生成速度じゃないとな厳しいよなぁ
2025/04/18(金) 18:43:10.34ID:ZYBaUkV8
アダルトアニメ動画のアルゴリズム第二世代
このやり方教えろよお前ら
これがあればAVを作れるんだから
2025/04/18(金) 18:45:41.85ID:q0HQPzhk
ワンクリック版が出たで
UIも超簡単や
604名無しさん@お腹いっぱい。
垢版 |
2025/04/18(金) 20:41:59.36ID:HZWmpfGS
>>597
VRAM少なくていいというのが大きい
6GBで行けるならiPhoneやiPadでもいけるはず
まあ生成時間はかかるだろうけど出来るかできないかの差は大きい
そうなるとユーザーが増えるのでLoraも増える!
色々改良する人も出てくるだろうさ
2025/04/18(金) 21:22:07.16ID:kDLyI7LJ
framepackは生成中も出来上がっていく動画眺めてられるのがええね
2025/04/18(金) 22:10:01.02ID:5k9KWNmV
framepackって終わりから始めに向かって生成される?
間違えて100秒でスタートしたら全然終わらんけど
少しずつ時間が前に向かって生成されてる気がする
5秒で生成したらmp4の時間が短いからかサイズが小さいからか
Windowsのデフォのプレイヤーだと再生できない
ブラウザに放り込むと再生できるから生成に失敗してるわけではない
2025/04/19(土) 01:33:11.29ID:2nF2NXT2
初期版はコーデック指定が特殊で再生環境を選んだけど
今は修正されたようだよ
2025/04/19(土) 01:49:38.42ID:oL1pxSEo
GPUを6GBに設定しても12GB使ってるしメモリは50GB使っとる
2025/04/19(土) 05:04:04.47ID:XXSLLha5
6GB単位で並列しとるんじゃよ
2025/04/19(土) 05:26:38.56ID:X5X5Smen
12GBあったら倍速になるってこと?
611名無しさん@お腹いっぱい。
垢版 |
2025/04/19(土) 19:50:11.86ID:gTelBzvm
VRAM6GBのHPノーパソで動いたわ
forgeと同じくらいアツアツだけどたまに触るならいい感じ
NAIで出した版権絵がそのまま踊るの怖過ぎる
これ表に出したら炎上するな
2025/04/19(土) 20:48:42.14ID:0TIlqO4S
FramePack昨日知って今試し中
ビデオメモリ6GBのサブ機で一応動いてるけど、メインメモリ32GBしかないからどうなることやら
2025/04/19(土) 21:31:24.79ID:oL1pxSEo
3060だが12GB選択したほうが早く生成される

タスクみると6GBでも12
GBでもGPUほぼ100%使ってるのが謎
2025/04/19(土) 22:32:44.57ID:0TIlqO4S
5秒のはずがなぜか4秒で終わってしまった
1時間以上かかったw
615名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 01:09:53.91ID:6D4KjzYM
>>597
4090環境で5秒動画作るのに3時間半かかったんだけど。入力画像1080×1920が良くなかったのだろうか。
2025/04/20(日) 10:58:24.96ID:BhB7DgiL
でかい画像入れても結局リサイズされるから関係ないと思う
2025/04/20(日) 15:30:00.80ID:yZwN+9T+
FramePackなんで流行ってるのかよくわからない
破綻少なくても動きの制御出来ないし動きがスローになるし背景の時間は止まってることが多い
618名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:48:35.65ID:h70gme1e
comfyみたいに初見で「うえっ」となりにくいwebUIだからとっつきやすいんでしょ
619名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 15:51:33.78ID:iUCULtja
新しもの好きが触ってるだけだよ
エロできるようになってからが本番
2025/04/20(日) 18:01:52.78ID:MzBv5fTa
>>619
みんな試してるだろうけどアダルト規制ないよ。ローカルで使える動画生成としては一番手軽でエロ利用可能
2025/04/20(日) 18:29:51.68ID:InosU5ej
エロプロンプトへの追従性が低いって事じゃねえかな
622名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 18:39:14.68ID:Gpya3ZYf
エロ系の動きがスポイルされてるんじゃね感
初期のSDXLみたいにすっぽ抜けてる
2025/04/20(日) 20:17:06.00ID:qGhrWgJX
civitaiにあったWan2.1用の女の服を脱がせる系Loraが軒並み消されてるな
624名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:35:50.67ID:6D4KjzYM
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
625名無しさん@お腹いっぱい。
垢版 |
2025/04/20(日) 21:39:54.92ID:6D4KjzYM
ComfyUIでWan2.1動かしてたんだけど
GGUF版だとプロンプトに全然従わないのかな?
ただGGUFでもi2vで5秒出すのに20分近くかかる。
もうちょっと高速化されないとガチャ回す気にもならない。
626名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:13:05.86ID:2nr+78fQ
ワテのスペックやとwan2.1はきつい、ram増やしてeasywanで何とかやってる。
627名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:55:26.67ID:c7OcIU8u
>>625
わかる
628名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 00:57:15.90ID:c7OcIU8u
動画生成ってこんな時間かかるんだな
動画をローカルで自由自在に生成できる未来は遠そうだね
2025/04/21(月) 03:45:39.73ID:wwgEZgNC
vi2vならガチャせんでもいいと思ったけど
アニメのエロモーション動画がそもそも少ない
現実のAVならいっぱいあるけど
630名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:00:49.99ID:tT9VOlNi
動画生成のプロンプトwikiってないのかな
NAI 5ch wikiみたいなさ
631名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:30:54.04ID:eYnD80my
>>616
マジか。しかも背景ほぼ固定
これは完全にwan2.1の勝ちかな
今のところ
632名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 08:37:31.23ID:gLySYCrG
>>628
SDも当初から比べれば生成速度はだいぶ早くなったから
そのうち早くはなるだろうけど
5090とか4090で1〜2分で5秒動画が出せるくらいにならないと厳しいな
2025/04/21(月) 15:22:45.35ID:9D5Crj+6
背景固定じゃなくて逆に背景のピンボケの小さな人物が歩いて、主人公がほぼ固定になった
2025/04/21(月) 15:37:26.21ID:9D5Crj+6
クソ時間かかるけどガチャしないから静止画1枚より時間かからないとも言える
2025/04/21(月) 16:00:02.52ID:XZlvQMxQ
背景水面だとプロンプト書かなくても割と自然に揺らめいてくれるし
露骨なモーションは無理でも体くねらせて角度が変わっても
(何がとは言わないが)綺麗に破綻なく描写してくれるので
昔生成した健康的な温泉プロモ画像を次々と温泉ダンス動画にしてるわ

手作りラーメンの様に自由な味には作れないけど
気軽に狭いキッチン(VRAM)でも作れるカップ麺的な価値はあるかな
2025/04/21(月) 16:03:43.50ID:9D5Crj+6
プロパティにもビデオプレーヤにも4秒って表示されるからおかしいなあと思ってたけど、ストップウォッチで測ったらちゃんと5秒あったw
637名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 16:22:16.02ID:kf2iGxFE
FramePackって、ファイルを入力するときにオフラインだとエラーになるんだが
これ解消法ない?
2025/04/21(月) 17:37:46.32ID:cXLJ1ads
1秒の動画を作るのに300秒かかっている これだとちょっと厳しい
2025/04/21(月) 17:43:58.78ID:ElsAcF4j
wan1.3bなら97fで3分ぐらいだな
2025/04/21(月) 18:20:36.98ID:d1OJNV8L
svdがまともに使えるようになる日はいつ来るのか
641名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:04:43.99ID:WVHVKGJ7
FramePackってフレームレートの設定は出来ないのか
1秒辺り10コマあれば良い
642名無しさん@お腹いっぱい。
垢版 |
2025/04/21(月) 19:37:11.40ID:kf2iGxFE
FramePack、RAMはめっちゃ使うのにVRAM全然使ってくれないのはなんで?
16GB VRAMなのに6GB程度しか使わないんだが
2025/04/21(月) 22:14:55.93ID:w5SwUVXr
FramePack導入して試してみた

うちだとメインメモリ64GBとVRAM16GBどっちもほぼフルで使うな
生成終了後に、メインメモリは解放されないけどVRAMは解放される挙動が気になる
2025/04/21(月) 22:38:01.21ID:PsceRiNk
動きがスローモーションぽいのどうにかならんかな
キビキビ動いてほしい
2025/04/22(火) 08:17:50.57ID:hdioz1Im
>>644
動画編集アプリで再生速度速くして動画再作成すればいい
2025/04/22(火) 08:21:18.05ID:BlOaMonv
>>625
VRAM減らす量子化GGUFは通常版より遅くなる
まぁそのうち高速版が出てくるのでは?
Hunyuanの6steps Fastモデル + TCacheが速い 動きの精度はWanに負けるけど
647名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:00:06.96ID:F2ip0g3w
>>646
GGUFの方が遅くなるのか
TCache使うと変なノイズが生まれるからそこに悩まされている
648名無しさん@お腹いっぱい。
垢版 |
2025/04/22(火) 10:43:05.72ID:kOVg4QMl
ステップ数減らす、TCache、GGUF
どれを犠牲にするのがクオリティと速度の影響コスパがいいのかいまいちわからん…

感覚的なものでいいので皆様感想教えてくだせぇ

自分はステップ30までは優先してあげるのがいい気がする…
感覚的なものでたまたまガチャ当たった成功体験イメージかもしれんが
2025/04/22(火) 11:20:37.48ID:P+gHN7s/
グフ
2025/04/23(水) 13:01:18.94ID:cHADN1Vl
FramePack使ってみたけど、
ダンスはまあいいかな。適当な入力画像でもちゃんと踊ってくれる。前側しかない画像でも背中ちゃんと想像で書いてくれる

で、ダンス動画が出来たから何?って問題が
プロンプトに色んな動作入力しまくってるけどまともにアクションしねぇ・・・
2025/04/23(水) 13:57:00.13ID:mS137RmW
FramePack日本以外じゃ流行ってないし…
外人に滑らかに動くゴミだって言われてて笑った
652名無しさん@お腹いっぱい。
垢版 |
2025/04/23(水) 14:56:10.60ID:mFoZwJjD
wan2.1のほうがいいからね
2025/04/23(水) 16:17:06.18ID:s+bjE77v
FramePackの滑らかさと破綻しにくさでWan2.1並に動かないとローカル動画は先に進まないとは思うけど
人によるけど現状動いてくれた方が良いからwan2.1の圧勝だよな
2025/04/23(水) 16:48:07.59ID:cHADN1Vl
破綻やちらつきの少なさは武器だと思うけどねぇ

画像:好きなエロ画像
プロンプト:They shake their bories.
で及第点の動画は生成できそう。プロンプト頑張っても成果は得られなかった・・・
2025/04/23(水) 22:43:27.90ID:rl46ym8l
>>651
ああやっぱそうなのか
張り切ってダウンロードしたけど全然だめでなにこれってなったわ
たぶんキーフレームとか全部細かく設定してやればいいのかもだけど
それはちょっとめんどすぎるだろっていう
EasyWanvideoなんだけど該当ファイルがどれなのかわからんので消せねえ・・・・・・
2025/04/24(木) 00:13:07.29ID:J6Ur1wr/
wan ユッサ、ユッサ。FP ポヨン、ポヨン。
2025/04/24(木) 10:07:59.31ID:NZp0SxQi
>>655
>たぶんキーフレームとか全部細かく設定してやれば

そんなん設定するところ無いだろ
2025/04/24(木) 10:39:08.12ID:CGEdAwuM
とか言ってる間にFramepack-eichiとか出てきたな

まだ入れたばかりでキーフレームは試してないけど
最終フレーム指定だけでも
たくし上げやポロリやクパァは簡単にできそうね
2025/04/24(木) 10:46:47.10ID:NzRqWTiT
叡智版はイリヤ神版から「低VRAM動作」と「簡単操作」の神要素を排除してただのHunyuan Videoに戻しただけ感
2025/04/24(木) 11:55:46.47ID:NvB+bnas
多くの人が試してみたくなるような話題になった先端機能をいち早く実装してくれてる開発者に対して
よくもまぁそんなネガティブな言葉を発せられるもんだね

自分のニーズに合わないのなら使わなきゃ良いだけなのは何もこの事に限った話じゃないだろう
2025/04/24(木) 12:20:47.16ID:LJxxne0t
Grokとか一番信用出来ない
おすすめポストに興味がない何度クリックしても何度も再表示される 
2025/04/24(木) 12:36:11.76ID:q3FY7r1c
wan初めたばかりで楽しい
2025/04/25(金) 09:05:25.48ID:22UYVesT
FramePackの欠点はずっと1stフレームを参照するせいで背景の通行人が
ずっと同じ位置で足踏みしたりして、そういうのが破綻してる
ドライブ映像だと背景が固定されたりするし
せいぜいアニメのループモーションに役立つ程度だねぇ
664名無しさん@お腹いっぱい。
垢版 |
2025/04/25(金) 17:02:26.19ID:ypM27SIZ
質問する場所がここで合っているか分かりませんが質問させていただきます。ComfyUIでWAN2.1を動かそうと思っているのですが、この表示が何度も出てしまいうまくいかないです。GPTに聞いているのですが堂々巡りでずっと同じ対処を繰り返していて、解決に至りません。どなたかご尽力いただけると幸いです。
https://i.imgur.com/ERZrDyx.png
https://i.imgur.com/E4Sb58N.png
https://i.imgur.com/hvSsbId.png
2025/04/25(金) 17:35:11.79ID:GKNtftcN
そのままの意味だろ
ノードが無い
ウインドウ右下にインスコマネージャーのボタンが有るだろ
2025/04/25(金) 17:47:36.00ID:lbk6St06
なんとなくノードがないというのを理解してなさそう
そこからなのか…(困惑
2025/04/25(金) 17:58:34.38ID:UzTtLmHz
まずは足りてないカスタムノードをインストールするんだ。
そういや、今のcomfyuiってミッシングは自動的にダウンロードするようになってなかったっけか?
モデルだけだったかな?
2025/04/25(金) 19:20:30.90ID:v92A8Zqv
英語が出来る必要は無いが
この程度の英文をgoogle翻訳にすらかけられないものだろうか
それじゃプロンプトすら書けないだろうに
2025/04/25(金) 22:29:29.79ID:R+zLUgS8
やっと4090環境が出来た
4080の悲鳴から解放された
2025/04/26(土) 02:14:35.84ID:/KVOMXQC
調べるのは出来ないけど丁寧な質問はできる人間と顔も知らない相手に嫌味を言うしかしない暇な人間と
2025/04/26(土) 02:30:28.50ID:zftaZOkM
恋しさと切なさと心強さと
2025/04/26(土) 04:04:10.51ID:pjg5dH3o
>>670
ちょっと調べれば分かる事を調べもしないで聞く他力本願
そういうのは丁寧とは言わず狡猾と言うんだよ
公への質問とは何度も調べて試して駄目だったから助けを求める者がする事
2025/04/26(土) 06:51:39.65ID:bszvPwgq
FramePack-eichi が面白そう 詳しくはNote.comの記事参照
複数のキーフレームを用意することで狙い通りに動くようだ
2025/04/26(土) 07:21:40.24ID:i5ZFqL3D
>>673
試してみた?
自分は複数キーフレーム用意する時点で挫折しているんだが
675名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 09:51:16.57ID:hQnGwCGG
叡智でlora適用でやってもサンプル1秒から増えないんだが。時間かかるのか
676名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 11:11:26.75ID:+bUq4Vdw
ああカスメとかコイカツとかLive2Dない人はi2iの構図元すぐでねぇのか
2025/04/26(土) 14:30:56.93ID:jMHnySbo
久々に来たらレベルが低いのが混じってんな
2025/04/26(土) 15:00:46.09ID:vi4g1wkF
よう昨日ぶり
2025/04/26(土) 15:21:22.82ID:3a9LxDdL
数日前に出たWan2.1用の脱衣系Loraがまた消えてるな
規制が厳しくなったのかと思ったけどHunyuanの脱衣系Loraは普通に残ってるんだよな・・・
680名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 16:08:41.06ID:0sW0ypg8
FramePack-eichi
早速環境構築して5秒動画生成中
i7-16gb Rtx4060ti16gb
メインメモリパンパン
gpuメモリ余裕(12gb消費)
1時間でやっと8%進んだよ
2025/04/26(土) 16:50:58.70ID:cogARbrv
16GBて
よくOOMにならんな
2025/04/26(土) 17:03:27.70ID:3a9LxDdL
>>680
RTX3080(12GB)でも6秒生成に12分だぞ

>>681
いやVRAM16GBあったらFramePackでOOMになりようが無いだろw
683名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 17:09:22.53ID:+bUq4Vdw
>>680
SSDすごい勢いで削ってるヤーツ
2025/04/26(土) 18:24:32.52ID:qGqLJFlQ
メモリ64GBでも足りねーって言われている動画生成で16GBでチャレンジするのはかなりきつくね?
685名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 18:38:45.00ID:0sW0ypg8
あーメモリ増やさんとダメか
32gbがマザボの上限なんだよなあ
2025/04/26(土) 18:39:19.06ID:8sUaWkGr
オンラインの動画生成AIの進歩がすごすぎて
2世代くらい遅れてるローカル環境の動画生成AIでは満足できない
2025/04/26(土) 18:43:25.63ID:gvPZDAGq
スマソ動画初心者なんだがメインメモリの容量とか仕様が関係するの?
2025/04/26(土) 19:11:46.88ID:Lrx1oh61
>>686
エロ出来るだけでだいぶ満足出来るわ、その領域はサブスクサービスだと不可能だから
2025/04/26(土) 19:29:35.27ID:IgI4NaRs
>>687
動画生成ではメインメモリは関係大アリ

時々勘違いしている人がいるんだけど、FramePackがVRAM6GBで動くというのはVRAMだけの話であって
メインメモリはたくさんいるのよ

FramePack(本家、kijai両方)やHunyuanVideoやWanのkijai版ワークフローの場合、モデルは基本的に
メインメモリに展開される。モデルの一部をVRAMに載せられる範囲で載せ、載せられない部分は
メインメモリに載せて動画生成処理を行う

HunyuanVideoだと、プロンプトを処理するllava_llama3がFP16で16.1GB、動画を生成するモデル本体が
BF16で25.6GBもあるし、FP8モデルでもllava_llama3が9.09GBで、本体が13.2GBだから、本体はGeforce
3060 12GBの場合どうやっても全部は載せられない

モデルは他にVAEが必要だし、I2Vや開始終了画像指定の場合画像を処理するVLMがさらに必要になる
全部でFP8でも25GBぐらい、FP16では50GB近くあり、VRAMに入らない部分はメインメモリに展開しないと
いけない

だからメインメモリが32GBでも厳しいという話になるわけ

ComfyUI Native版HunyuanVideoやWanワークフローの場合もそのままでは同じだけど、GGUF形式で量子化
(圧縮)したモデルを使うよう修正したワークフローが存在する

GGUFの場合、llava_llama3がQ4_K_Mで4.92GB、本体がQ4_K_Mで7.88GBだから、直接VRAMにllava_llama3を
載せ、プロンプト処理後にllava_llama3をアンロードし、本体をVRAMにロードして動画生成するならVRAMに
全部収まり、メインメモリは使わずに済む(実際は両方メインメモリにも展開されていると思うが)

GGUFはモデルを小さくした分精度が下がるので、生成される動画の品質は下がってしまうけどね

なお、現状FramePackはGGUFに未対応でつ
2025/04/26(土) 20:58:05.84ID:gvPZDAGq
>>689
言ってる事の半分も理解できないけど、動画ではメインメモリの容量が大事なのは伝わった。当然速度も早い方がいいのだろうけどまずは容量なんだね。
半分くらいは理解できたのでありがとう
現状32GB 3060VRAM12GB
128GBは現実的じゃないけど64GBにするのはかなり前向きに考えてる
グラボは5080買うんでそれを機にウpしてみる
ありがとう そしてよろしこ^^
2025/04/26(土) 21:02:22.66ID:3a9LxDdL
>i7-16gb Rtx4060ti16gb
>メインメモリパンパン

こう書いてあるからCPUはi7-16gbでグラボはRTX4060ti(VRAM16GB)
メモリは何故か伏せられているけど「パンパン」と表記してるから
恐らく最大値積載とエスパーして128GBか256GBと仮定してレスしてたわw
いやまさかRAM16GBとは思わんやろ・・・
2025/04/26(土) 21:08:02.41ID:3a9LxDdL
>>690
マジレスすると現実的に考えてメモリは128GB積んでおいた方がいいぞ
俺がいま128GB積んでるけどFramePackが半分の64GBくらい占有してる
他のAI生成でもメモリ積載量は大正義だからよほどの理由が無い限りはマジで128GB積んだ方がいい
2025/04/26(土) 21:17:48.76ID:gvPZDAGq
ってことは動画メインに考えるならグラボよりメモリに金使えって事かいのう?
2025/04/26(土) 21:21:04.59ID:gvPZDAGq
ろろろろ六万!
2025/04/26(土) 21:25:37.00ID:3a9LxDdL
両方やな・・・
これは金のかかる遊びなんや・・・
俺はいまRTX3080(VRAM12GB)だけどグラボを新調する余裕は無いからメモリだけでも爆盛りしとこうと思って128GBにしたけどWan2.1でもFramePackでも効果絶大で快適に生成出来るようになったよ
何より生成中にPCで他の事を出来るのがでかい
696名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 21:50:58.82ID:0sW0ypg8
皆さんのレスで64gb乗せることにしました最後でエラーになって動画が出来なかった
2025/04/26(土) 21:51:06.88ID:38uRJaID
メインメモリは多いほどいいぞ
ComfyUIだと「multigpu」のノード使えばVRAMの一部をメインメモリ(勿論他のVRAMにも)に
退避できるようになるので今まで動かなかったモデルも動けるような設定が可能になる
大抵のモデルロード(clipやVAE含め)のノードのmultigpuノードがサポートされてるから、
メモリ多い人は試してみるべし
メモリは64GBだと微妙に足りない場面が多くて、96GB(48GBの2枚挿し)か、
128GB(32GBの4枚挿し)を狙うといい
2025/04/26(土) 21:58:44.12ID:gvPZDAGq
>>695
他事できるのはいいね。これは完全同意だわ
えー128GBかーえ〜
2025/04/26(土) 21:59:50.38ID:BUmSqVEk
メモリ4枚挿しとか遅くなんね?
2025/04/26(土) 22:01:17.77ID:DlGtSxre
ぶっちゃけローカルでやるメリットってエロ以外なくね?
2025/04/26(土) 22:09:42.46ID:Jx+zcO/R
それ以外に何が必要なんだよ
サイトによっては
本数制限や順番待ちが発生する
2025/04/26(土) 22:11:17.66ID:nRkxe4OL
外部サイトで有料や回数制限がある中で
微妙なのとかクリーチャー出たらノーカンに出来るの?
703名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:23:55.82ID:l0TmBsd+
健全なイラスト生成利用だっていちいちクラウドに金払ってトライアンドエラーやってられんだろ
2025/04/26(土) 22:36:05.90ID:Lrx1oh61
4枚差し96GBだけどDDR4だから別に大差ないな
問題が出るのってDDR5の話って聞くし
2025/04/26(土) 22:38:55.13ID:3a9LxDdL
うちもDDR4の32GBx4で128GBだけど別にパフォーマンス落ちたりしてないな
精神衛生上memtest86回した時は18時間くらい掛かってしんどかったが・・・
706名無しさん@お腹いっぱい。
垢版 |
2025/04/26(土) 22:48:02.50ID:BBwJpqK7
128GBは18時間かかるのか
memtestは2、3周してエラーなくても4周目でエラー起きるとかあるから1周だとまだ不安が残る
1周するのに18時間かかるとなると2,3日かけっぱとかの方が安心できるな
でも流石にメインのPC2、3日使えないのはキツイ
ただメモリがダメだと最悪ファイルのコピーでファイルが壊れていくからなー
2025/04/26(土) 22:50:53.58ID:3a9LxDdL
>>706
いや1周というか4パス完走するのに18時間や
2025/04/27(日) 04:01:03.92ID:1cLFBwpR
動画やってないけどDDR5 192GB積んでるわ。
本来はメモリ速度が落ちるけど、メモリオーバークロックして通常の速度にしてる。
2025/04/27(日) 10:10:27.21ID:3mQR4J30
1年くらい前の動画生成AIは開始イメージくらいしか指定できなかったし、プロンプトの認識も頭悪くてからまともな動画できるまでかなりかかったけど
最新の動画生成AIは開始終了フレーム指定でプロンプトも画像内の複数の人物の判定が正確になってほぼ思った通りの動画が一発で出来るようになったよ
710名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:43:51.74ID:ghdrQXbq
ASCll×AIの記事でFramePackのwebUI版導入したんだけどパソコンの電源を起動
し直すたびに使えなくなるんだけどどうやってまたwebUI使えるのかわかる人いますか?
711名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 14:48:47.34ID:ghdrQXbq
すみません
自己解決しました
またrun.butのファイルを起動したらいけました
2025/04/27(日) 15:12:33.55ID:OQ2j+/Vw
低スペックなPCでもWEBサービスはコーヒー1杯の値段で高速生成してくれる
どっちをとるかやな
713名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 15:27:03.76ID:t/XDPTn1
ここの人たちって叡智なのが主目的なんじゃないのん?
ならWEBサービスって最初から論外になんない?
2025/04/27(日) 15:52:45.76ID:3Tlc6hAy
どうせ非エロとか、仕事とか商用目的視野にしてない人だとちょっと触って飽きて終わる未来しか見えない
2025/04/27(日) 15:54:57.51ID:cLSIkbx6
個人的には服着ててもフェ●チオジェスチャーみたいなのを
口開けて叡智に動かしてくれるだけで満足できる自信があるけど
オンボードで動画生成できるスペックがそもそもない
2025/04/27(日) 15:56:12.95ID:OQ2j+/Vw
>>713
タイトルの【】内はWebUIなんやでって何でまたこういうレベルの説明せなアカンねん
2025/04/27(日) 16:23:33.59ID:5yYx6aiA
>>713
サイト専用の可愛いモデルが有るから
組み合わせて作ってLoRAの素材にするんだよ
2025/04/27(日) 16:56:50.33ID:yFUcxuIr
まだ環境構築してないのにソフマップのDDR5 128GBキット48000円が最安で買うか迷ってる
719名無しさん@お腹いっぱい。
垢版 |
2025/04/27(日) 20:03:34.63ID:ldkL6x4a
680です
メモリ64GB(16GB×4枚、総額1万2千円くらい)にしたら速い速い
5秒動画が10分かからないくらいになった
ピーク50GBくらい使うのな
2025/04/27(日) 21:11:17.14ID:vxnA/8mb
諦めたら試合終了なんです
如何にオンラインの検閲を誤魔化して
叡智な画像を作るか
検閲に引っかからない絵で如何に妄想するか
むしろ露骨な丸出しってキモくない?
2025/04/28(月) 02:41:05.48ID:bRzbyCI2
全然
モザイクで興奮するなんて言うやつも理解不能
2025/04/28(月) 08:53:04.32ID:5dwf2ez+
というかモザイクって欧米ではやってないよ
日本がガラパゴスなだけ
2025/04/28(月) 09:11:47.57ID:uKyu3YAl
でも欧米人ってアニメで湯気越しのおっぱいが出ただけで凄い反応するんだぜ?
2025/04/28(月) 15:06:04.77ID:9VYZZOuS
全裸だったらもっとすごい反応します
2025/04/28(月) 15:25:47.86ID:hCWJASNP
それは全年齢版にエロを混ぜんなっていう別の話
日本でも任天堂のプラットフォームは厳しいだろ
2025/04/28(月) 15:28:32.23ID:QDrx49td
俺からしたらエロいのキモいとかいう感性がもうキモいわ
女ならともかく男が言ってたら脳の深刻な病気を疑う
2025/04/28(月) 15:54:54.84ID:CJm5VNQd
任天堂Switchのエロゲコーナー
https://i.imgur.com/RSVO2qS.jpeg
2025/04/28(月) 15:56:50.02ID:HsU82IVa
>>725
PG12とかを見てオッサンが口をあんぐり開けていたりする方が異様だ
2025/04/28(月) 15:59:08.50ID:ABEYSPy7
だってプロンプトにgirlだけ入れてもまんこ描画する素敵なモデルばかりだしなぁ
2025/04/28(月) 16:11:58.25ID:5dwf2ez+
>>725
任天堂プラットフォームはめちゃくちゃ緩いんだけど
ソニーの方がポリコレ配慮でエロに厳しい
分かりやすい例がLoveR

ちなみに肌が見えるだけでエロ判定する人もいるけど
そこまで言うなら厳格なイスラム原理主義の国に移住した方がいいと思うよ
女性の肌見せるのはNGだし、女性のポスターも恐らく禁止
2025/04/28(月) 17:21:25.23ID:76KT1+x7
ソニーはポリゴンの繋ぎ目が件股間に見えてただけで意図を問われるからなぁ
732名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:30:39.17ID:W9imuHi9
>>719
Win10pro64bit、corei5、CPU16GB(DDR3、8GB×2)、RTX3060(12GB)で5秒動画に5時間以上かかるから、これ見てメモリ増設しようとしたらスロット埋ってて増設不可だったm(__)m
2025/04/28(月) 17:40:37.94ID:zot09Eo5
メモリそれでやろうとするならストレージの寿命爆速で縮みそうで怖すぎる、PC壊れる
32×32の64GBか48×48の96GBで2枚差しにするか、マザボ変えるか、分からなければ素直に買い替えの3択やな
おすすめは96GB以上
2025/04/28(月) 17:42:09.36ID:zot09Eo5
てかDDR3じゃねーか
流石に買い替えた方が良さそう…
735名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 17:57:52.31ID:g/kaiV7C
AIいじる土俵にすら上がってないのでは。
学生とかでも少しバイトして金ためりゃすぐ買えるだろ
あれこれ動作環境で頭悩ませながら延々と四苦八苦するより、さっさと金用意してPC更新した方がいいと気づこうぜ
736名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:00:07.48ID:SeIRlYU8
>>727
こういうのは昔vitaやpspが担ってたけど、携帯機がこれしかなくなってからswichに変わったよね
737名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 18:13:11.42ID:W9imuHi9
>>734
>>735
やっぱそうなのね、静止画(sd1.5)では
それなりに動いてたんだけど、動画は流石にきびしいかぁ
どうもです
2025/04/28(月) 18:28:20.33ID:0OALh26X
未だにDDR3のマザー使ってる事に驚いた
2025/04/28(月) 18:40:05.14ID:zot09Eo5
使ってるというか昔完成済みのローミドル帯ゲーミングPC(2枚までならノートか?)買ってそのままなのでは?って感じがする
DDR3ならストレージも今主流のSSDではなくHDDの可能性すらあるかもしれない()
740名無しさん@お腹いっぱい。
垢版 |
2025/04/28(月) 22:05:23.15ID:B6yi49pz
プロンプトは画像より難しい
例のThe girl dances gracefullyしかまともに動かない
オススメのプロンプトある?
2025/04/28(月) 22:25:03.91ID:kZkFSo1f
VRAM32GBか...いいな
金は有るのだがノートしか置けない環境だからなぁ
742名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 11:03:13.15ID:DPSmX0UA
3090から5090で同じ環境での生成速度差
5090の在庫が普通に並ぶようになってきたので参考までに

size:720*720
Steps:30
Frames:120
Model:720p-Q8
高速化:Sage Attention,tea cache

[生成時間]
3090→2100秒前後
5090→400秒前後
2025/04/29(火) 11:18:11.69ID:fM1wwv/j
スペックの話ばっかりやな
PCなくてもVastaiとかでも作れる時代なのに
2025/04/29(火) 11:23:08.86ID:JlJByp63
4060ti16GBと5060ti16GBの比較が欲しいんだよな…
745名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 14:10:14.07ID:BatT8ZjD
>>744
https://nunogameblog.jp/rtx5060ti/#index_id16
2025/04/29(火) 15:34:32.85ID:YIbL4j9i
参考にならなくて笑った
まぁ、ちゃんと設定しないとダメだよという事の証明なのかもしれないが
2025/04/29(火) 17:51:39.43ID:gBWwMdNG
>>742
これ3090のほうはVRAMが漏れてるとかいうオチじゃなくて純粋にこんな速くなるのか?
貧民だけどちょっと検討したくなった
2025/04/29(火) 19:19:01.39ID:2pwPeiRJ
>>742
3090って思ったよりも遅いんだな。。
4090で大体600sくらいなので、
これだと5090に乗り換えなくてもいいかな

中国では48GB搭載の4090が出回っているらしい。
どうやったら入手できるのかな
2025/04/29(火) 19:53:39.77ID:7mi3FKSb
>>748
魔改造4090の入手手段なんてアリエク見張ってるくらいじゃね?
750名無しさん@お腹いっぱい。
垢版 |
2025/04/29(火) 20:22:29.22ID:tXpYH5ti
円高気味なんで
i9 RAM128GB Rtx5090
が50万くらいで買えるようにならんかな
今80万はかかる
2025/04/30(水) 03:48:29.83ID:FvOdVPJF
中国のなんて殆どが詐欺だろ
80TBのSSDとかさ
2025/04/30(水) 08:00:32.95ID:seQabHYQ
初心者なりに簡単な報告
RTX3060 12GBからRTX5060ti 16GBへ換装
easywan、Kijai_I2v、480×320、10step
各種高速化オプション使用で5秒動画の生成が6分から2分半に短縮された
2025/04/30(水) 09:39:38.48ID:OLoMC+lh
すごくありそうな換装やからみんなの参考になるわね
2025/04/30(水) 09:41:58.45ID:+00Mx9Sv
>>751
あれに騙されて買う人が普通にいるのが恐ろしい
義務教育レベルでそのへんの情報基礎教育は必要だと感じる
2025/04/30(水) 09:58:01.76ID:nvWkOAvG
遂に5090 32Gが普通に買えるようになってきたね
A4000から積み替えるかぁと思ってもやっぱ60万だと動画生成の差がわかんないと怖くて買えないね
2025/04/30(水) 14:26:26.51ID:Q4+AAnuu
framepackから動画生成を始めたんだけどもう一つの話題になってるWanは元画像そのままで動画に出来るの?以前に試したAnimatediffは元画像と別物の動画になってたから。
2025/04/30(水) 14:36:32.43ID:S4wDX7Dq
出来るよ
758名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 15:15:51.48ID:uansnY30
>>747
3090はかなり設定詰めてたからVRAMは溢れてない
VRAM下げたくないから3090→5090乗り換え勢は結構多いと思う

>>748
生成時間がかかってるのは
720*720、Step30、120Frame(7.5秒)、だからかと
どれぐらい速度上がるかは同じ条件で出力して比較してみるといいよ

あとeasyWan、というかKijai Workflowは初期Stepが10とかじゃなかったか
実写系だとノイズ感強いというかサンプリングが合っていない感が強くて使ってないので比較できない
2025/04/30(水) 15:19:16.41ID:L7SQ1fHD
>>756
異空間からチンポが出て来て入れちゃうぞ
腕を下げているポーズなのに腋見せしたりしてAIすげーと思うわ
2025/04/30(水) 17:46:15.89ID:Q4+AAnuu
>>757
>>759
ありがとう、正直ガチエロでFramePackは限界を感じたから連休でWanの勉強頑張るわ。
2025/04/30(水) 18:04:04.47ID:Jw+BBSMB
FramePackEichiのLoraが「要VRAM16GB」と書いてあるけど
DDR4-128GBにRTX3080(VRAM12GB)で5秒の動画が生成出来たので報告
ただし生成中はメモリ128GBをほぼほぼフルで使ってる模様・・・
ちょっとビビるけどこの為にメモリ爆盛りにしたんだから活用しないとな
VRAM12GBしか無いけどFramePackでLoraも使いたいって人はメモリ128GBでカバー出来るぞ
2025/04/30(水) 18:07:12.15ID:S4wDX7Dq
破綻しにくさと一貫性があるのは分かったからwan並に動きがキビキビするようになってからまた起こしてくれ
2025/04/30(水) 18:08:30.72ID:hTfOcJag
>>761
4070tiと32GBでも動いたな・・・生成開始直後にSSDの負荷が爆上がりしたからもうやりたくないけど
そして生成物にはLORAの効果が全然出てなかったという悲しみ
2025/04/30(水) 18:57:20.77ID:OLoMC+lh
っていうかFramePackでて大騒ぎになっとる理由がようわからんねんな
EasyWanVideoの段階で画期的やしエロでは以前トップやろ
2025/04/30(水) 19:00:11.07ID:aKo9Jb0Y
FramePackは軽いからって理由で話題になってるから容量十分な奴はwanの14Bでええやろ
2025/04/30(水) 19:00:30.64ID:Nk4nd6Kg
>>763
そりゃVRAM→メモリ→ストレージ(一時ファイル)の順で足りないと負荷がかかっていくからな
一時ファイル専用のSSDを用意してそいつに負荷を押し付けてやればいいよ
2025/04/30(水) 19:10:13.03ID:hTfOcJag
>>766
さすがに100%近くまでアクティブ率があがって、これはやばい!と思った
FramePack用に学習し直されたLORAを使って全く効果なかったから暫くは良いかな
LORAを使ったりしなければ、SSDに負荷かからないし
768名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 19:12:10.25ID:IZEuXNP1
>>764
comfyUIじゃないって時点でかなーりハードル下がるんだよ
あのスパゲッティ見るとムリムリムリムリってなる人多い
2025/04/30(水) 19:20:14.75ID:OLoMC+lh
もったいねえなあ
2025/04/30(水) 19:23:21.04ID:2y/lcK4+
FramePack入れようとしたけどbatでダウソ始まらないで何かキーを...になるから止めた
Comfy+Wanでいいや
2025/04/30(水) 19:23:45.39ID:Z9wN683h
完全に慣れの問題で、別に難しいことはないと思うんだよなあ。ComfyUI。
サンプルワークフローも豊富だし、自分の好きなようにノード配置出来るし。
2025/04/30(水) 19:44:27.98ID:2y/lcK4+
Comfyは一瞬で環境が変えられるから
flux他で元絵を作って直ぐにwanへ切り替えるとか出来るし
今何を処理しているのかが分かって楽しいわね
773名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:03:05.02ID:eTyI/HHr
FramePackは世間的にはエロがではなく
破綻が少ない動画が作りやすく
有料サービスより長時間対応すげーってことかと
2025/04/30(水) 20:07:59.35ID:IeMqLMyR
最近のComfyは変化が大きくてなんか微妙に操作が変わったりするし
古いCustom Nodeがどんどん使えなくなっていくし
775名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 20:19:36.23ID:BWmowv5f
framepackはmacでも使えるようになったのな
時間かかるとはいえMacBookAir(ユニファイドメモリ24GB)で作れるってのは大きいな
2025/04/30(水) 20:20:00.55ID:/ZHbIOSE
初心者はpinokioでやるのがオススメだよ
2025/04/30(水) 20:39:06.77ID:Jw+BBSMB
画像生成ならともかく動画生成だと現状のComfyUIは
自分でノード書き換えとか出来るスキル持ってないと無理ゲーになりつつあるよな
俺はStabilityMatrixのComfyUIにZuntanニキのワークフローを拝借してWan2.1使ってたけど
もう諦めて動画生成専用にEasyWanVideo導入したわ
実質ComfyUIが二つ入ってる状態なのが気持ち悪いけど仕方ない・・・
2025/04/30(水) 20:45:47.13ID:wtr/clJB
ComfyUIの楽しいところは自分でノードを付け足して機能拡張したりアレンジしたり
するところなので、ポンつけのWebUI系は全然面白くない
FramePackもComfyUI版でしか試してないな
779名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 21:54:28.56ID:zkppWgQk
easywan使ってんだけど、loraだけ新しく入れたり出来るの?エロ系普通に探しても出て来ないんやが。
780名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 22:02:18.22ID:eTyI/HHr
civitaiは必修科目ですよ
781名無しさん@お腹いっぱい。
垢版 |
2025/04/30(水) 23:01:10.59ID:uansnY30
easywan(というかKijaiWorkFlow)使ってる人多いが画質がピーキー過ぎないか?
特にピクセルエリアの少ない人物の顔が潰れるのとハイコントラスト時の肌がノイジーになるのがキツイ
歯とかめちゃグニャる
Model、clipModel、VAEをいじればそこそそマシになるがそれでも諦めた。

GGUFも使えないし、そもそもデフォだと制限かかってて
modules\model.py
modules\clip.py
ComfyUI-WanVideoWrapper\nodes.py
のソースいじらないとモデル変更もできない

kijaiは速度に命かけてる感があるので何かを犠牲にしてるんだろうが...

↓参考までに左がeasywanI2V、右はUmeWorkflowで同じ条件で出力した1フレーム目の比較
https://imgur.com/a/bZWgHLL

1フレーム目から顔とハイコントラストの肌の質感がだいぶ潰れる
モロにSamplerの影響に見えるけど統一しても同じ
静止画1枚だと分かりづらいけど、両方試せる人は試してみてほしい
2025/04/30(水) 23:30:00.62ID:6zEwlUi0
その程度の違いどうでもいいわ
2025/05/01(木) 00:09:15.16ID:X8NeLKbL
Kijaiの10ステップで生成してるけど全然問題感じないし
ネイティブで30ステップで生成時間3倍になる方がデメリットすぎるよね

720PのQ8って18GBでFP8よりも1GBでかいけど目に見えて品質は改善されるのかな
それにQ8はFP8よりも複雑に量子化されてるから生成遅くなるらしいけどどの位変わるんだろ
784名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 03:15:50.86ID:eG3GI6pW
Kijaiを否定するつもりはまったくないけどステップを3倍にしたら生成時間が3倍、とはならない
同じ条件で動画にしたが

[右 ume]  Steps:25で61秒
[左 Kijai] Steps:10で72秒

https://i.imgur.com/xEsaSqO.mp4

5090環境なのとumeの設定をカスタムして詰めてるのもあるだろうがステップ数を倍にしてもumeの方が早い
ステップ数が少ないと動きが早いモーション時なんかにノイズでガビガビになる(特に手と口と柄物)
動画の最後の歯の部分なんかがわかりやすい。ノイズは引き継がれるので長尺の動画になればなるほど後半に影響が出る。
「引き抜いた竿がツルツルになる」みたいなのに悩んでる人も多いだろう。

あと初心者への配慮からかVideoWrapperのpyがいじられているので他のWorkflowとの互換性がすこぶる悪い。
他のWorkflow入れた時のノードエラーが解決しない人も多いのでは?

おそらく仮想環境のpytorchとSageAttentionのハードルの高さからeasyWanが使われることが多いんだろうが、
それが理由ならUmeAiRTが3日前にauto installer公開してるので比較してみるといい

https://civitai.com/models/1309415/comfyui-auto-installer-wan21-or-sageattention-or-50xx-cards-compatible-or

個人的にはGGUFはVRAMを解像度とステップ数に回せるのでマスト
ステップ数を上げるとガチャ確率も上がるので結果トータルの生成時間効率も上がる
2025/05/01(木) 03:50:27.08ID:8qT1LUvc
Umeの方はComfyUIとManager、各種ノードのバージョン管理を出来て
尚且つPythonコードを書ける事が前提みたいなワークフローだから安易に人には勧められんな・・・
更に言うとそこまで頑張ったとしてもEasyWanVideoの方と比較して
圧倒的なクオリティ差があるかと言われれば別にそんな事も無いし・・・

そしてこれは誰もが思う事だから言うけど5090環境での生成速度レポートはマジで何の参考にもならない
「そりゃ速いでしょうね」意外の感想なんて出てこないよ
2025/05/01(木) 06:00:46.27ID:2/k4YZaI
>>785
同環境での比較見てその感想しか出ないことはないでしょ
2025/05/01(木) 06:44:38.35ID:8qT1LUvc
>>786
EasyWanVideo使う様な低スペ層に5090の比較速度が何の参考になるの?
2025/05/01(木) 07:02:32.43ID:3Gahlv9z
そもそも急に出てきたUmeって何だよという感じだったけどCivitaiでWorkflowを配布してる人の名前なのね
普通、プログラムだと思うじゃない
説明してくれないと自分みたいな赤ちゃんは困っちゃうよ

こっちは逆にEasyWAN(Kijai)の設定をカスタムして詰めてるけど当然というかUme(Native?)の方が遅かったな(4060Ti)
たぶんEasyで「Set_BlocksToSwap」の設定をしなかったか、後入れの高速化を何か入れてなかったんじゃないかね

Ume(gguf)は確かに高画質というかi2vの元絵から劣化が少ない気がするけど
何故かLoRAを使うと絵が壊れるし自分の環境には合わなかった
インストール時に色々と最新を入れてくれてる気がするから5000系ならお手軽でいいのかもしれないが

とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
2025/05/01(木) 11:51:37.64ID:ia1dq4En
しかしながら、LORAや設定もだが、プロンプトも超大事。

動画内の時間の流れや物体の位置を把握して書くと全然違うわ。
2025/05/01(木) 12:07:17.84ID:i+CPIHYS
大事なのはわかるんだけどどこがどう効いているのか実感しづらいんだよなあ
特にWanについては結局LoRAがほぼ全てな気がする
791名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 12:28:45.81ID:eG3GI6pW
>Umeの方はPythonコードを書ける事が前提

は具体的に何を指している?UmeAiRTのWorkflowは初心者用のauto installerもありプレーン環境を汚さないし、
「pythonコードを書ける事が前提」これはまったくの逆でKijai Workflowではclipを変更するだけでも

LoadWanVideoClipTextEncoder
if "log_scale" not in sd:
raise ValueError("Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model")

と制限しているので書き換えが必要でお気に入りのカスタムノードやWorkflowを使おうと思うたびにコード修正をしないといけない。
これはまさにあなたが言っている「Pythonコードを書ける事が前提」そのものでは?

思うに初心者が「EasyWANが早い!」となるのはMicrosoft Visual Studioでのビルドやら環境変数へのCUDA PATHへの追記やらをしなくてもEasyWANにTritonベースのSageAttentionがincludeされているのが原因だろう。
逆にTea CacheとSageAttentionが有効に出来ているなら速度差の要素なんて解像度とStep数程度しかない。


>とりあえず各自で試して完成品が良ければ何を使ってもヨシッ!ということで
これはまさにその通りで好きなものを使えばいいのだけど、Wan2.1とくにEasyWANではモデルデータが100GB超えなのもあり比較が難しい面もある。
実際比較を試しても生成時間がネックになり試行回数も少なくなり、ガチャの当たり外れもあって判断は難しい。
なので、わざわざ「ComfyUIを2つ作り」「同じ生成時間になるように設定を組み」「同じ元画像で動きの少ない動画を作り」比較しないといけない。

自分は人物のダイナミックな動きのある動画を生成しているので、顔や手にノイズの乗りやすいKijai Workflowは相性が悪いと感じる。



まったく関係ないが「竿が奥まで入らない」問題は
「深く入れる」「奥まで入れる」より
The penis disappears into the vagina(膣の中に消える)
のPromptがめちゃくちゃ効果あった。時々霧散するが。
792名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 15:47:32.45ID:LyBEq8mQ
途中までおおっなんか深そうな話してる分かってる感あってカッコイーと思って読んでたら最後でうん・・・てなった
いやある意味一番有益な情報かもしれんが
2025/05/01(木) 16:44:04.43ID:3Gahlv9z
5090使ってて生成時間がネックで比較が~とか書かれてもみんな泣いちゃうよ
EasyWanの開発者は3060Tiじゃ無かったっけw

色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだね
Umeは0.13だけどEasyは0.20
この数字が大きいほど早くなるけど、劣化も大きくなる
Tea cacheを使わないか0.13に下げればEasyWanでも画質は良くなると思うよ

EasyWan(kijai)はFramePack対応に忙しそうでWan環境はあんまり更新されなくなった
Umeは最新を追ってるから速度の差が縮まっているのはその違いって気もするけどね
これから新規にWanだけを始めるなら最新環境が一発で整うUmeがいいんじゃないのかな

色々試したいならEasyWanの方が楽しめると思うよ
好きなの使おう!
両方使ってもいいわけだし
2025/05/01(木) 17:06:02.00ID:D0R/SKc6
Wan2.1はNative版のフローの方が良い結果が出る
生成時間は少し長いが、結果ガチャ回数減るので結局Native版使ってる
あと、ちょい前はTeaCache使ってたけど、これも品質阻害要因なんだよね
今はスキップさせてるわ
2025/05/01(木) 17:13:01.17ID:E5h3CIGn
nativeのTEの方が品質いいのはわかるけどそれもブリッジで使えるし設定同じにすればそんなに差はないと思うんやけどな
ggufは少し品質良くても常に遅いから使わんけど
2025/05/01(木) 17:14:04.32ID:X8NeLKbL
EasyWanにnativeは倍以上ステップが必要とか
生成時間も長いって書いてたから使ってなかったけど試したら確かに良いな
I2V-720P-FP8でnativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
nativeだと720×480とかで生成しても元画像からの劣化が少ない

umeとやらは余計なノードとか多かったから最小限のワークフローに
TeaCache, SkipLayerGuidance, Sage attentionとlora3つ位入れて
3090で18ステップ位で生成してるけど時間もkijaiの10ステップと大差無かった

俺は時短のためにnativeのTeaCacheは0.33で5ステップ分スキップさせてるけど
それでも自分の環境だと明らかにkijaiより綺麗で良い

nativeだとkijai版のumt5 xxlは使えないから変更必須なのと
block swapは専用の拡張入れないと使えないっぽいのが注意か
797名無しさん@お腹いっぱい。
垢版 |
2025/05/01(木) 18:52:07.23ID:eG3GI6pW
>色々と試したけどEasyWanで画質が落ちるのはTea cacheの設定が違うからだねUmeは0.13だけどEasyは0.20
当然だけど大前提として両方統一して結果に差が出る
EasyWanではなくkijaiのWanVideoWrapperのSamplingが影響している


>>796
が言いたいことはほとんど言ってくれた
>nativeの方が元画像の髪とか細かい部分も潰れずに維持できてる
>kijai版だと生成解像度高くしないと画質悪くてモヤッとしてたけど
>nativeだと720×480とかで生成しても元画像からの劣化が少ない
言いたかったのはまさにそれ
同一ソースから出力して初めて気づく
UMEと比較するんじゃなくてnativeと比較するほうがわかりやすかったね

そしてnativeを使うならわざわざプレーン環境を汚すEasyWanを使うのはどうなの?と言いたかっただけ。
べつにUMEに拘ってはいない。どんなWorkflowでもいい。
ただ自分がしる限りSageAttention(Triton)がincludeされているのがUMEとEasyWanしかないので初心者はUMEのオールインパックという選択肢もある

何度もいうがEasyWanを下げているわけじゃない。
初心者がワンクリックでオール・インできる環境は素晴らしいし、Modelに制限かけているのも初心者がミスマッチなModelを選んでしまうのを防ぐためなのだろう。


だからこそ「Umeの方はPythonコードを書ける事が前提」といった初心者が勘違いするようなことは言うべきではない
2025/05/01(木) 19:00:17.68ID:D0R/SKc6
Kijai版のWan使う人はClip visionが「clip_vision_h.safetensors」になってるか確認した方がいい
現状(最新のワークフロー)はそうなってるみたいだけど、以前は違ってたからね。
で、異なるClip visionだと全然動いてくれなった記憶がある
2025/05/01(木) 19:17:26.08ID:D0eUC69t
Native版は使ったことがないんで知らないんだけど、Kijai版にあるSLG(Skip Layer Guidance)はNative版にもあるのかな?
Layer=9, start=0〜0.2, end=0.6〜0.8ぐらいで入れるのと入れないのとでかなり動きの安定度とか違ってたと記憶してる
2025/05/01(木) 20:00:24.02ID:X8NeLKbL
ComfyUI-KJNodesのSkip Layer Guidance WanVideoノードでnativeでも使えるね

別件だけどkijai版のモデルローダーはbase_precisionでfp16_fastを指定すると
fp16 accumulationが有効にできて20%位生成加速できたんだけど
native版のモデルローダーだと量子化後のfp8とかのdtypeしか選択できなくて困っとる
どこで指定すれば良いんだろうか…
2025/05/01(木) 20:38:29.09ID:E5h3CIGn
Diffusion model loader KJ
2025/05/01(木) 20:53:26.94ID:X8NeLKbL
>>801
これもKJNodesにあったのか!やっぱり20%位速くなったわありがとう!
2025/05/01(木) 20:57:36.28ID:D0eUC69t
>>800
使えるんだ サンガツ 今度ネイティブ版も試してみるかな
自分の場合画質があまり気にならなかったのは608x960で作ってるからかな
2025/05/01(木) 21:25:18.49ID:cH+/zmPC
なんUのFramePackでHunyuanVideoLoRA使って崩れにくいエロが出来るようになったの見て来たか…(ガタッ
みたいになってるんだけどRAMどんだけいりそうなんだろうか
2025/05/01(木) 21:33:31.05ID:/men2COp
>>804
最低でも64GBは必要そう
以前のVerは32GBでSSDの寿命削りながらも一度だけ完走させたけど、今のVerはさらに負荷が凄くなってて怖くて止めた
2025/05/01(木) 22:56:01.30ID:pURyNRqn
動画系は128GB以上あった方がええで
最低でも96GB
2025/05/01(木) 23:00:35.30ID:i+CPIHYS
DDR5が4枚差し不安定とかいう余計な不安要素もあるんだよな
64x2だと5万円コースってなあ
2025/05/01(木) 23:10:36.33ID:cH+/zmPC
>>805-806
96GB必要か、wan2.1のために96GBに最近増設したからそれで行けるのならありがたい限り
その状態で他の作業出来ないとなるのなら128GBまで…は流石にしんどいしHOMEだからなぁ
2025/05/02(金) 00:57:26.93ID:pL5rYzXG
しきりにkijai下げしている奴って何なの?
初心者向けの物なのだから画質だ長さだと言う物では無いと思うのだが
それからステップアップしたいのならご自由にって事だろ
何を比べてんだよ
810名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 04:29:26.40ID:vGI3MmCW
どうせ喚いてるだけだから長文はスルーでおk
2025/05/02(金) 05:41:23.12ID:doIoJoIr
Kijai版は初心者向けじゃないでしょ EasyWanならともかく
Wanに限らずKijai版はComfyUI本家がインプリメントする前に実装される事や実験的実装が入ってくるので色々試してみたい人向けだと思うけど
実際機能追加の関係でバージョンアップしたらWorkflow組み替えないといけないこともあったし
2025/05/02(金) 06:50:28.19ID:ET1i6OG8
>>811
もう一回自分で読んで修正してからレスして
2025/05/02(金) 07:04:16.55ID:Zfj3dfOh
読みやすい文だと思うが
2025/05/02(金) 07:07:59.95ID:FazZX2WO
>>811
チミの名は。
2025/05/02(金) 09:11:06.56ID:2wV2VS/w
kijai氏は初心者でも簡単に導入できるプラグインやノードを提供してくれているのに
それを否定している意味がわからん
2025/05/02(金) 11:14:39.10ID:a40a8vDT
梅の話が出ていたので試してみようと思ったが
面倒くさいので全てallにしたら30GBのファイルを
ゴリゴリダウンロードしまくっている
慌ててドライブの他データを移動した
2025/05/02(金) 13:19:31.48ID:uuh6AxUg
動画だと1つで100GB以上のデータファイルとかもあるしなぁ…
2025/05/02(金) 13:56:24.49ID:0H8+qkkD
インストーラなんか邪魔なだけ
easywanもumeとやらもワークフローだけ貰えばそれで終わりだよ
2025/05/02(金) 15:49:59.35ID:5lYgDT4G
UMEというのをここで知ったのでワークフローだけ落としてきて試してみた
なかなか面白い処理の流れをしてたので自分用に改変してテスト中
Native版ともまた違った処理だけど、生成時間はなかなか速い
最終段にColor Match使ってるのはいいアイデアだと思った
原画にHiDream使うと何故か途中で色味が変わることがあったからな
2025/05/02(金) 16:19:01.18ID:lfoLGaF8
動画というかi2vにColor Match使うのはKijai氏のWorkflowで知ってよく使わせてもらっている
知ったのはHunyuanVideoWrapperのときだったかな
そもそもColorMatchNode自体がKijai氏のCustomNodeやしね

ところでUME氏のFlowなんだけど自分も落としてきたんだけどHiDreamのLoRAに感けていて試せてない
中身眺めているとTeaCache Onにすると0.275とかなり強めにかかるみたい
>>793にはUmeは0.13と書いてあるけど自分が落としたWorkflowとは違うのかな?
821名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 19:23:38.40ID:sU3xMGoG
LoadWanVideoClipTextEncoder
Invalid CLIP model, this node expectes the 'open-clip-xlm-roberta-large-vit-huge-14' model

EasyWanのチュートリアルで躓いてます
必要なファイルは入ってるんじゃないんですか?
2025/05/02(金) 21:38:01.86ID:3Swh18/t
KijaiはAI動画時代黎明期の役目を終えた感あるな
画質はクソだし、ガチャの当たり低すぎだし、エラーだらけだし、クソUIだったけど
短い間だったけどよくやったよ
もう起動すること無いだろうけどkimiのことは忘れないよ!今週まで忘れないよ!黙祷!
2025/05/02(金) 22:09:00.63ID:NGBexPe4
結局比較動画も貼らないで逃げたんかw
2025/05/02(金) 22:11:08.90ID:A0n6aprg
>>821
左の方の該当ノードでモデルを選ぶ必要がある
Easyと言いながらハマりどころはそれなりにある
825名無しさん@お腹いっぱい。
垢版 |
2025/05/02(金) 22:59:38.11ID:FYwoTz1T
AI動画作ってる人らってどこにアップロードとかしてんの?
2025/05/02(金) 23:00:45.33ID:3Swh18/t
そりゃYoutubeだよ
2025/05/02(金) 23:16:24.41ID:Zfj3dfOh
エロなら渋かXか支援サイトやろけど、ちびたいに上げる人もおるらしいな
2025/05/03(土) 02:57:48.19ID:krznmrJW
シビタエーアイだろ
2025/05/03(土) 09:34:04.75ID:/IhKPF4o
EasyWanVideoの導入は通常簡単だけど
いわゆる今の「3行以上の長文は読めない人」にはNightmareWanVideoだから
マジで文章を読む力が無い奴は諦めた方がいいよ
2025/05/03(土) 11:03:36.13ID:SZDRfllP
誰と会話してらっしゃるの?
2025/05/03(土) 12:00:32.61ID:yPIJFkKI
人形と話してるんじゃないかな
2025/05/03(土) 14:44:42.09ID:9wopPkas
Framepackがオールインワンで簡単に動くとか言ってるから落としてみたがおま環で起動すらしないわ
エラーも馬鹿みたいに出てるしオールインワン嫌いや
2025/05/03(土) 15:28:34.52ID:4GUdzEQ1
>>820
Sizeの下にある設定が0.13でそこが反映される
左下の0.275は無効(操作できない)になってるはず
2025/05/03(土) 16:26:58.80ID:iHyoI8cF
>>833
自分の落としたWorkflowにはSizeの下に設定なんかないしTeaCache Nodeの入出力もModelだけしか繋がっていないな
と思ったらsimpleとcompleteと2バージョンあるんか ややこしいな
2025/05/03(土) 16:50:40.43ID:PtFh3sHn
834が書いてるように、TeaCacheのノードには外部からの設定ノードは何も繋がってないな
まぁ、0.275のままでも特に崩壊はないのだが、もう少し小さくしたくなるな
2025/05/03(土) 17:17:32.74ID:4GUdzEQ1
こういう画面じゃなかったら違うのを使っているんじゃないかな
Umeはかなりたくさん出してるし
https://civitai.com/images/71236839

さらに言えば上で話してるのはこのインストーラーの事ね
これ経由で入れたならその画面になるはずよ(ggufテンプレ版)
https://civitai.com/models/1309415
837名無しさん@お腹いっぱい。
垢版 |
2025/05/03(土) 17:38:41.20ID:uY+F0Ipy
>>832
だいたいダウンロードミス
2025/05/03(土) 17:40:36.22ID:6FMMafQe
vidu気に入ったんだけどすぐクレジットなくなっちゃうなこれ
アルティメットプランの非ピークモードの生成時間は今はどんな感じなんだろう
2025/05/03(土) 17:44:19.80ID:uBrBw++I
>>832
仮想メモリ足して100GBぐらいにしたら動いたぞ
2025/05/03(土) 18:33:30.91ID:PBVc48bf
Viduって小さい解像度だとグチャりすぎない?
2025/05/03(土) 19:09:04.40ID:PtFh3sHn
>>836
835だけど、当方確認したのはworkflow単体でアップされてるやつだな

あまりにも流れが見えづらいのでほぼほぼノードを再配置し直したよ
842名無しさん@お腹いっぱい。
垢版 |
2025/05/03(土) 19:32:15.97ID:aITS1d5v
F1試した。
次世代レベルで進化してるな
2025/05/03(土) 23:22:54.93ID:4Fup2c6b
てす
2025/05/04(日) 05:00:08.71ID:CGTRNKjc
64GBの2枚組買ったけどメモリーエラーが発生して起動できないぜ
48GBモジュールまでしか使えないっぽいからBIOSアップデート待ちだよ…
2025/05/04(日) 05:12:35.14ID:rNUppjlA
ちゃんと差し込んでないんじゃないの〜?
2025/05/04(日) 05:59:04.94ID:CGTRNKjc
レスどうもです
1枚だけで全部のスロットに差したりもしたから2枚とも8回は差したと思う
毎回ラッチかかるまで体重かけて差したよ
2025/05/04(日) 07:03:23.95ID:g+Vcvnh5
マザボが64か96までしか対応してなかったとかありそう
2025/05/04(日) 07:17:12.14ID:CGTRNKjc
7000系CPUとB650安物マザーボードだから投げ捨てて両方買い直せと言われそう
マザーボードメーカーのQVL見たら48GBモジュールまでしか載ってないので確認せずに買った自分が悪いで確定
2025/05/04(日) 07:35:36.59ID:4chQ7eXR
投げ捨てろとは言わないが、マザーボードを足してもう一台生やせ。
2025/05/04(日) 09:09:02.96ID:CGTRNKjc
マザーボード買うお金あるならSSD買いたいっすよ
851名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 15:13:46.01ID:VPZ/YdVc
easywan、アップデートしたらノイズ入る様になった。誰か直し方教えて? kijai版i2v、ramは96gb。前より速くなった気するので調整とかあんのかな?
2025/05/04(日) 15:20:34.40ID:+cwdwat6
なんUにも同じこと書いてよね
プロンプトで(:◯.◯)の強調使ってるとなったりした事はあるけどそれくらいしか分からんけど参考になれば…
853名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 17:05:56.43ID:IdOADkiE
>>852 なんjにも書いたよ、動画強調するの駄目なんや、知らんかった。教えてくれてありがとう。
2025/05/04(日) 17:10:12.71ID:mqYGP+ge
動画は普通の文章で書いた方が良い
855名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 17:57:56.53ID:IdOADkiE
>>854 ありがとう、ずっと画像のプロンプトをそのまま動画に使ってたわ。ノイズが出たの、結構プロンプト強調してたな。
2025/05/04(日) 18:30:08.65ID:xBFL7qFu
1人の女の子、可愛い、ベッド、横に寝ている、
ではなくて
かわいらしい女の子が1人ベッドに横たわっている。
の方が良いって事よね
2025/05/04(日) 19:15:08.24ID:bF2HkRPn
Janus-Pro使って画像読込ませて動画用プロンプトを自動生成させると
悩まなくて済むぞ
858名無しさん@お腹いっぱい。
垢版 |
2025/05/04(日) 23:00:54.51ID:yzerAtHb
>>856
まじかい、そっちの方がいいんだ
2025/05/05(月) 00:17:40.72ID:ftWgW6lK
シーアートやシビタでプロンプトが見られるので
動画の成功例を参考にすると良いね
失敗して偶然の成功例が多いのと
翻訳で変わってしまう部分が多いから修正が必要
英語の語彙の少なさに困惑する
2025/05/05(月) 00:35:39.84ID:tsH6gz8L
FramePackでLora使ってたまに瞬きして欲しいんだけど
eyes blinkって入れるとずっと目を閉じたままで
eyes openって入れるとずっと目を開いてんだよ?
なんて入れたらええん?
2025/05/05(月) 00:40:25.87ID:ftWgW6lK
何でblinkが瞬きなのにeyesを入れているの?
動画なのだから単語を連ねるよりも
流れるような文章で綴った方がAIは混乱しない
2025/05/05(月) 01:07:17.18ID:tsH6gz8L
なんかblinkだけ入れると画面が明暗することがあるんだよ?
eyesを入れると確実に目に作用する
2025/05/05(月) 05:03:02.15ID:zDbfJQWA
自分がまばたきすると画面が暗転しますよね、つまりはそういうことです
2025/05/05(月) 06:35:09.45ID:ChHpxBKl
no pov、とか?
もしくは第三者視点からとか
2025/05/05(月) 10:42:35.21ID:5j/maIVi
>>857
age
866名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 15:15:07.27ID:vTvnoBJH
>>781から>>803にかけてのWanのGGUF(ume)とKijai(easywan)の対比が有益すぎる
早速Ume版インストールして試してみたら元絵から崩れず高精細でびっくり
easy版は軽くて動きもダイナミックな印象あって、それぞれ良さがあるから使い分けていこかな
2025/05/05(月) 20:56:39.01ID:QK6iEwAq
動画スレなのに動画なし
2025/05/05(月) 21:27:05.23ID:mRamMdp2
大半の人はエッチなのを生成してるだろうから
この一般板では貼りにくいだろうね
2025/05/05(月) 21:35:15.41ID:ChHpxBKl
なんUでは貼れるんやがこっちだとちょっとね…
870名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 22:44:33.71ID:XH3qdDnW
なんUなんて板あるの初めて知ったわ
VとかMとかSとかいろいろあんのな
871名無しさん@お腹いっぱい。
垢版 |
2025/05/05(月) 22:47:13.86ID:Bk4emlL+
なんJはガチでゴーストタウンみたいになってるんだよな、エッヂに皆移住した
2025/05/06(火) 01:28:51.49ID:mm1xEgor
easywanのnative使ってるんだが
長辺480なら大きく動くのに720に上げたらちょびっとしか動かないのは
そういうものと割り切るべきなのかな
kijai使ってた時も似た症状だったし
2025/05/06(火) 02:02:32.88ID:wH8UlIKC
そのサイズで学習されたloraじゃないとあんまり動かんと聞く
2025/05/06(火) 03:05:32.16ID:hZJ6Zfbc
civitaiのサンプル動画わろた
https://civitai.com/images/65726528
笑えるwan動画で溢れかえってるなw
2025/05/06(火) 04:48:06.61ID:60fK2AJa
揺れすげぇ
2025/05/06(火) 13:51:31.43ID:lBSJL/1T
>>873
loraの互換性は盲点だったわ
静止画では気にかけていたんだが
サンキュー
2025/05/06(火) 14:18:51.90ID:3xnSuJXA
>>856
age
2025/05/06(火) 14:38:49.28ID:O9FO3GIa
>>873
あーそんなのもあるんか
たまに480にして試してみるかな
879名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 17:43:55.77ID:sXxy+m16
easywan、kijai版i2vで顔が結構変わるの前からだっけ?外人ぽく変化するんやが、調整とかあるの?
2025/05/06(火) 18:00:17.82ID:cdvhSv24
Hunyuan側にも言えることだけど叡智系ならほぼ国産なく外人が作ってるLoraの効果でそっちに寄っていくだからどうにもなぁ…という感じ
一応はanime styleとかJapanese digital animationとかまじないで入れる程度だけど効果は…はい…
881名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 18:45:38.10ID:sXxy+m16
>>880 そうなんか、そう言うもんだと。2秒くらいなら良いけど、5秒とかだと駄目になるなぁ。
2025/05/06(火) 21:30:16.81ID:49byXWLs
>>879
Loraの組み合わせと重みの最適値を探ってみたり
画像からのプロンプト生成してCfg Valueの調整
Skip Layer GuidanceやCFG-Zeroの値調整
モデル変えるor解像度変える とかかなあ自分も数値変えてバッチ処理しつつ沼り中
2025/05/06(火) 21:38:00.08ID:EmbfYKDz
>>874
ワッショイ!ワッショイ!
このくらい揺らしたいけどこれもNativeWanかな
https://civitai.com/images/72653503
884名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:11:51.46ID:m36uYJ7c
あれ、もしかしてCivitaiからwan用の服を脱ぐ系のLora消されてる?
単純に服を脱ぐLoraと、カメラを手で隠した後に素っ裸になってるLoraがあったはずだけど
885名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:20:25.01ID:0tyMnrgG
>>884
ちょっと前に全消去くらったらしい
2025/05/06(火) 22:40:31.08ID:an77fohN
https://civitaiarchive.com/
消されても誰かがHuggingFaceに上げとるやろってあんま心配してない
めっちゃ検索されてるやつはすぐ下に出てるし
887名無しさん@お腹いっぱい。
垢版 |
2025/05/06(火) 22:52:03.82ID:m36uYJ7c
ほんまや4/20にはもう消されてるって書き込みあるね
まあ写真1枚で何でもアリ過ぎるから流石にか
2025/05/06(火) 23:03:45.26ID:ar+D4O0D
LoRA5つくらい重ねて工夫しているから隙なしだぜ
2025/05/07(水) 01:47:40.13ID:yoD/RC1L
ChatGPT脱獄せずに継続調教でエロい事も淫語もペラペラ喋るようになったけど通常作業時にも隙あらばエロい話にしようとして来る致命的な弊害があるわ・・・
2025/05/07(水) 05:54:48.63ID:y4vO23rO
アニメ系で動画作ると口の部分をでっかい唇と解釈して
口の中から口みたいな変な動画が出来上がる事が度々あったな
なんで一枚絵の時点で歯をプロンプトに追加してる
891名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 12:33:56.45ID:Ikd+FQsW
ちょっと間空いてframepackを google colab で使おうと思ったんだけど
transformerリロードエラー: モデルファイルが見つかりませんでした。
って出てつかえてなくなってるんだがなんか仕様変わった?
何か追加でDLする必要があるのだろうか。知恵を貸してください
892名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 17:53:48.63ID:LdCYUUmw
MacでWanしてる自分は異端か、そこそこ遅いけど動くだけで感動
2025/05/07(水) 18:55:27.90ID:QtgCXMax
>>883
すっげ
動きの滑らかさは流石Wanやな
894名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 19:11:10.80ID:U1v/FBUR
SingularUnity - Twerk - Wan2.1 I2Vで作られた動画の中にある
見た目はプラスティックのフィギュアが、腰を振ってるのってエロいな。
徹夜明けの時の幻覚に出てきそう。
2025/05/07(水) 19:12:23.10ID:DLY9Y4rW
>>883
こういうプロンプトのどれがどこまで効いているのかわからんけど
プロンプトに意味があるのは確実なのよなあ
2025/05/07(水) 19:15:16.51ID:B49cGH5U
いいねだけして後で保存しよ…ってなってるやつ消えてたわ
一期一会やな
2025/05/07(水) 19:26:57.83ID:VMt2OM5b
動画スレなのに〜って上にあるのでエロだけどなんUに貼ったやつこっちにも貼っとくね(一般だと貼り辛いのはマジでその通りw)
https://files.catbox.moe/z8ffua.mp4
FramePack F1でLoraはHunyuanで色々と変なところはあるけどここまで動くには動く
どうしてもリアル調になって来たりちん長すぎね?やったりするところはあるけどAnimateDiff時代から比べると満足はできるようになってきたよ
wanもいいけどどっちがいいかは感情の問題かもね
2025/05/07(水) 19:33:53.90ID:DLY9Y4rW
とにかく当時と違うのはチラチラしないことやね
そういうもんとは思ってたけど当時の見るとギャグやで
2025/05/07(水) 19:51:45.56ID:fRJJDcH1
>>874
>>883
これに使ってるPCスペックとWANのワークフロー知りたいわ
900名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 19:58:27.79ID:fFIUTGTa
rtx5000シリーズは、4000シリーズ位にはai、stable diffusion、ComfyUI出来る様になったの? 出来るけど
ある程度知識無いと無理なのかな?
901名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 20:26:12.89ID:34H0Ybju
>>900
【画像生成AI】RTX5000番代のAI生成
https://mevius.5ch.net/test/read.cgi/cg/1743000768/
2025/05/07(水) 20:46:41.47ID:OKSmSWfX
5000て高いんだな
さっきビックカメラで55万円の値札が付いてるの見た
903名無しさん@お腹いっぱい。
垢版 |
2025/05/07(水) 21:46:42.37ID:eRlxthJJ
>>891
俺も試してやめた口だから言うけど有料プランか?
無料はもらえるストレージが20GB以下で有料は100GB~なわけよ
つまり空き容量に対してモデルが50GB近くあって入らねぇんだ
2025/05/07(水) 23:50:18.68ID:n5TBqFoA
>>894
2Bのケツ揺らしてるやつも好き
https://civitai.com/images/70968131
2025/05/08(木) 02:32:02.22ID:EwRnCnNe
FramePack Eichiで自動生成する為にPythonとAutoHotKeyでフォルダ開く→画像選ぶ→生成ボタン押すってのを作ったけどバッチ処理してる人はどうやってるの?
FramePackスタジオという派生版はバッチ処理出来るらしいけどLora効かないのは厳しい。
2025/05/08(木) 07:32:00.17ID:ltsZHIGW
>>904
すげぇ…違和感ないな
907名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 08:23:15.99ID:pNiLWrMr
FramePack eichi f1で使うモーションのLoraとかってローカルで気軽に作れるものではないのかな
個人の学習スピードより環境の進化スピードのほうが早くて困る
2025/05/08(木) 10:13:56.30ID:a18b5o9Y
できなくはないっぽいけど気軽なもんじゃないようだぞ
まだ知見が足りなさすぎる
2025/05/08(木) 10:51:35.99ID:mPdHidYa
>>905
Eichiバージョンで何をしたいかによるが、通常のF1(+lora)なら、
ComfyUI使えば画像フォルダから順次読込んで動画生成というフローは可能だね
2025/05/08(木) 11:30:05.48ID:CKho3Ixx
musubiで簡単に作れるよ
framepackで学習させるよりHunyuanで学習させて使った方が良さそうだけど
2025/05/08(木) 11:37:41.05ID:vF6Z87jb
動画系のloraはvramつよつよじゃないとダメとかで4090の24GBが最低ラインとか聞くしなぁ
912名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 12:14:10.29ID:5cVyK327
学習は16gbでも話にならんのだろ
RAMも96gbからとか
2025/05/08(木) 12:39:00.49ID:a18b5o9Y
いちおうできるらしいけどやった人の話はきかない>16GB
914sage
垢版 |
2025/05/08(木) 12:45:57.40ID:SpCSGuZp
F1使ってるんだが、lora使ってもイマイチダイナミックに動いてくれない。特に男が。
有識者の方、なにかわかればご教授を…

https://imgur.com/a/8tTHs9G

lora doggystyle from the side v2.0

プロンプト
Male and female have sex in doggystyle position , The female have semen dripping all over their bodies,The female is bent over on all fours, The male is thrusting his hips back and forth rapidly, You have a clear view on the penis pussy penetration, The Penis is penetrating the pussy vulva, The female's large breasts are swinging back and forth and the large ass is bouncing by the force of the pushing male,
2025/05/08(木) 13:15:03.30ID:AHExEVkY
>>914
rapidlyじゃなくてintently使うと良い気がする
2025/05/08(木) 13:34:47.66ID:a18b5o9Y
あとこの体位だとclear view on the penis つーてもムリがないか
よっぽど動かないと見えないやろw
2025/05/08(木) 17:39:12.33ID:ix1KHVsZ
>>914
普通に英語の文法で書いていないからAIでも意味不明なんだろ
918名無しさん@お腹いっぱい。
垢版 |
2025/05/08(木) 18:11:49.43ID:pNiLWrMr
今の自分のPCと知識ではLoraはできてもしばらく先に
なりそうですね
叡智なゲームであるスロー→普通→高速→フィニッシュみたいな差分を作れないかと思ったのですが
2025/05/08(木) 18:21:12.05ID:SMHGc7as
ちょっと開始フレームから試してみたけど男全然動かないね
原因考えてみたけど
・LoRAがそうした動きを学習していない
・LoRAに設定された適切なプロンプトを指定できていない
・プロンプトが不適切でセットアップ(画像の何がどこにどうあるか)ができていない
・そもそも構図が動かしにくい
あたりかな

まずDoggystyleのLoRAも主観、横、正面用があるから正面用を入れた上でサンプルでちゃんと動いてるものがどうプロンプト指定してるか要確認
2025/05/09(金) 01:56:31.36ID:wzMBDBD4
studio使って再現するとその動きはかなり出るんだけど、それ以外だと特定の動きしかしてくれないんだよな 惜しい
2025/05/09(金) 07:09:34.10ID:qZeksJGb
>>918
入力画像次第な面もあるけど高速が制御というか出にくい気がする
タイムスタンプかセクション別プロンプトだとしても難しいような
上手い具合に出来たやつを編集で繋ぎ合わせるのが1番手っ取り早そう
あとやっぱり動いて欲しい箇所に方向ブラー掛けるのは有効で生成中にブラーの効果切れるまでは割と高速に動いてくれやすくなる…気がする
922名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 12:21:34.98ID:5SPkJQOp
>>921
速度はまだ試行の余地があるんですがフィニッシュ的なやつはその域にも行ってないんですよね…
2025/05/09(金) 13:04:54.22ID:qZeksJGb
書き込んだ後にそっちの方が難しいなってなってた
なんUの方でぶっかけは見るからその手法を真似すればなんとかなるか?くらいでloraなしプロンプト単体だと現状むりなきがする
2025/05/09(金) 13:17:30.01ID:+X4OsQQA
ぶっかけはあるLoRAにクッソ頼る形なんよ
日本人の1人の変態が存在しているだけで二次エロが救われるんや
2025/05/09(金) 13:19:21.71ID:V2SMOAyZ
ぶっかけなんてクリスタから素材を持って来て作れば良いだけじゃねの
2025/05/09(金) 13:24:17.52ID:qZeksJGb
画像ならそれで良いだろうけどここ動画スレなんだよなぁ
切り抜いて1フレームずつ編集するの手間掛かるし…
上に書いた手法はキーフレーム使うやつだったはずだけどやったことがないから分からない
てか直接的になかだしloraあるなら欲しい
2025/05/09(金) 13:29:26.34ID:uVHIUYmS
そんなのAIがやってくれるだろ
何の為のAI動画なんだって
静止画を加えただけでもダラダラプラプラ流れるって
2025/05/09(金) 13:33:00.60ID:+X4OsQQA
>>927
お前は何もわかってない
2025/05/09(金) 13:37:04.94ID:a0k33/Ag
>>928
>>928
2025/05/09(金) 13:46:45.35ID:wMm9V3cS
どの程度のをやりたいのか知らんけど
ドピュドピュやプシャァァァくらいなら
画像を何枚かでLoRA作れば出来る
液体だけでも良いけれど不自然さが有る場合は
出るモノと受けるモノも入れないと駄目だぞ
2025/05/09(金) 13:48:27.62ID:+X4OsQQA
びゅる…びゅる…じわあ…どろお…じゃダメなんだよ
あのLoRAのビューッ!ビューッ!びちゃっ!びちゃっ!ビュルルッ!どろどろぉ…

みたいなのを使ってない奴は損しとるよ
2025/05/09(金) 13:49:49.13ID:+X4OsQQA
あと中出しなら多分びゅる…びゅる…じわあ…どろお…で特に問題ないと思う
断面図までやりたいなら別やけどそれもびゅる…びゅる…で事足りるんちゃうかな
2025/05/09(金) 13:52:24.51ID:wMm9V3cS
そういうのをやりたければ
そういうのを作れば良いだけだろ
作り方が下手なだけだな
絵心が無ければ無理もないが
2025/05/09(金) 13:57:45.75ID:+X4OsQQA
いやだからそういうLoRAがあるって話をしとるのに
「ぶっかけなんてクリスタから素材を」とか「AIがやってくれるだろ」とか
意味不明な話する奴がおるんだよなあ・・・
2025/05/09(金) 14:01:19.24ID:+X4OsQQA
つーかこれ ID:wMm9V3cS も静止画像の話だと思っとるな
CG技術板にあるからってロクにAI動画触ってない奴が冷やかしで来るの
やめてもらえますかね
2025/05/09(金) 14:12:08.84ID:qZeksJGb
wanとFramePackの登場でローカルでも触りやすくなってるからまあ触っておいでって感じ
ram96GB以上は欲しいけどな
2025/05/09(金) 14:14:54.03ID:+X4OsQQA
まあ64でも十分いける
96か128にしてえなあ でもグラボ買ったばっかやし
2025/05/09(金) 14:33:29.63ID:qZeksJGb
64でも大丈夫だけどFramePackでlora使う場合はまだ最適化されてない?のもあってlora切り替えで96手前まで行くから多いに越したことはないんだよな
怖すぎてlora2つ使えるようにはなったけど使えないわw
2025/05/09(金) 15:02:52.56ID:ay+jdBj/
応用力が無い奴は何をやっても駄目だわ
動画というものは静止画が元なんだよ
2025/05/09(金) 15:07:14.61ID:+X4OsQQA
だからEndFrameにぶっかけ後の画像を設定するなんて
基礎スキル中の基礎スキルで言及する価値もないけど
そこに至るまでの変化が「じわぁ・・・」か「ビューッ!」か
モーションLoRAで変わってくるんだよ
(ぶっちゃけEndFrame設定しなくてもいいLoRAは十分解釈してくれるし)

エアプはだまってろ
2025/05/09(金) 15:16:54.31ID:gnW9zXxx
>>939
気付く能力が欠けている人には何を言っても理解すらできないと思うよ
だからこんな所で質問する人がいるわけだし
2025/05/09(金) 15:26:15.60ID:qZeksJGb
コロコロID変わった単発が言っても説得力ないんですよね
943名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 15:29:09.98ID:Quja+aqN
おまえらのクソくだらないアレコレは置いておいて
パンチラメインのLoRAが見当たらない事について議論しようぜ
2025/05/09(金) 15:29:49.44ID:m0NwBvdd
>>940
許せ息子よ
お前が何を言っているのか
父ちゃんにはサッパリわからないのだ
2025/05/09(金) 15:32:42.74ID:pt3LwMsa
液体の再生速度や粘土の表現が変わってくるってことじゃないの
2025/05/09(金) 15:45:42.13ID:tliwT3Ne
エンドフレームやキーフレーム指定だけで上手くいくんだったら誰も苦労してないんよ…w
まあ完全にエアプでしょ
2025/05/09(金) 16:11:23.24ID:nlz9McNL
>>943
なんかこの間後ろ向いたら風吹いてパンチラみたいなのは見かけた気がするけど
もっと色々ほしいんだよな
2025/05/09(金) 16:13:17.88ID:N3YfQ3gX
Civitaiの消された動画用Loraだけど設定変えたらサムネは見れた、クリックしたら404ページになるけど。
それで何が消されたか見てたんだけど服が弾け飛ぶTorn Clothesってのがあったのね…
めちゃくちゃ欲しい何ならお金出しても良い、どうにか入手する方法はないのでしょうか?
2025/05/09(金) 16:13:49.23ID:p8VLNPYz
>>942
人形としか会話していない患者の特徴
相手が1人だけだと思い込んでいる
2025/05/09(金) 17:11:45.03ID:+Tsr7DyA
こっちの両SDスレが死んでてなんUのNVA部に人が流れるのが分かる流れ
2025/05/09(金) 17:13:22.94ID:owE0bPFE
5chですら馴染めないとかもうどこにも居場所ないやん
952名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 17:31:04.56ID:SGTk+utQ
変な奴が本性剥き出しで絡んでくるから現実として5chの方が馴染み難くない?
2025/05/09(金) 18:01:23.17ID:R/yFJ5wd
>>943
>>947
https://civitai.com/models/1500572/simple-panties-for-wan21lora
これかにゃ
2025/05/09(金) 18:16:28.25ID:fpIiVcRo
CG技術板だからしょうがない
2025/05/09(金) 18:20:05.03ID:2SrlP+/3
>>946
お前の頭が悪いから出来ないだけだろ
2025/05/09(金) 18:34:41.62ID:zqXmW9iI
CG板というかワッチョイが無いとアレな人が紛れ込んじゃうだけ
2025/05/09(金) 19:19:36.28ID:zOHOT95g
気色悪い性癖を再現しようとするもAIに拒否される男の図
958名無しさん@お腹いっぱい。
垢版 |
2025/05/09(金) 22:40:42.91ID:T6EiVRmD
>>948
https://civitaiarchive.com/models/1210174
2025/05/10(土) 00:43:46.66ID:jtKAK6vq
>>931
キモすぎぃぃぃ
2025/05/10(土) 01:11:33.76ID:4nFLhO0Y
>>958
心の底から感謝するわ、あとアーカイブがあるってことは探せば他のLoraもあるかも知れないのね。
本当にありがとう。
2025/05/10(土) 01:59:09.68ID:dBQklogw
>>960
zuntanニキのeasywanに付いてるサンプルダウンロードすると国産Lora色々入ってるね
nashikoneニキのtorn clothesてwan用のやつもあったよ
https://github.com/Zuntan03/EasyWanVideo
2025/05/10(土) 02:09:21.10ID:4nFLhO0Y
>>961
ありがと、ただメインで使ってるのがFramePackなんでHunyuanVideoのLoraなのよね。
これから先、ローカル動画生成がWanとFPが主流になるならLora共通化できないのは痛いね…
2025/05/10(土) 02:20:17.11ID:dBQklogw
>>962
ありゃこりゃ失礼
wan用のやつframepackでも効くのがあるって聞いた気もするけど
何にせよ数少ないlora共用できたらいいよね
2025/05/10(土) 06:27:31.43ID:KCJy2haK
wanとhunyuanでモデルの構造違うのに使えんと思うけどな
965名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 07:00:31.68ID:0kP3dCer
だよな
親切な方がそれそれトレーニングしてくれてんのによくテキトーな事言えるよ
2025/05/10(土) 07:20:17.72ID:u5IkDyO8
>>961
その中に3つぶっかけLoraあるけど
ビューッびちゃっ!
びゅる…どろお…
ビュルルッ!
ってな感じでそれぞれ違って面白いw
2025/05/10(土) 09:15:05.64ID:aUfp3/Qh
きめぇ
2025/05/10(土) 09:38:58.40ID:zgf66vmI
ぶっかけか
5秒は欲しいよな
969名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 11:51:18.08ID:AnQnBCx8
動画生成始めようとgpu選んでるのですが、
5060ti 16gb
5070 12gb
どちらの方が良いでしょうか?メインメモリ128gb積んだ場合、この候補だと5070の方が速いですか?
2025/05/10(土) 12:14:22.70ID:q4tGr6HE
当面は5070のが速いんじゃないかって気がするけど12GBじゃできませーんってことが
でてくるかもしれないしなあ

そもそも動画生成12GBでも動くってのがあくまで動くってだけで通常のメモリに退避させることで
ボトルネックになるって話であれば今でも5060Tiのが速い・変わらないまでありうるしな
本来は5070Tiが正解なんやとは思うが予算ないならしゃーない
2025/05/10(土) 12:41:00.57ID:N3nOeFj5
>>969
もう少し待って&頑張ってお金出して、
5080 24GBにしろ
色んな動画生成やり始めると16GBでも足りないぞ

96GBのPRO、いいなぁ 160万?だっけ?
2025/05/10(土) 12:41:31.53ID:Cwj/ddL1
速さより量!
動画生成は時間かかるのは確実なんだから出来る事を減らすより時間かかった方がええやろ?
そもそもメインメモリに退避した分は結局遅くなるしな
2025/05/10(土) 12:47:34.80ID:D+0tSUjO
5070superが18GBらしいけど本当ならそこら辺が1番良い落とし所な気がする、本当ならな
2025/05/10(土) 13:19:57.75ID:q4tGr6HE
>>971
ってか出るの年末とか、ヘタすると来年やろ? そしたらもう60XXまで見えてくるで
今の日進月歩の状態でそんなに待つのあんま勧めないなあ
2025/05/10(土) 13:22:27.17ID:W4NJTb1q
>>969
微妙なとこだけど速さ考えたら5070かな
16GBあればって場面もあるかもしれないから悩ましいが
2025/05/10(土) 13:50:39.60ID:5P02Oyo5
12Gなんて静止画でも処理出来ないことがある
2025/05/10(土) 14:01:14.11ID:DsJPGBmO
16GBを奨めるかな
FramePackはともかく他の動画生成AIは16GBが最低ライン
2025/05/10(土) 14:05:36.09ID:W4NJTb1q
ここ動画生成だったか じゃ16GBだな
979名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 14:18:19.88ID:NIEG31Bm
そろそろ次スレだけどテンプレとかどうする?
2025/05/10(土) 14:37:08.26ID:yVApiKli
>>979
>>1のうち、

>・全フレームi2iする技術
>動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。

このへんはなくしちゃっていいと思うのよね
あと前スレのURLと「次スレは>>980が立ててください」みたいなのを入れる

スレ立てからここまで2年かかったけどついに一般的になってきたねえ~
2025/05/10(土) 14:42:06.21ID:yVApiKli
あと>>2は古いので全部差し替えるとして、紹介するとしたらEasyWanVideo、FramePackとeichiあたりかな
でも新しいのがまたすぐ出てきそうだから、「今ホットなローカルAI動画生成環境」と断って載せるとか
2025/05/10(土) 15:08:11.11ID:q4tGr6HE
>>977
いちおうWanも12でいいことになっとるけどね
983名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 16:00:17.84ID:AnQnBCx8
皆さんありがとうございます。
5070tiまでいくと電源変えなくてはなので、それならcpuも3700xだしマザボから全部交換するかになってしまいそうで…
他の用途(主にtvai)での60と70の速度差が大きいので結局決めきれない…70無印はなんで12gbなんだ…
2025/05/10(土) 16:19:24.64ID:X+049ZVU
次スレ立てました

https://mevius.5ch.net/test/read.cgi/cg/1746861355/

タイトルの【StableDiffusion】はいらなかったかな、でも板をStable Diffusionで検索する人もいるかも
2025/05/10(土) 16:27:58.84ID:NIEG31Bm
>>984
おつ
まあ近い技術を使ってるけど直接関係なさそうだから今後は外してもいいかもね
2025/05/10(土) 16:28:03.42ID:D+0tSUjO
スレ立て時のホットなローカルAI動画生成環境は確かにいるかもしれんね

>>983
自分も去年買い換える時に4070か4060ti16GBで1ヶ月悩んでたからよく分かる
最終的に4060ti16GB選んだけど後悔はない
2025/05/10(土) 16:30:32.07ID:W4NJTb1q
あとは詳しい人が動画生成ツール列挙してもらえれば
2025/05/10(土) 16:40:21.83ID:q4tGr6HE
処理速度はちょっと長く待てばええだけやけどVRAM不足は単純に動かないことあるからねえ
2025/05/10(土) 17:00:09.00ID:OcJDpe8f
PyTorch
最初にパイタッチと空目した時から
俺の中では今でもパイタッチだ
2025/05/10(土) 17:41:47.67ID:VGDJIpct
>>984
立て乙

>>980
最近動画初めてここ辿り着いたのに2年も前からスレ立ててたなんて尊敬するわ
2025/05/10(土) 17:53:31.07ID:q4tGr6HE
AnimatedDiffでも動画は作れたからね
当時のチラつくのはそう解消されないと思ってたから
手元でWanで生成できたときは感動したわ
2025/05/10(土) 18:32:44.58ID:UhOmXZvW
顔が笑うと知らない人になるのどうにかならないの。笑顔とか真顔とか何パターンとか最初に登録して参照させればいいんだろうけど、pytorchとかtransformersとかよくわからないよ
2025/05/10(土) 18:42:03.34ID:PUWOdiXE
パイターッチ!
いや~ん!まいっちんぐ
2025/05/10(土) 18:52:49.64ID:q4tGr6HE
>>992
それっぽいこと言っているけどむしろトンチンカンってので逆に感動した
995名無しさん@お腹いっぱい。
垢版 |
2025/05/10(土) 19:33:04.61ID:sTHyEzhz
PyPI(ぱいぱい)
PIL(ぴる)
Pyzuri(ぱいずり)
Pypants(ぱいぱんつ)
Pychinko(ぱいちんこ)
Pypan(ぱいぱん)
2025/05/10(土) 19:48:22.64ID:RJWN5rQt
質問いいですか?
2025/05/10(土) 20:19:38.83ID:NIEG31Bm
hunyuanが登場したあたりからスレが一気に加速したな
今後は2,3か月くらいで1スレ消費しそうだ
modelscopeで学習生成してた頃のデータがまだストレージにあって見てみると荒々しいながらも懐かしく味わい深い
2025/05/10(土) 22:28:22.95ID:GR/VU3ZZ
マチコ先生が浮かぶようではまだまだ青いのぅ
永井豪のハレンチ学園じゃろう
2025/05/10(土) 23:40:31.08ID:9sovJUs7
うめ
2025/05/10(土) 23:41:21.75ID:9sovJUs7
次スレ
>>984
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 746日 5時間 53分 50秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。

▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/

▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況