Blender 初心者質問スレッド Part52
レス数が950を超えています。1000を超えると書き込みができなくなります。
一枚の面じゃなくて二層構造の面でした
ノード使って新しく貼ってみます 3.1を使っています
住宅写真から、外観の形状モデルを作りたいのですが、
撮った写真を表示しながら、合わせていくにはどうしたらいいでしょうか >>913
まずはfSpyってアプリ使って写真からパースを合わせて
シーン上のカメラにマッチさせる、ってのが定番 >>914
回答ありがとうございます
Blenderのバージョン3.1でも、そのアドオンが使えるか心配でした
探してみます >>915
確認せずに答えちゃったけど試してみたところ4.1でもいけそうです fspy はそのソフトでやった結果をBlenderに取り込む感じだし有料のもっといいAddonあるよ
使い道やバージョンにもよることだけど Mixamoの公式アドオンてBlender4.0以降にアップデートされてないですよね?
海外のコミュで無理やり対応させる方法はありましたが、知人に勧められないんですよね 正直、この状態でPCが長続きするとは思えなさそうなので、パフォーマンスダウンありきでセーブできる方法を模索しました。 1つの物体をモディファイアーで
AA
BB
AA
BB
と出来ないでしょうか?
AとBの物体を分けるなら出来るんですがAの比率が変わるたびにBとの距離を変えなければ行けなくてあまり賢くない気がしました
参考までにやりたいことは蜂の巣がビッシリ並んでる感じです
よろしくお願いします 使ってるんですがどうしてもいい配置がみつかりません
AA
AA
AA
AA
のようになって上のようになってくれません A
A
こういうの作って、配列モディフィア縦と横にそれぞれ1つづつ掛けたら? AとBが別のオブジェクトというのなら、コントロールJで1つのオブジェクトにまとめた上で、
それに対して、縦と横に配列モディファイアを使えば良い。
「Aの比率」の意味が分からんのだけど、Scaleという意味なら、結合したAとBを選択して
編集モードに入って、Aだけを選択した上で拡大して、同時にBとの距離を変えれば良い。 >>924
凄いです!
蜂の巣が無事完成しました
パズルみたいですね
ありがとうございます 人物のモディファイアーの仕方が分からないです
体と頭が別々に複製されたり、両方を複製できても距離がバラバラで胴体と頭が離れたりなど
コレクションごとモディファイアーする?
頭と体をペアレント化する?
何もかもが分からないです
よろしくお願いします >>927
ミラーモディファイアのことかな?
アレは原点を中心にミラーリングするから原点が変なとこにあると胴が割れたり重なったりするぞ
原点を(0,0,0)の位置に置け >>927
そもそも目的は何で、どういう状態からどういう状態にしたいの?
何もかも判らないならキャラモデリングの基本のBlenderチュートリアルをYouTubeでいくつか見ては? >>928
ありがとうございます
原点の設定を見つかる限りやったんですが上手く行きませんでした
自分なりに触ってて思ったのですが多分ペアレント関係だと思いました
単純に体と頭が連動して増えるようにしたいんですが、頭の親を体にしても一緒に増えないどころか体だけが動いてしまいます
恐らく何かの設定がミスってるんだと思います ノンリニアアニメーションのフィルター機能が思うように使えないのですが、
使い方が分かる方がいれば教えてください
普段は「トランスフォーム」のみを有効にして作業をしていますが、
例えば画像のように「アーマチュア」を有効しても何も表示されません
バージョン2.xxの頃から幾度か使おうと試みたことがありましたが、いずれも同じ結果でした
よろしくお願いします 何度も出ているお題だけど、ミラーはオブジェクトモードと編集モードで挙動が違う
明確に意識して実験してみましょう >>933
本当です
出来ました
お騒がせしました
本当にありがとうございます オブジェクトのシェーダーエディターのマテリアル出力で、今出力されてるノードがどれくらい重いか数値で分かる方法とかありますか?
頂点数を数値で確認して、重いならデシメートする。みたいに
レンダリングする前に
重いマテリアルは数値が高いから、処理が重いノード削るか、軽いノードに差し替える
みたいな事が出来たら良いなと思うのですが
マテリアルの重さが数値で見れると便利かなと 出来たら便利だけど無理じゃね?
レンダリング時のCUIログでそれぞれのオブジェクト読み込み時間出るから
それである程度推察出来るけどリアルタイムは方法ない気がするなぁ
むしろ自分も知りたい プロファイラでキャプチャするとなんか分かるかも
ttps://developer.nvidia.com/nsight-systems
ttps://www.slideshare.net/slideshow/nsight/239757624
ttps://developer.apple.com/jp/metal/tools/ >>935
ttps://docs.blender.org/manual/ja/dev/editors/preferences/viewport.html
重さを知りたいのがリアルタイム再生のビューポートならFPS表示をオンにしてノードを一つずつ有効にして確かめるとか 動画制作でblendファイル1つに沢山のカット=カメラ(視点/焦点距離 違い)を切り替える時のうまい方法あるでしょうか?
3DCG制作の技法の話なんですけど、質問というより「うちはこうやってる」みたいな話が聞きたいです。
カメラ1個だとモーションブラーを使う時に切り替え後カメラが高速移動するので すごくブレる
マーカーにカメラをバインドすることは知ってるので、2個だと予想外のカット挿入する時に切り替える順番が混乱する(カメラ1→2→1→2 だったのが 1→2a→1? 2?みたいな
数分でも数十カットになるので10個くらい使ってみたら カメラだらけになってどのカメラがどのカットだったか混乱、重なり合って選択も大変 名前つけるのも面倒
で3つくらいで使い回しするのがよいのかと思ってるけど みなさんはどうしてますか?
MMDのダンス動画だと酔うほどカメラ切り替えまくりのがあったりするけど、MMDは何かうまい仕組みがあるのかな? 単に1つでモーションブラー切ってるだけ?
あとこういう話ってどんな本読めばいいんだろう? >>939
CyclesはShutterにキーフレームを打てるので、切り替わった時1回Shutterを0にすればいいだけ
EeveeはMotionBlur全般にキーフレームが打てない
試したことは無いがEeveeの場合
@一旦何もしないで普通にMotionBlurオンでレンダリング
Aカメラが切り替わった1フレームだけ、MotionBlurオフで全て追加レンダリング(別フォルダにフレーム番号をつけて保存)
B動画編集ソフト上で上のレイヤーに追加レンダリング画像を1フレだけ表示して差し替える(モーションブラーが消える)
多分これが一番ズボラで簡単に出来るのではないかな? >>940
ありがとうございます。CyclesでShutterにキーを打てるというのは知りませんでした。
これはカメラ1つの場合ですよね。 ②、➂はアドオン化できそう。
複数カメラでの知見をお持ちの方いたらぜひお聞きしたいです。 チャットGPTめちゃくちゃ賢くなってる
全世界の質問スレいらなくなるかも 俺もお世話になってる
「そのような機能は標準では無いですが以下のスクリプトで実現できます」とか
以前なら適当に答えられて「それじゃないんだよなあ」って多かった GPTで聞いてみたけどあんまり解決しなかったので、こちらで質問させていただければと思います。
1.目的:3面図を利用して顔をモデリングする際のカメラ設定
2.状況:顔のモデリングで迷走しています
3.質問内容、詳細:
顔のモデリングの際に、他のモデルを参考しながら透視投影の際の焦点距離や、
下絵を設置する位置などを調整しているのですが、具体的に設定すべき数値が分からないので、
教えてほしいです。 最終的にどのアプリで使うキャラかで合わせる距離変わるんじゃないの? Blender内で完結する予定で、他アプリは今のところ考えてないですね。
それとこれは記述忘れていたのですが、元がMMDあがりだったので、
そちらで質問したときに得られたアドバイス(焦点距離67.18mm、距離y-4m、センサ高36mm)で設定していました。
ただ、VRCなどで展開されていたモデルの一部が平行投影と透視投影とであまり歪まないモデルがいくつかあったりして、迷走しているところです。
とりあえず今は所持済のVRCモデルのカメラ設定を確認しようとしているところです。 >>944
厳密に水平垂直の線があるビルみたいな画像でも
厳密にカメラ決めるのはアプリ使ったりで難しいし
顔なんかは標準値と勘で合わせるしか無いんじゃないかなあ
平行投影と透視投影とであまり歪まないモデルってなんだろな
顔のパーツ配置が平面的とか? >>947
主観でそう思っていただけで、試しに最近そう感じたモデルの一つを並べてみたら結構歪んでました。
https://i.imgur.com/3yHRljR.png
とはいえ、自分が作っていたのはこれ以上に歪みまくってたので何も言えないんですけど
やっぱりこういうのって平行投影と透視投影を行き来して調整するしかない(焦点距離でごり押しは不可)んですかね…? >>948
・自分のオリジナルのデザインは数パターンの焦点距離で透視投影で確認
・元ネタありで似せるための調整は焦点距離アタリを付けて透視投影
・精密編集や設計図ありの場合は平行投影
って感じだな自分なら 作業画面以外で平行視点で見ることなんてないです
なので優先すべきは最終的な映像の画角で映えるように追求することです アドバイスありがとうございます。自分の場合、参考資料を基にそのままを透視投影でしていたのが悪さしていた?ようで
948の画像を改めて眺めていたら(当然かもですが)平行投影が所謂3面図ママのような雰囲気があったので
アドバイスとそれらを頭において改めて造形してみます。
助言ありがとうございます。 無駄に平行投影に拘るのは初心者あるある
彼はまだ気づいていない
シーンに合わせて造形・ウェイト調整するのが当たり前だという事を 頂点が入り組んで分かりづらい以外で平行は用事無いス VRC上で自然に見えるように作るのって、すごく難しそう。
1つのレンズで撮られた写真と、両目と脳を通じてみる肉眼との違いと同じで、
Blender上で自然に見えても、VRCで見ると、あれっ?ってなりそう。 100時間のアニメーション動画講座を購入して半分くらい進めたんですが、序盤の方とかもう覚えてなくて全講終えても1からできる気がしません。
今もほとんど講座内容のコピー作業だしこの学び方って合ってますか? >>957
最後まで行ったら初めからまた始めてください >>957
書籍でもネットでも動画でも何回も見直すのが普通だと思う
そのうちこの辺は大事そうだからメモっておくか、みたいな勘も働くようになるマジで vrmにモーションキャプチャーしようとしてるのですがボーンの1個1個の手動での対応合わせってどうしても必要ですか?
どこがどうなってるのか判断しにくい上に個数もめちゃくちゃあって大変です。
それなりの動きをさせつつ自動化や簡略化などは出来ないでしょうか? > vrmにモーションキャプチャーしようとしてるのですが
ここまでで既に 特定アドオンの設定方法なのか 一般論を聞いているのか全然わからないけど
例えば背骨のボーン数なんてモデルによって違うから
一般論として モーションキャプチャーソフトが想定しているボーン全てを取り込む必要はないのでは?
前にモーションキャプチャ済みBVHファイルをRigifyにリターゲットした時は
IK付き手足 計4つ(※)、腰、背骨1つ、頭、の7ボーンくらいだけアクションとしてベイクした
肘・膝のポールボーンは手・足の子にしておくと まあまあうまくいく
当然あとでポールボーンもアクションとしてベイクしてから親ボーンをrootに戻して手付で調整した
※ FKで関節の角度を全部取り込むと手足の位置がずれる/足が床を滑る
腕脚の長さが演者とアーマチュアで一致しないから 同じ角度でも手足の移動距離が変わる あ、本当です
ルートを取るだけでもそれなりに動いてくれました
そのあと考えたんですがやっぱり精度を上げるには全部対応どころか長さの調整もした方が良いですね
ありがとうございます! Rigifyのリグコントローラーもプロパティもリグレイヤーも表示されないようです。
違う自作モデルから移植してきたのですが、コントローラーの状態の画面(?)をそもそも見た覚えすらありません。
どちらもポーズモードでボーンを選び直接移動したり回転したりして動かすことは可能なのですが…。
pyファイルを入れなおせとのことで、確認してみたのですがどのモデルでもwidget.pyしかないように見えます。
次は何をしてみるべきでしょうか。
新しいファイルでメッシュだけコピーしてメタリグ生成からやり直してみたのですが状況は変わりません。 なるほど!
AutoRigでいつもIK付きボーンにFKでフルにリターゲットしてた。確かにそこまでする必要無いよね
ボーン数が違うbvhとかリターゲットできんわー、と思ってた
回答と質問に感謝です
横レス失礼 以下、EEVEEが前提です
花火のように光の粒子が流れて消える感じのパーティクルを徐々に透明化して消したいんですけど方法ありますか?
参考動画漁った限りでは、EEVEEでは徐々に小さくして消す手法しか見付けられませんでした
一応、光粒子として呼び出すインスタオブジェクトに徐々に消える設定を付けるとフェードアウト自体は
できましたが、全部のパーティクルが同じタイミングで消えてしまうので、コレは想定と違いました >>965
そういうのはパーティクル情報ノード使って(1-経過時間÷寿命)でアルファ値を計算するんだけど
EEVEEでパーティクル情報ノードはサポート対象外だった(※) Blender 2.8の頃からなので将来対応も絶望的
※見る必要ないけどソース: https://docs.blender.org/manual/en/dev/render/eevee/materials/nodes_support.html
コンポジットを使えば、シーン(レンダーレイヤー)ごとにEEVEE/Cyclesを使い分けられるので
花火的なレンダーレイヤーだけシーン分けてCyclesでレンダリングし、他のシーンとZ値合成ノードで合成してはどうだろう
さもなくばジオメトリノードでパーティクルシステムを自作して頂点毎に透明度の属性持たせるとか…?(よくわからない >966
回答ありがとうございます
出来るか否かが分からないのが一番の問題だったので、ハッキリ答え知れたのは大変助かります
助言頂いた方法活かせるかどうか分かりませんが、こちらも有難くメモっておきます テクスチャペイントについての質問になります
例えば地面や洋服といったベースとなる1枚の画像テクスチャに対して、テクスチャペイントで柄などを追加したとします
この際、柄を手書きではなくあらかじめ作られたテクスチャをブラシで塗っているのですが、4Kだろうと2Kだろうと画質が荒いです
ペイント方法(テクスチャブラシのマッピングの項目)をマスクにした場合は直接塗られるので画質が損なわれないのですが、地面に草原と岩肌といった風に塗る際にはこれでは少し使いづらいです。
なにかいい方法はありませんか?
テクスチャ2枚くらいであったら、そもそもノードをテクスチャ2枚使う形にすればいいと思うのですけどたくさんある場合難しそうです Vseefaceを使って表情をBlenderのvrmに送りたいのですがやり方が分かりません
ThreeDPoseTrackerも使うかもしれません
よろしくお願いします https://imgur.com/a/qn1qnDY
こんな感じにしてみました
こういうのをもっとスムーズにすることができますか?このSS内ではテクスチャ3種類ですが、10種類超えてきた場合ノードが複雑になってしまうのですが
そういうものでしょうか 944ですが、あの後ほかのモデルなどを参考に一度切り貼り?モデルを作った後、最終的には殆ど0から改めて作ることにしました。
結果的に3次元構造が何となく分かった気がして、顔の凹凸を改善できたと思います。
https://imgur.com/a/bdOkds7
結果的にモチベも上がり進捗も良好です。
これ以降はスレ汚しになると思うので、報告の書き込みは控えさせていただきますが、改めてアドバイスを頂いた方に感謝申し上げます。有難うございました。 シェーダーで使うと重いノードって何でしょう?
BSDFシェーダーノードが重いとか
ノイズテクスチャのスケール10000使うなら似たようなpngの画像テクスチャにした方が軽いとかあるのでしょうか?
Eeveeはノード多いと重いと某所に書いてありましたが、ノード多い場合、同じマテリアルでもcyclesの方がレンダリング速いのですか? >>971
完成したら1枚にベイクすれば良いのでは >>971
標準機能ではそういうもの
SubstancePainterぽく編集する目的のAddonがあるけど
たいていそれなりの値段するね >>973
どのノードが重いかは調べていませんがライトの影響を受けるBSDF(シェーダー)はライトが増えるほど重くなります
プリンシプルBSDFは鏡面反射(ハイライト)の計算が重いので、色を出すだけならディフューズBSDFのほうが軽いです
プロシージャル系テクスチャは基本的に演算量が多いので画像テクスチャのほうが処理は速いです
テクスチャが大量になればロードが遅くなりますが
あとEeveeで重ければCyclesでも重いはずです パーティクルのヘアーで凹凸な地面に草を生やして色々設定を触っていたら
草の根元と地面の間に隙間が目立ってきたのでヘアーの発生点を下に下げることが出来れば…と
思ったのですが、そういう設定項目ってありますか?
隙間の問題自体は、地面をコピペして上にあげるだけで解決するのですが
上記の機能があるならそれがスマートなので聞いてみた次第です オブジェクトを平行移動したいんですが
追加後の移動はできるのですが、フォーカス外して
また選択して移動しようとすると何故か変形になってしまいます。
そもそも選択するとメッシュ面が選択されてしまいます。
どこで間違ったですかね? >>979
編集モードになってるのでTabキーでオブジェクトモードにすれば移動できる
オブジェクト追加直後は編集モードになってて全頂点が選択されているので オブジェクトモードと似た挙動をする
そこでつまづくようならBlenderの入門チュートリアル動画を一通り何時間かかけて見た方が学ぶ時間が短縮できるよ >>980
ありがとうございます。向いてないかもです。 シェーダーノード・テクスチャ座標の生成の項とオブジェクトの項について
オブジェクトの項に参照オブジェクトを指定しない限りは両者の挙動に大差は無いように思ったのですが合ってますか? >>982
「生成」はオブジェクトを囲む矩形(バウンディングボックス)を基準に0.0から1.0の値の範囲で
「オブジェクト」は頂点のローカル座標なので
大差が無いか?といわれるとそうではないような気がします >983
指摘を受けて改めて考えてみると、求める結果はどちらでも実現可能だとしても
その過程が一方だと簡潔で他方では面倒な手間がかかる、というパターンはありそうだと思いました
頭の中でモヤっていたものがスッキリしました
ありがとうございます 男装した女性を作る場合の素体はどっちの素体から作るべきですか?
立花蛍のような
服を着た感じは男性のような体型です
骨盤とかへその位置くびれ?が男女で違うらしいので迷ってます >>985です
よく考えたらBlenderと関係なかったので取り下げます レス数が950を超えています。1000を超えると書き込みができなくなります。