VRプログラム雑談【Unity/UnrealEngine】【HTC Vive/Oculus Rift/その他VR】 [無断転載禁止]©2ch.net
ねえねえ
ユニティって中学生で、まわりに指導する人が皆無でも使いこなせるレベルなぐらい簡単なの? c++のプログラムを組んだ事があるならok
無ければ、その子の能力次第。
読解力があるなら、書籍、または動画チュートリアルで可能かも。
ツクールとは違うので、それよりはハードルは高い。 >>655
普通の頭なら簡単
挫折するようなら他のこともできなさそう ちょっと言い過ぎてるかもしれんが
何でも簡単にすぐ出来ないって言う人は諦めが早すぎるだけだと思う
学習曲線はずーっとなだらかに上昇するものじゃなくて
いくつかのステップがあってそれぞれ本人なりのブレークスルーがあるはず
挫折する人は小さなステップでも諦めてしまう
一段一段クリアしていけば気付いたら大きなステップアップをしてる
がんがれ >>656
>>658
有難う御座います。
コンピュータにインストールして、温かく見守る所存です。
挫折したり、悩んだら俺の得意分野(vulkan、C++)に引きずりこまないようアドバイスします。
さあ、シェーダは、標準デバイス座標を理解することから始まるのだ!と
レスサンクス、有難う御座います。 >>659
c++、プログラム知ってる貴方がいるなら全然問題なし。
プログラムを知らない子なら、とっかかりは書籍の通りにさせる事をお勧めします。まずはプログラムは何か、unityツールの使い方は説明するより慣れる、自分で好き勝手に弄らせる方が良いかと思います。 連続写真の絵柄の入ったカードを正しい順番に並べ替えるゲーム作りたいんだけど、
unityで作れば簡単ですか?
言語はC#ぐらいしかわかりません。 簡単だろうけどUnity使う意味があまり感じられない いやカードゲーム作りたいって言ったらunity使えって言われて、
youtubeでカードゲーム作ってる映像見てるとすごい楽そうに見えたので。
でも、ここVRのスレだったんですね。
unityスレかと思って投稿してしまいました。
ゴメン Oculus RiftでVRプレビューをした際にセンサーの位置がグランドラインとなってします
現在机の上にセンサーを置いているためVRプレビューで見たときアイラインが腰ほどの高さにしかなりません
どうにかしてセンサーの位置を下げる以外に実際の身長と変わらない高さでプレビューする方法はないでしょうか?
https://i.imgur.com/V2jyOXX.png ワロス
>以前この本に関するレビューで星3つをつけましたが消されましたので、再び「丁寧」な言葉で書き直します。
>Unity関係の本の中ではこの本が一番出来立てホヤホヤ卵から生まれたて「初心者」にとっては一番わかりやすいではないかと私は思います。
>そのため、オツムか多少よくないお方にも理解できる簡単なゲーム作成を行うことで、無上の満足感を得るのでしょう。
>初心者のまま、ぬるま湯に浸かってアプリを完成させなくてもいい、という方たちに是非オススメしたい商品です。
>この本で満足してしまう人間は、アプリ開発に向いていません。この本って残酷だよね。簡単な内容しか教わっていないのに、
>馬鹿がゲームを作成できるようになった気になって挫折するタイミングを遅らせてしまう。
>これだけは断言する。ここで高評価のレビューを書いている人で、まともなゲームのアプリを作ることができた人はいない。
>結論:この本は、馬鹿でなければ買うべきではない。(馬鹿なら諦めてください(ゲーム開発を)、そしてこの本と心中してください)
>この本が高評価を得ている所以は、馬鹿が理解できる本はこれぐらい簡単な本しかないのです。
>この本よりもずっと役に立つサイトは以下の二つです。
unity公式サイトのチュートリアル
unity公式サイトのunityマニュアル(リファレンスよりも実践的なコードが書かれているページ)
>私はこの本を2日見て、とても素晴らしいと思ったのでこの本を欲しがっている人に読んで欲しくオークションで即売りました。
>そのあとは上の二つのサイトを見て、必要な技術を学びました。 unityで物動かして衝突して方向変わるときって
跳ね返り係数とか摩擦とかパラメータ変えてないのに
同じ初期値でStartしても結果が違うんだけど
どっかに勝手にランダムな動きする要素ある?
同じ初期値なら常に同じ結果が欲しい時って
どうすればいい? Blender使ったらうまくいきました
本当にありがとうございました 今回のsteamVRアプデで痛手負ってる人いないんか
俺だけか 大倉昂(Starxxx) Follow @kusyu_nya
Unityでクソゲーを作っている30代男性(無職)
ネットで声かけをして引っかけた人を集め、仕事を返上してでもゲーム製作作業をするようDiscodeで恫喝と拘束を繰り返す
非常に危険な陰謀思想も持っているサイコパスです。要注意
本人自作のサイト http://kuranobo.blog.jp Unity xLua ってどれくらい使われてるの? vrアプリを作りたいんだけど手持ちのmbpだとビルドに時間がかかってストレス溜まるから
unity用にwindowsノートがほしいんだけど、
どのくらいのスペックが理想的かな。
メモリって32G必要?
gpuはgtx 1060で十分かな?
questのアプリが快適に開発したい。
あわよくばrift sで遊んでみたい どうしてもノートPCでやりたいならありえんわーでも買うしかないな >>687
まあ金ないなら1060でいいけど行けるならもうちょいいい奴の方が先長く使えるんじゃ
16GBでもいいとは思う VRは1060が最低ラインと聞くがモバイルだと性能下がるからモバイル1060じゃキツイんじゃないだろうか >>692
なるほど。じゃあ RTX 2060とかにすればいいかな。 >>693
そもそも今時期に1000台買う意味もないしその方がいいだろうね >>691
別な意味で受けそう。金が有り余ったら考える。
rtx2060 16gb でノート探すよありがとう UnityのアセットストアからOculus Integrationをダウンロードしたのですが
Oculus > VR > Prefabs にあるはずのTrackedRemoteが見当たりません。
どうすれば良いでしょうか? Unity、ゆくゆくはLWRP for VRが主流になる…けど今はまだプレビューで、と言って今までので開発しても後で移行するのは大変って認識でよろし? questようにアプリ作ってるけど、いちいちヘッドマウントディスプレイかぶんないと動作確認できないの辛い。
皆どうしてるの?
あ、unityです。 リフトだけど、フレキシブルアームの先にクリップあるやつに挟んで、内側にテープ貼ってセンサーごまかしたりしてる
けど試したい内容次第だな
結局は被らないとどうしようもない時もあるし
クエストはベルトも上げられるし、アームで見やすいところに固定して、必要な時に手を使わずちょっと覗くとかできるんじゃ >>699
やだなー。なんかょっと不便でもいいから、
quest無しでデバックやりたい >>697
Previewってのはリリース版に入れないほうがいいですよ、APIの変更ありますよぐらいで
機能的には大体完成してると思うし、リリース直近でないならLWRPで作ればいいのでは?
後から移行が大変かどうかは、シェーダーをどの程度凝ったものにしているかによると思う。
シェーダーで見た目をちゃんと調整したいならはじめからLWRPで作ったほうがよいだろうし、
そうでないなら後から適当にマテリアルをLWRP用のものに差し替えていくぐらいで十分なのでは インポートしたアセットが使えるようにならないのだが VRでunity使って3dもぐらたたきみたいなゲーム作るのって簡単ですか?
もぐらじゃなくて単なる球体が空間に現れたのを叩くレベルでいいです。 当方cシャープで少しアプリ作った経験あり。
unityは初心者向けの教本を終えたレベルです。 あなたの終えた初心者向けの教本ってどんなの?
それを終えたのに、そういうゲームが作れるかどうかの判断も自分じゃ出来ないの? unityで3dゲームは作れると思うののですがこれをVRにのせていくのは全くわからないので。。。 あとハードウェアとして最低限必要なものとか聞きたかったのですが。。。 とっとと実装したほうが早いかと
まずもぐら代わりの球体を適当にランダムに表示するのと、ハンマー代わりの球体を表示して
ハンマーをキーボードで動かせるようにして、もぐらと衝突判定してもぐらを消す処理を実装
つぎに100均ゴーグル+スマホとかでもいいから手元の機器でVR表示できるか試す
最後にキーボードだけでなくゲームパッドとかVRコントローラーとかでハンマーを動かせるようにする >>703
アホみたいに簡単
金獲るのがぼったくり詐欺レベル >>704
そのぐらいでも1日かからないと思う
オキュラスでもVIVEでもWinMRでもいいけどクエストだと若干手間取るかも >>706
私はOculus Lift使いなので機種限定の話かもだけど
Oculus Integrationというのをアセットストアでもらって来て入れるだけ
ちょっといじればもうHMDかぶってVR内でボール遊びくらいは出来る
Oculus以外のハードに対する汎用性については考えたこと無いので分からない やりたいことは3次元空間で
1.小さな点出現しソフトボールぐらいまで膨らんでいく
2.プレイヤーがコントローラーで触れるとボールは消え、得点が入る
このときボールの3次元座標と触れた時間を記録する
3.一定時間さわらないとボール爆発してGameOver
最終的に触れたボールの時間と3次元座標をテキストファイルで吐き出す。
ゲーム形式ですが空間認知の心理学的な実験です。 とりあえずVRで作るとしてocculus questとか買えばSDKも無料で使えてUnityで開発とかできるのでしょうか? >>708
つぎに100均ゴーグル+スマホとかでもいいから手元の機器でVR表示できるか試す
最後にキーボードだけでなくゲームパッドとかVRコントローラーとかでハンマーを動かせるようにする
この2行の前までは実装できそうですが、
この2行が何をやっていいのかさっぱりわかりません。。。
要はVRという言葉以外なにもわかっていない・・・。
とりあえずこのハードウェア買って、この本読めとかありますか? >>710
Questみたいなスタンドアロン型は難しいのでしょうか?
学生ですが、研究室でなく外部の施設で利用してもらうのでPCなしで動くならそれが一番なんですが。
この程度のレベルならRiftをノートPCに接続して運用も可能でしょうか? >>711
とりあえずハードウェア買っていじってみたいな。
この目的だと
Rift、Quest
どっちがいいとかありますか?
学生で自費で購入しようと思うので10万超えないぐらいの機種だと助かります。 >>712
やったわけではないけど可能だと思います。
>>713
Oculus IntegrationというのがそのSDKのようなものです。
使いこなしてないのでわかりませんが、一回も課金したことないのでたぶん無料です。
ただ、Oculus Rift CV1のことしかわかりません。
Oculus Integration を調べてみてください。 >>714>>716
お金持ちならOculus RiftでもQuestでもHTC ViveでもWindows MRでも好きなの買えば
いいんだけど、何もないならVRアプリ開発前にダイソーやセリアで100円や500円で
売っているこれをスマホにつけてYoutubeのVR 360度動画あたりを見てみるのが先
ttps://rocketnews24.com/2017/08/09/937811/
ttps://rocketnews24.com/2020/04/21/1362127/
次にMozillaがメインで開発しているタグだけでVRが作れるaframeというWebGLベースの
WebVRがあるからこの辺も見てみる
ttps://aframe.io/
aframeならテキストエディタだけでも色々できるからね
UnityでVRアプリを作るのはSDK入れるだけで普通の3Dアプリを作るのとほとんど同じ
なんだけど、3DoFと6DoFとの違いやどうやって操作するのかというUIの部分などが
違うから、まず3DoFで音声入力か視線入力ぐらいしかがないスマホVRで何ができて
何ができないか確認した上で次のステップに進んだほうがいい >>718
なるほどこんなお手軽に体験するのもあるんですね。
明日学校帰りにダイソー除いてみます。 初心者でも開発がしやすい、ネットでの情報が多い機種ってあるんでしょうか?
Occulusあたりがユーザー多そうですが、
スタンドアロンよりPC接続する方が開発楽とかありますか? UnityでOculusは楽だよ。
Questはアプリいちいち入れるのめんどくさい。
HoloLensもぼちぼちめんどくさい。
ネットで調べるにあたっては、Unityでまず普通の画面でそれが実現できるようなものを作れるようになったらOculus対応はほとんど終わったようなもんだから、Unityの知識として調べたほうが良いんじゃないかな。 >>721
Questみたいなスタンドアロン型よりもRiftみたいなPCとセットで働くやつのほうが扱いやすいってことでしょうか? >>722
Riftの方が良いと思うよ。予算が許すんだったら。
位置のトラッキングもしっかりしてるし。 >>723
なるほど。
病院などの施設に持ち込んで実験することを考えると、スタンドアロンの方が理想的なんですが開発のしやすさはRiftですか・・・。
ちょっと前ならデスクトップPC持ち込んで自分で設置、実験後回収ってできたんですが、
最近はコロナのせいで病院に入れなくなってるから参ったな・・・。
ノートに外付けグラボにするとしても、手持ちのノードはThunderboltがないし・・・。 >>723
QuestでもUnityで出力データをテキストファイルに書き出し、Qusetの記憶装置に保存。
PCと接続したときにテキストファイル回収とかは可能でしょうか? >>724
そういうとき用にゲーミングノート使ってるよ。
設営は慣れたら10分でできる(Oculus Rift)
ただ、渡してはい設定してくださいは難しいだろうな。
>>725
できるよ。でも回収めんどくさいから、どっかに送ると良いんじゃない? どっかってのは、インターネットにではないよ。
研究データなんだから機微情報かもしれんし。
研究室のWiFi繋げたら、研究室のサーバに送られるとかで良いんじゃないかな。
HoloLensで同じ仕組み作ったよ。会社に持って帰ってきてWiFi繋いでアプリを起動したら、データ転送ってメニューが表示されるようにした。 >>724
710だけどクエスト単体にデプロイするとかだとオキュラスリフトとかよりもちょっと開発するのに手間がかかるから、みてる感じVRは不慣れそうなのでPC VRの方がいいかと思ったけど調べらればそこまで難しくない。
クエストは最近Oculus Linkという仕組みで、スタンドアローンであるクエストをUSB-Cでパソコンに繋げてリフトのように扱う事ができるのでクエスト買えばいいと思う。
それでPC-VRとしての使い方できるし慣れたらクエストにアンドロイドアプリとしてデプロイすればクエスト単体でユーザーに使わせる事ができる。
試した事ないけど
>>725みたいなテキスト出力とかもできると思うよ
PCにRESTかなんかで投げた方が楽だと思うけど >>728
PCの持ち込みができるんならQuestにこだわる必要もないんですけど、
ノートPC買い替えて、外付けグラボ買って本格的にシステム構成すると20万円超えか・・・。
確かにPCとリンクしてたら機械学習を使ったり研究に幅が出てくるんですよね。 corei7skylakeのノートpcに外付けグラボ繋いだら、occulus riftとかvive pro eyeで開発って可能でしょうか?
そもそもノートPC前提では無理がありますか? >>729
もうほぼ方向性が固まっていそうな所に今更の発言で申し訳ないが、貴方のやりたい事を一番手短に出来る、かつこれからの拡張性もあるのはUE4+questだと思う
理由は、
1、ゲームの内容的にハンドデバイスが必須になると思うので、将来的にもハンドデバイスが用意されているデバイスがよいと思う
2、ゲームの内容的に過剰な装飾は要らなさそうなので、用途を考えてもPCVRよりもスタンドアロンで動かせるquestに優位性がある
3、UE4はスタンドアロン、oculuslinkによるPCVRの切り替えがUnityに比べて非常に簡単
実際私がcv1+touch用に組んだハンドデバイスを使ったデモプログラム(ドアを掴んであける、引き戸を動かす等)がコンパイル対象を切り替えるだけでそのまま動いた
4、cv1の外部センサーは、touchを使って歩ける程度に精度を持たそうと思うと3つは必須
その場合PCでのセッティングは結構時間がかかる(30分程度)し、USBがらみでかなり不安定なので予想外のトラブルが起きやすい
さらにノートでは難しい
以上がお勧めする点
不安点は、quest+linkがまだかなり不安定な点かな 切り替えが楽なのはえーな
UnityのOculusIntedrationだとまだそんな感じには出来ないんだっけ >>732
アドバイスありがとうございます。
UE4は想定外でした。
C#は結構いじってるんですが、C++は自分にはとても扱えない上級職用の言語というイメージが・・・。 >>732
現時点で候補はQuestかVive Pro Eyeに絞れてきました。
Questはスタンドアロンなので病院などに持ち込むときに圧倒的に便利。
Vive Pro Eyeは視線入力とシースルーと高機能なのが魅力。
病院に持ち込むときの障害を無視すれば断然Vive Pro Eyeなんだけど、
このコロナ感染の状態でPC、モニタ、ヘッドセットを持ち込んでセッティングするのは目立ちすぎるんですよね。
Questなら現場の医療従事者に渡して実験をお願いすることも不可能じゃないかなと。 Occulusもいずれ視線入力に対応するようだし、
Vive+Tobbyは情報の少なさが気になるので
(Tobbyは視線単体の製品で情報の少なさに苦しんだ嫌な過去が・・・)
Occulus Questがいいのかな。
視線入力で研究の幅が広がるのをとるか、Questの手軽さをとるか・・・。
ちなみにOcculusとViveだとOcculusの方が開発しやすいとかありますか? VIVEプロのハンドトラッキングは前に試した時はだいぶ微妙だった
開発のしやすさは大差ないんじゃ >>734
c++なんて覚える必要ないよ
>>712の内容なら、サンデープログラマのオレでも全部ブループリントで3日、いや2日もあれば作れるよ
上級者なら1日だね
UE4のブループリントを知らないならぜひ一度使ってみて欲しい
死ぬほど便利だから
viveは持ってないからわからないなぁ
obulusなら、go、questで開発した事あるけど、事前のセッティングが多少面倒いだけで一度出来てしまえば後は簡単
情報も沢山ネットにあるしね
ヒストリアとかのサイトで全て事足りる >>739
開発したことあるのはcv1 、go、questだった >>739
UE+C++
Unity+C#
なイメージがあったから、C#なら使えるけど、C++と言われると名前だけで退散したくなります。
C++に踏み込まなくてもいいなら試してみるのも有りか。 >>737
病院内でセンサー設置は現状では厳しいでしょうね。
というかvive pro eyeにするとしたら、当面のところ臨床研究はあきらめて研究室で開発だけします。
ARが使えれば開発しただけでも論文にはできそうなきがするので。 手持ちのデスクトップマシンが
IntelR Core? i5-6500 Processor
RAM 16GB
なんですけど、グラボつめばVive pro eyeでARいけますかね。
リアル道路に仮想横断歩道作ったり、
リアル車を認識しやすいようにずっと仮想マーキングし続ける
みたいなイメージです。 すいません。
今日一日Vive Pro EyeとOcculus Qusetを比較してみて、
Occulus Questの方に戻ってまいりました。
Viveの設備がかなり大掛かりになるのと、
Occulus Questがコンパクトでどこでも事件できることハンドトラッキングも含めて出来が良さそうなことに気づけました。
みなさんのアドバイスむちゃくちゃ助かりました。
ありがとうございます。 UnityによるVRアプリケーション開発
あたりで基礎のきをまなんでいるところですが、
最初にここ見とけって本とかサイトあったら教えていただけると助かります。 >>741
Unity でも C# に踏み込まない選択ありだぞ >>746
C#は使ったことあるので、いけるとおもいます。
むしろ自分にとってはPythonとかよりとっつきやすい。 Occulus Questポチリました!
のつもりが在庫なし・・・。
尼でいちおう予約したけど本当に6月1日に来るのかな・・・?
今年は本当にコロナに振り回されっぱなしだ。 倉庫が三密だから配送が無期限ストップとか聴いたけど >>749
アマゾンの倉庫?
フェイスブックの倉庫? VRデバイスの貸し借りってこれから感染リスクとかいわれてくるんだろうね。
気軽にデモとかでVRデバイス体験とかできなくなってくる。 unityでvrゲーム作ってviveとoculus両方用にコンパイルって可能なの? amazonで注文したOculus Rift Sが火曜到着になった!
発注時は6/15くらい予定だったのでこれはうれしい誤算。
みなさんこれからよろしくお願いします! VRゲームをせこせこ作りながらたまに
このスレを除いてるんですが、皆どこで
公開してるの?ネットでVRゲームを検索しても個人勢で作ってるのは全然見当たらない。
ピンキリなんでしょうが個人でどこまで頑張れるか参考に見てみたくて。
それとも制作はするけど公開しないのが主流なのでしょうか? SteamとかOculusStoreとかじゃないかな。
OculusGo持ってるけどUnityの練習で作ったようなゲームがフリーで置いてたりするよ。 >>756
そっちもあったか。
ストア系は企業のイメージだったから
見てなかった、そちらも探してみます。
ありがとん。 オンラインじゃないけどコミケみたいな同人即売会でもVRのゲームちょこちょこあるよ >>758
即売会とか参加できず後日、入手したい場合はどうするんだろ。
DLSiteとか?でもそこまで行くなら個人制作の枠超えて複数人で制作してるサークル的なものになりそう。
(音声入りとか外注したり)
いえ、個人でUnity勉強して制作した物はどのくらいの出来栄えか知りたくて。
ピンキリなのは分かってますが色々見れば大まかには分かるかなぁと。 脚とか体幹の動きを検出したくなったんだけど、Viveのトラッカー使うしか方法はありませんか?
Oculus Quest持ってるんだけど買い換えるしかないのかなぁ?
手軽にあちこちにもっていきたいので、アウトサイドインでなくインサイド・アウトのトラッキング方式の機種で、
トラッカー販売しているのないですかね。 基本的にトラッカーってVIVEだけなんですね。
Questでハンドトラッキング可能になったら、余ったコントローラーをトラッカー代わりに使用で簡易的に2つトラッカーを実現できるんだけど、
こんな仕様で工学系の論文はかけないだろうなぁ。 無差別に外カメラで撮影したりトラッキングするのはGoogleGlassと同じ盗撮の問題があるからでしょ(GoogleGlassはVRではないけど) 今後も他社はトラッカー出さないのかな。
ちなみにバイブプロでベースステーションを三脚に取り付けて、設置場所を移動させてキャリブレーションさせるのってどれくらい時間かかりますか? >>763
vivePro使ってるけど5分くらいかな。
部屋がとんでもなく広いならもっと掛かるだろうね。 >>765
kinectのbody tracking見てきた。
コレってkinect1個で体のトラッキング可能なの?
それとも複数台必要? >>764
自宅に設置してソフトウェア開発して、
学校に持っていってデータ取りを考えてるんだけど、
VIVE自体の設置は5分でいけますか?
PC+モニタを設置してデータ取りをするとなると
搬入設置撤収で前後2時間でいけるのかな? >>765
これ位置の精度どれくらいあるんだろう。
1個のキネクトからAI使って検出している感じですよね。
左右の足の位置のズレを2cmぐらいの精度でほしいんだけど、
おそらくそれは無理なんだろうなぁ。 >>766
1台でできる。かめはめ波を撃つとか、スーパサイヤ人になろうとかニコニコ技術部でやってたと思う(時代を感じる)
解像度は640*480のスキャンラインらしいのでどれぐらいの幅でスキャンかけるかによって変わるけどギリギリ2cmに収まるのでは。
二次元の奥行き情報なので三次元的なモーションにするには結局二台使ってソフトウェアで二方向から取得した姿勢を合成しないといけないと思う。 >>769
1台だけのときUnity上でどんな情報になってるんだろ。
VIVEでありていのSDK使って3次元特定するよりは、かなり技術力いりそうだな。
でも技術としてはすごく面白いですね。 >>767
キャリブレーションだけじゃなく
1から設置ですか?
DPケーブルやら電源やらそこそこ時間掛かると思う、ベースステーションの位置が決まってて配置するだけなら全部で20分(前後5分)くらいかなぁ。
慣れれば早そうだけど設置してから配置は弄ってないから参考までに。 >>771
ありがとうございます。
プログラミングするのは家で、実験するのは施設のため位置から設置し直しての時間です。
あまり大事だと施設から断られるんだろうな・・・。
自宅に被験者が来てくれるとありがたいのだけど、
それはまたいろいろと倫理審査がうるさそうだし。 VRでグリップ移動を実装したいのですがネットで調べても情報が無くご教授頂けないでしょうか。
※グリップを押してる間だけVRコンの移動幅でVR上移動出来るやつです。
どういう仕組みで動いてるかもね分かりません。
あれって自分が動いてるのではなくて
ワールド全体を動かしてるのでしょうか、グリップボタンONでオブジェクトがVRコンと親子付けされてるとか? 「グリップ移動」とはどんな挙動の事なのか詳しく書いた方がいい。
環境設定してるなら既にコントローラーは2個位置取得できてるわけだよね。そのコントローラーで何かオブジェクトを掴んで移動させたいってこと? >>774
はい、ちょっと正式名称があるか分からないのですがVRコンのグリップ(又はトリガー)を押しながら動かすと
シーン内のオブジェクト全てが連動して動く=VRコンを自分に引き寄せれば結果的に全身出来る。という移動方法です。
例えがアレなんですが一部の3Dゲーム(エッチなやつ)で採用されてるgripmoveというものです。
それを自分が作ってるVRゲームに実装したく勉強してるのですが調べても情報が出てこず、という状況です。 オブジェクトじゃなくて自分の移動方法だったのね。まったく分からなかった。
全体動かすのではなく視点移動するだろうね。
想像で考えると
・グリップを握った瞬間に自分の位置を保存
・握ったままグリップを動かした際の差分を取得
・離したらコントローラーを移動させた量だけ視点を移動させる
実際は手前に引き寄せただけの幅だとなかなか進まないかもしれないので増幅させる必要がありそう。あとはグリップ握ってるときも視点は自由に回転できるので移動方向の固定とか必要かも。 エロゲのグリップ移動だと、離して移動じゃなくてグリップオンの状態でコントローラーを動かしたらその都度移動するな
やる事は>>777が言ってるのとほぼ同じ
グリップオン時に自分とハンコンの位置取得
取得したハンコンの位置と現在のハンコンの位置の相対差を、自分の位置に反映するのをフレーム毎に行う
て感じかな >>778
>>779
ありがとうございます。
スクリプトはあまり触っておらず移動方法はsteamVRPluginのサンプル頼みだったので。
上記の方法で取りあえず試してみます。 >779じゃなく>>777宛です。
アンカー間違えた・・・ >>773です。
最初から躓きまして・・・
VRコントローラーのボタンを押しても
反応無しです。
画像はキーボードでPを押したらスクリーンショットを撮るのですがVRコンだと反応なし、VRコンの設定はこんなに難しいのですか?
https://i.imgur.com/VLg4WCu.jpg 各種機器の具体的なものは調べていくしか無さそう。
「steamvr lefthand 有効にする」でググったら一つ目がこんなのだった。
ttps://note.com/citron_vr/n/n9e85b383b489
もしかして「spac drag」って>>773が実現したい機能なのかね >>783
わざわざありがとうございます。
PC再起動したらコントローラーバインドの設定は反映されました、再起動必要だったのかな。
次はこれをボタンとしてUnity上で使う方法を勉強します。
リンク先をみておきますね、ありがとうございます。
なんで普通のコントローラーは簡単に設定出来るのにVRコンは駄目なんだ・・・もう8時間はうなされてます。 >>784
今までコーディングした事ないレベルで始めるならUnityよりUEでBPで組んだ方が楽じゃないかな >>785
UEも無料で使えてVRと相性良いと聞きますね。ただVRソフト作って移動方法以外はそれなりに出来てきたので今更Unityから離れられず・・・
取りあえず今はVRコンの入力取得辺りを勉強しています、やっぱりサンプルシーンを改造して制作すると、壁にぶち当たって心折れそうになりますね。
もう少しスクリプトとか詳しくなってからご教示をお願いするかも知れません。お手数をお掛けしました、ありがとうございました。 この間、視線検出に対応したヘッドセットが10万円以下で発売という記事を見たがググっても出てこない。
誰か知ってる人いませんか? three.jsを使ってる方っておられますか?
Windows10pro64bitのXAMPに置いてローカルホストのChromeブラウザからは見れるのですが、
VIVEやOculusやスマホゴーグルからは見れるんでしょうか?
ハブに繋いだアクセスポイントのWi-Fi経由でならスマホでは見れるとは思いますが
VR機器を持ってないのでわかりません
VR機器でthree.jsのサンプルを視聴可能かどうか教えてください。 >>787
VIVE FOCUSですかね?
HTC、アイトラッキングHMD「VIVE Pro Eye」とスタンドアロン型「VIVE FOCUS」
https://s.kakaku.com/prdnews/cd=pc/ctcd=0087/id=85627/
■「VIVE Pro Eye」価格は186,120円(税別)。
■「VIVE FOCUS PLUS」価格は89,750円(税別)。 focusは視覚探知ないんじゃない?
視覚探知アリで10万以下たったから除外してたわ Focusはいかにも視線検出に対応していそうなネーミング良くないですよね。 Pro EyeでもFove0でも無くて、
3日ぐらい前に近日中に視線対応の新製品発売ってグーグルのプッシュアップニュースで見たんです。
なんかコントローラも体の真後ろに持っていっても検出出来るとかで、非常に面白そうなモデルでした。
後で見ようと思ってたら消えてしまって、ググっても出てこない。
10万きってスタンドアロンで視線検出だったら即購入対象なんだけどなぁ。 視線検出って12年ぐらい前に俺研究してたんだけど、今こんな民生品でできるのがホントにすごいよなぁ。
机に置いて使うちょっとしたサイズの実験機器だったのに。 >>793>なんかコントローラも体の真後ろに持っていっても検出出来るとか
それ、FOCUS PLUSのコントローラーが超音波トラッキングの事だったりして・・
だとしたら同じように早とちりだったので削除されたのかもね >>795
viveとかoculusとかvrのビッグネームではなかったんだよなぁ。
こんな会社あったんだと思ったので。
ブックマークしとけば良かった。プッシュ型ニュースアプリは常時更新されちゃうので見逃しが困るね。 SteamVRを使ってVRコントローラーの入力取得を勉強しているのですが
キーボードの場合、
if(Input.GetKeyDown(KeyCode.Space))//スペースキーが押された
上記で取得出来るんですがVRコントローラー(使用してるのはVIVE)の場合
どういう記述にすればいいのでしょうか?
例えばVIVEコントローラーのメニューボタンを取得したい場合などです。
色々調べた結果、Unity Button IDは0 ※右VRコン
と書いてあるのは見つけたんですがOpenVR用とありSteamVR用とは違うのか?
その辺も不明です。
またif(Input.GetKeyDown(KeyCode.0))と記述してもエラーが出てしまいました。
お手数では御座いますがご教示頂けないでしょうか?
ちなみにPCから書き込んでいるのでID変わっているかもしれませんが
(ワッチョイ 51b0-SM+h)です。 すいません。
>>797は>>786です。
あれからずっとVRコントローラー関係を調べていたんですが
難しく・・・・ >>798です。
何度も何度もすいません、自決しましたので一応報告致します。
ネットで探してVRコンの入力取得方法でしたが、ネットで見つけたスクリプトの
public SteamVR_Action_Boolean GrabAction;
上記のSteamVR_Action_Booleanでいつもエラーが出ていて先に進めなかったのですが
試しに違うプロジェクトで試したら何故かエラーが出ずVRコンの入力が取得出来ました。
プロジェクト内で何が違ったのかこれから検証するのですが、取り合えず取得できたので
ご報告を・・・あとコピペになりますが、以下のリンク先でVRコンの入力取得を
確認しました。
https://qiita.com/kyourikey/items/232f7810769c7727c9bd
お騒がせして本当にすいませんでした、また無駄にスレを消費してしまいご迷惑をお掛けしました。 >>799
コピペスクリプトです。
using UnityEngine;
using Valve.VR;
public class SteamVRInputTest : MonoBehaviour
{
public SteamVR_Input_Sources HandType;
public SteamVR_Action_Boolean GrabAction;
void Update ()
{
if (GrabAction.GetState(HandType))
{
Debug.Log(GrabAction.ToString());
}
}
} VRでoculusで組んだものをviveに移植って難しい?
コントローラーとかの部分を書き変えればいける?
それとも6dofの位置情報とかも書き変えなきゃダメですか。 viveは知らんがrift用に組んだプログラムをwindowsmrで動かした時はHMDの初期高さがずれただけで後はそのまま動いた
多分床情報の持ち方が違うんだと思う SteamVR Unity Plugin v2.2.0の質問ってこちらでよいでしょうか?
サンプルを真似てオブジェクトを自由に持ち運びできるようにしようとしているのですが、
Throwableコンポーネントで掴めるようになりましたが、放し方が雑だとそのまま飛んで行ってしまいます。
リジットボディの空気抵抗は1にしました。
VRChatの3Dカラーペンのような動きを実現するのに良いコンポーネントはあるでしょうか? どうせお前らみんなカスメでVRセックス目的なんだろ?
この変態どもめ!! カスタムオーダーメイドは3DoFでスカートを覗く臨場感がないから、
6DoFで這いつくばってスカートの中を覗けるゲーム作ってる変態だが文句あっか?w
VRカノジョのキャラクターとかストーリー乗っ取れれば最高 UnityにOculus Integrationインポートしたが、2時間ほど戻ってこない・・・。
こんなにじかんかかるものなの?
一晩掛かりそうな勢いだ・ >>803
どういう風な挙動にしたいの?
自分は慣性無しで空中にオブジェクト置いたままにしたいから重力切り、質量1 空気抵抗30 トルク抵抗30にしてるけど自然な感じで投げたいなら抵抗値の2つを色々弄るしかないと思う。
質量1 空気抵抗3トルク抵抗3くらいから数値変えていってみたらどうでしょうか? questでVRプログラミング初めてみたんだけど、
ビルドするときValucan削除するだけで数十分またされるんだけど、
こんなものなの?
それともうちのPCのスペック不足?
これでは開発全然進みません・・・。 でも初めて自分のプログラムで立体をつかめると感動した。
なんか世界を構築してるような奇妙な面白さがあるね。 なんかスペックきつそうだな。十年後くらいにまた来るわ。そのころになったら俺が買うような雑魚スペPCでも出来るようになってるだろ。
そんときまた色々教えてくれよな!じゃあな! いやいや20数年前のWindows98の時に既に
VRML2.0のタッチセンサーで画面内のオブジェクトをマウスでグリグリ動かせましたけど・・・
基本的な仕組みはたいして変わらないと思うな
(質感や解像度の表現力とマウスかハンドコントローラーの違いなだけ) そりゃ仕組みは同じだろうさ
ただVRのハンドデバイスは体感しないと素晴らしさが全然伝わらん ハンドデバイスもだけどトラッカーも
なんかもうちょっとスマートでコンパクトで安く
トラッキング出来ないものかしら・・・ 手軽さならハンドトラッキングだけど、ゲームとか物体掴む系は何らかのフィードバックが無いと圧倒的に使いづらいからなぁ
棒握ってボタン押すだけでも全然違うしな ハントリガーからバーチャルグローブになる流れかな?
Hi5$500のVRグローブってフィードバック感じるのかな?
にしても触覚だけでも5万円は高いなぁ >>815
その通り
CPU/GPUじゃなくてセンサーや力覚インターフェースが進化した結果
リアリティが増した
勿論まだ物足りない >>809
レスありがとうございます。値って0から1の範囲だと思ってました。
少し目標に近づけましたが現状、猟奇的な仕上がりです。
https://streamable.com/8cqe3d
もう少し数値を探してふわっと、もしくはベッド側を作りこんで反発させる必要があるのかなと思ってます。 >>821
おお、Unity上で3Dモデルをグリグリ動かせるのって良いですよね!
自分も同じようなVRソフト作ってる最中です。
あと、どういう風な挙動に・・・って
VRCにあるカラーペンみたいに。と書いてありましたね、すいません。
それだったらオブジェクトのUseGravity
をOFFだとどうでしょうか?
それと合わせてボックスコライダーをトリガーにすれば動画の挙動になると
思います。
モデルを離して下にストンと落とすなら
別ですが。
https://www.youtube.com/watch?v=EuAccvD9kgY&feature=youtu.be >>821
立体感が皆無
ただの看板にしか観えない >>822
まだこっちの方が良いね
でも立体感はあるけど
風船にしか観えない >>822
重力オフは最初やってたんですけど、手放してからも微妙に動いていっちゃうんですよね。
空気抵抗を大きくするんでしょうかね。
看板感とか風船感の言いたい事もすごく意味が伝わります。
モデルの動きが軽くて重量感やリアルさがないんですよね。
で、現状リアルに近づけるのは厳しいので、時間停止もののAVみたいな
非現実的な方がVRと親和性あるかなと思って進めてるのですが、
そうなると演出とか構成の話になるのでスレチになっちゃうという。 unity用のコード
至るところで処理が分散されてて
全体像がつかめない
他人のコード読んでるとそうなる
解決策ない? オブジェクト指向とかイベントドリブンの宿命でもあるけど
完全に定型というとこまで行ってなくて
決まってない場所にでも自由に描けてしまうので
同じことするにしても人によって違うところに描いて有ったりするね
でも Unity 以外を使って描かれてるものよりはマシじゃないかなとも思う 例えばupdateだけでも
数十から百以上のオブジェクトが一斉に更新して複雑に絡みあうとか
ソース見て理解できる人いるの?? そういうのは書き方が下手なんじゃない?
書いた本人も三ヶ月後には判らなくなってそう dynamic bone
とかのpackageスクリプト群を
dllにする方法教えて
外部ソースでdllを使いたいから oculus quest用にコンパイルしようとするとすっごい重い・・・。
豆挽いてコーヒー入れられるんじゃないってぐらいの時間がかかる。
今はi5-6500 3.2GHzのオンボードグラフィックで
windows10をSSDにインストールしてる。
ここ変えたらコンパイル早くなるよってある? 視点ポインタだけでSlider動かすことって可能ですか? >>842
コレの応用?
Unity&VR 視点ポインターが当たった時にオブジェクトの透明度を変える(色も変えれる)
https://nabesi777.はてなblog.com/entry/2018/09/29/Unity%26VR_%E8%A6%96%E7%82%B9%E3%83%9D%E3%82%A4%E3%83%B3%E3%82%BF%E3%83%BC%E3%81%8C%E5%BD%93%E3%81%9F%E3%81%A3%E3%81%9F%E6%99%82%E3%81%AB%E3%82%AA%E3%83%96%E3%82%B8%E3%82%A7%E3%82%AF%E3%83%88 questで実際のコントローラーの移動量の半分だけ
VR世界上の手を動かすってできますか? アンリアルエンジンは無料のキャラデータみたいのあったけど
unityにもあるの? unity自身のUIのフォントって大きくできないんでしょうか?
PreferencesnoのUI Scalingを使ってもWindowバーのフォントは大きくならないですよね・・・
$Kモニタでプログラミンしてると目が潰れそうです questでコントローラーの座標位置取得ってどうやるんでしょうか?
ボタンオスなどのイベント取得は説明あるけど、座標位置取得って見つからない・・・ Questって定期的にビルドできなくなるんだけど一体何なの?
なんかいろいろいじってると復活したりするんだけど、
Unity、Questどっちの問題なんだろう? Questのデバッグってすごく時間かからない?
ビルドしてかぶって確認ってそれだけど3〜5分コース・・・
みんなこんな環境で開発してるのかな? 誰かに被せっぱなしにすれば被る手間と確認する手間が省ける
っていうネタ見たことありますが
まずは人間コンパイラよろしく確度上げてプログラミングしていくのが一番かなって tundoraトラッカーってどうなった?
随分前にKickstarterでクラファンしてたの支援したんだけどまだ現物が届いてないわ Unityのポートフォリオを企業のみに公開したいのですが
どのサイトを使うのがおすすめでしょうか? とあるUnityのテキストに従ってプロジェクトを作成していたら、アセットストアからStandard
Assetsをゲットしろという指示があったのですが、現在は公開されていないようです
これはどこか別の場所から入手可能でしょうか? それともこのテキストが古すぎる?
あるいは別のアセットで置き換え可能ですか? テクスチャとかなんでこのアセット以外から
適当に選んでおくか最悪スキップすればいいのかもしれませんが >>859
なるほど。本の改訂年はそれほどでもないのですが、それはおそらく誤植の修正とかで
内容の大筋は古いままということかもしれませんね Unity関連の本をある程度チェックしてみましたが、「言われるままに作ればそこそこのもの
ができるが、理解した気にはなれない」ものが少なくなかったように思います
まあそれでもいいのかもしれませんが... そういうプロジェクトを下敷きに何か新たに作れば
とはいえ、どなたか理解した気になれる本でおすすめがあればお願いします ゲーム開発出来る人はWeb系も出来ると友人から聞いて
ゲーム開発だけで食べていけるかも心配なので
Next.jsとLaravelを今勉強してますが、正直興味が湧かなくて
集中が途切れて萎えそうです
毎日Unityの参考書を読み込んで明け方まで熱中してた時は
集中が途切れなかったのに、好きなことだからなのでしょうかね・・ Unityがインストール数に応じたランタイム料金
突然の発表に反発や戸惑いの声
2023/09/13 16:25 客寄せライセンスから収益回収モードに移行か
ドロスレに営業に来てたヤシにそのうち有料に変わるんじゃね
と言ったら否定してたなお花畑か確信犯かしらんが 質問です
Unreal EngineでWindowsダイアログベースのアプリケーションって作れるんでしょうか?
実行時にリストボックスやラジオボタンを配置したいです