VRプログラム雑談【Unity/UnrealEngine】【HTC Vive/Oculus Rift/その他VR】 [無断転載禁止]©2ch.net
>>710
Questみたいなスタンドアロン型は難しいのでしょうか?
学生ですが、研究室でなく外部の施設で利用してもらうのでPCなしで動くならそれが一番なんですが。
この程度のレベルならRiftをノートPCに接続して運用も可能でしょうか? >>711
とりあえずハードウェア買っていじってみたいな。
この目的だと
Rift、Quest
どっちがいいとかありますか?
学生で自費で購入しようと思うので10万超えないぐらいの機種だと助かります。 >>712
やったわけではないけど可能だと思います。
>>713
Oculus IntegrationというのがそのSDKのようなものです。
使いこなしてないのでわかりませんが、一回も課金したことないのでたぶん無料です。
ただ、Oculus Rift CV1のことしかわかりません。
Oculus Integration を調べてみてください。 >>714>>716
お金持ちならOculus RiftでもQuestでもHTC ViveでもWindows MRでも好きなの買えば
いいんだけど、何もないならVRアプリ開発前にダイソーやセリアで100円や500円で
売っているこれをスマホにつけてYoutubeのVR 360度動画あたりを見てみるのが先
ttps://rocketnews24.com/2017/08/09/937811/
ttps://rocketnews24.com/2020/04/21/1362127/
次にMozillaがメインで開発しているタグだけでVRが作れるaframeというWebGLベースの
WebVRがあるからこの辺も見てみる
ttps://aframe.io/
aframeならテキストエディタだけでも色々できるからね
UnityでVRアプリを作るのはSDK入れるだけで普通の3Dアプリを作るのとほとんど同じ
なんだけど、3DoFと6DoFとの違いやどうやって操作するのかというUIの部分などが
違うから、まず3DoFで音声入力か視線入力ぐらいしかがないスマホVRで何ができて
何ができないか確認した上で次のステップに進んだほうがいい >>718
なるほどこんなお手軽に体験するのもあるんですね。
明日学校帰りにダイソー除いてみます。 初心者でも開発がしやすい、ネットでの情報が多い機種ってあるんでしょうか?
Occulusあたりがユーザー多そうですが、
スタンドアロンよりPC接続する方が開発楽とかありますか? UnityでOculusは楽だよ。
Questはアプリいちいち入れるのめんどくさい。
HoloLensもぼちぼちめんどくさい。
ネットで調べるにあたっては、Unityでまず普通の画面でそれが実現できるようなものを作れるようになったらOculus対応はほとんど終わったようなもんだから、Unityの知識として調べたほうが良いんじゃないかな。 >>721
Questみたいなスタンドアロン型よりもRiftみたいなPCとセットで働くやつのほうが扱いやすいってことでしょうか? >>722
Riftの方が良いと思うよ。予算が許すんだったら。
位置のトラッキングもしっかりしてるし。 >>723
なるほど。
病院などの施設に持ち込んで実験することを考えると、スタンドアロンの方が理想的なんですが開発のしやすさはRiftですか・・・。
ちょっと前ならデスクトップPC持ち込んで自分で設置、実験後回収ってできたんですが、
最近はコロナのせいで病院に入れなくなってるから参ったな・・・。
ノートに外付けグラボにするとしても、手持ちのノードはThunderboltがないし・・・。 >>723
QuestでもUnityで出力データをテキストファイルに書き出し、Qusetの記憶装置に保存。
PCと接続したときにテキストファイル回収とかは可能でしょうか? >>724
そういうとき用にゲーミングノート使ってるよ。
設営は慣れたら10分でできる(Oculus Rift)
ただ、渡してはい設定してくださいは難しいだろうな。
>>725
できるよ。でも回収めんどくさいから、どっかに送ると良いんじゃない? どっかってのは、インターネットにではないよ。
研究データなんだから機微情報かもしれんし。
研究室のWiFi繋げたら、研究室のサーバに送られるとかで良いんじゃないかな。
HoloLensで同じ仕組み作ったよ。会社に持って帰ってきてWiFi繋いでアプリを起動したら、データ転送ってメニューが表示されるようにした。 >>724
710だけどクエスト単体にデプロイするとかだとオキュラスリフトとかよりもちょっと開発するのに手間がかかるから、みてる感じVRは不慣れそうなのでPC VRの方がいいかと思ったけど調べらればそこまで難しくない。
クエストは最近Oculus Linkという仕組みで、スタンドアローンであるクエストをUSB-Cでパソコンに繋げてリフトのように扱う事ができるのでクエスト買えばいいと思う。
それでPC-VRとしての使い方できるし慣れたらクエストにアンドロイドアプリとしてデプロイすればクエスト単体でユーザーに使わせる事ができる。
試した事ないけど
>>725みたいなテキスト出力とかもできると思うよ
PCにRESTかなんかで投げた方が楽だと思うけど >>728
PCの持ち込みができるんならQuestにこだわる必要もないんですけど、
ノートPC買い替えて、外付けグラボ買って本格的にシステム構成すると20万円超えか・・・。
確かにPCとリンクしてたら機械学習を使ったり研究に幅が出てくるんですよね。 corei7skylakeのノートpcに外付けグラボ繋いだら、occulus riftとかvive pro eyeで開発って可能でしょうか?
そもそもノートPC前提では無理がありますか? >>729
もうほぼ方向性が固まっていそうな所に今更の発言で申し訳ないが、貴方のやりたい事を一番手短に出来る、かつこれからの拡張性もあるのはUE4+questだと思う
理由は、
1、ゲームの内容的にハンドデバイスが必須になると思うので、将来的にもハンドデバイスが用意されているデバイスがよいと思う
2、ゲームの内容的に過剰な装飾は要らなさそうなので、用途を考えてもPCVRよりもスタンドアロンで動かせるquestに優位性がある
3、UE4はスタンドアロン、oculuslinkによるPCVRの切り替えがUnityに比べて非常に簡単
実際私がcv1+touch用に組んだハンドデバイスを使ったデモプログラム(ドアを掴んであける、引き戸を動かす等)がコンパイル対象を切り替えるだけでそのまま動いた
4、cv1の外部センサーは、touchを使って歩ける程度に精度を持たそうと思うと3つは必須
その場合PCでのセッティングは結構時間がかかる(30分程度)し、USBがらみでかなり不安定なので予想外のトラブルが起きやすい
さらにノートでは難しい
以上がお勧めする点
不安点は、quest+linkがまだかなり不安定な点かな 切り替えが楽なのはえーな
UnityのOculusIntedrationだとまだそんな感じには出来ないんだっけ >>732
アドバイスありがとうございます。
UE4は想定外でした。
C#は結構いじってるんですが、C++は自分にはとても扱えない上級職用の言語というイメージが・・・。 >>732
現時点で候補はQuestかVive Pro Eyeに絞れてきました。
Questはスタンドアロンなので病院などに持ち込むときに圧倒的に便利。
Vive Pro Eyeは視線入力とシースルーと高機能なのが魅力。
病院に持ち込むときの障害を無視すれば断然Vive Pro Eyeなんだけど、
このコロナ感染の状態でPC、モニタ、ヘッドセットを持ち込んでセッティングするのは目立ちすぎるんですよね。
Questなら現場の医療従事者に渡して実験をお願いすることも不可能じゃないかなと。 Occulusもいずれ視線入力に対応するようだし、
Vive+Tobbyは情報の少なさが気になるので
(Tobbyは視線単体の製品で情報の少なさに苦しんだ嫌な過去が・・・)
Occulus Questがいいのかな。
視線入力で研究の幅が広がるのをとるか、Questの手軽さをとるか・・・。
ちなみにOcculusとViveだとOcculusの方が開発しやすいとかありますか? VIVEプロのハンドトラッキングは前に試した時はだいぶ微妙だった
開発のしやすさは大差ないんじゃ >>734
c++なんて覚える必要ないよ
>>712の内容なら、サンデープログラマのオレでも全部ブループリントで3日、いや2日もあれば作れるよ
上級者なら1日だね
UE4のブループリントを知らないならぜひ一度使ってみて欲しい
死ぬほど便利だから
viveは持ってないからわからないなぁ
obulusなら、go、questで開発した事あるけど、事前のセッティングが多少面倒いだけで一度出来てしまえば後は簡単
情報も沢山ネットにあるしね
ヒストリアとかのサイトで全て事足りる >>739
開発したことあるのはcv1 、go、questだった >>739
UE+C++
Unity+C#
なイメージがあったから、C#なら使えるけど、C++と言われると名前だけで退散したくなります。
C++に踏み込まなくてもいいなら試してみるのも有りか。 >>737
病院内でセンサー設置は現状では厳しいでしょうね。
というかvive pro eyeにするとしたら、当面のところ臨床研究はあきらめて研究室で開発だけします。
ARが使えれば開発しただけでも論文にはできそうなきがするので。 手持ちのデスクトップマシンが
IntelR Core? i5-6500 Processor
RAM 16GB
なんですけど、グラボつめばVive pro eyeでARいけますかね。
リアル道路に仮想横断歩道作ったり、
リアル車を認識しやすいようにずっと仮想マーキングし続ける
みたいなイメージです。 すいません。
今日一日Vive Pro EyeとOcculus Qusetを比較してみて、
Occulus Questの方に戻ってまいりました。
Viveの設備がかなり大掛かりになるのと、
Occulus Questがコンパクトでどこでも事件できることハンドトラッキングも含めて出来が良さそうなことに気づけました。
みなさんのアドバイスむちゃくちゃ助かりました。
ありがとうございます。 UnityによるVRアプリケーション開発
あたりで基礎のきをまなんでいるところですが、
最初にここ見とけって本とかサイトあったら教えていただけると助かります。 >>741
Unity でも C# に踏み込まない選択ありだぞ >>746
C#は使ったことあるので、いけるとおもいます。
むしろ自分にとってはPythonとかよりとっつきやすい。 Occulus Questポチリました!
のつもりが在庫なし・・・。
尼でいちおう予約したけど本当に6月1日に来るのかな・・・?
今年は本当にコロナに振り回されっぱなしだ。 倉庫が三密だから配送が無期限ストップとか聴いたけど >>749
アマゾンの倉庫?
フェイスブックの倉庫? VRデバイスの貸し借りってこれから感染リスクとかいわれてくるんだろうね。
気軽にデモとかでVRデバイス体験とかできなくなってくる。 unityでvrゲーム作ってviveとoculus両方用にコンパイルって可能なの? amazonで注文したOculus Rift Sが火曜到着になった!
発注時は6/15くらい予定だったのでこれはうれしい誤算。
みなさんこれからよろしくお願いします! VRゲームをせこせこ作りながらたまに
このスレを除いてるんですが、皆どこで
公開してるの?ネットでVRゲームを検索しても個人勢で作ってるのは全然見当たらない。
ピンキリなんでしょうが個人でどこまで頑張れるか参考に見てみたくて。
それとも制作はするけど公開しないのが主流なのでしょうか? SteamとかOculusStoreとかじゃないかな。
OculusGo持ってるけどUnityの練習で作ったようなゲームがフリーで置いてたりするよ。 >>756
そっちもあったか。
ストア系は企業のイメージだったから
見てなかった、そちらも探してみます。
ありがとん。 オンラインじゃないけどコミケみたいな同人即売会でもVRのゲームちょこちょこあるよ >>758
即売会とか参加できず後日、入手したい場合はどうするんだろ。
DLSiteとか?でもそこまで行くなら個人制作の枠超えて複数人で制作してるサークル的なものになりそう。
(音声入りとか外注したり)
いえ、個人でUnity勉強して制作した物はどのくらいの出来栄えか知りたくて。
ピンキリなのは分かってますが色々見れば大まかには分かるかなぁと。 脚とか体幹の動きを検出したくなったんだけど、Viveのトラッカー使うしか方法はありませんか?
Oculus Quest持ってるんだけど買い換えるしかないのかなぁ?
手軽にあちこちにもっていきたいので、アウトサイドインでなくインサイド・アウトのトラッキング方式の機種で、
トラッカー販売しているのないですかね。 基本的にトラッカーってVIVEだけなんですね。
Questでハンドトラッキング可能になったら、余ったコントローラーをトラッカー代わりに使用で簡易的に2つトラッカーを実現できるんだけど、
こんな仕様で工学系の論文はかけないだろうなぁ。 無差別に外カメラで撮影したりトラッキングするのはGoogleGlassと同じ盗撮の問題があるからでしょ(GoogleGlassはVRではないけど) 今後も他社はトラッカー出さないのかな。
ちなみにバイブプロでベースステーションを三脚に取り付けて、設置場所を移動させてキャリブレーションさせるのってどれくらい時間かかりますか? >>763
vivePro使ってるけど5分くらいかな。
部屋がとんでもなく広いならもっと掛かるだろうね。 >>765
kinectのbody tracking見てきた。
コレってkinect1個で体のトラッキング可能なの?
それとも複数台必要? >>764
自宅に設置してソフトウェア開発して、
学校に持っていってデータ取りを考えてるんだけど、
VIVE自体の設置は5分でいけますか?
PC+モニタを設置してデータ取りをするとなると
搬入設置撤収で前後2時間でいけるのかな? >>765
これ位置の精度どれくらいあるんだろう。
1個のキネクトからAI使って検出している感じですよね。
左右の足の位置のズレを2cmぐらいの精度でほしいんだけど、
おそらくそれは無理なんだろうなぁ。 >>766
1台でできる。かめはめ波を撃つとか、スーパサイヤ人になろうとかニコニコ技術部でやってたと思う(時代を感じる)
解像度は640*480のスキャンラインらしいのでどれぐらいの幅でスキャンかけるかによって変わるけどギリギリ2cmに収まるのでは。
二次元の奥行き情報なので三次元的なモーションにするには結局二台使ってソフトウェアで二方向から取得した姿勢を合成しないといけないと思う。 >>769
1台だけのときUnity上でどんな情報になってるんだろ。
VIVEでありていのSDK使って3次元特定するよりは、かなり技術力いりそうだな。
でも技術としてはすごく面白いですね。 >>767
キャリブレーションだけじゃなく
1から設置ですか?
DPケーブルやら電源やらそこそこ時間掛かると思う、ベースステーションの位置が決まってて配置するだけなら全部で20分(前後5分)くらいかなぁ。
慣れれば早そうだけど設置してから配置は弄ってないから参考までに。 >>771
ありがとうございます。
プログラミングするのは家で、実験するのは施設のため位置から設置し直しての時間です。
あまり大事だと施設から断られるんだろうな・・・。
自宅に被験者が来てくれるとありがたいのだけど、
それはまたいろいろと倫理審査がうるさそうだし。 VRでグリップ移動を実装したいのですがネットで調べても情報が無くご教授頂けないでしょうか。
※グリップを押してる間だけVRコンの移動幅でVR上移動出来るやつです。
どういう仕組みで動いてるかもね分かりません。
あれって自分が動いてるのではなくて
ワールド全体を動かしてるのでしょうか、グリップボタンONでオブジェクトがVRコンと親子付けされてるとか? 「グリップ移動」とはどんな挙動の事なのか詳しく書いた方がいい。
環境設定してるなら既にコントローラーは2個位置取得できてるわけだよね。そのコントローラーで何かオブジェクトを掴んで移動させたいってこと? >>774
はい、ちょっと正式名称があるか分からないのですがVRコンのグリップ(又はトリガー)を押しながら動かすと
シーン内のオブジェクト全てが連動して動く=VRコンを自分に引き寄せれば結果的に全身出来る。という移動方法です。
例えがアレなんですが一部の3Dゲーム(エッチなやつ)で採用されてるgripmoveというものです。
それを自分が作ってるVRゲームに実装したく勉強してるのですが調べても情報が出てこず、という状況です。 オブジェクトじゃなくて自分の移動方法だったのね。まったく分からなかった。
全体動かすのではなく視点移動するだろうね。
想像で考えると
・グリップを握った瞬間に自分の位置を保存
・握ったままグリップを動かした際の差分を取得
・離したらコントローラーを移動させた量だけ視点を移動させる
実際は手前に引き寄せただけの幅だとなかなか進まないかもしれないので増幅させる必要がありそう。あとはグリップ握ってるときも視点は自由に回転できるので移動方向の固定とか必要かも。 エロゲのグリップ移動だと、離して移動じゃなくてグリップオンの状態でコントローラーを動かしたらその都度移動するな
やる事は>>777が言ってるのとほぼ同じ
グリップオン時に自分とハンコンの位置取得
取得したハンコンの位置と現在のハンコンの位置の相対差を、自分の位置に反映するのをフレーム毎に行う
て感じかな >>778
>>779
ありがとうございます。
スクリプトはあまり触っておらず移動方法はsteamVRPluginのサンプル頼みだったので。
上記の方法で取りあえず試してみます。 >779じゃなく>>777宛です。
アンカー間違えた・・・ >>773です。
最初から躓きまして・・・
VRコントローラーのボタンを押しても
反応無しです。
画像はキーボードでPを押したらスクリーンショットを撮るのですがVRコンだと反応なし、VRコンの設定はこんなに難しいのですか?
https://i.imgur.com/VLg4WCu.jpg 各種機器の具体的なものは調べていくしか無さそう。
「steamvr lefthand 有効にする」でググったら一つ目がこんなのだった。
ttps://note.com/citron_vr/n/n9e85b383b489
もしかして「spac drag」って>>773が実現したい機能なのかね >>783
わざわざありがとうございます。
PC再起動したらコントローラーバインドの設定は反映されました、再起動必要だったのかな。
次はこれをボタンとしてUnity上で使う方法を勉強します。
リンク先をみておきますね、ありがとうございます。
なんで普通のコントローラーは簡単に設定出来るのにVRコンは駄目なんだ・・・もう8時間はうなされてます。 >>784
今までコーディングした事ないレベルで始めるならUnityよりUEでBPで組んだ方が楽じゃないかな >>785
UEも無料で使えてVRと相性良いと聞きますね。ただVRソフト作って移動方法以外はそれなりに出来てきたので今更Unityから離れられず・・・
取りあえず今はVRコンの入力取得辺りを勉強しています、やっぱりサンプルシーンを改造して制作すると、壁にぶち当たって心折れそうになりますね。
もう少しスクリプトとか詳しくなってからご教示をお願いするかも知れません。お手数をお掛けしました、ありがとうございました。 この間、視線検出に対応したヘッドセットが10万円以下で発売という記事を見たがググっても出てこない。
誰か知ってる人いませんか? three.jsを使ってる方っておられますか?
Windows10pro64bitのXAMPに置いてローカルホストのChromeブラウザからは見れるのですが、
VIVEやOculusやスマホゴーグルからは見れるんでしょうか?
ハブに繋いだアクセスポイントのWi-Fi経由でならスマホでは見れるとは思いますが
VR機器を持ってないのでわかりません
VR機器でthree.jsのサンプルを視聴可能かどうか教えてください。 >>787
VIVE FOCUSですかね?
HTC、アイトラッキングHMD「VIVE Pro Eye」とスタンドアロン型「VIVE FOCUS」
https://s.kakaku.com/prdnews/cd=pc/ctcd=0087/id=85627/
■「VIVE Pro Eye」価格は186,120円(税別)。
■「VIVE FOCUS PLUS」価格は89,750円(税別)。 focusは視覚探知ないんじゃない?
視覚探知アリで10万以下たったから除外してたわ Focusはいかにも視線検出に対応していそうなネーミング良くないですよね。 Pro EyeでもFove0でも無くて、
3日ぐらい前に近日中に視線対応の新製品発売ってグーグルのプッシュアップニュースで見たんです。
なんかコントローラも体の真後ろに持っていっても検出出来るとかで、非常に面白そうなモデルでした。
後で見ようと思ってたら消えてしまって、ググっても出てこない。
10万きってスタンドアロンで視線検出だったら即購入対象なんだけどなぁ。 視線検出って12年ぐらい前に俺研究してたんだけど、今こんな民生品でできるのがホントにすごいよなぁ。
机に置いて使うちょっとしたサイズの実験機器だったのに。 >>793>なんかコントローラも体の真後ろに持っていっても検出出来るとか
それ、FOCUS PLUSのコントローラーが超音波トラッキングの事だったりして・・
だとしたら同じように早とちりだったので削除されたのかもね >>795
viveとかoculusとかvrのビッグネームではなかったんだよなぁ。
こんな会社あったんだと思ったので。
ブックマークしとけば良かった。プッシュ型ニュースアプリは常時更新されちゃうので見逃しが困るね。 SteamVRを使ってVRコントローラーの入力取得を勉強しているのですが
キーボードの場合、
if(Input.GetKeyDown(KeyCode.Space))//スペースキーが押された
上記で取得出来るんですがVRコントローラー(使用してるのはVIVE)の場合
どういう記述にすればいいのでしょうか?
例えばVIVEコントローラーのメニューボタンを取得したい場合などです。
色々調べた結果、Unity Button IDは0 ※右VRコン
と書いてあるのは見つけたんですがOpenVR用とありSteamVR用とは違うのか?
その辺も不明です。
またif(Input.GetKeyDown(KeyCode.0))と記述してもエラーが出てしまいました。
お手数では御座いますがご教示頂けないでしょうか?
ちなみにPCから書き込んでいるのでID変わっているかもしれませんが
(ワッチョイ 51b0-SM+h)です。 すいません。
>>797は>>786です。
あれからずっとVRコントローラー関係を調べていたんですが
難しく・・・・ >>798です。
何度も何度もすいません、自決しましたので一応報告致します。
ネットで探してVRコンの入力取得方法でしたが、ネットで見つけたスクリプトの
public SteamVR_Action_Boolean GrabAction;
上記のSteamVR_Action_Booleanでいつもエラーが出ていて先に進めなかったのですが
試しに違うプロジェクトで試したら何故かエラーが出ずVRコンの入力が取得出来ました。
プロジェクト内で何が違ったのかこれから検証するのですが、取り合えず取得できたので
ご報告を・・・あとコピペになりますが、以下のリンク先でVRコンの入力取得を
確認しました。
https://qiita.com/kyourikey/items/232f7810769c7727c9bd
お騒がせして本当にすいませんでした、また無駄にスレを消費してしまいご迷惑をお掛けしました。 >>799
コピペスクリプトです。
using UnityEngine;
using Valve.VR;
public class SteamVRInputTest : MonoBehaviour
{
public SteamVR_Input_Sources HandType;
public SteamVR_Action_Boolean GrabAction;
void Update ()
{
if (GrabAction.GetState(HandType))
{
Debug.Log(GrabAction.ToString());
}
}
} VRでoculusで組んだものをviveに移植って難しい?
コントローラーとかの部分を書き変えればいける?
それとも6dofの位置情報とかも書き変えなきゃダメですか。 viveは知らんがrift用に組んだプログラムをwindowsmrで動かした時はHMDの初期高さがずれただけで後はそのまま動いた
多分床情報の持ち方が違うんだと思う SteamVR Unity Plugin v2.2.0の質問ってこちらでよいでしょうか?
サンプルを真似てオブジェクトを自由に持ち運びできるようにしようとしているのですが、
Throwableコンポーネントで掴めるようになりましたが、放し方が雑だとそのまま飛んで行ってしまいます。
リジットボディの空気抵抗は1にしました。
VRChatの3Dカラーペンのような動きを実現するのに良いコンポーネントはあるでしょうか? どうせお前らみんなカスメでVRセックス目的なんだろ?
この変態どもめ!! カスタムオーダーメイドは3DoFでスカートを覗く臨場感がないから、
6DoFで這いつくばってスカートの中を覗けるゲーム作ってる変態だが文句あっか?w
VRカノジョのキャラクターとかストーリー乗っ取れれば最高 UnityにOculus Integrationインポートしたが、2時間ほど戻ってこない・・・。
こんなにじかんかかるものなの?
一晩掛かりそうな勢いだ・ >>803
どういう風な挙動にしたいの?
自分は慣性無しで空中にオブジェクト置いたままにしたいから重力切り、質量1 空気抵抗30 トルク抵抗30にしてるけど自然な感じで投げたいなら抵抗値の2つを色々弄るしかないと思う。
質量1 空気抵抗3トルク抵抗3くらいから数値変えていってみたらどうでしょうか? questでVRプログラミング初めてみたんだけど、
ビルドするときValucan削除するだけで数十分またされるんだけど、
こんなものなの?
それともうちのPCのスペック不足?
これでは開発全然進みません・・・。 でも初めて自分のプログラムで立体をつかめると感動した。
なんか世界を構築してるような奇妙な面白さがあるね。 なんかスペックきつそうだな。十年後くらいにまた来るわ。そのころになったら俺が買うような雑魚スペPCでも出来るようになってるだろ。
そんときまた色々教えてくれよな!じゃあな! いやいや20数年前のWindows98の時に既に
VRML2.0のタッチセンサーで画面内のオブジェクトをマウスでグリグリ動かせましたけど・・・
基本的な仕組みはたいして変わらないと思うな
(質感や解像度の表現力とマウスかハンドコントローラーの違いなだけ)