Kinect ハック 2台目
需要無いかも知れないが立ててみた いまは反省していない このスレッドは天才チンパンジー「アイちゃん」が 言語訓練のために立てたものです。 アイと研究員とのやり取りに利用するスレッドなので、 関係者以外は書きこまないで下さい。 京都大学霊長類研究所 OpenKinectのソースの中にC#版があるがモーターの上下制御だけ対応して放置されてる。 過疎り具合からして、たぶんカメラとマイクの制御は永遠に実装されない。 https://github.com/OpenKinect/libfreenect/tree/master/wrappers/csharp/ ミク3 http://www.youtube.com/watch?v=0mEHKFibv0g http://www.youtube.com/watch?v=JQvLt7DQhaI http://www.youtube.com/watch?v=MZHEzDmXO2w 108 102 [sage] 2010/12/23(木) 18:19:21 ID: Be: 動いたー \(^o^)/ Ubuntu 10.10 amd64 ではどうやっても動かなかった(SSE3に対応したCPUまで買ったのに)ので、 あきらめてUbuntu 10.10 32bit版をインストールして最初から全部やり直したら、うまく動くようになりました。 NITEのサンプルにあったボーントラッキングも出来ています。 長い道のりだった… 環境はML115, Athlon X2 5000+, Kubuntu 10.10 x86(32bit) インストールしたのは - OpenNI 1.0 Alpha build 23 binaries for Ubuntu 10.10 32bit - avin2-SensorKinect-b7cd39d.tar.gz - PrimeSense NITE version 1.3 Beta Build 17 for Linux x86 の3つをこの順で。NITEはインストールする前にDataの下のxmlファイルを書き換える必要あり。 これを忘れるとサンプルが起動しない。詳しくはここを。 http://www.keyboardmods.com/2010/12/howto-kinect-openninite-skeleton.html 基本的には3つも./install.shを叩くだけだがavin2とNITEはその前に少し作業が必要。 詳しくはREADMEに書いてある。 そしてデフォルトでSSE3を使うので手持ちCPUの確認を。 /proc/cpuinfo に "pni" の文字があればOK (sse3ではない!) 109 デフォルトの名無しさん [sage] 2010/12/24(金) 07:00:56 ID: Be: 動画うpしてスゲー、付属のサンプル動かしてスゲーだけじゃなくて、ちゃんとプログラミングに ついて語るスレ無いの? サンプルソースとAPI Referenceと海外の掲示板読んである程度使えるようになったけど、 API多すぎレファレンス説明簡略化しすぎで一人で網羅するの辛い。 110 デフォルトの名無しさん [sage] 2010/12/24(金) 08:52:08 ID: Be: depth.GetAlternativeViewPointCap().SetViewPoint(image); でRGB画像に合うように調整された形で深度イメージが出力されるようになるけど、 この調整済み深度イメージ上の座標を、元の調整される前の座標に戻す方法ってない? 例えば関数にポンっとx,y座標投げれば元のx,y座標が返ってくる的なの キャリブレーションデータから計算すればいいんだろうけど、面倒くせぇ APIあるだろうとリファレンス見て探してるけど見つからない 111 デフォルトの名無しさん [sage] 2010/12/24(金) 09:01:54 ID: Be: ここだろ。プログラム板だし。 俺はやっとサンプルが動いた所なのでもう少し待て 112 デフォルトの名無しさん [] 2010/12/24(金) 11:04:45 ID: Be: NITE 113 デフォルトの名無しさん [] 2010/12/24(金) 11:05:27 ID: Be: NITEなぞすぎる 114 デフォルトの名無しさん [sage] 2010/12/24(金) 12:49:24 ID: Be: >>110 「Open〜」系のライブラリで提供されるのは基本的にハードウェアを使えるようになるAPIだけだから その辺のアルゴリズムは自前で実装が基本 115 デフォルトの名無しさん [sage] 2010/12/24(金) 13:33:44 ID: Be: これ操作中の自分を1.8m以上離れて写すようにkinectを設置するのが難しいな。 付属のケーブルは3.3mあるけど結構きつい。 USB延長ケーブルを使って+1mまでなら何とか動作する。 +3m足してやるとデータ取りこぼしまくりで正常動作しなくなる。 基本的に延長しない方がいい。 NITEサンプル楽しい。 116 デフォルトの名無しさん [sage] 2010/12/24(金) 13:41:14 ID: Be: Kinect使うときのよくある失敗はOpenNIだけ入れてドライバー入れ忘れることだな。 俺はavin2/SensorKinectドライバーを使っている。 119 デフォルトの名無しさん [sage] 2010/12/24(金) 17:14:41 ID: Be: とりあえず一番簡単そうなSample-SingleControlは理解した。 自分でプログラミングするときはインクルードパスを /usr/include/ni /usr/include/nite に通してlibOpenNI.soとlibXnVNite.soをリンクする。 main.cppでは最低次の2つをインクルードする。 #include <XnOpenNI.h> #include <XnVSessionManager.h> あとは検出したいゼスチャーに相当するクラス。このサンプルではWaveDetector.hを使っているので #include <XnVWaveDetector.h> 120 デフォルトの名無しさん [sage] 2010/12/24(金) 17:20:35 ID: Be: 基本的なフローは 1. コンテキスト(xn::Context)を作る 2. セッションマネージャー(XnVSessionManager)を作る 3. 検出したいゼスチャーのコントロール(ここではXnVWaveDetector)を作る 4. 2-3にコールバック関数を登録する メインループはこんな感じ。 while (!g_bQuit) { context.WaitAndUpdateAll (); pSessionManager->Update (&context); } ドキュメントは次の3つ。 NITE Controls 1.3 - Programmer's Guide.pdf NITE Algorithms 1.3.pdf NITE 1.3.0 - API Reference.chm とりあえずProgrammer's Guideだけ読んでおけばプログラミングの基礎としては十分。 121 デフォルトの名無しさん [sage] 2010/12/24(金) 17:36:27 ID: Be: いくつかの重要な概念。 セッション: トラッキングが動作中の状態が「in Session」 フォーカス・ゼスチャー: 特定の動作を行うとトラッキングが有効になり「in Session」状態に変わる "Wave": 手を左右に移動する動作 "Click": 手を前後に移動する動作 コンテキスト: そのままの意味 セッションマネージャー: そのままの意味 コントロール: ゼスチャーの検出器。PushDetectorとかWaveDetectorとか多数。 検出したい動作のコントロールをセッションマネージャーを頂点とするツリーでつなぐ。 イメージ的にはキャプチャーされたデータはセッションマネージャーから流れ出して各コントロールに流れ込み、 一致していればそこに設定されたコールバック関数を呼び出す。 124 デフォルトの名無しさん [sage] 2010/12/24(金) 19:58:24 ID: Be: >>119-121 はNITEミドルウェアを使った場合ね。 OpenNIのみでKinectから生データ(RGB, Z, 加速度)を取得するのとは別の話。 そっちは今調査中。NITE使いつつ生データにアクセスってできるのだろうか。 前スレコピるくらいなら、まとめwiki作った方が早くね? 126 デフォルトの名無しさん [sage] 2010/12/24(金) 23:06:42 ID: Be: C言語からOpenNIを使う場合 #include <XnOpenNI.h> C++からOpenNIを使う場合 #include <XnCppWrapper.h> (この名前はどうかと思う) コンテキストを作る場合XMLファイルを読み込んで作るのが簡単。 画像とデプスを取りたい場合は該当するNodeを作る。 <ProductionNodes> <Node type="Depth"> <Configuration> <MapOutputMode xRes="640" yRes="480" FPS="30"/> <Mirror on="true"/> </Configuration> </Node> <Node type="Image"> <Configuration> <MapOutputMode xRes="640" yRes="480" FPS="30"/> <Mirror on="true"/> </Configuration> </Node> </ProductionNodes> rc = context.InitFromXmlFile (SAMPLE_XML_FILE); 127 デフォルトの名無しさん [sage] 2010/12/24(金) 23:09:33 ID: Be: これでコンテキストにNodeが登録されているので、あとはFindExistingNodeするだけ。 rc = context.FindExistingNode (XN_NODE_TYPE_IMAGE, imageGenerator); rc = context.FindExistingNode (XN_NODE_TYPE_DEPTH, depthGenerator); データの作成を開始して、 context.StartGeneratingAll (); 新しいデータが来るまでブロック。 while (!g_bQuit) { context.WaitAnyUpdateAll (); // ここで画像、デプスデータの取り出し } 非常に簡単。 128 デフォルトの名無しさん [sage] 2010/12/24(金) 23:17:26 ID: Be: 取得したデータをどうやって表示するか? サンプルでは全てOpenGL、glutを使っている。 カメラを平行投影、視野領域が(0,0)-(WIDTH,HEIGHT)に設定して画面全体を覆う四角型ポリゴンを1枚書く。 データはすべてテクスチャーにしてglTexImage2Dで毎フレームGPUに転送。ogehoge; ちなみにデプス値は自分でヒストグラムを作って手前が1で奥が0になるように描画している。 >>13 見てなかった。ごめん。 そうですね。wikiあると良いですね。 新スレ記念 Kinect ?で空中のゴミを検出して箱でキャッチ ttp://www.nicovideo.jp/watch/sm18391671/ なんだろ、各方面で自慢して回ってるのね よっぽど作って嬉しかったんだね かわいい もし作ったひとがここ見てるなら 次回作はトランポリン風にして ピンポン玉を拾いながら移動してみてほしい >>19 ものはいいのに人がだめなので、残念極まりない >>19 が素直じゃないからそれを見たやつも素直にならない 技術的には可能 そんなことよりもleap motionの方がフェイクっぽくてイライラする sdk公開してコードが一行も出てこないなんてありえない フェイクって何のために出すんだろうね。。 嘘なのに、すごーいって言われても何にも嬉しくないんだが あそこまで本物っぽい偽物をわざわざ作る意図が分からんわ。 しかもあれKinectじゃないらしいぞ。 Xtionだな。前スレでも出てた話題だ。 Kinect PrimeSense+Microsoft Xtion PrimeSense+ASUS フェイクだと仮定するとコントロールを手動でやってることになるけど 人間にはタイヤがどの方向を向いてるかを前もって知るのはできても、コントロールするのは難しい。 ということは、投げるほうが正確にその方向に投げなければならない。 何度もやればできなくはない。 2’31’’のシーンにPC画面が映っていて、人が投げ上げた瞬間に左上に画面が出てくる。 これが加工でないとしたらキネクトが物体を認識した印なんじゃないかと思う。 また、音声は入っているので、ゴミ箱が動き出すときにタイヤの向きを変えているかを聞き取ることができる。 人間が正確にハンドルを切ることは出来ないので、コンピュータによる処理が行われている証拠になる。 僕の耳では動き出す瞬間、1’35’’にテストしている、向きを変えるときの甲高い音が聞こえる。 ゆえに本物。 ちなみにこれの構想は10年くらい前に俺が2ちゃんねるに書き込み済み。 制御ソフトは簡単そうだから映像から省かれるのは仕方が無い >簡単ですね(キリッ 同じようなことをやってる奴からは嫌われるセリフだな スキンメッシュくらい簡単だろ 物理演算くらい簡単だろ bullet使えばすぐできる 当たり判定ぐらい簡単だろ ○○ならやってる あいつが簡単だって言ってた その簡単なことに何年も費やした俺はバカだったということだ 人生無駄にした死にたい ボブの「ね、簡単でしょ?」は許せる まぁ自分とは分野が違うからかもしれないが >>42 命中精度がよくないと言う話を聞いて納得。 ゴミ箱の位置とか向きをどうやって特定しているのかがよく分からなかった。 一応電子コンパスとモーター自身の回転数で現在の向きとタイヤ向きは分かるし 多分キネクトでゴミ箱の位置も分かるんだろうけど、正確なものではないから。 あと、タイヤの向きが微妙にずれてたし。 ちょうど数日前にブラシレスモーターの制御ICがモーターの回転角度をある程度把握する仕組みのページ見てたから センサーらしきものが見当たらなくてもなんとかなるってことは知ってた。 精度を上げるには電子コンパスだけじゃなくキネクトの画像認識でもっと正確な位置や向きを計算したり 移動中にゴミ箱の位置を微調整したりが必要かな。 ハンドルの向きを固定するのは自然とロックするんだろうか。 でも無駄だな。 ゴミ箱にカメラつけて物体を認識したらそれに向かって突撃したほうが簡単に精度は上がる。 問題はバッテリーの持ちか。 待機中通信だけなら大して電気食わないが、画像認識だと結構な電気食いそう。 そうでもないかな? いや、奥行き見るために赤外線照射してるからこれが結構電気食うはず。 いや、奥行きを見るために赤外線照射しないといけないんだからドットパターンが写り込まない小さな物体は捕らえられないはず。 まあこれは衝突防止とかでやってる2カメラ使った物体認識を使うことでだいぶ現実的にはなるかな。 ゴミ箱のままじゃすぐ飽きられて商売にならないと思うけど キャッチボール出来るようにしたら案外金になるかも。 その場合かなり耐久性が必要になるけど。 >>43 壁に取り付けたXtionと、それにつながったデスクトップPCを使って、 ラジコンのごみ箱を操縦していると思うんだが… >>44 そうだろうね。それで? 外観を見ただけではゴミ箱のタイヤがどっちを向いているか分からないので その制御について僕は話したつもりだけど。 1:55辺りにコード出てるけど、ゴミ箱の(Xtionから見た)初期位置、姿勢は固定で 深度画像から落下予測点を求めた後、方向と距離を送信してる感じかな ゴミ箱はもう秋田から 次は空中ゴミ攻撃防御用ミサイル迎撃システムを見たい >>45 ああ、そういう意味ね。 赤外線照射がバッテリを…って言ってるから、ごみ箱だけで完結する システムに持っていきたいっていう話をしてるのか、どっちなのか よくわからなかった。 >>48 > ごみ箱だけで完結する > システムに持っていきたいっていう話をしてるのか うん、その後そういう話をしたね。 実際に車の衝突防止に使われてるのはカメラ2つと制御チップですよ。あとは固定金具。 パソコン本体も手のひらサイズのやつがあるからゴミ箱に搭載することは可能だけど 無線LANで接続してパソコンに計算させたっていいわけで。 まあ、受信だけしてればいい現状から見れば送信とか計算とか電気食いまくりだけど、 拾うべきものがあるかどうかはコンセントにつながったヤツで判断して 物体が浮いてたらゴミ箱を起動してゴミ箱は自律的にそれを探してキャッチすれば電池の心配はいらなくなる。 しかし、それだとシステムが二重化して無駄になるのでやっぱり単純なラジコンがいいとなるのかな。 >>44 10回に1回しかキャッチに成功しないのだと。 うちの由佳は綺麗じゃないから 100%遊べない自身がある ttp://www.sharp.co.jp/corporate/ir/event/policy_meeting/pdf/shar100517_1.pdf#page=18 モバイル型3Dカメラ 小さいな 問題は奥行き精度だけど。 それ見てて思ったけど赤外線使わなくても距離取れるな 二つのRGBカメラと距離が判明している一つの点A Aに焦点を合わせた状態で 距離観測対象の二つの映像を画像解析して二つの映像の同一点BC ABとACの距離から物体との距離が測れる これなら太陽が出ててもいけるし、RGBカメラ二個でもできる 画像解析をはさむから赤外線よりも遅くなるけど安く作ることはできる ステレオマッチングはモバイル向けだと専用にFPGA(StratixII)開発して2010年時に1312*688で150fps出してる東工大のペーパーがあるな >>55 スレチだが清算や部門売却にあたり、知財がどうなってくるのか 懐にとっておいても台所事情が悪いと研究開発も鈍化するからな 小型3Dカメラや視差カメラとHMD組合されれば電脳コイルのメガネが実現するので MS、Google、Oculus以外にも頑張って欲しいんだけどね この分野はソフトだけでもダメでfoxconnのような組み立てるだけの会社だけでもダメで 間に必ず部品の研究、実用化、小型化を行ってる会社がいて、なおかつ元気でないとダメだと思う 点Aのキャリブレーションとか、動体の特異点抽出・追従とか、 カメラ3個あ距離の測定誤差とか、いろいろ疑問浮かばないか? ていうか三角測量で安く作れるならMSの技術者がとっくに採用してるだろw 「カメラ3個あ」これは書くの面倒になって消し忘れた部分だからカットで >>60 それでできるんならさっさと作ってくれんかね。 レーザー測量は機材が高いんだよね。 いちおー車載の距離測定カメラは、単眼がトップシェアだね よくこれで距離が測定出来る物だと不思議だが ホビーユースならWindows用のキネクトより箱○用のキネクトのほうが利用範囲が広いかな? 箱○のほうは箱○に繋げられるけど、PC用のキネクトは無理でしょ? 上のレスと完全に重複だけど、まあ邦訳ということで Kinect for Windows SDKは10月8日アップデート、さらに7か国で発売 - Engadget Japanese http://japanese.engadget.com/2012/09/05/kinect-for-windows-sdk-10-8-7/ Kinect 4台接続に成功した方はおられますか? ttp://d.hatena.ne.jp/logion/20120907 3台まで何とか成功したのでメモを晒してみますが、 相性問題が大変でもう疲れたよパトラッシュ…orz >>74 LANでつないだ複数のPCを使う方法はビジョン系の論文で見かけますので よく使われてるようですね。 MSが公言している「1台のPCでKinect 4台まで対応」、 というのを実機で試してる人は(こちらで探した限り)見つけらなかったので、 なんとかやってみたい所です…。 Kinectを4台同時に使う用途が謎だが、そういうのは嫌いじゃないw つーかほとんど相性問題の検証になってるのな >>76 やはり、キネクトの最大の弱点である、仰向け・うつ伏せに対応するんじゃないかな 投げられたゴミを受けるゴミ箱 今日の「めざましてれび」で検証してた 30個投げて入ったのは5個らしい ttp://thinkit.co.jp/story/2012/07/30/3633 kinectでマウスポインタを動かすのに上のサイトを参考にしてやろうと思ったんだけれど 途中の>MultiTouch.Behaviors.WPF4.dllがどうしても準備できない 誰か試してみてくれると助かる >>82 アホすぎ モジュールの入手手段が分からんとか、氏んだ方がいいんじゃね? >>82 > MultiTouch.Behaviors.WPF4.dllは下記のURLより[DOWNLOAD] ボタンを選択して、MultiTouchBehaviorSource.zipをダウンロードしてください。 > →参照:Windows Phone, Silverlight and WPF Multi-Touch Manipulations(CodePlex) リンク先からダウンロードできるプロジェクトがビルドができない…。 具体的には、System.Windows.Interactivity とか Microsoft.Expression.Interactions とかのコンポーネントが見つからない。 ttp://msdn.microsoft.com/ja-jp/library/system.windows.interactivity(v=expression.40).aspx ググって見つかるヘルプによると…もしかしてExpression Studio 4 がいるのか? >>84 体験版インスコすればOK お試し期間過ぎても、アセンブリ参照は無問題w >>73 メモ読ませていただきました. 参考になります こちらはマザボのUSBポート+USBハブだけで 3台同時使用、SDKでdepth,color画像取得までできました マザボはASUS P8Z77-Vです >>86 すばらしいです。 こうして成功例の構成を公開して頂けると(私を含め)嬉しい人がたくさんいると思います。 そちらの例は、P8Z77-Vのスペック表を見ると、 ttp://www.asus.co.jp/Motherboards/Intel_Socket_1155/P8Z77V/#specifications - ASMedia USB 3.0 controller - Intel Z77 chipset (USB3.0) - Intel Z77 chipset (USB2.0) で3つのコントローラが載っていたということなのでしょうか…。 あるいは、KinectSDKに書かれているUSBコントローラ1つにつきKinect1台、 という制限を乗り越えられたということであれば前代未聞の偉業だと思います。 (あと、こちらの4台目を接続する話は諸事情によりなくなりました…) >>87 おそらくホストコントローラ3つのおかげだと思います 接続する場所によってはうまく動作しなかったのですが、 USB3.0のところだけ組み合わせとしてうまくいく例が多い、ということに 経験的に気づき何とかたどり着きました. こちらは4台必要そうなので、後はPCI-Expressあたりでどうにかしようかと考えてます 「Kinect」を使って試着なしでピッタリのジーンズを選ぶことができる新技術「Bodymetrics」 - GIGAZINE http://gigazine.net/news/20121107-bodymetrics/ USBカメラに写したジェスチャーでマウス操作できる「NPointer」 手や身体全体を動かすことでマウスカーソルを移動できるほかクリックなども可能 http://www.forest.impress.co.jp/docs/review/20121119_573593.html >>95 公開したってのが重要だけど、内容はたいしたことないよな インターフェース今月号がめっちゃ良かった(小並感) CQ出版以外も来いよ オライリーはいいかげんMaking Things See翻訳してよ 女子中高生がKinectとScratchでインタラクティブな作品作りを楽しむ www.kumikomi.net/archives/2011/08/rp34fem.php 4Gamer.net ― 「Garry's MOD」がKinectをサポート。アマチュアの限界を超えた作品作りが可能になるか http://www.4gamer.net/games/092/G009280/20121129044/ 赤外光で距離を測るから、太陽光があると計測不能だしな reconstruct me http://reconstructme.net/ Kinect for XBOXを流用してReconstruct Meで3Dスキャンして遊んでるんだけど、 スキャン結果がサンプルみたいに滑らかにならず、ノイズが乗ったみたいにデコボコになる。ハイレゾでも駄目。 XBOXだとNearモードが効かないから駄目なのかね? 誰かkinect for windows持ってる人、試してみてくれないか。 windows版だと正常にスキャンされるならwindows版を買いたい。 解決した。 なんか色んな角度からスキャンする必要があったみたい。 徐々に滑らかになっていった。 実は凄いツールじゃないのかkinect 瞬時にスキャンされてモデルデータが出来上がるって、色んな応用が効く それこそ従来の概念を吹き飛ばすような新しいコンテンツが出来上がる 絶対流行るよこれは >>110 やっと気づいたかい。 日本ではなかなか認められていないな。 3Dスキャナーとしてやっと手に入れた reconstruct meで初チャレンジ 精度に期待出来るの? ネコを入れるケージの鉄格子(竹串より少し太い)みたいな細いモノは認識できなかった。 テクスチャ張ればそれなりに見えると思うんだがRestructMeはテクスチャ生成してくれないから自分で貼るしかない。 次回のKinectSDKに入るKinectFusionでテクスチャ対応してくれることに期待したい。 いよいよ、Leap Motionが発売されるね 初めは壮大な釣りかと思ったが、ASUSのPCに同梱されるだの、Best Buy独占販売だの、最近開発者版が届いた人が居るだの、これは本物だね そろそろ本家サイトで予約してみようかね いろいろ頑張ったけど、vistaじゃv1.00.11でもドライバーインストールできない win7じゃないって弾かれる 新しいPにopenNIインストールしようとしたらなんかver2とかになっててうんこ 昔のバージョンはどこでDLできるんや・・ >>120 v1系の最終版はまだ公式でもDL可能。 それより古いのはK氏がアーカイブしてるのを DL可能。詳細はggr。 特に過去バージョンはドライバやNITEとの 相性もあるし、PCLとか他ライブラリと 組み合わせて使うユーザからすると サポートは要らないから配布は継続してほしい。 ttp://www.openni.org/openni-sdk/openni-sdk-history-2/ ここのページのwindows-x32全部DLして実行してもKinect動かないのな。うんこ 俺はintelのOpenCLドライバインストールしないと動かなかった >>123 動くようにしてWiki作って。よろしく >>118 敗北感満載で、win8入れてもーた Reconstructmeすごいな 風呂上りに上半身スキャンしてみたが、、 悪用されるとまずいなぁと感じた アイドルをリアルタイムスキャンしてモデルデータを配信するサービスとか始めそうだな OpenNI2に、Depthを0.1mmまで出力できる モードが搭載されたって本当? 出力を確認できるサンプルコードとかあるのかな? 今自由にシステムを入れ替えられるPCがないので、 知っている人がいたら教えて欲しいんだが。 >>130 もし本当なら入れ替えるし、ガセなら現状維持。 その位置だと読み取りにくいんでもうちょい前にきて とか出るソフトウェア ★マインドコントロールの手法★ ・沢山の人が偏った意見を一貫して支持する 偏った意見でも、集団の中でその意見が信じられていれば、自分の考え方は間違っているのか、等と思わせる手法 ・不利な質問をさせなくしたり、不利な質問には答えない 誰にも質問や反論をさせないことにより、誰もが皆、疑いなど無いんだと信じ込ませる手法 ↑マスコミや、在日カルトのネット工作員がやっていること TVなどが、偏った思想や考え方に染まった人間をよく使ったり、左翼を装った人間にキチガイなフリをさせるのは、視聴者に、自分と違う考え方をする人間が世の中には大勢いるんだなと思わせる効果がある。 ..... 最近の Kinect:体で体を造形するBodyAvatar、グリップ認識で空中マルチタッチ - Engadget Japanese http://japanese.engadget.com/2013/03/09/kinect-bodyavatar/ わーい明日が待ち遠しい ところで、kinect fusionはモデルをobjなり何なりでエクスポートできるよな。 ・・・できるよな! Kinect for Windows SDK v1.7は大幅更新、3DスキャンのKinect Fusion や掴んでスクロールなど - Engadget Japanese http://japanese.engadget.com/2013/03/17/kinect-for-windows-sdk-v17-3d-kinect-fusion/ そろそろ上がってるかなと思ったらまだ向こうは6時かよ 時差ありすぎだろ FusionExplorer実行しても>>141 ほど滑らかにならないな。 NearModeが無いせいか精度が低くて壁の部分がガタガタになった。 やっぱりNearじゃないと精度低いのかね。 http://blogs.msdn.com/b/kinectforwindows/archive/2012/01/20/near-mode-what-it-is-and-isn-t.aspx >>when the sensor is in near mode, it has full accuracy and precision for objects 2 meters away, Nearだと精度高くなるという意味でいいのか >>147 >>141 の椅子の表面の状態と比べると雲泥の差だから結構違いがあるかも。 かといって今からfor Windows買っても新型が発表されたら嫌だしなぁ。 Kinectやりたいけど、今年終わりには新型が出るしな >>149 本当に?ソースくれ だとしたら発売日に2台も買った俺涙目 非Nearでも色んな角度でスキャンすれば面の荒さはだんだんと落ち着いていくが、 もっとディティールアップして滑らかになるなら欲しいかな。 ところで、最も肝心なテクスチャ機能が無いのは自分で実装しろってことか。 しかし、サンプルコードが随分わかりやすくなったな。MSにも良い技術者が入ったな。 フュージョンで生成したモデルにカラーから持ってきた画像をテクスチャとして貼ってるんだが、 センサーとカメラの位置や画角の違いのせいか、どうしても誤差が出る。 カラー画像とセンサー画像がピッタリ一致していれば楽なんだが。 新しいkinect出すんなら、カラー画像とセンサー画像の一致を図ってほしい。 カメラの位置関係は固定なんだから 頑張ればいい感じにできそうではあるけどね Making Things See買ったよオライリー日本ありがとう トラ技でまさかセンシングの連載が始まるとは思わなかった センシングの波が確実に着てるわ Consumer Depth Cameras for Computer Visionが気になってるけど さすがに和訳してくれる出版社は無いだろうなぁ 和訳してくれる出版社は無いだろうなぁ(チラッ チラッ キネクト、ゲーム系じゃなくて仕事で使ってる(使った)人いますか? ちょっとしたイベント用にどうですか? SDKのデモ見せたら受けが良かったんだけど、実際どうなんだろうなって・・・ openCVとからめて使うならc++やるのがいい? C#ならある程度できるんだけど >>163 OpenCVSharp と絡めてC#で書いた方が開発効率が素敵 ただし画像処理は必ずOpenCVに任せるか、 どうしても自力でピクセル単位の処理を書くならC++/CLIで書くいた方がいい C#で済ませようとすると遅すぎて悲惨 >>164 ありがと! あんまりopenCV#の良い評判を聞かないんでどうなのかと思って とりあえずC#で書いていきます 新型Kinect来たね 映像で重心が取れてるのが凄い ただ接続は独自端子みたいだから 新型のKinect for Windowsセンサーが出るまではPC繋げられない そしてPC版が出た場合、端子は何を採用するのだろう? 1080PでRGB+デプスにマイクで幅どのくらい必要? 現行機のK4Wがいつまで販売されるのかも気になる Xbox Oneの新Kinectは大幅進化、表情や心拍も認識。6人同時に全身キャプチャ - Engadget Japanese http://japanese.engadget.com/2013/05/21/xbox-one-kinect-6/ XBOX ONE 専用 『新型Kinect (仮)』 技術解説紹介デモ映像 http://www.nicovideo.jp/watch/sm20927261 センサー画像とカラー画像を一致させろ 同じ位置にセンサーとカメラ搭載しろ >>168 光軸一致させようとしたら光学系のとこがめっちゃ高くなるやん…(´Д`;) プリズム使わにゃならんから、値段が最低1桁は上がるな >>171 既存のAUX端子とは違うみたい http://pbs.twimg.com/media/BKzusV0CEAAwZmm.jpg この大きさから鑑みて相当な幅を要求されると思うんだけど PCの汎用ポートで対応できるものあるのかな? 箱で専用のコネクタにしてるのは、USBポートや箱○に差さらないようにすることで 余計なサポートコストの発生を回避するためだと思うの http://www.famitsu.com/news/201305/22033667.html >Xbox OneのKinectセンサーは、レンズのように見えるのが1つしかないが、 >この開口部で深度取得と映像の撮影の両方を行っていることになる。 およ? >>174 これはつまり、センサーとカメラの一致を最大限はかったということかね? 新Kinectは2Gb(bps?)とか書いてあったよね。 変に画像データを圧縮しても負荷が増えそうだし、USB3.0は必要そうだけど。 新型は今ほど安価で導入しやすいって感じにはならなさそうだね デモ映像見てる限りでは出来ることは多そうだけど 現行のKinectだと壁の部分が歪んだデータが得られるのだけど、新型はさらに視野角が 大きくなってるのに安定したキャプチャできてるのは内部で補正してるってことかな。 設置距離が近くても全身が取り込めるならありがたい。 で、PC用の値段はいくらぐらいの予定なの? 光線の往復時間から距離を割り出すなんて、凄い精度だな 光線って1秒間に3万kmも進むんだろ? 誤差が数センチとしてもアリエない精度だよなー GPSがまさにそれだな。 衛星の高度2万キロあって誤差数メートルかな そりゃ複数拾って補正してるからで 単一のGPSからの経過時間から距離割り出すとそんなもんだよ GPSは各衛星からの電波の干渉を計るだけでそんなに精度は必要としなかったような希ガス そこの動画みたけど ショボいのばっかじゃん まともに遊ぼうと思ったら あと10年は無理 これからどんどん人とお金が集まれば 加速度的に進化いくと信じたい 新型Kinectが牽引してくれるといいんだけど なんで二つ目にこだわるんだろうね 目が5.1chとかでもいいんじゃね プレステのEyeToyって時代を先取りし過ぎたんだな ほぼ初心者 reconstruct meをはじめて使うんだが、 出張スキャンしたいので これが動くノートを探しているんだが 公式だとGPUが AMD Radeon HD 6850 NVIDIA GeForce GTX 560 これ以上となってるんだけど 良くあるノーパソの Intel HD Graphics 3000(CPU内蔵型?)じゃダメなのかな? 問題外? >>202 ttp://reconstructme.net/projects/reconstructme-console/installation/ ここのリンク先まで目が乾くほど見つめて それでも分からないならお前のスペックを増強してこい。 なぜわざわざグラボ指定しているのに、内蔵でも動くかと考えたのか reconstruct me ならcore i5・オンボードグラフィックスチップのノートPCで動いたよ マカーでPCも英語も>< グラボってなに?レベルからスタート 試しに手持ちのmacbook C2Dでwin7に入れてみたけど 何日してもなにが悪いんだかわからず終い やっぱり敷居高かった >>203 これですか?compatibility matrix 結構相性あるみたいですね 網羅されてるわけじゃないみたいだし マシンも各社あるけど、どれがどれだか 調べてるうちに気が遠くなってきた... けっこう値段するなあ >>205 おお、ちなみに機種は? >>207 なんと。確かに インテル® HDグラフィックス 3000(CPU内蔵) みたいですね Scan Highresでもいけました? Open failed: OpenNI library can't find any module! Press any key to continue . . . osxでopenNIサンプルが動かないんだが、どうすりゃいいんだ? kinect操作するなら言語は何がいい? openCVと連携するならc++の方がいいんかね Kinect + レゴ マインドストーム って面白いね 屋外でも使えたら最高なんだけど 日傘さしたり夜限定ならいける? LeapMotionが全く話題に上らない件に関して。 屋外でも夕方以降ならいいんだけどね 日陰くらいじゃあお天道さまの赤外線にはかなわないんだろね >>213 ちょっとでも動かすと再キャリブレーションが必要とか 3次元計測には全く不向き、てのが個人的には大NG。 Kinectのカラー画像で各ピクセルのデプス情報をint値で取りだすのはどうすればいいですか? C++、OpenCV、OpenNIです。 カラー画像からデプスは無理なんじゃないですかね・・・(コナミ) すいませんカラー画像云々は無視してください。 デプス情報をint配列で取りだしたいんです。 >>219 つNiViewer >>222 ggrks サンプルコードによっては Open-CVの処理だけバカ重くなる 使い方だな http://www.danielgm.net/cc/ これでplyを見られた カラー情報はply形式でしか保存できないのね。 テクスチャは自分で頂点カラーから作れという事だな。 頂点カラーでテクスチャ貼ってるように見せてるのか メッシュが異常に細かいからこそ出来る芸当だな そのplyの頂点カラーからテクスチャに変換するには どうすればいいの? >>231 数枚のテクスチャに頂点カラー適用した全てのポリゴンを描画してその3点の座標を各ポリゴンの頂点のUVとした objで出力する必要上そうしたけど、素直に頂点カラー使ったほうがレンダリングが速くていい もう少しメッシュが少なくて5ミリ単位ぐらいまで精度あれば革命になる こんなのしこしこつくりたい OculusRiftで初音ミクと握手をしてみた - Miku Miku Akushu http://www.youtube.com/watch?v=HnmgUgPKijc それkinect関係無いが 腰の振りで3Dモデルがリアクションしてくれるようなのが造りたいの? NHKのperfumeの特集でライブでキネクトっぽいの使ってたんだけど そんなリアルタイムでって無理だよね? ライブで使った奴は違うのだと思うけど、 来週までやってる展示で使ってる簡易3Dスキャンはキネクト3台使ってるみたい。 ttp://news.mynavi.jp/articles/2013/09/24/rp/index.html クリエイト魂が欠けてると、せっかく繋いでても出来ることが少なくてモヤモヤする。 Kinectの環境はMicrosoftのドライバで組んでるけど、どっちがいいのかな、 海の向こうの人たちが作る物はOpenNIのものが多い?くて、それもモヤモヤする。 wasd+Space操作の代替わりを、良い感じにやってくれる環境が欲しい、とりあえず。 v2 forWinあまりにもな値段だと日本のCVが停滞する 正式版は普及価格で頼むよ 未来のキネクトは宇宙まで赤外線を飛ばして惑星スキャンとかできるようになるんだろうな。 OS X環境で、libfreenectを使ったマイクロフォンアレイの情報獲得に成功した人って居る? カメラ、デプスは取れるけど、オーディオだけが取れないみたい。 ローカルニュースで、キネクトでスキャンした人間を3Dプリンタで出力するサービスやってた。 でも出来上がった人形が荒すぎてワラタ。引き伸ばしたドット絵みたくなってたw もっと精度高いプリンタ使えよな いやKinectのスキャンならそんな物だろ プリンターの解像度の問題ではないと思われる 書き込み少なくなったけどみんな早期β参加? V2のSDKって1にあった関数と互換性あり? V1で作ったプログラムはV2では少し手直し程度でも全く動かない? 今月のInterface熱い センシングの波は健在 北ー ttp://news.mynavi.jp/news/2013/11/26/125/ Kinect2の時点でTOFカメラになってるようだからPrimeSence関係なくない? 書く場所が間違っていたらすいません OpenNI.hとXnOpenNI.hがありますが、二つの違いはなんでしょうか? カラー画像の特定の座標の奥行を得る方法ってある? 逆ならNuiImageGetColorPixelCoordinatesFromDepthPixelを使えば良いみたいだが。 あらかじめカラー画像をこの関数で補正しておくことも考えたけど遅くて使えなかった。 皆NITEとMicrosoftのドライバを共存してるの? 書き込み無くなったよね もうみんな興味ないのかしら 日本だけ価格未定かよw ユーロとドルだと結構差があるね 昨夜見た時は19900くらいの価格が書かれてたんだが消されてるな。 ChinaもComingSoonだったのがJapanだけになってる。 >>274 その値段で売るのが惜しくなったのかなw kinectに関しては日本法人なんて何もしてないようなものなんだから 19900で売ってほしいよね PC用の3Dカメラ技術「RealSense」をゲームに使うと何ができるのか。Intelが最新情報とデモを公開 - 4Gamer.net http://www.4gamer.net/games/999/G999902/20140625117/ mac book proでkinect使ってる人とか居ます? 居られましたらcpuどれを選択したか教えて貰えると有難いです。 数量限定ってどのくらいの数なんだろう。 15日は戦争になるな・・・。 夜中に目が覚めてなんとなくストアを覗いてみたら販売開始してた 結構数はあるのかな。 とりあえず、なくなる前に1個確保。 3Dスキャナーとしての性能は初代とあんまり変わらんの? 深度センサの解像度がアップしてるから一番目ぼしい進歩がその3Dスキャン用途じゃないかな 届いたんでセッティング中だけど、電源ケーブル2種類入っとる…? 電圧やらの違いだろうかね getおめでとう 楽しい遊び方思い付いたらレポしてちょ 20cmくらいのフィギュアをPC上で復元できるくらいの精度になったのか? いいなぁ。 家のパソコンはWindows7だからV2は動かないし。 8へのUpdateはかってあるけど、まだ入れたくない。 PC新調したいなぁ。 もう届いた人がいるのか〜。 当日朝組だけど、まだ注文を処理しています状態だわ。 連休中にいじりたかったなー。 kinectで2ch板検索したら、この板しかないっぽいんだけど。。 for windows v2の板とか無いのかよ 3Dスキャンに赤外線プロジェクタと赤外線カメラを使ったのは頭いいな というか、これってもしかしてその筋では普通? やっと、届いたーっ。 と思ったら、USB3.0の条件が結構厳しい。 明日増設ボード買うわ。 [PR] 賞金総額1億円! 新インターフェイス技術 インテルR RealSense? App Challenge 2014開催 http://japanese.engadget.com/promo/intelrealsense/ NuiSkeletonCalculateBoneOrientationsで取得した行列をボーンに適用してるんだけど、 Kinectに認識されてる角度で曲がらなかったり変な方向に曲がったりする。 コードで普通にrotate()系の関数で生成した行列をボーンに適用すると正常にボーンが曲がって表示されるので、 自分のスキニングのシステムに問題は無いはずなんだが。 取得した行列に何か処理が必要なのかな? Avateering-XNAのソース見たらジョイントごとに初期姿勢を微調整しないとダメなのか 面倒くさいな v2最近買ったが割とスペック高いの要求されてて困る困る DirectX11使ってるグラボ対応してないしUSB3.0対応してないし そういや表情認識、心拍数とかがAPIレベルで対応するとか言ってたような気がしたんだがReferenceにない・・・ なぜkinectは糞みたいな行列を返してくるのか そもそも初期姿勢が定義されてないっておかしいだろ どの位置からの回転角度なんだよ sdkがゴミすぎてワロタ マイクロソフトがこんな中途半端なモノをリリースするなんて珍しいな 流行らないのはsdkが糞すぎるのも一因だな MSもついに人材が居なくなったか 米Microsoft、Xbox One KinectをPCで使うアダプターの販売を開始 ttp://game.watch.impress.co.jp/docs/news/20141023_672700.html 最初っからこうしていれば・・・ “Kinect for Windows v2 センサー”に対応した「Kinect for Windows SDK 2.0」が公開 - 窓の杜 http://www.forest.impress.co.jp/docs/news/20141023_672701.html Windows8は有り得ない Win8のタブレットPC持ってるがストレスMAX Kinect v2の購入を考えているのですが、XBox One用のキネクトと、Kinect for Windows v2に違いはありますか? あるサイトには、外観のデザインが少し違うだけで中身は同じと書かれ、 違う意サイトにはコネクタの形が違うと書かれています。 確か、昔のXBox360用のKinectとWindows用のKinectは、カメラの視野角が違うと聞いたことがありますが、v2の方はどうなのでしょうか? もし、外観とコネクタの形だけ違うのでしたら、 できればXBox OneとWindowsの両方で使いたいので、Kinect for Windows v2を買うより、XBoxOne用のキネクト + アダプターケーブルの組み合わせで購入しようと考えていますが、 本当に違いは、外観とコネクタの形だけなのでしょうか? 認識人数が6人になったのと画素数が増えた。視野角も広くなったな。 それと関節部分の認識数も増えて、便利なAPIも実装されたから開発者側からしたら色々出来るようになったよ。 だけどXbox用のkinect v2販売してたっけ。自分の記憶だと開発用のfor windowsしか出てなかったような >>308 関節数が増えたって、どっかで動画で見れる? 自分、書き方が解りにくかったですね。 XBoxOne用とWindows用、どちらのKinectV2を買おうか迷っているんです。 アダプタケーブルを繋げば、どちらもWindowsに繋げるので・・・・ Windowsで使う場合、XBoxOne用とWindows用、何か違いはあるのでしょうか? XBoxOne用とWindows用の違いは、 外観、値段、ケーブルの形状、付属のソフトウェアのみと考えて大丈夫でしょうか? それならWindowsでもどちらでも使える、XBoxOne用を買おうと思うのですが・・・ kinect_V1用に開発したソフトをKinect_V2を使って動かすことはできますでしょうか? Microsoft、「Kinect for Windows v2 センサー」の生産を終了 | 気になる、記になる… http://taisy0.com/2015/04/03/48841.html ワールド座標から見たジョイントの向きは、 Vector4 o = body.JointOrientations[○○○]; で取得できるようですが、 親ジョイントから見たローカル座標での向きを取得する事は出来ないでしょうか? Xbox One Kinect センサー用 Windows PCアダプターは 在庫切ればっかり。 もしかしてIntel Realsenseの方が将来性があるの? 13日のお昼頃、一瞬だけ買えたみたいねw 今はもう在庫切れ。 Windows8タブレットの時と同じで メーカーのやる気がぜんぜん無いんだろうね。 ヨドバシを見たらXbox One Kinect センサー用 Windows PCアダプターの在庫がある! でも今度はKinect センサーが在庫切れw やる気あんのか! Razer,3Dカメラ技術「RealSense」対応カメラの開発を表明。背景をカットし,実況者の姿だけをゲーム画面に合成できる時代が来る!? - 4Gamer.net http://www.4gamer.net/games/023/G002318/20150819007/ 工学部の人や企業の人はkinectを使っているので 終了ということは無いと思うのだけど コンシューマー向けは諦めたのかなー。 結構古いニュースで、全く無くなるってわけでもないようだんだが なんか別の更新あったの? http://japanese.engadget.com/2015/04/03/ms/ >『マイクロソフト、Kinect for Windows v2の販売を終了。Xbox One版とアダプタに一本化』 >... >今回の発表は、実質的に同じ製品をロゴ違い型番違いで別々に流通させ在庫を持つよりも、 >小さく安価なアダプタだけを売り、Kinectセンサの販売は Xbox One 用の流通に一本化する内容です。 >>331 そんなの口実じゃね。 公式ストアも含めてずっと在庫切れで メーカーは製造する気がないみたいだし 普通のカメラを3Dデプスセンサーにする技術もなんかあるみたいだし http://wired.jp/2014/08/19/microsoft-camera-depth-sensing/ Kinectを諦めたわけではなく、日本のXbox市場を諦めて手を引いているだけ 常時欠品なのは日本だけで、USでは普通に売ってる MSKK新社長によると、放置姿勢を改めるとは言っているけれど Kinectにかぎらず、RGBDカメラが一般向けに普及するか?ってのは難しいところだな >>334 公式ストアが欠品にならない程度には頑張らないと。 >>335 もっと安ければ普及するんじゃね。 今は家電屋で売ってるようなPCでも一部RealSenseが搭載されてたりするけどね Windows Helloとかが使い物になるなら一般向けにもそこそこ便利なんでない? kinect v2 と相性の良い安いpcが欲しいわ >>336 価格の問題じゃなく、必要な人が少ないのが問題じゃね 専用ゲームがヒットしない限り普及しない 初代の時にテレビCMまでやったのに普及しなかったから、わざわざ専用ゲームを作るとは思えんが >>339 結局ゲームも体を使ってプレイするよりパッドでプレイするほうが気楽なんだろうね。 そもそもコンソール機がかなり縮小傾向でモバイル機やスマホに取られているのに、部屋の一角で全身使ってゲームをプレイする気力がある人ってのは限られそう。 体を使えるゲームってのもジャンルが限られるだろうしね。 ゲームに限らずUI一般で考えても同じことだろうな。 とはいえ、いまVRブームが来てるから、大画面ディスプレイを見るってんでなくHMDで没入ってのが重要視されればRGhttp://kanae.2ch.net/test/read.cgi/gamespo/1425574337/654 http://kanae.2ch.net/test/read.cgi/gamespo/1425574337/605 BDカメラは需要がまた掘り起こされるだろうな。 >>341 インテルの指先座標取れるのいいね kinectでもインテルのapi使えるのかね Kinect.Bodyクラス内のTrackingId変数で0が使われることはありますか? ulong trackingId; ↑この変数にトラッキングIDを保存しておき、この変数を参照し0だったらトラッキングIDをまだ取得していない状態である事を判定したいのですが、問題になったりしますでしょうか? real sense予約しといた ロボティクスに必要なおもちゃ 過疎ってるな kinect の性能はまだまだ使い切れてないぞ RealsenseのR200が欲しくて、 http://click.intel.com/intel-realsense-developer-kit-r200.html を見たんだけど、 サポートCPUが 4th generation (or later) Intel® Core™ processor となってる。 俺のCorei7 3930Kじゃダメなんだろか・・。 誰かStereolabsのZEDを試そうって人はいる? xbox360のkinectでfacerigしてる人いない? skypeでwebカメラとしての起動はできたんだけど、facerigだとinput device にkinect camと表示されてるのに砂嵐が映ってる……解消法を教えてくれ エルミタージュ秋葉原 ? Intel、自立ロボット開発用など、3次元認識技術「RealSense」開発キット計4モデル発表 http://www.gdm.or.jp/pressrelease/2016/0818/174585 横8m位のステージ用にモーションキャプチャーやりたいんだけど、Kinect v2を2台並べて使えるの無いかな? パッチみたいなの探してるけど見つからない... SDKも2.0から更新ないし情報が全然足りない >>355 iPi Motion Captureはいかがですか? $345/Yearですけど。 あと、Kinectv2 2台使うなら、パソコンも2台必要ですね。 test http://d aily.2ch.net/test/read.cgi/newsplus/1477518779/ スレタイ消えてた 【VR】マイクロソフト、Windows10対応のVRヘッドセットを来年発売・・・価格は299ドル(約3万1千円)から エルミタージュ秋葉原 ? 3Dスキャンやジェスチャー検出ができるRealSense対応3Dカメラが上海問屋から http://www.gdm.or.jp/pressrelease/2016/1116/185613 量子CCDのホログラムか http://d aily.2ch.net/test/read.cgi/newsplus/1479214064/ キネクトV2のアプリってVBで開発できるでしょうか。 素直にC#にしとけ あえてVBにしなきゃならない理由なんて無い やっぱりC#ですよね。 自分で作った既存の画像処理PGがVBでできているので、 できればそのままVBを使いたいです。 VC#のサンプルコードをVBで書き直せるのかを知りたいです。 VBからC#は出来る C#からVBは命令次第 「VB C# 違い」とかでググれ 手を左右に動かして、右手XY 左手XYのアナログ入力として認識させる方法とかないですかね...? プログラミングの素養はないのでごめんなさい ご教授願いたい ツールがあるなら使うけれどないなら自分で勉強したいので kinectじゃなくてwebカメラでやってるひともいてますし 単体で中古のv1 for Windowsを買ったので全くわからない... 単純にゲームパッドのように左右の手のアナログをアサインできればいいんです ググってもプログラム作ってみよう系のページしかなくてさっぱりで エルミタージュ秋葉原 ? 高解像化を果たした最新RGB深度センサー、ASUS「Xtion 2」の開発キットが来月発売 http://www.gdm.or.jp/pressrelease/2017/0726/215839 NHKのEテレサイエンスZEROでやってたロボコンで KINECTを使ってたな これからは深度情報使わずとも画像から人が認識するようなディープラーニング処理の時代なのかもね openposeとかあるしカラーからスケルトン取れるしな Kinectの方が気軽で好きだったけど ディープラーニングだとGPU要るし >>378 新製品出る気配なさそう 今のうちに故障対策にいくつか買っとくか kinect アダプターどこにも売ってないな XBOX Xでアダプタ別売扱いになるという記事があったので また出てくるだろうけど 改造されたv2がオクに出てるな 純正アダプターが接触不良気味だから気になるわ マイクロソフトが次世代版Kinect発表、深度センサーとAI融合 Mogura VR - 国内外のVR-AR-MR最新情報 https://www.moguravr.com/project-kinect-for-azure-build-2018/ マイクロソフトKinect for Azure発表。次世代ホロレンズ用センサを「インテリジェント・エッジ」向け提供 https://www.huffingtonpost.jp/engadget-japan/kinect-for-azure_a_23429308/ エッジAI向けの新Kinectが登場--「Project Kinect for Azure」 - CNET Japan https://japan.cnet.com/article/35118776/ マイクロソフトKinect for Azure発表。次世代ホロレンズ用センサを「インテリジェント・エッジ」向け提供 - Engadget 日本版 https://japanese.engadget.com/2018/05/07/kinect-for-azure/ ASCII.jp:Build 2018開幕、エッジAIで進化した新Kinect「Project Kinect for Azure」発表 http://ascii.jp/elem/000/001/673/1673205/ マイクロソフト、新型「Kinect」発表 家電やロボットなど日常的な端末を表情や身振りで操作 - ねとらぼ http://nlab.itmedia.co.jp/nl/articles/1805/08/news094.html すみません>>390 の上から2番目のリンクは4番目(engadget)の記事を転載したものだそうです Vtuber市場が盛り上がってるから今度こそKinectブーム来るかな 絶対来る。 今年生まれた子どもが小学校に入る頃にはみんなランドセルにKinect(v2)差して登校してる。 僕の知り合いの知り合いができたパソコン一台でお金持ちになれるやり方 役に立つかもしれません グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』 Q6P9H kinectじゃなくてXtionなんだが、藁にすがる思いでここに。これを最近のPC(といってもi5-6500とH170チップセットの組み合わせ)で動かした実績とかないすか? というのは、XtionはUSB3.xに接続するとエラーが出るので、最初に2.0のコネクタにつないでファームウェアのアップデートをかけないとならんのだが、 2.0のポートにつないでもやはりエラーが出てしまってにっちもさっちもいかなくなってる ひょっとすると「3.x対応のコントローラー」に制御されているともうダメなのかと思ってPCIE接続の2.0カードを調達しようかと考えているが、 今さら2.0は品薄で値段も高くて、これで同じエラーが出てきたら凹んでしまう そんなわけで、似たようなトラブルを克服した人がいたら教えを乞いたいです Intel、慣性計測ユニットを備えた深度カメラ「Intel RealSense Depth Camera D435i」 - エルミタージュ秋葉原 http://www.gdm.or.jp/pressrelease/2018/1114/283621 ネカフェのPCでファーム上げられるか試してみたらどうでしょうか? Intel、スタンドアロンで動作するインサイドアウトトラッキングカメラ「T265」 - エルミタージュ秋葉原 http://www.gdm.or.jp/pressrelease/2019/0124/291655 Android直結でも使える、USB3.0 Micro-B接続のTOFカメラ「LIPSedge DL」 - エルミタージュ秋葉原 http://www.gdm.or.jp/pressrelease/2019/0129/292209 Kinectのボイスチャット機能を、Windowsなんかとやる方法ないですか? 【速報】Microsoft、新3Dカメラ「Azure Kinect」を発表。単体でも複数接続でも動作 - PC Watch https://pc.watch.impress.co.jp/docs/news/1171340.html xbox360のkinectのacアダプタってmicrosoftで今でも買えますか? 値段いくらでしょうか? >>414 互換品で中国の業者が1500円で出してるのはダメなん? オクとかメルカリにゴロゴロあるけど、 そんなことより、樹脂パーツを作りたいのだけど スキャナーは kinect と iPhone どちらをつかえばいいのか? やってるヒト教えて つか、ここ見ねえよねwww read.cgi ver 07.5.0 2024/04/24 Walang Kapalit ★ | Donguri System Team 5ちゃんねる