SDK付属のサンプルアプリケーション「Touch Emulation」をとりあえず作ってみた
Airspaceに最初からついてくるOrientationアプリケーションでも分かる事なのだが、実際にどういう風に認識されるのか。
ジェスチャー毎にサンプルで見てみると検出がうまく行っていなかったりする事がよくわかる。
とりわけ、Google Earthで苦労した、「手のひらを飛行機に見立てて動かす」と言うことがうまく行っていないのが分かる気がした。
気を抜くとすぐに指の位置がばらついてしまったり傾いてしまったりするのだ。
アプリケーションでどういう操作をするのかで置き場を変える
なんで水平に手がならないのかを考えてみればすぐに分かった。
もちろん、単純に水平にする事が難しいと言うのもあるんだろうけど、私の場合はLeap Motion のコントローラーを体の中心線上に。
つまり、左右の手の真ん中においているからなのだ。
その状態で、片手を真ん中に持ってきて水平をしようとすれば無理が出る。
マウスをどちらの手で使うかは別にしても、使う手の方にマウスは置く。
であれば、Leap Motion のセンサーも使う手の真下に来る形に配置してあげればいいわけだ。
Leap Motion の場合、アプリケーションによっては片手ではなく両手を使って操作をすることもあるので、アプリケーションで必要とするジェスチャーによって、センサーの位置を調整するほうがいいように感じる。
というか、そういう調整によって操作性が著しく変わるのであれば、アプリケーション側でそういうナビゲーションをした方がいいのかな?
でも、一々マウスの配置を指定するようなアプリケーションは邪魔臭いだろうし。
うまく認識しない時の、ヘルプというかアドバイス機能と言った所だろうか。
色々と使ってみると、ちょっとした発見があって面白いですね