Google Pixel 4がジェスチャー操作に対応。新機能「Motion Sense」は生活をどう変える?
コメント
注目のコメント
技術自体は数年前に話題になったもので、きちんとモノに実装してくるのはさすがだなぁという印象です。
一方、スマホで空中ジェスチャ入力というのが、どれくらい使われるようになるかは正直よく分かりません。スマホは基本手で持つのが前提なので、であるならばわざわざジェスチャで入力する必要は無い。手が汚れてるとかで、かつ机の上に置いてある、といったときの需要はあるでしょうが、あまり頻繁でもない気もする。
ここにあるように、スマホに手をのばしているというような、「スマホに触れる前の意図」を推定するあたりが今後発展していくのでしょうか。気になるところですデモ動画がなんとも言えないのですが、ジェスチャー認識が難しいのは、「戻り」が必ずある点。例えば、手のひらで右にスワイプしたとします。その右手はどこに行きますか?左(中央)に戻しませんか?そのとき、左スワイプの命令がくだされたと判断されると、ユーザ体験は著しく下がります。
上記はあくまでも一例であり、解決しようと思ったらいくらでも手段があるのですが、タッチセンサの強みはタッチしていないと反応しないところ。また、音声インターフェースとの違いも気になりますね。理系の研究者のコメントが面白い。人間工学的な視点というか、色々なパターンを考慮してるんだなぁと感じた。
スマホは手に持ってディスプレイを触って操作が当たり前になっているけれど、手に持ってディスプレイを触らずに操作できるようになったということが今回のイノベーションなのでは。
Swipeのようなパラダイムシフトが起こる画期性は弱いかもだけれど、こういう技術が未来につながっていくんだろうなー