• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Google Pixel 4がジェスチャー操作に対応。新機能「Motion Sense」は生活をどう変える?

75
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • badge
    東京大学大学院新領域創成科学研究科 准教授

    技術自体は数年前に話題になったもので、きちんとモノに実装してくるのはさすがだなぁという印象です。
    一方、スマホで空中ジェスチャ入力というのが、どれくらい使われるようになるかは正直よく分かりません。スマホは基本手で持つのが前提なので、であるならばわざわざジェスチャで入力する必要は無い。手が汚れてるとかで、かつ机の上に置いてある、といったときの需要はあるでしょうが、あまり頻繁でもない気もする。
    ここにあるように、スマホに手をのばしているというような、「スマホに触れる前の意図」を推定するあたりが今後発展していくのでしょうか。気になるところです


  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    デモ動画がなんとも言えないのですが、ジェスチャー認識が難しいのは、「戻り」が必ずある点。例えば、手のひらで右にスワイプしたとします。その右手はどこに行きますか?左(中央)に戻しませんか?そのとき、左スワイプの命令がくだされたと判断されると、ユーザ体験は著しく下がります。

    上記はあくまでも一例であり、解決しようと思ったらいくらでも手段があるのですが、タッチセンサの強みはタッチしていないと反応しないところ。また、音声インターフェースとの違いも気になりますね。


  • B2Bデジマ担当

    理系の研究者のコメントが面白い。人間工学的な視点というか、色々なパターンを考慮してるんだなぁと感じた。

    スマホは手に持ってディスプレイを触って操作が当たり前になっているけれど、手に持ってディスプレイを触らずに操作できるようになったということが今回のイノベーションなのでは。
    Swipeのようなパラダイムシフトが起こる画期性は弱いかもだけれど、こういう技術が未来につながっていくんだろうなー


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか