NTTのAIは音で空間にあるモノの種類や位置を把握する
コメント
注目のコメント
後半のモノの位置推定の話、どれくらいの制約があるのか気になるところ。予め何もないときの部屋の形状とその時の音響的な特性くらいは知っておく必要がありそう。あと、対象が音を発しているもの限定なのか、アクティブソナーのように計測側から既知の音を入れてそのリアクションを見るのか?あたりも知りたい。
ALISSAさんの書かれている利用法ですが、例えばルンバのような低い位置のロボットが環境をセンシングして物にぶつからないようにためにカメラで周囲を撮影していたりすると、やはりスカートを履いている女性とかは嫌ですよね?そういうような、カメラを載せて周囲を知りたいけれどそれができない、というようなシチュエーションで生きるんだと思います。
トイレなんかも決して監視カメラは置けないわけですが、だからこそ公衆トイレなんかで犯罪が起こる可能性もあるわけで、見えないけれど状況は分かるというのは、使いみちがいろいろあるだろうなぁと思います。技術のことは知りませんが、面白いですね。NTTはB2B2Xを標榜している以上、技術開発にとどまらずマネタイズをしっかり実現して欲しいと思います。
またこの技術は音から物体の形状・特性・位置などを推察する技術だと思いますが、発想を逆転して実現したい物体の動きを音として動体的に還元することもできるはずです。映画やVRでリアリティの高いコンテンツが生まれるかもしれません(まあ、音が現実に近いことが人間の体感に最も訴求するのかは別問題ではあります)。下記の研究かなー、とおもいます。とてもおもしろい試みをされています。
MIRU2017
「Seeing through Sounds:音響情報からの視覚的情景理解に向けて」
オストレク ミレラ, 入江 豪, 木村 昭悟, 亀岡 弘和, 平松 薫, 柏野 邦夫(NTT)