MITが開発のAI、映した動画からシーンの外の出来事までも予測できる!
コメント
注目のコメント
壁に遮られた後ろで人やモノが動くと,そのときの照明条件と対象の反射の状況に応じて,見えている範囲の映像の明暗のパターンが変化するので,それを使って見えない部分の人やモノの動きを予測してしまおう,という研究ですね.
これ,照明条件にかなり依存するだろうなぁと思うわけですが,災害時の瓦礫の裏の状況の確認,みたいなときに,ここからどのような道筋でそこまでつなげる事になっているのか気になります.
交差点等の照明条件がある程度決まった環境下だと,十分行けそうな気がします.防犯カメラの死角の情報を推定するのにもいいですね.スパイ映画とかで再構成映像とか使われそう.例えば、小さい子供と食事をしている時に、子供が何かおかずを取ろうと思った時にテーブルの端っこに置いていたコップに袖が引っかかってコップをおとしてしまう体験はこれまで多くの人が何回も経験していて、そういったあるあるネタな未来を動画の中から予測するという感じでしょうか。何が起こるか分からない世の中、様々なことを予測できるのは素晴らしい限りです。
"研究チームはカメラに映ったエリアの光の濃淡と、その変化を手掛かりにしている。"
物陰に隠れた物体を直接は見れないから、光の濃淡データを使って物体の動きを予測するというのが面白いですね。
自動運転での事故防止率を改善したりするための技術としても使えそうだなぁと思いました。
■動画
https://www.youtube.com/watch?v=hhEJMpouMS8&feature=youtu.be