• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

AI自動運転「センサーはカメラだけ」…Mobileyeの衝撃動画、CES 2020で公開

57
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    画像処理をやっている身としては、どちらか一択という議論ではなく相補的に用いるのがいいと思っています。

    将来改善されるとは思いますが、現状ではこんなところが難しいと認識しています。

    ・カメラのダイナミックレンジ。人間の目に比べて数10dBレンジが狭い、すなわち見えない。特に夜間の運転やトンネルの出入り口等をどうするのか。赤外線カメラがあると思われるかもしれませんが、赤外線照明がそんなに届かない。

    ・映像の処理コスト。いまはだいたい映像1ストリームに対してGPU1枚。頑張ってもGPU1枚あたり2映像くらいだと思うと、何枚のGPUが車載に必要?コストの問題のほかにそもそも、車はそんな電力持ってない。

    ・「見かけ」は騙される。1つのモダリティに頼ってしまうと、誤動作したときにどうしようもない。それよりも複数のモダリティで判断して合議制にするほうが精度は高くなる。航空機では計算システムも多重化されていて単一で決定をくださないようになっているのは有名な話。


  • 米国カリフォルニア州弁護士(専門:移民法)

    以下、自動運転のLidarとCameraの違いがよくまとめられている記事。

    https://www.autopilotreview.com/lidar-vs-cameras-self-driving-cars/

    将来的に、商用がLidarで、マイカーはCameraになるかも。

    テスラはカメラ(8つ)とAIで実用性高いレベル2まできた

    Lidarの問題:
    ①コスト
    ②文字読めない(ストップサインなど)
    ③霧や雪で使えない
    ④デザインよくない

    カメラ派:テスラ、モービルアイ(インテル)、Wayve (UK)
    Lidar派:その他ほぼ全部(グーグルも含め)

    Lidar派は、AIがここまで発達すると予測していなかったので、Lidarに投資したが間違っていたら大問題。そろそろ業界の人は気づき始めている(やばい事をやってしまったかも)。


  • badge
    東京大学 大学院工学系研究科 航空宇宙工学専攻 教授

    これは私の印象ですが,センサーはすでに自動運転に不可欠な領域にまで到達している気がする.あとは処理系の問題ではないかと.カメラの場合,カメラの種類にもよるが,環境の光量が問題.それも処理系の問題と言えなくもないが.少なくとも,今のセンサ技術で人並みの運転はできるはずと思う.さらにそこより安全性を高めるためには,街頭センサとの連携,またV2Xコネクションが必要だと思う.


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

新しい記事ページ
を表示しています

ご意見・ご要望はこちらまで

マイニュースに代わり
フォローを今後利用しますか