テスラModel Xの大事故はAutopilot使用中だったと判明。直前の数秒間に運転手の操作痕跡なし
コメント
注目のコメント
自動運転の議論では、人間の運転に比べれば事故発生率が低いという主張を散見するけど、まだ普及してもいない技術の事故率をどうやって計算しているのか。計算した本人ならともかく、伝道師たちは自分の目で見てもいないのによく自信をもって吹聴できるね。僕の経験から言わせてもらうと、この手の話は、単純化されたモデルでしか計算されてない(できない)のに、伝道師たちによって結果の数字だけが独り歩きする。
101のこの辺を走っていれば路面の凸凹箇所通過時の大きな段差衝撃でカリビュレーションがうまくいかなく車線を外すことはたまにあります(マウンテンビューのNASA前など凸凹箇所の酷いところでは高い確率で起こる恒例スポットもあります)。
事故現場は101から85号線への分岐で、アップル方面に行く人は通常テスラ なら一番左のカープール専用レーン経由で85に行きますが、この人はもう一本の内側のカープールを走っていて、ここでAutopilotのままにしてるとまっすぐ101をサンノゼ方面に南下します。そういう人が、85への分岐を見過ごして「あ!」っと急に車線変更を試みて事故を起こすのは日本の高速出口などでも起こるパターンと同じくそれなりに人間でも機械でも多発しますが、システムログは6秒間ハンドルを握ってなかった、と。事故にあった方は残念ですが、このログは不思議です。
最新のシステムだと警告音が鳴るのはそもそもしばらくハンドルを握らなかった場合のもので(最初は画面への表示、それでも無反応だと画面がピカピカ光りだし、それでも無反応だと警告音)、警告音を出してさらに衝突前6秒間は握ってなかったって、どういう状況でしょう?私は警告音が鳴ってからそのまま放置したことはないですが(うるさいので気付かないことはあり得ない)、さらにしばらくそのままにすると徐々に減速して停止する仕様です。
高速道路の自動運転は極めて単純なのでハンドルに触らずに放置するとそのまままっすぐ走ってくれて事故になることはありませんが、アメリカの高速道路はいろんなものが落ちてますから、それを踏んだ時にクルマが浮遊しセンサーが車線の認識を誤動作したとかはあり得るかもしれません。明らかに高速道路をしばらくまっすぐ走ってる場合は画像処理と位置情報でコンテキストを補足して多少の段差でのカリビュレーションミスは正しく処理するなどのソフトウェアアップデートは行われるでしょうね。(最近段差でエラーになるのも減ったように思う)最近のテスラの事故ニュースはやたらAutopilotを「半自動運転」と表現しますね。
一般的にユーザーはそういう認識ではないと思うんですけどね。「ほぼ自動運転」でしょ。わざわざ言ってるってことは、そう報道しなければならないんでしょうね。
それはともかく、この車両は以前からクレーム入れていたようですね。
この記事を読む限り、自動運転におけるセンサーや車体側のキャリブレーションがうまく行ってないように見えます。
『Huang氏の兄弟は、事故を起こしたModel Xは以前より、Autopilot使用中に同じ分岐点で車線を外れ、障壁へ向かって走り出すことが数度にわたって発生していたと証言しています。Huang氏はディーラーに苦情を申し入れたものの、ディーラーの試験ではこの問題が再現できなかったため、対応が得られなかったとのこと。』
以下のPickでSaitouセンセも仰ってますが、少しくらいアライメント狂ってても、真っ直ぐ走らなくても、人間は無意識のうちに慣れて運転してしまいます。
https://newspicks.com/news/2645634
テスラがどれだけポンコツか知りませんが、半(?)自動運転をウリにするのであれば、このようなキャリブレーション(つじつま合わせ)の手法は解決しておかないと今後厳しくなるのではないかと思います。
ホント言うと、自動運転センサーなんかより人間の方がセンシティブなので、自動運転に最適化する方がずっと楽なんですけどね。
(例えばステアリングフィールを左右する要素、パワステの方式[電動か油圧か]だけでなく、ステアリングラックの精度までもを人間は感じますから。ステアリングラックの精度だけでも大体そのクルマの出来やメーカーの本気度がわかります。
もし私がヒョーロンカという職業で、かつ極短時間の街乗り試乗しかできない状況でクルマの良し悪しを判断しろと言われたら、ステアリングフィールは判断する上で非常に大きなファクターになります。)