新着Pick
392Picks
Pick に失敗しました

人気 Picker
自動運転の議論では、人間の運転に比べれば事故発生率が低いという主張を散見するけど、まだ普及してもいない技術の事故率をどうやって計算しているのか。計算した本人ならともかく、伝道師たちは自分の目で見てもいないのによく自信をもって吹聴できるね。僕の経験から言わせてもらうと、この手の話は、単純化されたモデルでしか計算されてない(できない)のに、伝道師たちによって結果の数字だけが独り歩きする。
101のこの辺を走っていれば路面の凸凹箇所通過時の大きな段差衝撃でカリビュレーションがうまくいかなく車線を外すことはたまにあります(マウンテンビューのNASA前など凸凹箇所の酷いところでは高い確率で起こる恒例スポットもあります)。

事故現場は101から85号線への分岐で、アップル方面に行く人は通常テスラ なら一番左のカープール専用レーン経由で85に行きますが、この人はもう一本の内側のカープールを走っていて、ここでAutopilotのままにしてるとまっすぐ101をサンノゼ方面に南下します。そういう人が、85への分岐を見過ごして「あ!」っと急に車線変更を試みて事故を起こすのは日本の高速出口などでも起こるパターンと同じくそれなりに人間でも機械でも多発しますが、システムログは6秒間ハンドルを握ってなかった、と。事故にあった方は残念ですが、このログは不思議です。

最新のシステムだと警告音が鳴るのはそもそもしばらくハンドルを握らなかった場合のもので(最初は画面への表示、それでも無反応だと画面がピカピカ光りだし、それでも無反応だと警告音)、警告音を出してさらに衝突前6秒間は握ってなかったって、どういう状況でしょう?私は警告音が鳴ってからそのまま放置したことはないですが(うるさいので気付かないことはあり得ない)、さらにしばらくそのままにすると徐々に減速して停止する仕様です。

高速道路の自動運転は極めて単純なのでハンドルに触らずに放置するとそのまままっすぐ走ってくれて事故になることはありませんが、アメリカの高速道路はいろんなものが落ちてますから、それを踏んだ時にクルマが浮遊しセンサーが車線の認識を誤動作したとかはあり得るかもしれません。明らかに高速道路をしばらくまっすぐ走ってる場合は画像処理と位置情報でコンテキストを補足して多少の段差でのカリビュレーションミスは正しく処理するなどのソフトウェアアップデートは行われるでしょうね。(最近段差でエラーになるのも減ったように思う)
最近のテスラの事故ニュースはやたらAutopilotを「半自動運転」と表現しますね。
一般的にユーザーはそういう認識ではないと思うんですけどね。「ほぼ自動運転」でしょ。わざわざ言ってるってことは、そう報道しなければならないんでしょうね。

それはともかく、この車両は以前からクレーム入れていたようですね。
この記事を読む限り、自動運転におけるセンサーや車体側のキャリブレーションがうまく行ってないように見えます。

『Huang氏の兄弟は、事故を起こしたModel Xは以前より、Autopilot使用中に同じ分岐点で車線を外れ、障壁へ向かって走り出すことが数度にわたって発生していたと証言しています。Huang氏はディーラーに苦情を申し入れたものの、ディーラーの試験ではこの問題が再現できなかったため、対応が得られなかったとのこと。』

以下のPickでSaitouセンセも仰ってますが、少しくらいアライメント狂ってても、真っ直ぐ走らなくても、人間は無意識のうちに慣れて運転してしまいます。
https://newspicks.com/news/2645634

テスラがどれだけポンコツか知りませんが、半(?)自動運転をウリにするのであれば、このようなキャリブレーション(つじつま合わせ)の手法は解決しておかないと今後厳しくなるのではないかと思います。

ホント言うと、自動運転センサーなんかより人間の方がセンシティブなので、自動運転に最適化する方がずっと楽なんですけどね。
(例えばステアリングフィールを左右する要素、パワステの方式[電動か油圧か]だけでなく、ステアリングラックの精度までもを人間は感じますから。ステアリングラックの精度だけでも大体そのクルマの出来やメーカーの本気度がわかります。
もし私がヒョーロンカという職業で、かつ極短時間の街乗り試乗しかできない状況でクルマの良し悪しを判断しろと言われたら、ステアリングフィールは判断する上で非常に大きなファクターになります。)
冷静に、気になる点や所感を書いていきたい。

a) 警告が鳴ったのに、ハンドルに手を置いていなかったのはなぜか?
これについては、今回の事故だけだったのか、それとも常習的にそうだったのかはログを調べればわかると思う。
もちろんTeslaのこの機能を使用中に事故に至ったことは消えない事実だが、今回の事故だけであれば、何か特殊要因があったなどの可能性はある(極論だが、何らかの発作。あくまで可能性の話)。

b) レベル2/オートパイロット機能の在り方
全ユーザーのログも調べて、どれくらいの常習性があるか調べられるはず。そのうえであくまでレベル2(人間の常時監視のもと、アクセル・ブレーキ・ステアリングの複数の操作)であることから、常時監視が満たされていないのであれば、自動停止をするといった変更が求められるだろう。

c) 事故確率
2016年10月時点でTeslaのオートパイロット機能での総走行距離は、導入から約1年で約3.5億キロと、会社は発表している(①)。それから考えると現在は10億キロくらいになっていてもおかしくはない。
Uberの事故の際に計算したが、米国の自動車による死亡事故確率は1.4億キロあたり1人。自分が記憶がある死亡事故は、本件と、2016年のトレーラーとの事故。もちろん亡くなられることを確率だけで語るつもりはないし、個人的には今回のTeslaの機能のミスリーディングな広告などを正当化するつもりはない。ただ、一方で数字的な面も安全性の議論では重要で、見ておきたい。
https://s.nikkei.com/2GtbZEj
https://newspicks.com/news/2898586
一気に注目へ
> コンクリート障壁の前に置かれるバリアのへの衝突だったこと、そのバリアが以前の事故で新品に更新されず、つぶれたままそこに置かれていこと

これはもう、謎の障害物を自動車がうまく検知できなかったとゆうことに。ライダーセンサーを搭載していたらせめて避けるなりスピード抑えるなりできただろうか。
テスラも装備しないとまずそうだ。ライダーなし自動運転のイーロンの仮説のピンチ。
亡くなったのはAppleの従業員か…ご冥福をお祈りします。
同一視はできないが、エアバッグの製品不良で死亡事故を含む損害を多数に与えたタカタは倒産し事業再生手続きにいたった。

オートパイロットが実装に耐えられるものではなかったことは明らかだ(もっともオートパイロット側だけでなく道路側にも、衝突をさせない、衝突しても損害が生じさせない機能が必要だ)。

オートパイロットの製品不良を放置したテスラはタカタと同じ道を辿ってもおかしくない。

同乗運転手の過失を伺わせる報道やそれに対しテスラの重過失を強調する報道がある。そもそも、テスラはPL法上の警告義務違反を犯しているように思う。アメリカでの集団訴訟はまぬがれない。

人命を失わせた以上、原因の解明と生産停止を含む厳重な対応が求められる。

量販されていない自動運転車の事故率は、まだあくまでも理論上の試算でしかない。それを持ち出し自己弁護するテスラは間違っている。人命の前に統計学的議論は意味を持たない。
まだ完全自動運転の段階でないのなら、ユーザからのクレームに耳を傾けて素早く改良する。という当たり前のことがなされていませんね。電子出版なら走りながら修正もいいですが、命を預かる車はそういうわけにいきません。
ここに全てがあります。
“Huang氏の兄弟は、事故を起こしたModel Xは以前より、Autopilot使用中に同じ分岐点で車線を外れ、障壁へ向かって走り出すことが数度にわたって発生していたと証言しています。Huang氏はディーラーに苦情を申し入れたものの、ディーラーの試験ではこの問題が再現できなかったため、対応が得られなかったとのこと”
テスラは事故発生時にこのModel Xが半自動運転機能「Autopilot」を使用していたことを明らかにした。
不幸な事故ですが、パナソニックの製品とは関係がなさそうです。

時価総額の戻りが期待できます。
時価総額
70.8 兆円

業績

朝日放送株式会社(あさひほうそう、英称:Asahi Broadcasting Corporation)は、近畿広域圏を放送対象地域とする特定地上基幹放送事業者である。略称はABC(エービーシー)。 ウィキペディア
時価総額
301 億円

業績