テスラ車事故30件を米当局が調査、運転支援システム使用巡り
コメント
選択しているユーザー
自動運転が機能として不十分なケースと、ユーザーの不適切な利用(運転席にいないとか)のケース、両方があるのではないかと思う。
不適切な利用を防ぐ責任をどこまでメーカーが負うべきかは悩ましいが、今後のTeslaや自動運転の規制に関する動向への影響含めて注目。
注目のコメント
調査するのは当然でしょう。
オートパイロットって名前の機能を搭載し、ユーザーは自動運転を期待して使用してるわけですから。
それが事故の一因になってる可能性は高い。
しかもOTAでアップデートされてる訳ですから、連邦法である国家交通並びに車両安全法(FMVSS)に定められた機能が、販売許可した時から変化してる可能性もある。米国は政府の許認可精度ではなく、OEMの自己認証。ゆるく見えるが、事故画起きるとPL裁判。しかも懲罰的民事責任が問われるので、今回の件はテスラ最大の危機かもしれません。