テスラがオーナーを使い安全ではない自動運転ソフトのテストを行っているとコンシューマーレポートが懸念

サンフランシスコの交通量の多い道路で、自動運転モードのTesla(テスラ)が中央車線から左折する。車両は意図していないバスレーンに飛び込んでしまう。角を曲がったところで駐車中の車の列に突っ込みそうになり、ドライバーがハンドルを握ることになる。これらのシーンは、自動車評論家のAI Addict(AIアディクト)氏が撮影したもので、他にも同様のシーンがYouTubeにアップされている。これらは、携帯電話で話し中の人間なら誰でもやってしまいそうなミスだというかもしれない。しかし、私たちはAIがもっと頼りになることを期待している。

2021年7月初めから、テスラはこれまでのADAS(先進ドライバー・アシストシステム)が行っていたような、カメラとレーダーの利用ではなく、カメラだけを使ったADASであるFSD(Full Self-Driving)バージョン9ベータ の配信を開始した。

無防備な左折などの危険な運転をしている映像や他のテスラのオーナーからの報告を受けてConsumer Reports(コンシューマーレポート)は、米国時間7月20日に声明を発表した。それは今回のソフトウェアアップグレードは、公道での安全性に問題があると考えられるというもので、必要なソフトウェアアップデートが行われた後、同社が所有するSUV「Model Y」で独自にソフトウェアアップデートの内容をテストするとしている。

試作品のソフトウェアを動かすことは、大変だが楽しみでもあります。修正すべき多くの既知の問題を抱えていたので、ベータリストは遅れていました。

ベータ9では、ほとんどの既知の問題には対処できていますが、未知の問題もありますので、ご利用時にはこれ以上ない細心の注意を。

テスラは常に安全性を最優先しています。

コンシューマーレポートは、テスラが既存の所有者とその車両を、新機能をテストするためのモルモットとして利用しているのではないかと懸念している。テスラのCEOであるElon Musk(イーロン・マスク)氏は、同社の立場を強調するように、ドライバーに対して「未知の問題もありますので、ご利用時にはこれ以上ない細心の注意を」と、運転中に気を抜かないように呼びかけた。テスラ車のオーナーの多くは、フィードバックのためにベータ版ソフトウェアを提供するテスラのアーリーアクセスプログラムに登録しているので、自分が何をしようとしているのかを理解しているが、それ以外の一般の道路利用者たちはそのような試験に同意していない。

テスラのアップデートは、全国のドライバーに向けて配信されている。コンシューマーレポートはテスラに対して、各州の個別の自動運転規制を考慮しているかどうかについての詳細な情報を求めたが、回答は得られていない。29の州が自動運転に関連する法律を制定しているが、それらは州によって大きく異なっている。Cruise(クルーズ)、Waymo(ウェイモ)、Argo AI(アルゴAI)などの他の自動運転技術企業は、コンシューマーレポートに対して、私有地でソフトウェアをテストするか、訓練を受けたセーフティドライバーを監視役として使用していると回答している。

コンシューマーレポートの安全政策担当マネージャーのWilliam Wallace(ウィリアム・ウォレス)氏は声明の中で「自動車技術は本当に急速に進歩しており、自動化は多くの可能性を秘めていますが、政策立案者たちは強力で意味のある安全規制を導入するために踏み出す必要があります」という。「さもないと一部の企業が、安全に対する責任を負わないまま公道を私的な実験場のように扱うことになります」。

2021年6月には米国運輸省道路交通安全局(NHTSA)が、SAEレベル2のADASまたはSAEレベル3、4、5の自動運転システムを搭載した車両の製造者および運用者に対して、衝突事故の報告を義務付ける命令を発令した。

NHTSAの管理代行者であるSteven Cliff(スティーブン・クリフ)博士は、声明の中で以下のように語っている「NHTSAの最大の使命は安全です。衝突報告を義務付けることで、NHTSAは重要なデータにアクセスできるようになり、これらの自動運転システムに現れる可能性のある安全上の問題を迅速に特定することができます。実際、データを集めることで、連邦政府が自動運転車の安全性をしっかりと監視しているという国民の信頼を得ることができるのです」。

FSDベータ9ソフトウェアには、ドライバーの監視下で交差点や市街地を巡航するなど、より多くの運転タスクを自動化する機能が追加されている。しかし、他の道路利用者と車の位置関係や、スクーターに乗った女性が通り過ぎる様子まで詳細に表示される優れたグラフィックによって、ドライバーは肝心な時に支援してくれるはずの技術そのものに注意を奪われてしまうかもしれない。

コンシューマーレポートのAuto Test Center(オートテストセンター)のシニアディレクターのJake Fisher(ジェイク・フィッシャー)氏は、次のように述べている。「テスラがドライバーに注意を払うように求めるだけでは十分ではありません。システムが作動しているときにドライバーが集中しているかを確認する必要があるのです。適切なドライバーサポートなしに、自動運転システムの開発をテストすることは、死亡事故につながる可能性があるというだけでなく、実際に悲劇が起きることもわかっています」。

フィッシャー氏は、テスラはドライバーが道路を見ていることを確認するための車内ドライバーモニタリングシステムを導入すべきだという。これは 2018年にフェニックスで、道路を横断していた女性をはねて死亡させたUberの自動運転テスト車両のような事故を防ぐことが目的だ

関連記事
テスラが強力なスーパーコンピューターを使ったビジョンオンリーの自動運転アプローチを追求
テスラが車内カメラでAutopilot使用中のドライバーを監視
テスラがノルウェーでの判決を受け最大約243億円の補償金支払いに直面

カテゴリー:モビリティ
タグ:テスラ自動運転イーロン・マスク

画像クレジット:Bloomberg / 投稿者許諾済

原文へ

(文:Rebecca Bellan、翻訳:sako)