自動車人/黄耀鹏 Uber自動運転車の公道試験で人轢きの死亡事件から31ヵ月が経過した。該当事件は今月下旬に初公判を開かれる予定だ。 事件は2018年3月に起こった。カリフォルニア州でのUber公道試験は、“完全資格”を取得していないと判明され、アリゾナ州へ移動後、テンペ で致命的な交通事故が発生した。 車両操作員Rafaela Vasquezが乗ったUber自動運転車は、道路を横切っていた女性と衝突後、人命被害が生じた。Uberの規定によると、操作員は常に手動運転へ変える対応体制を整うべきだが、Vasquezは携帯電話に気を取られ、事故発生寸前に危険を感知したが、手遅れだった。 事件の複雑さは、一見の法律問題から、技術的問題又は科学倫理的問題に繋がり、社会的問題にも関わることだ。被害者の複数問題により犠牲になったかもしれない。 2019年3月、米アリゾナ州マリコパ県検査官はUberを刑事捜査の範囲から除外し、刑事責任を負う必要がないと判断した。これは事実上的判定ではなく、アリゾナ州法律では、企業過失による致死は理論上のみに存在するためだ。 現在の法律制度下で、高等自動運転事故において、自動システム及び背後の企業がどの程度の責任を負うべきかに関して、検察官の立証が困難だ。 事件を起こった自動運転システムの“操作記録”には、成熟した人間運転者に比べて、システムのパフォーマンスは完全に不適合だったことが分かる。ソフトウェアエンジニアは、保守的な対策を使う場合、システムが常に敏感対応し、搭乗者の不快感が高まる一方、急進的な対策を採用すると、システムが鈍感に対応し、リスクが上昇する。システムは“副次的干渉要因”を意図的に無視し、或いは、目標識別を繰り返して、すべての対応機会を無駄にすることの二択に置かれている。 更に深く掘り下げると、Uber自動運転システムのセンサー調合、パターン認識アルゴリズム、意思決定システム、事前設置された介入条件全てが大きな問題が存在し、これは事故発生の本当の誘因である。Vasquezは自分の義務を怠り、安全弁の役割を果たせず、事故中止ができなくなった。このような自動運転は、人間の運転よりはるかに危険だ。 カリフォルニア州交通局によると、Uberが“自ら”走行を中止する前に、公道試験の自動運転車は37kmごとに1回手動介入が必要とし、同じ時期に、Waymoは1000 km当たりの手動介入回数は0.09だった。この観点から、Uberは技術力を強調する企業として、安全事故の責任は逃れない。 実際の結果は、企業は何の責任も負うことはなかった。法的責任はもちろん、経済的賠償責任は保険会社が処理した。操作員Vasquezに対して、検察官は懲役2.5年の実刑を宣告したが、彼女は容疑を認めず、刑量交渉も拒否した。 ハイテク企業は、自然人ではないという理由だけで、不注意による事故に対して定める責任がないのが現状だ。技術陣や意思決定者は、“技術無罪”を使用して、自分たちの監督責任を免れてはならない。更に、無理に実験を加速化させたのは、単純な技術力問題ではなく、商業的な動機であった可能性がある。 法律が技術を容認することで、不良の商業団体への寛容に進化した場合、それは技術という名分に値するものではなく、公共安全を害する危険だ。