出版案内
福祉事業団
京都新聞AR

社説:「自動運転」事故 システムに潜むリスク

 自動運転を信頼し切っていいのだろうか。疑念がよぎる事故だ。

 横浜市の湾岸沿いをコンピューター制御で走る無人の車両が、折り返し駅で逆走、車止めに衝突して乗客14人が重軽傷を負った。

 1989年開業の新交通システムで、自動列車運転装置(ATO)によって運行されている。

 同様の新交通システムは、神戸市のポートライナーや東京都のゆりかもめなど全国7路線で無人運転が行われている。それだけに影響は大きい。事故原因を徹底究明しなければならない。

 国土交通省と運営会社の現段階の調査では、ATOの地上側装置の記録に異常はないという。車両のモーター制御系統に何らかの不具合があったとみているようだ。

 気になるのは、逆走という事態を想定していなかったことだ。前進中に不具合があれば自動的にブレーキがかかるが、逆走にはそうした仕組みがない。

 またしても「想定外」である。設計段階で想定していなければ、事態に対応できない。多くの事故で繰り返されてきたことだ。

 事故が起きて初めてリスク要因に気づくことはしばしばで、それらは広く蓄積されて、再発防止に役立てられる。しかし、事前に隠れたリスクをつかむのは容易ではない。

 いくら設計がしっかりしていても、機械は壊れるし、人は過ちを犯す。電気系統でも不具合が突発的に生じることがある。

 無人運転は、事故に多いヒューマンエラーを排したシステムで、リスクの低減が期待されている。しかし、リスクをゼロにするのは難しい。たとえコンピューターが正常に指令しても、機械や部品などに不具合があれば機能しない。

 2006年に東京のゆりかもめが脱輪した事故では、車輪の車軸に固定する金属部品に想定外の力が繰り返し加わって金属疲労を起こし、破断したとみられている。

 無人運転で省力化しても、管理や点検は人の目と手でしっかり行う。言うまでもないことだ。

 今回の事故で、不具合が起きた際にストップして危険を回避する「フェイルセーフ(多重防御)」の仕組みがなかった。残念だ。

 車の自動運転など、人を介さないシステムへの期待が高まっている。しかし、想定外の突発事態に対応できるのか。システムへの過信は危うい。不具合を前提にして、リスクを避けるフェイルセーフの発想を、もっと広げる必要があるのではないだろうか。

【 2019年06月06日 13時10分 】

京都新聞デジタル版のご案内

    環境・科学のニュース