無人駕駛汽車在社區中大規模地出現這種從前科幻電影的橋段,即將在我們日常生活中出現。交通工具在道路運行,有機會造成人命傷亡。出了事,到底誰負責?人類與由電腦開動的汽車,關係如何?種種道德爭議,值得我們思考。我這篇文章只是開一個頭,很多東西日後仍要討論。

近日傳媒廣泛報導一宗美國Tesla車主開啟「自動駕駛」(Autopilot)系統而炒車死亡的意外。5月7日,Tesla Model S車主Joshua Brown正在「駕駛」他的愛驅在佛羅里達州的公路上奔馳。途經一個十字路口,一架白色左轉橫向馬路的貨車在Tesla的前方出現,Tesla全速撞向貨車,捲入車底,Tesla車頂被扯開,卻沒有停車,繼續行駛衝出馬路,撞毀兩條欄杆直到撞到電線杆才停下來。「司機」Joshua Brown當場死亡。

據報導,「司機」的死亡原因,是因為行車「司機」時開啟了「自動駕駛」系統,並只顧看電影沒有留意路面,當天天氣良好,貨車的白色正好與天空顏色差不多,「自動駕駛」系統無法辨別貨車之出現。Tesla的「自動駕駛」系統以為前面沒有車,而「司機」又沒有看路,所以Tesla全速撞向貨車,現場並沒有煞車紀錄。據報這是「自動駕駛」有史以來第一宗人命車禍。

看到這新聞,我不感意外,反正自人類發明各種交通工具以來,就不斷有人死於交通意外。而交通工具內每一種安全措施的改進,都是由眾多死於交通意外的乘客,用生命換來。Tesla公司真的要好好多謝這位Joshua Brown,他用生命幫助Tesla的程式測試出白天不能辨別出白色汽車這個Bug。眾所周知,編寫任何程式,最麻煩就是Debug,Debug最麻煩之處就是找出隱藏錯處。Joshua幫Tesla找出這個嚴重錯誤,可惜日後Tesla修改好系統後,Joshua 已無緣再試。

事件中只有Joshua一人死亡,法律責任和道德爭議算簡單。假如被撞的白色車司機死亡、以及事件導致其他路人死亡,到底責任誰屬?是「司機」Joshua責任、還是Tesla責任?表面上看,「司機」Joshua的責任較大,因為Tesla公司在汽車出廠時,已講明「自動駕駛」系統「未完善」,並叮嚀司機,即使開啟了「自動駕駛」系統,雙手仍然應該放在軚盤之上,並要隨時留意路面變化。「司機」Joshua既然知道Tesla的系統「未完善」,仍然把汽車假手於「自動駕駛」系統去開動,自己本人不看路而看電影,出了人命事故,Joshua算是活該!

但到底,車廠開發的「自動駕駛」系統,怎樣才算「完善」?是不是車廠只要永遠聲稱系統「未完善」,就可以逃脫法律責任?而政府的角色如何?政府可以容許越來越多「未完善」的「自動駕駛」系統在社區上運行嗎?一輛在道路上行走的汽車,隨時可以變成殺人武器,政府可以安心把汽車在道路上運行的決策,讓給電腦去做嗎?Tesla這款車,仍然有軚盤,尚且可介定出坐在軚盤位置的人是人類「司機」。但難保有一日,無軚盤全自動運行的汽車會出現,到時政府怎樣介定誰是「司機」呢?

政府的角色,講到尾都是涉及駕駛責任的問題。政府可以將不小心或魯莽的駕駛者定罪,拉他們去坐牢,以懲罰他們,並阻嚇其他駕駛者,避免犯同一罪行,以保障市民大眾安全。人類駕駛者的刑事責任,政府容易介定。但電腦駕駛者又如何?「自動駕駛」系統出問題導致人命意外,政府要怪罪於程式編寫人員嗎?程式由眾多人員編寫,能拉誰去坐牢?拉車廠老闆去坐牢罷!但誰是「老闆」?一眾股東、CEO還是公司主席?況且,那麼大的工廠,總會有許多法律專家協助這些公司「老闆」避免刑事責任。說來說去,車廠系統出錯令道路使用者死亡,最終都係賠錢了事。

其實以Tesla公佈的數據,Tesla 車主超過 1.3 億哩的駕駛行程中,今次是首次致命意外,可見Tesla的系統從數字上去講,其實已十分「完善」。但我用常識去睇,單靠汽車的鏡頭拍攝並用電腦辦別顏色以確定附近有沒有汽車,實在兒戲得過份!我以為應該有超聲波感受以及熱力探測工具去輔助確認附近有沒有障礙物和生物,以確保安全。

我要指出一點,任何電腦系統,都沒有百分百「完善」的一日。賣出幾多架汽車,汽車運行了多少公里,才出現一宗人命事故,而要賠償多少錢,車廠有數得計。反正出意外又不用坐牢,所有事情都只是數目字。改善和更新系統,是要花錢的。即使系統「未完善」,但意外賠償的成本有限,自然沒有太多誘因去「完善化」套系統。

到頭來,人命對「自動駕駛」汽車生產商來說,只是一堆數字,若干人命損失的金錢成本,在開發和生產過程,已計算在內。「自動駕駛」系統的其中一個重大道德爭議,涉及這個人命何價的問題。有了「自動駕駛」系統,我們會將越來越多人的生死,交給電腦去做決策。電腦系統背後,是車廠老闆的利潤最大化利益考慮。而我這篇文章尚未討論如果有人利用這套「自動駕駛」系統去殺人,以及萬一電腦自己識思考的問題。