親愛的網友:
為確保您享有最佳的瀏覽體驗,建議您提升您的 IE 瀏覽器至最新版本,感謝您的配合。
側欄選單

撞死誰的準則?德國〈自動駕駛方針〉的道德困境

2018/06/19 徐子軒

大約一年前,德國聯邦參議院批准道路交通法修正案(RTA),允許駕駛自動化汽車——主要是指有條件自動化(Level 3)和高度自動化(Level 4)兩種。這意味著「人類可以在法令範圍內,將車輛掌控權交由AI」。但人類必須保持警覺,以便在AI發出警訊、或是超出系統限制時,立即回復對車輛的控制,因為自駕系統只是輔助性,最終責任仍在人類。

然而自動駕駛仍有許多的疑難雜症亟待討論解決。就在法案通過後不久,德國聯邦政府中掌管自駕的倫理委員會,制定了全球第一份「自駕方針」。這份方針是為將來的為全自動化(Level 5)打基礎,目的不只在於賦予自駕合法性,更企圖在安全、人類尊嚴、自由選擇與數據保護上設立德國標準,保持德國「Mobility 4.0」的領先地位。

這份方針包含20個準則,是倫理委員會討論出的共識,同時也列出一些尚未能決的問題。所謂準則其實就是人類希望AI服膺的道德原則,像是科幻小說的「機器人不得傷害人類」等三大法則,在此方針亦有類似表述。如準則7提到:

如果無法避免危險,自駕系統首要任務是保護人命,必要時可接受犧牲動物或財物。

一旦涉及道德,便很容易陷入困境,著名的電車難題(Trolley problem)同樣適用於自駕。

2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一...
2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一名49歲婦人,造成婦人死亡。圖為車內記錄器之影像。 圖/路透社

▌自動駕駛的道德困境

就電車難題的初步設計觀之,也就是一個人拉桿可改變電車方向,決定A軌道上五個人或B軌道上一個人的生死,絕大多數會選擇救五害一。此點也為準則所繼承,委員會同意在編程自駕系統時,「減少人命損失」可視為合理。

需注意的是,有論者認為電車難題屬於極端狀況,在現實中從未聽聞,不能以此討論自駕。但事實上與之相關的狀況並不在少數,例如常有駕駛因閃避路上行人,反造成車輛打滑失控,乃至於車輛自撞或翻覆、也常見駕駛因閃避不及,直接撞上行人或殃及其他行人。

這些情形對人類駕駛來說,都是生死瞬間的兩難抉擇,通常只能靠直覺反應,也因此往往出現嚴重事故。無論是對駕駛或行人,採用自駕的一個主因乃是提高安全性、降低危害程度。

最理想的狀態當然是完全防止,若無法,準則5認為,自駕系統得替人類在兩個「邪惡」之間抉擇,並盡可能減輕行人的風險。

自駕系統得替人類在兩個「邪惡」之間抉擇,面對「電車難題」的道德困境。
自駕系統得替人類在兩個「邪惡」之間抉擇,面對「電車難題」的道德困境。

如此看來,至少在德國,自駕系統可能將以駕駛安全為首要考量,不過委員會在準則中也留下非常大的模糊空間。像是遇到無法避免的危險時,準則九嚴格禁止自駕系統以個人特徵,如年紀、性別、身心狀況,做出區別的決定;亦即——

自駕系統不能權衡受害者的條件,來決定誰應該受害。

不權衡個人特徵基本上屬於人類智慧範疇,因為在正常反應時間內,人類盡注意的義務已經很難,更遑論做出令人信服的判斷。但假設AI能完全自駕,而非現在所認知的輔助系統,那麼有理由相信,AI可在極短時間內算出一個人經由撞擊後存活或是負傷的機率。委員會當然理解此點,卻為何做出這樣的限制?

《自駕車的道德兩難》

▌自駕難題,你怎麼選擇?

不妨先以電車難題的假定,設計出自駕難題的一些變體,然後進行思辨。

狀況一

  • 在完全自駕的前提上,遇到無可避免的危險狀況,繼續往前行駛,會直接撞傷路上玩球的小孩、急轉彎將會使車輛撞上大樹,傷及車輛乘客。

  • 經AI計算的結果,撞上小孩,其存活率為30%、撞上大樹,乘客存活率為45%。

狀況二

  • 在完全自駕的前提上,遇到無可避免的危險狀況,為了保全車上乘客性命,只能選擇直接衝向A路上的年輕人,或轉向B小徑的老人。

  • 經AI計算的結果,撞上年輕人,其存活率為40%、撞上老人,其存活率為20%。

試想狀況一,你可能因為對小孩的憐憫而選擇撞樹,但如果車上乘客有家屬至親,你會允許AI選擇撞上大樹嗎? 再試想狀況二,如果自駕系統不能依個人條件選擇,那麼只能隨機撞上,這樣的結果你能接受嗎?

在小孩與大樹之間,或許會出於對小孩的憐憫而選擇撞樹。然而當撞上樹會造成車內的人嚴...
在小孩與大樹之間,或許會出於對小孩的憐憫而選擇撞樹。然而當撞上樹會造成車內的人嚴重的傷害,這個選擇還能如此輕易嗎? 圖/美聯社

類似的討論還可延伸出更多的條件,讓自駕在尚未成熟之初,就必須面對嚴苛的質疑。往好的方向想,我們願意相信並堅持命命等值,但遇到多命與一命的權衡,正常人會做出犧牲少數的痛苦決定。以上述狀況二來看,其實就是救五害一的變體,現實生活中,大部份人可能還是會傾向以機率、而非隨機決定人命,這似乎比較符合功利主義的理性。

同時,以AI決定撞擊,或者可以擺脫電車難題的胖子變體,也就是假設推一個胖子上軌道可阻擋電車、拯救五條人命。由於這必須要親手執行害一個人,大多數人會選擇不作為,以符合世俗的道德良知。但若是自駕系統為人類處理這類難題,除去電影裡的英雄情節,普通人應不會有像威爾史密斯在電影《機械公敵》(I, Robot)裡的強烈愧疚感。

申言之,人類會在某些條件下權衡人命,那麼AI為何不能?委員會給出的答案是,因為如果交由AI決定,其實等於是交由背後的演算法工程師、車商企業決定。

電影《機械公敵》片段

▌撞到誰,演算法決定?

這會使人類轉向他律(heteronomous),而不是自律(autonomous)狀態。進一步來說,主導商業發展的國家機器也可藉此強化家長式(paternalism)領導,有違人本主義的思考,甚至將影響民主。

這裡點出對AI的恐懼之源,與其說不相信人工智能,不如說不放心人類思維。

長久以來,通常是「駕駛」對於車輛負責,在某些特定狀況下還可究責於車商或維修者。一旦導入自動駕駛,假設基礎建設、IT服務等外在條件都沒有出錯,除非人類接手控制,否則究責對象將是促使AI做出決定的編程相關人員。這些責任攸關的工程師、企業主不只要讓AI遵守法律,更得訓練AI學習道德。

以人類為例,在正常成長過程裡,我們被教育甚麼是好甚麼是壞,試圖培養黑白分明的道德觀。當真正面對抉擇,有的人會做出對己有利、又不違反法律,但具有道德瑕疵的決定。這就是灰色地帶,是每個人類自我心中的標準,而經過深度學習的AI會存在何種灰色地帶?所有AI是否會有相同的判斷呢?

這顯然是相當難以回答的問題,甚至可說,連工程師都無法預測未來AI學習成長的自我意識。因此做為監管者的角色,委員會決定防微杜漸,提出準則8,拒絕將交通事故影響的評估標準化,而是交由一個獨立的公共機構審理。

亦即,委員們認同保障人命的底限,但由於不可預知的變數太多,故不贊成以某種演算法對自駕進行「道德編程」。

經過深度學習的AI,會存在何種道德「灰色地帶」?若AI將道德「進行計算」,還能讓...
經過深度學習的AI,會存在何種道德「灰色地帶」?若AI將道德「進行計算」,還能讓人類信任嗎? 圖/電影《機械公敵》劇照

▌解開道德悖論的第一步:透明性

至於普羅大眾會怎麼看這些問題呢?不妨從2016年《科學》期刊中,數名法國、美國知名大學學者的研究結果談起,他們發現,受訪者能接受自駕車以功利主義面對兩難困境,在多數與少數人命做出權衡,也支持多數人命較為重要的觀念。

但這裡出現了道德悖論,受訪者固然可以接受自駕系統的權衡,但只有少部分人願意坐在這種車上。進一步來說,他們並不支持自駕車被設計為強制執行「功利主義命令」,也就是可能出現犧牲乘客的情形。更重要的是,如果法規或業者做出此類設計,大概約有3分之2的受訪者不會考慮購買自駕車。

如此不難理解,監管者的政府與消費者的民眾各具立場,夾在其間的生產者車商仍在思索如何取得平衡點。

自駕系統大量運行後,負責演算法的工程師、企業主是否要對車禍事件負責? 圖/歐新社
自駕系統大量運行後,負責演算法的工程師、企業主是否要對車禍事件負責? 圖/歐新社

一個符合民主主義原則的方法是「透明化」,如準則12認為民眾有權知道新技術的內容,生產者應該盡可能公開編程。這並不是指要企業公佈演算法機密,那無異是緣木求魚,而是要公開蒐集何種道德數據、如何將數據量化,以及完整保存所有自動化相關決策等資料。

正如微軟執行長納德拉(Satya Nadella)曾說:

AI必須具備透明性。

所謂透明性,包括其作業方式與規則。未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。自駕車可能是目前人類社經生活裡最重要的應用,在全面自駕成真前,我們還有很多的路要走,從討論道德困境著手,或許就是一個好的開始。

未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。圖為德國總理梅...
未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。圖為德國總理梅克爾試乘自駕車。 圖/路透社


收看更多文章,請訂閱轉角國際facebook專頁:

徐子軒

amor fati,覺得魯莽是一生至少一次、誰都不可或缺的美德;amor mundi,相信聰明人為的均衡根本難抵混沌粒沙的傾城。 ▎FB:37°C 的中國。 ▎Vlog:魯賓孫

作者文章

一戰血腥在1918年告終?圖為一戰英軍與德軍俘虜。 圖/National Lib...

《不曾結束的一戰》:戳破戰間期的國家血腥

2018/07/06
2018年6月初,成千上萬的越南民眾走上街頭抗議,原因在於越南政府通過了幾項爭議...

不全然「反中」:越南人民為何再戰街頭?

2018/06/28
2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一...

撞死誰的準則?德國〈自動駕駛方針〉的道德困境

2018/06/19
新加坡能成為世紀峰會的首選地,正是因為它廣結善緣所結的善果,包含與朝鮮的友善關係...

川金會最大贏家:新加坡展示的「小國外交術」

2018/06/13
用高鐵連結星馬,真的不好嗎?圖為新加坡的丹戎巴葛火車總站,直到2011年6月,這...

星馬高鐵算總帳:新加坡的擴張願景成泡影?

2018/06/06
甫上任的馬來西亞首相馬哈迪表示,將放棄「隆新高鐵」,並計畫與新加坡談判後續事宜,...

高鐵經濟學:馬來西亞為何腰斬「星馬高鐵」?

2018/06/05

最新文章

墨西哥的毒品暴力年代,一切如何開始?圖為格雷羅州的巡警。 圖/法新社

墨西哥毒品戰爭:政黨輪替失治的暴力全開

2018/07/20
在選舉前,文在寅(中)就將青年就業、居住、成家,與弱勢的補助與福利問題,當成重要...

南韓「薪事」矛盾(下):擴大政府支出的軟著陸冒險

2018/07/20
看似眾人皆可受惠的美好數字背後,勞資雙方都存在高度不滿;而南韓經濟,無論現況與前...

南韓「薪事」矛盾(上):無人滿意的最低薪資調漲?

2018/07/20
記住她的名字——亞歷山卓亞.歐加修-寇蒂茲——因為她可能是美國政黨政治的新開端?...

從打工仔到眾議員:衝撞政壇老男的「紐約奇蹟」?

2018/07/10
美國開始站在歐盟利益的對立面。 圖/路透社

曲終人散的戰略:在「德美同盟」出現裂痕後

2018/07/09
誰不喜歡警察呢? 圖/歐新社

警察國家的陰影:德國擴權警察法爭議

2018/07/04

回應

Top