親愛的網友:
為確保您享有最佳的瀏覽體驗,建議您提升您的 IE 瀏覽器至最新版本,感謝您的配合。

撞死誰的準則?德國〈自動駕駛方針〉的道德困境

2018/06/19 徐子軒

大約一年前,德國聯邦參議院批准道路交通法修正案(RTA),允許駕駛自動化汽車——主要是指有條件自動化(Level 3)和高度自動化(Level 4)兩種。這意味著「人類可以在法令範圍內,將車輛掌控權交由AI」。但人類必須保持警覺,以便在AI發出警訊、或是超出系統限制時,立即回復對車輛的控制,因為自駕系統只是輔助性,最終責任仍在人類。

然而自動駕駛仍有許多的疑難雜症亟待討論解決。就在法案通過後不久,德國聯邦政府中掌管自駕的倫理委員會,制定了全球第一份「自駕方針」。這份方針是為將來的為全自動化(Level 5)打基礎,目的不只在於賦予自駕合法性,更企圖在安全、人類尊嚴、自由選擇與數據保護上設立德國標準,保持德國「Mobility 4.0」的領先地位。

這份方針包含20個準則,是倫理委員會討論出的共識,同時也列出一些尚未能決的問題。所謂準則其實就是人類希望AI服膺的道德原則,像是科幻小說的「機器人不得傷害人類」等三大法則,在此方針亦有類似表述。如準則7提到:

如果無法避免危險,自駕系統首要任務是保護人命,必要時可接受犧牲動物或財物。

一旦涉及道德,便很容易陷入困境,著名的電車難題(Trolley problem)同樣適用於自駕。

2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一...
2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一名49歲婦人,造成婦人死亡。圖為車內記錄器之影像。 圖/路透社

▌自動駕駛的道德困境

就電車難題的初步設計觀之,也就是一個人拉桿可改變電車方向,決定A軌道上五個人或B軌道上一個人的生死,絕大多數會選擇救五害一。此點也為準則所繼承,委員會同意在編程自駕系統時,「減少人命損失」可視為合理。

需注意的是,有論者認為電車難題屬於極端狀況,在現實中從未聽聞,不能以此討論自駕。但事實上與之相關的狀況並不在少數,例如常有駕駛因閃避路上行人,反造成車輛打滑失控,乃至於車輛自撞或翻覆、也常見駕駛因閃避不及,直接撞上行人或殃及其他行人。

這些情形對人類駕駛來說,都是生死瞬間的兩難抉擇,通常只能靠直覺反應,也因此往往出現嚴重事故。無論是對駕駛或行人,採用自駕的一個主因乃是提高安全性、降低危害程度。

最理想的狀態當然是完全防止,若無法,準則5認為,自駕系統得替人類在兩個「邪惡」之間抉擇,並盡可能減輕行人的風險。

自駕系統得替人類在兩個「邪惡」之間抉擇,面對「電車難題」的道德困境。
自駕系統得替人類在兩個「邪惡」之間抉擇,面對「電車難題」的道德困境。

如此看來,至少在德國,自駕系統可能將以駕駛安全為首要考量,不過委員會在準則中也留下非常大的模糊空間。像是遇到無法避免的危險時,準則九嚴格禁止自駕系統以個人特徵,如年紀、性別、身心狀況,做出區別的決定;亦即——

自駕系統不能權衡受害者的條件,來決定誰應該受害。

不權衡個人特徵基本上屬於人類智慧範疇,因為在正常反應時間內,人類盡注意的義務已經很難,更遑論做出令人信服的判斷。但假設AI能完全自駕,而非現在所認知的輔助系統,那麼有理由相信,AI可在極短時間內算出一個人經由撞擊後存活或是負傷的機率。委員會當然理解此點,卻為何做出這樣的限制?

《自駕車的道德兩難》

▌自駕難題,你怎麼選擇?

不妨先以電車難題的假定,設計出自駕難題的一些變體,然後進行思辨。

狀況一

  • 在完全自駕的前提上,遇到無可避免的危險狀況,繼續往前行駛,會直接撞傷路上玩球的小孩、急轉彎將會使車輛撞上大樹,傷及車輛乘客。

  • 經AI計算的結果,撞上小孩,其存活率為30%、撞上大樹,乘客存活率為45%。

狀況二

  • 在完全自駕的前提上,遇到無可避免的危險狀況,為了保全車上乘客性命,只能選擇直接衝向A路上的年輕人,或轉向B小徑的老人。

  • 經AI計算的結果,撞上年輕人,其存活率為40%、撞上老人,其存活率為20%。

試想狀況一,你可能因為對小孩的憐憫而選擇撞樹,但如果車上乘客有家屬至親,你會允許AI選擇撞上大樹嗎? 再試想狀況二,如果自駕系統不能依個人條件選擇,那麼只能隨機撞上,這樣的結果你能接受嗎?

在小孩與大樹之間,或許會出於對小孩的憐憫而選擇撞樹。然而當撞上樹會造成車內的人嚴...
在小孩與大樹之間,或許會出於對小孩的憐憫而選擇撞樹。然而當撞上樹會造成車內的人嚴重的傷害,這個選擇還能如此輕易嗎? 圖/美聯社

類似的討論還可延伸出更多的條件,讓自駕在尚未成熟之初,就必須面對嚴苛的質疑。往好的方向想,我們願意相信並堅持命命等值,但遇到多命與一命的權衡,正常人會做出犧牲少數的痛苦決定。以上述狀況二來看,其實就是救五害一的變體,現實生活中,大部份人可能還是會傾向以機率、而非隨機決定人命,這似乎比較符合功利主義的理性。

同時,以AI決定撞擊,或者可以擺脫電車難題的胖子變體,也就是假設推一個胖子上軌道可阻擋電車、拯救五條人命。由於這必須要親手執行害一個人,大多數人會選擇不作為,以符合世俗的道德良知。但若是自駕系統為人類處理這類難題,除去電影裡的英雄情節,普通人應不會有像威爾史密斯在電影《機械公敵》(I, Robot)裡的強烈愧疚感。

申言之,人類會在某些條件下權衡人命,那麼AI為何不能?委員會給出的答案是,因為如果交由AI決定,其實等於是交由背後的演算法工程師、車商企業決定。

電影《機械公敵》片段

▌撞到誰,演算法決定?

這會使人類轉向他律(heteronomous),而不是自律(autonomous)狀態。進一步來說,主導商業發展的國家機器也可藉此強化家長式(paternalism)領導,有違人本主義的思考,甚至將影響民主。

這裡點出對AI的恐懼之源,與其說不相信人工智能,不如說不放心人類思維。

長久以來,通常是「駕駛」對於車輛負責,在某些特定狀況下還可究責於車商或維修者。一旦導入自動駕駛,假設基礎建設、IT服務等外在條件都沒有出錯,除非人類接手控制,否則究責對象將是促使AI做出決定的編程相關人員。這些責任攸關的工程師、企業主不只要讓AI遵守法律,更得訓練AI學習道德。

以人類為例,在正常成長過程裡,我們被教育甚麼是好甚麼是壞,試圖培養黑白分明的道德觀。當真正面對抉擇,有的人會做出對己有利、又不違反法律,但具有道德瑕疵的決定。這就是灰色地帶,是每個人類自我心中的標準,而經過深度學習的AI會存在何種灰色地帶?所有AI是否會有相同的判斷呢?

這顯然是相當難以回答的問題,甚至可說,連工程師都無法預測未來AI學習成長的自我意識。因此做為監管者的角色,委員會決定防微杜漸,提出準則8,拒絕將交通事故影響的評估標準化,而是交由一個獨立的公共機構審理。

亦即,委員們認同保障人命的底限,但由於不可預知的變數太多,故不贊成以某種演算法對自駕進行「道德編程」。

經過深度學習的AI,會存在何種道德「灰色地帶」?若AI將道德「進行計算」,還能讓...
經過深度學習的AI,會存在何種道德「灰色地帶」?若AI將道德「進行計算」,還能讓人類信任嗎? 圖/電影《機械公敵》劇照

▌解開道德悖論的第一步:透明性

至於普羅大眾會怎麼看這些問題呢?不妨從2016年《科學》期刊中,數名法國、美國知名大學學者的研究結果談起,他們發現,受訪者能接受自駕車以功利主義面對兩難困境,在多數與少數人命做出權衡,也支持多數人命較為重要的觀念。

但這裡出現了道德悖論,受訪者固然可以接受自駕系統的權衡,但只有少部分人願意坐在這種車上。進一步來說,他們並不支持自駕車被設計為強制執行「功利主義命令」,也就是可能出現犧牲乘客的情形。更重要的是,如果法規或業者做出此類設計,大概約有3分之2的受訪者不會考慮購買自駕車。

如此不難理解,監管者的政府與消費者的民眾各具立場,夾在其間的生產者車商仍在思索如何取得平衡點。

自駕系統大量運行後,負責演算法的工程師、企業主是否要對車禍事件負責? 圖/歐新社
自駕系統大量運行後,負責演算法的工程師、企業主是否要對車禍事件負責? 圖/歐新社

一個符合民主主義原則的方法是「透明化」,如準則12認為民眾有權知道新技術的內容,生產者應該盡可能公開編程。這並不是指要企業公佈演算法機密,那無異是緣木求魚,而是要公開蒐集何種道德數據、如何將數據量化,以及完整保存所有自動化相關決策等資料。

正如微軟執行長納德拉(Satya Nadella)曾說:

AI必須具備透明性。

所謂透明性,包括其作業方式與規則。未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。自駕車可能是目前人類社經生活裡最重要的應用,在全面自駕成真前,我們還有很多的路要走,從討論道德困境著手,或許就是一個好的開始。

未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。圖為德國總理梅...
未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。圖為德國總理梅克爾試乘自駕車。 圖/路透社


收看更多文章,請訂閱轉角國際facebook專頁:

徐子軒

amor fati,覺得魯莽是一生至少一次、誰都不可或缺的美德;amor mundi,相信聰明人為的均衡根本難抵混沌粒沙的傾城。 ▎FB:37°C 的中國。 ▎Vlog:魯賓孫

作者文章

川普(左)拔擢的副手范斯,可能是比他更為基進的美國中心主義者。 圖/美聯社

視中國為最大威脅:川普2.0時代,不可忽視的副總統范斯

2024/11/15
紐約市長亞當斯10月8日在市政廳記者會談話。 圖/美聯社

貪腐的湯姆叔叔?紐約市長亞當斯收受土耳其捐款爭議

2024/10/25
2021年布格磊宣布「比特幣城」計畫。 圖/路透社

薩爾瓦多虛擬貨幣之夢:總統布格磊力推「比特幣城」計畫為何難實現

2024/10/24
俄羅斯雖是軍事大國,經濟表現卻不出色,容易受外部影響,但在烏俄戰爭爆發之後,面臨...

打仗發大財?讓俄羅斯在西方制裁下續命的「戰爭財」

2024/09/19
泰國前總理塔克辛(左)之女貝東丹(右)當選成為新任泰國總理,塔克辛家族重回權力之...

塔克辛家族重掌大權:貝東丹當選泰國新任總理,背後權位不穩的隱憂?

2024/09/05
泰國憲法法庭8月7日裁決前進黨有罪,前進黨遭下令解散。圖為曾代表該黨競選總理的皮...

泰國民主再挫敗:前進黨遭勒令解散、百位議員重新借殼上市

2024/08/15

最新文章

選戰時朝野政黨除了為人詬病的自民黨「裏金事件」吵翻天外,各黨還端出了增加時薪以及...

德政變惡政?年收入「103萬之壁」:日本朝野角力的稅收減免政策

2024/11/19
川普(左)拔擢的副手范斯,可能是比他更為基進的美國中心主義者。 圖/美聯社

視中國為最大威脅:川普2.0時代,不可忽視的副總統范斯

2024/11/15
媒體大亨梅鐸控告AI公司侵害創作者的智慧財產權,但此舉是否真正為創作者爭取到公平...

媒體大亨梅鐸槓上AI:資本家想搶回利益與霸權,但誰來保護最弱勢的創作者?

2024/11/13
2024年9月,支持保障墮胎權的民眾在佛羅里達集結。 圖/歐新社

墮胎權各州自主保障?川普再次執政,美國生育自主權的拉鋸戰況

2024/11/08
2015年,一位印尼穆斯林女性在緬甸駐雅加達大使館前,抗議緬甸僧旅團體迫害穆斯林...

我佛慈悲,但對穆斯林除外?緬甸佛教僧伽塑造的「伊斯蘭恐懼」與宗教衝突

2024/11/08
「自由」可能是資訊科技巨頭最喜歡掛在嘴邊的詞彙,畢竟,誰會討厭自由? 圖/法新社

科技巨頭助長「反民主」亂象?馬斯克在美國大選中的搧風點火

2024/11/06

回應

Top