撞死誰的準則?德國〈自動駕駛方針〉的道德困境

聯合新聞網 徐子軒

大約一年前,德國聯邦參議院批准道路交通法修正案(RTA),允許駕駛自動化汽車——主要是指有條件自動化(Level 3)和高度自動化(Level 4)兩種。這意味著「人類可以在法令範圍內,將車輛掌控權交由AI」。但人類必須保持警覺,以便在AI發出警訊、或是超出系統限制時,立即回復對車輛的控制,因為自駕系統只是輔助性,最終責任仍在人類。

然而自動駕駛仍有許多的疑難雜症亟待討論解決。就在法案通過後不久,德國聯邦政府中掌管自駕的倫理委員會,制定了全球第一份「自駕方針」。這份方針是為將來的為全自動化(Level 5)打基礎,目的不只在於賦予自駕合法性,更企圖在安全、人類尊嚴、自由選擇與數據保護上設立德國標準,保持德國「Mobility 4.0」的領先地位。

這份方針包含20個準則,是倫理委員會討論出的共識,同時也列出一些尚未能決的問題。所謂準則其實就是人類希望AI服膺的道德原則,像是科幻小說的「機器人不得傷害人類」等三大法則,在此方針亦有類似表述。如準則7提到:

如果無法避免危險,自駕系統首要任務是保護人命,必要時可接受犧牲動物或財物。

一旦涉及道德,便很容易陷入困境,著名的電車難題(Trolley problem)同樣適用於自駕。

2018年3月在美國亞利桑那州,發生首宗自駕車死亡車禍——Uber的自駕車撞上一...

▌自動駕駛的道德困境

就電車難題的初步設計觀之,也就是一個人拉桿可改變電車方向,決定A軌道上五個人或B軌道上一個人的生死,絕大多數會選擇救五害一。此點也為準則所繼承,委員會同意在編程自駕系統時,「減少人命損失」可視為合理。

需注意的是,有論者認為電車難題屬於極端狀況,在現實中從未聽聞,不能以此討論自駕。但事實上與之相關的狀況並不在少數,例如常有駕駛因閃避路上行人,反造成車輛打滑失控,乃至於車輛自撞或翻覆、也常見駕駛因閃避不及,直接撞上行人或殃及其他行人。

這些情形對人類駕駛來說,都是生死瞬間的兩難抉擇,通常只能靠直覺反應,也因此往往出現嚴重事故。無論是對駕駛或行人,採用自駕的一個主因乃是提高安全性、降低危害程度。

最理想的狀態當然是完全防止,若無法,準則5認為,自駕系統得替人類在兩個「邪惡」之間抉擇,並盡可能減輕行人的風險。

自駕系統得替人類在兩個「邪惡」之間抉擇,面對「電車難題」的道德困境。

如此看來,至少在德國,自駕系統可能將以駕駛安全為首要考量,不過委員會在準則中也留下非常大的模糊空間。像是遇到無法避免的危險時,準則九嚴格禁止自駕系統以個人特徵,如年紀、性別、身心狀況,做出區別的決定;亦即——

自駕系統不能權衡受害者的條件,來決定誰應該受害。

不權衡個人特徵基本上屬於人類智慧範疇,因為在正常反應時間內,人類盡注意的義務已經很難,更遑論做出令人信服的判斷。但假設AI能完全自駕,而非現在所認知的輔助系統,那麼有理由相信,AI可在極短時間內算出一個人經由撞擊後存活或是負傷的機率。委員會當然理解此點,卻為何做出這樣的限制?

《自駕車的道德兩難》

▌自駕難題,你怎麼選擇?

不妨先以電車難題的假定,設計出自駕難題的一些變體,然後進行思辨。

狀況一

狀況二

試想狀況一,你可能因為對小孩的憐憫而選擇撞樹,但如果車上乘客有家屬至親,你會允許AI選擇撞上大樹嗎? 再試想狀況二,如果自駕系統不能依個人條件選擇,那麼只能隨機撞上,這樣的結果你能接受嗎?

在小孩與大樹之間,或許會出於對小孩的憐憫而選擇撞樹。然而當撞上樹會造成車內的人嚴...

類似的討論還可延伸出更多的條件,讓自駕在尚未成熟之初,就必須面對嚴苛的質疑。往好的方向想,我們願意相信並堅持命命等值,但遇到多命與一命的權衡,正常人會做出犧牲少數的痛苦決定。以上述狀況二來看,其實就是救五害一的變體,現實生活中,大部份人可能還是會傾向以機率、而非隨機決定人命,這似乎比較符合功利主義的理性。

同時,以AI決定撞擊,或者可以擺脫電車難題的胖子變體,也就是假設推一個胖子上軌道可阻擋電車、拯救五條人命。由於這必須要親手執行害一個人,大多數人會選擇不作為,以符合世俗的道德良知。但若是自駕系統為人類處理這類難題,除去電影裡的英雄情節,普通人應不會有像威爾史密斯在電影《機械公敵》(I, Robot)裡的強烈愧疚感。

申言之,人類會在某些條件下權衡人命,那麼AI為何不能?委員會給出的答案是,因為如果交由AI決定,其實等於是交由背後的演算法工程師、車商企業決定。

電影《機械公敵》片段

▌撞到誰,演算法決定?

這會使人類轉向他律(heteronomous),而不是自律(autonomous)狀態。進一步來說,主導商業發展的國家機器也可藉此強化家長式(paternalism)領導,有違人本主義的思考,甚至將影響民主。

這裡點出對AI的恐懼之源,與其說不相信人工智能,不如說不放心人類思維。

長久以來,通常是「駕駛」對於車輛負責,在某些特定狀況下還可究責於車商或維修者。一旦導入自動駕駛,假設基礎建設、IT服務等外在條件都沒有出錯,除非人類接手控制,否則究責對象將是促使AI做出決定的編程相關人員。這些責任攸關的工程師、企業主不只要讓AI遵守法律,更得訓練AI學習道德。

以人類為例,在正常成長過程裡,我們被教育甚麼是好甚麼是壞,試圖培養黑白分明的道德觀。當真正面對抉擇,有的人會做出對己有利、又不違反法律,但具有道德瑕疵的決定。這就是灰色地帶,是每個人類自我心中的標準,而經過深度學習的AI會存在何種灰色地帶?所有AI是否會有相同的判斷呢?

這顯然是相當難以回答的問題,甚至可說,連工程師都無法預測未來AI學習成長的自我意識。因此做為監管者的角色,委員會決定防微杜漸,提出準則8,拒絕將交通事故影響的評估標準化,而是交由一個獨立的公共機構審理。

亦即,委員們認同保障人命的底限,但由於不可預知的變數太多,故不贊成以某種演算法對自駕進行「道德編程」。

經過深度學習的AI,會存在何種道德「灰色地帶」?若AI將道德「進行計算」,還能讓...

▌解開道德悖論的第一步:透明性

至於普羅大眾會怎麼看這些問題呢?不妨從2016年《科學》期刊中,數名法國、美國知名大學學者的研究結果談起,他們發現,受訪者能接受自駕車以功利主義面對兩難困境,在多數與少數人命做出權衡,也支持多數人命較為重要的觀念。

但這裡出現了道德悖論,受訪者固然可以接受自駕系統的權衡,但只有少部分人願意坐在這種車上。進一步來說,他們並不支持自駕車被設計為強制執行「功利主義命令」,也就是可能出現犧牲乘客的情形。更重要的是,如果法規或業者做出此類設計,大概約有3分之2的受訪者不會考慮購買自駕車。

如此不難理解,監管者的政府與消費者的民眾各具立場,夾在其間的生產者車商仍在思索如何取得平衡點。

自駕系統大量運行後,負責演算法的工程師、企業主是否要對車禍事件負責? 圖/歐新社

一個符合民主主義原則的方法是「透明化」,如準則12認為民眾有權知道新技術的內容,生產者應該盡可能公開編程。這並不是指要企業公佈演算法機密,那無異是緣木求魚,而是要公開蒐集何種道德數據、如何將數據量化,以及完整保存所有自動化相關決策等資料。

正如微軟執行長納德拉(Satya Nadella)曾說:

AI必須具備透明性。

所謂透明性,包括其作業方式與規則。未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。自駕車可能是目前人類社經生活裡最重要的應用,在全面自駕成真前,我們還有很多的路要走,從討論道德困境著手,或許就是一個好的開始。

未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。圖為德國總理梅...

徐子軒

amor fati,覺得魯莽是一生至少一次、誰都不可或缺的美德;amor mundi,相信聰明人為的均衡根本難抵混沌粒沙的傾城。 ▎FB:37°C 的中國。 ▎Vlog:魯賓孫

德國

推薦文章

留言