撞死誰的準則?德國〈自動駕駛方針〉的道德困境
大約一年前,德國聯邦參議院批准道路交通法修正案(RTA),允許駕駛自動化汽車——主要是指有條件自動化(Level 3)和高度自動化(Level 4)兩種。這意味著「人類可以在法令範圍內,將車輛掌控權交由AI」。但人類必須保持警覺,以便在AI發出警訊、或是超出系統限制時,立即回復對車輛的控制,因為自駕系統只是輔助性,最終責任仍在人類。
然而自動駕駛仍有許多的疑難雜症亟待討論解決。就在法案通過後不久,德國聯邦政府中掌管自駕的倫理委員會,制定了全球第一份「自駕方針」。這份方針是為將來的為全自動化(Level 5)打基礎,目的不只在於賦予自駕合法性,更企圖在安全、人類尊嚴、自由選擇與數據保護上設立德國標準,保持德國「Mobility 4.0」的領先地位。
這份方針包含20個準則,是倫理委員會討論出的共識,同時也列出一些尚未能決的問題。所謂準則其實就是人類希望AI服膺的道德原則,像是科幻小說的「機器人不得傷害人類」等三大法則,在此方針亦有類似表述。如準則7提到:
如果無法避免危險,自駕系統首要任務是保護人命,必要時可接受犧牲動物或財物。
一旦涉及道德,便很容易陷入困境,著名的電車難題(Trolley problem)同樣適用於自駕。
▌自動駕駛的道德困境
就電車難題的初步設計觀之,也就是一個人拉桿可改變電車方向,決定A軌道上五個人或B軌道上一個人的生死,絕大多數會選擇救五害一。此點也為準則所繼承,委員會同意在編程自駕系統時,「減少人命損失」可視為合理。
需注意的是,有論者認為電車難題屬於極端狀況,在現實中從未聽聞,不能以此討論自駕。但事實上與之相關的狀況並不在少數,例如常有駕駛因閃避路上行人,反造成車輛打滑失控,乃至於車輛自撞或翻覆、也常見駕駛因閃避不及,直接撞上行人或殃及其他行人。
這些情形對人類駕駛來說,都是生死瞬間的兩難抉擇,通常只能靠直覺反應,也因此往往出現嚴重事故。無論是對駕駛或行人,採用自駕的一個主因乃是提高安全性、降低危害程度。
最理想的狀態當然是完全防止,若無法,準則5認為,自駕系統得替人類在兩個「邪惡」之間抉擇,並盡可能減輕行人的風險。
如此看來,至少在德國,自駕系統可能將以駕駛安全為首要考量,不過委員會在準則中也留下非常大的模糊空間。像是遇到無法避免的危險時,準則九嚴格禁止自駕系統以個人特徵,如年紀、性別、身心狀況,做出區別的決定;亦即——
自駕系統不能權衡受害者的條件,來決定誰應該受害。
不權衡個人特徵基本上屬於人類智慧範疇,因為在正常反應時間內,人類盡注意的義務已經很難,更遑論做出令人信服的判斷。但假設AI能完全自駕,而非現在所認知的輔助系統,那麼有理由相信,AI可在極短時間內算出一個人經由撞擊後存活或是負傷的機率。委員會當然理解此點,卻為何做出這樣的限制?
《自駕車的道德兩難》
▌自駕難題,你怎麼選擇?
不妨先以電車難題的假定,設計出自駕難題的一些變體,然後進行思辨。
狀況一
- 在完全自駕的前提上,遇到無可避免的危險狀況,繼續往前行駛,會直接撞傷路上玩球的小孩、急轉彎將會使車輛撞上大樹,傷及車輛乘客。
- 經AI計算的結果,撞上小孩,其存活率為30%、撞上大樹,乘客存活率為45%。
狀況二
- 在完全自駕的前提上,遇到無可避免的危險狀況,為了保全車上乘客性命,只能選擇直接衝向A路上的年輕人,或轉向B小徑的老人。
- 經AI計算的結果,撞上年輕人,其存活率為40%、撞上老人,其存活率為20%。
試想狀況一,你可能因為對小孩的憐憫而選擇撞樹,但如果車上乘客有家屬至親,你會允許AI選擇撞上大樹嗎? 再試想狀況二,如果自駕系統不能依個人條件選擇,那麼只能隨機撞上,這樣的結果你能接受嗎?
類似的討論還可延伸出更多的條件,讓自駕在尚未成熟之初,就必須面對嚴苛的質疑。往好的方向想,我們願意相信並堅持命命等值,但遇到多命與一命的權衡,正常人會做出犧牲少數的痛苦決定。以上述狀況二來看,其實就是救五害一的變體,現實生活中,大部份人可能還是會傾向以機率、而非隨機決定人命,這似乎比較符合功利主義的理性。
同時,以AI決定撞擊,或者可以擺脫電車難題的胖子變體,也就是假設推一個胖子上軌道可阻擋電車、拯救五條人命。由於這必須要親手執行害一個人,大多數人會選擇不作為,以符合世俗的道德良知。但若是自駕系統為人類處理這類難題,除去電影裡的英雄情節,普通人應不會有像威爾史密斯在電影《機械公敵》(I, Robot)裡的強烈愧疚感。
申言之,人類會在某些條件下權衡人命,那麼AI為何不能?委員會給出的答案是,因為如果交由AI決定,其實等於是交由背後的演算法工程師、車商企業決定。
電影《機械公敵》片段
▌撞到誰,演算法決定?
這會使人類轉向他律(heteronomous),而不是自律(autonomous)狀態。進一步來說,主導商業發展的國家機器也可藉此強化家長式(paternalism)領導,有違人本主義的思考,甚至將影響民主。
這裡點出對AI的恐懼之源,與其說不相信人工智能,不如說不放心人類思維。
長久以來,通常是「駕駛」對於車輛負責,在某些特定狀況下還可究責於車商或維修者。一旦導入自動駕駛,假設基礎建設、IT服務等外在條件都沒有出錯,除非人類接手控制,否則究責對象將是促使AI做出決定的編程相關人員。這些責任攸關的工程師、企業主不只要讓AI遵守法律,更得訓練AI學習道德。
以人類為例,在正常成長過程裡,我們被教育甚麼是好甚麼是壞,試圖培養黑白分明的道德觀。當真正面對抉擇,有的人會做出對己有利、又不違反法律,但具有道德瑕疵的決定。這就是灰色地帶,是每個人類自我心中的標準,而經過深度學習的AI會存在何種灰色地帶?所有AI是否會有相同的判斷呢?
這顯然是相當難以回答的問題,甚至可說,連工程師都無法預測未來AI學習成長的自我意識。因此做為監管者的角色,委員會決定防微杜漸,提出準則8,拒絕將交通事故影響的評估標準化,而是交由一個獨立的公共機構審理。
亦即,委員們認同保障人命的底限,但由於不可預知的變數太多,故不贊成以某種演算法對自駕進行「道德編程」。
▌解開道德悖論的第一步:透明性
至於普羅大眾會怎麼看這些問題呢?不妨從2016年《科學》期刊中,數名法國、美國知名大學學者的研究結果談起,他們發現,受訪者能接受自駕車以功利主義面對兩難困境,在多數與少數人命做出權衡,也支持多數人命較為重要的觀念。
但這裡出現了道德悖論,受訪者固然可以接受自駕系統的權衡,但只有少部分人願意坐在這種車上。進一步來說,他們並不支持自駕車被設計為強制執行「功利主義命令」,也就是可能出現犧牲乘客的情形。更重要的是,如果法規或業者做出此類設計,大概約有3分之2的受訪者不會考慮購買自駕車。
如此不難理解,監管者的政府與消費者的民眾各具立場,夾在其間的生產者車商仍在思索如何取得平衡點。
一個符合民主主義原則的方法是「透明化」,如準則12認為民眾有權知道新技術的內容,生產者應該盡可能公開編程。這並不是指要企業公佈演算法機密,那無異是緣木求魚,而是要公開蒐集何種道德數據、如何將數據量化,以及完整保存所有自動化相關決策等資料。
正如微軟執行長納德拉(Satya Nadella)曾說:
AI必須具備透明性。
所謂透明性,包括其作業方式與規則。未來人類將與AI共生,這意味著人類不只是依賴機器,更需要了解機器。自駕車可能是目前人類社經生活裡最重要的應用,在全面自駕成真前,我們還有很多的路要走,從討論道德困境著手,或許就是一個好的開始。
收看更多文章,請訂閱轉角國際facebook專頁:
回應