酷播亮新聞
最棒的知識補給站

在教會無人駕駛汽車判斷前,MIT 想先確定人類道德觀真的有「標準」存在

【Technews科技新報】Uber 無人駕駛汽車第一次造成人類傷亡的前一天,麻省理工(MIT)Iyad Rahwan 教授在全球教育與技能論壇(GESF 2018)公佈了對「道德機器」(Moral Machine )的首批研究成果。

2016年,MIT 媒體實驗室的研究人員推出名為「道德機器」網站,上面提供各種道德難題,讓玩家體驗不久的未來,當無人駕駛汽車上路時必須做出的選擇。

無人駕駛汽車是否應該為了拯救自己的乘客,而犧牲違規穿越馬路的行人? 還是應該冒著乘客的安全風險來拯救行人? 這些生死決定至關重要,尤其很快就須交由機器決定時。

過去一年中,MIT 團隊透過網站進行大規模的統計調查,接近400 萬人回答了許多場景出現的道德兩難,場景中包含不同性別、年齡甚至是貓和狗等動物,以各種組合通過 馬路。

Rahwan 對Forbes 表示,這是有史以​​來規模最大的全球道德研究,團隊原先預計這項「道德機器」的統計結果將能在今年公佈,並協助車商、科技巨頭運用這些結果,更協助無人駕駛 汽車面臨道德難題時做選擇。

(Source:MIT Media Lab/Scalable Cooperation)

但結果非常明確,「道德機器」統計無法提供這項協助,因為結果顯示,人們的道德看法並非絕對一致。

一些相對「簡單」的選擇,像是小孩和成人之間選擇時,結果完全偏向一方,人們的道德明顯傾向保護更年輕的性命,尤其隨著行人年紀越大,被「犧牲」的可能性也 就越高。

但是,當問題變成選擇「保護乘客」或「保護行人」時,結果就更模糊不清;有近 40% 的人表示,比起乘客受到傷害,他們更寧願無人駕駛汽車撞上行人。

隨著情況越複雜,選項間的差異也就越小,在「殺死一位合法過馬路的人」和「殺死兩位非法過馬路的人」之間,人們選擇的結果便十分平均分佈 。

要找到共同道德價值觀究竟有多困難? 除了群眾意見分歧,對機器道德的結果也因國家和地區有差異,Rahwan 指出,他們光是將德國與東西方其他國家比較時,非常有趣的文化差異便顯現出來。

舉例來說,德國知名車商Mercedes-Benz 一位CEO發布了「Mercedes-Benz 應該將自己乘客安全放在首位」言論,在當地成了一樁「醜聞」──即使與鄰近歐洲地區相較, 這個結果仍明顯一面倒向一方。

(Source:MIT Media Lab/Scalable Cooperation)

「這突顯出我們必許將許多不同因素納入考量,不同價值觀間的衝突挑戰我們自身的道德感,同時也挑戰我們得將這些事一起弄清楚──因為我們無法在這些看法達成一致。」

而 Rahwan 認為這些結果也證明,知名科幻小說作家 Isaac Asimov 的作品創造出的知名概念:通用機器倫理「機器人三定律」(Three Laws of Robotics),大概永遠無法成真。

隨著無人駕駛技術持續進步,不久未來無人駕駛汽車勢必會在路上面臨這些困難的抉擇,或許現在正是時候開始思考,這些機器究竟該進行怎樣的道德和倫理判斷,又或者該說, 如何讓機器的道德觀符合多數人的期望。

如果我們希望建造反應自己價值觀的機器,那麼就必須更深入了解這些價值觀,並進行量化和彼此討論妥協,才能確定哪些是重要的。

如果你也對這些道德難題有興趣,不妨到道德機器網站測試看看當自己面臨這些處境時,究竟會做出怎樣的選擇。

更多精彩 >>> 熱點推薦 查看相關信息 更多精彩 精彩圖庫

如有侵權請來信告知:酷播亮新聞 » 在教會無人駕駛汽車判斷前,MIT 想先確定人類道德觀真的有「標準」存在