儒家機器人倫理
作者:[美]劉紀璐
翻譯:謝晨云、閔超琴、谷龍
點校:項銳
來源:《思想與文化》第二十二輯, 華東師范大學出版社2018年 6 月出版
時間:孔子二五七零年歲次己亥正月廿九日辛丑
耶穌2019年3月5日
作者簡介:
[美]劉紀璐著**劉紀璐(JeeLoo Liu,1958—),女,美國加州州立大學富樂敦分校哲學系主任教授,主要研究領(lǐng)域及方向為心靈哲學、中國哲學、形而上學、道德心理學。
謝晨云(1995—),女,江西吉安人,華東師范大學哲學系碩士研究生,研究方向:中國道教。
閔超琴(1995—),女,江西新余人,華東師范大學哲學系碩士研究生,研究方向:先秦哲學、美德倫理學。
谷龍(1991—),男,湖南耒陽人,華東師范大學哲學系碩士研究生,研究方向:中國佛教。
項銳(1989—),男,江蘇鎮(zhèn)江人,華東師范大學哲學系碩士研究生,研究方向:科學哲學。
[摘要]本文探究在所謂“人工道德主體”身上植入儒家倫理準則的功能性。本文援引儒家經(jīng)典《論語》,思考哪些倫理規(guī)則可被納入機器人道德。本文也將對比康德型、功利主義型、儒家型這三類人工道德主體,考察它們各自的優(yōu)劣之處。本文認為,盡管機器人并不具備人所固有的道德情感,如孟子所捍衛(wèi)的“四端”,但我們能夠借由儒家所強調(diào)的那種道德準則來構(gòu)建機器人的道德倫理。隨著儒家倫理準則的植入,機器人可以有功能性的道德,從而使它們具備成為人工道德主體的資格。
[關(guān)鍵詞]人工道德主體;儒家倫理;功利主義;康德倫理學;阿西莫夫定律
本文的研究得到了復旦大學的資助。筆者曾作為“復旦學者”在復旦大學訪學一月。在此對于復旦大學哲學院的慷慨相助和訪學期間的思想交流,謹致謝忱。
導言
隨著人工智能技術(shù)的發(fā)展,智能的類人機器人很有可能在不遠的將來出現(xiàn)在人類社會中。而它們是否真正具有人的智能,是否真正能夠像人類那樣思考,這還有賴于哲學層面的探討。但可以肯定的是,它們將能通過英國計算機科學家、數(shù)學家、邏輯學家圖靈所提出的人工智慧測試法(圖靈測試法)——也就是說,如果機器人可以成功誘導和它們對話的人類把它們當作人類來看待,那么它們就可以被認證為具有智能。也許有一天,智能機器人將廣泛成為我們社會中的成員,它們會主動分擔我們的工作,照顧我們的老人,在酒店和賓館為我們服務,在導航、軍事甚至醫(yī)療領(lǐng)域替我們做重要的決定。我們是否應該為這些機器人配置道德準則,教導他們辨明是非?如果回答是肯定的,那么怎樣的道德準則才能夠塑造出合乎人類社會期許的人工道德主體(artificial moral agents)?
眾多人工智能設(shè)計者樂觀地認為,人工道德主體的發(fā)展總有一天會獲得成功。在此前提之下,本文探究將儒家倫理準則植入人工智能機器人是否可以造就能跟人類和平共存的人工道德主體。本文通過援引儒家經(jīng)典《論語》,來思考哪些倫理規(guī)則可被納入機器人道德。同時本文也將儒家型人工道德主體對比以康德道德準則和以功利主義準則建立的人工道德主體,考察它們各自的優(yōu)劣之處。本文認為,盡管機器人并不具備人類所固有的道德情感,如孟子所捍衛(wèi)的“四端”,但我們能夠借由儒家所強調(diào)的道德準則來構(gòu)建機器人,使它們成為我們可以認可的道德主體。
對人工智能道德準則的探究不是僅僅作為未來主義的腦力激蕩。M.安德森(M.Anderson)和S.安德森(S.Anderson)認為:“機器倫理學讓倫理學達到前所未有的精細程度,可以引領(lǐng)我們發(fā)現(xiàn)當下倫理學理論中的問題,從而推進我們對一般倫理學問題的思考?!薄?】本文將證明:對于機器人道德的比較研究,可以讓我們看到討論人類倫理的一些理論瑕疵。
一、機器倫理的興起
讓機器人預先考量行為后果,然后自行做出系統(tǒng)性的道德選擇,這一點在目前看來依然遙不可及。然而,現(xiàn)今在人工智能機器的設(shè)計上已經(jīng)存在專門為機器做具體選擇而設(shè)計的指導原則,因為機器的一些抉擇會帶來許多道德后果。比如,我們可以對軍用無人機進行編制,要是它偵測到在軍事目標周邊地區(qū)有許多平民存在,是應該立刻停止攻擊還是持續(xù)發(fā)動攻擊。我們也可以對醫(yī)療機器人進行編制,當病人已經(jīng)進入重癥末期而有突發(fā)情況,是讓它實施援救措施還是放棄進一步的治療。托肯斯(Ryan Tonkens)認為:“自動機器會像人類那樣做出與道德相關(guān)的行為,因此,為慎重起見,我們的設(shè)計必須保證它們以合乎道德的方式來行動。”【2】因此,即使暫時還造不出“有道德的機器”,我們也必須考慮機器倫理。此外,我們所制定的機器倫理的版本,要能夠適用于未來的機器道德思考主體,而非僅僅應用于機器人的設(shè)計程序。也就是說,機器倫理關(guān)心如何將道德準則應用于“人工道德主體”,而不是其設(shè)計者。
目前設(shè)計人工智慧機器有兩種截然不同的進路,一種是“自下而上”,另一種是“自上而下”?!?】前者是讓機器從日常選擇所使用的零碎規(guī)則中逐漸發(fā)展出自己的道德準則。設(shè)計者賦予機器一種處理匯總信息的學習能力,這些信息是機器在不同的情境下,對由自己的行動所產(chǎn)生的結(jié)果的匯總。為了讓機器形成某種行為模式,設(shè)計者可以建立一個獎勵系統(tǒng),鼓勵機器采取某些行為。這樣一種反饋機制能夠促使機器及時發(fā)展出自己的倫理準則。此種進路類似于人類在童年時期形成道德品性的學習經(jīng)驗。相比之下,“自上而下”的進路則是在機器身上植入能夠控制其日常選擇與行為的一般抽象的倫理規(guī)則。如果走這種進路,設(shè)計者首先必須選擇一種倫理理論,分析“在計算機系統(tǒng)中執(zhí)行該理論所必需的信息和總體程序要求”,然后才設(shè)計執(zhí)行倫理理論的子系統(tǒng)?!?】不過,即使有預置設(shè)計,機器在每個道德情境中還是需要根據(jù)倫理原則程序,通過推演來選擇最佳的行動方案。這種由上而下的設(shè)計方式將會反映出規(guī)范倫理學內(nèi)部的爭論,因為不同的倫理理論會制造出依據(jù)不同的道德準則而思維的人工道德主體。本文將比較這一研究進路中不同的理論模型,而不考慮執(zhí)行過程所需要的實際算法、設(shè)計要求以及其他技術(shù)問題。
根據(jù)M.安德森和S.安德森的觀點,機器倫理學的目標在于明確地定義抽象普遍的道德原則,使得人工智能在選擇或是思考自身行為的正當性時可以訴諸這些原則?!?】他們認為我們不可能為每一種可能發(fā)生的情形制定具體的規(guī)則?!盀闄C器設(shè)計抽象普遍的道德原則,而不是在每一個特定的情境中制定機器如何做出正確的行動,好處在于機器能夠在新情境,甚至新領(lǐng)域中做出正確的行動?!薄?】易言之,我們希望人工智能夠真正成為人工道德主體,有自己的道德原則,同時基于這些原則做出道德考量,用這些原則建立自身行為的正當性。因此,機器倫理學中至關(guān)重要的一步,就是選擇一組能夠植入人工智能的道德原則。
二、電車難題與不同的倫理學模型
鑒于我們目前還沒有真正有自主性、有意向性的機器人,對于它們在某種情境會如何行動依然還是一種未來的假想,因此我們可以暫借人類倫理討論中的思想實驗來討論不同的倫理原則會造成怎樣的倫理選擇。這個思想實驗即是著名的電車難題。
標準版電車難題:
有一輛失控的電車正沿著軌道疾馳,在其前方的軌道上有五人來不及躲避。機器人安檢員(或司機)可以對此進行干預:拉動一個操作桿,把電車變換到另一軌道上。然而,另一條軌道上也有一個人。這里面臨的選擇是,犧牲一個人去救另五個人,還是不犧牲這個人而聽憑那五人死去。機器人安檢員或司機是否應該操作拉桿來制止災難,還是應該什么也不做?
天橋版電車難題:
機器人安檢員正站在電車軌道之上的天橋觀察電車交通情況。它看到橋下的電車正沿著有五人滯留的軌道疾馳,必須立即采取行動干預。而在天橋上,機器人安檢員旁邊有一位身材魁梧的男子,他也注意到了同樣的情況。如果機器人把該男子推到軌道上以擋住電車,那五個人就可能免于一死,但是這男子則必死無疑。機器人應當這樣做嗎?
面對這兩種兩難困境,道德主體必須做決定,是認為“拯救五個人的行為是不允許的,因為這一舉動會造成傷害”,還是認為“這一舉動是被允許的,因為這一傷害只是行善導致的一種副作用”【7】。實驗表明,人們在電車難題中通常會選擇犧牲一人去拯救另五人,卻不會選擇犧牲天橋上的男子去營救軌道上的另五人。在實驗者看來:“這給心理學家出了一道難題:盡管在這兩種情境之間很難找到真正合理的差別點,但究竟是什么原因使得幾乎每個人在電車難題上都選擇犧牲一人去拯救另五人,而在天橋難題中卻未選擇這么做?”【8】現(xiàn)在我們以這兩種情境作為我們的測試場景,來思考設(shè)計人工智能的不同倫理學模型各自會有的后果。
就人類的道德情境而言,電車難題看起來似乎有些夸張而且不切實際;然而,在人工道德主體的考量上,機器倫理有可能出現(xiàn)類似的問題。我們不妨設(shè)想未來的特斯拉(Tesla)汽車在自動駕駛決定上加了一條主導的道德原則:如果傷害到人類是個不可避免的結(jié)果,那么,抉擇必須以盡量減少傷害的人數(shù)為第一原則?!?】如果一輛載滿學生的校車突然失控沖向一輛特斯拉汽車,而特斯拉汽車無法及時停車避免相撞,這輛特斯拉汽車應該冒著司機的生命危險而轉(zhuǎn)向去撞路中間的隔離帶呢,還是應該繼續(xù)前行聽憑兩車相沖撞呢?如果特斯拉的道德考量可能最終會犧牲它的駕駛?cè)?,那也許就沒人愿意購買一輛特斯拉了。這種預想情況和電車難題有些類似。在設(shè)計機器人的道德主體方面我們還可以設(shè)想其他很多跟電車難題類似的情形。因此,電車難題可以用來檢測我們的機器倫理。
(一)阿西莫夫機器人定律
“自上而下”機器倫理設(shè)計方向一個很好的范例就是阿西莫夫(Isaac Asimov)于1942年提出的機器人三大定律【10】:
[A1]機器人不能以其行動傷害人,或因不作為而使得人受到傷害。
[A2]在不違反第一條定律的前提之下,機器人必須絕對服從人類給予的任何命令。
[A3]在不違反第一和第二定律的前提之下,機器人必須盡力保存自己的存在。
阿西莫夫后來追加了一條第零定律,優(yōu)先于以上三條定律:
[A0]機器人不得傷害人類整體,或因不作為使人類整體受到傷害?!?1】
第一定律與第零定律之間的區(qū)別在于,前者關(guān)注人類個體,而后者關(guān)注人類整體。第零定律優(yōu)先于第一定律,這就意味著:為了保護人類整體,機器人可以傷害人類個體??苹眯≌f中有運用第零定律的例子:如果某些人類個體攜帶足以使人類滅亡的致命性傳染病毒,那么機器人就有義務消滅這些個體。這個道德原則表面上看來很有道理,然而,在實際應用上則是極度有問題的,因為人類整體這個概念作為道德理念極為抽象,在人類歷史上這個概念曾被用來作為很多邪惡行徑的借口,比如納粹分子以改良人種而殘害猶太民族,或是其他以改良人類整體為名的種族屠殺。因此,第零定律作為最高級別的機器人定律完全有可能廢除阿西莫夫三大定律。
用阿西莫夫三大定律來處理電車難題也顯然捉襟見肘。在標準版電車難題中,第一定律禁止機器人拉動拉桿,因為這會傷害到另一軌道上的人;但該定律也不容許機器人袖手旁觀,因為它的不作為會導致軌道上的五人受到傷害。在天橋版中,機器人將胖男子推下橋的行為是絕對禁止的,因為這直接傷害了人類;但與此同時,明明可以推下男子攔停電車,而機器人卻袖手旁觀,這就違背了第一定律的后半句要求。無論如何,這個機器人會處于沒有道德引導的盲目狀態(tài)。溫菲爾德(Alan Winfield)等人曾進行過一系列試驗,試驗中的“阿西莫夫機器人”肩負著救人的重任。試驗設(shè)計了三種不同的情景。第一種情景只放置了“阿西莫夫機器人”,而它的任務只是保護自己。這時“阿西莫夫機器人”可以百分之百保證自己不掉入坑里。第二種情景增加了代表人類的機器人H,而第三種情景則包含了兩個代表人類的機器人H和機器人H2。在只有一個人類的情景中,阿西莫夫機器人可以成功地完成自己的任務。然而,如果(機器人H和機器人H2所代表的)兩個人類面臨掉進坑中的危險,那么在近一半的嘗試中,“阿西莫夫機器人躊躇無助,結(jié)果兩個‘人類’都命歸黃泉”。【12】溫菲爾德等人相信,他們所設(shè)計的這個試驗非常契合阿西莫夫的第一定律。【13】因此,阿西莫夫機器人的失敗,表明阿西莫夫定律不足以處理較為復雜的道德情境。為了解決這個問題,我們需要引入其他規(guī)則來指導機器人如何在道德困境中做出正確的選擇。
在討論人類倫理規(guī)范的種種理論中,除了規(guī)范性道德原則的走向之外,還有品德倫理學、關(guān)懷倫理學的種種提案,對人類規(guī)范性道德來說,這也許是目前更普遍被接受的理路。但是機器人是否可以具有道德品德、道德情懷,或是如何建造有品德、有情感的機器人,都是很有困難也非常容易引起質(zhì)疑的議題。因此我們姑且不談。在討論機器人道德準則的文獻中,康德倫理學或功利主義倫理學是最主要的范本。我們不妨對此二者進行一番考察。在討論這兩種道德準則時,我們也不是討論整個康德道德哲學或是功利主義的各個層面,而是專就其理論中的道德準則運用在機器倫理建構(gòu)的后果作比較研究。
(二)人工道德主體的康德倫理學準則
機器倫理學中主導的倫理模型之一,便是康德的道德哲學。許多機器倫理學家認為康德的道德理論提供了一個可以讓“我們把倫理學成功應用于自主機器人的最好機會”【14】??档碌囊?guī)范倫理學是一種義務論,它在進行道德判斷時訴諸人的責任感而非情感?!柏熑问欠N規(guī)則或律令,與之相伴的是我們在進行選擇時所感到的約束或動因?!薄?5】我們不難理解為什么機器人倫理學自然會選擇康德道德哲學:對于康德來說,人類的自身利益、欲望、自然傾向,以及諸如榮譽感、同情感與憐憫感之類的道德情感,這些都完全沒有道德價值??档抡J為,即使某人在向其周圍傳播幸福時找到了自己內(nèi)心的喜悅,并且在別人對自己的工作表示滿意時而感到欣喜,無論上述行為多么正確或令人喜愛,它“依然沒有真正的道德價值”【16】。真正的道德行動必須純?nèi)灰罁?jù)理性存在者的責任感。由于缺少感性,不會受到人類情緒和欲望的干擾,機器人將成為實現(xiàn)康德純粹理性的道德模式的理想對象。
康德的第一條絕對律令表述如下:
[D1]我應當永遠不會行動,除非以這樣的方式,即我的行為準則將成為普遍法則?!?7】[另一個版本:行為的準則必須是在選擇當下行為準則時,同時認知這個行為準則可以成為普遍法則。]
準則是一個人的主觀意志原則,而普遍法則是一種本質(zhì)上約束著一切理性存在者的道德律??档碌摹敖^對律令”基于以下假設(shè):個人的道德抉擇不是當下的意氣用事,而是在對當下特定情境進行思量考慮后的結(jié)果,人類的道德選擇是伴隨著對特定情境的考量出現(xiàn)的,且這一考量與個人在處理臨時情況時所采用的個人原則相一致。也就是說,個人的道德抉擇是個理性的過程,而理性的第一條件就是一致性(矛盾是缺乏理性的一個表征)??档碌摹敖^對律令”將個人的主觀意志原則與普遍法則結(jié)合,不僅要求個人的內(nèi)在一致性(intrapersonal consistency),同時要求人與人之間的同一性(interpersonal agreement)。這一絕對律令的作用就像一條禁令:不要選擇不能普遍化的主觀意志原則,不要做出違背普遍法則的行為,比如因遭遇不幸而自殺,明知不能依諾歸還仍去借錢,沉溺于享樂而沒有發(fā)展自身天賦,或是在自身不會遭遇危難的情況下仍然拒絕幫助急需幫助的人。即使這種種行為在當下是我們最有意愿去做的事,但從道德理性上考量我們?nèi)圆粦摲湃巫约旱男袨椤_@種自律的道德,在康德看來,是人類道德的本質(zhì)。
在機器人倫理學方面,我們可以用康德的第一條絕對律令來制定這樣的機器人道德律:
[DR1]一個機器人的行動必須遵守如下法則,即它所做的選擇在原則上應能成為其他機器人的普遍法則。
由于機器人倫理學必須設(shè)計出一種讓機器人在個別情況下,能根據(jù)預定原則而做出決定的行動程序,我們必須以情境倫理學的基礎(chǔ),在行動過程中給予個案考量,但是這些主觀的行為準則又必須能被普遍化。對人類來說,這種自律的行為是人類道德理性思考的結(jié)果,但是要讓機器人能做類似的考量才做選擇,而不是僅僅服從僵硬的程序法則,我們必須為機器人配置搜尋功能,即搜集每一情形中可能后果的數(shù)據(jù),并計算其結(jié)果,才能決定是否采取行動或是采取何種行動。換句話說,機器人倫理不得不接受道德后果論,而不是如康德所要求的道德動機論。
如果說康德的第一條絕對律令可以起到禁令的作用,那么他的第二條絕對律令則給出了更具體的道德引導:
[D2]應當以這樣的方式行動,即永遠不能把人(自己或他人)僅僅當成手段,而是永遠視為目的。
這個律令表達人類存在的尊嚴性。我們永遠不能把人僅僅看作達到目的的手段。人們有自由意志。把他們當成達到目的的手段是對他們自主性的否定。(比如說綁架勒索的恐怖主義行為即完全違反這條律令,不管當事人如何用政治理由來證明其行為的正當性)。
就機器人倫理學而言,我們可以運用康德的第二條絕對律令制定如下的機器人行為法規(guī):
[DR2]一個機器人必須如此行事,即永遠不能把任何人僅僅當成手段,而是永遠視為目的。
前面提過在面臨電車難題困境時,人們的典型反應如下:在標準版中,一般人都選擇犧牲一個人去救另五個人,而在天橋版中,大多數(shù)人會拒絕把一個人從天橋上推下去以救軌道上的五個人。在標準版中,人們所使用的基本原則似乎更看重5∶1的人命比。但在天橋版中,為了使電車停止而把一個人推下橋去顯然違背了第二條絕對律令。格林(Joshua Greene)認為:“人們在標準電車難題中的反應是典型的后果論思維,而在天橋版本中的反應則是典型的道德義務論?!薄?8】格林認為,人們之所以會有不同的反應,是因為“盡管后果相似,但在近距離親手殺死一個人(如在天橋困境中)的想法比起沒那么直接(如在標準電車難題中操作拉桿)的想法具有更大的情緒影響”【19】。格林認為,我們自覺的道德判斷其實是主觀潛意識對當下情境的整體回應:“我們完全沒有意識到,我們是把潛意識中的覺知、記憶,以及情緒處理為合理的敘事,從而讓它們釋放到顯意識之中并做出回應?!薄?0】可見理性道德判斷是由內(nèi)在情緒反應來驅(qū)動的。所以康德的義務論進路其實不是理性主義,而是更接近情感主義的主張。格林稱其為“康德靈魂的秘密玩笑”。
不過,機器人或是其他人工智能都沒有潛意識或情感,也不會有來自下意識的情緒影響,所以它們的決定過程會跟人類很不一樣。我們現(xiàn)在可以考慮一下康德倫理學是否能使得機器人在面臨電車難題困境時做出和人類一樣的選擇。
很顯然的,在天橋版本中,機器人會拒絕把那名男子推下橋,因為這樣做將明顯違背DR2。所以這不必多慮。然而,在標準版本中,機器人的道德引導就不那么明確了。如果機器人依照在它看來可以通用于一切機器人的原則來行動,那么它可能無力做任何事。人類通常以一種自發(fā)、直覺的方式來判斷他們自身的行為準則是否能夠成為普遍法則。但是,如果想讓機器人做出同樣的判斷,那么,在設(shè)計程式上要么給它裝備一個巨大的數(shù)據(jù)庫,其中包含了其他機器人以相同的方式行動所造成的一切可能后果(因為機器人能夠判斷行動對錯的根本是后果論的思維),要么給它配備人類所擁有的直覺,可以當下判斷對錯。但是前者會有數(shù)據(jù)龐大而且不完整的困難,后者則要面對技術(shù)瓶頸,因為人工智能不可能獲得人類所具有的直覺本能。因此,康德的第一條絕對律令無法為機器人做道德抉擇提供一個充分的指導基礎(chǔ)。
在此,設(shè)計康德式人工道德主體碰到了一個根本性的悖論??档碌牡谝唤^對律令基于其道德形而上學的理念,認為所有的人都是自主的理性存在者。理性存在者是“目的王國”的公民,分享同樣的“共同法”,并遵守著他們自己所制定的普遍道德法則。他們是自主的,因為他們是完全的理性主體,“平等參與共同體道德原則的制定”。【21】但是從其設(shè)計本身來看,人工道德主體就是一些服從于程序命令的機器。它們不會為自己立法,也不會因為彼此是平等的立法者而相互尊重。此外,它們還缺乏自由意志,而自由意志對于康德式的道德主體來說必不可缺。因此,托肯斯稱它們?yōu)椤胺纯档碌摹?。他說:“我們要求康德式的人工道德主體的行為符合道德,但事實上它們的發(fā)展違背了康德的道德,這使得它們的發(fā)展受到道德上的質(zhì)疑,同時也使得我們作為它們的創(chuàng)造者有點虛偽。”【22】因此,不僅將康德的倫理準則應用于人工智能是個問題,事實上創(chuàng)造人工道德主體本身從康德的角度來看就是不道德的行為。托肯斯認為:“通過創(chuàng)造康德式道德機器,我們僅僅是把它們當作手段,而不是當作目的本身。按照康德哲學,道德主體自身是目的,因此之故,他們應當被尊為目的。違背這一法則就是將主體僅僅當作客體,被用作達到其他目的的手段。”【23】換句話說,即使我們能夠創(chuàng)造出遵守DR2的機器人,即便我們不把機器人算作人類之成員,這一創(chuàng)造活動本身就已經(jīng)違背了康德的道德原則,因為這一活動制造出純?yōu)槭侄?,而不以目的存在的人工道德主體。
(三)人工道德主體的功利主義倫理學準則
另一個常見的方案是將功利主義倫理學準則應用于人工道德主體。簡單地講,功利主義原則以行為可能的后果來判斷行為的對錯:能夠促進幸?;蚩鞓返男袨槭菍Φ?,而產(chǎn)生痛苦的行為則是錯的。密爾(John Stuart Mill)認為,唯有快樂本身具有內(nèi)在價值。它的價值在于人們的欲望。換句話說,“好的”等同于“可欲的”。密爾說:“要證明任何東西是可欲的,唯一可能的證據(jù)是人們實際上欲求它?!薄?4】所謂“好”的結(jié)果不過是人們欲求的事情,而“壞”的結(jié)果則是人們厭惡的事情。這種理論的基礎(chǔ)是古代的快樂論。不過根據(jù)德賴弗(Julia Driver)的看法:“自二十世紀初期開始,功利主義經(jīng)歷了多次修正。二十世紀中葉以后,它更多地被視為一種‘后果論’,因為幾乎沒有哲學家完全認同古典功利主義的觀點,尤其是它的快樂主義的價值理論。”【25】功利主義最大的特征是僅考慮會有多少人受到這個行為影響,而不考慮行動者本人的個人利益。功利主義原則的標準表述如下:【26】
[U]一個行為正確的充足必要條件就是這個行為,比起行動者可能采取的其他行為來說,能夠?qū)λ袝艿接绊懙娜水a(chǎn)生更大的利益,或是更小的傷害。
對于人工智能,我們可以將U改寫成UR:
[UR]在權(quán)衡了所有可能采用行為的后果之后,機器人必須選擇的行動是對于所有會受到影響的眾人來說,或者能實現(xiàn)最大的利益,或者能阻止更大的損害。
以上的兩種準則都是從后果論的角度來衡量行為選擇的正確性?,F(xiàn)在我們來看一下關(guān)于機器倫理學的后果論模式的一些研究。
圖盧茲大學(the University of Toulouse)的本尼馮(JeanFranois Bennefon)、俄勒岡大學(the University of Oregon)的謝里夫(Azim Shariff)與麻省理工學院(MIT)的雷邁(Iyad Rahwan)共同開展了一項研究,要求參與者對以功利主義倫理原則來設(shè)計的自動駕駛汽車做出評價:在功利主義的倫理準則設(shè)計下,這種車子為了避免沖向一群行人而造成更大傷害,會寧愿犧牲自己和開車的主人(司機)。這些學者的研究發(fā)現(xiàn),盡管參與者普遍肯定這種車輛所帶來的結(jié)果更好,但他們自己并不想購買這樣一種自動駕駛汽車。研究的結(jié)論是,參與者“在道德偏好上壓倒性地認同功利主義的自動駕駛汽車,因為它能將傷亡人數(shù)降到最低”。【27】但是,當被問及他們是否會購買這種功利主義的自動駕駛汽車,參與者就沒有多少積極性了。研究者指出,“盡管參與者依然認為功利主義的自動駕駛汽車是最道德的,但他們更愿意為自己購置具有自我保護模式的汽車”?!?8】這種雙重標準產(chǎn)生了一種社會困境:“一般人傾向于認為功利主義式的自動駕駛汽車是對社會整體來說最好的設(shè)計,因為這種模式的車子可以減低傷害率,使得社會中每個人都受益更多。但是人們又同時出于個人動機,只想乘坐會不計一切代價而保護他們自己的自動駕駛汽車。因此,如果具有自我保護模式的自動駕駛汽車和功利主義模式的自動駕駛汽車同時進入市場,幾乎沒有人會愿意選擇功利主義模式的自動駕駛汽車,盡管他們卻希望別人這樣選擇。”【29】沒有政府的強力推動和管制,這種功利主義模式的自動駕駛汽車將不會出現(xiàn)在市場上。但是,如果政府采取強力推動,則可能出現(xiàn)對采用這一模式的更大阻力。換句話說:“政府管制汽車安全并采取功利主義的模式所引發(fā)的阻力,反而會使得汽車工業(yè)延遲通過推廣更安全技術(shù)的使用,結(jié)果造成的卻是更高的傷亡率?!薄?0】社會效益和個人利益之間的矛盾顯示了人工智能的功利主義模式的潛在問題。如果這些研究中的參與者會不情愿去購買功利主義模式的汽車,那么普通大眾也很有可能會因為自利心理而抵制把功利主義倫理學應用于為我們服務的道德機器人。
除了以上所述功利主義人工智能令人不滿意的地方,另外一個問題是,如果在我們的社會中存在這樣的人工道德主體將會帶來巨大的危險。一般人在電車困境標準版和天橋版中的不同反應表現(xiàn)出人們傾向于避免那些會明顯給他人帶來傷害的行為。一般人并不總是喜歡功利主義的思考方式,尤其是當這種思考模式指引他們犧牲少數(shù)人的利益,而這些少數(shù)人包括他們自己、親人和熟人。除了一些個別的英雄舉動,很少有人會為了大多數(shù)人更大的利益或是更好的結(jié)果而去犧牲自己或是自己所愛的人。但另一方面,人工智能則沒有這樣的心理障礙。在UR的指導下,只要局部的摧毀可以帶來社會更高的利益,功利主義人工智能的機器人就可能會選擇摧毀。這個模式將面臨與阿西莫夫第零定律同樣的困境。
從人類與人工智能的差異,我們也看出功利主義永遠也不會成為人類主要的道德原則。即使我們的道德思維訴諸功利主義原則,我們的情感、個人利益和其他考慮都會讓功利主義的思維變得“不純粹”。如果我們像人工道德主體那樣進行純粹的功利主義道德考量,那么其結(jié)果對人類社會來說將是巨大的威脅。正如M.安德森和S.安德森所指出,功利主義會“侵犯人權(quán),因為它可以犧牲個人以獲得善的更大凈值。功利主義也違背我們對于正義,即對‘什么是人們所應得的’的看法,因為人們所應得的是反映其過去行為的價值,但是功利主義對行為對錯的判斷卻完全取決于行為的未來結(jié)果”?!?1】功利主義在規(guī)范倫理學中仍有吸引力,也許正是因為人們從來不會完全地、絕對地遵從功利主義的規(guī)范。
三、儒家機器人倫理
當今儒家學者具有的共識是,儒家倫理并不是一種規(guī)則引導的規(guī)范倫理,而是一種德性倫理,注重培養(yǎng)道德主體的道德品質(zhì)和善良性格。在設(shè)計機器人的道德抉擇過程中,我們必須要把儒家倫理轉(zhuǎn)化為一種可運用、可踐行的道德規(guī)則。因此,我們必須對儒家道德規(guī)則進行一番新的解讀,從《論語》中提煉出可以加在人工智能設(shè)計中的道德律令。【32】
《論語》中有很多被高度重視的美德,它們可以被轉(zhuǎn)化為儒家機器人倫理學的道德規(guī)則。本文挑選了三種主要的美德:忠(loyalty)、?。╮eciprocity【33】)、仁(humanity)。之所以選擇前兩種美德,是因為孔子重要的弟子之一曾子說,忠恕是夫子的一以貫之之道(《論語·里仁》【34】)。之所以選擇第三種美德,是因為在整個儒家傳統(tǒng)中“仁”是最重要的美德,孔孟均重視它,后來的宋明儒家還對此作了進一步闡發(fā)。
孔子對于“忠”言之甚詳。它是孔子的“四教”之一(《述而》),并且和“恕”一起構(gòu)成了孔子的一以貫之之道(《里仁》)。在個人道德培養(yǎng)方面,孔子說君子把“忠”和“信”作為第一原則(《學而》、《子罕》)。弟子問,如何崇德辨惑,孔子建議說:堅持忠信,“徙義,崇德也”((《顏淵》)?!爸摇睂τ趪抑卫硪埠苤匾???鬃痈嬖V魯國的國君,要想百姓忠,君自身就必須“孝慈”(《為政》)??鬃痈嬖V宋定公,“君使臣以禮,臣事君以忠”(《八佾》)。但“忠”不是盲目順從,而是要向君“提建議”(誨)(《憲問》)。弟子問:“令尹子文三仕為令尹,無喜色,三已之,無慍色。舊令尹之政必以告新令尹,何如?”孔子回答說:“忠矣?!鲍ā豆遍L》)弟子問政,孔子說:“居之無倦,行之以忠?!鲍ā额仠Y》)上述例子表明,在孔子看來,“忠”既是私德又是公德:無論是修身,還是參與公共事務,“忠”都是至關(guān)重要的。
筆者曾指出:“忠并不是一種直接針對他人的關(guān)系;相反,它指向一個人所承擔的角色。在這個意義上,忠可界定為‘做應做的’或‘忠于角色’。換句話說,社會角色不只是社會任務;它還是道德任務。‘忠于某人的角色’意味著,能夠做出與道德義務相應的行動,而道德義務則伴隨著社會角色。因此,‘忠’是忠于一個人的道德義務,履行一個人的角色所規(guī)定的社會責任。”【35】這一解釋可以得到進一步的支持:孔子建議弟子“與人忠”(《子路》)。這里的“人”不限于君,還包括朋友和陌生人。《左傳·昭公二十年》記載孔子言:“守道不如守官?!薄暗馈碑斎皇鞘咳酥R分子的最高目標,但是并不是每個人都可以事事以道為主。如果每個人都能善盡職守,盡心盡力,那么道行天下也就不是遙不可及的目標了。《論語》里孔子也強調(diào):“不在其位,不謀其政?!鲍ā短┎罚┇寮覐娬{(diào)名正言順,角色之名定位角色之職。越俎代庖常常造成職責混亂,是非不明。這個固守職分,不干預他事的道德準則對于人類有用,對于機器人來說尤其重要。
根據(jù)對“忠”這一美德的上述解釋,我們就有了儒家機器人倫理的第一條道德原則:
[CR1]機器人的首要職責就是履行指派給它的角色責任。
表面上看來,這一道德準則似乎微不足道:我們設(shè)計機器本來就是要它完成任務的。但是,這個律令其實具有第一要位:我們所討論的是有可能成為全知全能的“機器神”,在無法由程序員事先預測所有情境中機器人所可能做出之判斷的情況下,我們需要對這些可能的情形有所防備。我們不能給予人工智能如神一樣的超人能力,擁有對任何人與事的所有決定權(quán)。我們需要先界定它們的職權(quán)范圍。CR1建立了明確的分工體制:提供健康服務的機器人應專門忠于提供健康服務的角色,而不是去判斷病人的生命值不值得救,或者判斷是否要幫助病人實現(xiàn)安樂死的愿望。無人自動駕駛汽車應履行保護乘客安全的職責,而不應該選擇自動撞樹、犧牲乘客,以避免沖向一輛校車而發(fā)生災難性的悲劇。這樣的決定超出各個人工智能被設(shè)計的角色。因此角色定義是建立人工道德主體的第一步。
《論語》中另一個重要的德行是“恕”。關(guān)于“恕”,孔子稱其“可以終身行之”,并對其作了進一步規(guī)定:“己所不欲,勿施于人?!鲍ā缎l(wèi)靈公》)另一處,弟子子貢說:“我不欲人之加諸我也,吾亦欲無加諸人?!笨鬃痈嬖V他:“非爾所及也?!鲍ā豆遍L》)從這兩處看,恕的內(nèi)涵被具體定義為一種人際交往中所體現(xiàn)的風度和心理狀態(tài)。相對于基督教的金律“你們愿意人怎樣待你們,你們也要怎樣待人”,儒家的“恕”觀念經(jīng)常被稱作“負面形式的金律”,因其禁止人們做什么,而不是具體命令人們做什么。筆者曾指出,“恕”的這種形式優(yōu)于基督教的金律,因為人們所不欲的比人們所欲的更具有普遍的基礎(chǔ)?!耙话愣?,我們不希望別人羞辱我們,嘲笑我們,偷我們的東西,傷害我們,或者以任何方式虐待我們。因此,我們理應不要以這些方式虐待別人。即便我們愿意別人以某種方式對待我們,儒家金律也沒有建議我們以同樣的方式對待別人。因此,它避免了基督教的金律所碰到的將主觀偏好強加于別人的問題?!薄?6】
然而,就機器人倫理而言,我們會遇到機器人缺乏意愿的問題。若機器人對于自身沒有任何意愿,那么它們?nèi)绾卧u估自己行為的后果是否是他人(其他人類)不想施諸于己的呢?我認為這個問題可以通過在設(shè)計時加入一個普遍人類偏好的計算程序來解決。美國哲人普特南(Hilary Putnam)曾經(jīng)建議運用功能主義所使用的方法,將一定的偏好作為機器的“偏好功能”植入機器中。能夠做這樣判斷的機器首先應該具備對人類偏好的局部排列和一套歸納邏輯(也就是說,機器必須能夠從經(jīng)驗中學習),以及某些“痛覺傳感器”(比如,監(jiān)測機器身體的傷害、危險溫度或危險壓力的常態(tài)化工作的傳感器等),而且“某些特定范圍內(nèi)的輸入信號可以在機器的偏好功能或行動指令排列為具有高的負價值”?!?7】按照這種方式,人工智能主體可以對傷害其他人類的行為指派負值,同時也對傷害自身的行為指派負值。機器人儒家倫理學的第二條規(guī)則便可表述如下:
[CR2]在有其他選項存在的情況下,機器人不能選擇會給他人帶來最高的負值結(jié)果或最低的正值結(jié)果(根據(jù)人類偏好的局部排列)的行動。
跟“恕”作為負面的禁令一樣,如此表述的CR2也是對于“不可做什么”的禁令。在CR2的普遍律令下,除非在特殊情況下有其他更高的道德原則壓過“不可做什么”的禁令,機器人永遠不能選擇傷害人類,永遠不能在沒有正當理由的情況下給人類造成痛苦,永遠不能剝奪某人珍視的財產(chǎn)或是享受,如此等等。這一道德規(guī)則與阿西莫夫第一定律相類似:“機器人不能傷害人類,或看到人類受到傷害而袖手旁觀。”然而,這條道德指令比阿西莫夫第一定律靈活得多,因為有可能存在某些特定的負值偏好會超過一般人對于傷害的負值偏好。比如說,人們也許對極度不公平的厭惡會遠遠超過他們對身體傷害的避免。因此我們不難想象在某些情況下,被設(shè)計成帶有相應的角色任務和偏好指令的機器人可能會參與反抗不公與濫權(quán)的革命起義。
最后,儒家機器人倫理學選擇的重要德性是“仁”。倪培民認為:“‘仁’是儒家哲學的核心。它在《論語》中出現(xiàn)了109次。《論語》全書499章,共有58章討論‘仁’這一主題?!薄?8】在孔子看來,仁德最難培養(yǎng)。他最得意的弟子顏回也只能“其心三月不違仁”,而其他弟子則“日月至焉而已矣”(《雍也》)。當被問到某人是否有這一品質(zhì)時,孔子即使承認他有其他一些可取的品質(zhì),也很少許之為仁(《公冶長》第五、八、十九章)。同時,孔子認為,一個人能否獲得仁德,純粹取決于意志力。他說:“仁遠乎哉?我欲仁,斯仁至矣?!鲍ā妒龆罚┇鬃訕O力表彰“仁”,認為“唯仁者能好人,能惡人”,并且“茍志於仁矣,無惡也”(《里仁》)。若說康德的理想是“目的王國”,那么孔子的理想便是“仁的王國”??鬃诱劦健袄锶蕿槊馈?,還談到“君子無終食之間違仁,造次必于是,顛沛必于是”(《里仁》)?!叭省贝_實是儒家道德教化的核心美德。
然而,孔子大多數(shù)關(guān)于“仁”的言論都是在說仁人可以做什么或不可以做什么,而沒有說到“仁”的內(nèi)容。弟子問仁,孔子說“仁者,其言也讱”(《顏淵》)??鬃釉趧e處也談到“巧言令色,鮮矣仁”(《學而》)??鬃又辉谏贁?shù)幾處具體描述了何為“仁”。弟子問仁,孔子回答道:“愛人?!鲍ā额仠Y》)孔子還談到,“君子篤于親,則民興于仁”(《泰伯》)。顏回問仁,孔子告訴他:“克己復禮為仁”,且要“非禮勿視,非禮勿聽,非禮勿言,非禮勿動”(《顏回》)。其他弟子問仁,孔子提了三個要求:“居處恭,執(zhí)事敬,與人忠?!鲍ā蹲勇贰罚┇送猓鬃舆€用五德解釋“仁”:“恭、寬、信、敏、惠。”(《陽貨》)然而,對仁德最明確的說明莫過于下面這段話:“己欲立而立人,己欲達而達人?!鲍ā队阂病罚┇鷵Q句話說,仁德要求道德主體幫助他人以及其他生物成就自身。不過,孔子對于仁人所要成就的目標有進一步的限制。他說:“君子成人之美,不成人之惡。”(《顏淵》)易言之,孔子“仁”的理想是為了使他人成為他更好的自己,或者可以這么講,幫助他人達到“仁”的境界。這一品質(zhì)將是我們想要在機器人身上建立的最重要的特性。
將仁德轉(zhuǎn)換為給予人工道德主體的道德準則,我們就得到CR3:
[CR3]在不違背CR1或CR2的前提下,機器人必須幫助其他人類追求道德進步。如果有人的計劃會促進其品德的敗壞或道德的墮落,那么機器人就必須拒絕幫助他們。
這里強調(diào)的提供幫助,意味著機器人的行為是根據(jù)人類所給出的要求或指令來協(xié)助進行的。換句話說,機器人并不自行決定什么對人類主體來說是好的,或者什么是人類主體應當成就的。同時,運用這個道德規(guī)則編程,當人類的命令是為了作惡時,機器人會拒絕提供幫助。這樣,我們不但有了不會傷害人類的人工道德主體,而且也可以防范其他人利用人工智能去干壞事。
有了以上三條規(guī)則,我們就有了儒家機器人倫理學的基本形式?,F(xiàn)在所列舉的儒家機器人倫理學準則絕對沒有窮盡一切儒家倫理運用的可能性??赡苡胁恢挂粋€版本的儒家機器人倫理學;選擇不同德行的集合和不同的機器倫理準則都有可能與《論語》文本相兼容。有些儒家機器人倫理學的版本可能會給我的理論模式帶來巨大挑戰(zhàn)。比如,內(nèi)澤伍德(Drayson NezelWood)認為,《論語》中能解決電車難題的兩個主要的價值是“孝”與“和”?!?9】他認為,儒家的愛有差等,始于最親近的家庭成員,進而擴展到國家,然后才是陌生人及其家庭;這意味著,如果軌道上的那個人居于差等序列的最高等級,那么儒家式的人工智能就會選擇救這一個人而不是其他五個人。內(nèi)澤伍德所想到的情景包括,救所愛的人(如人工智能的主人)而犧牲皇室成員,救君王而非救另外五個人(即使這五人都達到了君子的道德水平),救一個君子而非救五個庶民,如此等等。但是我并不認為儒家是像他所說的那樣對人的生命價值進行了分級,也不認為儒家人工智能會做出如上的倫理判斷。我認為儒家“親親”與“孝”的觀念并不意味著所親之人的生命重于其他人的生命。但是,內(nèi)澤伍德有一點講得很對:儒家人工智能主體不會自動使用功利主義原則去不涉及情感地以人數(shù)多少來作選擇標準。那么,儒家人工智能主體在標準版和天橋版電車難題中究竟會如何行事?
在天橋版本中,執(zhí)行儒家倫理準則的機器人永遠不會采取將人推下橋的行動,因為這么做顯然把三條道德原則都違背了。在標準版本中,判斷則要復雜得多。如果機器人是電車司機或鐵道管理員,它的職責會命令它拉動操作桿,使得這個電車在所有可選項中盡可能造成最小的傷害。即使某人與機器人的設(shè)計者有特殊的關(guān)系,機器人也不會對這個人抱有偏愛,因為在機器人的設(shè)計編程中并沒有加上偏愛或是特別情感。如果機器人只是一個路人,那么根據(jù)CR1,它沒有任何義務采取行動,而且根據(jù)CR2的禁令,機器人更傾向于袖手旁觀而非采取行動。因此,一個路人機器人不應采取任何行動來使疾馳的電車轉(zhuǎn)向,即使這么做能夠減少傷亡人數(shù)。
在標準版電車難題中,依照儒家倫理律令行事的機器人,除非是電車司機或鐵道管理員這類特殊角色,是不會拉動操作桿的。在天橋版本中,依照儒家倫理行事的機器人,不論是什么職分角色,都不會將那名男子推下橋以使電車停止。如此看來,機器人的決定會不同于大部分人類的直覺選擇,因為機器人不會像人類在天橋情景中那樣受到無意識的情感掙扎的影響?!?0】儒家機器人不會因自身的“行動”而對任何人造成傷害,或強迫任何人接受他們不愿接受的結(jié)果,即使它可能因為自身的“不行動”而沒有防止對別人造成的傷害或發(fā)生別人不情愿接受的后果。在不久的將來,當我們的社會中存在可自我管制、自主行動的人工道德主體時,當不論它是否采取行動都會導致對人的傷害和帶來我們不愿看到的后果時,我們寧可它選擇袖手旁觀,而不是采取行動。
結(jié)語
M.安德森和S.安德森在他們關(guān)于機器倫理學的著作中提到:“機器倫理學的終極目標……是要創(chuàng)造出一種‘自律’的機器人,它們會自己遵守一些理想的道德原則;也就是說,它們可以在這些道德原則的指引下自行決定應該采取何種行動。”【41】他們也認為,研究機器倫理學的另一個好處在于這“可能會帶來道德理論上的突破,因為機器十分適合于我們檢測堅持遵循一個特定的道德理論將會導致何種結(jié)果”【42】。本文考察了四類機器倫理的道德模式,即阿西莫夫定律,兩條康德式的“絕對命令”,功利主義的“效用原則”,以及儒家的忠、恕、仁道德原則。在比較了這些道德模式對于電車難題的標準版和天橋版的解決方案之后,本文認為儒家的道德模型要優(yōu)于其他三種道德理論。
當然,我們設(shè)計人工道德主體的初衷不是僅僅為了處理電車難題以及類似的問題。在許多其他實用方面,儒家的人工道德主體可以成為人類社會很好的補助。首先,我們可以按照分配給儒家道德機器人的角色來為其設(shè)計具體的工作,比如,為老年人提供幫助,為病人提供保健服務,為游客提供向?qū)Х?,為汽車提供安全導航,等等。它的首要職責是忠于角色;因此,它在特定情境中所做的其他任何決定都不能違反其職責。第二,儒家機器人具有精確計算出的偏好指令,不會采取將給其他人類帶來極大的負面價值(包括傷害)或極不可欲后果的任何行動。這一原則要優(yōu)于阿西莫夫第一定律,因為它既允許了更多對負面價值的考慮,又讓機器人在權(quán)衡可允許的行動范圍時更加靈活。而且,它也要優(yōu)于康德原則或功利主義原則,因為這一道德原則基于儒家的“負面形式的金律”,它的作用是禁止做出錯誤行動,而不是靠主觀意志原則去采取自以為是的行動。在可預見的未來,在我們可能會將主動權(quán)交給人工智能的情境中,這一原則可以保護我們避免受因人工智能故意犧牲人類而帶來的傷害,盡管人工智能或許會考慮它們的行動將帶來多大的利益。最后,儒家道德機器人將是有仁德的機器人:在CR3的引導之下,它會協(xié)助而不會阻礙人類去努力行善,去成為更好的人,去建設(shè)更加美好的世界。也許,最終的人工智能發(fā)展會促成人類和人工智能共同生活在孔子理想中的“仁的王國”之中。
參考文獻
1. Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4):11.
2. Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3): 422.
3. 當然也有將這兩種進路結(jié)合起來的方法。
4. Wendell Wallach & Collin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, p.80.
5. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4):15-25.
6. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.17.
7. Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a.
8. Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537):2106.
9. 這類例子在自動駕駛或無人駕駛汽車中不勝枚舉??蓞⒁奐eanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239):15731576, DOI: 10.1126/science,aaf2654;Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https://www.scientificamerican.com/article/driverlesscarswillfacemoraldilemmas);William Herkewitz, “The Selfdriving Dilemma: Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (http://www.popularmechanics.com/cars/a21492/theselfdrivingdilemma)。
10. 阿西莫夫1942年的科幻小說《轉(zhuǎn)圈圈》(Run around)中首次引入三大定律。瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認為:“任何討論‘自上而下’式的機器人道德設(shè)計不能不談阿西莫夫三大定律?!币奧endell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91。
11. Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91.
12. Deng Beor, “Machine Ethics: The Robots Delimma,” pp.24-26.
13. Alan F. T. Winfield, et al., “Towards an Ethical Robot: Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 13,2014, Proceedings, Springer, 2014, pp.85-96.
14. Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.
15. Robert Johnson & Adam Cureton, “Kants Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https://plato.stanford.edu/archives/fall2017/entries/kantmoral) .
16. Immanuel Kant, Grounding for the Metaphysics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis: Hackett Publishing Company, 1993, p.11.(中譯參考了康德:《道德形而上學的奠基》,《康德著作全集》第4卷,李秋零譯,北京:中國人民大學出版社,2005年,第405頁?!g者注)
17. 康德《實踐理性批判》的表述如下:“要這樣行動,使得你的意志的準則在任何時候都能同時被視為一種普遍的立法原則?!眳⒁娍档拢骸秾嵺`理性批判》,李秋零譯,北京:中國人民大學出版社,2007年,第29頁?!g者注
18. Joshua D. Greene, “The Secret Joke of Kants Soul,” Moral Psychology, Vol.3: The Neuroscience of Morality: Emotion, Disease, and Development, W. SinnottArmstrong (ed.), Cambridge, MA: MIT Press, 2007, p.42.
19. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.43.
20. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.62.
21. Robert Johnson & Adam Cureton, “Kants Moral Philosophy”.
22. Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.
23. Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.
24. John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis: Hackett Publishing Company, 2001, p.81. (中譯參考了約翰·穆勒:《功利主義》,徐大建譯,上海:上海人民出版社,2008年,第35頁?!g者注)
25. Julia Driver, Consequentialism, London and New York: Routledge, 2012, p.24.
26. 功利主義可以是這里所表述的“行為功利主義”,也可以是“規(guī)則功利主義”。一個行為是否正確,是由它所遵循的規(guī)則的后果來決定:如果這個規(guī)則比起其他規(guī)則更能夠產(chǎn)生更大的利益或是更小的傷害,那么這個規(guī)則就是可遵循的,而遵循這個規(guī)則的行為也就是對的。在人類規(guī)范性倫理學的討論中,許多功利主義者認為功利主義必須被理解為規(guī)則功利主義。但是因為人工智能需要更精確的規(guī)則和程序來幫助它選擇當下的行動,所以我們在此只討論行為功利主義。
27. “大致說來,參與者都同意如果犧牲自己的乘客能夠挽救更多的生命,那么自動駕駛汽車犧牲自己的乘客就是更為道德的抉擇?!币奐eanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6293):1574, DOI: 10.1126/science.aaf2654。
28. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.
29. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.
30. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.
31. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.18.
32. 如無特殊說明,《論語》引文由筆者自己英譯,同時參考了 Raymond Dawson (trans.), Confucius: The Analects, New York: Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, Albany, NY: SUNY Press, 2017。
33. 這是倪培民的翻譯?!八 币步?jīng)常翻譯為“empathy”,筆者亦曾如是翻譯。
34. 為簡明計,下文引述《論語》,只注篇名?!g者注
35. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, Malden, MA: Blackwell, 2006, p.50.
36. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, p.55.
37. Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge: Cambridge University Press, 1975, p.435.
38. Pemin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, p.32.
39. 2017年夏天,我作為“復旦學者”在復旦大學訪學。我邀請了幾位研究生討論用儒家機器人倫理解決電車難題。一位加拿大學生內(nèi)澤伍德(Drayson NezelWood)接受我的挑戰(zhàn),發(fā)給我他的儒家解決方案,并附了一張詳細的圖表。他的觀點很有意思,關(guān)于電車難題的圖表也很有幫助,在此謹致謝忱。
40. 參閱Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。
41. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
42. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
責任編輯:近復