7799精品视频天天在看,日韩一区二区三区灯红酒绿,国产xxxxx在线观看,在线911精品亚洲

    <rp id="00a9v"></rp>
      <track id="00a9v"><dl id="00a9v"><delect id="00a9v"></delect></dl></track>
      1. 【白彤東】從中國哲學(xué)角度反思人工智能發(fā)展

        欄目:學(xué)術(shù)研究
        發(fā)布時間:2019-11-09 23:18:25
        標(biāo)簽:人工智能、儒家、創(chuàng)造性教育、強(qiáng)人工智能、經(jīng)濟(jì)不平等
        白彤東

        作者簡介:白彤東,男,西歷一九七〇年生于北京。北京大學(xué)核物理專業(yè)學(xué)士(1989-1994),北京大學(xué)科學(xué)哲學(xué)專業(yè)碩士(1994-1996),波士頓大學(xué)哲學(xué)博士(1996-2004),現(xiàn)任職復(fù)旦大學(xué)哲學(xué)學(xué)院教授。主要研究與教學(xué)興趣為中國傳統(tǒng)政治哲學(xué)、政治哲學(xué),著有《舊邦新命——古今中西參照下的古典儒家政治哲學(xué)》《實在的張力——EPR論爭中的愛因斯坦、玻爾和泡利》等。

        從中國哲學(xué)角度反思人工智能發(fā)展[1]

        作者:白彤東

        來源:作者授權(quán) 儒家網(wǎng) 發(fā)布

                     原載于 《中州學(xué)刊》2019年第9期

        時間:孔子二五七零年歲次己亥十月十三日庚戌

                     耶穌2019年11月9日

         

        摘要

         

        雖然阿爾法狗等代表的人工智能的進(jìn)展遠(yuǎn)遠(yuǎn)超出了自動化時代我們對機(jī)器所能完成的任務(wù)的想象,但是當(dāng)今的人工智能還沒有任何智能,對強(qiáng)人工智能的擔(dān)憂是杞人憂天。不過,對強(qiáng)人工智能的反思,仍然可以促進(jìn)我們對一些人類根本問題——比如何為智能、何為人——的探討。從中國哲學(xué)的角度看,現(xiàn)在對強(qiáng)人工智能是否會替代和毀滅人類的擔(dān)心,可能帶有西方文化的偏見。但是以孟子對人之為人的理解來養(yǎng)育類人之存在,也有其問題。在應(yīng)對現(xiàn)有的人工智能的挑戰(zhàn)上,我們應(yīng)該加強(qiáng)的,恰恰不是創(chuàng)造性教育,而是以死記硬背、以習(xí)題和考試為訓(xùn)練方式的基礎(chǔ)和高等教育。人工智能的發(fā)展可能會強(qiáng)化經(jīng)濟(jì)不平等,對此的解決,可能也要通過加強(qiáng)精英的責(zé)任和賢能在政治中的決策角色來解決,而這恰恰是儒家政治哲學(xué)的一個可能貢獻(xiàn)。

         

        關(guān)鍵詞

         

        人工智能      強(qiáng)人工智能            儒家      創(chuàng)造性教育            經(jīng)濟(jì)不平等

         

        1.人工智能還沒有智能

         

        在最近大數(shù)據(jù)和人工智能(Artificial Intelligence)技術(shù)的令人目眩的發(fā)展下,尤其是阿爾法狗(AlphaGo)讓人難以置信的成功,讓人類是否會被人工智能控制、替代、甚至殺掉這樣的話題成為了熱門話題。雖然有這樣驚人的技術(shù)發(fā)展,但是,我想說的第一點是人工智能還不很智能,甚至是一點智能都沒有。雖然阿爾法狗擊敗了世界上最好的圍棋選手,但是隨便一個人都可以贏了它——只要我們選擇和它玩兒中國象棋就可以。當(dāng)然,如果它開始學(xué)中國象棋,它可以很快擊敗我們,但是我們可以再一次擊敗它——只要我們選擇跟它比踢毽子。一般來講,人類智能的一個核心特點是它可以做那些不是事先設(shè)計好的任務(wù),而阿爾法狗和其他現(xiàn)有的人工智能產(chǎn)品還只能做它們被事先設(shè)計好的工作(雖然它們可以做得很好,甚至超過人類)。因此,我們可以說,現(xiàn)有的人工智能還一點智能都沒有。

         

        在美國加州伯克利分校執(zhí)教的哲學(xué)家Alva No?對此有很好的說法(2014)。鐘表并不真的知道時間,而是我們?nèi)祟愑盟鼇肀鎰e時間。與此類似,迄今為止的人工智能只是被我們?nèi)祟愑脕砀赡切ㄒ玫剑┲悄艿氖虑?。No?指出:“即使最簡單的生命形式,比如阿米巴蟲,也展示了某種智能、自主性(autonomy)、創(chuàng)造性,這甚至超越了最強(qiáng)大的電腦?!备鶕?jù)No?的說法,阿米巴蟲之所以更智能,是它可以為自己改變和創(chuàng)造它的生存環(huán)境。也許有人會說,當(dāng)今的人工智能也可以做到這一點。我想,更準(zhǔn)確的說法是,阿米巴蟲的獨特之處,在于它并沒有一個人格意義上的設(shè)計者,或者即使它有,這個設(shè)計者也沒有給它一個具體的任務(wù),而僅僅是“尋求生存”這樣一個模糊的指令。人類沿著這種獨特性走得更遠(yuǎn)??梢哉f,如果我們是被設(shè)計出來的,我們是被設(shè)計成要超越任何(固定或特定的)設(shè)計。

         

        我這里無意否認(rèn)阿爾法狗和其他人工智能進(jìn)步之神奇。很多人本來以為機(jī)器(包括人工智能)只是擅長機(jī)械性的事情,即那些有著清楚規(guī)則和特定的程序的工作,也就是所謂的自動化。而比如圍棋這樣只能通過經(jīng)驗、天分、不可言說的知識(tacit knowledge)等才能掌握的任務(wù),機(jī)器是無法去做的。阿爾法狗證明,我們這個信念是錯的。但是,圍棋畢竟還是一個特定的任務(wù),有清晰的規(guī)則和一些基本的策略,并且最重要的是,它的輸贏是明確定義了的,不需要人類的外來判斷和干預(yù)(這樣機(jī)器可以快速和高效地自我學(xué)習(xí))。因此,阿爾法狗的成功讓我們不得不承認(rèn),機(jī)器(包括人工智能)可能可以做任何特定的、結(jié)果明確的工作,哪怕是沒有機(jī)械性的步驟可以遵循來完成這項工作。但是,阿爾法狗還沒有人類意義上的智能:它沒有選擇掌握圍棋,是我們?nèi)祟愄嫠x定的。

         

        當(dāng)然,有人會說,我們還是應(yīng)該為人工智能真的獲得智能——即人工智能(AI)變成了所謂強(qiáng)人工智能(Artificial General Intelligence/AGI)——的那天做好準(zhǔn)備。誠然,人類在預(yù)測未來上表現(xiàn)很糟糕。在二十世紀(jì)五十年代,人工智能就已經(jīng)開始發(fā)展,但突破性的進(jìn)展最近才發(fā)生。十年前,多數(shù)人認(rèn)為納米和生物科技才是將來科技發(fā)展的方向,很少有人意識到人工智能的巨大進(jìn)展。但不幸的是,我們?nèi)祟愔荒芾梦覀儯ń?jīng)常具有誤導(dǎo)性的)過往經(jīng)驗和非常有限的智能去幫助我們?yōu)槲磥碜鰷?zhǔn)備?,F(xiàn)在看起來,對人類更清晰和緊迫的挑戰(zhàn)來自基因編輯、氣候暖化這樣的問題,而不是強(qiáng)人工智能。與前者明顯的迫切性相比,反思強(qiáng)人工智能對人類挑戰(zhàn)簡直就是杞人憂天。

         

        但是,這不等于說,反思強(qiáng)人工智能的問題,沒有任何意義。在英美哲學(xué)界兩個(曾經(jīng)?)很熱門的話題是關(guān)于僵尸和時間旅行的。如果我們知道,僵尸電影和比《回歸未來》(Back to the Future)系列電影在八十年代很流行的話,我們可以嘲笑說,這些哲學(xué)家似乎是從流行電影中找到他們的研究話題。精神正常的人不會覺得真的會遇到僵尸,而時間旅行只存在于科幻電影之中,只是一個數(shù)學(xué)上的可能性,幾乎沒有物理學(xué)家認(rèn)為在較近的甚至是很遠(yuǎn)的未來里面,時間旅行有任何成為現(xiàn)實的可能性。但是,同情地講,反思這些看起來是閑極無聊、甚至是荒誕的話題,可能還是有哲學(xué)意義的,因為它可以展現(xiàn)一些本來是隱藏起來的問題。類似地,即使真正有智能的強(qiáng)人工智能還遠(yuǎn)在天外,我們還是可以問問,對它的思考是否可以讓我們發(fā)現(xiàn)一些重要和有趣的話題。實際上,我們前面“當(dāng)今的人工智能還沒有任何智能”的說法,就可能是這樣一種反思的結(jié)果,即對(其實還很遙遠(yuǎn)的)強(qiáng)人工智能的憧憬或者恐懼,讓我們不得不回應(yīng)人類的智能為何的問題。

         

        2.強(qiáng)人工智能與中國哲學(xué):制造超級人類?

         

        對強(qiáng)人工智能與人工智能的各種挑戰(zhàn)的哲學(xué)反思,已經(jīng)有很多。在這篇文章中,我會集中于從中國哲學(xué)與思想相關(guān)的角度出發(fā),來反思其挑戰(zhàn)。首先,在對強(qiáng)人工智能的態(tài)度上,在美國,公眾對強(qiáng)人工智能和其他科技進(jìn)步常常是充滿恐懼,但在東亞,公眾對科技發(fā)展似乎更是一種歡迎態(tài)度。如果我的觀察確實是事實,那么一個可能的解釋是現(xiàn)代科學(xué)首先在西方得以發(fā)展,而在追趕過程中,東亞就很可能產(chǎn)生對科學(xué)的(非科學(xué)、非理性的)崇拜。在東亞,“科學(xué)”和“好的”成為同義語。另一個可能的原因,是基督教有創(chuàng)生的神話(creation myth),根據(jù)這一神話,只有上帝才能造人。但在東亞傳統(tǒng)里面,并沒有這樣的創(chuàng)生神話,不同的神、甚至是人都可以參與到創(chuàng)造和成就人類的過程中。人類會創(chuàng)造類人的存在,東亞人比對西方人更好接受這種可能性,因為哪怕是世俗的西方人總還是在成長中可能受到基督教的潛移默化的影響。同時,伴隨著這種創(chuàng)生神話,還有世界大毀滅的神話,[2]為西方人對科技進(jìn)步帶來世界毀滅提供了思想上的“藍(lán)圖?!边@又與東亞的文化傳統(tǒng)不同,也因此對東(亞)西對人工智能的心理反應(yīng)做出了貢獻(xiàn)。

         

        這里的另一個問題是,在什么意義上我們就造就了一種類似甚至超越人的存在?前面的關(guān)注,集中的人的智能上。但是,按照孟子對人之為人的理解,我們會說,在這個問題上,只關(guān)注于智能,是錯誤的。這是因為,對孟子來講,人之為人,或者人與禽獸的根本區(qū)別,不是智能,而是惻隱之心及建立于其上的仁。作為德性之一的智(能)是為仁服務(wù)的,即幫助我們實踐我們的惻隱之心,幫助他人。對惻隱之心(compassion)這種情感(passion)的首要性的強(qiáng)調(diào)在西方哲學(xué)里面,是非常罕見的。正如哲學(xué)界休謨(David Hume)指出的:

         

        談?wù)撉楦校╬assion)和理性(reason)之爭、給與理性以優(yōu)先地位、并斷言人有多少道德只與在多大程度上遵從理性之命令(dictates)相關(guān),在【西方】哲學(xué)乃至日常生活里面,沒有比這些說法再通常的了。(Hume 1888,413頁(Section III,Part III,Book II))[3]

         

        與之相對,休謨幾乎是獨樹一幟地論述說,就產(chǎn)生行動或者促使我們行動而言,“理性是并且應(yīng)該只是情感的奴隸”(同上,415頁)。當(dāng)代神經(jīng)科學(xué)家Antonio Damasio引用了休謨的后一種說法,并且也為情感在人類行動中的首要性做出論證(Gardels 2018)。但是,如上所述,休謨關(guān)心的是人類行動的驅(qū)動因素,Damasio更是主要在經(jīng)驗層面關(guān)心這個問題,并訴諸于進(jìn)化論。用進(jìn)化論的語言來講,我們可以說,休謨和Damasio實際是在論述,由于其更長的演化歷史,人類中動物性的因素比我們的理性要強(qiáng)大得多。如Damasio指出的:

         

        神經(jīng)系統(tǒng)只是在5億年前進(jìn)入了生命的舞臺。比起演化的時間尺度,比起地球上生命的40億年的歷史來講,這實在微不足道。(同上)

         

        他這里說的是神經(jīng)系統(tǒng),而人類乃至人類智能這種依賴于極其復(fù)雜的神經(jīng)系統(tǒng)的演變,當(dāng)然就更短了。

         

        因此,雖然在西方傳統(tǒng)里面,休謨和Damasio已經(jīng)是少有的例外了,但是他們的立場還是與孟子有著根本不同。孟子所關(guān)注的是惻隱之心,而非任一情感,并且他對惻隱之心這種情感的強(qiáng)調(diào)不是出于它是與動物相通并且有著長久的演化積累,而是因為它以及建于它之上的仁是人獸之別的根本。在《孟子·離婁下》(4B19)中,孟子指出,“人之所以異于禽獸者幾希?!?a name="_ftnref4">[4]他這里雖然沒有明確指出區(qū)分人類與禽獸的這一點點東西(“幾”)是什么,但是從其他地方看,這種區(qū)分應(yīng)該是從惻隱之心之上發(fā)展出來的仁。在《孟子·公孫丑上》(2A6)中,孟子指出“不忍人之心”(惻隱之心或者同情心)是人類所共同的(“皆有”)。人類需要培養(yǎng)人皆有之的惻隱之心,這樣才能配得上人的名聲。因此,孟子并不認(rèn)可情感是人類行動之主宰這一立場(休謨和Damasio的立場),而是要求人類的理智和其他自然情感都要被惻隱之心所規(guī)管。也就是說,孟子以及追隨孟子的儒家的立場與休謨和Damasio西方思想家中這樣強(qiáng)調(diào)情感重要的少數(shù)派仍然有著根本不同,其對惻隱之心的強(qiáng)調(diào)有其獨特性。

         

        當(dāng)然,西方道德學(xué)說的主流學(xué)說之一的功利主義的核心,在于根據(jù)是否提高最大多數(shù)人的最大幸福的理性計算,而另一主流學(xué)說的義務(wù)論,也強(qiáng)調(diào)對理性的道德原則的服從。與此相對,休謨一支的思想家更是強(qiáng)調(diào)情感的指導(dǎo)。孟子式的儒家強(qiáng)調(diào)對惻隱之心這種道德情感的培養(yǎng),讓其成為我們行動的推動者。在情感的指導(dǎo)功能上,孟子式的儒家與休謨式的思想家有相通之處,可以互相借鑒。

         

        從孟子的立場出發(fā)去回答我們是否在創(chuàng)造類人的存在,我們要關(guān)注的是否我們創(chuàng)造了“人工道德情感,”而不是“人工智能?!睂?qiáng)人工智能的擔(dān)心,從孟子的角度看,不是對類人、但強(qiáng)于人的存在的擔(dān)心,而是對(具有超人智能的)禽獸的擔(dān)心。著名的圖靈測試,在對機(jī)器與人的區(qū)別上,關(guān)注的是語言和理性。但按照孟子對人的理解,我們應(yīng)該關(guān)注的是被試是否展示出惻隱之心。并且,即使我們創(chuàng)造了具有內(nèi)在的善的存在,即使這個存在通過了孟子式的圖靈機(jī)測試,這并不意味著我們制造類人存在的使命就完成了。雖然根據(jù)孟子,惻隱之心是人獸之別的關(guān)鍵,但是成人是一個過程,不是一個固定的點。生物意義上的人仍然需要學(xué)習(xí)成為孟子的道德與規(guī)范意義上的人。正如惻隱之心可以變得越來越強(qiáng),我們也可以成長得越來越是人,或者越來越大的人(道德意義上的大?。?。如果一個生物意義上的人不好好撫育人的天生的善性,他/她可能會退化得近于禽獸。這對孟子來言,這沒什么好奇怪的。比如,他指出:“飽食、暖衣、逸居而無教,則近于禽獸”(《孟子·滕文公上》3A4)。既然生物意義上的人可以退化成禽獸,那么,一個被制造出來的存在可以通過培養(yǎng)其道德情感而變成人,也沒有什么好奇怪的了。

         

        孟子對道德培養(yǎng)對我們成人之關(guān)鍵性的觀點也可能會幫助回應(yīng)另一個對強(qiáng)人工智能的擔(dān)憂。強(qiáng)人工智能可以在智能和體格上強(qiáng)于人,如果它們被設(shè)計成或者自己選擇(強(qiáng)人工智能的重要特征就是可以自主決定)去消滅人類,誰也攔不住它們。因此,讓它們的行為得以規(guī)管就變得很重要了。但是如果我們希望通過編碼或者律令來規(guī)管其行動,比如阿西莫夫的機(jī)器人三定律(Issac Asimov’s Three Laws of Robotics),它們很可能最終無法處理復(fù)雜的生活所帶來的挑戰(zhàn)。其實我們只要看看揭示倫理兩難的電車問題可以膨脹成一個研究領(lǐng)域,甚至有了所謂“電車學(xué)”(trolleyology)這樣的事實,我們就不難想象任何一套原則都會導(dǎo)致各種難題——當(dāng)然,這會是那些需要發(fā)文章的哲學(xué)教授和博士生所喜聞樂見的。Peter Eckersley(2019)論證,將效用函數(shù)(utility functions)或者與其等價的函數(shù)應(yīng)用到任一的機(jī)器學(xué)習(xí)里面,都不可能在不違背人類的很強(qiáng)的倫理直覺的情況下,保證其結(jié)果對一個人群是好的。[5]中國的人工智能專家曾毅則斷言:“把人類社會的一些規(guī)則灌輸給人工智能系統(tǒng),但這絕對不是一個好的解決的方法”(2019)。

         

        與此相對,儒家的道德養(yǎng)成不是簡單的一套原則、一本行動手冊,我們不是通過摩西十誡或者理性的絕對命令來愛我們的家人,而是強(qiáng)調(diào)在不同處境下的具體應(yīng)對。在前面引用的對曾毅博士的采訪中,他進(jìn)一步指出:

         

        只有人工智能系統(tǒng),與人類交互的過程當(dāng)中自主地去獲取人類價值觀、做事的規(guī)則和準(zhǔn)則,以一種基于自我模型的自主學(xué)習(xí)的方式,它才真正地實現(xiàn)可理解,才真正能達(dá)到人工智能模型和人類社會價值觀校準(zhǔn)(alignment)的這樣一個過程。(曾毅2019)

         

        在阮凱的一篇文章里面,他指出,“通過以滿意和道德捷思法為關(guān)鍵詞的有限理性觀對功利主義的改良,一種以功利主義為內(nèi)核的機(jī)器倫理模型可以被構(gòu)想和實現(xiàn)”(阮凱2018,80)。這里的有限理性,如果是可行的,應(yīng)該也是上面曾毅指出的自主學(xué)習(xí)的過程。

         

        但是,從儒家的角度,這種情境中的學(xué)習(xí),仍然不夠。在具體情境中,我們不但是要獲取應(yīng)對各種倫理困境的方法,更是通過與家人、外人在一起、理解他們的特點和需要、在交往中發(fā)育我們相互的關(guān)切來學(xué)會愛我們的家人,然后推己及人的。在這一過程中,我們會遇到不同道德責(zé)任之間的矛盾(比如忠與孝),而我們通過生活本身來學(xué)會面對它們。我們要做到的,是仁愛與理智——這里理智應(yīng)該理解為亞里士多德意義上的實踐智慧(phronesis)——的結(jié)合。前面提到的曾毅和阮凱的說法,依然是過多地強(qiáng)調(diào)理智方面的解決。與功利主義或者康德式的義務(wù)論相比,這種人工智能中的亞里士多德主義可能更優(yōu)越。但是,從儒家的觀點看,它缺乏對情感培養(yǎng)的強(qiáng)調(diào)。博古睿研究所(Berggruen Institute)的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,[6]我們應(yīng)該把人工智能——“這個文明的最終之子”——當(dāng)成我們的孩子,并如儒家所言,我們在家庭的環(huán)境中,對它進(jìn)行道德培養(yǎng),特別是培養(yǎng)它對其他人的關(guān)愛(Berggruen 2018)。這一說法確實很好地展示了儒家對道德培養(yǎng)的理解。

         

        但是,儒家的道德養(yǎng)成是否就能保證強(qiáng)人工智能的關(guān)愛與審慎權(quán)衡嗎?糟糕的家庭環(huán)境,會對孩子有壞的影響。甚至是好的家庭,也不能保證培養(yǎng)出來的孩子有多好。韓非子很早就批評過儒家的道德培養(yǎng)。他認(rèn)為,通過家庭中道德培養(yǎng)來規(guī)范人類行為不如建立在賞罰之上的法律制度有效。比如,他很直觀地指出,“夫嚴(yán)家無悍虜,而慈母有敗子”(《韓非子·顯學(xué)》。[7]并且,我們也要問,為什么我們需要人造人呢?與其制造“文明之子,”我們直接生孩子就好。博古睿指出,這里的問題不應(yīng)該是人工智能還是人類才是主宰,而是我們?nèi)绾沃圃烊伺c人工智能的混合。但就這些混合體而言,我們其實并不需要真正有智能或者真正有惻隱之心的人工體。現(xiàn)在人工智能的成就已經(jīng)可以為這種混合體奠定基礎(chǔ)了。因此,我們又被帶回了現(xiàn)有的(弱)人工智能對人類構(gòu)成何種挑戰(zhàn)這個問題。這是一個更迫切的問題。

         

        3.回應(yīng)(弱)人工智能的挑戰(zhàn):“東亞式”教育與儒家混合政體

         

        (弱)人工智能對人類帶來了很多挑戰(zhàn)。但是,有時候我們對人工智能的擔(dān)憂,可能有偏激的危險。比如,一個常見的抱怨是科技(包括人工智能)的發(fā)展讓我們的孩子遠(yuǎn)離同伴、遠(yuǎn)離自然。但是離開自然是人類一直致力的事情。我們甚至可以說,離開自然的過程是人類成為人類的過程。難道我們應(yīng)該重回叢林,撿草木之實,徒手殺死禽獸并生吃其肉嗎(不要忘了,用火也是人類技術(shù)進(jìn)步的結(jié)果)?并且,電視、網(wǎng)絡(luò)、以及其他技術(shù)發(fā)展也把我們很難接觸到的自然帶到了我們和我們的孩子們的眼前;也就是說,技術(shù)對人類與自然接觸的影響并不僅僅是負(fù)面的。因此,我們需要問的問題是與自然的哪一方面保持接觸對人類的幸福生活是有益的?抱怨科技發(fā)展讓我們遠(yuǎn)離自然的人需要回答這個問題;否則,他們的抱怨可能只不過是把他們與自然的那些接觸或者他們想象的與自然的那些接觸當(dāng)成不同群體、不同時代、不同地點都必須要有的,也就是說,他們的抱怨無非是出自個人偏見、把個人的偶然經(jīng)歷當(dāng)成人類的普遍必然而已。就與其他同伴的接觸來說,兒童和青少年也通過電腦游戲的群體接觸到了并不是他們?nèi)粘I钊ψ永锏娜?。也就是說,他們接觸的圈子還擴(kuò)大了,雖然可能在這個過程中,他們會失去那些上一代人會接觸的周邊的一些同齡人。這就又引到了什么樣的人際交流才是根本的這個問題,在回答這個問題時,我們也要注意避免對將我們自己成長經(jīng)歷構(gòu)成的偏見當(dāng)成普世真理。當(dāng)然,我不是對進(jìn)步充滿樂觀的人,也并不相信進(jìn)步帶來的惡果都會被平衡掉。我這里只是想說,我們很多對新變化的擔(dān)心可能是出自我們舊有之偏見的、單方面的、被夸大的。

         

        那么,讓我們來以一種全面與平和的態(tài)度,從廣義的中國傳統(tǒng)與中國哲學(xué)的視角,來處理人工智能已經(jīng)構(gòu)成的挑戰(zhàn)中的兩種。第一是對教育的挑戰(zhàn)。自動化已經(jīng)搶走了很多藍(lán)領(lǐng)工人的工作,而類似阿爾法狗的人工智能的發(fā)展意味著,比如醫(yī)生、股票交易人、律師等白領(lǐng)工作也有被機(jī)器替代的危險。如我在第一節(jié)里論述的,當(dāng)今的人工智能還不具有人類的智能,因為人類智能的關(guān)鍵特點在于它的創(chuàng)造性。由此我們得出的結(jié)論似乎是:為了回應(yīng)(并不真的有人類智能的)人工智能的挑戰(zhàn),我們應(yīng)該重視人類智能獨有的創(chuàng)造性。在教育上,這意味著我們要重視創(chuàng)造性教育,而不是死記硬背和應(yīng)試教育。前者常被歸于西式或美式教育,而后者常被歸于儒家、中式、或者東亞式的教育,雖然至少后面這一說法是有很大問題的。[8]但是,就我看來,人工智能的發(fā)展可能恰恰支持了死記硬背乃至廣義上非創(chuàng)造性教育的重要。死記硬背的對象是基本技能的培訓(xùn),比如寫作與算術(shù)。并且,哪怕是基礎(chǔ)科學(xué),如科學(xué)哲學(xué)家?guī)於鳎═homas Kuhn)指出的,在常規(guī)科學(xué)(normal science)時代,對科學(xué)的學(xué)習(xí)是通過以共通的教科書(textbook)為基礎(chǔ)的嚴(yán)格訓(xùn)練實現(xiàn)的。其目的,是讓學(xué)生掌握一套共用的科學(xué)范式(paradigm),其所訓(xùn)練的,是這種匯聚的(convergent)思維模式,而非發(fā)散的(divergent)或是強(qiáng)調(diào)創(chuàng)造性的思維模式(Kuhn 1959)。在這種訓(xùn)練中,不斷通過習(xí)題和考試來讓學(xué)生掌握既有范式是至關(guān)重要的。人工智能的發(fā)展讓我們看到,可能任何一種具有確定性的工作(有清晰的規(guī)則和一些基本的策略,任務(wù)成功與否有相對明確的判斷,并且最好不依賴人類的外來判斷和干預(yù)),人工智能可能都可以最終掌握,并比人類做得更好,或者至少可以替代人類。這意味著我們需要不斷重新創(chuàng)造自我以適應(yīng)不斷變化的就業(yè)市場。我們掌握的那些“先進(jìn)的”的技能可能最終都被證明是可替代的和沒有用的,而我們必須回到我們擁有的基本技能(比如在中小學(xué)學(xué)的識字和算術(shù)、在大學(xué)里學(xué)的現(xiàn)代物理科學(xué))來再造自我。既然這些基本技能變得至關(guān)重要,那么我們就應(yīng)該保證這種教育的成功,而如前面提到的庫恩的論點所指出的,后者恰恰是依賴于死記硬背和應(yīng)試教育等非創(chuàng)造性的教育模式。現(xiàn)實的挑戰(zhàn)將承擔(dān)創(chuàng)造性教育的任務(wù):我們要相信人類(中的一些)在現(xiàn)實挑戰(zhàn)下自發(fā)的創(chuàng)造力。

         

        不幸的是,不是每一個人都可以再造自我。自動化對發(fā)達(dá)國家工資上漲的停滯和不斷上漲的經(jīng)濟(jì)不平等做出了重大貢獻(xiàn),而人工智能的發(fā)展很可能將這種情形惡化。越來越多的人會被落在后面。對此,一個國家可以為其所有國民提供基本工資(universal basic salaries),但是,即使少數(shù)發(fā)達(dá)國家可以做到這一點,有工資但沒有工作不能給人以生命的目的和價值,這就意味著這些被拋在后面的國民仍然會生活在無聊、抑郁、甚至悲苦之中。美國的類鴉片藥物危機(jī)(the opioid crisis)佐證了這一點。[9]馬克思主義者可能會說,既然這些人沒有工作、但有基本生活保障,他們就可以真正的擁有閑暇,做自己愿意做的事情。但是,很不巧的是,這些被落下的人恰恰是那些缺乏自覺和自主的人。而那些善于利用自主機(jī)會的人恰恰是那些不太可能被社會拋下的人。在西方,這些被技術(shù)進(jìn)步丟下的人已經(jīng)成為了民粹主義崛起的重要動力來源,而多數(shù)政治學(xué)者任務(wù),民粹主義并不能真正地解決其支持者所面對的問題。因此,寄希望于那些被落在后面的人可以自覺地享受其自由,或者在不滿現(xiàn)狀的情況下通過選票來尋求政治改變,都是不現(xiàn)實的。我們應(yīng)該做的,是創(chuàng)造政治與社會機(jī)制,讓那些能夠不斷創(chuàng)新自我引領(lǐng)潮流的精英負(fù)有責(zé)任,為那些落在潮流后面的人謀福利。近幾年來,依據(jù)先秦儒家(特別是孟子)的思想,筆者提出了結(jié)合了民眾的聲音和賢能之士的決策權(quán)的混合政體(白彤東2013)。在這種混合政體中,一方面我們承認(rèn)民主政治中的民有與民享的原則——這與儒家的民本觀念是一致的,并且我們接受通過一人一票讓民眾表達(dá)是否自己享有自己所期望的意見。但另一方面,先秦儒家對大眾的政治決策能力是有保留的,因此他們部分拒絕民主政治中的民治的觀點,希望將一定的選賢舉能的辦法引入各種政治與社會機(jī)制,培養(yǎng)精英的責(zé)任意識,并把有道德與理性能力的精英選拔出來,讓他們?yōu)榇蟊娭\福利。這樣一種混合政體,比最終只依賴于一人一票的民主政體,可能可以更好地回應(yīng)人工智能的發(fā)展所加劇的經(jīng)濟(jì)不平等之問題。

         

        參考文獻(xiàn)

         

        白彤東(2011),“Against Democratic Education”, Journal of Curriculum Studies, 43:5, 615-622.

         

        --- (2012),“反對民主式教育”,蘇曉冰譯,《思想與文化》第12輯,327-335。

         

        --- (2013),“主權(quán)在民,治權(quán)在賢:儒家之混合政體及其優(yōu)越性”,《文史哲》2013年第三期,12-23。

         

        Berggruen, Nicolas (2018), “How Do You Plan to Raise Your Super-Intelligent Child?” The Washington Post, Feb. 28, 2018

        https://www.washingtonpost.com/news/theworldpost/wp/2018/02/27/ai/

         

        陳奇猷(2000),《韓非子新校注》。上海:上海古籍出版社。

         

        Eberstadt, Nicholas (2017), “Our Miserable 21st Century,” The Commentary.  February 15, 2017.  

        https://www.commentarymagazine.com/articles/saving-conservative-judaism/

         

        Eckersley, Peter (2019), “Impossibility and Uncertainty Theorems in AI Value Alignment (or why your AGI should not have a utility function),”

        https://arxiv.org/pdf/1901.00064.pdf

         

        Gardels, Nathan (2018), “The Biological Origins of Culture,” The Washington Post, Feb. 28, 2018

        https://www.washingtonpost.com/news/theworldpost/wp/2018/02/28/culture/

         

        Hume, David (1888), A Treatise of Human Nature.  Edited by L. A. Selby-Bigge.  Oxford: Oxford University Press.

         

        Kuhn, Thomas (1959), “The Essential Tension”, from The Third (1959) University of Utah Research Conference on the Identification of Scientific Talent, ed. C. W.

         

        Taylor (Salt Lake City: University of Utah Press, 1959), 162-174.No?, Alva (2014), “Artificial Intelligence, Really, Is Pseudo-Intelligence,”

        http://www.npr.org/sections/13.7/2014/11/21/365753466/artificial-intelligence-really-is-pseudo-intelligence

         

        阮凱(2018),“機(jī)器倫理何以可能: 現(xiàn)有方案及其改良”,《自然辯證法研究》第34卷第11期(201911月),78-83。

         

        楊伯峻(1960),《孟子譯注》。北京:中華書局。

         

        曾毅(2019),“規(guī)則灌輸絕對不是使人工智能獲得人類價值觀與社會規(guī)則的正確途徑”,https://mp.weixin.qq.com/s/3Qq2jNtvGy6jKd8dhrl1BQ

         

        注釋:

         

        [1]本文的研究得到了上海高校特聘教授(東方學(xué)者)崗位計劃(跟蹤計劃)的支持,特此感謝。

         

        [2]感謝貝淡寧(Daniel Bell)向筆者指出這一點的相關(guān)性。

         

        [3]本文所有翻譯均為作者本人的翻譯。

         

        [4]本文分段和文本所根據(jù)的是楊伯峻1960。

         

        [5]筆者感謝Brian Green讓我注意到了這篇文章。

         

        [6]博古睿研究所是一個支持對大問題的跨文化研究的一個機(jī)構(gòu),其關(guān)心的一個大問題就是人工智能。

         

        [7]本文引用的《韓非子》根據(jù)的是陳奇猷2000。不過,這里需要指出的是,韓非子的辦法好像也不管用。韓非子認(rèn)為只有賞罰二柄是最有效的控制工具,任何原則、法律、機(jī)構(gòu)都要建筑在其上。但是,這樣的一個架構(gòu)會遇到我們前面提到用原則來規(guī)管機(jī)器人所面對的問題。一般來講,強(qiáng)人工智能的強(qiáng)就在于它可以超越任何給定的規(guī)則。也就是說,強(qiáng)人工智能注定會讓建立在規(guī)則上的規(guī)管失敗。

         

        [8]當(dāng)然,所謂西式的“創(chuàng)造性”教育,確實與民主思想發(fā)展有關(guān)系。下面我們會看到,儒家對民主政治有所保留。因此,在批評創(chuàng)造性教育上,儒家也是有潛在的角色的。對此的詳細(xì)討論,見白彤東2011(中文翻譯版見白彤東2012)。

         

        [9]Eberstadt 2017對這一危機(jī)有深入細(xì)致的討論。

         

         

        責(zé)任編輯:近復(fù)