![]() |
白彤東作者簡(jiǎn)介:白彤東,男,西歷一九七〇年生于北京。北京大學(xué)核物理專業(yè)學(xué)士(1989-1994),北京大學(xué)科學(xué)哲學(xué)專業(yè)碩士(1994-1996),波士頓大學(xué)哲學(xué)博士(1996-2004),現(xiàn)任職復(fù)旦大學(xué)哲學(xué)學(xué)院教授。主要研究與教學(xué)興趣為中國(guó)傳統(tǒng)政治哲學(xué)、政治哲學(xué),著有《舊邦新命——古今中西參照下的古典儒家政治哲學(xué)》《實(shí)在的張力——EPR論爭(zhēng)中的愛(ài)因斯坦、玻爾和泡利》等。 |
原標(biāo)題:白彤東講座“從中國(guó)哲學(xué)角度反思人工智能發(fā)展”回顧
來(lái)源:復(fù)旦哲學(xué)青年
時(shí)間:西元2023年4月18日
2023年4月7日,復(fù)旦大學(xué)哲學(xué)學(xué)院第24屆Sophia人文節(jié)第二場(chǎng)講座順利舉行,本次講座是由白彤東教授帶來(lái)的“從中國(guó)哲學(xué)角度反思人工智能發(fā)展”。下面就讓我們共同回顧講座:
講座簡(jiǎn)介
雖然阿爾法狗和ChatGPT等代表的人工智能的進(jìn)展遠(yuǎn)遠(yuǎn)超出了自動(dòng)化時(shí)代我們對(duì)機(jī)器所能完成的任務(wù)的想象,但是當(dāng)今的人工智能還沒(méi)有任何智能,對(duì)強(qiáng)人工智能的擔(dān)憂是杞人憂天。不過(guò),對(duì)強(qiáng)人工智能的反思,仍然可以促進(jìn)我們對(duì)一些人類根本問(wèn)題——比如何為智能、何為語(yǔ)言、何為人——的探討。
從中國(guó)哲學(xué)的角度看,現(xiàn)在對(duì)強(qiáng)人工智能是否會(huì)替代和毀滅人類的擔(dān)心,可能帶有西方文化的偏見(jiàn)。但是以孟子對(duì)人之為人的理解來(lái)養(yǎng)育類人之存在,也有其問(wèn)題。在應(yīng)對(duì)現(xiàn)有的人工智能的挑戰(zhàn)上,我們應(yīng)該加強(qiáng)的,恰恰不是創(chuàng)造性教育,而是死記硬背和應(yīng)試教育。人工智能的發(fā)展可能會(huì)強(qiáng)化經(jīng)濟(jì)不平等,對(duì)此,可能也要通過(guò)加強(qiáng)精英的責(zé)任和賢能在政治中的決策角色來(lái)解決,而這恰恰是儒家政治哲學(xué)的一個(gè)可能貢獻(xiàn)。
講座前半部分,白彤東教授基于他的《從中國(guó)哲學(xué)角度反思人工智能發(fā)展》論文分享自己對(duì)人工智能的觀點(diǎn)。白彤東教授指出,這篇論文是19年針對(duì)AlphaGo引發(fā)的討論和擔(dān)憂所撰寫(xiě),是中國(guó)哲學(xué)視角下對(duì)人工智能的觀點(diǎn)看法。他認(rèn)為,對(duì)于AlphaGo的一般性反思多數(shù)同樣適用于Chat GPT。
01?人工智能還沒(méi)有智能
無(wú)論是AlphaGo還是Chat GPT的面世,都掀起了對(duì)人工智能擔(dān)憂的浪潮,人們會(huì)擔(dān)心人工智能是否會(huì)替代人類。然而,白彤東教授指出,人工智能迄今為止都沒(méi)有真正的智能,它們還只能做被人類預(yù)先設(shè)計(jì)好的任務(wù),AlphaGo和Chat GPT同樣如此。
以AlphaGo為例,AlphaGo可以在圍棋中擊敗世界上最好的圍棋選手,但是如果我們選擇和它玩中國(guó)象棋就可以贏過(guò)它,在它學(xué)習(xí)中國(guó)象棋后,我們可以選擇跟它比跳棋、跳繩而擊敗它。
那么人類的智能是什么呢?人類智能中一個(gè)很重要的關(guān)鍵是可以根據(jù)環(huán)境、外在變化不斷調(diào)整自己的目標(biāo),接著根據(jù)這一目標(biāo)設(shè)計(jì)出理性的、智能的達(dá)成路線?!癇y nature ,human beings are not natural!”人類的本性就是可以違背任何被規(guī)定的本性,人的自然恰恰是不自然。
人的智能的表現(xiàn)在于永遠(yuǎn)可以做出一個(gè)新的選擇,而智能并非正確,人的自我選擇可能導(dǎo)致一個(gè)愚蠢錯(cuò)誤的后果,這是人工智能無(wú)法做到的。
美國(guó)加州伯克利分校執(zhí)教的哲學(xué)家阿瓦·諾伊(Alva No?)對(duì)此有很好的說(shuō)法:鐘表并不真的知道時(shí)間,而是我們?nèi)祟愑盟鼇?lái)辨別時(shí)間。與此類似,AlphaGo不知道自己在下圍棋,它只是在完成預(yù)設(shè)的任務(wù),只是我們把它的操作稱為“下圍棋”,人工智能本身沒(méi)有智能。阿瓦·諾伊指出:“即使最簡(jiǎn)單的生命形式,比如阿米巴蟲(chóng),也展示了某種智能、自主性(autonomy)、創(chuàng)造性,這甚至超越了最強(qiáng)大的電腦?!备鶕?jù)他的說(shuō)法,阿米巴蟲(chóng)之所以更智能,是因?yàn)樗梢詾樽约焊淖兒蛣?chuàng)造自己的生存環(huán)境。
當(dāng)然,也可以說(shuō)阿米巴蟲(chóng)有確定的目標(biāo)——求生,但“求生”是一個(gè)很模糊的目標(biāo),而AlphaGo的目標(biāo)“下圍棋”更為明確:具有清晰的規(guī)則、基本的策略,不需要人為參與判斷的輸贏標(biāo)準(zhǔn)使AlphaGo可以進(jìn)行自主大量演算,在積累的過(guò)程中自我學(xué)習(xí)。我們肯定人工智能超越了以前機(jī)器只能做自動(dòng)化(機(jī)械性工作)或者計(jì)算的局限,然而也要清楚認(rèn)識(shí)到AlphaGo、Chat GPT等看似創(chuàng)造性的成果實(shí)際也是由已設(shè)計(jì)好的工作組成。
現(xiàn)在的人工智能都還屬于弱人工智能,強(qiáng)人工智能還沒(méi)有蹤影。對(duì)人類更清晰和緊迫的挑戰(zhàn)來(lái)自基因編輯、氣候暖化這樣的問(wèn)題,而不是無(wú)跡可尋的強(qiáng)人工智能。在此背景下,我們現(xiàn)在所擔(dān)憂的人工智能獲得智能后替代人類的觀點(diǎn)實(shí)屬杞人憂天。
02?強(qiáng)人工智能與中國(guó)哲學(xué):制造超級(jí)人類?
但是,哲學(xué)這一學(xué)科的特點(diǎn)之一就是探討一些看似無(wú)意義的問(wèn)題,如英美哲學(xué)界的兩個(gè)熱門(mén)話題——僵尸和時(shí)間旅行。對(duì)這看似無(wú)意義的種問(wèn)題的反思可能激發(fā)我們對(duì)人類基礎(chǔ)的哲學(xué)問(wèn)題的思考。從這一思考角度來(lái)看,杞人憂天也是有其意義的。
白彤東教授根據(jù)個(gè)人經(jīng)驗(yàn)觀察,東西方在這種“憂”的方面具有很明顯的差別。好萊塢電影中幾乎所有關(guān)于未來(lái)的描述都是人類因科技進(jìn)步毀滅了自己,只有一小部分人幸存或人類與自己發(fā)明的機(jī)器進(jìn)行殊死搏斗;而中國(guó)的科幻電影小說(shuō)中這一主題并沒(méi)有那么明顯,科技不是黑暗的、毀滅世界的。
由此可以看出,東方對(duì)科技進(jìn)步的看法至少不太壞,公眾對(duì)科技發(fā)展似乎更持一種歡迎態(tài)度,為何東西方對(duì)科技、未來(lái)世界的態(tài)度不同?白彤東教授猜測(cè),這可能與歷史上近現(xiàn)代科學(xué)的發(fā)展有關(guān),近現(xiàn)代科學(xué)首先在西方得以發(fā)展,而在接受、追趕過(guò)程中,東亞就很可能產(chǎn)生對(duì)科學(xué)的非理性的崇拜?!翱茖W(xué)”在東亞被認(rèn)為是“進(jìn)步的”“好的”。
另一點(diǎn),在四大古代文明中,中國(guó)古代文化是唯一沒(méi)有世界毀滅元素存在的,這是由于中國(guó)古代文化中沒(méi)有純善或純惡的神,也沒(méi)有創(chuàng)世的傳說(shuō)——能被神所創(chuàng)造的世界就能被神毀滅。而西方基督教有創(chuàng)生的神話,伴隨著這種創(chuàng)生神話,還有世界大毀滅的神話“諾亞方舟”,為西方人對(duì)科技進(jìn)步帶來(lái)世界毀滅提供了思想上的“藍(lán)圖”。
那是究竟什么造就了人,或者說(shuō)人的根本性特征是什么?
近現(xiàn)代西方哲學(xué)奠基人笛卡爾在其《方法論》第五部分中提出人與禽獸的區(qū)別在于人有語(yǔ)言和理性,語(yǔ)言指可以通過(guò)不同的詞語(yǔ)排列去回應(yīng)不同場(chǎng)景的不同情況,這一點(diǎn)正是Chat GPT使很多人關(guān)注擔(dān)憂所在;理性則是一種在不同情況下幫助我們適應(yīng)、產(chǎn)生目標(biāo)的工具,AlphaGo似乎做到了只有人類理性才能做到的事情。
但是并不是所有思想家都認(rèn)為人的本質(zhì)在于語(yǔ)言和理性?;氐桨淄畺|教授研究的中國(guó)哲學(xué)領(lǐng)域,先秦儒學(xué)思想家孟子對(duì)“人之為人”有不同的理解——對(duì)孟子來(lái)講,人之為人、人與禽獸的根本區(qū)別,不是智能,而是惻隱之心及建立于其上的仁。
“所以謂人皆有不忍人之心者,今人乍見(jiàn)孺子將入于井,皆有怵惕惻隱之心。非所以內(nèi)交于孺子之父母也,非所以要譽(yù)于鄉(xiāng)黨朋友也,非惡其聲而然也。由是觀之,無(wú)惻隱之心,非人也;無(wú)羞惡之心,非人也;無(wú)辭讓之心,非人也;無(wú)是非之心,非人也。惻隱之心,仁之端也;羞惡之心,義之端也;辭讓之心,禮之端也;是非之心,智之端也?!保ā豆珜O丑上》)
以孟子為首的中國(guó)古代儒家思想與西方哲學(xué)中的主流思想對(duì)人的根本特征的觀點(diǎn)截然不同,但西方哲學(xué)不是只有一種觀點(diǎn)。例如西方思想家休謨(David Hume)在其《人性論》中指出的:“談?wù)撉楦校╬assion)和理性(reason)之爭(zhēng)、給予理性以優(yōu)先地位,并斷言人有多少道德只與在多大程度上遵從理性之命令(dictates)相關(guān),在(西方)哲學(xué)乃至日常生活里面,沒(méi)有比這些說(shuō)法再通常的了?!?西方道德學(xué)說(shuō)的主流學(xué)說(shuō)之一的功利主義的核心,在于根據(jù)是否提高最大多數(shù)人的最大幸福的理性計(jì)算,另一主流學(xué)說(shuō)即康德的義務(wù)論,也強(qiáng)調(diào)對(duì)理性的道德原則的服從。但與之相對(duì),休謨幾乎是獨(dú)樹(shù)一幟地論述:“理性是并且應(yīng)該只是情感的奴隸”。當(dāng)代神經(jīng)科學(xué)家安東尼奧·達(dá)馬西奧(Antonio Damasio)引用了休謨的后一種說(shuō)法,并且也為情感在人類行動(dòng)中的首要性做出論證:“神經(jīng)系統(tǒng)只是在5億年前進(jìn)入了生命的舞臺(tái)。比起演化的時(shí)間尺度,比起地球上生命的40億年的歷史來(lái)講,這實(shí)在微不足道?!薄奖徽J(rèn)為是人類智能精華的東西越能被人工智能復(fù)刻,反而是走路下臺(tái)階、以合適力度拿東西這些行為是人工智能特別難做到的。
雖然二人的思想研究是西方思想中少有的例外,但他們的立場(chǎng)還是與孟子有著根本不同。孟子所關(guān)注的是惻隱之心,而非任意一種情感,并且他對(duì)惻隱之心這種情感的強(qiáng)調(diào),不是出于它是與動(dòng)物相通并且有著長(zhǎng)久的演化積累,而是因?yàn)樗约敖ㄓ谒系娜适侨双F之別的根本。孟子并不認(rèn)可情感是人類行動(dòng)之主宰這一休謨和達(dá)馬西奧的立場(chǎng),而是要求人類的理智和其他自然情感都要被惻隱之心所規(guī)管。孟子以及追隨孟子的儒家對(duì)惻隱之心的強(qiáng)調(diào)有其獨(dú)特性。
從孟子的立場(chǎng)出發(fā)去回答我們是否在創(chuàng)造類人的存在,我們要關(guān)注的是我們是否創(chuàng)造了“人工道德情感”,而不是“人工智能”。著名的圖靈測(cè)試,在對(duì)機(jī)器與人的區(qū)別上,關(guān)注的是語(yǔ)言和理性。但如果按照孟子對(duì)人的理解,我們應(yīng)該關(guān)注的是被試者是否展示出惻隱之心。
而孟子認(rèn)為,雖然惻隱之心是人獸之別的關(guān)鍵,但是成人是一個(gè)過(guò)程。生物意義上的人仍然需要學(xué)習(xí)成為孟子的道德與規(guī)范意義上的人。惻隱之心可以變得越來(lái)越強(qiáng),我們可以成長(zhǎng)為道德意義越來(lái)越大的人。如果一個(gè)生物意義上的人不好好撫育人的天生的善性,他可能會(huì)退化得近于禽獸。這對(duì)孟子而言沒(méi)什么好奇怪的。既然生物意義上的人可以退化成禽獸,那么,一個(gè)被制造出來(lái)的存在可以通過(guò)培養(yǎng)道德情感而變成人,也沒(méi)有什么好奇怪的了。
孟子的道德培養(yǎng)是我們成人之關(guān)鍵性的觀點(diǎn)也可能會(huì)幫助回應(yīng)另一個(gè)對(duì)強(qiáng)人工智能的擔(dān)憂。強(qiáng)人工智能在智能和體格上強(qiáng)于人,規(guī)管它們的行為式十分重要的,但是如果我們希望通過(guò)編碼或者律令來(lái)規(guī)管其行動(dòng),比如阿西莫夫的機(jī)器人三定律(Issac Asimov’s Three Laws of Robotics),它們很可能最終無(wú)法處理復(fù)雜的生活所帶來(lái)的挑戰(zhàn),規(guī)則永遠(yuǎn)無(wú)法達(dá)到人類道德的要求。例如“電車(chē)難題”甚至衍化出所謂“電車(chē)學(xué)”(trolleyology),任何一套原則都會(huì)導(dǎo)致各種難題。
而儒家的道德養(yǎng)成不是簡(jiǎn)單的一套原則、一本行動(dòng)手冊(cè),我們不是通過(guò)摩西十誡或者理性的絕對(duì)命令來(lái)愛(ài)我們的家人,而是強(qiáng)調(diào)在不同處境下的具體應(yīng)對(duì)。中國(guó)的人工智能專家曾毅則斷言:“把人類社會(huì)的一些規(guī)則灌輸給人工智能系統(tǒng),但這絕對(duì)不是一個(gè)好的解決的方法。只有人工智能系統(tǒng),與人類交互的過(guò)程當(dāng)中自主地去獲取人類價(jià)值觀、做事的規(guī)則和準(zhǔn)則,以一種基于自我模型的自主學(xué)習(xí)的方式,它才真正地實(shí)現(xiàn)可理解,才真正能達(dá)到人工智能模型和人類社會(huì)價(jià)值觀校準(zhǔn)的這樣一個(gè)過(guò)程?!?o:p>
但是,從儒家的角度,這種情境中的學(xué)習(xí),仍然不夠。在具體情境中,我們不但要獲取應(yīng)對(duì)各種倫理困境的方法,更要通過(guò)與家人、外人在一起,理解他們的特點(diǎn)和需要,在交往中發(fā)育我們相互的關(guān)切來(lái)學(xué)會(huì)愛(ài)我們的家人,然后推己及人。在這一過(guò)程中,我們會(huì)遇到不同道德責(zé)任之間的矛盾(比如忠與孝),而我們通過(guò)生活本身來(lái)學(xué)會(huì)面對(duì)它們。我們要做到的,是仁愛(ài)與理智(亞里士多德意義上的實(shí)踐智慧)的結(jié)合。博古睿研究所的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,我們應(yīng)該把人工智能 “這個(gè)文明的最終之子”當(dāng)成我們的孩子,并如儒家所言,我們?cè)诩彝サ沫h(huán)境中,對(duì)它進(jìn)行道德培養(yǎng),特別是培養(yǎng)它對(duì)其他人的關(guān)愛(ài)。這一說(shuō)法確實(shí)很好地展示了儒家對(duì)道德培養(yǎng)的理解。
儒家的道德養(yǎng)成是否就能保證強(qiáng)人工智能對(duì)關(guān)愛(ài)與審慎權(quán)衡?韓非子很早就批評(píng)過(guò)儒家的道德培養(yǎng)。他認(rèn)為,通過(guò)家庭中的道德培養(yǎng)來(lái)規(guī)范人類行為,不如通過(guò)建立在賞罰之上的法律制度來(lái)得有效。如《韓非子》中很直觀地指出:“夫嚴(yán)家無(wú)悍虜,而慈母有敗子”。
并且,我們也應(yīng)思考,是應(yīng)該制造“文明之子”人工智能還是繁衍人類自己的孩子。博古睿指出,這里的問(wèn)題不應(yīng)該是人工智能還是人類才是主宰,而是我們?nèi)绾沃圃烊伺c人工智能的混合體。就這些混合體而言,并不需要真正有智能或者真正有惻隱之心的人工智能,現(xiàn)在人工智能已經(jīng)可以為這種混合體奠定基礎(chǔ)。
因此,我們又被帶回到現(xiàn)有的弱人工智能對(duì)人類構(gòu)成何種挑戰(zhàn)這個(gè)問(wèn)題,這是一個(gè)更迫切的問(wèn)題。
03?回應(yīng)(弱)人工智能的挑戰(zhàn):“東亞式”教育與儒家混合政體
弱人工智能給人類帶來(lái)了很多挑戰(zhàn)。但是,有時(shí)候我們對(duì)人工智能的擔(dān)憂,可能有偏激的風(fēng)險(xiǎn)。
白彤東教授以羅大佑《未來(lái)的主人公》中的歌詞為例,提到一種常見(jiàn)的抱怨是科技的發(fā)展讓我們的孩子遠(yuǎn)離同伴、遠(yuǎn)離自然。但是離開(kāi)自然是人類一直致力的事情。我們甚至可以說(shuō),離開(kāi)自然的過(guò)程是人類成為人類的過(guò)程。并且,電視、網(wǎng)絡(luò)以及其他技術(shù)發(fā)展也把我們很難接觸到的自然帶到了我們和我們的孩子們眼前。技術(shù)對(duì)人類與自然接觸的影響并不僅僅是負(fù)面的。我們需要問(wèn)的問(wèn)題是,與自然的哪一方面保持接觸對(duì)人類的幸福生活是有益的?接近自然和接近他人何以對(duì)人重要?這類抱怨常常是出于抱怨者是出自個(gè)人偏見(jiàn),把個(gè)人的偶然經(jīng)歷當(dāng)成人類的普遍必然。
當(dāng)然,弱人工智能對(duì)人類確實(shí)存在真正的挑戰(zhàn),白彤東教授在這里提到了兩個(gè)挑戰(zhàn),一是對(duì)教育的挑戰(zhàn),二是對(duì)工資停滯、貧富差距擴(kuò)大的挑戰(zhàn)。
自動(dòng)化已經(jīng)搶走了很多藍(lán)領(lǐng)工人的工作,而類似AlphaGo、Chat GPT的人工智能的發(fā)展則意味著,如醫(yī)生、律師等白領(lǐng)工作也有被機(jī)器替代的危險(xiǎn)。由于人類智能的關(guān)鍵特點(diǎn)在于創(chuàng)造性,由此得出的結(jié)論似乎是:為了回應(yīng)弱人工智能的挑戰(zhàn),我們應(yīng)該重視人類智能獨(dú)有的創(chuàng)造性,在教育上要重視創(chuàng)造性教育,而不是死記硬背和應(yīng)試教育。前者常被歸于西式或美式教育,而后者常被歸于儒家、中式或者東亞式的教育。但是,白彤東教授認(rèn)為,人工智能的發(fā)展可能恰恰支持了死記硬背乃至廣義上非創(chuàng)造性教育的重要。人工智能的發(fā)展讓我們看到,可能任何一種具有確定性——有清晰的規(guī)則和一些基本的策略,任務(wù)成功與否有相對(duì)明確的判斷,并且最好不依賴人類的外來(lái)判斷和干預(yù)——的工作,人工智能可能都可以最終掌握,并比人類做得更好,或者至少可以替代人類。這意味著我們需要不斷重新創(chuàng)造自我以適應(yīng)不斷變化的就業(yè)市場(chǎng)。我們掌握的那些“先進(jìn)的”的技能可能最終都被證明是可替代的和沒(méi)有用的,而我們必須回到我們通過(guò)“死記硬背”而擁有的基本技能(語(yǔ)文和數(shù)理化)來(lái)再造自我。
自動(dòng)化對(duì)發(fā)達(dá)國(guó)家工資上漲的停滯和不斷上漲的經(jīng)濟(jì)不平等起到了重大作用,而人工智能的發(fā)展很可能將這種情形惡化,多數(shù)勞動(dòng)人民將面臨缺乏工作或工資水平停滯的困境。即使少數(shù)發(fā)達(dá)國(guó)家可以為其所有國(guó)民提供基本工資,但有工資但沒(méi)有工作不能給人以生命的目的和價(jià)值,例如美國(guó)的類鴉片藥物危機(jī)。而白彤東教授提出了另一種解決之道——先秦儒家(特別是孟子)結(jié)合民眾聲音和賢能之士決策權(quán)的混合政體。在這種混合政體中,一方面,承認(rèn)民主政治中的民有與民享的原則——這與儒家的民本觀念一致,并且接受通過(guò)一人一票讓民眾表達(dá)是否自己享有自己所期望的意見(jiàn);但另一方面,儒家對(duì)大眾的政治決策能力有所保留,他們部分拒絕民主政治中的民治的觀點(diǎn),將一定的選賢舉能的辦法引入各種政治與社會(huì)機(jī)制,培養(yǎng)精英的責(zé)任意識(shí),并把有道德有理性能力的精英選拔出來(lái),讓他們?yōu)榇蟊娭\福利。這樣一種混合政體,比最終只依賴于一人一票的民主政體,可能可以更好地回應(yīng)人工智能的發(fā)展所加劇的經(jīng)濟(jì)不平等問(wèn)題。
04?Chat GPT:一些初步的哲學(xué)思考
從理性到語(yǔ)言——Chat GPT挑戰(zhàn)了笛卡爾認(rèn)為的人類兩大特征,是對(duì)人類更深的挑戰(zhàn)。中國(guó)科學(xué)技術(shù)大學(xué)教授陳小平認(rèn)為,Chat GPT不僅是大數(shù)據(jù),更是大計(jì)算。Chat GPT并不是真正在說(shuō)話,而是通過(guò)對(duì)海量數(shù)據(jù)的概率計(jì)算,顯得它像是在自主選擇。
由此可知,雖然Chat GPT在“說(shuō)話”,但它并不理解它所“說(shuō)”的話的意思,它只是在相應(yīng)情景下計(jì)算出概率較大的詞與詞之間的連結(jié)而回答,不是真的在像人一樣說(shuō)話。
但是上述的說(shuō)法也存在很多問(wèn)題——我們認(rèn)為自己在說(shuō)話,那我們真的在說(shuō)話嗎、在表達(dá)自己的想法嗎?我們的想法又是什么呢?人類真的理解語(yǔ)言是什么嗎?我們解釋一段語(yǔ)言需要用到另一段語(yǔ)言,那么我們的解釋是否還是有效的呢?
白彤東教授認(rèn)為,?Chat GPT和心理學(xué)認(rèn)知哲學(xué)中的行為主義是一樣的,二者的共同特點(diǎn)是不關(guān)注內(nèi)在的想法而只關(guān)注外在行為是否符合。從內(nèi)在看,人類語(yǔ)言背后有精神支撐,有個(gè)人私密的精神活動(dòng),這是人類語(yǔ)言與Chat GPT語(yǔ)言的不同,但是在講述時(shí)很難講清楚它們的不同之處。
05?問(wèn)答環(huán)節(jié)
1.人工智能是不是應(yīng)該換一個(gè)說(shuō)法,它們的“智能”和人的智能不同,但也是一種另外的智能(跳出人的智能的形式去思考)?
答:可以這樣理解,目前的人工智能和人類的智能不一樣,與其去擔(dān)心人工智能對(duì)人類的威脅,不如擔(dān)心某些居心叵測(cè)的人。
2.Chat GPT會(huì)輸出一些不太符合人類主流價(jià)值觀的答案?(e.g.?種族歧視、殺人、毀滅世界)
答:Chat GPT沒(méi)有自己的思想,依靠大數(shù)據(jù)計(jì)算得出回答,而且它自身也沒(méi)有智能決定能力,即Chat GPT所說(shuō)的話到具體行動(dòng)需要人的參與。Chat GPT的這種回答其實(shí)是人類自身的問(wèn)題。
圖片
3. AI和人的關(guān)系是否像人和自然界之間的關(guān)系?(自然界創(chuàng)造、決定了人)人真的有自由意志嗎?
答:對(duì)于日常生活來(lái)說(shuō),我們可以明確感受到我們可以擁有情感性的決定,即可以選擇與衍化傾向相違背的決定,我做的決定并不是別人的強(qiáng)迫。這個(gè)世界上多數(shù)人可能也沒(méi)有比機(jī)器活得好到哪里去,但是總有可能性。
自由意志問(wèn)題其實(shí)是有亞伯拉罕宗教的背景,從全知全能的上帝創(chuàng)造人類到自然界創(chuàng)造人類,存在人類被創(chuàng)造的預(yù)設(shè)。
當(dāng)然,這個(gè)問(wèn)題也是學(xué)界一直以來(lái)探討的問(wèn)題,目前無(wú)法得出確切的答案。
4.Chat GPT語(yǔ)言和人類語(yǔ)言的區(qū)別?
答:即使我們能夠感受到兩者的不同,也很難說(shuō)明人類語(yǔ)言的特征,甚至但很難說(shuō)明Chat GPT有沒(méi)有語(yǔ)言,這個(gè)問(wèn)題更大的意義在于促進(jìn)我們?nèi)ニ伎?,這也是哲學(xué)繼續(xù)發(fā)展的原因。
5.人工智能的發(fā)展導(dǎo)致人類的優(yōu)越性受到威脅,如何看待就業(yè)問(wèn)題?
答:提高自身本領(lǐng)水平,做只有人能做的事情。
最后,哲學(xué)學(xué)院分團(tuán)委學(xué)生會(huì)為白彤東老師送上了哲學(xué)學(xué)院文創(chuàng)禮品,白老師與參加講座的全體同學(xué)合影留念。
儒家網(wǎng)
青春儒學(xué)
民間儒行
儒家網(wǎng)
青春儒學(xué)
民間儒行