人工智能教育倫理問(wèn)題及其規(guī)約_第1頁(yè)
人工智能教育倫理問(wèn)題及其規(guī)約_第2頁(yè)
人工智能教育倫理問(wèn)題及其規(guī)約_第3頁(yè)
人工智能教育倫理問(wèn)題及其規(guī)約_第4頁(yè)
人工智能教育倫理問(wèn)題及其規(guī)約_第5頁(yè)
已閱讀5頁(yè),還剩10頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能教育倫理問(wèn)題及其規(guī)約人類誕生后,生物學(xué)意義上的進(jìn)化就基本上停止了,自此,以人為界,好奇心推動(dòng)科學(xué),控制欲推動(dòng)技術(shù),啟動(dòng)了人類文明的演變圖景。科學(xué)和技術(shù)的發(fā)展是由向外和向內(nèi)兩個(gè)向度展開(kāi)的,向外由太陽(yáng)系、銀河系到宇宙;向內(nèi)指向人類自身,由生命運(yùn)動(dòng)到意識(shí)運(yùn)動(dòng),催生了人工智能。人工智能的類人屬性,第一次動(dòng)搖了以世界為舞臺(tái)、人類為主角的社會(huì)活動(dòng)劇幕,由此引發(fā)了人工智能倫理問(wèn)題,當(dāng)然也包括人工智能教育倫理問(wèn)題。人工智能教育倫理問(wèn)題是人類教育群體中植入類人,由于“演員群體的轉(zhuǎn)變而引發(fā)的問(wèn)題,其主要議題包括類人的倫理問(wèn)題、新的人與人行為準(zhǔn)則的調(diào)整問(wèn)題以及“演員”活動(dòng)的舞臺(tái)——人工智能教育場(chǎng)問(wèn)題。人工智能教育倫理問(wèn)題的規(guī)約應(yīng)該以追求人類的福祉為宗旨,聚焦實(shí)踐,主要從習(xí)俗遷移、規(guī)范構(gòu)建、法律約束等方面著手。__―、引言教育是常進(jìn)常新的事業(yè),不僅具有穩(wěn)定性,而且具有發(fā)展性。教育倫理亦然,不僅具有永恒性,而且具有時(shí)代性。進(jìn)入21世紀(jì)以來(lái),隨著人工智能技術(shù)的不斷創(chuàng)新及其在教育中的推廣和應(yīng)用,人們?cè)趽肀斯ぶ悄艿耐瑫r(shí),也產(chǎn)生了一些擔(dān)憂,特別是對(duì)人工智能對(duì)學(xué)習(xí)者可能產(chǎn)生傷害的憂慮,由此,人工智能教育倫理問(wèn)題成了教育領(lǐng)域的學(xué)者關(guān)切的熱點(diǎn)。已有相關(guān)研究主要集中在:(1)對(duì)人工智能教育倫理風(fēng)險(xiǎn)的表現(xiàn)描述,如削弱教師地位、侵犯學(xué)生自由、加大教育不平等、對(duì)教育正向價(jià)值的壓制、對(duì)教育育人價(jià)值的僭越[1];(2)對(duì)人工智能教育倫理風(fēng)險(xiǎn)成因的探索,如教育機(jī)器人的身份與權(quán)力邊界模糊、教育數(shù)據(jù)泄露以及技術(shù)濫用[2];(3)對(duì)人工智能教育可能產(chǎn)生的倫理風(fēng)險(xiǎn)進(jìn)行規(guī)避的原則探討,如提出采用“以人為本”“以德為先”“以法為界”的原則以防范和消除這些倫理風(fēng)險(xiǎn)[3]。這些研究為我們進(jìn)一步研究人工智能教育倫理問(wèn)題奠定了基礎(chǔ),但是,依然存在著些許問(wèn)題,主要表現(xiàn)在:第一,在人工智能教育倫理問(wèn)題的界定上,較多的研究從現(xiàn)象級(jí)上列舉和描述了若干人工智能教育倫理問(wèn)題,而缺乏在理論層面上對(duì)其本質(zhì)的厘定;第二,在人工智能教育倫理的討論上,總體上缺乏對(duì)人工智能教育倫理問(wèn)題進(jìn)行分層、分類討論的對(duì)象域,并且在具體問(wèn)題的探討上較多地關(guān)注人工智能教育應(yīng)用層面上所涉及的倫理問(wèn)題,而對(duì)于教育人工智能倫理底層理論的探討較少;第三,在人工智能教育倫理問(wèn)題的解決上,主要集中在對(duì)西方發(fā)達(dá)國(guó)家已有原則的介紹和解讀,而缺乏在更為深刻層面上對(duì)人工智能教育倫理問(wèn)題規(guī)約理路的慎思。針對(duì)現(xiàn)有人工智能教育倫理研究的不足,有必要明確探討以下三個(gè)基礎(chǔ)性問(wèn)題:(1)究竟什么是人工智能教育倫理問(wèn)題?(2)人工智能教育倫理問(wèn)題有哪些,為什么是這些問(wèn)題?(3)人工智能教育倫理問(wèn)題規(guī)約的基本思想應(yīng)該是什么,應(yīng)該包括哪些方面?通過(guò)回答以上問(wèn)題,以期拋磚引玉,為人工智能教育事業(yè)的健康發(fā)展作出理論貢獻(xiàn)。二、人工智能教育倫理問(wèn)題界定倫理是人倫道德之理,是指“人與人相處的各種道德行為準(zhǔn)則”[4]。教育倫理是教育活動(dòng)中人與人交往的各種行為規(guī)范和準(zhǔn)則。教育倫理是一個(gè)歷史范疇,其合理性必須在特定歷史時(shí)段的教育生態(tài)中談?wù)?。因此,討論人工智能教育倫理?wèn)題首先必須討論人工智能教育生態(tài)環(huán)境。人工智能技術(shù)教育應(yīng)用實(shí)際上改變的是教育生態(tài),是人工智能教育生態(tài)的建構(gòu),是對(duì)傳統(tǒng)教育生態(tài)的解構(gòu)和重構(gòu)。在教育生態(tài)重構(gòu)的過(guò)程中,由于人工智能扮演了人的部分角色,從而改變了人與人之間的關(guān)系,引發(fā)了人們對(duì)新的人與人、人與類人、類人與類人相處的行為規(guī)范問(wèn)題的探討,這就是人工智能教育的倫理問(wèn)題。教育生態(tài)是發(fā)展的、分階段的。依據(jù)技術(shù)的發(fā)展及其融入教育的歷程,可以將教育生態(tài)劃分為傳統(tǒng)教育、信息化教育以及人工智能教育。實(shí)際上,人工智能教育生態(tài)可以看作是信息化教育生態(tài)的高級(jí)階段。依據(jù)人工智能教育生態(tài)的成熟與否,大致可以將人工智能教育倫理問(wèn)題劃分為兩類:一類是教育信息化從1.0向2.0的過(guò)渡階段,人工智能技術(shù)在教育中初步應(yīng)用引發(fā)的倫理問(wèn)題,我們將之稱為弱人工智能教育倫理問(wèn)題;另一類則是人工智能技術(shù)相對(duì)成熟,已經(jīng)形成穩(wěn)定的智能教育生態(tài)后出現(xiàn)的倫理問(wèn)題,我們稱之為強(qiáng)人工智能教育倫理問(wèn)題。本文所討論的人工智能倫理問(wèn)題屬于第一類,關(guān)涉弱人工智能教育倫理問(wèn)題。顯然,弱人工智能教育倫理問(wèn)題不僅是歷史的、具體的、相對(duì)穩(wěn)定的,而且是動(dòng)態(tài)的、發(fā)展的;弱人工智能教育倫理問(wèn)題與強(qiáng)人工智能教育倫理問(wèn)題的表現(xiàn)和成因不盡相同,不能混為一談,同時(shí)二者又是有聯(lián)系的——弱人工智能教育倫理問(wèn)題是強(qiáng)人工智能教育倫理問(wèn)題的基礎(chǔ)和前提,強(qiáng)人工智能教育倫理?yè)P(yáng)棄了弱人工智能教育倫理;更為重要的是,無(wú)論是弱人工智能教育倫理還是強(qiáng)人工智能教育倫理,都是對(duì)傳統(tǒng)教育倫理和信息化教育倫理的揚(yáng)棄,因此,人工智能教育倫理依然是群體的、相對(duì)共善的。正如畢達(dá)哥拉斯所言,“凡是現(xiàn)存的事物都要在某種循環(huán)里再生,沒(méi)有什么東西是絕對(duì)新的”[5]。弱人工智能倫理問(wèn)題實(shí)際是以機(jī)器深度學(xué)習(xí)為基礎(chǔ),以期用機(jī)器模擬人的智能,在幫助人類解決各種教育問(wèn)題或提供教育服務(wù)時(shí)引發(fā)的倫理問(wèn)題。因此,弱人工智能教育倫理不僅包括教育人工智能創(chuàng)建者和使用者等利益相關(guān)者的職業(yè)道德及倫理,而且包括類人內(nèi)隱的程序代碼所涉及的道德問(wèn)題,以及由人工智能與教育相融合過(guò)程中導(dǎo)致的人類教育行為準(zhǔn)則的整體調(diào)整問(wèn)題。需要補(bǔ)充說(shuō)明的是,我們不僅要認(rèn)識(shí)到弱人工智能教育倫理與教育倫理的交集,而且要知曉盡管機(jī)器倫理與人工智能倫理是不同的,但是就智能程度而言,弱人工智能倫理依然是機(jī)器倫理的子集,主要關(guān)注智能機(jī)器對(duì)其他機(jī)器和人類行為的影響[6]。 三、人工智能教育倫理問(wèn)題透視倫理問(wèn)題從來(lái)都是產(chǎn)生于人類群體中的,離開(kāi)人類群體無(wú)所謂倫理。傳統(tǒng)的教育群體網(wǎng)絡(luò)體系由于類人的人工智能植入,改變了原有的群體網(wǎng)絡(luò)構(gòu)成和結(jié)構(gòu),形成了新的教育群體網(wǎng)絡(luò)。從表面上來(lái)看,在這一進(jìn)程中,似乎對(duì)類人的人工智能行為規(guī)范是人工智能教育倫理

e皚性id魏;九工智龍?jiān)詄皚性id魏;九工智龍?jiān)詒場(chǎng)的卅覽世掛也總播戰(zhàn)黑k的救肓甩理?yè)?dān).8.新的扎屮、乂閭的軟打也?1詞思圖1人工智能教育倫理問(wèn)題關(guān)涉議題(一)人工智能教育場(chǎng)的演變及其倫理挑戰(zhàn)教育場(chǎng)可以理解為教育倫理發(fā)生的環(huán)境與情景,是教與學(xué)活動(dòng)的“舞臺(tái)”。傳統(tǒng)的教育場(chǎng)都是真實(shí)的教與學(xué)活動(dòng)場(chǎng)景,所有的教育倫理都是真實(shí)教與學(xué)活動(dòng)場(chǎng)景中教師、學(xué)習(xí)者、管理者等主體行為的準(zhǔn)則。行為與角色密切相關(guān),而角色又與場(chǎng)景密切相關(guān),因此,行為與場(chǎng)景也密切相關(guān)。人永遠(yuǎn)是具體社會(huì)場(chǎng)域中的人,扮演好“角色”演員,是對(duì)每個(gè)“本色”演員的基本倫理要求,人工智能也不例外,它也需要扮演好自己的角色。網(wǎng)絡(luò)技術(shù)、人工智能技術(shù)和虛擬現(xiàn)實(shí)技術(shù)等在教與學(xué)活動(dòng)中的應(yīng)用使得傳統(tǒng)的教育場(chǎng)發(fā)生了革命性的變革,即從真實(shí)的教育場(chǎng)轉(zhuǎn)變?yōu)檎鎸?shí)教育場(chǎng)、虛擬教育場(chǎng)和混合教育場(chǎng)并存的教育場(chǎng)。信息是教育場(chǎng)中流通的關(guān)鍵要素。依據(jù)美國(guó)技術(shù)哲學(xué)家伯格曼(AlbertBorgmann)的觀點(diǎn),教育場(chǎng)中的信息形態(tài)可以劃分為三類,即“關(guān)于現(xiàn)實(shí)的信息(自然信息)、為了現(xiàn)實(shí)的信息(文化信息)和作為現(xiàn)

實(shí)的信息(技術(shù)信息)”[7]。伯格曼對(duì)信息的分類為我們透視人工智能教育場(chǎng)的倫理提供了有益的理論視角,因?yàn)椤懊恳环N類型的信息都根據(jù)其自身的方式來(lái)塑造人與現(xiàn)實(shí)的關(guān)聯(lián)性”[8],從而形成不同的教育場(chǎng),如圖2所示。辯辭 為丁現(xiàn)尖 眉為睥夾*圖2不同類型的信息與教育場(chǎng)與自然信息相對(duì)應(yīng)的是傳統(tǒng)社會(huì)教育和家庭教育場(chǎng),與文化信息相對(duì)應(yīng)的是傳統(tǒng)學(xué)校教育場(chǎng),而與技術(shù)信息相對(duì)應(yīng)的是人工智能教育場(chǎng)。傳統(tǒng)的教育場(chǎng)是現(xiàn)實(shí)的真實(shí)場(chǎng)景,而人工智能教育場(chǎng)是超現(xiàn)實(shí)的虛擬教育和混合教育場(chǎng)。有意義的美好教育需要三類教育場(chǎng)的有機(jī)融合,尤其是現(xiàn)實(shí)的教育與超現(xiàn)實(shí)的教育場(chǎng)之間的融合,保持教育教學(xué)符號(hào)與事物、教育信息與現(xiàn)實(shí)之間的平衡。人工智能與教育的融合在促發(fā)教育倫理場(chǎng)演變進(jìn)化的同時(shí),也帶來(lái)了一系列新的倫理挑戰(zhàn)。首先,我們必須警惕為了超現(xiàn)實(shí)而超現(xiàn)實(shí),即將超現(xiàn)實(shí)教育場(chǎng)的構(gòu)建本身作為目的而凸顯,忽視將其作為美好教育生活的實(shí)現(xiàn)路徑而加以選擇,謹(jǐn)防強(qiáng)化人工智能教育應(yīng)用的減負(fù)性、感官性和消費(fèi)性,而弱化其人文關(guān)懷性和道德性。其次,智能教育研究者和實(shí)踐者還必須清醒地認(rèn)識(shí)到,超現(xiàn)實(shí)的虛擬教育場(chǎng)與真實(shí)的教育場(chǎng)在教與學(xué)的體驗(yàn)以及教學(xué)規(guī)律方面可能存在較大差異。超現(xiàn)實(shí)的虛擬教育場(chǎng)趨向于替代真實(shí)教育現(xiàn)實(shí),甚至淹沒(méi)真實(shí)教育現(xiàn)實(shí),它的趣味化、仿真化和透明化等使得真實(shí)教育現(xiàn)實(shí)顯得乏味、粗糙和繁重,對(duì)此種“趣悅化學(xué)習(xí)”的過(guò)分強(qiáng)調(diào),掩蓋了認(rèn)知投入對(duì)學(xué)習(xí)的重要性[9]。因此,我們必須警惕將超現(xiàn)實(shí)教育信息的消費(fèi)、體驗(yàn)和認(rèn)知“誤認(rèn)為”是對(duì)真實(shí)教育現(xiàn)實(shí)的參與、體驗(yàn)和認(rèn)知。最后,超現(xiàn)實(shí)的教育場(chǎng)需要同真實(shí)的教育場(chǎng)有機(jī)融合、互為補(bǔ)充。教育主體若長(zhǎng)期沉浸于虛擬的超現(xiàn)實(shí)場(chǎng)域之中,其認(rèn)識(shí)對(duì)象、工具和方式以及思維方式都會(huì)打上虛擬思維和行為的烙印,人們可能有意無(wú)意地依賴、迷戀虛擬教育場(chǎng),使傳統(tǒng)真實(shí)教育場(chǎng)淪為虛擬教育場(chǎng)的背景,而不再為主體參與真實(shí)的現(xiàn)實(shí)教育活動(dòng)提供更多的可能和契機(jī)[10]。(二)類人教育倫理問(wèn)題如果說(shuō)網(wǎng)絡(luò)技術(shù)和虛擬現(xiàn)實(shí)技術(shù)教育應(yīng)用主要改變的是教育活動(dòng)場(chǎng)域以及教育活動(dòng)的客體,那么人工智能技術(shù)則主要改變的是教育活動(dòng)的主體。人工智能充當(dāng)人的教育角色必然被賦予了人的教育權(quán)利,同時(shí)必須承擔(dān)相應(yīng)的教育責(zé)任,權(quán)利與責(zé)任是教育人工智能這個(gè)硬幣的兩面,因此,其教育行為必須受到人與人之間的教育行為倫理的規(guī)約。從表面上來(lái)看,類人的教育倫理問(wèn)題主要包括數(shù)據(jù)倫理問(wèn)題與算法倫理問(wèn)題,然而由于類人無(wú)法獨(dú)立于教育場(chǎng)而存在,類人的數(shù)據(jù)倫理與算法倫理都會(huì)深深地打上教育倫理的印記,因此,類人的教育倫理問(wèn)題將同時(shí)涉及數(shù)據(jù)倫理、算法倫理和教育倫理等兩個(gè)方面。教育人工智能數(shù)據(jù)倫理問(wèn)題人工智能教育生態(tài)的穩(wěn)定運(yùn)行需要大數(shù)據(jù)作為基本保障,教學(xué)活動(dòng)和教育管理過(guò)程中產(chǎn)生的行為、狀態(tài)、成績(jī)、情感與交互等方面的數(shù)據(jù)將被人工智能系統(tǒng)收集、存儲(chǔ)和使用,由此產(chǎn)生的數(shù)據(jù)倫理問(wèn)題必須受到重視。首先,在數(shù)據(jù)的收集上,應(yīng)該強(qiáng)調(diào)任何數(shù)據(jù)主體有權(quán)利知曉數(shù)據(jù)采集類型和方法以及數(shù)據(jù)安全保護(hù)措施,而現(xiàn)今對(duì)于收集數(shù)據(jù)的類型和方法始終邊界不清;其次,在數(shù)據(jù)的存儲(chǔ)上,會(huì)不會(huì)產(chǎn)生數(shù)據(jù)意外泄露,機(jī)器代理應(yīng)該在多大程度上擁有數(shù)據(jù)的控制權(quán)[11],在人工智能系統(tǒng)的整個(gè)生命周期中如何保證師生的數(shù)據(jù)隱私權(quán)等權(quán)益不受到侵犯,誰(shuí)該擁有所收集到的數(shù)據(jù),會(huì)不會(huì)涉及侵權(quán)等諸多問(wèn)題需要一一回答;最后,在數(shù)據(jù)的使用上,人工智能的數(shù)據(jù)挖掘分析能力已經(jīng)在很大程度上超過(guò)了以往技術(shù),而數(shù)據(jù)所解釋出的種種不平等情況甚至?xí)?duì)個(gè)別學(xué)生的合法權(quán)利產(chǎn)生負(fù)面影響,進(jìn)而引發(fā)新的教育不平等問(wèn)題,因此,必須對(duì)相關(guān)數(shù)據(jù)及分析結(jié)果的使用權(quán)提出明確的界限和更高的安全驗(yàn)證。教育人工智能算法倫理問(wèn)題教育人工智能算法倫理問(wèn)題實(shí)際上是由于智能機(jī)器本體性智慧不足引發(fā)的教育倫理問(wèn)題。首先,歷史性與發(fā)展性背離。人工智能通過(guò)采集過(guò)去記錄的教育數(shù)據(jù),分析、挖掘?qū)W習(xí)者特征并以此為基礎(chǔ)作出決策和預(yù)測(cè)學(xué)習(xí)者未來(lái)的發(fā)展趨勢(shì)。雖然機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法能夠根據(jù)歷史性數(shù)據(jù)預(yù)測(cè)未來(lái),這在概率統(tǒng)計(jì)學(xué)意義上具有合理性,但是由于教育生態(tài)中學(xué)生未來(lái)發(fā)展的不確定性,算法不可避免地存在對(duì)學(xué)生成長(zhǎng)的歷史或文化的偏差與偏見(jiàn),這與教育教學(xué)現(xiàn)實(shí)的復(fù)雜性、創(chuàng)造性和發(fā)展性相背離[12]。其次,平均化與精準(zhǔn)化的背離。人工智能根據(jù)學(xué)習(xí)者過(guò)去的教育數(shù)據(jù)為其制訂學(xué)習(xí)推薦方案,是算法對(duì)教育數(shù)據(jù)中的歷史案例進(jìn)行平均化處理的結(jié)果。目前,應(yīng)用到教學(xué)中的弱人工智能仍處于決策標(biāo)準(zhǔn)化和平均化的水平,在滿足學(xué)習(xí)者個(gè)體學(xué)習(xí)和發(fā)展的多樣性和靈活性需求上存在局限性[11],這背離了人工智能促進(jìn)個(gè)性化學(xué)習(xí)、精準(zhǔn)化學(xué)習(xí)診斷和服務(wù)的初衷。(三)新的人與人之間的教育倫理問(wèn)題如果說(shuō)類人的教育倫理問(wèn)題是人類教育倫理對(duì)類人行為的透視問(wèn)題,那么人的教育倫理問(wèn)題則是由于類人在教育場(chǎng)域中的植入而催生的新的人的行為以及人與人行為關(guān)系的再調(diào)整問(wèn)題,主要涉及教育人工智能創(chuàng)建者與監(jiān)測(cè)者的問(wèn)責(zé)問(wèn)題、施教者的角色調(diào)整問(wèn)題和學(xué)習(xí)者的角色轉(zhuǎn)換問(wèn)題。1.教育人工智能創(chuàng)建者與監(jiān)測(cè)者的問(wèn)責(zé)問(wèn)題人工智能的設(shè)計(jì)開(kāi)發(fā)人員(創(chuàng)建者)包括智能系統(tǒng)設(shè)計(jì)工程師、智能軟件架構(gòu)工程師、程序設(shè)計(jì)和開(kāi)發(fā)工程師等。他們?cè)谶M(jìn)行教育類人的設(shè)計(jì)和開(kāi)發(fā)過(guò)程中,一方面,需要保證教育人工智能系統(tǒng)的穩(wěn)健性和安全性、智能決策結(jié)果的可解釋性、智能算法的非歧視性和公平性,并且支持對(duì)教育類人不良行為后果的問(wèn)責(zé)追因;另一方面,教育人工智能創(chuàng)建者所設(shè)計(jì)開(kāi)發(fā)的類人教師或?qū)W習(xí)伙伴需要支持學(xué)生的主觀能動(dòng)性的激發(fā),重視學(xué)生核心素養(yǎng)的培育。對(duì)此,教育類人的創(chuàng)建者肩負(fù)不同的倫理責(zé)任:智能系統(tǒng)設(shè)計(jì)工程師需要考慮不同使用對(duì)象在能力、需求及文化背景等方面的差異性,以向善的目的設(shè)計(jì)產(chǎn)品,謹(jǐn)防對(duì)使用者造成傷害與歧視;智能軟件架構(gòu)工程師需要遵照安全性、可靠性和

透明性三大原則進(jìn)行系統(tǒng)架構(gòu),保護(hù)用戶個(gè)人數(shù)據(jù)的安全,保障智能系統(tǒng)運(yùn)行的穩(wěn)定,支持對(duì)教育人工智能不當(dāng)表現(xiàn)的追蹤問(wèn)責(zé);程序設(shè)計(jì)和開(kāi)發(fā)工程師最重要的職責(zé)是秉承公平和公正的原則,設(shè)計(jì)無(wú)偏見(jiàn)的算法。教育人工智能的監(jiān)測(cè)者是負(fù)責(zé)對(duì)系統(tǒng)的一致性、安全性和公平性進(jìn)行測(cè)試和審查的專業(yè)人員,主要包括制定教育人工智能標(biāo)準(zhǔn)的組織或人員、數(shù)據(jù)分析和維護(hù)專員等。通常在教育人工智能系統(tǒng)部署之初就開(kāi)展安全性測(cè)試,而審查則是在系統(tǒng)啟用之后,主要針對(duì)教育人工智能系統(tǒng)應(yīng)用過(guò)程中的決策,通過(guò)對(duì)歷史性數(shù)據(jù)的分析,從準(zhǔn)確性、合理性和合法性三個(gè)方面對(duì)教育人工智能決策進(jìn)行審查[11],并提出相應(yīng)的整改措施。為了便于監(jiān)測(cè)者審查,教育人工智能的創(chuàng)建者需要建立對(duì)系統(tǒng)作出的判斷、決策、教學(xué)支持進(jìn)行存儲(chǔ)的機(jī)制和解釋方案,從而在一定程度上監(jiān)督和保證教育人工智能的設(shè)計(jì)、開(kāi)發(fā)和使用符合特定的教育教學(xué)倫理要求。監(jiān)測(cè)者在對(duì)教育人工智能系統(tǒng)的倫理規(guī)范進(jìn)行審查之后,應(yīng)該向系統(tǒng)的創(chuàng)建者反饋教育人工智能系統(tǒng)存在的倫理問(wèn)題,并對(duì)其提出相關(guān)改進(jìn)策略或建議。此外,考慮到監(jiān)測(cè)員在履職過(guò)程中可能出現(xiàn)行為失范,因而有必要制定教育人工智能監(jiān)測(cè)者的職業(yè)修養(yǎng)和道德標(biāo)準(zhǔn),在此基礎(chǔ)上建立監(jiān)測(cè)員問(wèn)責(zé)制。類人創(chuàng)建者與監(jiān)測(cè)者的問(wèn)責(zé)問(wèn)題如圖3所示。黒養(yǎng)謖計(jì)岬—亠?n?雀廉誕用壹全、處孔?雀廉誕用壹全、處孔?握土壘茂屆誌-鴛三方1TE科保疋氏枸星蛙全'可靠?遠(yuǎn)羽甬SEit'iS■m^尸牛人髓眾安矣?畏出圖3類人創(chuàng)建者與監(jiān)測(cè)者的問(wèn)責(zé)問(wèn)題2.施教者的角色調(diào)整問(wèn)題人工智能教育場(chǎng)中施教者的角色調(diào)整主要包括施教者角色定位調(diào)整和角色內(nèi)容調(diào)整兩方面的問(wèn)題。施教者角色定位調(diào)整主要指教師在新的人工智能教育場(chǎng)中重新定義自身角色地位及其與智能導(dǎo)師之間的

關(guān)系;角色內(nèi)容調(diào)整則指教師為了適應(yīng)人工智能教育場(chǎng)中新的角色地位而在其工作內(nèi)容上作出恰當(dāng)改變,同時(shí)包括為了滿足新的工作內(nèi)容需求而對(duì)自身教育教學(xué)理念、知識(shí)結(jié)構(gòu)和技能、職業(yè)道德修養(yǎng)等職業(yè)勝任力的更新和提升。人工智能教育場(chǎng)中的教學(xué)工作由人機(jī)協(xié)同開(kāi)展,人工智能能夠?qū)崿F(xiàn)抽象知識(shí)可視化、智能出題批改、基于大數(shù)據(jù)的學(xué)習(xí)分析和資源推薦,人機(jī)協(xié)同擔(dān)任施教者角色可以減少人類教師的重復(fù)性勞動(dòng),使其有更多的時(shí)間專注于育人的本體性活動(dòng)。但是,施教者對(duì)人工智能技術(shù)的使用不能突破其角色定位和角色內(nèi)容所規(guī)定的合乎價(jià)值和理性的限度,否則可能造成一系列新的倫理困境[13]。根據(jù)成因,這些倫理困境可歸納為兩大類:一類是由于在教學(xué)實(shí)踐中過(guò)分依賴人工智能使得教師身體缺位,掩蓋教師在教育教學(xué)活動(dòng)中的重要性,削弱教師的主體性地位而引發(fā)的倫理困境;另一類則主要是由于教師職業(yè)素養(yǎng)更新滯后于新的人工智能教育實(shí)踐需求而引發(fā)的教師角色行為失德失范問(wèn)題。例如:教師在利用人工智能采集和分析學(xué)生的學(xué)習(xí)行為數(shù)據(jù)的過(guò)程中,對(duì)學(xué)生隱私和個(gè)人信息安全的威脅,以及由于教師缺乏對(duì)人工智能決策機(jī)制的正確認(rèn)識(shí)而導(dǎo)致的教育實(shí)踐中所作出的可能有悖教育倫理準(zhǔn)則的決策,等等。學(xué)習(xí)者的角色轉(zhuǎn)換問(wèn)題長(zhǎng)期沉浸在“超現(xiàn)實(shí)”的虛擬教育場(chǎng),會(huì)使學(xué)習(xí)者的角色地位發(fā)生一些微妙的轉(zhuǎn)換,由此將帶來(lái)學(xué)習(xí)者群體的諸多倫理問(wèn)題。其中,學(xué)習(xí)者“本我”與“非我”的主體性異位問(wèn)題最為突出[14]。人工智能技術(shù)為學(xué)習(xí)者提供了一個(gè)客觀地審視“我”的途徑,人工智能提供的學(xué)習(xí)者畫(huà)像讓其逐漸接受“量化自我”的學(xué)習(xí)方式,但或許還不能形成正確“量化自我”的思維意識(shí)。學(xué)習(xí)者在人工智能分析自我、延展自我、增強(qiáng)自我功能的支持下,獲得了放大自身個(gè)性的學(xué)習(xí)體驗(yàn),形成與現(xiàn)實(shí)中的自我相差甚遠(yuǎn)的“虛擬人格”,這種“虛擬人格”不僅僅是“非我”,更是人工智能支持下的一種“超我”的存在,雖然“超我”與現(xiàn)實(shí)中的“本我”受同一個(gè)精神主體控制,但是人工智能可能使現(xiàn)實(shí)世界的主體將“超我”作為另一客體看待,由此可能導(dǎo)致學(xué)習(xí)者自我的現(xiàn)實(shí)性與虛擬性之間的張力和平衡被撕裂[15]。學(xué)習(xí)者“本我”與“非我”主體性異位不利于人工智能教育的正常開(kāi)展,亦會(huì)阻礙學(xué)習(xí)者的認(rèn)知發(fā)展,并將派生出一系列新的倫理問(wèn)題:其一是過(guò)分趣悅化問(wèn)題。人工智能創(chuàng)設(shè)的趣悅化教與學(xué)情境似乎在一定程度上可以降低認(rèn)知負(fù)荷,但是有效學(xué)習(xí)必須承載一定的認(rèn)知負(fù)荷,并且越是復(fù)雜知識(shí)的學(xué)習(xí)就越需要較高的內(nèi)在負(fù)荷,過(guò)分趣悅化將會(huì)降低學(xué)生的學(xué)習(xí)質(zhì)量。其二是知識(shí)產(chǎn)權(quán)問(wèn)題。人工智能自動(dòng)化生成的學(xué)習(xí)產(chǎn)出能否屬于學(xué)習(xí)者本人的成果,如何界定該成果的產(chǎn)權(quán)歸屬,是否涉及誠(chéng)信,對(duì)于上述問(wèn)題,當(dāng)前并沒(méi)有形成統(tǒng)一的倫理規(guī)范[16]。其三是身體傷害和教育社會(huì)化體驗(yàn)降低問(wèn)題。學(xué)習(xí)者長(zhǎng)期與類人交互將從根本上改變傳統(tǒng)以人—人交互為中心的教學(xué)生態(tài),這是否會(huì)傷害學(xué)習(xí)者的身體健康,是否會(huì)減少與其他真實(shí)的學(xué)習(xí)者和施教者交互的機(jī)會(huì),弱化學(xué)習(xí)者在真實(shí)生活情境中的學(xué)習(xí)體驗(yàn),進(jìn)而對(duì)他們的身心健康造成不良影響[17]。 四、人工智能教育倫理問(wèn)題規(guī)約從理論上來(lái)說(shuō),人工智能教育倫理問(wèn)題規(guī)約的基本思想是以人類福祉追求為宗旨,采用自上而下、自下而上以及兩者相結(jié)合綜合運(yùn)用的理路來(lái)解決問(wèn)題。自上而下的智能教育倫理規(guī)約實(shí)際上是倫理問(wèn)題解決的演繹路徑,指的是以教育倫理的基本準(zhǔn)則為依據(jù),診斷、分析和解決人工智能教育倫理問(wèn)題;自下而上的人工智能教育倫理規(guī)約實(shí)際上是倫理問(wèn)題解決的歸納路徑,指的是通過(guò)在人工智能教育倫理場(chǎng)景中,針對(duì)具體教育情境中的倫理問(wèn)題,構(gòu)建新的準(zhǔn)則;當(dāng)然也可以綜合運(yùn)用以上兩種路徑規(guī)約人工智能教育倫理問(wèn)題。具體而言,人工智能教育倫理問(wèn)題的規(guī)約可以從習(xí)俗遷移、規(guī)范構(gòu)建、法律約束以及聚焦實(shí)踐等方面開(kāi)展綜合治理。(一)習(xí)俗遷移教育是亙古的事業(yè)。人工智能教育既是對(duì)傳統(tǒng)教育的發(fā)展,也是對(duì)傳統(tǒng)教育的繼承,同樣,人工智能教育倫理也是兼具發(fā)展性與穩(wěn)定性的倫理。教育的穩(wěn)定性根源在于教育本質(zhì)的恒定,無(wú)論在什么樣的教育形態(tài)中,教育的育人本質(zhì)不會(huì)變。從根本上來(lái)看,無(wú)論人工智能技術(shù)將來(lái)如何發(fā)展,學(xué)生和教師永遠(yuǎn)不會(huì)完全被機(jī)器取代,即教育永遠(yuǎn)是人教人的事業(yè)!那些認(rèn)為教師抑或?qū)W生完全被機(jī)器人取代的論調(diào),既不符合邏輯,也不符合常識(shí)。若教師和學(xué)生完全被取代,教育就沒(méi)有存在的必要,“學(xué)生”只要被制造就可以了,需要教嗎?若如此,人工智能教育倫理還有談?wù)摰谋匾獑?因此,不論教育如何改革,不論何種新型技術(shù)問(wèn)世,我們必須堅(jiān)守的就是立足教育本質(zhì),將傳統(tǒng)的與教育本質(zhì)密切相關(guān)的教育習(xí)俗遷移于新的人工智能教育形態(tài)之中,只有將教育本質(zhì)習(xí)俗根植于每個(gè)人的內(nèi)心,以此為根基規(guī)約類人行為,發(fā)展傳統(tǒng)教育倫理體系,構(gòu)建新的與人工智能教育相適應(yīng)的倫理規(guī)范,才是我們的基本立場(chǎng)。(二)規(guī)范構(gòu)建從本質(zhì)上來(lái)看,人工智能教育倫理問(wèn)題是隨著人工智能技術(shù)的發(fā)展及其教育應(yīng)用帶來(lái)的新問(wèn)題,或許我們可以從技術(shù)的角度考慮在一定程度上解決問(wèn)題。第一,植入倫理規(guī)則。我們可以借助新技術(shù)將倫理規(guī)則植入智能系統(tǒng),作為類人必須執(zhí)行的指令,并使得其在教育教學(xué)活動(dòng)中習(xí)得人類倫理,不斷完善自身倫理規(guī)則。需要特別注意的是,植入的倫理規(guī)則不能僅僅圍繞人這個(gè)中心而忽視了機(jī)器人的特殊性,需要以人機(jī)倫理的適應(yīng)性為前提,實(shí)現(xiàn)人與人工智能技術(shù)理性價(jià)值標(biāo)準(zhǔn)的相一致,因此,倫理規(guī)則的植入需要倫理學(xué)家、教育學(xué)家與人工智能設(shè)計(jì)人員共同參與、合力完成[18]。第二,人工干預(yù)。在倫理規(guī)則嵌入之后,仍然需要對(duì)其進(jìn)行人工干預(yù)。由于人工智能具有復(fù)雜性、難預(yù)測(cè)性,所以,在倫理規(guī)則嵌入之后,還要對(duì)其進(jìn)行不斷的評(píng)估和調(diào)試,以便最后真的能建構(gòu)成一套完備的倫理體系。需要特別注意的是,為了防止類人作出違反倫理規(guī)則的行為,在植入倫理規(guī)則的同時(shí),還應(yīng)該預(yù)留“切斷開(kāi)關(guān)”,以便遇到危機(jī)時(shí)能及時(shí)切斷整個(gè)系統(tǒng),從而保障安全。(三)法律約束針對(duì)人類與人工智能愈加模糊的人機(jī)界限,政府需要出臺(tái)相關(guān)法律規(guī)定人工智能的角色地位,明確其權(quán)利與責(zé)任,并確定六類利益相關(guān)人員(智能系統(tǒng)創(chuàng)建者、智能系統(tǒng)使用者、智能系統(tǒng)監(jiān)測(cè)員、智能決策主體和決策執(zhí)行者、數(shù)據(jù)主體)[19]的權(quán)利與責(zé)任,以保證人工智能系統(tǒng)的穩(wěn)定性、透明性和可解釋性??紤]到人工智能教育倫理問(wèn)題的復(fù)雜性,其治理涉及社會(huì)不同層面,治理范圍大并且技術(shù)專業(yè)性極強(qiáng),僅靠立法難免顧此失彼,因此,在法律約束的基礎(chǔ)上,仍然需要政府、非政府組織與個(gè)人之間開(kāi)展合作,緊密配合、協(xié)同治理。(四)聚焦實(shí)踐教育存在中不可或缺的活動(dòng)以及與這些活動(dòng)密切聯(lián)系在一起的情感,是倫理生活的“宇宙根源”。當(dāng)法律、倫理準(zhǔn)則以及習(xí)俗都不能保證人與類人的行為具有規(guī)范性時(shí),具體情境中的以解決教育痛點(diǎn)問(wèn)題、關(guān)鍵問(wèn)題為導(dǎo)向的向善的人工智能教育實(shí)踐活動(dòng)就體現(xiàn)出了它們的力量。實(shí)際上,這也是應(yīng)對(duì)智能教育倫理挑戰(zhàn)的根本出路??梢赃@樣認(rèn)為,包括人工智能教育倫理問(wèn)題在內(nèi)的所有人工智能倫理問(wèn)題的根源就在于人工智能的智慧不足。若類人的人工智能智慧與人類相當(dāng)或接近,那么問(wèn)題反倒簡(jiǎn)單了,我們依據(jù)人的教育倫理規(guī)約即可。問(wèn)題是與我們相處的是一些類人,或者更準(zhǔn)確地說(shuō)是一些有特殊才能的類人,而且類人是多樣的、復(fù)雜的,更為重要的是,它們還是不斷“進(jìn)化”的,由此,習(xí)俗遷移、規(guī)范建立、法律約束都可能滯后于火熱的人工智能教育實(shí)踐。因此,聚焦人工智能教育實(shí)踐,聚焦現(xiàn)實(shí)的、真實(shí)的問(wèn)題解決,在技術(shù)上精進(jìn)發(fā)展,使人工智能更具智慧,使類人更像人,在教育上人類與類人統(tǒng)力合作,為人類的美好未來(lái)努力奮斗,才是應(yīng)對(duì)弱人工智能教育倫理挑戰(zhàn)的根本出路。五、結(jié)語(yǔ)當(dāng)前學(xué)界關(guān)于弱人工智能教育倫理問(wèn)題的考量并沒(méi)有脫離“人類中心主義”的思維范式。在這種思維范式中,盡管我們考慮到了主體人的發(fā)展性,考慮到了類人對(duì)人的影響性,但是,總體而言,我們依然是以人為界的。以人為界討論弱人工智能教育倫理是沒(méi)有問(wèn)題的,畢竟我們都是歷史的、具體的人,到目前為止,我們所認(rèn)識(shí)的世界依然是以人類為中心的世界。問(wèn)題是當(dāng)我們仰望浩瀚的星空,將人工智能教育倫理問(wèn)題置于波瀾壯闊的物質(zhì)運(yùn)動(dòng)歷史之中,不難發(fā)現(xiàn)“人為上帝”之界終將被突破。這并不是說(shuō)人工智能最終一定會(huì)完全替代人類,而是說(shuō)舊人類一定會(huì)被新人類取代。新人類或許就是碳基生命與硅基生命融合生成的“奇點(diǎn)人”[20]。若如此,強(qiáng)人工智能抑或超人工智能教育倫理問(wèn)題又會(huì)是一個(gè)怎樣的情形?這自然已經(jīng)超越了我們的想象。然而,未來(lái)已來(lái),對(duì)處于從弱人工智能到強(qiáng)人工智能窗口期的人類,審慎樂(lè)觀、密切關(guān)注、積極應(yīng)對(duì)類人的發(fā)展,尤其是要聚精會(huì)神于人與類人的融合發(fā)展,或許是我們的唯一選擇?!緟⒖嘉墨I(xiàn)】吳河江,涂艷國(guó),譚轢紗.人工智能時(shí)代的教育風(fēng)險(xiǎn)及其規(guī)避[J].現(xiàn)代教育技術(shù),2020,30(4):18-24.杜靜,黃榮懷,李政璇,周偉,田陽(yáng).智能教育時(shí)代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J].電化教育研究,2019(7):21-29.馮銳,孫佳晶,孫發(fā)勤.人工智能在教育應(yīng)用中的倫理風(fēng)險(xiǎn)與理性抉擇卩].遠(yuǎn)程教育雜志,2020(3):47-54.中國(guó)社會(huì)科學(xué)院語(yǔ)言研究所詞典編輯室.現(xiàn)代漢語(yǔ)詞典[M].3版北京:商務(wù)印書(shū)館,1996:852.羅素?西方哲學(xué)史[M].何兆武,李約瑟,譯?北京:商務(wù)印書(shū)館,1982:178.ANDERSONM,ANDERSONS,ARMENC.Towardsmachineethics:implementingtwoaction-basedethicaltheories[C]//ANDERSONM,ANDERSONS,ARMENC.Machineethics:papersfromtheAAAIFallSymposium,TechnicalReportFS-05-06.MenloPark:AAAIPress,2005:17.李波,李倫.技術(shù)信息超現(xiàn)實(shí)問(wèn)題的倫理反思——基于伯格曼的技術(shù)哲學(xué)和信息哲學(xué)[J].自然辯證法研究,2017⑵:32-34.VERBEEKPP.Devicesofengagement:onBorgmann'sphilosophyofinformationandtechnology[J].Techne:researchinphilosophyandtechnology,2002,6(1):48-63.劉曉琳,張立國(guó).技術(shù)增強(qiáng)型學(xué)習(xí)環(huán)境中的“離心效應(yīng)”:現(xiàn)象

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論