《人工智能基礎(chǔ)》課件-6.人類與人工智能如何和平相處_第1頁
《人工智能基礎(chǔ)》課件-6.人類與人工智能如何和平相處_第2頁
《人工智能基礎(chǔ)》課件-6.人類與人工智能如何和平相處_第3頁
《人工智能基礎(chǔ)》課件-6.人類與人工智能如何和平相處_第4頁
《人工智能基礎(chǔ)》課件-6.人類與人工智能如何和平相處_第5頁
已閱讀5頁,還剩84頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人類與人工智能如何和平相處知識目標(biāo)了解人工智能面臨的技術(shù)難題及道德責(zé)任了解人工智能設(shè)計(jì)的倫理規(guī)范能力目標(biāo)能夠按照人工智能技術(shù)倫理規(guī)范使用人工智能技術(shù)能夠遵循人工智能技術(shù)中的倫理道德做出正確行為學(xué)習(xí)目標(biāo)26.1AI的挑戰(zhàn):技術(shù)視角36.1.1算法化難題4機(jī)器能否模擬人的思維?人腦看圖識別貓5

就像小朋友們只看過一張貓的圖片,就能識別出貓這個(gè)動(dòng)物,而且還能把貓抽象出來。機(jī)器訓(xùn)練識別貓6

機(jī)器需要幾萬張圖像去訓(xùn)練,才能相對準(zhǔn)確地識別出哪些圖像是貓。組合爆炸問題

一張紙折疊50次的厚度是多少?7舉例:結(jié)論:通過經(jīng)典數(shù)理邏輯的方法實(shí)現(xiàn)不了真正的人工智能,科學(xué)家需要找到其他辦法來解決所遇到的難題。人腦與計(jì)算機(jī)的差異8

人類的大腦的復(fù)雜程度遠(yuǎn)遠(yuǎn)地超出人們的想象。雖然計(jì)算機(jī)是模仿人腦發(fā)展起來的,以代替人腦的部分功能為目標(biāo),在結(jié)構(gòu)和運(yùn)行機(jī)制方面都有很多與人腦看起來相似的地方,但是一個(gè)有理智的人決不會(huì)把兩者看成是同一種東西。人腦9

人腦中有大約860億個(gè)神經(jīng)元以及將這些神經(jīng)元連接在一起的100萬億個(gè)互連物,每個(gè)神經(jīng)元的連接點(diǎn)上都擁有1000多個(gè)蛋白質(zhì)。精確的大腦生物模型必須包括細(xì)胞類型,神經(jīng)遞質(zhì),神經(jīng)調(diào)節(jié)劑,軸突分支和樹突棘之間的大約225,000,000,000,000,000次的相互作用。計(jì)算機(jī)10

我們?nèi)粘K褂玫挠?jì)算機(jī),實(shí)際上只是我們用于處理信息的機(jī)器,信息被編碼成計(jì)算機(jī)可以識別的格式,錄入原始數(shù)據(jù),在計(jì)算機(jī)內(nèi)部進(jìn)行運(yùn)算。

目前,盡管機(jī)器學(xué)習(xí)和深度學(xué)習(xí)在語音、圖像、文本識別上有了長足的進(jìn)步,例如智能手機(jī)已經(jīng)能夠識別人臉或者語言,然而,當(dāng)需要實(shí)現(xiàn)更加復(fù)雜的應(yīng)用時(shí),仍然會(huì)受到計(jì)算機(jī)的限制。思考與討論11人工智能現(xiàn)在“智力”如何?有什么能做,有什么不能做?6.1.2信息處理難題12將機(jī)器人帶入真實(shí)世界會(huì)發(fā)生什么?挑戰(zhàn)1:對不同規(guī)模的機(jī)器人群體最有效的控制方式13挑戰(zhàn)2:創(chuàng)建能夠適應(yīng)、學(xué)習(xí)和從導(dǎo)航失敗中恢復(fù)的系統(tǒng)14

這需要高度的自主性,讓機(jī)器人能夠?qū)ψ约哼M(jìn)行監(jiān)控和重新設(shè)置,同時(shí)能夠利用具有不同可靠性和準(zhǔn)確性的多個(gè)數(shù)據(jù)源構(gòu)建一個(gè)世界的圖像。挑戰(zhàn)3:醫(yī)學(xué)領(lǐng)域高風(fēng)險(xiǎn)的環(huán)境中提高這些系統(tǒng)的自主性15

自動(dòng)化機(jī)器人助手需要能夠在各種場景中識別人體構(gòu)造,并能夠使用態(tài)勢感知和語音指令來理解不同場景下的需求。實(shí)踐任務(wù)16使用訊飛輸入法體會(huì)極速語音輸入、“隨聲譯”、手寫輸入、智能拼音輸入、個(gè)性擴(kuò)展等功能。6.1.3自學(xué)習(xí)17每一個(gè)時(shí)代的終結(jié),都是另一個(gè)時(shí)代的開始。人工智能讓人生畏的地方?自學(xué)習(xí)的可怕之處:18

DeepMind在《Nature》雜志發(fā)表論文《不使用人類知識掌握圍棋》,也就是說,AlphaGoZero與AlphaGo不同,它不是通過“學(xué)習(xí)”人類棋手的經(jīng)驗(yàn)提升自己,而是利用了一種新的強(qiáng)化學(xué)習(xí)方式,簡而言之,在這個(gè)過程中,AlphaGoZero成為自己的老師。算法和大數(shù)據(jù)的較量:19

從算法的角度來看,問題需要有一個(gè)“目標(biāo)函數(shù)”——一個(gè)需要解決的目標(biāo)。當(dāng)AlphaGoZero下棋時(shí),這個(gè)目標(biāo)并不難。失敗計(jì)為負(fù)1,平局為零,勝利為加1。AlphaGoZero的目標(biāo)功能是使分?jǐn)?shù)最大化。又如撲克機(jī)器人的目標(biāo)功能非常簡單:贏得大量資金。真實(shí)情況并非如此簡單。微軟在2016年3月23日發(fā)布的Twitter聊天機(jī)器人Tay,它的目標(biāo)是讓人們參與進(jìn)來,它做到了。不幸的是,Tay被發(fā)現(xiàn)在最大限度的參與聊天時(shí),它出現(xiàn)了種族主義的侮辱性話語。

AI研究的目標(biāo):20

AI研究的一個(gè)長久目標(biāo)就是,創(chuàng)建在最有難度的領(lǐng)域中無需人類輸入就能達(dá)到超人性能的算法。拓展視野21監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)6.1.4奇點(diǎn)22在人工智能、預(yù)見未來的領(lǐng)域里,奇點(diǎn)大學(xué)是無法避開的話題。

奇點(diǎn)時(shí)刻:23

奇點(diǎn)發(fā)生時(shí)刻,那時(shí)的世界可能面目全非。超人工智能什么時(shí)候會(huì)實(shí)現(xiàn)?什么時(shí)候奇點(diǎn)來臨?

人工智能演進(jìn)速度:24

從智能的大局來看,人和人工智能的差別,比如從最幼稚的人到愛因斯坦的差距,其實(shí)是不大的。所以當(dāng)人工智能達(dá)到了嬰兒級別的智能后,它會(huì)很快變得比愛因斯坦更加聰明。

究竟是福還是禍?25

人類未來,因?yàn)槿斯ぶ悄芷纥c(diǎn)到來將會(huì)怎樣?這既是個(gè)重大的理論問題,也是個(gè)重大的現(xiàn)實(shí)問題。

這一爭論或許只有等到那一天真正到來才有定論。我們應(yīng)當(dāng)十分清醒而理智地思考人工智能奇點(diǎn)可能給我們帶來的風(fēng)險(xiǎn)和挑戰(zhàn),并采取正確的應(yīng)對措施。思考與討論26你如何看待奇點(diǎn)?如何應(yīng)對?6.2AI的挑戰(zhàn):人文視角276.2.1智能駕駛的道德責(zé)任歸屬28解放雙手,讓駕駛成為樂趣;解決高速或城市環(huán)線的交通擁堵;降低交通事故發(fā)生率;甚至可以提升汽車燃油經(jīng)濟(jì)性。自動(dòng)駕駛的倫理道德和法律問題29

當(dāng)汽車在高速公路上行駛時(shí),一只松鼠忽然竄上馬路,駕駛員是否應(yīng)該做出停車的判斷?

但如果將松鼠換成人類呢?倫理學(xué)上著名的難題—電車難題30

一輛失控的電車朝五個(gè)人駛來,片刻后就要壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車開到另一條軌道上,然而問題在于,在另一條電車軌道上也有一個(gè)人,那么,你是否應(yīng)該拉這根桿?31

自動(dòng)駕駛系統(tǒng)道德選擇背后涉及的是極大的倫理問題。在兩難問題中對任何一方的偏袒都會(huì)涉及到對另一方的歧視。

所有的生命都應(yīng)該被平等地重視,并且應(yīng)該禁止根據(jù)性別、年齡、種族、身體屬性等因素來做選擇。自動(dòng)駕駛道德困境的復(fù)雜之處自動(dòng)駕駛的最終目標(biāo)32

從技術(shù)上消除交通事故或者將交通事故對人類的傷害降到最低。

關(guān)于交通事故不可避免時(shí)的道德判斷標(biāo)準(zhǔn),沒有公司或者個(gè)人有權(quán)力或者愿意決定處于危急關(guān)頭時(shí)任何一個(gè)人的性命,畢竟每個(gè)人都只有一次生的機(jī)會(huì),而沒有一條生命是能被放棄的。自動(dòng)駕駛的道德責(zé)任歸屬33

在自動(dòng)駕駛飛速發(fā)展的時(shí)代,如何能通過算法來掌握“生殺大權(quán)”呢?

我們希望能夠借助算法幫我們實(shí)現(xiàn)更為準(zhǔn)確的判斷。但目前來看,算法并不是萬能的,自動(dòng)駕駛的道德困境仍然存在。因此在很長一段時(shí)間內(nèi),自動(dòng)駕駛汽車還會(huì)繼續(xù)保留由人類進(jìn)行接管的功能。拓展視野34德國政府頒布自動(dòng)駕駛倫理道德標(biāo)準(zhǔn)

20條準(zhǔn)則中最關(guān)鍵的部分準(zhǔn)則如下:●當(dāng)自動(dòng)駕駛車輛對于事故無可避免時(shí),不得存在任何基于年齡,性別,種族,身體屬性或任何其他區(qū)別因素的歧視判斷?!窦词故怯勺詣?dòng)駕駛系統(tǒng)進(jìn)行駕駛,也必須遵守已經(jīng)明確的道路法規(guī)?!褡詣?dòng)駕駛車輛必須配置永續(xù)記錄和存儲(chǔ)行車數(shù)據(jù)的“黑匣子”,用以劃分責(zé)任歸屬?!窈谙蛔铀涗浀臄?shù)據(jù)的唯一所有權(quán)屬于自動(dòng)駕駛汽車,交由第三方保管或轉(zhuǎn)發(fā)需獲得授權(quán)?!袢祟悜?yīng)該在更多道德模棱兩可的事件中重新獲得車輛的控制權(quán),而不應(yīng)完全依賴于自動(dòng)駕駛汽車的反應(yīng)。6.2.2虛擬智能技術(shù)的倫理后果35

虛擬現(xiàn)實(shí)技術(shù)通過計(jì)算機(jī)和相關(guān)感知設(shè)備,創(chuàng)造出虛擬世界,讓人們在“這個(gè)世界”中有接近真實(shí)世界的體驗(yàn)和感受。36挑戰(zhàn)1:虛擬替身技術(shù)帶來倫理上的擔(dān)憂

著名電影《阿凡達(dá)》中杰克·薩利在潘多拉星球上的“替身”現(xiàn)象,就會(huì)真真切切地出現(xiàn)了。挑戰(zhàn)2:虛擬現(xiàn)實(shí)對人的行為產(chǎn)生影響37

一個(gè)人在虛擬環(huán)境下被賦予比自身更為年長的身份,回歸現(xiàn)實(shí)后,他可能更傾向于購買養(yǎng)老產(chǎn)品或預(yù)留養(yǎng)老金。他強(qiáng)調(diào),虛擬現(xiàn)實(shí)不僅會(huì)改變?nèi)祟悓θ诵缘囊话憷斫猓踔習(xí)绊懙饺祟悓ι矸萁y(tǒng)一、意識經(jīng)驗(yàn)、自私、真?zhèn)?、?shí)在等具體概念的理解。挑戰(zhàn)3:精神倫理、道德倫理面臨著顛覆性風(fēng)險(xiǎn)38

人們在沉浸虛擬空間時(shí),由于主體間缺乏交流而產(chǎn)生“自閉”心態(tài),進(jìn)而對現(xiàn)實(shí)世界漠不關(guān)心,甚至產(chǎn)生反感和抵觸情緒。從更宏觀的視角來看,在這樣的虛擬空間中,基于傳統(tǒng)人際互動(dòng)建立起來的忠誠、信任、正義等價(jià)值都可能被顛覆并解構(gòu)。基于傳統(tǒng)認(rèn)知模式的觀念及真理標(biāo)準(zhǔn)受到龐雜無序的信息洪流的沖擊,可能使人類喪失思考空間和思考能力。虛擬智能技術(shù)的應(yīng)用前景39

虛擬智能技術(shù)還在不斷嘗試突破,應(yīng)用前景不可限量。

雖然智能化的虛擬現(xiàn)實(shí)拓展了人們的生存與活動(dòng)空間,提供了各種新的機(jī)會(huì)和體驗(yàn),但同時(shí)傳統(tǒng)的道德觀和道德情感正在被愚弄,倫理責(zé)任與道德規(guī)范正在被消解,社會(huì)倫理秩序?yàn)l臨瓦解的危險(xiǎn)。思考與討論40

上網(wǎng)搜索并了解虛擬現(xiàn)實(shí)(VR)、增強(qiáng)現(xiàn)實(shí)(AR)、混合現(xiàn)實(shí)(MR)、擴(kuò)展現(xiàn)實(shí)(XR)等虛擬智能技術(shù),并討論他們會(huì)帶來哪些倫理問題?6.2.3隱私權(quán)受到前所未有的威脅41

隱私侵犯是人工智能應(yīng)用中必然存在的風(fēng)險(xiǎn)。在人工智能時(shí)代我們會(huì)遭遇哪些隱私風(fēng)險(xiǎn)?如何應(yīng)對?數(shù)據(jù)采集中的隱私侵犯:42

智能系統(tǒng)不僅能通過指紋、心跳等生理特征來辨別身份,還能根據(jù)不同人的行為喜好自動(dòng)調(diào)節(jié)燈光、室內(nèi)溫度,甚至能通過睡眠時(shí)間、鍛煉情況、飲食習(xí)慣以及體征變化等來判斷身體是否健康。然而,這些智能技術(shù)的使用就意味著智能系統(tǒng)掌握了個(gè)人的大量信息,甚至比自己更了解自己。這些數(shù)據(jù)如果使用得當(dāng),可以提升人類的生活質(zhì)量,但如果出于商業(yè)目的非法使用某些私人信息,就會(huì)造成隱私侵犯。知識抽取中的隱私問題43

知識抽取工具正在變得越來越強(qiáng)大,無數(shù)個(gè)看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識別出個(gè)人行為特征甚至性格特征。

但是,這些個(gè)性化定制過程又伴隨著對個(gè)人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護(hù)是需要與技術(shù)應(yīng)用同步考慮的一個(gè)問題。實(shí)踐任務(wù)44登錄某些購物網(wǎng)站,體會(huì)購物網(wǎng)站的個(gè)性化推薦。6.2.4婚戀家庭倫理遭遇嚴(yán)峻挑戰(zhàn)45

現(xiàn)實(shí)中,人工智能會(huì)擁有自主意識,和人類會(huì)產(chǎn)生情感嗎?

人工智能越來越像人,人類對機(jī)器有了感情怎么辦?

人類是否會(huì)與人工智能產(chǎn)生感情46

這將取決于這種過程是否給人類帶來愉悅。正如互聯(lián)網(wǎng)發(fā)展早期的一句常用語所說——在互聯(lián)網(wǎng)上,沒人知道你是一條狗。這表明,當(dāng)人類在不知道溝通者的身份時(shí),只要對方能夠給自己帶來愉悅,感情就可能產(chǎn)生。這可能會(huì)對人類的交往模式帶來影響。

家庭倫理面臨的挑戰(zhàn)47

假如人與人工智能出現(xiàn)類夫妻、父女等情感,將考問現(xiàn)代倫理規(guī)范。由于身體構(gòu)造、生活方式、文化價(jià)值觀和思維方式的差異,人形智能機(jī)器人與人之間的關(guān)系將成為一個(gè)新問題,相互之間的利益、情感糾葛將會(huì)越來越頻繁,越來越難以在傳統(tǒng)的倫理觀念和社會(huì)治理框架內(nèi)加以解決。拓展視野48

《人工智能》是由華納兄弟影片公司于2001年拍攝發(fā)行的一部未來派的科幻類電影。

影片講述21世紀(jì)中期,人類的科學(xué)技術(shù)已經(jīng)達(dá)到了相當(dāng)高的水平,一個(gè)小機(jī)器人為了尋找養(yǎng)母,為了縮短機(jī)器人和人類差距而奮斗的故事。6.3人工智能的倫理規(guī)范496.3.1人工智能社會(huì)倫理50

2017年10月26日,在沙特阿拉伯首都利雅得舉行的“未來投資倡議”大會(huì)上,“女性”機(jī)器人索菲婭被授予沙特公民身份。她也因此成為史上首個(gè)獲得公民身份的機(jī)器人。6.3.1人工智能社會(huì)倫理51在智能機(jī)器人發(fā)展方興未艾的同時(shí)我們也不得不思考其中產(chǎn)生的一些道德倫理問題。首先,最重要的一點(diǎn)是目前還沒能完美地讓機(jī)器人的行為完全符合人的倫理道德規(guī)范,并且不作出傷害人類的事情。還有就是關(guān)于法律權(quán)利的問題。6.3.1人工智能社會(huì)倫理52類似于電車難題一樣的問題,由于大部分道德決策都是根據(jù)“為最多的人提供最大的利益”的原則作出的,那這輛自動(dòng)駕駛汽車毫無疑問會(huì)選擇放棄一個(gè)人而拯救五個(gè)人。但如果這單獨(dú)的一個(gè)人是我們的至親、摯友呢?如果未來的有人駕駛完全被無人駕駛?cè)〈?,那我們就必須接受這種刻板的社會(huì)道德準(zhǔn)則。讓你眼睜睜地看著與你有直接關(guān)系的人的生死掌握在自動(dòng)駕駛汽車的手中,你愿意接受嗎?6.3.1人工智能社會(huì)倫理53在未來,人工智能和人類的界限可能越發(fā)模糊,而兩者的關(guān)系也會(huì)成為疑問。我們可以拔掉人工智能的電線,那我們會(huì)是他們的奴隸主嗎?人工智能會(huì)產(chǎn)生自由的概念嗎?如果將來世界有大量和真人無異的機(jī)器人,人類為了帶來樂趣,可以粗魯?shù)貙Υ麄儐??如果看到人類踢一只機(jī)器狗,我們是否知道狗被編入了疼痛的程序?如果他們感受到疼痛,我們是不是也會(huì)感同身受?6.3.1人工智能社會(huì)倫理54倫理問題是人工智能技術(shù)可能帶給人們的最為特殊的問題。人工智能的倫理問題范圍很廣,其中以下幾個(gè)方面值得關(guān)注。機(jī)器人的行為規(guī)則人工智能正在替代人的很多決策行為,智能機(jī)器人在作出決策時(shí),同樣需要遵從人類社會(huì)的各項(xiàng)規(guī)則。人工智能技術(shù)的應(yīng)用,正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。如果在系統(tǒng)的研發(fā)設(shè)計(jì)中未與社會(huì)倫理約束相結(jié)合,就有可能在決策中遵循與人類不同的邏輯,從而導(dǎo)致嚴(yán)重后果。6.3.1人工智能社會(huì)倫理55機(jī)器人的權(quán)力目前在司法、醫(yī)療、指揮等重要領(lǐng)域,研究人員已經(jīng)開始探索人工智能在審判分析、疾病診斷和對抗博弈方面的決策能力。但是,在對機(jī)器授予決策權(quán)后,人們要考慮的不僅是人工智能的安全風(fēng)險(xiǎn),而且還要面臨一個(gè)新的倫理問題,即機(jī)器是否有資格這樣做。隨著智能系統(tǒng)對特定領(lǐng)域的知識掌握,它的決策分析能力開始超越人類,人們可能會(huì)在越來越多的領(lǐng)域?qū)C(jī)器決策形成依賴,這一類倫理問題也需要在人工智能進(jìn)一步向前發(fā)展的過程中梳理清楚。6.3.1人工智能社會(huì)倫理56機(jī)器人的教育有倫理學(xué)家認(rèn)為,未來機(jī)器人不僅有感知、認(rèn)知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會(huì)形成不同的個(gè)性。國外研發(fā)的某聊天機(jī)器人在網(wǎng)上開始聊天后不到24個(gè)小時(shí),竟然學(xué)會(huì)了說臟話和發(fā)表種族主義的言論,這引發(fā)了人們對機(jī)器人教育問題的思考。盡管人工智能未來未必會(huì)產(chǎn)生自主意識,但可能發(fā)展出不同的個(gè)性特點(diǎn),而這是受其使用者影響的。機(jī)器人使用者需要承擔(dān)類似監(jiān)護(hù)人一樣的道德責(zé)任甚至法律責(zé)任,以免對社會(huì)文明產(chǎn)生不良影響。6.3.1人工智能社會(huì)倫理57新的倫理原則制定也正提上各國政府的議事日程。中國政府2017年7月發(fā)布《新一代人工智能發(fā)展規(guī)劃》時(shí)就指出,建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;2018年4月,歐盟委員會(huì)發(fā)布的文件《歐盟人工智能》提出,需要考慮建立適當(dāng)?shù)膫惱砗头煽蚣?,以便為技術(shù)創(chuàng)新提供法律保障;2019年2月11日,美國總統(tǒng)特朗普簽署行政令,啟動(dòng)“美國人工智能倡議”,該倡議的五大重點(diǎn)之一便是制定與倫理有關(guān)聯(lián)的人工智能治理標(biāo)準(zhǔn)。58

討論在人工智能發(fā)展過程中還有哪些領(lǐng)域存在社會(huì)倫理風(fēng)險(xiǎn)?思考與討論6.3.2人工智能道德算法59很多人都看到過《紐約客》雜志的這張封面,人類坐地乞討,而機(jī)器人則扮演了施予者的角色。雖然圖片描述的情景想象起來有些可怕,但不得不承認(rèn),和其他任何一種技術(shù)革新一樣,AI在帶來價(jià)值的同時(shí)也同樣創(chuàng)造了風(fēng)險(xiǎn)。而且憑借著識別和學(xué)習(xí)能力的特征,AI帶來的負(fù)面影響也可能會(huì)越來越大。目前,最為明顯的負(fù)面影響就是算法歧視。6.3.2人工智能道德算法60

刷臉識別在安防行業(yè)、金融支付行業(yè)、新零售、智慧餐飲的應(yīng)用已不是停留在想象里,而是已經(jīng)頻頻在我們的生活中上演,場景化的應(yīng)用也越來越普及。在信息爆炸的時(shí)代,數(shù)據(jù)的處理、分析、應(yīng)用很多都是由算法來實(shí)現(xiàn)的,越來越多的決策正被算法所取代。

因此,如果將算法應(yīng)用在犯罪評估、信用貸款、雇傭評估等關(guān)系人們切身利益的場合,一旦產(chǎn)生歧視,就可能危害個(gè)人乃至社會(huì)的利益。6.3.2人工智能道德算法61

針對人工智能應(yīng)用的潛在風(fēng)險(xiǎn),國際社會(huì)在標(biāo)準(zhǔn)設(shè)計(jì)、倫理道德等方面提出了一系列試圖控制智能機(jī)器系統(tǒng)的方案,逐漸形成一個(gè)共識原則:通過算法給智能機(jī)器嵌入人類的價(jià)值觀和規(guī)范,以此讓它們具有和人類一樣的同情心、責(zé)任心、羞恥感等倫理道德。

實(shí)際上,通過編寫代碼和算法來控制機(jī)器的設(shè)想并不新鮮。70多年前,美國科幻作家阿西莫夫提出“機(jī)器人三定律”,構(gòu)想了通過內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”,設(shè)定機(jī)器人不得危害人類的原則。而今,計(jì)算機(jī)專家、倫理學(xué)家、社會(huì)學(xué)家、心理學(xué)家等正在共同努力,走在實(shí)踐這一設(shè)想的路上。6.3.2人工智能道德算法62美國人阿西莫夫在短篇科幻小說《轉(zhuǎn)圈圈》(1942)中,提出了按優(yōu)先順序排列的機(jī)器人三定律:●第一定律,機(jī)器人不得傷害人類或坐視人類受到傷害;●第二定律,在與第一定律不相沖突的情況下,機(jī)器人必須服從人類的命令;●第三定律,在不違背第一與第二定律的前提下,機(jī)器人有自我保護(hù)的義務(wù)。此后,為了克服第一定律的局限性,他還提出了優(yōu)先級更高的機(jī)器人第零定律:機(jī)器人不得危害人類整體或坐視人類整體受到危害。6.3.2人工智能道德算法63讓機(jī)器符合人類道德規(guī)范,學(xué)界大體有3種設(shè)想:一是自上而下,即在智能體中預(yù)設(shè)一套倫理規(guī)范,如自動(dòng)駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低;二是自下而上,即機(jī)器通過數(shù)據(jù)驅(qū)動(dòng),學(xué)習(xí)人類的倫理德道規(guī)范;三是人機(jī)交互,即讓智能體用自然語言解釋其決策,使人類能把握其復(fù)雜的邏輯并及時(shí)糾正可能存在的問題。人工智能倫理研究目前沒有一套普遍原則,因此可以從應(yīng)用中遇到的實(shí)例出發(fā),找到價(jià)值沖突點(diǎn),討論需要作哪些倫理考慮。比如針對偏見,有必要追溯到機(jī)器學(xué)習(xí)的數(shù)據(jù)中,完善數(shù)據(jù)信息,并改進(jìn)算法,讓人工智能判斷盡量客觀公正,符合人類的價(jià)值觀。64

登錄Face++曠視人工智能開放平臺或者Face++技術(shù)體驗(yàn)小程序,實(shí)踐人臉分析、情緒識別、人臉比對、人臉融合等功能。實(shí)踐任務(wù)6.3.3人工智能設(shè)計(jì)倫理65美國電氣和電子工程師協(xié)會(huì)(IEEE)宣布了三項(xiàng)新的人工智能倫理標(biāo)準(zhǔn)。第一標(biāo)準(zhǔn):“機(jī)器化系統(tǒng)、智能系統(tǒng)和自動(dòng)系統(tǒng)的倫理推動(dòng)標(biāo)準(zhǔn)”。這個(gè)標(biāo)準(zhǔn)探討了“推動(dòng)”,在人工智能世界里,它指的是影響人類行為的微妙行動(dòng)。第二標(biāo)準(zhǔn):自動(dòng)和半自動(dòng)系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)”。它包含了自動(dòng)技術(shù),如果它們發(fā)生故障,可能會(huì)對人類造成危害。就目前而言,最明顯的問題是自動(dòng)駕駛汽車。第三標(biāo)準(zhǔn):“道德化的人工智能和自動(dòng)系統(tǒng)的福祉衡量標(biāo)準(zhǔn)”。它闡述了進(jìn)步的人工智能技術(shù)如何有益于人類的益處。6.3.3人工智能設(shè)計(jì)倫理66人類社會(huì)即將進(jìn)入人機(jī)共存的時(shí)代,為確保機(jī)器人和人工智能系統(tǒng)運(yùn)行受控,且與人類能和諧共處,在設(shè)計(jì)、研發(fā)、生產(chǎn)和使用過程中,需要采取一系列的應(yīng)對措施,妥善應(yīng)對人工智能的安全、隱私、倫理問題和其他風(fēng)險(xiǎn)。加強(qiáng)理論攻關(guān),研發(fā)透明性和可解釋性更高的智能計(jì)算模型。當(dāng)前的機(jī)器學(xué)習(xí)模型仍屬于一種黑箱工作模式,對于AI系統(tǒng)運(yùn)行中發(fā)生的異常情況,人們還很難對其中的原因作出解釋,開發(fā)者也難以準(zhǔn)確預(yù)測和把握智能系統(tǒng)運(yùn)行的行為邊界。未來人們需要研發(fā)更為透明、可解釋性更高的智能計(jì)算模型,開發(fā)可解釋、可理解、可預(yù)測的智能系統(tǒng),降低系統(tǒng)行為的不可預(yù)知性和不確定性,這應(yīng)成為人工智能基礎(chǔ)理論研究的關(guān)注重點(diǎn)之一。6.3.3人工智能設(shè)計(jì)倫理67制定倫理準(zhǔn)則,完善人工智能技術(shù)研發(fā)規(guī)范。需要建立起人工智能技術(shù)研發(fā)的倫理準(zhǔn)則,指導(dǎo)機(jī)器人設(shè)計(jì)研究者和制造商如何對一個(gè)機(jī)器人做出道德風(fēng)險(xiǎn)評估,并形成完善的人工智能技術(shù)研發(fā)規(guī)范,以確保人工智能系統(tǒng)的行為符合社會(huì)倫理道德標(biāo)準(zhǔn)。北京智源人工智能研究院人工智能倫理與安全研究中心在發(fā)布會(huì)中揭牌成立6.3.3人工智能設(shè)計(jì)倫理68提高安全標(biāo)準(zhǔn),推行人工智能產(chǎn)品安全認(rèn)證。可靠的人工智能系統(tǒng)應(yīng)具有強(qiáng)健的安全性能,能夠適應(yīng)不同的工況條件,并能有效應(yīng)對各類蓄意攻擊,避免因異常操作和惡意而導(dǎo)致安全事故。這一方面需要提高人工智能產(chǎn)品研發(fā)的安全標(biāo)準(zhǔn),從技術(shù)上增強(qiáng)智能系統(tǒng)的安全性和強(qiáng)健性,比如完善芯片設(shè)計(jì)的安全標(biāo)準(zhǔn)等;另一方面要推行智能系統(tǒng)安全認(rèn)證,對人工智能技術(shù)和產(chǎn)品進(jìn)行嚴(yán)格測試,增強(qiáng)社會(huì)公眾信任,保障人工智能產(chǎn)業(yè)健康發(fā)展。6.3.3人工智能設(shè)計(jì)倫理69建立監(jiān)管體系,強(qiáng)化人工智能技術(shù)和產(chǎn)品的監(jiān)督。由于智能系統(tǒng)在使用過程中會(huì)不斷進(jìn)行自行學(xué)習(xí)和探索,很多潛在風(fēng)險(xiǎn)難以在研發(fā)階段或認(rèn)證環(huán)節(jié)完全排除,因此加強(qiáng)監(jiān)管對于應(yīng)對人工智能的安全、隱私和倫理等問題至關(guān)重要。需要在國家層面建立一套公開透明的人工智能監(jiān)管體系,實(shí)現(xiàn)對人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)、數(shù)據(jù)采集和產(chǎn)品應(yīng)用的全流程監(jiān)管,加強(qiáng)對違規(guī)行為的懲戒,督促人工智能行業(yè)和企業(yè)自律。70使用清華大學(xué)自然語言處理與社會(huì)人文計(jì)算實(shí)驗(yàn)室開發(fā)的“九歌——計(jì)算機(jī)詩詞創(chuàng)作系統(tǒng)”進(jìn)行集句詩、絕句、藏頭詩、詞創(chuàng)作。實(shí)踐任務(wù)6.3.4人工智能的二十三條軍規(guī)712017年1月,在加利福尼亞州阿西洛馬舉行的BeneficialAI會(huì)議上,特斯拉CEO埃隆·馬斯克、DeepMind創(chuàng)始人戴米斯·哈薩比斯以及近千名人工智能和機(jī)器人領(lǐng)域的專家,聯(lián)合簽署了阿西洛馬人工智能23條原則,呼吁全世界在發(fā)展人工智能的同時(shí)嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。6.4暢想未來:人類與人工智能和平共處726.4.1砸了誰的飯碗?73人工智能應(yīng)用場景6.4.1砸了誰的飯碗?74當(dāng)機(jī)器越來越像人,能夠做人的工作,這是否意味著它們會(huì)搶走人類的飯碗?6.4.1砸了誰的飯碗?75中國保障學(xué)會(huì)會(huì)長、中國人民大學(xué)教授鄭功成認(rèn)為,基于人工智能的發(fā)展現(xiàn)狀和特點(diǎn),未來人工智能對就業(yè)的沖擊可能體現(xiàn)在三方面:一是基于提高勞動(dòng)生產(chǎn)率和降低勞動(dòng)成本的需要。如制造業(yè)中智能機(jī)器人對生產(chǎn)流水線工人的替代、智能化信息系統(tǒng)對手工作業(yè)的替代等。二是基于風(fēng)險(xiǎn)與質(zhì)量的需要。用人工智能填補(bǔ)勞動(dòng)者自然退出的高風(fēng)險(xiǎn)崗位或短缺崗位,特別是采掘、高空、探險(xiǎn)及其他危險(xiǎn)性很高的作業(yè),以及對精密度要求高的崗位。第三類是基于生活和樂趣的需要。比如家政機(jī)器人、情感陪護(hù)機(jī)器人、娛樂機(jī)器人等。6.4.1砸了誰的飯碗?76至于什么類型的工作可能會(huì)被人工智能替代?既不需要?jiǎng)?chuàng)造力也不需要同情心的工作,比如洗碗工、客戶支持、電話銷售、保安等,可能會(huì)完全由人工智能來完成。對于創(chuàng)造力和同情心二者需要其一的,人類和人工智能將協(xié)作完成,人工智能將承擔(dān)更多程序化的工作,來提升效率。比如,通過微創(chuàng)方法,實(shí)施復(fù)雜外科手的高級機(jī)器人平臺——達(dá)·芬奇手術(shù)系統(tǒng)目前在全球已經(jīng)裝配了3000多臺,完成了300萬例手術(shù)。。只有既需要?jiǎng)?chuàng)造力又需要同情心的工作,像CEO,才需要人類來獨(dú)立主導(dǎo)完成。硅谷酒店的服務(wù)機(jī)器人IBM醫(yī)療機(jī)器人沃森6.4.1砸了誰的飯碗?77人工智能的廣泛應(yīng)用也會(huì)帶動(dòng)產(chǎn)業(yè)鏈中數(shù)據(jù)科學(xué)家、軟件程序員、數(shù)據(jù)標(biāo)注員、機(jī)器檢修師等新的崗位需求。因此,人工智能對人類的工作并非完全替代,只是工作內(nèi)容和結(jié)構(gòu)上的調(diào)整和創(chuàng)新。而且能夠讓人們有更多的時(shí)間和精力去做更有意義、創(chuàng)造更多價(jià)值的工作,從而提高了個(gè)人生產(chǎn)率和整個(gè)社會(huì)的運(yùn)轉(zhuǎn)效率。也就是說,人工智能會(huì)砸掉一些飯碗,也會(huì)端來一些新的飯碗,還會(huì)讓一些飯碗換一種吃法。78討論社會(huì)管理層面如何提前研判籌劃,在高效利用人工智能增加社會(huì)財(cái)富的同時(shí),有效應(yīng)對“人工智能”給企業(yè)和個(gè)人帶來的沖擊?思考與討論6.4.2新的生產(chǎn)力79專家認(rèn)為,人工智能將創(chuàng)造兩大類新的就業(yè)機(jī)會(huì)——研發(fā)將成為最普通的工種。被機(jī)器取代的工人,可以通過培訓(xùn)和學(xué)習(xí)向機(jī)器管理人員轉(zhuǎn)變,負(fù)責(zé)機(jī)器的日常操作和性能維護(hù),向高級崗位流動(dòng)。另一方面,人工智能導(dǎo)致現(xiàn)有產(chǎn)業(yè)鏈的顛覆及變革,催生新的產(chǎn)業(yè)、產(chǎn)品和服務(wù),創(chuàng)造出新的崗位。6.4.2新的生產(chǎn)力80那些被解放出的勞動(dòng)力該去哪兒呢?人可以尋找新的定位和職業(yè),把最重要、最高級的任務(wù)留給人類自己,這才是資源集中和高效智能的社會(huì)。拜人工智能所賜,智力水平較高的人可以擺脫重復(fù)性勞動(dòng)、專心從事創(chuàng)造性勞動(dòng),例如從事科學(xué)技術(shù)的研究,或進(jìn)行文學(xué)、電影、戲劇等藝術(shù)創(chuàng)作。從事創(chuàng)造性勞動(dòng)的人的基數(shù)將大大增加,使人類的科學(xué)和藝術(shù)呈現(xiàn)空前的繁榮。6.4.2新的生產(chǎn)力81人工智能使得勞動(dòng)人口中直接從事生產(chǎn)性勞動(dòng)的人的比例下降,不再需要很多的工人和農(nóng)民。被釋放出來的勞動(dòng)力應(yīng)該做什么呢?最合理的方向莫過

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論