人工智能如何德才兼?zhèn)鋉第1頁
人工智能如何德才兼?zhèn)鋉第2頁
人工智能如何德才兼?zhèn)鋉第3頁
人工智能如何德才兼?zhèn)鋉第4頁
人工智能如何德才兼?zhèn)鋉第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、    人工智能如何“德才兼?zhèn)洹?#160;   溫新紅1956年夏季,當(dāng)一批年輕的科學(xué)家首次提出“人工智能”這一術(shù)語,想必他們是激動的。在經(jīng)過了緩慢發(fā)展的一段時間后,得益于大數(shù)據(jù)驅(qū)動、硬件技術(shù)的不斷發(fā)展、計算能力的提升、深度學(xué)習(xí)算法等帶來的數(shù)據(jù)智能和感知智能上的突破,才使得人工智能近些年快速發(fā)展?!霸谌斯ぶ悄艿陌l(fā)展和應(yīng)用中,倫理必須占據(jù)中心地位。”今年4月,英國上議院出了一份長達183頁的報告人工智能在英國:充分準(zhǔn)備、意愿積極、能力爆棚?,不僅說了人工智能在英國的發(fā)展,更聚焦于倫理道德問題那些ai可能為人類帶來的風(fēng)險。在機器人原則與倫理標(biāo)準(zhǔn)方面,日本、韓國、英國

2、、歐洲和聯(lián)合國教科文組織等相繼推出了多項倫理原則、規(guī)范、指南和標(biāo)準(zhǔn)。2016年,聯(lián)合國教科文組織發(fā)布了機器人倫理報告初步草案,該草案不僅探討了社會、醫(yī)療、健康、軍事、監(jiān)控、工作中的機器人倫理問題,最后還對運用機器倫理制造道德機器進行了討論。20162017年,電氣電子工程師協(xié)會(ieee)頒布了人工智能設(shè)計的倫理準(zhǔn)則的第一版和第二版。目前,中國相關(guān)部門也正在積極地開展人工智能的標(biāo)準(zhǔn)研究。無疑,人們在探討人工智能帶來的倫理問題的同時,還在思考怎樣才能解決這些倫理問題,盡管離解決問題還有些距離。機器有偏見今年5月,滴滴順風(fēng)車司機殺害女乘客事件發(fā)生后,有網(wǎng)友爆出,滴滴順風(fēng)車司機通過平臺軟件,在接單前

3、可以看到以前司機對乘客的全部評價,而這些評價中就包括對女性乘客外貌的評價。這是因為平臺軟件上增加了社交功能。今年2月,紐約時報英文網(wǎng)站發(fā)表了一篇文章,指出如今非常熱門的人工智能應(yīng)用人臉識別,針對不同種族的準(zhǔn)確率差異巨大。這讓人們意識到,人工智能系統(tǒng)確實可能存在偏見。人工智能帶來的文化偏見的例子還有很多,如詞語“女性”“婦女”與藝術(shù)人文類職業(yè)以及家庭聯(lián)系更緊密,詞語“男性”“男人”則和數(shù)學(xué)、工程類職業(yè)更近。尤為危險的是,ai還有強化所習(xí)得的偏見的潛能,它們不像人可以有意識地去抵制偏見。不用說,當(dāng)下時不時就會看到人工智能的新聞,且多是對人們生活已造成或者可能造成負(fù)面影響的消息。又比如這兩天在國內(nèi)出

4、現(xiàn)的手機任意調(diào)動攝像頭事件,人們震驚于原來有的手機會自動把攝像頭打開。顯然,人工智能的倫理問題比以往技術(shù)帶給人類的更為復(fù)雜。美國耶魯大學(xué)教授溫德爾·瓦拉赫表示,人工智能是一種認(rèn)知技術(shù),是區(qū)別于過去的技術(shù)發(fā)展。過去的技術(shù)發(fā)展確實能取代一部分人類的勞動,但通常不包括人類的精神活動。而人工智能可能會在更廣泛的領(lǐng)域內(nèi)取代人類的工作。技術(shù)帶來的倫理問題本質(zhì)上是相同的。但隨著新技術(shù)的發(fā)展,這些問題會以新的形式出現(xiàn)。這里不僅包括人工智能,也包括其他新興技術(shù)。“但不同的是,人工智能不僅僅是一個特定的應(yīng)用,或者一組應(yīng)用,它是一項幾乎可以應(yīng)用于生活的每一個方面的技術(shù)?!眰惱碛腥蔽弧叭斯ぶ悄芎桶C器人在

5、內(nèi)的智能化自動系統(tǒng)的普遍應(yīng)用,不僅僅是一場結(jié)果未知的開放性的科技創(chuàng)新,更將是人類文明史上影響至為深遠的社會倫理試驗。”中國社會科學(xué)院研究員段偉文近些年致力于人工智能的倫理研究,他表達了自己的擔(dān)憂。對于前面提到滴滴順風(fēng)車司機殺害女乘客的事件,段偉文分析,作為共享交通平臺,它的目標(biāo)是安全快捷地把乘客送達目的地,現(xiàn)在為了達到商業(yè)上的利益最大化,增加了社交軟件,卻沒有考慮到那些女乘客以及潛在受害者的利益。這就涉及到倫理問題?!巴ㄟ^對司機、乘客和平臺的利益分析和價值分析,發(fā)現(xiàn)其實包含了對各方的利害得失與價值沖突?!比绻f人工智能對人類的威脅是終極問題,如何解決還未可知,那么人工智能在當(dāng)下活動中體現(xiàn)出來的

6、倫理問題就亟待解決了。段偉文認(rèn)為,應(yīng)當(dāng)從我們這些年研究科學(xué)技術(shù)前沿中的、科學(xué)技術(shù)應(yīng)用中遇到的實例,去探討人工智能的倫理問題?!皬倪@個角度,我更愿意把它當(dāng)作未完成的倫理。”與以往不同,人工智能倫理研究不再是一個高高在上的理論,也沒有一套適用全部情形的普遍原則體系,更多的是針對具體的人類活動或者科技實踐的原則體系,比如說,陪護機器人就需要一些防止過度依賴機器人的原則?!皬睦锩嬲业揭恍﹥r值沖突,需要作哪些倫理的決擇,讓我們發(fā)現(xiàn)問題、研究問題?!倍蝹ノ恼f。另外,當(dāng)下的社會中,大數(shù)據(jù)讓人們享受了便捷,同時這些數(shù)據(jù)會受到不良的使用,或者是沒有必要的濫用。而由于大數(shù)據(jù)的挖掘?qū)е律虡I(yè)智能的運用對人的權(quán)利的侵犯

7、,這種侵犯最核心一點就是人的自主權(quán),包括隱私。因此,歐盟數(shù)據(jù)保護條例中,針對保護個人數(shù)據(jù)的態(tài)度很強硬,只要能夠識別是個人的,就是個人數(shù)據(jù),而且個人能決定他的數(shù)據(jù)怎么使用、該不該使用,以及對有些數(shù)據(jù)要求被遺忘、數(shù)據(jù)可攜帶等?!白尲夹g(shù)在社會上更好地運行,就要從倫理上對它進行設(shè)計?!倍蝹ノ恼f,比如現(xiàn)在經(jīng)常提到監(jiān)控裝置對人的隱私的傷害,將來可以讓使用者看到攝像頭的界面,讓人們在一定程度上了解自己的數(shù)據(jù)如何被追蹤和使用;這樣既可以促使數(shù)據(jù)追蹤者規(guī)范其行為,也有利于被追蹤對象適當(dāng)修正其行為方式?!斑@是數(shù)據(jù)時代、信息時代一個新的信息對稱的問題,讓不對稱變對稱一點,尋求一種再平衡?!钡赖聶C器是否可期美國著名科

8、幻作家阿西莫夫曾在他的小說中提到“機器人學(xué)三定律”。以往人們更關(guān)注其內(nèi)容,而忽視了“機器人學(xué)三定律”如何在實際操作中來規(guī)范機器人的行為。其實阿西莫夫有很詳細(xì)的構(gòu)想,通過技術(shù)直接嵌入到機器人的控制軟件或智能編碼底層,令“機器人學(xué)三定律”不只是紙上法則,更可經(jīng)由技術(shù)強制執(zhí)行通過內(nèi)置的“機器道德調(diào)節(jié)器”使機器人成為有道德的機器人。如何解決人工智能的倫理問題,這是一個科學(xué)家、哲學(xué)家以及相關(guān)領(lǐng)域的研究者都不能忽視的問題。讓機器人有道德或許不是科幻呢?溫德爾·瓦拉赫和認(rèn)知哲學(xué)家科林·艾倫在10年前共同完成了道德機器:如何讓機器人明辨是非一書。他們對能否讓機器有道德進行了研究。溫德爾&#

9、183;瓦拉赫是耶魯大學(xué)生物倫理學(xué)跨學(xué)科研究中心主管,曾開過“機器人的道德和人的倫理”的課程。科林·艾倫1999年涉足這個領(lǐng)域,他還曾任斯坦福哲學(xué)百科全書全球最大的電子哲學(xué)詞典的技術(shù)總監(jiān),指導(dǎo)開發(fā)人員,使他同時在哲學(xué)和計算機這兩個領(lǐng)域皆有深刻的理解。2002年,他們在德國巴登巴登召開的一次會議上相識,因共同的學(xué)術(shù)興趣,兩人開始研究人工道德智能體的技術(shù)層面的倫理問題。2008年2月完成了本書,2009年英文版出版。兩位學(xué)者在書中提出要設(shè)計出符合人類道德規(guī)范的機器人。這個聽起來是不大可能實現(xiàn)的目標(biāo)。他們也認(rèn)為,完備的機器道德智能體還很遙遠,但是目前有必要,而且有可能開始建構(gòu)一種功能性道德

10、,從而使人工道德智能體可以具有基本的道德敏感性。例如,對于前面提到的語言上的偏見,艾倫認(rèn)為應(yīng)該考慮的是,“如何在設(shè)計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力”。兩位學(xué)者進行了開創(chuàng)性的研究,并提出了解決方案的三條路徑:一是自上而下,就是把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進去,即理論驅(qū)動作決策;二是自下而上式的數(shù)據(jù)驅(qū)動的學(xué)習(xí)和進化的方式;三是混合進路系統(tǒng),即將前兩種結(jié)合起來,使人工智能體在一定的普遍倫理準(zhǔn)則指引下、通過深度學(xué)習(xí)算法,在與人類的互動中不斷完善其倫理系統(tǒng)。西安交通大學(xué)計算哲學(xué)實驗室中方主任、本書主譯王小紅介紹,道德機器的兩位作者的討論是基于哲學(xué)家、科學(xué)哲學(xué)家、

11、技術(shù)倫理學(xué)家在交叉領(lǐng)域的深入思考和研究,沒有停留在形而上的討論上,而是提出了可行性方案讓這種自動控制系統(tǒng)機器人有道德的能力。“特別有預(yù)見性和超前意識,在10年前就考慮從前端來解決問題?!蓖跣〖t進一步解釋,從前端將倫理算法嵌入機器,并不代表著其他的社會控制不需要,因為不可能把所有的實際社會場景、生活難題都預(yù)測到,后來遇到了還可以通過其他規(guī)范去制約。所以,她認(rèn)為,前端嵌入和后端制約應(yīng)該是齊頭并進的。要走的路還很長像所有開放的和影響深遠的人類活動一樣,人工智能的不斷發(fā)展和加速進步使人們很難明確界定其內(nèi)涵。同樣的,人工智能的倫理也沒有相對嚴(yán)格的定義和界限。段偉文認(rèn)為,當(dāng)前,有關(guān)人工智能與機器人的倫理研

12、究可大致分為四個進路。一是面向應(yīng)用場景的描述性研究;二是凸顯主體責(zé)任的責(zé)任倫理研究;三是基于主體權(quán)利的權(quán)利倫理研究;四是探討倫理嵌入的機器倫理研究。段偉文解釋說,第四種相當(dāng)于溫德爾·瓦拉赫和科林·艾倫的探討,因此說,怎么讓機器有道德,是前瞻性的探討,也是現(xiàn)在討論的一部分。盡管此進路已有一些探索,但在技術(shù)上存在極大困難,理論上也遭遇難以解決的道德困境。“阿西莫夫所提出的機器人定律可能未必有實質(zhì)的意義,但其真正的價值可能更多地在于觀念上的超前與突破?!倍蝹ノ恼f,機器人三定律帶來的啟迪是:為了使人所創(chuàng)造的機器人和人工智能有益人類和免于失控,應(yīng)致力于從人類價值、利益、安全以及未來發(fā)展的角度對其加以價值校準(zhǔn)與倫理調(diào)適,以此消除人們對其終極創(chuàng)造物的疑慮。人工智能的倫理問題要走的路還有很長?!八鼘嶋H上是一個改變歷史的轉(zhuǎn)折點,而不僅僅是對過去問題的簡單延續(xù)?!睖氐聽?#183;瓦拉赫表示,而且這項研究幾乎所有的學(xué)科都涵蓋在內(nèi),如神經(jīng)科學(xué)、經(jīng)濟學(xué)、心理學(xué)、哲學(xué)等?!靶枰紤]的是,哪些方面會影響人類進行決策,以及它們是如何影響人類決策的?!北M管人工智能的問題很多

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論