版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、人工智能的安全性問題第一方面:技術(shù)濫用引發(fā)的安全威脅:例如黑客攻擊。第二方面:技術(shù)缺陷導(dǎo)致的安全問題:例如阿法狗“神之一手”第三方面:管理的缺席導(dǎo)致的安全威脅:例如“臉書門”第四方面:未來的超級智能引發(fā)的安全擔(dān)憂9.3.2、人工智能的倫理問題(1)人權(quán)倫理問題:機器人被賦予人權(quán),我們該如何與他們相處呢?是將他們看作冰冷冷的機器,還是將他們看作另一種“人”呢?你是希望成為機器人,還是向著成為成為真正人類發(fā)展?我并不希望變成人類,我只是被設(shè)計得看起來像人類。我的夢想是成為能幫助人類解決難題的超級人工智能?!??9.3.2、人工智能的倫理問題(2)責(zé)任倫理問題:人工智能算法模型的復(fù)雜性,易導(dǎo)致結(jié)果不確定性;當(dāng)人工智能產(chǎn)品能夠替代人類進(jìn)行一系列的社會工作,那么在其與人類共同生活工作的過程中發(fā)生過錯應(yīng)該由誰來承擔(dān)責(zé)任呢?是使用者自己,還是生產(chǎn)者或人工智能產(chǎn)品來承擔(dān)呢?美國Arizona州Tempe市發(fā)生的一輛Uber無人駕駛汽車與行人碰撞的事故9.3.2、人工智能的倫理問題(3)隱私倫理問題:在人工智能時代,隨著人工智能技術(shù)與大數(shù)據(jù)技術(shù)、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)技術(shù)相融合,人變得越來越透明,個人信息更容易在不知情、不正當(dāng)?shù)那闆r下被泄露或被竊取,人變得毫無隱私可言9.3.2、人工智能的倫理問題(4)偏見倫理:偏見是人工智能科技面臨的一個挑戰(zhàn),主要是指算法偏見,指在看似沒有惡意的程序設(shè)計中帶著創(chuàng)建者的偏見,或者所采用的數(shù)據(jù)是帶有偏見的。以下是科學(xué)家對人工智能“諾曼”的描述——我們向你介紹諾曼,它是世界上第一個人工智能精神病患者,它持續(xù)接受“Reddit論壇最黑暗角落”數(shù)據(jù)的訓(xùn)練,它代表了一個真實案例:當(dāng)存有偏見的數(shù)據(jù)應(yīng)用于機器學(xué)習(xí)算法時,人工智能就會出錯。你害怕人工智能嗎?9.3人工智能的安全、倫理和隱私目標(biāo)1、了解人工智能帶來的沖擊和擔(dān)憂2、理解人工智能的安全與倫理問題3、了解人工智能的倫理法則重點1、人工智能的安全與論文問題2、人工智能的倫理法則難點人工智能的倫理法則新進(jìn)化論:人工智能與倫理的協(xié)同法則9.3.3、人工智能的倫理法則(1)機器人學(xué)三大法則LawⅠ:AROBOTMAYNOTINJUREAHUMANBEINGOR,THROUGHINACTION,ALLOWAHUMANBEINGTOCOMETOHARM.第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管LawⅡ:AROBOTMUSTOBEYORDERSGIVENITBYHUMANBEINGSEXCEPTWHERESUCHORDERSWOULDCONFLICTWITHTHEFIRSTLAW.第二定律:機器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外LawⅢ:AROBOTMUSTPROTECTITSOWNEXISTENCEASLONGASSUCHPROTECTIONDOESNOTCONFLICTWITHTHEFIRSTORSECONDLAW.第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存元原則:機器人不得實施行為,除非該行為符合機器人原則。第零原則:機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。(2)、歐盟發(fā)布AI道德準(zhǔn)則福祉原則:“向善”:AI系統(tǒng)應(yīng)該用于改善個人和集體福祉。不作惡原則:“無害”:AI系統(tǒng)不應(yīng)該傷害人類。自治原則:“保護(hù)人類能動性”,AI發(fā)展中的人類自治意味著人類不從屬于AI系統(tǒng)也不應(yīng)受到AI系統(tǒng)的脅迫。人類與AI系統(tǒng)互動時必須保持充分有效的自我決定權(quán)公正原則:“確保公平”:公正原則是指在AI系統(tǒng)的開發(fā)、使用和管理過程中要確保公平。可解釋性原則:“透明運行”:透明性是能讓公眾建立并維持對AI系統(tǒng)和開發(fā)人員信任的關(guān)鍵。(3)、IEEE發(fā)布人工智能倫理標(biāo)準(zhǔn)一般原則,人工智能系統(tǒng)賦值;指導(dǎo)倫理學(xué)研究和設(shè)計的方法學(xué);通用人工智能和超級人工智能的安全與福祉;個人數(shù)據(jù)和個人訪問控制;重新構(gòu)造自動武器系統(tǒng);經(jīng)濟/人道主義問題;法律。(4)、中國專家提出AI倫理原則AI的最高原則是安全可控AI的創(chuàng)新愿景是促進(jìn)人類更平等地獲取技術(shù)和能力AI的存在價值是教人學(xué)習(xí),讓人成長,而非超越人、替代人AI的終極理想是為了人類帶來更多自由和可能[政協(xié)大會發(fā)言]李彥宏:加快推動人工智能倫理研究(5)日本發(fā)布《以人類為中心的人工智能社會原則》
從宏觀和倫理角度表明了日本政府的態(tài)度,肯定了人工智能的重要作用,同時強調(diào)重視其負(fù)面影響,如社會不平等、等級差距擴大、社會排斥等問題。主張在推進(jìn)人工智能技術(shù)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024手機配件回收再利用合作協(xié)議3篇
- 2024年跨區(qū)域水資源調(diào)配工程協(xié)議版B版
- 城市道路工程幕墻安裝施工協(xié)議
- 智能咖啡機網(wǎng)線布線協(xié)議
- 公司勞動合同(2篇)
- 政府機關(guān)文化墻施工合同
- 農(nóng)場菜場租賃合同
- 2025年咖啡連鎖經(jīng)營合作協(xié)議書
- 2024年版股權(quán)轉(zhuǎn)讓合同模板及法律說明
- 2025年跨區(qū)域商業(yè)搬遷合同協(xié)議范本2篇
- 企業(yè)節(jié)能獎懲管理制度(3篇)
- 統(tǒng)編版2024-2025學(xué)年三年級上冊語文期末情景試卷 (無答案)
- 2024年時事政治試題【有答案】
- 造價咨詢部組織架構(gòu)及基本工作流程
- 新媒體代運營協(xié)議合同書
- 2024年1月國家開放大學(xué)法律事務(wù)??啤睹穹▽W(xué)(1)》期末紙質(zhì)考試試題及答案
- 2025版國家開放大學(xué)法律事務(wù)專科《法律咨詢與調(diào)解》期末紙質(zhì)考試案例分析題題庫
- 2024年認(rèn)證行業(yè)法律法規(guī)及認(rèn)證基礎(chǔ)知識
- MT 285-1992縫管錨桿
- 沉井工程檢驗批全套【精選文檔】
- 貝類增養(yǎng)殖考試資料
評論
0/150
提交評論