大語(yǔ)言模型基礎(chǔ)微課版課件 第11章 技術(shù)倫理與限制_第1頁(yè)
大語(yǔ)言模型基礎(chǔ)微課版課件 第11章 技術(shù)倫理與限制_第2頁(yè)
大語(yǔ)言模型基礎(chǔ)微課版課件 第11章 技術(shù)倫理與限制_第3頁(yè)
大語(yǔ)言模型基礎(chǔ)微課版課件 第11章 技術(shù)倫理與限制_第4頁(yè)
大語(yǔ)言模型基礎(chǔ)微課版課件 第11章 技術(shù)倫理與限制_第5頁(yè)
已閱讀5頁(yè),還剩82頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

浙江省普通本科高?!笆奈濉敝攸c(diǎn)教材建設(shè)成果之一大語(yǔ)言模型基礎(chǔ)大語(yǔ)言模型基礎(chǔ)周蘇教授QQ:81505050第11章技術(shù)倫理與限制隨著人工智能不斷取得突破,大模型時(shí)代到來(lái),一些潛在的隱患和道德倫理問(wèn)題也逐步顯現(xiàn)出來(lái)。例如,人工智能在安全、隱私等方面存在一定風(fēng)險(xiǎn)隱患:“換臉”技術(shù)有可能侵犯?jìng)€(gè)人隱私,信息采集不當(dāng)會(huì)帶來(lái)數(shù)據(jù)泄露,算法漏洞加劇則認(rèn)知偏見(jiàn)……這說(shuō)明,人工智能及其大模型不單具有技術(shù)屬性,還具有明顯的社會(huì)屬性。唯有綜合考慮經(jīng)濟(jì)、社會(huì)和環(huán)境等因素,才能更好地應(yīng)對(duì)人工智能技術(shù)帶來(lái)的機(jī)遇和挑戰(zhàn),推動(dòng)其健康發(fā)展。第11章技術(shù)倫理與限制人工智能治理帶來(lái)很多倫理和法律課題,如何打造“負(fù)責(zé)任的人工智能”正變得愈發(fā)迫切和關(guān)鍵。必須加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,規(guī)范人工智能的發(fā)展,確保人工智能安全、可靠、可控。要建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。致力于依照“以人為本”的倫理原則推進(jìn)人工智能的發(fā)展,應(yīng)該將“社會(huì)責(zé)任人工智能”作為一個(gè)重要的研究方向。只有正確處理好人和機(jī)器的關(guān)系,才能更好地走向“人機(jī)混合”智能時(shí)代。第11章技術(shù)倫理與限制01AI面臨的倫理挑戰(zhàn)02數(shù)據(jù)隱私保護(hù)對(duì)策03AI倫理原則04大模型的知識(shí)產(chǎn)權(quán)保護(hù)目錄/CONTENTSPART01AI面臨的倫理挑戰(zhàn)華裔人工智能科學(xué)家李飛飛表示,現(xiàn)在迫切需要讓倫理成為人工智能研究與發(fā)展的根本組成部分。顯然,我們比歷史上任何時(shí)候都更加需要注重技術(shù)與倫理的平衡。因?yàn)橐环矫婕夹g(shù)意味著速度和效率,應(yīng)發(fā)揮好技術(shù)的無(wú)限潛力,善用技術(shù)追求效率,創(chuàng)造社會(huì)和經(jīng)濟(jì)效益。另一方面,人性意味著深度和價(jià)值,要追求人性,維護(hù)人類價(jià)值和自我實(shí)現(xiàn),避免技術(shù)發(fā)展和應(yīng)用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準(zhǔn)繩的“技術(shù)算法”和以倫理為準(zhǔn)繩的“人性算法”之間實(shí)現(xiàn)平衡,才能確?!翱萍枷蛏啤?。11.1

AI面臨的倫理挑戰(zhàn)從語(yǔ)音識(shí)別到智能音箱,從無(wú)人駕駛到人機(jī)對(duì)戰(zhàn),經(jīng)過(guò)多年不斷地創(chuàng)新發(fā)展,人工智能給人類社會(huì)帶來(lái)了一次又一次驚喜。同時(shí),個(gè)人身份信息和行為數(shù)據(jù)有可能被整合在一起,這雖然能讓機(jī)器更了解我們,為人們提供更好的服務(wù),但如果使用不當(dāng),則可能引發(fā)隱私和數(shù)據(jù)泄露問(wèn)題。例如,據(jù)《福布斯》網(wǎng)站報(bào)道,一名14歲少年黑客輕而易舉地侵入了互聯(lián)網(wǎng)汽車的網(wǎng)絡(luò)系統(tǒng),甚至可以遠(yuǎn)程操控汽車,這震驚了整個(gè)汽車行業(yè)??梢?jiàn),如何更好地解決這些社會(huì)關(guān)注的倫理相關(guān)問(wèn)題,需要提早考慮和布局。11.1.1人工智能與人類的關(guān)系對(duì)人工智能與人類之間倫理關(guān)系的研究,不能脫離對(duì)AI技術(shù)本身的討論。(1)首先,是真正意義上的人工智能的發(fā)展路徑。在1956年達(dá)特茅斯學(xué)院的研討會(huì)上,人們思考的是如何將人類的各種感覺(jué),包括視覺(jué)、聽覺(jué)、觸覺(jué),甚至大腦的思考都變成信息,并加以控制和應(yīng)用。因此,人工智能的發(fā)展在很大程度上是對(duì)人類行為的模擬,讓一種更像人的思維機(jī)器能夠誕生。著名的圖靈測(cè)試,其目的也是在檢驗(yàn)人工智能是否更像人類。11.1.1人工智能與人類的關(guān)系但問(wèn)題在于,機(jī)器思維在做出其判斷時(shí),是否需要人的思維這個(gè)中介?顯然,對(duì)于人工智能來(lái)說(shuō),答案是否定的。人類的思維具有一定的定勢(shì)和短板,強(qiáng)制性地模擬人類大腦思維的方式,并不是人工智能發(fā)展的良好選擇。(2)人工智能發(fā)展的另一個(gè)方向,即智能增強(qiáng)。如果模擬真實(shí)的人的大腦和思維的方向不再重要,那么,人工智能是否能發(fā)展出一種純粹機(jī)器的學(xué)習(xí)和思維方式?倘若機(jī)器能夠思維,是否能以機(jī)器本身的方式來(lái)進(jìn)行。11.1.1人工智能與人類的關(guān)系機(jī)器學(xué)習(xí),即屬于機(jī)器本身的學(xué)習(xí)方式,它通過(guò)海量的信息和數(shù)據(jù)收集,讓機(jī)器從這些信息中提出自己的抽象觀念,例如,在給機(jī)器瀏覽了上萬(wàn)張貓的圖片之后,讓機(jī)器從這些圖片信息中自己提煉出關(guān)于貓的概念。這個(gè)時(shí)候,很難說(shuō)機(jī)器抽象出來(lái)的關(guān)于貓的概念與人類自己理解的貓的概念之間是否存在著差別。但是,模擬人類大腦和思維的人工智能尚具有一定的可控性,而基于機(jī)器思維的人工智能顯然不能做簡(jiǎn)單定論。圖11-1人工智能識(shí)別貓11.1.1人工智能與人類的關(guān)系第一個(gè)提出“智能增強(qiáng)”的工程師恩格爾巴特認(rèn)為:智能增強(qiáng)技術(shù)更關(guān)心的是人與智能機(jī)器之間的互補(bǔ)性,如何利用智能機(jī)器來(lái)彌補(bǔ)人類思維上的不足。比如自動(dòng)駕駛技術(shù)就是一種典型的智能增強(qiáng)技術(shù)。自動(dòng)駕駛技術(shù)的實(shí)現(xiàn),不僅是在汽車上安裝了自動(dòng)駕駛的程序,更關(guān)鍵地還需要采集大量的地圖地貌信息,需要自動(dòng)駕駛的程序能夠在影像資料上判斷一些移動(dòng)的偶然性因素,如突然穿過(guò)馬路的人。11.1.1人工智能與人類的關(guān)系自動(dòng)駕駛技術(shù)能夠取代容易疲勞和分心的駕駛員,讓人類從繁重的駕駛?cè)蝿?wù)中解放出來(lái)。同樣,在分揀快遞、在汽車工廠里自動(dòng)組裝的機(jī)器人也屬于智能增強(qiáng),它們不關(guān)心如何更像人類,而是關(guān)心如何用自己的方式來(lái)解決問(wèn)題。11.1.1人工智能與人類的關(guān)系智能增強(qiáng)技術(shù)帶來(lái)了人類思維和機(jī)器這兩個(gè)平面,兩個(gè)平面之間需要一個(gè)接口,接口技術(shù)讓人與智能機(jī)器的溝通成為可能。在這種觀念的指引下,今天的人工智能的發(fā)展目標(biāo)并不是產(chǎn)生一種獨(dú)立的意識(shí),而是如何形成與人類交流的接口技術(shù)。也就是說(shuō),人類與智能機(jī)器的關(guān)系,既不是純粹的利用關(guān)系,也不是對(duì)人的取代,成為人類的主人,而是一種共生性的伙伴關(guān)系。11.1.2人與智能機(jī)器的溝通由人工智能衍生出來(lái)的技術(shù)還有很多,其中潛在的倫理問(wèn)題與風(fēng)險(xiǎn)也值得我們?nèi)ド钊胩接?。如今關(guān)于“人工智能威脅論”的觀點(diǎn)有不少支持者。如果人類要想在人工智能這一領(lǐng)域進(jìn)行深入研究發(fā)展,就必須建立起一個(gè)穩(wěn)妥的科技倫理,以此來(lái)約束人工智能的研發(fā)方向和應(yīng)用領(lǐng)域。11.1.2人與智能機(jī)器的溝通業(yè)界已經(jīng)展開了一定程度的探索。譬如,構(gòu)建有效的優(yōu)化訓(xùn)練數(shù)據(jù)集,防止人工智能生成對(duì)公共安全、生產(chǎn)安全等有害的內(nèi)容;在編程設(shè)計(jì)階段,通過(guò)技術(shù)手段防止數(shù)據(jù)謬誤,增加智能系統(tǒng)的透明度和公平性;預(yù)先設(shè)立應(yīng)急機(jī)制和應(yīng)對(duì)措施,對(duì)人工智能使用人員進(jìn)行必要培訓(xùn)。這些舉措,都在技術(shù)層面進(jìn)一步夯實(shí)了人工智能治理的基礎(chǔ)。11.1.2人與智能機(jī)器的溝通近年來(lái),我國(guó)陸續(xù)發(fā)布《新一代人工智能倫理規(guī)范》《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》《全球人工智能治理倡議》等,旨在提升人工智能治理能力,有效防控人工智能發(fā)展風(fēng)險(xiǎn)。同時(shí),我國(guó)還通過(guò)積極搭建人工智能發(fā)展各方參與的開放性平臺(tái),推動(dòng)形成具有廣泛共識(shí)的國(guó)際人工智能治理方案,向國(guó)際社會(huì)貢獻(xiàn)中國(guó)智慧。著眼長(zhǎng)遠(yuǎn),在發(fā)展、應(yīng)用的同時(shí)加強(qiáng)監(jiān)管和規(guī)范,人工智能就能更好造福人類。11.1.2人與智能機(jī)器的溝通PART02數(shù)據(jù)隱私保護(hù)對(duì)策數(shù)據(jù)產(chǎn)業(yè)面臨的倫理問(wèn)題包括數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問(wèn)題、隱私權(quán)和自主權(quán)的侵犯問(wèn)題、數(shù)據(jù)利用失衡問(wèn)題,這些問(wèn)題影響了大數(shù)據(jù)的生產(chǎn)、采集、存儲(chǔ)、交易流轉(zhuǎn)和開發(fā)使用全過(guò)程。相較于傳統(tǒng)隱私和互聯(lián)網(wǎng)發(fā)展初期,大數(shù)據(jù)技術(shù)的廣泛運(yùn)用使隱私的概念和范圍發(fā)生了很大的變化,呈現(xiàn)數(shù)據(jù)化、價(jià)值化的新特點(diǎn)。數(shù)據(jù)隱私保護(hù)倫理問(wèn)題的解決需要從責(zé)任倫理的角度出發(fā),關(guān)注技術(shù)帶來(lái)的風(fēng)險(xiǎn),倡導(dǎo)多元參與主體的共同努力,在遵守隱私保護(hù)倫理準(zhǔn)則的基礎(chǔ)上,加強(qiáng)道德倫理教育和健全道德倫理約束機(jī)制。11.2數(shù)據(jù)隱私保護(hù)對(duì)策由于跨境數(shù)據(jù)流動(dòng)劇增、數(shù)據(jù)經(jīng)濟(jì)價(jià)值凸顯、個(gè)人隱私危機(jī)爆發(fā)等多方面因素,數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)已成為數(shù)據(jù)和人工智能產(chǎn)業(yè)發(fā)展遭遇的關(guān)鍵問(wèn)題。數(shù)據(jù)的跨境流動(dòng)是不可避免的,但這也給國(guó)家安全帶來(lái)了威脅,數(shù)據(jù)的主權(quán)問(wèn)題由此產(chǎn)生。數(shù)據(jù)主權(quán)是指國(guó)家對(duì)其政權(quán)管轄地域內(nèi)的數(shù)據(jù)享有生成、傳播、管理、控制和利用的權(quán)力。數(shù)據(jù)主權(quán)是國(guó)家主權(quán)在信息化、數(shù)字化和全球化發(fā)展趨勢(shì)下新的表現(xiàn)形式,是各國(guó)在大數(shù)據(jù)時(shí)代維護(hù)國(guó)家主權(quán)和獨(dú)立,反對(duì)數(shù)據(jù)壟斷和霸權(quán)主義的必然要求,是國(guó)家安全的保障。11.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問(wèn)題數(shù)據(jù)權(quán)包括機(jī)構(gòu)數(shù)據(jù)權(quán)和個(gè)人數(shù)據(jù)權(quán)。機(jī)構(gòu)數(shù)據(jù)權(quán)是企業(yè)和其他機(jī)構(gòu)對(duì)個(gè)人數(shù)據(jù)的采集權(quán)和使用權(quán),是企業(yè)的核心競(jìng)爭(zhēng)力。個(gè)人數(shù)據(jù)權(quán)是指?jìng)€(gè)人擁有對(duì)自身數(shù)據(jù)的控制權(quán),以保護(hù)自身隱私信息不受侵犯的權(quán)利,也是個(gè)人的基本權(quán)利。個(gè)人在互聯(lián)網(wǎng)上產(chǎn)生了大量的數(shù)據(jù),這些數(shù)據(jù)與個(gè)人的隱私密切相關(guān),個(gè)人對(duì)這些數(shù)據(jù)擁有財(cái)產(chǎn)權(quán)。11.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問(wèn)題數(shù)據(jù)財(cái)產(chǎn)權(quán)是數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)的核心內(nèi)容。以大數(shù)據(jù)為主的信息技術(shù)賦予了數(shù)據(jù)以財(cái)產(chǎn)屬性,數(shù)據(jù)財(cái)產(chǎn)是指將數(shù)據(jù)符號(hào)固定于介質(zhì)之上,具有一定的價(jià)值,能夠?yàn)槿藗兯兄屠玫囊环N新型財(cái)產(chǎn)。數(shù)據(jù)財(cái)產(chǎn)包含形式要素和實(shí)質(zhì)要素兩個(gè)部分,數(shù)據(jù)符號(hào)所依附的介質(zhì)為其形式要素,數(shù)據(jù)財(cái)產(chǎn)所承載的有價(jià)值的信息為其實(shí)質(zhì)要素。2001年世界經(jīng)濟(jì)論壇將個(gè)人數(shù)據(jù)指定為“新資產(chǎn)類別”,數(shù)據(jù)成為一種資產(chǎn),并且像商品一樣被交易。11.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問(wèn)題數(shù)據(jù)利用的失衡主要體現(xiàn)在兩個(gè)方面。(1)數(shù)據(jù)的利用率較低。隨著網(wǎng)絡(luò)應(yīng)用的發(fā)展,每天都有海量的數(shù)據(jù)產(chǎn)生,全球數(shù)據(jù)規(guī)模呈指數(shù)級(jí)增長(zhǎng),但是,一項(xiàng)針對(duì)大型企業(yè)的調(diào)研結(jié)果顯示,企業(yè)大數(shù)據(jù)的利用率僅在12%左右。就掌握大量數(shù)據(jù)的政府而言,其數(shù)據(jù)的利用率更低。11.2.2數(shù)據(jù)利用失衡問(wèn)題(2)數(shù)字鴻溝現(xiàn)象日益顯著。數(shù)字鴻溝束縛數(shù)據(jù)流通,導(dǎo)致數(shù)據(jù)利用水平較低。大數(shù)據(jù)的“政用”“民用”和“工用”相對(duì)于大數(shù)據(jù)在商用領(lǐng)域的發(fā)展,無(wú)論技術(shù)、人才還是數(shù)據(jù)規(guī)模都有巨大差距?,F(xiàn)階段大數(shù)據(jù)應(yīng)用較為成熟的行業(yè)是電商、電信和金融領(lǐng)域,醫(yī)療、能源、教育等領(lǐng)域則處于起步階段。由于大數(shù)據(jù)在商用領(lǐng)域產(chǎn)生巨大利益,數(shù)據(jù)資源、社會(huì)資源、人才資源均向其傾斜,涉及經(jīng)濟(jì)利益較弱的領(lǐng)域,市場(chǎng)占比少。11.2.2數(shù)據(jù)利用失衡問(wèn)題在商用領(lǐng)域內(nèi),優(yōu)勢(shì)的行業(yè)或優(yōu)勢(shì)的企業(yè)也往往占據(jù)了大量的大數(shù)據(jù)資源。大數(shù)據(jù)對(duì)于改善民生、輔助政府決策、提升工業(yè)信息化水平、推動(dòng)社會(huì)進(jìn)步可以起到巨大的作用,因此大數(shù)據(jù)的發(fā)展應(yīng)該更加均衡,這也符合國(guó)家大數(shù)據(jù)戰(zhàn)略中服務(wù)經(jīng)濟(jì)社會(huì)發(fā)展和人民生活改善的方向。11.2.2數(shù)據(jù)利用失衡問(wèn)題構(gòu)建隱私保護(hù)倫理的準(zhǔn)則包括:(1)權(quán)利與義務(wù)對(duì)等。數(shù)據(jù)生產(chǎn)者作為數(shù)據(jù)生命周期中的堅(jiān)實(shí)基礎(chǔ),既有為大數(shù)據(jù)技術(shù)發(fā)展提供數(shù)據(jù)源和保護(hù)個(gè)體隱私的義務(wù),又有享受大數(shù)據(jù)技術(shù)帶來(lái)便利與利益的權(quán)利。數(shù)據(jù)搜集者作為數(shù)據(jù)生產(chǎn)周期的中間者,他們既可以享有在網(wǎng)絡(luò)公共空間中搜集數(shù)據(jù)以得到利益的權(quán)利,又負(fù)有在數(shù)據(jù)搜集階段保護(hù)用戶隱私的義務(wù)。數(shù)據(jù)使用者作為整個(gè)數(shù)據(jù)生命周期中利益鏈條上游部分的主體,他們?cè)谙碛辛素S厚利潤(rùn)的同時(shí),也負(fù)有推進(jìn)整個(gè)社會(huì)發(fā)展、造福人類和保護(hù)個(gè)人隱私的義務(wù)。11.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(2)自由與監(jiān)管適度。主體的意志自由正在因嚴(yán)密的監(jiān)控和隱私泄露所導(dǎo)致的個(gè)性化預(yù)測(cè)而受到禁錮。而個(gè)人只有在具有規(guī)則的社會(huì)中才能談自主、自治和自由。因此,在解決隱私保護(hù)的倫理問(wèn)題時(shí),構(gòu)建一定的規(guī)則與秩序,在維護(hù)社會(huì)安全的前提下,給予公眾適度的自由,也是隱私保護(hù)倫理準(zhǔn)則所必須關(guān)注的重點(diǎn)。所以要平衡監(jiān)管與自由兩邊的砝碼,讓政府與企業(yè)更注重個(gè)人隱私的保護(hù),個(gè)人加強(qiáng)保護(hù)隱私的能力,防止沉迷于網(wǎng)絡(luò),努力做到在保持社會(huì)良好發(fā)展的同時(shí),也不忽視公眾對(duì)個(gè)人自由的訴求。11.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(3)誠(chéng)信與公正統(tǒng)一。因豐厚經(jīng)濟(jì)利潤(rùn)的刺激和社交活動(dòng)在虛擬空間的無(wú)限延展,使得互聯(lián)網(wǎng)用戶逐漸喪失對(duì)基本準(zhǔn)則誠(chéng)信的遵守。例如,利用黑客技術(shù)竊取用戶隱私信息,通過(guò)不道德商業(yè)行為攫取更多利益等。在社會(huì)范圍內(nèi)建立誠(chéng)信體系,營(yíng)造誠(chéng)信氛圍,不僅有利于隱私保護(hù)倫理準(zhǔn)則的構(gòu)建,更是對(duì)個(gè)人行為、企業(yè)發(fā)展、政府建設(shè)的內(nèi)在要求。11.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(4)創(chuàng)新與責(zé)任一致。在構(gòu)建隱私保護(hù)的倫理準(zhǔn)則時(shí),可以引入“負(fù)責(zé)任創(chuàng)新”理念,對(duì)大數(shù)據(jù)技術(shù)的創(chuàng)新和設(shè)計(jì)過(guò)程進(jìn)行全面的綜合考量與評(píng)估,使大數(shù)據(jù)技術(shù)的相關(guān)信息能被公眾所理解,真正將大數(shù)據(jù)技術(shù)的“創(chuàng)新”與“負(fù)責(zé)任”相結(jié)合,以一種開放、包容、互動(dòng)的態(tài)度來(lái)看待技術(shù)的良性發(fā)展。11.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則健全隱私保護(hù)的道德倫理約束機(jī)制,包括:(1)建立完善的隱私保護(hù)道德自律機(jī)制。個(gè)人自覺(jué)保護(hù)隱私,首先應(yīng)該清楚意識(shí)到個(gè)人信息安全的重要性,做到重視自我隱私,從源頭切斷個(gè)人信息泄露的可能。政府、組織和企業(yè)可以通過(guò)不斷創(chuàng)新與完善隱私保護(hù)技術(shù)的方式讓所有數(shù)據(jù)行業(yè)從業(yè)者都認(rèn)識(shí)到隱私保護(hù)的重要性,并在數(shù)據(jù)使用中自覺(jué)采取隱私保護(hù)技術(shù),以免信息泄露。企業(yè)還可以通過(guò)建立行業(yè)自律公約的方式來(lái)規(guī)范自我道德行為,以統(tǒng)一共識(shí)的達(dá)成來(lái)約束自身行為。11.2.4健全道德倫理約束機(jī)制(2)強(qiáng)化社會(huì)監(jiān)督與道德評(píng)價(jià)功能。建立由多主體參與的監(jiān)督體系來(lái)實(shí)時(shí)監(jiān)控、預(yù)防侵犯隱私行為的發(fā)生,這在公共事務(wù)上體現(xiàn)為一種社會(huì)合力,代表著社會(huì)生活中一部分人的發(fā)聲,具有較強(qiáng)的制約力和規(guī)范力,是完善隱私保護(hù)道德倫理約束機(jī)制的重要一步。其次,健全道德倫理約束機(jī)制還可以發(fā)揮道德的評(píng)價(jià)功能,讓道德輿論的評(píng)價(jià)來(lái)調(diào)整社會(huì)關(guān)系,規(guī)范人們的行為。在隱私保護(hù)倫理的建設(shè)過(guò)程中,運(yùn)用社會(huì)倫理的道德評(píng)價(jià),可以強(qiáng)化人們的道德意志,增強(qiáng)他們遵守道德規(guī)范的主動(dòng)性與自覺(jué)性,將外在的道德規(guī)范轉(zhuǎn)化為人們的自我道德觀念和道德行為準(zhǔn)則。11.2.4健全道德倫理約束機(jī)制PART03AI倫理原則人工智能發(fā)展不僅僅是一場(chǎng)席卷全球的科技革命,也是一場(chǎng)對(duì)人類文明帶來(lái)前所未有深遠(yuǎn)影響的社會(huì)倫理實(shí)驗(yàn)。在應(yīng)用層面,人工智能已經(jīng)開始用于解決社會(huì)問(wèn)題,各種服務(wù)機(jī)器人、輔助機(jī)器人、陪伴機(jī)器人、教育機(jī)器人等社會(huì)機(jī)器人和智能應(yīng)用軟件應(yīng)運(yùn)而生,各種倫理問(wèn)題隨之產(chǎn)生。機(jī)器人倫理與人因工程相關(guān),涉及人體工程學(xué)、生物學(xué)和人機(jī)交互,需要以人為中心的機(jī)器智能設(shè)計(jì)。隨著推理、社會(huì)機(jī)器人進(jìn)入家庭,如何保護(hù)隱私、滿足個(gè)性都要以人為中心而不是以機(jī)器為中心設(shè)計(jì)。過(guò)度依賴社會(huì)機(jī)器人將帶來(lái)一系列的家庭倫理問(wèn)題。為了避免人工智能以機(jī)器為中心,需要法律和倫理研究參與其中,而相關(guān)倫理與哲學(xué)研究也要對(duì)技術(shù)有必要的了解。11.3

AI倫理原則需要制定人工智能的職業(yè)倫理準(zhǔn)則,來(lái)達(dá)到下列目標(biāo):(1)為防止人工智能技術(shù)的濫用設(shè)立紅線;(2)提高職業(yè)人員的責(zé)任心和職業(yè)道德水準(zhǔn);(3)確保算法系統(tǒng)的安全可靠;(4)使算法系統(tǒng)的可解釋性成為未來(lái)引導(dǎo)設(shè)計(jì)的一個(gè)基本方向;(5)使倫理準(zhǔn)則成為人工智能從業(yè)者的工作基礎(chǔ);(6)提升職業(yè)人員的職業(yè)抱負(fù)和理想。11.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)人工智能的職業(yè)倫理準(zhǔn)則至少應(yīng)包括下列幾個(gè)方面:(1)確保人工智能更好地造福于社會(huì);(2)在強(qiáng)化人類中心主義的同時(shí),達(dá)到走出人類中心主義的目標(biāo),形成雙向互進(jìn)關(guān)系;(3)避免人工智能對(duì)人類造成任何傷害;(4)確保人工智能體位于人類可控范圍之內(nèi);(5)提升人工智能的可信性;11.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)(6)確保人工智能的可問(wèn)責(zé)性和透明性;(7)維護(hù)公平;(8)尊重隱私、謹(jǐn)慎應(yīng)用;(9)提高職業(yè)技能與提升道德修養(yǎng)并行發(fā)展。11.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)2018年7月11日,中國(guó)人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟發(fā)布了《人工智能創(chuàng)新發(fā)展道德倫理宣言》(簡(jiǎn)稱《宣言》)?!缎浴烦诵蜓灾?,一共有六個(gè)部分,分別是人工智能系統(tǒng),人工智能與人類的關(guān)系,人工智能與具體接觸人員的道德倫理要求,以及人工智能的應(yīng)用和未來(lái)發(fā)展的方向,最后是附則。發(fā)布“人工智能創(chuàng)新發(fā)展道德倫理宣言”,是為了宣揚(yáng)涉及人工智能創(chuàng)新、應(yīng)用和發(fā)展的基本準(zhǔn)則,以期無(wú)論何種身份的人都能經(jīng)常銘記本宣言精神,理解并尊重發(fā)展人工智能的初衷,使其傳達(dá)的價(jià)值與理念得到普遍認(rèn)可與遵行。11.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出:(1)鑒于全人類固有道德、倫理、尊嚴(yán)及人格之權(quán)利,創(chuàng)新、應(yīng)用和發(fā)展人工智能技術(shù)當(dāng)以此為根本基礎(chǔ);(2)鑒于人類社會(huì)發(fā)展的最高階段為人類解放和人的自由全面發(fā)展,人工智能技術(shù)研發(fā)當(dāng)以此為最終依歸,進(jìn)而促進(jìn)全人類福祉;(3)鑒于人工智能技術(shù)對(duì)人類社會(huì)既有觀念、秩序和自由意志挑戰(zhàn)巨大,且發(fā)展前景充滿未知,對(duì)人工智能技術(shù)的創(chuàng)新應(yīng)當(dāng)設(shè)置倡導(dǎo)性與禁止性的規(guī)則,這些規(guī)則本身應(yīng)當(dāng)凝聚不同文明背景下人群的基本價(jià)值共識(shí);11.3.2創(chuàng)新發(fā)展道德倫理宣言(4)鑒于人工智能技術(shù)具有把人類從繁重體力和腦力勞動(dòng)束縛中解放的潛力,縱然未來(lái)的探索道路上出現(xiàn)曲折與反復(fù),也不應(yīng)停止人工智能創(chuàng)新發(fā)展造福人類的步伐。11.3.2創(chuàng)新發(fā)展道德倫理宣言建設(shè)人工智能系統(tǒng),要做到:(1)人工智能系統(tǒng)基礎(chǔ)數(shù)據(jù)應(yīng)當(dāng)秉持公平性與客觀性,摒棄帶有偏見(jiàn)的數(shù)據(jù)和算法,以杜絕可能的歧視性結(jié)果。(2)人工智能系統(tǒng)的數(shù)據(jù)采集和使用應(yīng)當(dāng)尊重隱私權(quán)等一系列人格權(quán)利,以維護(hù)權(quán)利所承載的人格利益。(3)人工智能系統(tǒng)應(yīng)當(dāng)有相應(yīng)的技術(shù)風(fēng)險(xiǎn)評(píng)估機(jī)制,保持對(duì)潛在危險(xiǎn)的前瞻性控制能力。(4)人工智能系統(tǒng)所具有的自主意識(shí)程度應(yīng)當(dāng)受到科學(xué)技術(shù)水平和道德、倫理、法律等人文價(jià)值的共同評(píng)價(jià)。11.3.2創(chuàng)新發(fā)展道德倫理宣言為明確人工智能與人類的關(guān)系,《宣言》指出:(1)人工智能的發(fā)展應(yīng)當(dāng)始終以造福人類為宗旨。牢記這一宗旨,是防止人工智能的巨大優(yōu)勢(shì)轉(zhuǎn)為人類生存發(fā)展巨大威脅的關(guān)鍵所在。(2)無(wú)論人工智能的自主意識(shí)能力進(jìn)化到何種階段,都不能改變其由人類創(chuàng)造的事實(shí)。不能將人工智能的自主意識(shí)等同于人類特有的自由意志,模糊這兩者之間的差別可能抹殺人類自身特有的人權(quán)屬性與價(jià)值。(3)當(dāng)人工智能的設(shè)定初衷與人類整體利益或個(gè)人合法利益相悖時(shí),人工智能應(yīng)當(dāng)無(wú)條件停止或暫停工作進(jìn)程,以保證人類整體利益的優(yōu)先性。11.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,人工智能具體接觸人員的道德倫理要求是:(1)人工智能具體接觸人員是指居于主導(dǎo)地位、可以直接操縱或影響人工智能系統(tǒng)和技術(shù),使之按照預(yù)設(shè)產(chǎn)生某種具體功效的人員,包括但不限于人工智能的研發(fā)人員和使用者。(2)人工智能的研發(fā)者自身應(yīng)當(dāng)具備正確的倫理道德意識(shí),同時(shí)將這種意識(shí)貫徹于研發(fā)全過(guò)程,確保其塑造的人工智能自主意識(shí)符合人類社會(huì)主流道德倫理要求。11.3.2創(chuàng)新發(fā)展道德倫理宣言(3)人工智能產(chǎn)品的使用者應(yīng)當(dāng)遵循產(chǎn)品的既有使用準(zhǔn)則,除非出于改善產(chǎn)品本身性能的目的,否則不得擅自變動(dòng)、篡改原有的設(shè)置,使之背離創(chuàng)新、應(yīng)用和發(fā)展初衷,以致破壞人類文明及社會(huì)和諧。(4)人工智能從業(yè)人員可以根據(jù)自身經(jīng)驗(yàn),闡述其對(duì)產(chǎn)品與技術(shù)的認(rèn)識(shí)。此種闡述應(yīng)當(dāng)本著誠(chéng)實(shí)信用的原則,保持理性與客觀,不得誘導(dǎo)公眾的盲目熱情或故意加劇公眾的恐慌情緒。11.3.2創(chuàng)新發(fā)展道德倫理宣言針對(duì)人工智能的應(yīng)用,《宣言》指出:(1)人工智能發(fā)展迅速,但也伴隨著各種不確定性。在沒(méi)有確定完善的技術(shù)保障之前,在某些失誤成本過(guò)于沉重的領(lǐng)域,人工智能的應(yīng)用和推廣應(yīng)當(dāng)審慎而科學(xué)。(2)人工智能可以為決策提供輔助。但是人工智能本身不能成為決策的主體,特別是國(guó)家公共事務(wù)領(lǐng)域,人工智能不能行使國(guó)家公權(quán)力。11.3.2創(chuàng)新發(fā)展道德倫理宣言(3)人工智能的優(yōu)勢(shì)使其在軍事領(lǐng)域存在巨大應(yīng)用潛力。出于對(duì)人類整體福祉的考慮,應(yīng)當(dāng)本著人道主義精神,克制在進(jìn)攻端武器運(yùn)用人工智能的沖動(dòng)。(4)人工智能不應(yīng)成為侵犯合法權(quán)益的工具,任何運(yùn)用人工智能從事犯罪活動(dòng)的行為,都應(yīng)當(dāng)受到法律的制裁和道義的譴責(zé)。(5)人工智能的應(yīng)用可以解放人類在腦力和體力層面的部分束縛,在條件成熟時(shí),應(yīng)當(dāng)鼓勵(lì)人工智能在相應(yīng)領(lǐng)域發(fā)揮幫助人類自由發(fā)展的作用。11.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,當(dāng)前發(fā)展人工智能的方向主要是:(1)探索產(chǎn)、學(xué)、研、用、政、金合作機(jī)制,推動(dòng)人工智能核心技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展。特別是推動(dòng)上述各方資源結(jié)合,建立長(zhǎng)期和深層次的合作機(jī)制,針對(duì)人工智能領(lǐng)域的關(guān)鍵核心技術(shù)難題開展聯(lián)合攻關(guān)。(2)制定人工智能產(chǎn)業(yè)發(fā)展標(biāo)準(zhǔn),推動(dòng)人工智能產(chǎn)業(yè)協(xié)同發(fā)展。推動(dòng)人工智能產(chǎn)業(yè)從數(shù)據(jù)規(guī)范、應(yīng)用接口以及性能檢測(cè)等方面的標(biāo)準(zhǔn)體系制定,為消費(fèi)者提供更好的服務(wù)與體驗(yàn)。11.3.2創(chuàng)新發(fā)展道德倫理宣言(3)打造共性技術(shù)支撐平臺(tái),構(gòu)建人工智能產(chǎn)業(yè)生態(tài)。推動(dòng)人工智能領(lǐng)域龍頭企業(yè)牽頭建設(shè)平臺(tái),為人工智能在社會(huì)生活各個(gè)領(lǐng)域的創(chuàng)業(yè)創(chuàng)新者提供更好支持。(4)健全人工智能法律法規(guī)體系。通過(guò)不斷完善人工智能相關(guān)法律法規(guī),在拓展人類人工智能應(yīng)用能力的同時(shí),避免人工智能對(duì)社會(huì)和諧的沖擊,尋求人工智能技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展與道德倫理的平衡點(diǎn)。11.3.2創(chuàng)新發(fā)展道德倫理宣言人工智能的發(fā)展在深度與廣度上都是難以預(yù)測(cè)的。根據(jù)新的發(fā)展形勢(shì),對(duì)本宣言的任何修改都不能違反人類的道德倫理法律準(zhǔn)則,不得損害人類的尊嚴(yán)和整體福祉。11.3.2創(chuàng)新發(fā)展道德倫理宣言2019年,歐盟人工智能高級(jí)別專家組正式發(fā)布了“可信賴的人工智能倫理準(zhǔn)則”。根據(jù)準(zhǔn)則,可信賴的人工智能應(yīng)該是:(1)合法——尊重所有適用的法律法規(guī)。(2)合乎倫理——尊重倫理原則和價(jià)值觀。(3)穩(wěn)健——既從技術(shù)角度考慮,又考慮到其社會(huì)環(huán)境。11.3.3歐盟可信賴的倫理準(zhǔn)則該指南提出了未來(lái)人工智能系統(tǒng)應(yīng)滿足的7大原則,以便被認(rèn)為是可信的。并給出一份具體的評(píng)估清單,旨在協(xié)助核實(shí)每項(xiàng)要求的適用情況。(1)人類代理和監(jiān)督:人工智能不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被人工智能系統(tǒng)所操縱或脅迫,應(yīng)該能夠干預(yù)或監(jiān)督軟件所做的每一個(gè)決定;(2)技術(shù)穩(wěn)健性和安全性:人工智能應(yīng)該是安全而準(zhǔn)確的,它不應(yīng)該輕易受到外部攻擊(例如對(duì)抗性例子)的破壞,并且應(yīng)該是相當(dāng)可靠的;11.3.3歐盟可信賴的倫理準(zhǔn)則(3)隱私和數(shù)據(jù)管理:人工智能系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的,并且能夠保護(hù)個(gè)人隱私。它不應(yīng)該被任何人訪問(wèn),也不應(yīng)該輕易被盜;(4)透明度:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問(wèn)的,軟件所做的決定應(yīng)該“為人類所理解和追蹤”。換句話說(shuō),操作者應(yīng)該能夠解釋他們的人工智能系統(tǒng)所做的決定;(5)多樣性、無(wú)歧視、公平:人工智能應(yīng)向所有人提供服務(wù),不分年齡、性別、種族或其他特征。同樣,人工智能系統(tǒng)不應(yīng)在這些方面有偏見(jiàn);11.3.3歐盟可信賴的倫理準(zhǔn)則(6)環(huán)境和社會(huì)福祉:人工智能系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對(duì)生態(tài)負(fù)責(zé)),并能“促進(jìn)積極的社會(huì)變革”;(7)問(wèn)責(zé)制:人工智能系統(tǒng)應(yīng)該是可審計(jì)的,并由現(xiàn)有的企業(yè)告密者保護(hù)機(jī)制覆蓋。系統(tǒng)的負(fù)面影響應(yīng)事先得到承認(rèn)和報(bào)告。11.3.3歐盟可信賴的倫理準(zhǔn)則這些原則中有些條款的措辭比較抽象,很難從客觀意義上進(jìn)行評(píng)估。這些指導(dǎo)方針不具有法律約束力,但可以影響歐盟起草的任何未來(lái)立法。歐盟發(fā)布的報(bào)告還包括了一份被稱為“可信賴人工智能評(píng)估列表”,幫助專家們找出人工智能軟件中的任何潛在弱點(diǎn)或危險(xiǎn)。此列表包括以下問(wèn)題:“你是否驗(yàn)證了系統(tǒng)在意外情況和環(huán)境中的行為方式?”以及“你評(píng)估了數(shù)據(jù)集中數(shù)據(jù)的類型和范圍了嗎?”此次出臺(tái)的指導(dǎo)方針“為推動(dòng)人工智能的道德和責(zé)任制定了全球標(biāo)準(zhǔn)?!?1.3.3歐盟可信賴的倫理準(zhǔn)則PART04大模型的知識(shí)產(chǎn)權(quán)保護(hù)人工智能的技術(shù)發(fā)展與知識(shí)產(chǎn)權(quán)歸屬的邊界正變得日益模糊。通過(guò)大量公開數(shù)據(jù)進(jìn)行訓(xùn)練,從而讓模型學(xué)習(xí)具有生成產(chǎn)物的能力,這就是生成式人工智能的構(gòu)建方式。這些數(shù)據(jù)包括文字、畫作和代碼,模型正是從海量的數(shù)據(jù)中獲得的生成同樣產(chǎn)物的能力。隨著生成式人工智能的快速崛起,在重塑行業(yè)、賦能人類工作生活的同時(shí),也引發(fā)了版權(quán)制度層面的一系列新的挑戰(zhàn)。11.4大模型的知識(shí)產(chǎn)權(quán)保護(hù)Midjourney是一款著名和強(qiáng)大的人工智能繪畫工具,它為用戶提供了各種創(chuàng)意的繪圖功能,可以是文生圖或者圖生圖。例如,在操作界面上提出創(chuàng)意要求:“男子身長(zhǎng)八尺,儀表堂堂,渾身上下有百斤力氣”。Midjourney先將描述文字優(yōu)化轉(zhuǎn)化為:“身長(zhǎng)八尺男子,儀表堂堂,肌肉質(zhì)感,戰(zhàn)斗服裝,沉穩(wěn)表情,獨(dú)自面對(duì)山川,壯麗風(fēng)景,逆光拍攝,長(zhǎng)焦鏡頭,高飽和度,英勇,決心?!笨梢詫?duì)其做修改調(diào)整,在此基礎(chǔ)上,一次生成了4張高質(zhì)量的繪圖作品。11.4.1大模型的訴訟案例盡管Midjourney面臨嚴(yán)重的版權(quán)問(wèn)題,但其創(chuàng)始人大衛(wèi)·霍爾茨針對(duì)人工智能對(duì)創(chuàng)意工作的影響有自己的看法,他強(qiáng)調(diào)Midjourney的目標(biāo)是拓展人類的想象力,幫助用戶快速產(chǎn)生創(chuàng)意,為專業(yè)用戶提供概念設(shè)計(jì)的支持,而不是取代藝術(shù)家。他認(rèn)為人工智能技術(shù)的發(fā)展將促使市場(chǎng)朝著更高質(zhì)量、更有創(chuàng)意、更多樣化和更深度的內(nèi)容方向發(fā)展。人工智能技術(shù)的出現(xiàn)對(duì)那些雄心勃勃的藝術(shù)家的未來(lái)影響仍有待觀察,但藝術(shù)工作本身是有趣的,人工智能技術(shù)應(yīng)該服務(wù)于讓人們自由發(fā)展更有回報(bào)、更有趣的工作,而不是取代藝術(shù)家的創(chuàng)作過(guò)程。11.4.1大模型的訴訟案例藝術(shù)家是否愿意將作品納入人工智能訓(xùn)練模型、是否會(huì)對(duì)版權(quán)問(wèn)題產(chǎn)生擔(dān)憂等議題值得深入思考。隨著人工智能技術(shù)的發(fā)展,可能會(huì)對(duì)藝術(shù)創(chuàng)作帶來(lái)新的影響和挑戰(zhàn)。然而,尊重藝術(shù)家的創(chuàng)作意愿,維護(hù)版權(quán)法律,是保障藝術(shù)創(chuàng)作多樣性和質(zhì)量的重要途徑。通過(guò)合理規(guī)范和監(jiān)管,人工智能技術(shù)可以更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,實(shí)現(xiàn)技術(shù)與人文的和諧共生。11.4.1大模型的訴訟案例在藝術(shù)創(chuàng)作領(lǐng)域,人工智能技術(shù)作為一種輔助工具,有助于提高創(chuàng)作效率和創(chuàng)意產(chǎn)出,但無(wú)法替代藝術(shù)家的獨(dú)特創(chuàng)作能力和靈感。對(duì)于藝術(shù)家來(lái)說(shuō),關(guān)鍵在于如何運(yùn)用和平衡人工智能技術(shù),創(chuàng)作出更具深度和獨(dú)特性的作品,從而實(shí)現(xiàn)藝術(shù)創(chuàng)作與科技創(chuàng)新的有機(jī)結(jié)合。Midjourney的未來(lái)發(fā)展方向也需要更多的思考和探討,以確保人工智能技術(shù)的應(yīng)用能夠更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,促進(jìn)藝術(shù)的多樣性和創(chuàng)新性。11.4.1大模型的訴訟案例(1)“訓(xùn)練”類技術(shù)的首次法律訴訟。2022年11月3日和10日,程序員兼律師馬修·巴特里克等人向美國(guó)加州北區(qū)聯(lián)法院遞交了一份集體訴訟起訴書,指控OpenAI和微軟使用他們貢獻(xiàn)的代碼訓(xùn)練人工智能編程工具Copilot及Codex,要求法院批準(zhǔn)90億美元(約649億人民幣)的法定損害賠償金。根據(jù)集體訴訟文件,每當(dāng)Copilot提供非法輸出,它就違反第1202條三次,即沒(méi)有①注明出處,②版權(quán)通知,③許可條款的許可材料。11.4.1大模型的訴訟案例因?yàn)閮晒ぞ呤褂肎itHub上的開源軟件用于訓(xùn)練并輸出,但并未按照要求進(jìn)行致謝,版權(quán)聲明和附上許可證,甚至標(biāo)識(shí)錯(cuò)誤,違反了上千萬(wàn)軟件開發(fā)者的許可協(xié)議。原告進(jìn)一步指稱被告將其敏感個(gè)人數(shù)據(jù)一并納入Copilot中向他人提供,構(gòu)成違反開源許可證、欺詐、違反GitHub服務(wù)條款隱私政策等。11.4.1大模型的訴訟案例巴特里克強(qiáng)調(diào):“我們反對(duì)的絕不是人工智能輔助編程工具,而是微軟在Copilot當(dāng)中的種種具體行徑。微軟完全可以把Copilot做得更開發(fā)者友好——比如邀請(qǐng)大家自愿參加,或者由編程人員有償對(duì)訓(xùn)練語(yǔ)料庫(kù)做出貢獻(xiàn)。但截至目前,口口聲聲自稱熱愛(ài)開源的微軟根本沒(méi)做過(guò)這方面的嘗試。另外,如果大家覺(jué)得Copilot效果挺好,那主要也是因?yàn)榈讓娱_源訓(xùn)練數(shù)據(jù)的質(zhì)量過(guò)硬。Copilot其實(shí)是在從開源項(xiàng)目那邊吞噬能量,而一旦開源活力枯竭,Copilot也將失去發(fā)展的依憑?!?1.4.1大模型的訴訟案例(2)人工智能繪畫工具被指控抄襲。2023年1月17日,全球知名圖片提供商華蓋創(chuàng)意起訴人工智能繪畫工具StableDiffusion的開發(fā)者StabilityAI,稱其侵犯了版權(quán)。1995年成立的華蓋創(chuàng)意首創(chuàng)并引領(lǐng)了獨(dú)特的在線授權(quán)模式——在線提供數(shù)字媒體管理工具以及創(chuàng)意類圖片、編輯類圖片、影視素材和音樂(lè)產(chǎn)品。華蓋創(chuàng)意稱StabilityAI在未經(jīng)許可的情況下,從網(wǎng)站上竊取了數(shù)百萬(wàn)張圖片訓(xùn)練自己的模型,使用他人的知識(shí)產(chǎn)權(quán),為自己的經(jīng)濟(jì)利益服務(wù),這不是公平交易,所以采取行動(dòng)保護(hù)公司和藝術(shù)家們的知識(shí)產(chǎn)權(quán)。11.4.1大模型的訴訟案例2023年1月16日,莎拉·安德森、凱莉·麥克南和卡拉·奧爾蒂斯三名藝術(shù)家對(duì)StabilityAI,另一個(gè)人工智能繪畫工具M(jìn)idjourney以及藝術(shù)家作品集平臺(tái)DeviantArt提出訴訟,稱這些組織“未經(jīng)原作者同意的情況下”通過(guò)從網(wǎng)絡(luò)上獲取的50億張圖像來(lái)訓(xùn)練其人工智能,侵犯了“數(shù)百萬(wàn)藝術(shù)家”的權(quán)利。負(fù)責(zé)這個(gè)案件的律師正是訴訟OpenAI和微軟的馬修·巴特里克,他描述此案為“為每一個(gè)人創(chuàng)造公平的環(huán)境和市場(chǎng)的第一步”。不過(guò),一審法官駁回了大部分上述訴求,但頒布了法庭許可,允許原告在調(diào)整、補(bǔ)充起訴事由和證據(jù)材料后另行起訴。11.4.1大模型的訴訟案例事實(shí)上,Midjourney對(duì)這類問(wèn)題表現(xiàn)得不屑一顧,認(rèn)為:“沒(méi)有經(jīng)過(guò)授權(quán),我們也沒(méi)辦法一一排查上億張訓(xùn)練圖像分別來(lái)自哪里。如果再向其中添加關(guān)于版權(quán)所有者等內(nèi)容的元數(shù)據(jù),那也太麻煩了。但這不是什么大事,畢竟網(wǎng)絡(luò)上也沒(méi)有相應(yīng)的注冊(cè)表,我們做不到在互聯(lián)網(wǎng)上找一張圖片、然后輕松跟蹤它到底歸誰(shuí)所有,再采取措施來(lái)驗(yàn)證身份。既然原始訓(xùn)練素材未獲許可,那即使在我們這幫非法律出身的外行來(lái)看,這都很可能激起各制片方、電子游戲發(fā)行商和演員的反抗?!?1.4.1大模型的訴訟案例(3)看不見(jiàn)的幽靈與看得見(jiàn)的恐慌。一位名為Ghostwriter977的網(wǎng)友用Drake和TheWeeknd的聲音對(duì)人工智能模型進(jìn)行訓(xùn)練,同時(shí)模仿兩人的音樂(lè)風(fēng)格,最終生成并發(fā)布歌曲《袖子上的心》。該歌曲在不到兩天的時(shí)間里,實(shí)現(xiàn)了病毒式的傳播:在Spotify上播放量超過(guò)60萬(wàn)次,在TikTok上點(diǎn)擊量超1500萬(wàn)次,完整版在YouTube平臺(tái)上播放量超過(guò)27.5萬(wàn)次。值得注意的是,即便發(fā)布者并未在演唱信息中提及Drake和TheWeeknd,但該歌曲依然火了。11.4.1大模型的訴訟案例對(duì)很多人來(lái)說(shuō),這是人工智能音樂(lè)的第一首出圈之作,這是生成式人工智能進(jìn)行創(chuàng)作的開始,也是環(huán)球音樂(lè)加速干預(yù)AIGC問(wèn)題的標(biāo)志。歌曲的躥紅很快引起環(huán)球音樂(lè)的注意。作為Drake和TheWeeknd的幕后唱片公司,公司對(duì)外發(fā)表言辭激烈的聲明稱:“使用我們旗下的藝術(shù)家對(duì)人工智能生成內(nèi)容進(jìn)行訓(xùn)練,這既違反了協(xié)議,也違反了版權(quán)法?!痹诃h(huán)球音樂(lè)的投訴下,這首歌曲先從Spotify和AppleMusic下架。緊隨其后,其他機(jī)構(gòu)也撤下了該歌曲。11.4.1大模型的訴訟案例環(huán)球音樂(lè)指出,在流媒體平臺(tái)上人工智能生成內(nèi)容的可用性引發(fā)了一個(gè)問(wèn)題,即音樂(lè)行業(yè)生態(tài)中的所有利益相關(guān)者到底希望站在歷史的哪一邊:“是站在藝術(shù)家、粉絲和人類創(chuàng)造性表達(dá)的一邊,還是站在深度偽造、欺詐和剝奪藝術(shù)應(yīng)得補(bǔ)償?shù)牧硪贿??!焙茱@然,在忍耐的極限后,業(yè)內(nèi)巨頭開啟了對(duì)人工智能音樂(lè)的抵制,環(huán)球音樂(lè)發(fā)函要求Spotify等音樂(lè)流媒體平臺(tái)切斷人工智能公司的訪問(wèn)權(quán)限,以阻止其版權(quán)歌曲被用于訓(xùn)練模型和生成音樂(lè)。11.4.1大模型的訴訟案例(4)ChatGPT屢屢惹官司。2023年2月15日,《華爾街日?qǐng)?bào)》記者弗朗西斯科·馬可尼公開指控OpenAI公司未經(jīng)授權(quán)大量使用路透社、紐約時(shí)報(bào)、衛(wèi)報(bào)、BBC等國(guó)外主流媒體的文章訓(xùn)練ChatGPT模型,但從未支付任何費(fèi)用。11.4.1大模型的訴訟案例2023年6月28日,第一起具有代表性的ChatGPT版權(quán)侵權(quán)之訴出現(xiàn)在公眾視野。兩名暢銷書作家保羅·特倫布萊和莫娜·阿瓦德在美國(guó)加州北區(qū)法院,向OpenAI提起集體訴訟,指控后者未經(jīng)授權(quán)也未聲明,利用自身享有版權(quán)的圖書訓(xùn)練ChatGPT,謀取商業(yè)利益。同月16名匿名人士向美國(guó)加利福尼亞舊金山聯(lián)邦法院提起訴訟,指控ChatGPT在沒(méi)有充分通知用戶,或獲得同意的情況下,收集、存儲(chǔ)、跟蹤、共享和披露了他們的個(gè)人信息。他們稱受害者據(jù)稱可能多達(dá)數(shù)百萬(wàn)人,據(jù)此要求微軟和OpenAI賠償30億美元。11.4.1大模型的訴訟案例2023年7月10日,美國(guó)喜劇演員和作家薩拉·希爾弗曼以及另外兩名作家理查德·卡德雷、克里斯托弗·戈?duì)柕窃诩又荼眳^(qū)法院起訴OpenAI,指控ChatGPT所用的訓(xùn)練數(shù)據(jù)侵犯版權(quán)。同年9月19日,美國(guó)作家協(xié)會(huì)以及包括《權(quán)力的游戲》原著作者喬治·R·R·馬丁在內(nèi)的17位美國(guó)著名作家向美國(guó)紐約聯(lián)邦法院提起訴訟,指控OpenAI“大規(guī)模、系統(tǒng)性地盜竊”,稱OpenAI在未經(jīng)授權(quán)的情況下使用原告作家的版權(quán)作品訓(xùn)練其大語(yǔ)言模型,公然侵犯了作家們登記在冊(cè)的版權(quán)。11.4.1大模型的訴訟案例同年12月,含多名普利策獎(jiǎng)得主在內(nèi)的11位美國(guó)作家,在曼哈頓聯(lián)邦法院起訴OpenAI和微軟濫用自己作品訓(xùn)練大模型,指出這樣的行為無(wú)疑是在“刮取”作家們的作品和其他受版權(quán)保護(hù)的材料,他們希望獲得經(jīng)濟(jì)賠償,并要求這些公司停止侵犯作家們的版權(quán)。11.4.1大模型的訴訟案例2023年12月27日,著名的《紐約時(shí)報(bào)》申請(qǐng)出戰(zhàn)?!都~約時(shí)報(bào)》向曼哈頓聯(lián)邦法院提起訴訟,指控OpenAI和微軟未經(jīng)許可使用該報(bào)數(shù)百萬(wàn)篇文章訓(xùn)練機(jī)器人。《紐約時(shí)報(bào)》要求獲得損害賠償,還要求永久禁止被告從事所述的非法、不公平和侵權(quán)行為,刪除包含《紐約時(shí)報(bào)》作品原理的訓(xùn)練集等。雖然《紐約時(shí)報(bào)》并未提出具體的賠償金額要求,但其指出被告應(yīng)為“非法復(fù)制和使用《紐約時(shí)報(bào)》獨(dú)特且有價(jià)值的作品”和與之相關(guān)的“價(jià)值數(shù)十億美元的法定和實(shí)際損失”負(fù)責(zé)。11.4.1大模型的訴訟案例作為回應(yīng),當(dāng)?shù)貢r(shí)間2024年1月4日,OpenAI知識(shí)產(chǎn)權(quán)和內(nèi)容首席湯姆·魯賓在采訪中表示,公司近期與數(shù)十家出版商展開了有關(guān)許可協(xié)議的談判:“我們正處于多場(chǎng)談判中,正在與多家出版商進(jìn)行討論。他們十分活躍積極,這些談判進(jìn)展良好。”據(jù)兩名近期與OpenAI進(jìn)行談判的媒體公司高管透露,為了獲得將新聞文章用于訓(xùn)練其大模型的許可,OpenAI愿意向部分媒體公司繳納每年100萬(wàn)至500萬(wàn)美元的費(fèi)用。雖然對(duì)于一些出版商來(lái)說(shuō),這是一個(gè)很小的數(shù)字,但如果媒體公司數(shù)量足夠多,對(duì)OpenAI而言必然是一次“大出血”。11.4.1大模型的訴訟案例(5)Meta承認(rèn)使用盜版書籍訓(xùn)練大模型,但否認(rèn)侵權(quán)。2023年7月10日,莎拉等三人起訴OpenAI的同時(shí)也起訴了臉書的母公司Meta,指控其侵犯版權(quán),使用包含大量盜版書籍的Books3數(shù)據(jù)集訓(xùn)練LLama系大模型后。公開資料顯示,創(chuàng)建于2020年的Books3是一個(gè)包含19.5萬(wàn)本圖書、總?cè)萘窟_(dá)37GB的文本數(shù)據(jù)集,旨在為改進(jìn)機(jī)器學(xué)習(xí)算法提供更好的數(shù)據(jù)源,但其中包含大量從盜版網(wǎng)站Bibliotik爬取的受版權(quán)保護(hù)作品。11.4.1大模型的訴訟案例對(duì)此,Meta方面承認(rèn)其使用Books3數(shù)據(jù)集的部分內(nèi)容來(lái)訓(xùn)練LLama1和LLama2,但否認(rèn)了侵權(quán)行為。Meta方面方表示,其使用Books3數(shù)據(jù)集訓(xùn)練大模型屬于合理使用范疇,無(wú)需獲得許可、署名或支付補(bǔ)償。同時(shí)Meta方面還對(duì)該訴訟作為集體訴訟的合法性提出異議,并拒絕向提起訴訟的作家或其他參與Books3爭(zhēng)議的人士提供任何形式的經(jīng)濟(jì)補(bǔ)償。11.4.1大模型的訴訟案例在大模型技術(shù)獲得重大突破的同時(shí),與大模型有關(guān)的知識(shí)產(chǎn)權(quán)糾紛也開始走進(jìn)公眾的視線。大模型對(duì)于現(xiàn)有知識(shí)產(chǎn)權(quán)法律的挑戰(zhàn),是技術(shù)快速發(fā)展和應(yīng)用所帶來(lái)的最直接的影響之一。日內(nèi)瓦大學(xué)數(shù)字法學(xué)中心的雅克·德·韋拉教授指出,透明度在版權(quán)生態(tài)系統(tǒng)中正變得愈發(fā)重要。由于目前的知識(shí)產(chǎn)權(quán)只保護(hù)人類作者

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論