版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
浙江省普通本科高?!笆奈濉敝攸c(diǎn)教材大語(yǔ)言模型通識(shí)大語(yǔ)言模型通識(shí)周蘇教授QQ:81505050第12章技術(shù)倫理與限制大模型時(shí)代的到來,使得人工智能成為了真正影響人類社會(huì)的重要技術(shù)之一。隨著人工智能不斷取得突破,一些潛在的隱患和道德倫理問題也逐步顯現(xiàn)出來。例如,人工智能在安全、隱私等方面存在一定風(fēng)險(xiǎn)隱患:“換臉”技術(shù)有可能侵犯?jìng)€(gè)人隱私,信息采集不當(dāng)會(huì)帶來數(shù)據(jù)泄露,算法漏洞加劇則認(rèn)知偏見……這說明,人工智能不單具有技術(shù)屬性,還具有明顯的社會(huì)屬性。唯有綜合考慮經(jīng)濟(jì)、社會(huì)和環(huán)境等因素,才能更好地應(yīng)對(duì)人工智能技術(shù)帶來的機(jī)遇和挑戰(zhàn),推動(dòng)其健康發(fā)展。第12章技術(shù)倫理與限制人工智能治理帶來很多課題亟待相關(guān)法律和倫理工作者作答,如何打造“負(fù)責(zé)任的人工智能”正變得愈發(fā)迫切和關(guān)鍵。必須加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,規(guī)范人工智能的發(fā)展,確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。致力于依照“以人為本”的倫理原則推進(jìn)人工智能的發(fā)展,應(yīng)該將“社會(huì)責(zé)任人工智能”作為一個(gè)重要的研究方向。只有正確處理好人和機(jī)器的關(guān)系,才能更好走向“人機(jī)混合”的智能時(shí)代。第12章技術(shù)倫理與限制01人工智能面臨的倫理挑戰(zhàn)02大數(shù)據(jù)倫理問題03大數(shù)據(jù)的知識(shí)產(chǎn)權(quán)保護(hù)04算法歧視目錄/CONTENTSPART01人工智能面臨的倫理挑戰(zhàn)華裔人工智能科學(xué)家李飛飛表示,現(xiàn)在迫切需要讓倫理成為人工智能研究與發(fā)展的根本組成部分。顯然,我們比歷史上任何時(shí)候都更加需要注重技術(shù)與倫理的平衡。因?yàn)橐环矫婕夹g(shù)意味著速度和效率,應(yīng)發(fā)揮好技術(shù)的無(wú)限潛力,善用技術(shù)追求效率,創(chuàng)造社會(huì)和經(jīng)濟(jì)效益。另一方面,人性意味著深度和價(jià)值,要追求人性,維護(hù)人類價(jià)值和自我實(shí)現(xiàn),避免技術(shù)發(fā)展和應(yīng)用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準(zhǔn)繩的“技術(shù)算法”和以倫理為準(zhǔn)繩的“人性算法”之間實(shí)現(xiàn)平衡,才能確?!翱萍枷蛏啤?。12.1人工智能面臨的倫理挑戰(zhàn)從語(yǔ)音識(shí)別到智能音箱,從無(wú)人駕駛到人機(jī)對(duì)戰(zhàn),經(jīng)過多年不斷地創(chuàng)新發(fā)展,人工智能給人類社會(huì)帶來了一次又一次驚喜。同時(shí),個(gè)人身份信息和行為數(shù)據(jù)有可能被整合在一起,這雖然能讓機(jī)器更了解我們,為人們提供更好的服務(wù),但如果使用不當(dāng),則可能引發(fā)隱私和數(shù)據(jù)泄露問題。例如,據(jù)《福布斯》網(wǎng)站報(bào)道,一名14歲的少年黑客輕而易舉地侵入了互聯(lián)網(wǎng)汽車,他不僅入侵了汽車的互聯(lián)網(wǎng)系統(tǒng),甚至可以遠(yuǎn)程操控汽車,這震驚了整個(gè)汽車行業(yè)。可見,如何更好地解決這些社會(huì)關(guān)注的倫理相關(guān)問題,需要提早考慮和布局。12.1.1人工智能與人類的關(guān)系對(duì)人工智能與人類之間倫理關(guān)系的研究,不能脫離對(duì)人工智能技術(shù)本身的討論。(1)首先,是真正意義上的人工智能的發(fā)展路徑。在1956年達(dá)特茅斯學(xué)院的研討會(huì)上,人們思考的是如何將人類的各種感覺,包括視覺、聽覺、觸覺,甚至大腦的思考都變成信息,并加以控制和應(yīng)用。因此,人工智能的發(fā)展在很大程度上是對(duì)人類行為的模擬,讓一種更像人的思維機(jī)器能夠誕生。著名的圖靈測(cè)試,其目的也是在檢驗(yàn)人工智能是否更像人類。12.1.1人工智能與人類的關(guān)系但問題在于,機(jī)器思維在做出其判斷時(shí),是否需要人的思維這個(gè)中介?顯然,對(duì)于人工智能來說,答案是否定的。人類的思維具有一定的定勢(shì)和短板,強(qiáng)制性地模擬人類大腦思維的方式,并不是人工智能發(fā)展的良好選擇。12.1.1人工智能與人類的關(guān)系(2)人工智能發(fā)展的另一個(gè)方向,即智能增強(qiáng)。如果模擬真實(shí)的人的大腦和思維的方向不再重要,那么,人工智能是否能發(fā)展出一種純粹機(jī)器的學(xué)習(xí)和思維方式?倘若機(jī)器能夠思維,是否能以機(jī)器本身的方式來進(jìn)行。12.1.1人工智能與人類的關(guān)系機(jī)器學(xué)習(xí),即屬于機(jī)器本身的學(xué)習(xí)方式,它通過海量的信息和數(shù)據(jù)收集,讓機(jī)器從這些信息中提出自己的抽象觀念,例如,在給機(jī)器瀏覽了上萬(wàn)張貓的圖片之后,讓機(jī)器從這些圖片信息中自己提煉出關(guān)于貓的概念。這個(gè)時(shí)候,很難說機(jī)器抽象出來的關(guān)于貓的概念與人類自己理解的貓的概念之間是否存在著差別。但是,模擬人類大腦和思維的人工智能尚具有一定的可控性,而基于機(jī)器思維的人工智能顯然不能做簡(jiǎn)單定論。圖12-2人工智能識(shí)別貓12.1.1人工智能與人類的關(guān)系第一個(gè)提出“智能增強(qiáng)”的工程師恩格爾巴特認(rèn)為:智能增強(qiáng)技術(shù)更關(guān)心的是人與智能機(jī)器之間的互補(bǔ)性,如何利用智能機(jī)器來彌補(bǔ)人類思維上的不足。比如自動(dòng)駕駛技術(shù)就是一種典型的智能增強(qiáng)技術(shù)。自動(dòng)駕駛技術(shù)的實(shí)現(xiàn),不僅是在汽車上安裝了自動(dòng)駕駛的程序,更關(guān)鍵地還需要采集大量的地圖地貌信息,需要自動(dòng)駕駛的程序能夠在影像資料上判斷一些移動(dòng)的偶然性因素,如突然穿過馬路的人。12.1.1人工智能與人類的關(guān)系自動(dòng)駕駛技術(shù)能夠取代容易疲勞和分心的駕駛員,讓人類從繁重的駕駛?cè)蝿?wù)中解放出來。同樣,在分揀快遞、在汽車工廠里自動(dòng)組裝的機(jī)器人也屬于智能增強(qiáng),它們不關(guān)心如何更像人類,而是關(guān)心如何用自己的方式來解決問題。12.1.1人工智能與人類的關(guān)系智能增強(qiáng)技術(shù)帶來了人類思維和機(jī)器這兩個(gè)平面,兩個(gè)平面之間需要一個(gè)接口,接口技術(shù)讓人與智能機(jī)器的溝通成為可能。在這種觀念的指引下,今天的人工智能的發(fā)展目標(biāo)并不是產(chǎn)生一種獨(dú)立的意識(shí),而是如何形成與人類交流的接口技術(shù)。也就是說,人類與智能機(jī)器的關(guān)系,既不是純粹的利用關(guān)系,也不是對(duì)人的取代,成為人類的主人,而是一種共生性的伙伴關(guān)系。12.1.2人與智能機(jī)器的溝通由人工智能衍生出來的技術(shù)還有很多,其中潛在的倫理問題與風(fēng)險(xiǎn)也值得我們?nèi)ド钊胩接?。如今關(guān)于“人工智能威脅論”的觀點(diǎn)有不少支持者。如果人類要想在人工智能這一領(lǐng)域進(jìn)行深入研究發(fā)展,就必須建立起一個(gè)穩(wěn)妥的科技倫理,以此來約束人工智能的研發(fā)方向和應(yīng)用領(lǐng)域。12.1.2人與智能機(jī)器的溝通業(yè)界已經(jīng)展開了一定程度的探索。譬如,構(gòu)建有效的優(yōu)化訓(xùn)練數(shù)據(jù)集,防止人工智能生成對(duì)公共安全、生產(chǎn)安全等有害的內(nèi)容;在編程設(shè)計(jì)階段,通過技術(shù)手段防止數(shù)據(jù)謬誤,增加智能系統(tǒng)的透明度和公平性;預(yù)先設(shè)立應(yīng)急機(jī)制和應(yīng)對(duì)措施,對(duì)人工智能使用人員進(jìn)行必要培訓(xùn)。這些舉措,都在技術(shù)層面進(jìn)一步夯實(shí)了人工智能治理的基礎(chǔ)。12.1.2人與智能機(jī)器的溝通近年來,我國(guó)陸續(xù)發(fā)布《新一代人工智能倫理規(guī)范》《關(guān)于加強(qiáng)科技倫理治理的意見》《全球人工智能治理倡議》等,旨在提升人工智能治理能力,有效防控人工智能發(fā)展風(fēng)險(xiǎn)。同時(shí),我國(guó)還通過積極搭建人工智能發(fā)展各方參與的開放性平臺(tái),推動(dòng)形成具有廣泛共識(shí)的國(guó)際人工智能治理方案,向國(guó)際社會(huì)貢獻(xiàn)中國(guó)智慧。著眼長(zhǎng)遠(yuǎn),在發(fā)展、應(yīng)用的同時(shí)加強(qiáng)監(jiān)管和規(guī)范,人工智能就能更好造福人類。12.1.2人與智能機(jī)器的溝通PART02大數(shù)據(jù)倫理問題“大數(shù)據(jù)倫理問題”指的是由于大數(shù)據(jù)技術(shù)的產(chǎn)生和使用而引發(fā)的社會(huì)問題,是集體和人與人之間關(guān)系的行為準(zhǔn)則問題。作為一種新的技術(shù),像其他所有技術(shù)一樣,大數(shù)據(jù)技術(shù)本身是無(wú)所謂好壞的,而它的“善”與“惡”全然在于對(duì)大數(shù)據(jù)技術(shù)的使用者,他想要通過大數(shù)據(jù)技術(shù)所要達(dá)到怎樣的目的。一般而言,使用大數(shù)據(jù)技術(shù)的個(gè)人、公司都有著不同的目的和動(dòng)機(jī),由此導(dǎo)致了大數(shù)據(jù)技術(shù)的應(yīng)用會(huì)產(chǎn)生出積極影響和消極影響。12.2大數(shù)據(jù)倫理問題大數(shù)據(jù)是21世紀(jì)的“新能源”,已成為世界政治經(jīng)濟(jì)角逐的焦點(diǎn),世界各國(guó)都紛紛將大數(shù)據(jù)發(fā)展上升為國(guó)家戰(zhàn)略。大數(shù)據(jù)產(chǎn)業(yè)在創(chuàng)造巨大社會(huì)價(jià)值的同時(shí),也遭遇隱私侵權(quán)和信息安全等倫理問題,發(fā)現(xiàn)或辨識(shí)這些問題,分析其成因,提出解決這些問題的倫理規(guī)制方案,是人工智能和大數(shù)據(jù)產(chǎn)業(yè)發(fā)展亟待解決的重大問題。
圖12-3第三方機(jī)構(gòu)使用數(shù)據(jù)的方式12.2大數(shù)據(jù)倫理問題大數(shù)據(jù)產(chǎn)業(yè)面臨的倫理問題主要包括數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題、隱私權(quán)和自主權(quán)的侵犯問題、數(shù)據(jù)利用失衡問題,這些問題影響了大數(shù)據(jù)生產(chǎn)、采集、存儲(chǔ)、交易流轉(zhuǎn)和開發(fā)使用全過程。12.2大數(shù)據(jù)倫理問題由于跨境數(shù)據(jù)流動(dòng)劇增、數(shù)據(jù)經(jīng)濟(jì)價(jià)值凸顯、個(gè)人隱私危機(jī)爆發(fā)等多方面因素,數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)已成為大數(shù)據(jù)產(chǎn)業(yè)發(fā)展遭遇的關(guān)鍵問題。數(shù)據(jù)的跨境流動(dòng)是不可避免的,但這也給國(guó)家安全帶來了威脅,數(shù)據(jù)的主權(quán)問題由此產(chǎn)生。數(shù)據(jù)主權(quán)是指國(guó)家對(duì)其政權(quán)管轄地域內(nèi)的數(shù)據(jù)享有生成、傳播、管理、控制和利用的權(quán)力。數(shù)據(jù)主權(quán)是國(guó)家主權(quán)在信息化、數(shù)字化和全球化發(fā)展趨勢(shì)下新的表現(xiàn)形式,是各國(guó)在大數(shù)據(jù)時(shí)代維護(hù)國(guó)家主權(quán)和獨(dú)立,反對(duì)數(shù)據(jù)壟斷和霸權(quán)主義的必然要求,是國(guó)家安全的保障。12.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)權(quán)包括機(jī)構(gòu)數(shù)據(jù)權(quán)和個(gè)人數(shù)據(jù)權(quán)。機(jī)構(gòu)數(shù)據(jù)權(quán)是企業(yè)和其他機(jī)構(gòu)對(duì)個(gè)人數(shù)據(jù)的采集權(quán)和使用權(quán),是企業(yè)的核心競(jìng)爭(zhēng)力。個(gè)人數(shù)據(jù)權(quán)是指?jìng)€(gè)人擁有對(duì)自身數(shù)據(jù)的控制權(quán),以保護(hù)自身隱私信息不受侵犯的權(quán)利,也是個(gè)人的基本權(quán)利。個(gè)人在互聯(lián)網(wǎng)上產(chǎn)生了大量的數(shù)據(jù),這些數(shù)據(jù)與個(gè)人的隱私密切相關(guān),個(gè)人對(duì)這些數(shù)據(jù)擁有財(cái)產(chǎn)權(quán)。12.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)財(cái)產(chǎn)權(quán)是數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)的核心內(nèi)容。以大數(shù)據(jù)為主的信息技術(shù)賦予了數(shù)據(jù)以財(cái)產(chǎn)屬性,數(shù)據(jù)財(cái)產(chǎn)是指將數(shù)據(jù)符號(hào)固定于介質(zhì)之上,具有一定的價(jià)值,能夠?yàn)槿藗兯兄屠玫囊环N新型財(cái)產(chǎn)。數(shù)據(jù)財(cái)產(chǎn)包含形式要素和實(shí)質(zhì)要素兩個(gè)部分,數(shù)據(jù)符號(hào)所依附的介質(zhì)為其形式要素,數(shù)據(jù)財(cái)產(chǎn)所承載的有價(jià)值的信息為其實(shí)質(zhì)要素。2001年世界經(jīng)濟(jì)論壇將個(gè)人數(shù)據(jù)指定為“新資產(chǎn)類別”,數(shù)據(jù)成為一種資產(chǎn),并且像商品一樣被交易。12.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)的使用和個(gè)人的隱私保護(hù)是大數(shù)據(jù)產(chǎn)業(yè)發(fā)展面臨的一大沖突。數(shù)據(jù)權(quán)屬不明的直接后果就是國(guó)家安全受到威脅,數(shù)據(jù)交易活動(dòng)存在法律風(fēng)險(xiǎn)和利益沖突,個(gè)人隱私和利益受到侵犯。12.2.2隱私權(quán)和自主權(quán)問題互聯(lián)網(wǎng)發(fā)展初期,只有個(gè)人的保密信息與個(gè)人隱私關(guān)聯(lián)較為密切;而在大數(shù)據(jù)環(huán)境下,個(gè)人在互聯(lián)網(wǎng)上的任何行為都會(huì)變成數(shù)據(jù)被沉淀下來,這些數(shù)據(jù)的匯集可能導(dǎo)致個(gè)人隱私的泄露。絕大多數(shù)互聯(lián)網(wǎng)企業(yè)通過記錄用戶不斷產(chǎn)生的數(shù)據(jù),監(jiān)控用戶在互聯(lián)網(wǎng)上的行為,據(jù)此對(duì)用戶進(jìn)行畫像,分析其興趣愛好、行為習(xí)慣,對(duì)用戶做各種分類,然后以精準(zhǔn)廣告的形式給用戶提供符合其偏好的產(chǎn)品或服務(wù)。另外,互聯(lián)網(wǎng)公司還可以通過消費(fèi)數(shù)據(jù)等分析評(píng)估消費(fèi)者的信用,從而提供精準(zhǔn)的金融服務(wù)進(jìn)行盈利。在這兩種商業(yè)模式中,用戶成為被觀察、分析和監(jiān)測(cè)的對(duì)象,這是用個(gè)人生活和隱私來成全的商業(yè)模式。12.2.2隱私權(quán)和自主權(quán)問題數(shù)據(jù)利用的失衡主要體現(xiàn)在兩個(gè)方面。(1)數(shù)據(jù)的利用率較低。隨著移動(dòng)互聯(lián)網(wǎng)的發(fā)展,每天都有海量的數(shù)據(jù)產(chǎn)生,全球數(shù)據(jù)規(guī)模呈指數(shù)級(jí)增長(zhǎng),但是,一項(xiàng)針對(duì)大型企業(yè)的調(diào)研結(jié)果顯示,企業(yè)大數(shù)據(jù)的利用率僅在12%左右。就掌握大量數(shù)據(jù)的政府而言,其數(shù)據(jù)的利用率更低。12.2.3數(shù)據(jù)利用失衡問題(2)數(shù)字鴻溝現(xiàn)象日益顯著。數(shù)字鴻溝束縛數(shù)據(jù)流通,導(dǎo)致數(shù)據(jù)利用水平較低。大數(shù)據(jù)的“政用”“民用”和“工用”相對(duì)于大數(shù)據(jù)在商用領(lǐng)域的發(fā)展,無(wú)論技術(shù)、人才還是數(shù)據(jù)規(guī)模都有巨大差距。現(xiàn)階段大數(shù)據(jù)應(yīng)用較為成熟的行業(yè)是電商、電信和金融領(lǐng)域,醫(yī)療、能源、教育等領(lǐng)域則處于起步階段。由于大數(shù)據(jù)在商用領(lǐng)域產(chǎn)生巨大利益,數(shù)據(jù)資源、社會(huì)資源、人才資源均向其傾斜,涉及經(jīng)濟(jì)利益較弱的領(lǐng)域,市場(chǎng)占比少。12.2.3數(shù)據(jù)利用失衡問題在商用領(lǐng)域內(nèi),優(yōu)勢(shì)的行業(yè)或優(yōu)勢(shì)的企業(yè)也往往占據(jù)了大量的大數(shù)據(jù)資源。大數(shù)據(jù)對(duì)于改善民生、輔助政府決策、提升工業(yè)信息化水平、推動(dòng)社會(huì)進(jìn)步可以起到巨大的作用,因此大數(shù)據(jù)的發(fā)展應(yīng)該更加均衡,這也符合國(guó)家大數(shù)據(jù)戰(zhàn)略中服務(wù)經(jīng)濟(jì)社會(huì)發(fā)展和人民生活改善的方向。12.2.3數(shù)據(jù)利用失衡問題PART03大模型的知識(shí)產(chǎn)權(quán)保護(hù)人工智能的技術(shù)發(fā)展與知識(shí)產(chǎn)權(quán)歸屬的邊界正變得日益模糊。通過大量公開數(shù)據(jù)進(jìn)行訓(xùn)練,從而讓模型學(xué)習(xí)具有生成產(chǎn)物的能力,這就是生成式人工智能的構(gòu)建方式。這些數(shù)據(jù)包括文字、畫作和代碼,模型正是從海量的數(shù)據(jù)中獲得的生成同樣產(chǎn)物的能力。隨著生成式人工智能的快速崛起,在重塑行業(yè)、賦能人類工作生活的同時(shí),也引發(fā)了版權(quán)制度層面的一系列新的挑戰(zhàn)。12.3大模型的知識(shí)產(chǎn)權(quán)保護(hù)Midjourney是一款著名和強(qiáng)大的人工智能繪畫工具,它為用戶提供了各種創(chuàng)意的繪圖功能,可以是文生圖或者圖生圖。例如,在操作界面上提出創(chuàng)意要求:“男子身長(zhǎng)八尺,儀表堂堂,渾身上下有百斤力氣”。Midjourney先將描述文字優(yōu)化轉(zhuǎn)化為:“身長(zhǎng)八尺男子,儀表堂堂,肌肉質(zhì)感,戰(zhàn)斗服裝,沉穩(wěn)表情,獨(dú)自面對(duì)山川,壯麗風(fēng)景,逆光拍攝,長(zhǎng)焦鏡頭,高飽和度,英勇,決心?!笨梢詫?duì)其做修改調(diào)整,在此基礎(chǔ)上,一次生成了4張高質(zhì)量的藝術(shù)作品(見圖12-4)。12.3.1大模型的訴訟案例盡管Midjourney面臨嚴(yán)重的版權(quán)問題,但其創(chuàng)始人大衛(wèi)·霍爾茨針對(duì)人工智能對(duì)創(chuàng)意工作的影響有自己的看法,他強(qiáng)調(diào)Midjourney的目標(biāo)是拓展人類的想象力,幫助用戶快速產(chǎn)生創(chuàng)意,為專業(yè)用戶提供概念設(shè)計(jì)的支持,而不是取代藝術(shù)家。他認(rèn)為人工智能技術(shù)的發(fā)展將促使市場(chǎng)朝著更高質(zhì)量、更有創(chuàng)意、更多樣化和更深度的內(nèi)容方向發(fā)展。人工智能技術(shù)的出現(xiàn)對(duì)那些雄心勃勃的藝術(shù)家的未來影響仍有待觀察,但藝術(shù)工作本身是有趣的,人工智能技術(shù)應(yīng)該服務(wù)于讓人們自由發(fā)展更有回報(bào)、更有趣的工作,而不是取代藝術(shù)家的創(chuàng)作過程。12.3.1大模型的訴訟案例藝術(shù)家是否愿意將作品納入人工智能訓(xùn)練模型、是否會(huì)對(duì)版權(quán)問題產(chǎn)生擔(dān)憂等議題值得深入思考。隨著人工智能技術(shù)的發(fā)展,可能會(huì)對(duì)藝術(shù)創(chuàng)作帶來新的影響和挑戰(zhàn)。然而,尊重藝術(shù)家的創(chuàng)作意愿,維護(hù)版權(quán)法律,是保障藝術(shù)創(chuàng)作多樣性和質(zhì)量的重要途徑。通過合理規(guī)范和監(jiān)管,人工智能技術(shù)可以更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,實(shí)現(xiàn)技術(shù)與人文的和諧共生。12.3.1大模型的訴訟案例在藝術(shù)創(chuàng)作領(lǐng)域,人工智能技術(shù)作為一種輔助工具,有助于提高創(chuàng)作效率和創(chuàng)意產(chǎn)出,但無(wú)法替代藝術(shù)家的獨(dú)特創(chuàng)作能力和靈感。對(duì)于藝術(shù)家來說,關(guān)鍵在于如何運(yùn)用和平衡人工智能技術(shù),創(chuàng)作出更具深度和獨(dú)特性的作品,從而實(shí)現(xiàn)藝術(shù)創(chuàng)作與科技創(chuàng)新的有機(jī)結(jié)合。Midjourney的未來發(fā)展方向也需要更多的思考和探討,以確保AI技術(shù)的應(yīng)用能夠更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,促進(jìn)藝術(shù)的多樣性和創(chuàng)新性。12.3.1大模型的訴訟案例(1)“訓(xùn)練”類技術(shù)的首次法律訴訟。2022年11月3日和10日,程序員兼律師馬修·巴特里克等人向美國(guó)加州北區(qū)聯(lián)法院遞交了一份集體訴訟起訴書,指控OpenAI和微軟使用他們貢獻(xiàn)的代碼訓(xùn)練人工智能編程工具Copilot及Codex,要求法院批準(zhǔn)90億美元(約649億人民幣)的法定損害賠償金。12.3.1大模型的訴訟案例根據(jù)集體訴訟文件,每當(dāng)Copilot提供非法輸出,它就違反第1202條三次,即沒有①注明出處,②版權(quán)通知,③許可條款的許可材料。因?yàn)閮晒ぞ呤褂肎itHub上的開源軟件用于訓(xùn)練并輸出,但并未按照要求進(jìn)行致謝,版權(quán)聲明和附上許可證,甚至標(biāo)識(shí)錯(cuò)誤,違反了上千萬(wàn)軟件開發(fā)者的許可協(xié)議。原告進(jìn)一步指稱被告將其敏感個(gè)人數(shù)據(jù)一并納入Copilot中向他人提供,構(gòu)成違反開源許可證、欺詐、違反GitHub服務(wù)條款隱私政策等。12.3.1大模型的訴訟案例巴特里克強(qiáng)調(diào):“我們反對(duì)的絕不是人工智能輔助編程工具,而是微軟在Copilot當(dāng)中的種種具體行徑。微軟完全可以把Copilot做得更開發(fā)者友好——比如邀請(qǐng)大家自愿參加,或者由編程人員有償對(duì)訓(xùn)練語(yǔ)料庫(kù)做出貢獻(xiàn)。但截至目前,口口聲聲自稱熱愛開源的微軟根本沒做過這方面的嘗試。另外,如果大家覺得Copilot效果挺好,那主要也是因?yàn)榈讓娱_源訓(xùn)練數(shù)據(jù)的質(zhì)量過硬。Copilot其實(shí)是在從開源項(xiàng)目那邊吞噬能量,而一旦開源活力枯竭,Copilot也將失去發(fā)展的依憑?!?2.3.1大模型的訴訟案例(2)人工智能繪畫工具被指控抄襲。2023年1月17日,全球知名圖片提供商華蓋創(chuàng)意起訴人工智能繪畫工具StableDiffusion的開發(fā)者StabilityAI,稱其侵犯了版權(quán)。1995年成立的華蓋創(chuàng)意首創(chuàng)并引領(lǐng)了獨(dú)特的在線授權(quán)模式——在線提供數(shù)字媒體管理工具以及創(chuàng)意類圖片、編輯類圖片、影視素材和音樂產(chǎn)品。華蓋創(chuàng)意稱StabilityAI在未經(jīng)許可的情況下,從網(wǎng)站上竊取了數(shù)百萬(wàn)張圖片訓(xùn)練自己的模型,使用他人的知識(shí)產(chǎn)權(quán),為自己的經(jīng)濟(jì)利益服務(wù),這不是公平交易,所以采取行動(dòng)保護(hù)公司和藝術(shù)家們的知識(shí)產(chǎn)權(quán)。12.3.1大模型的訴訟案例2023年1月16日,莎拉·安德森、凱莉·麥克南和卡拉·奧爾蒂斯三名藝術(shù)家對(duì)StabilityAI,另一個(gè)AI繪畫工具M(jìn)idjourney以及藝術(shù)家作品集平臺(tái)DeviantArt提出訴訟,稱這些組織“未經(jīng)原作者同意的情況下”通過從網(wǎng)絡(luò)上獲取的50億張圖像來訓(xùn)練其人工智能,侵犯了“數(shù)百萬(wàn)藝術(shù)家”的權(quán)利。負(fù)責(zé)這個(gè)案件的律師正是訴訟OpenAI和微軟的馬修·巴特里克,他描述此案為“為每一個(gè)人創(chuàng)造公平的環(huán)境和市場(chǎng)的第一步”。不過,一審法官駁回了大部分上述訴求,但頒布了法庭許可,允許原告在調(diào)整、補(bǔ)充起訴事由和證據(jù)材料后另行起訴。12.3.1大模型的訴訟案例事實(shí)上,Midjourney對(duì)這類問題表現(xiàn)得不屑一顧,認(rèn)為:“沒有經(jīng)過授權(quán),我們也沒辦法一一排查上億張訓(xùn)練圖像分別來自哪里。如果再向其中添加關(guān)于版權(quán)所有者等內(nèi)容的元數(shù)據(jù),那也太麻煩了。但這不是什么大事,畢竟網(wǎng)絡(luò)上也沒有相應(yīng)的注冊(cè)表,我們做不到在互聯(lián)網(wǎng)上找一張圖片、然后輕松跟蹤它到底歸誰(shuí)所有,再采取措施來驗(yàn)證身份。既然原始訓(xùn)練素材未獲許可,那即使在我們這幫非法律出身的外行來看,這都很可能激起各制片方、電子游戲發(fā)行商和演員的反抗?!?2.3.1大模型的訴訟案例(3)看不見的幽靈與看得見的恐慌。一位名為Ghostwriter977的網(wǎng)友用Drake和TheWeeknd的聲音對(duì)人工智能模型進(jìn)行訓(xùn)練,同時(shí)模仿兩人的音樂風(fēng)格,最終生成并發(fā)布歌曲《袖子上的心》。該歌曲在不到兩天的時(shí)間里,實(shí)現(xiàn)了病毒式的傳播:在Spotify上播放量超過60萬(wàn)次,在TikTok上點(diǎn)擊量超1500萬(wàn)次,完整版在YouTube平臺(tái)上播放超27.5萬(wàn)次。值得注意的是,即便發(fā)布者并未在演唱信息中提及Drake和TheWeeknd,但該歌曲依然火了。12.3.1大模型的訴訟案例對(duì)很多人來說,這是人工智能音樂的第一首出圈之作,這是生成式人工智能進(jìn)行創(chuàng)作的開始,也是環(huán)球音樂加速干預(yù)AIGC問題的標(biāo)志。歌曲的躥紅很快引起環(huán)球音樂的注意。作為Drake和TheWeeknd的幕后唱片公司,公司對(duì)外發(fā)表言辭激烈的聲明稱:“使用我們旗下的藝術(shù)家對(duì)人工智能生成內(nèi)容進(jìn)行訓(xùn)練,這既違反了協(xié)議,也違反了版權(quán)法?!痹诃h(huán)球音樂的投訴下,這首歌曲先從Spotify和AppleMusic下架。緊隨其后,其他機(jī)構(gòu)也撤下了該歌曲。12.3.1大模型的訴訟案例環(huán)球音樂指出,在流媒體平臺(tái)上人工智能生成內(nèi)容的可用性引發(fā)了一個(gè)問題,即音樂行業(yè)生態(tài)中的所有利益相關(guān)者到底希望站在歷史的哪一邊:“是站在藝術(shù)家、粉絲和人類創(chuàng)造性表達(dá)的一邊,還是站在深度偽造、欺詐和剝奪藝術(shù)應(yīng)得補(bǔ)償?shù)牧硪贿??!焙茱@然,在忍耐的極限后,業(yè)內(nèi)巨頭開啟了對(duì)人工智能音樂的抵抗,環(huán)球音樂發(fā)函要求Spotify等音樂流媒體平臺(tái)切斷人工智能公司的訪問權(quán)限,以阻止其版權(quán)歌曲被用于訓(xùn)練模型和生成音樂。12.3.1大模型的訴訟案例(4)著名的ChatGPT,屢屢惹官司。2023年2月15日,《華爾街日?qǐng)?bào)》記者弗朗西斯科·馬可尼公開指控OpenAI公司未經(jīng)授權(quán)大量使用路透社、紐約時(shí)報(bào)、衛(wèi)報(bào)、BBC等國(guó)外主流媒體的文章訓(xùn)練ChatGPT模型,但從未支付任何費(fèi)用。12.3.1大模型的訴訟案例2023年6月28日,第一起具有代表性的ChatGPT版權(quán)侵權(quán)之訴出現(xiàn)在公眾視野。兩名暢銷書作家保羅·特倫布萊和莫娜·阿瓦德在美國(guó)加州北區(qū)法院,向OpenAI提起集體訴訟,指控后者未經(jīng)授權(quán)也未聲明,利用自身享有版權(quán)的圖書訓(xùn)練ChatGPT,謀取商業(yè)利益。同月16名匿名人士向美國(guó)加利福尼亞舊金山聯(lián)邦法院提起訴訟,指控ChatGPT在沒有充分通知用戶,或獲得同意的情況下,收集、存儲(chǔ)、跟蹤、共享和披露了他們的個(gè)人信息。他們稱受害者據(jù)稱可能多達(dá)數(shù)百萬(wàn)人,據(jù)此要求微軟和OpenAI賠償30億美元。12.3.1大模型的訴訟案例2023年7月10日,美國(guó)喜劇演員和作家薩拉·希爾弗曼以及另外兩名作家理查德·卡德雷、克里斯托弗·戈?duì)柕窃诩又荼眳^(qū)法院起訴OpenAI,指控ChatGPT所用的訓(xùn)練數(shù)據(jù)侵犯版權(quán)。同年9月19日,美國(guó)作家協(xié)會(huì)以及包括《權(quán)力的游戲》原著作者喬治·R·R·馬丁在內(nèi)的17位美國(guó)著名作家向美國(guó)紐約聯(lián)邦法院提起訴訟,指控OpenAI“大規(guī)模、系統(tǒng)性地盜竊”,稱OpenAI在未經(jīng)授權(quán)的情況下使用原告作家的版權(quán)作品訓(xùn)練其大語(yǔ)言模型,公然侵犯了作家們登記在冊(cè)的版權(quán)。12.3.1大模型的訴訟案例同年12月,含多名普利策獎(jiǎng)得主在內(nèi)的11位美國(guó)作家,在曼哈頓聯(lián)邦法院起訴OpenAI和微軟濫用自己作品訓(xùn)練大模型,指出這樣的行為無(wú)疑是在“刮取”作家們的作品和其他受版權(quán)保護(hù)的材料,他們希望獲得經(jīng)濟(jì)賠償,并要求這些公司停止侵犯作家們的版權(quán)。12.3.1大模型的訴訟案例2023年12月27日,著名的《紐約時(shí)報(bào)》申請(qǐng)出戰(zhàn)?!都~約時(shí)報(bào)》向曼哈頓聯(lián)邦法院提起訴訟,指控OpenAI和微軟未經(jīng)許可使用該報(bào)數(shù)百萬(wàn)篇文章訓(xùn)練機(jī)器人?!都~約時(shí)報(bào)》要求獲得損害賠償,還要求永久禁止被告從事所述的非法、不公平和侵權(quán)行為,刪除包含《紐約時(shí)報(bào)》作品原理的訓(xùn)練集等。雖然《紐約時(shí)報(bào)》并未提出具體的賠償金額要求,但其指出被告應(yīng)為“非法復(fù)制和使用《紐約時(shí)報(bào)》獨(dú)特且有價(jià)值的作品”和與之相關(guān)的“價(jià)值數(shù)十億美元的法定和實(shí)際損失”負(fù)責(zé)。12.3.1大模型的訴訟案例作為回應(yīng),當(dāng)?shù)貢r(shí)間2024年1月4日,OpenAI知識(shí)產(chǎn)權(quán)和內(nèi)容首席湯姆·魯賓在采訪中表示,公司近期與數(shù)十家出版商展開了有關(guān)許可協(xié)議的談判:“我們正處于多場(chǎng)談判中,正在與多家出版商進(jìn)行討論。他們十分活躍積極,這些談判進(jìn)展良好?!睋?jù)兩名近期與OpenAI進(jìn)行談判的媒體公司高管透露,為了獲得將新聞文章用于訓(xùn)練其大模型的許可,OpenAI愿意向部分媒體公司繳納每年100萬(wàn)至500萬(wàn)美元的費(fèi)用。雖然對(duì)于一些出版商來說,這是一個(gè)很小的數(shù)字,但如果媒體公司數(shù)量足夠多,對(duì)OpenAI而言必然是一次“大出血”。12.3.1大模型的訴訟案例(5)Meta承認(rèn)使用盜版書籍訓(xùn)練大模型,但否認(rèn)侵權(quán)。2023年7月10日,莎拉等三人起訴OpenAI的同時(shí)也起訴了臉書的母公司Meta,指控其侵犯版權(quán),使用包含大量盜版書籍的Books3數(shù)據(jù)集訓(xùn)練Llama系大模型后。公開資料顯示,創(chuàng)建于2020年的Books3是一個(gè)包含19.5萬(wàn)本圖書、總?cè)萘窟_(dá)37GB的文本數(shù)據(jù)集,旨在為改進(jìn)機(jī)器學(xué)習(xí)算法提供更好的數(shù)據(jù)源,但其中包含大量從盜版網(wǎng)站Bibliotik爬取的受版權(quán)保護(hù)作品。12.3.1大模型的訴訟案例對(duì)此,Meta方面承認(rèn)其使用Books3數(shù)據(jù)集的部分內(nèi)容來訓(xùn)練Llama1和Llama2,但否認(rèn)了侵權(quán)行為。對(duì)此Meta方面方表示,其使用Books3數(shù)據(jù)集訓(xùn)練大模型屬于合理使用范疇,無(wú)需獲得許可、署名或支付補(bǔ)償。同時(shí)Meta方面還對(duì)該訴訟作為集體訴訟的合法性提出異議,并拒絕向提起訴訟的作家或其他參與Books3爭(zhēng)議的人士提供任何形式的經(jīng)濟(jì)補(bǔ)償。12.3.1大模型的訴訟案例在大模型技術(shù)獲得重大突破的同時(shí),與大模型有關(guān)的知識(shí)產(chǎn)權(quán)糾紛也開始走進(jìn)公眾的視線。大模型對(duì)于現(xiàn)有知識(shí)產(chǎn)權(quán)法律的挑戰(zhàn),是技術(shù)快速發(fā)展和應(yīng)用所帶來的最直接的影響之一。12.3.2大模型生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)日內(nèi)瓦大學(xué)數(shù)字法學(xué)中心的雅克·德·韋拉教授指出,透明度在版權(quán)生態(tài)系統(tǒng)中正變得愈發(fā)重要。由于目前的知識(shí)產(chǎn)權(quán)只保護(hù)人類作者創(chuàng)作的作品,披露創(chuàng)作中非人類作者來源的部分是必要的。為了應(yīng)對(duì)這一問題,法律和技術(shù)兩方面的解決方案都應(yīng)被考慮在內(nèi)。確定人工智能生成內(nèi)容的獨(dú)創(chuàng)性門檻對(duì)于討論其生成的內(nèi)容是否需要被版權(quán)法保護(hù)是至關(guān)重要的。這就要求人們進(jìn)一步區(qū)分辨識(shí)人工智能生成的內(nèi)容和輔助產(chǎn)生的內(nèi)容,尤其是在二者之間的界限日益模糊的情況下。12.3.2大模型生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)有專家認(rèn)為白盒方法是針對(duì)這一問題的一個(gè)有潛力的解決方案。因此,應(yīng)該關(guān)注有哪些白盒方法能夠用可解釋的方式實(shí)現(xiàn)內(nèi)容生成過程的全透明和披露?顯然,大模型在知識(shí)產(chǎn)權(quán)上陷入的糾紛已經(jīng)提示人們考慮如何保障用于大模型開發(fā)的作品的人類創(chuàng)作者的權(quán)利,要找到更有效的解決方案來自動(dòng)識(shí)別和解釋內(nèi)容中是否包含有人類創(chuàng)造力。達(dá)成大模型相關(guān)的知識(shí)產(chǎn)權(quán)問題的共識(shí),有必要制定國(guó)際公認(rèn)的規(guī)則,力求在尊重知識(shí)產(chǎn)權(quán)持有者的權(quán)利、公共利益和合理使用例外情況之間達(dá)到平衡。12.3.2大模型生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)讓一個(gè)大模型運(yùn)行起來需要使用海量的文本語(yǔ)料進(jìn)行學(xué)習(xí),而這個(gè)過程中大模型使用的是無(wú)監(jiān)督學(xué)習(xí)方式進(jìn)行預(yù)訓(xùn)練。用于大模型訓(xùn)練的這些文本數(shù)據(jù)來自于互聯(lián)網(wǎng)的各個(gè)角落,包括但不限于書籍、文章、百科、新聞網(wǎng)站、論壇、博客等等,凡是互聯(lián)網(wǎng)上可以找到的信息,幾乎都在其學(xué)習(xí)之列。即便科研人員會(huì)對(duì)語(yǔ)料進(jìn)行數(shù)據(jù)清洗,但其中仍有可能包含個(gè)人的隱私信息。12.3.3尊重隱私,保障安全,促進(jìn)開放不論是語(yǔ)言模型還是圖像生成模型,大模型都會(huì)記住訓(xùn)練所使用的樣本,可能會(huì)在無(wú)意中泄露敏感信息。因此,有研究者認(rèn)為,當(dāng)前的隱私保護(hù)技術(shù)方法,如數(shù)據(jù)去重和差分隱私,可能與人們對(duì)隱私的普遍理解并不完全一致。所以,應(yīng)該在微調(diào)階段納入更嚴(yán)格的保障措施,以加強(qiáng)對(duì)于數(shù)據(jù)隱私的保護(hù)。專家們明確了大模型存在隱私風(fēng)險(xiǎn)的三個(gè)方面:互聯(lián)網(wǎng)數(shù)據(jù)訓(xùn)練、用戶數(shù)據(jù)收集和生成內(nèi)容中的無(wú)意泄露。首先需要確保公共數(shù)據(jù)不具有個(gè)人可識(shí)別性,并與私人或敏感數(shù)據(jù)明確區(qū)分開來。未來應(yīng)重點(diǎn)關(guān)注算法的透明度和對(duì)個(gè)人信息主體的潛在傷害問題。12.3.3尊重隱私,保障安全,促進(jìn)開放對(duì)于隱私保護(hù)和大模型效率之間存在著一個(gè)兩難的矛盾——既要最大限度地保護(hù)數(shù)據(jù)隱私,又要最大限度地發(fā)揮模型的功效。人們需要通過協(xié)作開發(fā)一個(gè)統(tǒng)一、可信的框架,從而在隱私保護(hù)、模型效用和訓(xùn)練效率之間取得一種平衡。12.3.3尊重隱私,保障安全,促進(jìn)開放有研究者強(qiáng)調(diào),在大模型開發(fā)過程中面臨的數(shù)據(jù)隱私問題上,要確保遵守現(xiàn)行法律法規(guī)的規(guī)定,并充分評(píng)估隱私數(shù)據(jù)的使用對(duì)個(gè)人信息主體的影響,采取有效措施防止可能帶來負(fù)面影響。另外,在確保透明性的基礎(chǔ)上,鼓勵(lì)個(gè)人信息主體同意分享隱私數(shù)據(jù),以解決共同面對(duì)全球重大問題,以確保負(fù)責(zé)任地開發(fā)和安全地利用人工智能,進(jìn)而帶來更加廣泛的社會(huì)效益。12.3.3尊重隱私,保障安全,促進(jìn)開放當(dāng)大模型在技術(shù)和社會(huì)中扮演起越來越關(guān)鍵的角色時(shí),它能否承擔(dān)起相應(yīng)的責(zé)任?如何促進(jìn)負(fù)責(zé)任的人工智能進(jìn)步并確保其在價(jià)值觀上與人類價(jià)值觀相一致?這些宏觀的問題十分棘手,但也十分迫切,因?yàn)榇竽P鸵坏┰獾綖E用,其強(qiáng)大的效用和能力有可能反過來?yè)p害社會(huì)的利益。負(fù)責(zé)任的人工智能需要技術(shù)和社會(huì)學(xué)兩方面的策略雙管齊下,而且有必要將大模型與多樣化、個(gè)性化以及特定文化的人類價(jià)值觀結(jié)合起來,達(dá)到一致。這其中,對(duì)于邊緣群體(尤其是殘障人士)的數(shù)字平等問題需要更加關(guān)切。12.3.4邊緣群體的數(shù)字平等人工智能技術(shù)可能產(chǎn)生錯(cuò)誤陳述和歧視,使得對(duì)殘障人士的歧視被制度化。因此,人工智能開發(fā)者必須注意不要讓殘障人士與人工智能產(chǎn)生角色和利益上的沖突,開發(fā)者有責(zé)任去主動(dòng)對(duì)抗那些有偏見的態(tài)度,倡導(dǎo)平等參與,提高平等意識(shí)。12.3.4邊緣群體的數(shù)字平等PART04算法歧視算法是信息技術(shù),尤其是大數(shù)據(jù)、人工智能的基礎(chǔ)?!八惴ň褪且幌盗兄噶睿嬖V計(jì)算機(jī)該做什么?!薄八惴ǖ暮诵木褪前凑赵O(shè)定程序運(yùn)行以期獲得理想結(jié)果的一套指令?!彼械乃惴ǘ及ㄒ韵聨讉€(gè)共同的基本特征:輸入、輸出、明確性、有限性、有效性。算法因數(shù)學(xué)而起,但現(xiàn)代算法的應(yīng)用范疇早已超出了數(shù)學(xué)計(jì)算的范圍,已經(jīng)與每個(gè)人的生活息息相關(guān),因此,“我們生活在算法的時(shí)代”。隨著人工智能時(shí)代的到來,算法越來越多地支配著我們的生活,也給現(xiàn)存的法律制度和法律秩序帶來了沖擊和挑戰(zhàn)。12.4算法歧視“黑箱”是控制論中的概念。作為一種隱喻,它指的是那些不為人知的不能打開、不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng)。人工智能所依賴的深度學(xué)習(xí)技術(shù)就是一個(gè)“黑箱”。深度學(xué)習(xí)是由計(jì)算機(jī)直接從事物原始特征出發(fā),自動(dòng)學(xué)習(xí)和生成高級(jí)的認(rèn)知結(jié)果。在人工智能系統(tǒng)輸入的數(shù)據(jù)和其輸出的結(jié)果之間,存在著人們無(wú)法洞悉的“隱層”,這就是“算法黑箱”。對(duì)透明的追求使人心理安定,“黑箱”使人恐懼。如何規(guī)制算法“黑箱”,算法是否要透明,如何透明,是法律規(guī)制遇到的首要問題。12.4.1算法透明之爭(zhēng)面對(duì)算法黑箱,不少人主張、呼吁算法透明。其理由主要有以下幾點(diǎn):(1)算法透明是消費(fèi)者知情權(quán)的組成部分。這種觀點(diǎn)主張,因?yàn)樗惴ǖ膹?fù)雜性和專業(yè)性,應(yīng)用領(lǐng)域中的信息不對(duì)稱可能會(huì)更加嚴(yán)重,算法透明應(yīng)是消費(fèi)者知情權(quán)的組成部分。(2)算法透明有助于緩解信息不對(duì)稱。這種觀點(diǎn)主張,算法的信息不對(duì)稱加重不只發(fā)生在消費(fèi)者與算法設(shè)計(jì)者、使用者之間,更發(fā)生在人類和機(jī)器之間,算法透明有助于緩解這種信息不對(duì)稱。12.4.1算法透明之爭(zhēng)(3)算法透明有助于防止人為不當(dāng)干預(yù)。這種觀點(diǎn)認(rèn)為算法模型是公開的,在雙方約定投資策略的前提下,執(zhí)行策略由時(shí)間和事件函數(shù)共同觸發(fā),執(zhí)行則由計(jì)算機(jī)程序自動(dòng)完成,避免了人為不當(dāng)干預(yù)的風(fēng)險(xiǎn),它比人為干預(yù)更加公平、公開和公正。(4)算法透明有助于防止利益沖突。這種觀點(diǎn)認(rèn)為由于算法的非公開性和復(fù)雜性,難以保證諸如投資建議的獨(dú)立性和客觀性。只有算法透明,才能防止這種利益沖突。12.4.1算法透明之爭(zhēng)(5)算法透明有助于防范信息繭房。這種觀點(diǎn)認(rèn)為,算法可能形成信息繭房。算法科學(xué)的外表容易誤導(dǎo)使用者,強(qiáng)化使用者的偏見,從而導(dǎo)致錯(cuò)誤決策。例如,算法技術(shù)為原本和普羅眾生疏離的復(fù)雜難懂的金融披上了簡(jiǎn)單易懂的面紗,金融的高風(fēng)險(xiǎn)性被成功掩蓋,輕松化的人機(jī)交互界面掩蓋了金融風(fēng)險(xiǎn)的殘酷本質(zhì)。(6)算法透明有助于打破技術(shù)中立的外衣。事實(shí)上技術(shù)的背后是人,人類會(huì)將人性弱點(diǎn)和道德缺陷帶進(jìn)和嵌入算法之中,但它們卻可能隱蔽于算法背后,從而更不易被發(fā)覺。12.4.1算法透明之爭(zhēng)(7)算法透明有助于打破算法歧視。美國(guó)的湯姆·貝克教授和荷蘭的本尼迪克特G.、C.德拉特教授研究認(rèn)為:公眾不能預(yù)設(shè)機(jī)器人沒有人類所具有的不純動(dòng)機(jī)。因?yàn)樗惴ù嬖谄缫暫秃谙洮F(xiàn)象,因此才需要算法的透明性或解釋性機(jī)制。12.4.1算法透明之爭(zhēng)(8)算法透明有助于打破“算法監(jiān)獄”與“算法暴政”。在人工智能時(shí)代,商業(yè)企業(yè)和公權(quán)部門都采用人工智能算法做出自動(dòng)化決策,算法存在的缺陷和偏見可能會(huì)使得大量的客戶不能獲得貸款、保險(xiǎn)、承租房屋等服務(wù),這如同被囚禁在“算法監(jiān)獄”。然而,如果自動(dòng)化決策的算法不透明、不接受人們的質(zhì)詢、不提供任何解釋、不對(duì)客戶或相對(duì)人進(jìn)行救濟(jì),客戶或相對(duì)人無(wú)從知曉自動(dòng)化決策的原因,自動(dòng)化決策就會(huì)缺少“改正”的機(jī)會(huì),這種情況就屬于“算法暴政”。算法透明則有助于打破“算法監(jiān)獄”與“算法暴政”。12.4.1算法透明之爭(zhēng)(9)算法透明是提供算法可責(zé)性問題的解決工具和前提。有學(xué)者認(rèn)為算法透明性和可解釋性是解決算法可歸責(zé)性的重要工具。明確算法決策的主體性、因果性或相關(guān)性,是確定和分配算法責(zé)任的前提。12.4.1算法透明之爭(zhēng)(10)算法透明有助于提高人們的參與度,確保質(zhì)疑精神。這種觀點(diǎn)認(rèn)為,如果你不了解某個(gè)決定的形成過程,就難以提出反對(duì)的理由。由于人們無(wú)法看清其中的規(guī)則和決定過程,人們無(wú)法提出不同的意見,也不能參與決策的過程,只能接受最終的結(jié)果。為走出這一困境,算法透明是必要的。還有人認(rèn)為,質(zhì)疑精神是人類前進(jìn)的工具,如果沒有質(zhì)疑,就沒有社會(huì)進(jìn)步。為了保證人類的質(zhì)疑,算法必須公開——除非有更強(qiáng)的不公開的理由,比如保護(hù)國(guó)家安全或個(gè)人隱私。12.4.1算法透明之爭(zhēng)(11)公開透明是確保人工智能研發(fā)、涉及、應(yīng)用不偏離正確軌道的關(guān)鍵。這種觀點(diǎn)認(rèn)為,人工智能的發(fā)展一日千里,人工智能可能擁有超越人類的超級(jí)優(yōu)勢(shì),甚至可能產(chǎn)生災(zāi)難性風(fēng)險(xiǎn),因而應(yīng)該堅(jiān)持公開透明原則,將人工智能的研發(fā)、設(shè)計(jì)和應(yīng)用置于監(jiān)管機(jī)構(gòu)、倫理委員會(huì)以及社會(huì)公眾的監(jiān)督之下,確保人工智能機(jī)器人處于可理解、可解釋、可預(yù)測(cè)狀態(tài)。12.4.1算法透明之爭(zhēng)現(xiàn)實(shí)中反對(duì)算法透明的聲音也不少,其主要理由如下:(1)類比征信評(píng)分系統(tǒng)。征信評(píng)分系統(tǒng)不對(duì)外公開是國(guó)際慣例,其目的是防止“炒信”、“刷信”,使評(píng)級(jí)結(jié)果失真。很多人工智能系統(tǒng)類似于信用評(píng)級(jí)系統(tǒng)。12.4.1算法透明之爭(zhēng)(2)周邊定律。是指法律無(wú)須要求律師提請(qǐng)我們注意身邊具有法律意義的內(nèi)容,而是將其直接植入我們的設(shè)備和周邊環(huán)境之中,并由這些設(shè)備和環(huán)境付諸實(shí)施。主張?jiān)撚^點(diǎn)的人宣稱,人類正在步入技術(shù)對(duì)人類的理解越來越深刻而人類卻無(wú)須理解技術(shù)的時(shí)代。智能時(shí)代的設(shè)備、程序,就像我們的人體器官和中樞神經(jīng)系統(tǒng),我們對(duì)其知之甚少但卻可以使用它們。同樣,算法為自我管理、自我配置與自我優(yōu)化而完成的自動(dòng)計(jì)算活動(dòng),也無(wú)須用戶的任何體力與智力投入。12.4.1算法透明之爭(zhēng)(3)算法不透明有助于減少麻煩。如果披露了算法,則可能會(huì)引起社會(huì)輿論的嘩然反應(yīng),從而干擾算法的設(shè)計(jì),降低預(yù)測(cè)的準(zhǔn)確性。大數(shù)據(jù)預(yù)測(cè)盡管準(zhǔn)確的概率較高,但也不能做到百分之百。換言之,大數(shù)據(jù)預(yù)測(cè)也會(huì)不準(zhǔn),也會(huì)失誤。如果將算法公之于眾,人們對(duì)預(yù)測(cè)錯(cuò)誤的賦值權(quán)重就有可能偏大,從而會(huì)阻礙技術(shù)的發(fā)展。(4)防止算法趨同。算法披露之后,好的算法、收益率高的算法、行業(yè)領(lǐng)導(dǎo)者的算法可能會(huì)引起業(yè)界的效仿,從而會(huì)出現(xiàn)“羊群效應(yīng)”,加大順周期的風(fēng)險(xiǎn)。12.4.1算法透明之爭(zhēng)(5)信息過載或難以理解。算法屬于計(jì)算機(jī)語(yǔ)言,不屬于日常語(yǔ)言,即使對(duì)外披露了,除專業(yè)人士之外的大多數(shù)客戶難以理解。換言之,對(duì)外披露的信息對(duì)于大多數(shù)用戶來講可能屬于無(wú)效信息。(6)偏見存在于人類決策的方方面面,要求算法滿足高于人類的標(biāo)準(zhǔn)是不合理的。[20]算法透明性本身并不能解決固有的偏見問題。要求算法的透明性或者可解釋性,將會(huì)減損已申請(qǐng)專利的軟件的價(jià)值。要求算法的透明性還為動(dòng)機(jī)不良者擾亂系統(tǒng)和利用算法驅(qū)動(dòng)的平臺(tái)提供了機(jī)會(huì),它將使動(dòng)機(jī)不良者更容易操縱算法。12.4.1算法透明之爭(zhēng)(7)算法披露在現(xiàn)實(shí)中存在操作困難??赡苌婕岸鄠€(gè)算法,披露哪個(gè)或哪些算法?算法披露到什么程度?折中派的觀點(diǎn)認(rèn)為,算法是一種商業(yè)秘密?!八惴ㄓ删幊陶咴O(shè)計(jì),進(jìn)而給網(wǎng)站帶來巨大的商業(yè)價(jià)值,因此其本質(zhì)上是具有商業(yè)秘密屬性的智力財(cái)產(chǎn)?!比绻麑⒆约旱膶S兴惴ǔ绦蚬诒?,則有可能泄漏商業(yè)秘密,使自己?jiǎn)适Ъ夹g(shù)競(jìng)爭(zhēng)優(yōu)勢(shì)。鑒于很多算法屬于涉及商業(yè)利益的專有算法,受知識(shí)產(chǎn)權(quán)法保護(hù),因此即使是強(qiáng)制要求算法透明,也只能是有限度的透明。12.4.1算法透明之爭(zhēng)還有人認(rèn)為,如何對(duì)待算法,這個(gè)問題并沒有“一刀切”的答案。在某些情況下,增加透明度似乎是一個(gè)正確的做法,它有助于幫助公眾了解決策是如何形成的,但是在涉及國(guó)家安全時(shí),公開源代碼的做法就不適用了,因?yàn)橐坏┕_了特定黑盒子的內(nèi)部運(yùn)行機(jī)制,某些人就可以繞開保密系統(tǒng),使算法失效。12.4.1算法透明之爭(zhēng)2017年,美國(guó)計(jì)算機(jī)學(xué)會(huì)公眾政策委員會(huì)公布了6項(xiàng)算法治理指導(dǎo)原則。第一個(gè)原則是知情原則,即算法設(shè)計(jì)者、架構(gòu)師、控制方以及其他利益相關(guān)者應(yīng)該披露算法設(shè)計(jì)、執(zhí)行、使用過程中可能存在的偏見以及可能對(duì)個(gè)人和社會(huì)造成的潛在危害。第二個(gè)原則是質(zhì)詢和申訴原則,即監(jiān)管部門應(yīng)該確保受到算法決策負(fù)面影響的個(gè)人或組織享有對(duì)算法進(jìn)行質(zhì)疑并申訴的權(quán)力。第三個(gè)原則是算法責(zé)任認(rèn)定原則。12.4.2算法透明的實(shí)踐第四個(gè)原則是解釋原則,即采用算法自動(dòng)化決策的機(jī)構(gòu)有義務(wù)解釋算法運(yùn)行原理以及算法具體決策結(jié)果。第五個(gè)原則是數(shù)據(jù)來源披露原則。第六個(gè)原則是可審計(jì)原則。仔細(xì)審視這6項(xiàng)原則,其要求的算法透明的具體內(nèi)容主要是算法的偏見與危害、算法運(yùn)行原理以及算法具體決策結(jié)果,以及數(shù)據(jù)來源。12.4.2算法透明的實(shí)踐2017年年底,紐約州通過一項(xiàng)《算法問責(zé)法案》要求成立一個(gè)由自動(dòng)化決策系統(tǒng)專家和相應(yīng)的公民組織代表組成的工作組,專門監(jiān)督自動(dòng)化決策算法的公平和透明。之前,該法案有一個(gè)更徹底的版本,規(guī)定市政機(jī)構(gòu)要公布所有用于“追蹤服務(wù)”或“對(duì)人施加懲罰或維護(hù)治安”的算法的源代碼,并讓它們接受公眾的“自我測(cè)試”?!斑@是一份精煉的、引人入勝的、而且是富有雄心的法案”,它提議每當(dāng)市政府機(jī)構(gòu)打算使用自動(dòng)化系統(tǒng)來配置警務(wù)、處罰或者服務(wù)時(shí),該機(jī)構(gòu)應(yīng)將源代碼——系統(tǒng)的內(nèi)部運(yùn)行方式——向公眾開放。12.4.2算法透明的實(shí)踐很快,人們發(fā)現(xiàn)這個(gè)版本的法案是一個(gè)很難成功的方案,他們希望不要進(jìn)展得那么激進(jìn)。因此,最終通過的法案刪去了原始草案中的披露要求,設(shè)立了一個(gè)事實(shí)調(diào)查工作組來代替有關(guān)披露的提議,原始草案中的要求僅在最終版本里有一處間接地提及——“在適當(dāng)?shù)那闆r下,技術(shù)信息應(yīng)當(dāng)向公眾開放”。12.4.2算法透明的實(shí)踐在歐盟,《通用數(shù)據(jù)保護(hù)條例》(GDPR)在鑒于條款第71條規(guī)定:“在任何情況下,該等處理應(yīng)該采取適當(dāng)?shù)谋U?,包括向?shù)據(jù)主體提供具體信息,以及獲得人為干預(yù)的權(quán)利,以表達(dá)數(shù)據(jù)主體的觀點(diǎn),在評(píng)估后獲得決定解釋權(quán)并質(zhì)疑該決定。”據(jù)此,有人主張GDPR賦予了人們算法解釋權(quán)。但也有學(xué)者認(rèn)為,這種看法很牽強(qiáng),個(gè)人的可解釋權(quán)并不成立。我國(guó)《新一代人工智能發(fā)展規(guī)劃》指出:“建立健全公開透明的人工智能監(jiān)管體系?!边@提出了人工智能監(jiān)管體系的透明,而沒有要求算法本身的透明。12.4.2算法透明的實(shí)踐人們呼吁算法透明,但透明的內(nèi)容具體是算法的源代碼,還是算法的簡(jiǎn)要說明?秉承“算法公開是例外,不公開是原則”的立場(chǎng),即使是在算法需要公開的場(chǎng)合,也需要考察算法公開的具體內(nèi)容是什么。算法的披露應(yīng)以保護(hù)用戶權(quán)利為必要。算法的源代碼、算法的具體編程公式(實(shí)際上也不存在這樣的編程公式)是不能公開的。這主要是因?yàn)樗惴ǖ脑创a一方面非常復(fù)雜,且不斷迭代升級(jí),甚至不可追溯,無(wú)法予以披露;另一方面,公開源代碼是專業(yè)術(shù)語(yǔ),絕大部分客戶看不懂,即使公開了也沒有意義。12.4.3算法透明的算法說明算法透明追求的是算法的簡(jiǎn)要說明(簡(jiǎn)稱算法簡(jiǎn)介)。算法簡(jiǎn)介包括算法的假設(shè)和限制、算法的邏輯、算法的種類、算法的功能、算法的設(shè)計(jì)者、算法的風(fēng)險(xiǎn)、算法的重大變化等。算法簡(jiǎn)介的公開,也是需要有法律規(guī)定的,否則,不公開仍是基本原則。算法透明的具體方法除了公開披露之外,還可以有其他替代方法。這些方法究竟是替代方法還是輔助方法,取決于立法者的決斷。12.4.3算法透明的算法說明(1)備案或注冊(cè)。備案即要求義務(wù)人向監(jiān)管機(jī)構(gòu)或自律組織備案其算法或算法邏輯,算法或算法邏輯不向社會(huì)公開,但監(jiān)管機(jī)構(gòu)或自律組織應(yīng)知悉。算法很復(fù)雜,很難用公式或可見的形式表達(dá)出來。算法的種類很多,一個(gè)人工智能系統(tǒng)可能會(huì)涉及很多算法,且算法也在不斷迭代、更新和打補(bǔ)丁,就像其他軟件系統(tǒng)不斷更新一樣。因此,算法本身沒法備案,更無(wú)法披露??梢詡浒负团兜氖?/p>
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年南通貨運(yùn)從業(yè)資格證模擬考試下載安裝
- 2025年盤錦考貨運(yùn)資格證考試內(nèi)容
- 2024年旅游風(fēng)景區(qū)開發(fā)架子工勞務(wù)分包合同
- 2025建設(shè)工程專業(yè)分包合同范本(通過公司審核)
- 單位人力資源管理制度集錦大合集
- 高端酒店售樓部施工合同
- 2024年桉樹種植與城鄉(xiāng)綠化合同2篇
- 眼鏡店噪聲污染控制管理規(guī)定
- 停車場(chǎng)耐磨地面施工合同
- 冷鏈貨物托管合同
- 啟航計(jì)劃培訓(xùn)總結(jié)與反思
- 《電力工程電纜防火封堵施工工藝導(dǎo)則》
- MOOC 作物育種學(xué)-四川農(nóng)業(yè)大學(xué) 中國(guó)大學(xué)慕課答案
- 變電站隱患排查治理總結(jié)報(bào)告
- 車輛救援及維修服務(wù)方案
- 三體讀書分享
- 《腎內(nèi)科品管圈》
- 空氣預(yù)熱器市場(chǎng)前景調(diào)研數(shù)據(jù)分析報(bào)告
- 2024年南平實(shí)業(yè)集團(tuán)有限公司招聘筆試參考題庫(kù)附帶答案詳解
- PLC在變電站自動(dòng)化控制中的應(yīng)用案例
- 2024版國(guó)開電大法學(xué)本科《合同法》歷年期末考試案例分析題題庫(kù)
評(píng)論
0/150
提交評(píng)論