第14章 大模型的健康未來_第1頁
第14章 大模型的健康未來_第2頁
第14章 大模型的健康未來_第3頁
第14章 大模型的健康未來_第4頁
第14章 大模型的健康未來_第5頁
已閱讀5頁,還剩86頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

浙江省普通本科高?!笆奈濉敝攸c(diǎn)教材大語言模型通識(shí)大語言模型通識(shí)周蘇教授QQ:81505050第14章大模型的健康未來從ChatGPT到Sora,大模型呈現(xiàn)出來的智慧涌現(xiàn)能力已經(jīng)成為社會(huì)焦點(diǎn)。如今,大模型在越來越多的垂直場(chǎng)景落地,展現(xiàn)出了改變產(chǎn)業(yè)形態(tài)和競(jìng)爭(zhēng)格局的能力。在此背景下,2024年中國政府工作報(bào)告指出,要大力推進(jìn)現(xiàn)代化產(chǎn)業(yè)體系建設(shè),加快發(fā)展新質(zhì)生產(chǎn)力,并強(qiáng)調(diào)要深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,開展“人工智能+”行動(dòng),打造具有國際競(jìng)爭(zhēng)力的數(shù)字產(chǎn)業(yè)集群。第14章大模型的健康未來大語言模型的發(fā)展已經(jīng)成為各大互聯(lián)網(wǎng)科技巨頭爭(zhēng)相追逐的焦點(diǎn)。大模型的發(fā)展趨勢(shì)和應(yīng)用領(lǐng)域非常廣泛,從智能助理到物流供應(yīng)鏈等,都有深入的探索和應(yīng)用。大模型這種經(jīng)過海量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,開始具備文生文、文生圖、文生音頻、文生視頻等的強(qiáng)大能力。作為一種能夠處理多種自然語言任務(wù)的模型,大模型成為了通往人工智能領(lǐng)域的關(guān)鍵路徑。第14章大模型的健康未來大模型的發(fā)展也面臨著一些風(fēng)險(xiǎn),包括技術(shù)壁壘、高昂成本以及隱私泄露等問題,需要警惕盲目跟風(fēng)、低端泛化等問題。同時(shí),還需要重視數(shù)據(jù)資源集聚所帶來的風(fēng)險(xiǎn),確保大模型的規(guī)范健康發(fā)展,實(shí)現(xiàn)智能助理的爆發(fā),未來的發(fā)展形勢(shì)令人期待。第14章大模型的健康未來01人工智能新發(fā)展02數(shù)據(jù)隱私保護(hù)對(duì)策03人工智能倫理原則04大模型的大趨勢(shì)目錄/CONTENTS05通用人工智能涌現(xiàn)PART01人工智能新發(fā)展人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),對(duì)人們的生產(chǎn)生活產(chǎn)生了深遠(yuǎn)影響。比如人工智能在研發(fā)新材料、預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)等方面具有優(yōu)勢(shì),有望進(jìn)一步重塑科學(xué)研究范式;智能駕駛的普及,將改變城市規(guī)劃和交通管理方式……各行各業(yè)對(duì)人工智能的需求日趨增大的同時(shí),經(jīng)濟(jì)社會(huì)的方方面面正受到人工智能的多重影響。14.1人工智能新發(fā)展新質(zhì)生產(chǎn)力是2023年9月習(xí)近平總書記在黑龍江考察調(diào)研期間首次提到的新詞匯。作為先進(jìn)生產(chǎn)力的具體體現(xiàn)形式,新質(zhì)生產(chǎn)力強(qiáng)調(diào)整合科技創(chuàng)新資源,引領(lǐng)發(fā)展戰(zhàn)略性新興產(chǎn)業(yè)和未來產(chǎn)業(yè)。新質(zhì)生產(chǎn)力是由技術(shù)革命性突破、生產(chǎn)要素創(chuàng)新性配置、產(chǎn)業(yè)深度轉(zhuǎn)型升級(jí)而催生的當(dāng)代先進(jìn)生產(chǎn)力,它以勞動(dòng)者、勞動(dòng)資料、勞動(dòng)對(duì)象及其優(yōu)化組合的質(zhì)變?yōu)榛緝?nèi)涵,以全要素生產(chǎn)率提升為核心標(biāo)志。14.1.1人工智能+成為新質(zhì)生產(chǎn)力重要引擎新質(zhì)生產(chǎn)力是生產(chǎn)力現(xiàn)代化的具體體現(xiàn),即新的高水平現(xiàn)代化生產(chǎn)力(新類型、新結(jié)構(gòu)、高技術(shù)水平、高質(zhì)量、高效率、可持續(xù)的生產(chǎn)力),相比于傳統(tǒng)生產(chǎn)力,其技術(shù)水平更高、質(zhì)量更好、效率更高、更可持續(xù)。有別于傳統(tǒng)生產(chǎn)力,涉及領(lǐng)域新、技術(shù)含量高,依靠創(chuàng)新驅(qū)動(dòng)是其中關(guān)鍵,新質(zhì)生產(chǎn)力代表一種生產(chǎn)力的躍遷,它是科技創(chuàng)新在其中發(fā)揮主導(dǎo)作用的生產(chǎn)力。新質(zhì)生產(chǎn)力的提出,不僅意味著以科技創(chuàng)新推動(dòng)產(chǎn)業(yè)創(chuàng)新,更體現(xiàn)了以產(chǎn)業(yè)升級(jí)構(gòu)筑新競(jìng)爭(zhēng)優(yōu)勢(shì)、贏得發(fā)展的主動(dòng)權(quán)。14.1.1人工智能+成為新質(zhì)生產(chǎn)力重要引擎打造新的經(jīng)濟(jì)增長(zhǎng)點(diǎn)需要發(fā)展新質(zhì)生產(chǎn)力,而不斷取得進(jìn)展的人工智能技術(shù)將成為形成新質(zhì)生產(chǎn)力的重要引擎?!叭斯ぶ悄?”主要是基于大模型、大數(shù)據(jù)、大算力技術(shù),實(shí)現(xiàn)人工智能在各行各業(yè)的落地應(yīng)用,從而提升產(chǎn)業(yè)自動(dòng)化水平,降本增效,促使數(shù)字經(jīng)濟(jì)再上新臺(tái)階?!叭斯ぶ悄?”上升為一種行動(dòng),意味著國家將加強(qiáng)頂層設(shè)計(jì),加快形成以人工智能為引擎的新質(zhì)生產(chǎn)力。以大模型為代表的通用人工智能競(jìng)爭(zhēng)中,各家廠商的產(chǎn)品仍有進(jìn)步空間。14.1.1人工智能+成為新質(zhì)生產(chǎn)力重要引擎在一般認(rèn)知里,自動(dòng)駕駛技術(shù)的好壞應(yīng)該取決于激光雷達(dá)、毫米波雷達(dá)以及攝像頭硬件的性能是否足夠強(qiáng)大。但事實(shí)上,自動(dòng)駕駛的運(yùn)轉(zhuǎn)是一個(gè)復(fù)雜系統(tǒng),其中的雷達(dá)只是起到了眼睛收集信息,與外界環(huán)境進(jìn)行信息交互的作用(見圖14-1),甚至就連車載芯片也無法決定自動(dòng)駕駛系統(tǒng)的好與壞。雷達(dá)只是加快了信息的收集速度,芯片只是加快了信息的處理速度,它們并不能起到分析、決策的作用。

圖14-1自動(dòng)駕駛中雷達(dá)的作用14.1.2人工智能改變自動(dòng)駕駛未來真正拉開自動(dòng)駕駛系統(tǒng)差距的是“智能化”程度。要實(shí)現(xiàn)自動(dòng),就必須讓汽車系統(tǒng)足夠聰明,能夠自己做決策,而人工智能很好地扮演這一角色?;谌斯ぶ悄艽蛟斓拇竽P陀?xùn)練水平,決定著自動(dòng)駕駛水平的高低(見圖14-2)。

圖14-2大模型訓(xùn)練決定自動(dòng)駕駛水平14.1.2人工智能改變自動(dòng)駕駛未來基于大模型是機(jī)器學(xué)習(xí)的一個(gè)模式,它可能是對(duì)目標(biāo)進(jìn)行檢測(cè)或者人臉進(jìn)行識(shí)別,也可能是針對(duì)語言的識(shí)別處理。此外,大模型還具有模態(tài)特點(diǎn),可以依靠多種信息方式,語音、文字、視覺等信息都可以被機(jī)器接收學(xué)習(xí),這對(duì)于駕駛來說有著很大的意義。對(duì)自動(dòng)駕駛而言,人工智能真正的價(jià)值在于,它可以在短時(shí)間內(nèi)分析處理海量的數(shù)據(jù),并做出相對(duì)正確的駕駛決定。人類通過訓(xùn)練使自動(dòng)駕駛系統(tǒng)具備接近于人類的駕駛能力,這只需要通過大量的信息數(shù)據(jù)告訴它什么時(shí)候該踩剎車、什么時(shí)候該加速,這是傳統(tǒng)駕駛程序所無法做到的事。14.1.2人工智能改變自動(dòng)駕駛未來通常傳統(tǒng)的自動(dòng)駕駛程序只能設(shè)定個(gè)別固定的駕駛場(chǎng)景,比如高速上的車道保持、前車跟隨,或者城市道路中的自動(dòng)泊車,但即便如此,復(fù)雜的自動(dòng)駕駛程序編寫依然讓程序員頭痛不已。更麻煩的是,死板的程序無法模擬出駕駛環(huán)境的復(fù)雜性,比如汽車該如何在路上避開突然掉落的障礙或者其他不太常見的場(chǎng)景。機(jī)器學(xué)習(xí)不僅效率高,而且對(duì)海量數(shù)據(jù)的理解也更加準(zhǔn)確。就目前而言,自動(dòng)駕駛領(lǐng)域的人工智能應(yīng)用還處在發(fā)展階段,距離真正成熟還有很長(zhǎng)的路要走。14.1.2人工智能改變自動(dòng)駕駛未來麻省理工學(xué)院組成的一個(gè)臨時(shí)委員會(huì)發(fā)布了一系列關(guān)于人工智能治理的政策文件,旨在為政策制定者提供資源,建立更好的人工智能監(jiān)管框架,主要政策文件名為《人工智能治理框架:打造安全繁榮的人工智能行業(yè)》。文件建議通過擴(kuò)展現(xiàn)有的政府機(jī)構(gòu)來監(jiān)管人工智能工具,以便制定相應(yīng)的監(jiān)管規(guī)定。政策文件強(qiáng)調(diào)人工智能提供商事先定義應(yīng)用程序目的和意圖方面的重要性。通過這種方式,監(jiān)管體系可以明確哪些現(xiàn)有的法規(guī)和監(jiān)管機(jī)構(gòu)適用于特定的人工智能工具。文件還討論了人工智能系統(tǒng)存在多層次的情況,即系統(tǒng)“堆?!保瑥?qiáng)調(diào)制定責(zé)任和監(jiān)管的復(fù)雜性。14.1.3重視人工智能治理政策政策文件不僅涉及現(xiàn)有機(jī)構(gòu),還提出增強(qiáng)新的監(jiān)管能力。其中,文件呼吁通過政府發(fā)起、用戶驅(qū)動(dòng)或源自法律責(zé)任訴訟對(duì)新的人工智能工具進(jìn)行審計(jì)。文件還建議通過非營(yíng)利實(shí)體或類似于國家標(biāo)準(zhǔn)與技術(shù)研究院的實(shí)體來建立公共審計(jì)標(biāo)準(zhǔn)。此外,文件還考慮了創(chuàng)建一個(gè)新的、由政府批準(zhǔn)的類似于金融監(jiān)管的“自律組織”機(jī)構(gòu)的可能性。這樣的機(jī)構(gòu)專注于人工智能,可以積累領(lǐng)域特定的知識(shí),以在與迅速變化的人工智能行業(yè)互動(dòng)時(shí)保持靈活性和響應(yīng)能力。14.1.3重視人工智能治理政策政策文件指出,人工智能領(lǐng)域需要解決一些特定的法律問題,例如與知識(shí)產(chǎn)權(quán)相關(guān)的版權(quán)問題。此外,委員會(huì)認(rèn)識(shí)到人工智能具有超越人類能力的情況,例如大規(guī)模監(jiān)視工具可能需要特殊的法律考慮。14.1.3重視人工智能治理政策一系列政策文件涵蓋了多個(gè)學(xué)科角度對(duì)人工智能監(jiān)管問題的分析,展示了臨時(shí)委員會(huì)致力于從廣泛的角度對(duì)政策制定產(chǎn)生影響,而不僅僅局限于技術(shù)問題。委員會(huì)強(qiáng)調(diào)學(xué)術(shù)機(jī)構(gòu)在科技和社會(huì)相互作用方面的專業(yè)知識(shí)的重要性,認(rèn)為政策制定者需要思考社會(huì)系統(tǒng)和技術(shù)的關(guān)系。委員會(huì)希望彌合對(duì)人工智能持激進(jìn)態(tài)度和持擔(dān)憂態(tài)度的人之間的鴻溝,通過倡導(dǎo)技術(shù)的進(jìn)步伴隨著適當(dāng)?shù)谋O(jiān)管,推動(dòng)人工智能行業(yè)的健康發(fā)展。14.1.3重視人工智能治理政策科技的發(fā)展也在促進(jìn)著相關(guān)制度的完善。例如,歐美相繼提出人工智能監(jiān)管類法案,其中多項(xiàng)條文與音樂行業(yè)息息相關(guān)。2023年12月8日,歐洲議會(huì)、歐盟成員國和歐盟委員會(huì)三方就《人工智能法案》達(dá)成協(xié)議。2024年1月10日,美國兩黨眾議院代表小組提出《禁止人工智能欺詐法案》,旨在保護(hù)人們的圖像和聲音免遭人工智能生成的深度偽造作品使用。由此,人們可以看到立法者對(duì)于此前發(fā)生在音樂行業(yè)中的一些爭(zhēng)議事件的立場(chǎng)與回應(yīng)。14.1.4人工智能音樂的立法實(shí)踐歐盟就《人工智能法案》達(dá)成協(xié)議后,其領(lǐng)導(dǎo)人在社交媒體上發(fā)文表示:《法案》是全球首創(chuàng),為人工智能發(fā)展設(shè)立了獨(dú)特的法律框架。據(jù)悉,該《法案》圍繞人工智能系統(tǒng)的開發(fā)、投放市場(chǎng)及使用制定了監(jiān)管框架,采用基于風(fēng)險(xiǎn)的規(guī)制思路,為不同風(fēng)險(xiǎn)程度的人工智能系統(tǒng)施加不同的要求和義務(wù)。例如,對(duì)于帶有“侵入性”“歧視性”的人工智能,或者利用個(gè)人或特定群體的弱點(diǎn),實(shí)質(zhì)性扭曲人的行為,對(duì)人類造成或可能造成重大傷害的人工智能,《法案》將視其為“對(duì)人類安全造成不可接受風(fēng)險(xiǎn)”,并禁止開發(fā)和使用這類系統(tǒng)。14.1.4人工智能音樂的立法實(shí)踐而對(duì)于被允許開發(fā)使用的系統(tǒng),《法案》給出了“盡量減少意外傷害,并在出現(xiàn)問題時(shí)保持穩(wěn)健”“尊重人類尊嚴(yán)和個(gè)人自主權(quán)”等原則性規(guī)定,確保人工智能技術(shù)有序發(fā)展。音樂行業(yè)是人工智能技術(shù)的一塊重要的“試驗(yàn)田”,對(duì)于實(shí)踐過程中產(chǎn)生的爭(zhēng)議與問題,音樂產(chǎn)業(yè)各方都表達(dá)了訴求。音樂行業(yè)多家組織曾數(shù)次發(fā)起呼吁,希望歐盟能夠在法案中加強(qiáng)對(duì)音樂人權(quán)益的保護(hù)。14.1.4人工智能音樂的立法實(shí)踐值得注意的是,除了呼吁加強(qiáng)版權(quán)保護(hù)等常規(guī)表述之外,在幾家行業(yè)巨頭的發(fā)言中,均出現(xiàn)了“透明度”一詞。要求人工智能服務(wù)提供商履行透明度義務(wù),通俗地說,就是指需要說明在人工智能預(yù)訓(xùn)練的過程中使用了哪些內(nèi)容。如果人工智能系統(tǒng)具備足夠的透明度,提供商就很難在不為人知的情況下,使用未經(jīng)授權(quán)的聲音、詞曲內(nèi)容等材料訓(xùn)練人工智能??梢钥吹剑斗ò浮芬泊_實(shí)體現(xiàn)了這一要求:“人工智能系統(tǒng)及其所基于的GPAI模型必須遵守透明度要求”。14.1.4人工智能音樂的立法實(shí)踐與歐盟的《人工智能法案》相比,美國《禁止人工智能欺詐法案》的提出擁有更加具體的直接原因,指向性也更加明顯。該法案的情況說明書指出:“無良企業(yè)和個(gè)人正在‘劫持’專業(yè)人士的聲音和肖像,破壞了文化和商業(yè)重要貢獻(xiàn)者的合法作品和愿望”。對(duì)于使用未經(jīng)授權(quán)的材料生成的人工智能歌曲,新法案具有極強(qiáng)的針對(duì)性,從國家層面確立了“每個(gè)人對(duì)自己的肖像和聲音擁有知識(shí)產(chǎn)權(quán),允許個(gè)人因有害、未經(jīng)授權(quán)使用其肖像或聲音而尋求金錢賠償”的原則。14.1.4人工智能音樂的立法實(shí)踐音樂行業(yè)對(duì)人工智能技術(shù)前景的焦慮和對(duì)于相關(guān)法律的呼吁是可以理解的,及時(shí)在制度層面予以合理的規(guī)范,可以最大程度地減輕人工智能技術(shù)的負(fù)面影響,避免音樂行業(yè)在未來變成混亂無序、弱肉強(qiáng)食的原始叢林。在我國,根據(jù)《民法典》第一千零二十三條規(guī)定,對(duì)自然人聲音的保護(hù),參照適用肖像權(quán)保護(hù)的有關(guān)規(guī)定。在全國首例影視劇臺(tái)詞聲音權(quán)糾紛案中,因未經(jīng)授權(quán)使用了某演員在某電視劇經(jīng)典橋段中的臺(tái)詞聲音,某款游戲的軟件開發(fā)商和供應(yīng)商被判向原告賠禮道歉,賠償經(jīng)濟(jì)損失。國家多個(gè)部門聯(lián)合發(fā)布,自2023年8月15日起施行的《生成式人工智能服務(wù)管理暫行辦法》代表著國家層面的人工智能立法已經(jīng)進(jìn)入新階段。14.1.4人工智能音樂的立法實(shí)踐有些科技公司表示,各類新規(guī)則的制定雖然保障了版權(quán)人的權(quán)益,卻也束縛了技術(shù)開發(fā)者的手腳,拖慢了創(chuàng)新的步伐,從長(zhǎng)遠(yuǎn)來看對(duì)人類的發(fā)展不利。但事實(shí)上,合理、有效的監(jiān)管對(duì)于人工智能技術(shù)來說利大于弊。法理學(xué)中有“定分止?fàn)帯钡恼f法,即指只有減少權(quán)利歸屬的不確定性,才能夠進(jìn)行進(jìn)一步的交易和分配。14.1.4人工智能音樂的立法實(shí)踐2024年2月16日,繼推出ChatGPT之后,OpenAI又發(fā)布首個(gè)文字生成視頻模型Sora,它可以基于文本直接輸出60秒視頻,足以模糊真實(shí)和虛構(gòu)的界限,再次激起全球熱議。同一天,在德國舉行的慕尼黑安全會(huì)議上,20家人工智能相關(guān)行業(yè)公司簽署自愿協(xié)議,承諾打擊新技術(shù)生成欺騙性信息擾亂全球選舉。聯(lián)合聲明的簽署方包括了這一領(lǐng)域的主要企業(yè)比如OpenAI、谷歌等,以及可能幫助其傳播的社交媒體平臺(tái),比如TikTok、X、Meta等。14.1.5防止人工智能誤導(dǎo)民眾為了防止新技術(shù)生成虛假信息被用于政治目的,20家公司做出8項(xiàng)具體承諾,包括:合作開發(fā)相關(guān)開源工具,以減少涉及選舉的欺騙性人工智能生成內(nèi)容;設(shè)法檢測(cè)此類內(nèi)容的在線傳播情況;推動(dòng)教育活動(dòng),提高公眾防范意識(shí)和媒體素養(yǎng),以培養(yǎng)跨行業(yè)抵御此類內(nèi)容的能力等。OpenAI的合作伙伴微軟則認(rèn)為在技術(shù)進(jìn)步這一議題上,人們面臨的“最基本挑戰(zhàn)不在技術(shù)本身,而是人性”,認(rèn)為總體上來看,協(xié)議的承諾提高了行業(yè)的檢測(cè)和響應(yīng)能力,將使不良行為者更難使用合法工具制造誤導(dǎo)性內(nèi)容。14.1.5防止人工智能誤導(dǎo)民眾與上一輪得益于深度學(xué)習(xí)的人工智能熱潮相比,生成式人工智能作為一種新的生產(chǎn)工具,技能更全面,應(yīng)用范圍更廣,它能取代部分腦力勞動(dòng),落地于各行各業(yè),尤其是勞動(dòng)力短缺的行業(yè),轉(zhuǎn)化為真正的生產(chǎn)力。生成式人工智能工具可以產(chǎn)生各種各樣的新內(nèi)容,包括代碼、文本、音頻、圖像和視頻。對(duì)于商業(yè)用戶來說,對(duì)用戶提示的快速輸出速度可以帶來改變游戲規(guī)則的商業(yè)效率。然而,生成式人工智能內(nèi)容的吸引力需要與在業(yè)務(wù)中使用該內(nèi)容的影響進(jìn)行平衡。這涉及到幾個(gè)方面,一個(gè)重要問題是用戶能夠擁有所生成輸出的程度。14.1.6生成式人工智能產(chǎn)出的版權(quán)表面上看,這似乎取決于特定生成式人工智能平臺(tái)的服務(wù)條款和其管理?xiàng)l款中規(guī)定的權(quán)利分配。但是,用戶還需要考慮根據(jù)適用法律,該輸出是否甚至能夠被任何人擁有。(1)美國:無所有權(quán)。根據(jù)美國法律,創(chuàng)造性作品在實(shí)質(zhì)媒介上固定后,版權(quán)立即歸作者所有。美國版權(quán)法一再被解釋為要求人類作者才能擁有所有權(quán)。14.1.6生成式人工智能產(chǎn)出的版權(quán)值得注意的是,美國版權(quán)辦公室發(fā)布的一系列案例法和指導(dǎo)文件,目前是人們尋求使用生成式人工智能工具開發(fā)作品的版權(quán)歸屬的主要指導(dǎo)來源,根據(jù)目前的美國法律,任何人都不擁有人工智能生成的作品的所有權(quán),因此這些作品目前被視為屬于公共領(lǐng)域,沒有版權(quán)保護(hù)。14.1.6生成式人工智能產(chǎn)出的版權(quán)美國版權(quán)辦公室進(jìn)一步發(fā)布指導(dǎo),解釋稱“包含人工智能生成材料的作品還將包含足夠的人類創(chuàng)作,以支持版權(quán)主張”。例如,作者對(duì)人工智能生成作品進(jìn)行了創(chuàng)造性的安排,或者對(duì)人工智能生成作品進(jìn)行了實(shí)質(zhì)性修改。然而,“在這些情況下,版權(quán)將僅保護(hù)作品中人類創(chuàng)作的部分,這些部分是與人工智能生成的材料獨(dú)立的,并且不影響人工智能生成材料本身的版權(quán)狀態(tài)?!?4.1.6生成式人工智能產(chǎn)出的版權(quán)因此,美國版權(quán)辦公室要求在提交注冊(cè)作品時(shí)識(shí)別人工智能生成的內(nèi)容和人類生成的內(nèi)容,以便保護(hù)將僅授予人類創(chuàng)作的內(nèi)容。例如,在關(guān)于漫畫《黎明的扎里婭》的注冊(cè)決定中,美國版權(quán)辦公室拒絕保護(hù)使用生成式人工智能藝術(shù)平臺(tái)Midjourney創(chuàng)建的圖像,但允許注冊(cè)文本以及圖像和文本的選擇和安排,申請(qǐng)人克里斯·卡什托諾娃聲明對(duì)這些元素負(fù)有唯一責(zé)任。在同一份指導(dǎo)文件中,美國版權(quán)辦公室還重申,即使通過技術(shù)工具增強(qiáng)了,底層原創(chuàng)作品仍然享有保護(hù)。14.1.6生成式人工智能產(chǎn)出的版權(quán)(2)歐盟:可能存在所有權(quán)。歐盟版權(quán)法由13項(xiàng)指令和兩項(xiàng)法規(guī)組成,然而這些立法,包括即將出臺(tái)的歐盟《人工智能法案》,都沒有直接涉及人工智能生成作品的所有權(quán)。歐洲法院提供了一些有限的指導(dǎo)性指引,裁定版權(quán)只有在來源于“作者自己的知識(shí)創(chuàng)造”時(shí)才存在。這被廣泛解釋為需要人類的重要形式輸入。然而,將由各個(gè)歐盟成員國確定人工智能生成模型的輸出是否符合這一要求。以德國版權(quán)法為例,要求作品具有作者的“獨(dú)特知識(shí)創(chuàng)造”才能存在版權(quán),并且人們認(rèn)為機(jī)器或計(jì)算機(jī)程序都不能成為作者,因此假定“知識(shí)創(chuàng)造”必須由人類創(chuàng)造。14.1.6生成式人工智能產(chǎn)出的版權(quán)同樣,在法國,目前的假設(shè)是只有自然人才能被認(rèn)為是作者,原創(chuàng)性要求作者的“個(gè)人觸感或知識(shí)努力”,而“自動(dòng)和約束性邏輯的實(shí)施”如果沒有“真正的個(gè)人努力”將不合格。14.1.6生成式人工智能產(chǎn)出的版權(quán)(3)中國:可能存在所有權(quán)。根據(jù)我國的《著作權(quán)法》,符合版權(quán)保護(hù)資格的“作品”必須是原創(chuàng)的“知識(shí)成果”。盡管《著作權(quán)法》沒有明確規(guī)定人工智能生成內(nèi)容的版權(quán)可保護(hù)性,但已經(jīng)有具指導(dǎo)意義的判案。在一起案件中,北京互聯(lián)網(wǎng)法院裁定,由StableDiffusion生成的圖像符合“知識(shí)成果”和“原創(chuàng)性”標(biāo)準(zhǔn),因?yàn)橛脩敉ㄟ^輸入提示文本和設(shè)置參數(shù)做了智力貢獻(xiàn),致人工智能生成的圖像反映了用戶的個(gè)性化表達(dá)。14.1.6生成式人工智能產(chǎn)出的版權(quán)在同一案件中,法院認(rèn)定,人工智能生成的圖像的版權(quán)所有者是用戶,而不是平臺(tái)開發(fā)者,因?yàn)殚_發(fā)者沒有意圖創(chuàng)建圖像,也沒有確定輸入。可見,人工智能生成作品的版權(quán)歸屬在不同的司法管轄區(qū)存在差異,相關(guān)法律仍在制定中。14.1.6生成式人工智能產(chǎn)出的版權(quán)PART02數(shù)據(jù)隱私保護(hù)對(duì)策相較于傳統(tǒng)隱私和互聯(lián)網(wǎng)發(fā)展初期,大數(shù)據(jù)技術(shù)的廣泛運(yùn)用使隱私的概念和范圍發(fā)生了很大的變化,呈現(xiàn)數(shù)據(jù)化、價(jià)值化的新特點(diǎn)。大數(shù)據(jù)隱私保護(hù)倫理問題的產(chǎn)生,是原有互聯(lián)網(wǎng)發(fā)展初期隱私保護(hù)倫理問題的演進(jìn)。數(shù)據(jù)隱私保護(hù)倫理問題的解決需要從責(zé)任倫理的角度出發(fā),關(guān)注大數(shù)據(jù)技術(shù)帶來的風(fēng)險(xiǎn),倡導(dǎo)多元參與主體的共同努力,在遵守隱私保護(hù)倫理準(zhǔn)則的基礎(chǔ)上,加強(qiáng)道德倫理教育和健全道德倫理約束機(jī)制。14.2數(shù)據(jù)隱私保護(hù)對(duì)策構(gòu)建隱私保護(hù)倫理的準(zhǔn)則包括:(1)權(quán)利與義務(wù)對(duì)等。數(shù)據(jù)生產(chǎn)者作為數(shù)據(jù)生命周期中的堅(jiān)實(shí)基礎(chǔ),既有為大數(shù)據(jù)技術(shù)發(fā)展提供數(shù)據(jù)源和保護(hù)個(gè)體隱私的義務(wù),又有享受大數(shù)據(jù)技術(shù)帶來便利與利益的權(quán)利。數(shù)據(jù)搜集者作為數(shù)據(jù)生產(chǎn)周期的中間者,他們既可以享有在網(wǎng)絡(luò)公共空間中搜集數(shù)據(jù)以得到利益的權(quán)利,又負(fù)有在數(shù)據(jù)搜集階段保護(hù)用戶隱私的義務(wù)。數(shù)據(jù)使用者作為整個(gè)數(shù)據(jù)生命周期中利益鏈條上游部分的主體,他們?cè)谙碛辛素S厚利潤(rùn)的同時(shí),也負(fù)有推進(jìn)整個(gè)社會(huì)發(fā)展、造福人類和保護(hù)個(gè)人隱私的義務(wù)。14.2.1構(gòu)建隱私保護(hù)倫理準(zhǔn)則(2)自由與監(jiān)管適度。主體的意志自由正在因嚴(yán)密的監(jiān)控和隱私泄露所導(dǎo)致的個(gè)性化預(yù)測(cè)而受到禁錮。而個(gè)人只有在具有規(guī)則的社會(huì)中才能談自主、自治和自由。因此,在解決隱私保護(hù)的倫理問題時(shí),構(gòu)建一定的規(guī)則與秩序,在維護(hù)社會(huì)安全的前提下,給予公眾適度的自由,也是隱私保護(hù)倫理準(zhǔn)則所必須關(guān)注的重點(diǎn)。所以要平衡監(jiān)管與自由兩邊的砝碼,讓政府與企業(yè)更注重個(gè)人隱私的保護(hù),個(gè)人加強(qiáng)保護(hù)隱私的能力,防止沉迷于網(wǎng)絡(luò),努力做到在保持社會(huì)良好發(fā)展的同時(shí),也不忽視公眾對(duì)個(gè)人自由的訴求。14.2.1構(gòu)建隱私保護(hù)倫理準(zhǔn)則(3)誠信與公正統(tǒng)一。因豐厚經(jīng)濟(jì)利潤(rùn)的刺激和社交活動(dòng)在虛擬空間的無限延展,使得互聯(lián)網(wǎng)用戶逐漸喪失對(duì)基本準(zhǔn)則誠信的遵守。例如,利用黑客技術(shù)竊取用戶隱私信息,通過不道德商業(yè)行為攫取更多利益等。在社會(huì)范圍內(nèi)建立誠信體系,營(yíng)造誠信氛圍,不僅有利于隱私保護(hù)倫理準(zhǔn)則的構(gòu)建,更是對(duì)個(gè)人行為、企業(yè)發(fā)展、政府建設(shè)的內(nèi)在要求。14.2.1構(gòu)建隱私保護(hù)倫理準(zhǔn)則(4)創(chuàng)新與責(zé)任一致。在構(gòu)建隱私保護(hù)的倫理準(zhǔn)則時(shí),可以引入“負(fù)責(zé)任創(chuàng)新”理念,對(duì)大數(shù)據(jù)技術(shù)的創(chuàng)新和設(shè)計(jì)過程進(jìn)行全面的綜合考量與評(píng)估,使大數(shù)據(jù)技術(shù)的相關(guān)信息能被公眾所理解,真正將大數(shù)據(jù)技術(shù)的“創(chuàng)新”與“負(fù)責(zé)任”相結(jié)合,以一種開放、包容、互動(dòng)的態(tài)度來看待技術(shù)的良性發(fā)展。14.2.1構(gòu)建隱私保護(hù)倫理準(zhǔn)則在實(shí)踐中需要重視隱私保護(hù)的道德倫理教育。(1)樹立風(fēng)險(xiǎn)與利益相平衡的價(jià)值觀。在責(zé)任倫理這種將視角聚焦于未來的倫理學(xué)的指導(dǎo)下,應(yīng)該了解大數(shù)據(jù)技術(shù)可能會(huì)給社會(huì)發(fā)展、人類進(jìn)步帶來益處與壞處,因此,要樹立利益與風(fēng)險(xiǎn)共享的正確價(jià)值觀,完善對(duì)數(shù)據(jù)生命周期參與主體的道德倫理教育。14.2.2注重隱私保護(hù)倫理教育(2)加強(qiáng)責(zé)任倫理意識(shí)培養(yǎng)。這不僅是現(xiàn)代社會(huì)科技發(fā)展和當(dāng)代倫理學(xué)理論實(shí)踐的需求,也是約束科技人員和科技使用者權(quán)利,提高社會(huì)公眾道德修養(yǎng)的重要方法。加強(qiáng)責(zé)任倫理意識(shí)培養(yǎng)的最終目的,就是在一定程度上使各參與主體認(rèn)識(shí)到目前科技行為所需要承擔(dān)的未來后果,并以制度的形式建立一系列明確的公共道德規(guī)范,讓人們知道什么是應(yīng)當(dāng)做的和什么是不應(yīng)當(dāng)做的,使人們有正確的道德價(jià)值定位和價(jià)值取向。14.2.2注重隱私保護(hù)倫理教育健全隱私保護(hù)的道德倫理約束機(jī)制,包括:(1)建立完善的隱私保護(hù)道德自律機(jī)制。個(gè)人自覺保護(hù)隱私,首先應(yīng)該清楚意識(shí)到個(gè)人信息安全的重要性,做到重視自我隱私,從源頭切斷個(gè)人信息泄露的可能。政府、組織和企業(yè)可以通過不斷創(chuàng)新與完善隱私保護(hù)技術(shù)的方式讓所有數(shù)據(jù)行業(yè)從業(yè)者都認(rèn)識(shí)到隱私保護(hù)的重要性,并在數(shù)據(jù)使用中自覺采取隱私保護(hù)技術(shù),以免信息泄露。企業(yè)還可以通過建立行業(yè)自律公約的方式來規(guī)范自我道德行為,以統(tǒng)一共識(shí)的達(dá)成來約束自身行為。14.2.3健全道德倫理約束機(jī)制(2)強(qiáng)化社會(huì)監(jiān)督與道德評(píng)價(jià)功能。建立由多主體參與的監(jiān)督體系來實(shí)時(shí)監(jiān)控、預(yù)防侵犯隱私行為的發(fā)生,這在公共事務(wù)上體現(xiàn)為一種社會(huì)合力,代表著社會(huì)生活中一部分人的發(fā)聲,具有較強(qiáng)的制約力和規(guī)范力,是完善隱私保護(hù)道德倫理約束機(jī)制的重要一步。其次,健全道德倫理約束機(jī)制還可以發(fā)揮道德的評(píng)價(jià)功能,讓道德輿論的評(píng)價(jià)來調(diào)整社會(huì)關(guān)系,規(guī)范人們的行為。在隱私保護(hù)倫理的建設(shè)過程中,運(yùn)用社會(huì)倫理的道德評(píng)價(jià),可以強(qiáng)化人們的道德意志,增強(qiáng)他們遵守道德規(guī)范的主動(dòng)性與自覺性,將外在的道德規(guī)范轉(zhuǎn)化為人們的自我道德觀念和道德行為準(zhǔn)則。14.2.3健全道德倫理約束機(jī)制PART03人工智能倫理原則人工智能發(fā)展不僅僅是一場(chǎng)席卷全球的科技革命,也是一場(chǎng)對(duì)人類文明帶來前所未有深遠(yuǎn)影響的社會(huì)倫理實(shí)驗(yàn)。在應(yīng)用層面,人工智能已經(jīng)開始用于解決社會(huì)問題,各種服務(wù)機(jī)器人、輔助機(jī)器人、陪伴機(jī)器人、教育機(jī)器人等社會(huì)機(jī)器人和智能應(yīng)用軟件應(yīng)運(yùn)而生,各種倫理問題隨之產(chǎn)生。機(jī)器人倫理與人因工程相關(guān),涉及人體工程學(xué)、生物學(xué)和人機(jī)交互,需要以人為中心的機(jī)器智能設(shè)計(jì)。14.3人工智能倫理原則隨著推理、社會(huì)機(jī)器人進(jìn)入家庭,如何保護(hù)隱私、滿足個(gè)性都要以人為中心而不是以機(jī)器為中心設(shè)計(jì)。過度依賴社會(huì)機(jī)器人將帶來一系列的家庭倫理問題。為了避免人工智能以機(jī)器為中心,需要法律和倫理研究參與其中,而相關(guān)倫理與哲學(xué)研究也要對(duì)技術(shù)有必要的了解。14.3人工智能倫理原則需要制定人工智能的職業(yè)倫理準(zhǔn)則,來達(dá)到下列目標(biāo):(1)為防止人工智能技術(shù)的濫用設(shè)立紅線;(2)提高職業(yè)人員的責(zé)任心和職業(yè)道德水準(zhǔn);(3)確保算法系統(tǒng)的安全可靠;(4)使算法系統(tǒng)的可解釋性成為未來引導(dǎo)設(shè)計(jì)的一個(gè)基本方向;(5)使倫理準(zhǔn)則成為人工智能從業(yè)者的工作基礎(chǔ);(6)提升職業(yè)人員的職業(yè)抱負(fù)和理想。14.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)人工智能的職業(yè)倫理準(zhǔn)則至少應(yīng)包括下列幾個(gè)方面:(1)確保人工智能更好地造福于社會(huì);(2)在強(qiáng)化人類中心主義的同時(shí),達(dá)到走出人類中心主義的目標(biāo),形成雙向互進(jìn)關(guān)系;(3)避免人工智能對(duì)人類造成任何傷害;(4)確保人工智能體位于人類可控范圍之內(nèi);(5)提升人工智能的可信性;(6)確保人工智能的可問責(zé)性和透明性;(7)維護(hù)公平;(8)尊重隱私、謹(jǐn)慎應(yīng)用;(9)提高職業(yè)技能與提升道德修養(yǎng)并行發(fā)展。14.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)2018年7月11日,中國人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟發(fā)布了《人工智能創(chuàng)新發(fā)展道德倫理宣言》(簡(jiǎn)稱《宣言》)?!缎浴烦诵蜓灾猓还灿辛鶄€(gè)部分,分別是人工智能系統(tǒng),人工智能與人類的關(guān)系,人工智能與具體接觸人員的道德倫理要求,以及人工智能的應(yīng)用和未來發(fā)展的方向,最后是附則。發(fā)布“人工智能創(chuàng)新發(fā)展道德倫理宣言”,是為了宣揚(yáng)涉及人工智能創(chuàng)新、應(yīng)用和發(fā)展的基本準(zhǔn)則,以期無論何種身份的人都能經(jīng)常銘記本宣言精神,理解并尊重發(fā)展人工智能的初衷,使其傳達(dá)的價(jià)值與理念得到普遍認(rèn)可與遵行。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出:(1)鑒于全人類固有道德、倫理、尊嚴(yán)及人格之權(quán)利,創(chuàng)新、應(yīng)用和發(fā)展人工智能技術(shù)當(dāng)以此為根本基礎(chǔ);(2)鑒于人類社會(huì)發(fā)展的最高階段為人類解放和人的自由全面發(fā)展,人工智能技術(shù)研發(fā)當(dāng)以此為最終依歸,進(jìn)而促進(jìn)全人類福祉;(3)鑒于人工智能技術(shù)對(duì)人類社會(huì)既有觀念、秩序和自由意志的挑戰(zhàn)巨大,且發(fā)展前景充滿未知,對(duì)人工智能技術(shù)的創(chuàng)新應(yīng)當(dāng)設(shè)置倡導(dǎo)性與禁止性的規(guī)則,這些規(guī)則本身應(yīng)當(dāng)凝聚不同文明背景下人群的基本價(jià)值共識(shí);14.3.2創(chuàng)新發(fā)展道德倫理宣言(4)鑒于人工智能技術(shù)具有把人類從繁重體力和腦力勞動(dòng)束縛中解放的潛力,縱然未來的探索道路上出現(xiàn)曲折與反復(fù),也不應(yīng)停止人工智能創(chuàng)新發(fā)展造福人類的步伐。14.3.2創(chuàng)新發(fā)展道德倫理宣言建設(shè)人工智能系統(tǒng),要做到:(1)人工智能系統(tǒng)基礎(chǔ)數(shù)據(jù)應(yīng)當(dāng)秉持公平性與客觀性,摒棄帶有偏見的數(shù)據(jù)和算法,以杜絕可能的歧視性結(jié)果。(2)人工智能系統(tǒng)的數(shù)據(jù)采集和使用應(yīng)當(dāng)尊重隱私權(quán)等一系列人格權(quán)利,以維護(hù)權(quán)利所承載的人格利益。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)人工智能系統(tǒng)應(yīng)當(dāng)有相應(yīng)的技術(shù)風(fēng)險(xiǎn)評(píng)估機(jī)制,保持對(duì)潛在危險(xiǎn)的前瞻性控制能力。(4)人工智能系統(tǒng)所具有的自主意識(shí)程度應(yīng)當(dāng)受到科學(xué)技術(shù)水平和道德、倫理、法律等人文價(jià)值的共同評(píng)價(jià)。14.3.2創(chuàng)新發(fā)展道德倫理宣言為明確人工智能與人類的關(guān)系,《宣言》指出:(1)人工智能的發(fā)展應(yīng)當(dāng)始終以造福人類為宗旨。牢記這一宗旨,是防止人工智能的巨大優(yōu)勢(shì)轉(zhuǎn)為人類生存發(fā)展巨大威脅的關(guān)鍵所在。(2)無論人工智能的自主意識(shí)能力進(jìn)化到何種階段,都不能改變其由人類創(chuàng)造的事實(shí)。不能將人工智能的自主意識(shí)等同于人類特有的自由意志,模糊這兩者之間的差別可能抹殺人類自身特有的人權(quán)屬性與價(jià)值。(3)當(dāng)人工智能的設(shè)定初衷與人類整體利益或個(gè)人合法利益相悖時(shí),人工智能應(yīng)當(dāng)無條件停止或暫停工作進(jìn)程,以保證人類整體利益的優(yōu)先性。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,人工智能具體接觸人員的道德倫理要求是:(1)人工智能具體接觸人員是指居于主導(dǎo)地位、可以直接操縱或影響人工智能系統(tǒng)和技術(shù),使之按照預(yù)設(shè)產(chǎn)生某種具體功效的人員,包括但不限于人工智能的研發(fā)人員和使用者。(2)人工智能的研發(fā)者自身應(yīng)當(dāng)具備正確的倫理道德意識(shí),同時(shí)將這種意識(shí)貫徹于研發(fā)全過程,確保其塑造的人工智能自主意識(shí)符合人類社會(huì)主流道德倫理要求。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)人工智能產(chǎn)品的使用者應(yīng)當(dāng)遵循產(chǎn)品的既有使用準(zhǔn)則,除非出于改善產(chǎn)品本身性能的目的,否則不得擅自變動(dòng)、篡改原有的設(shè)置,使之背離創(chuàng)新、應(yīng)用和發(fā)展初衷,以致破壞人類文明及社會(huì)和諧。(4)人工智能從業(yè)人員可以根據(jù)自身經(jīng)驗(yàn),闡述其對(duì)產(chǎn)品與技術(shù)的認(rèn)識(shí)。此種闡述應(yīng)當(dāng)本著誠實(shí)信用的原則,保持理性與客觀,不得誘導(dǎo)公眾的盲目熱情或故意加劇公眾的恐慌情緒。14.3.2創(chuàng)新發(fā)展道德倫理宣言針對(duì)人工智能的應(yīng)用,《宣言》指出:(1)人工智能發(fā)展迅速,但也伴隨著各種不確定性。在沒有確定完善的技術(shù)保障之前,在某些失誤成本過于沉重的領(lǐng)域,人工智能的應(yīng)用和推廣應(yīng)當(dāng)審慎而科學(xué)。(2)人工智能可以為決策提供輔助。但是人工智能本身不能成為決策的主體,特別是國家公共事務(wù)領(lǐng)域,人工智能不能行使國家公權(quán)力。(3)人工智能的優(yōu)勢(shì)使其在軍事領(lǐng)域存在巨大應(yīng)用潛力。出于對(duì)人類整體福祉的考慮,應(yīng)當(dāng)本著人道主義精神,克制在進(jìn)攻端武器運(yùn)用人工智能的沖動(dòng)。14.3.2創(chuàng)新發(fā)展道德倫理宣言(4)人工智能不應(yīng)成為侵犯合法權(quán)益的工具,任何運(yùn)用人工智能從事犯罪活動(dòng)的行為,都應(yīng)當(dāng)受到法律的制裁和道義的譴責(zé)。(5)人工智能的應(yīng)用可以解放人類在腦力和體力層面的部分束縛,在條件成熟時(shí),應(yīng)當(dāng)鼓勵(lì)人工智能在相應(yīng)領(lǐng)域發(fā)揮幫助人類自由發(fā)展的作用。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,當(dāng)前發(fā)展人工智能的方向主要是:(1)探索產(chǎn)、學(xué)、研、用、政、金合作機(jī)制,推動(dòng)人工智能核心技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展。特別是推動(dòng)上述各方資源結(jié)合,建立長(zhǎng)期和深層次的合作機(jī)制,針對(duì)人工智能領(lǐng)域的關(guān)鍵核心技術(shù)難題開展聯(lián)合攻關(guān)。(2)制定人工智能產(chǎn)業(yè)發(fā)展標(biāo)準(zhǔn),推動(dòng)人工智能產(chǎn)業(yè)協(xié)同發(fā)展。推動(dòng)人工智能產(chǎn)業(yè)從數(shù)據(jù)規(guī)范、應(yīng)用接口以及性能檢測(cè)等方面的標(biāo)準(zhǔn)體系制定,為消費(fèi)者提供更好的服務(wù)與體驗(yàn)。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)打造共性技術(shù)支撐平臺(tái),構(gòu)建人工智能產(chǎn)業(yè)生態(tài)。推動(dòng)人工智能領(lǐng)域龍頭企業(yè)牽頭建設(shè)平臺(tái),為人工智能在社會(huì)生活各個(gè)領(lǐng)域的創(chuàng)業(yè)創(chuàng)新者提供更好支持。(4)健全人工智能法律法規(guī)體系。通過不斷完善人工智能相關(guān)法律法規(guī),在拓展人類人工智能應(yīng)用能力的同時(shí),避免人工智能對(duì)社會(huì)和諧的沖擊,尋求人工智能技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展與道德倫理的平衡點(diǎn)。14.3.2創(chuàng)新發(fā)展道德倫理宣言人工智能的發(fā)展在深度與廣度上都是難以預(yù)測(cè)的。根據(jù)新的發(fā)展形勢(shì),對(duì)本宣言的任何修改都不能違反人類的道德倫理法律準(zhǔn)則,不得損害人類的尊嚴(yán)和整體福祉。14.3.2創(chuàng)新發(fā)展道德倫理宣言2018年5月26日,百度創(chuàng)始人李彥宏在貴陽大數(shù)據(jù)博覽會(huì)上指出,所有的人工智能產(chǎn)品、技術(shù)都要有大家共同遵循的理念和規(guī)則。他首次提出人工智能倫理四原則。他說,伴隨技術(shù)的快速進(jìn)步、產(chǎn)品的不斷落地,人們切身感受到人工智能給生活帶來的改變,從而也需要有新的規(guī)則、新的價(jià)值觀、新的倫理——至少要在這方面進(jìn)行討論。不僅無人車要能夠認(rèn)識(shí)紅綠燈,所有新的人工智能產(chǎn)品、技術(shù)都要有共同遵循的理念和規(guī)則。14.3.3百度四大倫理原則(1)人工智能的最高原則是安全可控。一輛無人車如果被黑客攻擊了,它有可能變成一個(gè)殺人武器,這是絕對(duì)不允許的,我們一定要讓它是安全的,可控的。(2)人工智能的創(chuàng)新愿景是促進(jìn)人類更平等地獲取技術(shù)和能力。我們需要認(rèn)真思考怎么能夠在新的時(shí)代讓所有的企業(yè)、所有的人能夠平等地獲取人工智能的技術(shù)和能力,防止在人工智能時(shí)代因?yàn)榧夹g(shù)的不平等導(dǎo)致人們?cè)谏睢⒐ぷ鞲鱾€(gè)方面變得越來越不平等。14.3.3百度四大倫理原則(3)人工智能存在的價(jià)值是教人學(xué)習(xí),讓人成長(zhǎng),而非超越人、替代人。人工智能做出來的東西不應(yīng)該僅僅簡(jiǎn)單地模仿人,也不是根據(jù)人的喜好,你喜歡什么就給你什么。我們希望通過人工智能,通過個(gè)性化推薦,教人學(xué)習(xí),幫助每個(gè)用戶變成更好的人。14.3.3百度四大倫理原則(4)人工智能的終極理想是為人類帶來更多的自由與可能。人們現(xiàn)在一周工作五天,休息兩天,未來一周也許工作兩天,休息五天。但是更重要的是,很可能因?yàn)槿斯ぶ悄?,勞?dòng)不再成為人們謀生的手段,而是變成個(gè)人自由意志下的一種需求。你想去創(chuàng)新,想去創(chuàng)造,所以你才去工作,這是人工智能的終極理想——為人類帶來更多自由和可能。14.3.3百度四大倫理原則2019年,歐盟人工智能高級(jí)別專家組正式發(fā)布了“可信賴的人工智能倫理準(zhǔn)則”。根據(jù)準(zhǔn)則,可信賴的人工智能應(yīng)該是:(1)合法——尊重所有適用的法律法規(guī)。(2)合乎倫理——尊重倫理原則和價(jià)值觀。(3)穩(wěn)健——既從技術(shù)角度考慮,又考慮到其社會(huì)環(huán)境。14.3.4歐盟可信賴的倫理準(zhǔn)則該指南提出了未來AI系統(tǒng)應(yīng)滿足的7大原則,以便被認(rèn)為是可信的。并給出一份具體的評(píng)估清單,旨在協(xié)助核實(shí)每項(xiàng)要求的適用情況。(1)人類代理和監(jiān)督:AI不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被AI系統(tǒng)所操縱或脅迫,應(yīng)該能夠干預(yù)或監(jiān)督軟件所做的每一個(gè)決定;(2)技術(shù)穩(wěn)健性和安全性:AI應(yīng)該是安全而準(zhǔn)確的,它不應(yīng)該輕易受到外部攻擊(例如對(duì)抗性例子)的破壞,并且應(yīng)該是相當(dāng)可靠的;(3)隱私和數(shù)據(jù)管理:AI系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的,并且能夠保護(hù)個(gè)人隱私。它不應(yīng)該被任何人訪問,也不應(yīng)該輕易被盜;14.3.4歐盟可信賴的倫理準(zhǔn)則(4)透明度:用于創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,軟件所做的決定應(yīng)該“為人類所理解和追蹤”。換句話說,操作者應(yīng)該能夠解釋他們的AI系統(tǒng)所做的決定;(5)多樣性、無歧視、公平:AI應(yīng)向所有人提供服務(wù),不分年齡、性別、種族或其他特征。同樣,AI系統(tǒng)不應(yīng)在這些方面有偏見;(6)環(huán)境和社會(huì)福祉:AI系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對(duì)生態(tài)負(fù)責(zé)),并能“促進(jìn)積極的社會(huì)變革”;14.3.4歐盟可信賴的倫理準(zhǔn)則(7)問責(zé)制:AI系統(tǒng)應(yīng)該是可審計(jì)的,并由現(xiàn)有的企業(yè)告密者保護(hù)機(jī)制覆蓋。系統(tǒng)的負(fù)面影響應(yīng)事先得到承認(rèn)和報(bào)告。這些原則中有些條款的措辭比較抽象,很難從客觀意義上進(jìn)行評(píng)估。這些指導(dǎo)方針不具有法律約束力,但可以影響歐盟起草的任何未來立法。歐盟發(fā)布的報(bào)告還包括了一份被稱為“可信賴AI評(píng)估列表”,幫助專家們找出AI軟件中的任何潛在弱點(diǎn)或危險(xiǎn)。此列表包括以下問題:“你是否驗(yàn)證了系統(tǒng)在意外情況和環(huán)境中的行為方式?”以及“你評(píng)估了數(shù)據(jù)集中數(shù)據(jù)的類型和范圍了嗎?”此次出臺(tái)的指導(dǎo)方針“為推動(dòng)AI的道德和責(zé)任制定了全球標(biāo)準(zhǔn)。”14.3.4歐盟可信賴的倫理準(zhǔn)則PART04大模型的大趨勢(shì)人工智能在2023年最大的突破,就是大語言模型實(shí)現(xiàn)了真正的人工智能,來到通用人工智能的拐點(diǎn),而且技術(shù)發(fā)展遙遙領(lǐng)先。大模型對(duì)國家、產(chǎn)業(yè)和創(chuàng)業(yè)者來說,都意味著不同的機(jī)會(huì)。綜合業(yè)內(nèi)專家和研究者的意見,提出未來大模型的主要趨勢(shì)如下。趨勢(shì)一:未來大模型無處不在,它不會(huì)被壟斷,會(huì)成為企業(yè)數(shù)字化、政府?dāng)?shù)字化的標(biāo)配。14.4大模型的大趨勢(shì)趨勢(shì)二:開源大模型爆發(fā)。最早的大模型是閉源的,如今,國內(nèi)很多開源模型都基于國際開源模型。未來的矛盾不再是大模型本身怎么樣,而是誰能夠利用大模型結(jié)合自己的業(yè)務(wù)和場(chǎng)景,把它訓(xùn)練出自己需要的功能。14.4大模型的大趨勢(shì)趨勢(shì)三:2024年大模型一定會(huì)有突破。一方面,很多公司在思考如何把模型進(jìn)一步做大,從千億的參數(shù)做到萬億的參數(shù)。但還有一個(gè)趨勢(shì),就是把模型做小,使得在十幾億、幾十億或者不超過100億的模型上,效果也能差不多。模型做小有兩個(gè)前提,一個(gè)是把模型做專業(yè)。再者,就是可以運(yùn)行在更多的終端上。像高通推的CPU,蘋果推的CPU,都意味著在手機(jī)、平板、個(gè)人計(jì)算機(jī)上,小參數(shù)的大模型已經(jīng)可以跑起來。說大模型一定會(huì)上車,是指有了大模型之后,車上的對(duì)話助理才會(huì)真正幫你解決問題。14.4大模型的大趨勢(shì)趨勢(shì)四:大模型企業(yè)級(jí)市場(chǎng)會(huì)發(fā)達(dá)。企業(yè)級(jí)(toB)市場(chǎng)會(huì)起來,大模型要走深度化、產(chǎn)業(yè)化、垂直化、深度定制的方向。趨勢(shì)五:結(jié)合“智能體架構(gòu)”,大模型長(zhǎng)出手腳。無論是做toC業(yè)務(wù)或toB應(yīng)用,大模型一定要結(jié)合智能體框架,才能真正讓大模型真正跟業(yè)務(wù)系統(tǒng),跟整個(gè)互聯(lián)網(wǎng)充分打通。14.4大模型的大趨勢(shì)趨勢(shì)六:2024年一定會(huì)出現(xiàn)殺手級(jí)應(yīng)用。在消費(fèi)者端,人們?cè)谄诖竽P偷臍⑹旨?jí)應(yīng)用。例如微軟、Adobe和Salesforce這三家知名企業(yè),他們沒有用大模型做任何新東西,而都是把大模型跟已有的產(chǎn)品和場(chǎng)景做一個(gè)充分結(jié)合,就煥發(fā)了新生。比如微軟選擇Office、Bing和Edge瀏覽器,Adobe選擇它擅長(zhǎng)的圖形編輯、視頻編輯。大模型出來之后,在toC領(lǐng)域,意味著今天的搜索、瀏覽器、信息流、短視頻、微博、問答,甚至社交,都可能會(huì)用大模型來重塑一遍。至于是戰(zhàn)術(shù)性還是戰(zhàn)略性重塑,就看各家的做法。14.4大模型的大趨勢(shì)趨勢(shì)七:多模態(tài)會(huì)成為大模型標(biāo)準(zhǔn)。以前的大模型主要講的是文字能力,而多模態(tài)已經(jīng)崛起,會(huì)成為未來的標(biāo)準(zhǔn)。多模態(tài)不僅能聽會(huì)說,它也能看得懂圖片和視頻,聽得懂音樂。趨勢(shì)八:AIGC會(huì)有突破性的增長(zhǎng)。Midjourney生成的早期繪畫,一看就是人工智能作品,經(jīng)常把人畫成6根手指。而很快,人工智能的文生圖已經(jīng)和攝影師的作品不相上下了,產(chǎn)生視頻的能力,已經(jīng)做得像好萊塢動(dòng)畫片了,進(jìn)展特別快速。14.4大模型的大趨勢(shì)趨勢(shì)九:大模型拯救機(jī)器人行業(yè)。在大模型出來之前,傳統(tǒng)的人形機(jī)器人是典型的智障產(chǎn)業(yè)——做得像人,但是能力極其低下,因?yàn)樗痪邆鋵?duì)這個(gè)世界知識(shí)的了解。但是,有了大模型,機(jī)器人產(chǎn)業(yè)獲得了一個(gè)革命性的發(fā)展。機(jī)器人可以煎蛋、做家務(wù)、整理衣服,這完全有賴于大模型的加持。14.4大模型的大趨勢(shì)趨勢(shì)十:大模型推動(dòng)基礎(chǔ)科學(xué)取得突破。大模型不僅僅是語言工具,也不僅僅是聊天機(jī)器,它可能成為人類有史以來發(fā)明的最偉大的工具,成為很多科學(xué)家的工具。人類之所以能享受互聯(lián)網(wǎng),享受很多新能源,是因?yàn)?/p>

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論