《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析_第1頁
《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析_第2頁
《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析_第3頁
《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析_第4頁
《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析_第5頁
已閱讀5頁,還剩5頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

《生成式人工智能服務(wù)管理暫行辦法》四大亮點解析作者:黃榮楠祁筠馬欽奕林泓嵐一、概述

2023年7月13日,國家互聯(lián)網(wǎng)信息辦公室會(以下稱“網(wǎng)信辦”)等七部門聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(以下稱“暫行辦法”),將于2023年8月15日正式生效實施。暫行辦法在網(wǎng)信辦等七部門于2023年4月11日發(fā)布的《生成式人工智能服務(wù)管理辦法》(征求意見稿)(以下稱“征求意見稿”)的基礎(chǔ)上進行了部分修改,是我國首份生成式人工智能的監(jiān)管文件。從首次公開征求意見到暫行辦法正式發(fā)布,僅經(jīng)歷了短短三個月的時間,由此可見生成式人工智能的飛速發(fā)展對法律監(jiān)管的迫切要求。此次修改體現(xiàn)了主管部門就尚處于高速發(fā)展的生成式人工智能之審慎包容的立法態(tài)度,從政策層面為生成式人工智能的合法合規(guī)發(fā)展提供支持,也為將來可能的《人工智能法》的出臺奠定基礎(chǔ)。本文擬從人工智能的監(jiān)管原則、開發(fā)階段主要義務(wù)、生成內(nèi)容層面主要義務(wù)以及服務(wù)提供階段主要義務(wù)等四個修改亮點進行分析。二、適用范圍暫行辦法第二條明確了其規(guī)制主體為向“境內(nèi)”“公眾”提供生成式人工智能服務(wù)的主體,即將面向境外公眾、面向境外非公眾、面向境內(nèi)非公眾提供服務(wù)的主體排除在外。結(jié)合暫行辦法第二十條,來源于境外向境內(nèi)提供生成式人工智能服務(wù)的主體,也應(yīng)受限于暫行辦法的相關(guān)規(guī)定。情形是否適用來源于中華人民共和國境內(nèi)向境內(nèi)公眾提供生成式人工智能服務(wù)是來源于中華人民共和國境外向境內(nèi)公眾提供生成式人工智能服務(wù)是僅向中華人民共和國境外公眾提供生成式人工智能服務(wù)否相較于征求意見稿,暫行辦法在適用范圍上規(guī)定了例外,即“行業(yè)組織、企業(yè)、教育和科研機構(gòu)、公共文化機構(gòu)、有關(guān)專業(yè)機構(gòu)等研發(fā)、應(yīng)用生成式人工智能技術(shù),未向境內(nèi)公眾提供生成式人工智能服務(wù)的,不適用本辦法的規(guī)定”。因此,如果接入生成式人工智能技術(shù)僅用于內(nèi)部研發(fā)或內(nèi)部使用為目的、且未向境內(nèi)公眾提供服務(wù)的,不受暫行辦法規(guī)制。我們認為,以上例外規(guī)定體現(xiàn)了暫行辦法對新技術(shù)之包容、鼓勵的態(tài)度。此外,暫行辦法還充分考慮了不同行業(yè)監(jiān)管之特性,指出“從事新聞出版、影視制作、文藝創(chuàng)作等活動另有規(guī)定的,從其規(guī)定”。我們理解,原則上新聞出版、影視制作、文藝創(chuàng)作等活動仍適用暫行辦法的規(guī)定,但后續(xù)新聞、廣電、電影、教育等主管部門將可能結(jié)合其行業(yè)監(jiān)管的特性制定更有針對性的監(jiān)管要求。三、四大亮點解析亮點一:確立包容審慎和分類分級監(jiān)管原則1)對生成式人工智能服務(wù)確立包容審慎和分類分級監(jiān)管原則暫行辦法第三條指出,“對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”。但目前暫行辦法尚未就分類分級監(jiān)管提出具體規(guī)則與判斷標準,暫行辦法第十六條明確要求國家有關(guān)主管部門“針對生成式人工智能技術(shù)特點及其在有關(guān)行業(yè)和領(lǐng)域的服務(wù)應(yīng)用,完善與創(chuàng)新發(fā)展相適應(yīng)的科學監(jiān)管方式,制定相應(yīng)的分類分級監(jiān)管規(guī)則或者指引”。我們認為,由于生成式人工智能技術(shù)在各行業(yè)的應(yīng)用程度具有顯著差異,帶來的潛在風險等級也存在著不同,因而進行分類分級監(jiān)管具有必要性。例如在新聞出版業(yè)中,利用生成式人工智能技術(shù)制造虛假新聞,一旦該等新聞被未經(jīng)鑒別地大范圍傳播,將可能造成較大的不利影響。歐盟《人工智能法》(草案)將人工智能應(yīng)用場景分為最低風險(LowandMinimalRisk)、有限風險(LimitedRisk)、高風險(HighRisk)以及不可接受的風險(UnacceptableRisk)四個級別,并據(jù)此進行分級分類監(jiān)管。我們認為,未來我國也可能參照歐盟《人工智能法》進行風險分類和分級管理。現(xiàn)階段在分類分級監(jiān)管尚未出臺前,企業(yè)可以考慮結(jié)合即將正式出臺的歐盟《人工智能法》分級邏輯,結(jié)合行業(yè)、應(yīng)用的場景以及覆蓋范圍等要素,管控提供和/或使用人工智能服務(wù)過程中的風險。特別是,對于其中高風險(HighRisk)以及不可接受的風險(UnacceptableRisk)等級的場景,保持謹慎態(tài)度。另外,我們理解我國的分級分類監(jiān)管也將考慮我國的國情,在社會主義核心價值觀、社會公德、輿論屬性等方面投入更高的關(guān)注。2)對提供者和使用者均提出了基本要求暫行辦法第四條明確提出“提供和使用生成式人工智能服務(wù),應(yīng)當遵守法律、行政法規(guī),尊重社會公德和倫理道德,遵守以下規(guī)定……”。相較于征求意見稿僅對人工智能服務(wù)提供者(以下稱“提供者”)提出基本要求,暫行辦法將基本要求的義務(wù)主體范圍擴大至使用者。這個修訂有利于劃分提供者和使用者的責任。在生成式人工智能服務(wù)提供者所提供的服務(wù)符合暫行辦法等相關(guān)法律法規(guī)要求的情況下,使用者利用技術(shù)從事違法違規(guī)行為所造成的損害后果,應(yīng)當由其自身承擔。例如,在以ChatGPT為首的聊天智能模型在市場上進行流行后,由于此類聊天智能模型在訓(xùn)練和迭代中無法確保每一次都能準確識別出人類的有意誘導(dǎo),其所輸出的內(nèi)容也無法實現(xiàn)全方位的人工核查,因此國內(nèi)出現(xiàn)了不少使用ChatGPT模仿新聞格式、撰寫虛假新聞的案例。此時使用者如違反了暫行辦法第四條的禁止性規(guī)定,生成“虛假有害信息”,則使用者應(yīng)當承擔相應(yīng)的法律責任。提供者雖免于承擔上述由使用者造成的損害后果,但按照暫行辦法第十四條的規(guī)定,提供者發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動的,仍負有“依法依約采取警示、限制功能、暫?;蛘呓K止向其提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報告”的義務(wù)。3)凸顯對未成年人的保護暫行辦法第十條就未成年人這一特殊使用主體要求提供者履行更高的保護義務(wù),要求其“采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)”。由于生成式人工智能技術(shù)所依賴的數(shù)據(jù)來源較為復(fù)雜、對數(shù)據(jù)進行追溯也較為困難,因此提供者往往難以100%確保數(shù)據(jù)的真實性與準確性。而未成年人相較成年人而言對數(shù)據(jù)、生成內(nèi)容的辨別能力較弱,暫行辦法要求對未成年人提供特殊保護具有合理性。但暫行辦法未就“有效措施”做出明確的規(guī)定。參照《未成年人保護法》以及《關(guān)于進一步嚴格管理切實防止未成年人沉迷網(wǎng)絡(luò)游戲的通知》等規(guī)定,可從以下幾方面對未成年人進行保護:一是加強時間管理,根據(jù)未成年人社交、場合、用途設(shè)置合理和適度的生成式人工智能產(chǎn)品或服務(wù)使用時間,落實防沉迷要求;二是加強權(quán)限管理,加強實名登記,設(shè)立檢查年齡的驗證機制;三是加強適齡及風險提示,對生成式人工智能產(chǎn)品進行分類并作出提示,防止未成年人接觸不適宜的產(chǎn)品或者服務(wù);四是加強投訴舉報處理機制,積極處理使用者反饋的不適宜未成年人內(nèi)容及產(chǎn)品。亮點二:明確了人工智能開發(fā)階段的主要義務(wù)1)明確訓(xùn)練數(shù)據(jù)使用的要求生成式人工智能若想盡可能提高產(chǎn)出結(jié)果的準確性,不可避免地需要進行大量的數(shù)據(jù)訓(xùn)練。暫行辦法就生成式人工智能數(shù)據(jù)訓(xùn)練提出了具體的合規(guī)要求,第四條第三款要求提供者“尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密……”,第七條要求提供者“依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動,遵守以下規(guī)定:使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型”、“涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)”、“涉及個人信息的,應(yīng)當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形”“采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準確性、客觀性、多樣性”以及“遵守其他有關(guān)規(guī)定和有關(guān)主管部門的相關(guān)監(jiān)管要求”。此外,暫行辦法還就數(shù)據(jù)訓(xùn)練提出了政策鼓勵措施,要求推動“生成式人工智能基礎(chǔ)設(shè)施和公共訓(xùn)練數(shù)據(jù)資源平臺建設(shè)”以及“公共數(shù)據(jù)分類分級有序開放”。上述條款要求訓(xùn)練數(shù)據(jù)有合法來源,不能侵權(quán),但在現(xiàn)實中如何落地執(zhí)行,則仍需要進一步探討。以著作權(quán)為例,由于數(shù)據(jù)訓(xùn)練庫中的數(shù)據(jù)往往包含受著作權(quán)法保護的內(nèi)容,因此如何利用該等內(nèi)容進行數(shù)據(jù)訓(xùn)練?是否都需要獲得權(quán)利人的明確授權(quán)?這是一個在實踐中很有操作難度的問題。具體而言,我們認為需要基于以下角度理解訓(xùn)練階段的著作權(quán)法風險:從訓(xùn)練內(nèi)容角度,暫行辦法明確不得侵害他人“依法享有的知識產(chǎn)權(quán)”,這就排除了不受知識產(chǎn)權(quán)保護的內(nèi)容,如單純的事實消息、不具有獨創(chuàng)性的內(nèi)容等。生成式人工智能開發(fā)者使用上述數(shù)據(jù)集進行數(shù)據(jù)訓(xùn)練并不涉及對權(quán)利人知識產(chǎn)權(quán)的侵犯。盡管如此,相關(guān)數(shù)據(jù)/內(nèi)容仍可能受《反不正當競爭法》《個人信息保護法》等其他法律法規(guī)的保護。從行為角度,需要分別從內(nèi)容獲取階段、內(nèi)容輸入階段及內(nèi)容輸出階段評估具體的著作權(quán)法項下行為。以首例生成式人工智能數(shù)據(jù)訓(xùn)練版權(quán)侵權(quán)案1(GettyImages訴StabilityAI)為例,在該案中,原告認為被告未經(jīng)權(quán)利人許可,獲取與利用版權(quán)作品作為StableDiffusion的訓(xùn)練圖像,侵犯了其就圖像所享有的版權(quán)。StableDiffusion模型對版權(quán)作品的利用可分為兩個階段,一是生成式人工智能模型內(nèi)容輸入階段,二是生成式人工智能模型內(nèi)容輸出階段。在內(nèi)容輸入階段,需將權(quán)利人的圖像作品進行復(fù)制,落入復(fù)制權(quán)的規(guī)制范圍。而在內(nèi)容輸出階段,若生成式人工智能經(jīng)過處理后所生成的內(nèi)容與原作品在表達上構(gòu)成“實質(zhì)性相似”,則仍落入復(fù)制權(quán)的規(guī)制范圍。即使不構(gòu)成“實質(zhì)性相似”,而屬于在保留原作品基礎(chǔ)表達的前提下形成了新的表達,則可能受改編權(quán)的規(guī)制。另外,根據(jù)我們處理類似項目的經(jīng)驗,訓(xùn)練數(shù)據(jù)獲取階段也可能涉及著作權(quán)侵權(quán)風險,如未經(jīng)權(quán)利人許可,故意避開或破壞權(quán)利人設(shè)定的技術(shù)措施,抓取他人享有著作權(quán)的作品,也同樣可能構(gòu)成《著作權(quán)法》侵權(quán)。該不適當?shù)膬?nèi)容抓取行為還可能引發(fā)不正當競爭風險,甚至涉嫌破壞計算機信息系統(tǒng)罪等刑事風險。從豁免情形角度,應(yīng)判斷上述利用作品的行為是否構(gòu)成“合理使用”。美國《版權(quán)法》對合理使用的判斷遵循“四要素分析法”,即作品新用途的目的和性質(zhì),是否對原作品進行轉(zhuǎn)化、受版權(quán)保護的原作品性質(zhì)、新作品中使用原作品的數(shù)量和實質(zhì)性、以及作品新用途是否破壞了原作品的價值和市場。實際上,人工智能使用作品作為訓(xùn)練數(shù)據(jù)是否屬于“轉(zhuǎn)換性使用”存在很大爭議,且人工智能所生成的內(nèi)容很大程度上擠占了被利用作品的原有市場,已經(jīng)引起原作品著作權(quán)人的強烈不滿。而我國現(xiàn)行《著作權(quán)法》關(guān)于合理使用的規(guī)定,能適用于生成式人工智能的情形主要有三個,即“個人使用”、“適當引用”、“科學研究”。由于目前生成式人工智能模型最終系針對不特定主體的商業(yè)性服務(wù),不符合“個人使用”之目的;而“適當引用”的適用前提為“介紹、評論某一作品或者說明某一問題”,也與生成式人工智能的商業(yè)化應(yīng)用不相符;“科學研究”要求在“學校課堂教學或者科學研究”范圍內(nèi)使用,且“少量復(fù)制”的要求明顯與數(shù)據(jù)訓(xùn)練所需要的海量數(shù)據(jù)存在著矛盾。因此,生成式人工智能使用作品作為數(shù)據(jù)訓(xùn)練可能難以滿足“合理使用”的要求,人工智能開發(fā)者進行數(shù)據(jù)訓(xùn)練仍建議獲得訓(xùn)練數(shù)據(jù)所涉權(quán)利人的授權(quán)。盡管如此,目前傳統(tǒng)的作品事前授權(quán)模式在生成式人工智能領(lǐng)域或許難以適用。由于部分原始數(shù)據(jù)的體量巨大、權(quán)屬復(fù)雜,要求服務(wù)提供者在將上述數(shù)據(jù)用于數(shù)據(jù)訓(xùn)練前就獲得權(quán)利人的事先許可,將導(dǎo)致獲得授權(quán)的過程過于漫長,最終可能的結(jié)果便是人工智能僅能就少量的獲得授權(quán)的數(shù)據(jù)進行訓(xùn)練,引發(fā)算法模型偏見等后果。鑒于上述,從著作權(quán)法角度,我們建議生成式人工智能開發(fā)者、提供者:a)對用于數(shù)據(jù)訓(xùn)練的原始數(shù)據(jù)進行分類,確定需要獲得授權(quán)的數(shù)據(jù)及所需獲得的權(quán)利(結(jié)合后續(xù)的使用方式)。如已經(jīng)處于公共領(lǐng)域的內(nèi)容,屬于無需獲得著作權(quán)授權(quán)的數(shù)據(jù)類型(但仍可能涉及其他權(quán)利);尚在保護期內(nèi)的作品,則屬于需要獲得著作權(quán)人授權(quán)的數(shù)據(jù)類型;b)從內(nèi)容獲取階段、內(nèi)容輸入階段及內(nèi)容輸出階段三個階段評估自身行為的合法性及風險等級;c)從便捷性角度考慮,可與擁有龐大的數(shù)據(jù)庫/知識庫的經(jīng)營者達成合作協(xié)議,并審查合作協(xié)議中的權(quán)利保證等條款;d)對數(shù)據(jù)庫/知識庫內(nèi)容的權(quán)利歸屬及授權(quán)鏈文件進行分類審查、抽查,合規(guī)排摸,以確保使用該等內(nèi)容進行人工智能訓(xùn)練未超出授權(quán)范圍;e)推動公共訓(xùn)練數(shù)據(jù)資源平臺建設(shè)。暫行辦法鼓勵公共訓(xùn)練數(shù)據(jù)資源平臺的建設(shè),提供者可以關(guān)注并積極推動該平臺的建成。2)明確數(shù)據(jù)標注要求《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下稱“《深度合成規(guī)定》”)原則性地提及了要加強訓(xùn)練數(shù)據(jù)的管理,保障訓(xùn)練數(shù)據(jù)的安全。暫行辦法第八條則對數(shù)據(jù)訓(xùn)練作出了更為細化的規(guī)定,包括訓(xùn)練數(shù)據(jù)標注規(guī)則和標注人員的要求,即生成式人工智能服務(wù)提供者應(yīng)“制定符合本辦法要求的清晰、具體、可操作的標注規(guī)則;開展數(shù)據(jù)標注質(zhì)量評估,抽樣核驗標注內(nèi)容的準確性;對標注人員進行必要培訓(xùn),提升尊法守法意識,監(jiān)督指導(dǎo)標注人員規(guī)范開展標注工作”。數(shù)據(jù)標注把需要計算機識別和分辨的圖片事先打上標簽,讓計算機不斷地識別這些圖片的特征,最終實現(xiàn)計算機能夠自主識別。2因此數(shù)據(jù)標注的精確度在一定程度上決定了人工智能的智能程度,暫行辦法就數(shù)據(jù)標注所作出的具體規(guī)則有利于提高生成式人工智能的智能程度,進而增強訓(xùn)練數(shù)據(jù)的“準確性”。3)安全評估與備案暫行辦法第十七條就生成式人工智能服務(wù)提供者的安全評估開展以及備案進行了規(guī)定。此前征求意見稿曾要求生成式人工智能服務(wù)提供者在對外提供服務(wù)前,均需按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。暫行辦法對上述規(guī)定作出了較大的調(diào)整,明確僅“具有輿論屬性或者社會動員能力的”提供者應(yīng)當開展安全評估,并履行算法備案手續(xù),與《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》以及《深度合成規(guī)定》保持一致。亮點三:創(chuàng)設(shè)了人工智能網(wǎng)絡(luò)信息生成內(nèi)容的責任主體1)網(wǎng)絡(luò)信息生成內(nèi)容的責任主體暫行辦法第九條明確了人工智能網(wǎng)絡(luò)信息生成內(nèi)容的責任主體,規(guī)定“提供者應(yīng)當依法承擔網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任,履行網(wǎng)絡(luò)信息安全義務(wù)”。此前征求意見稿第五條曾要求人工智能服務(wù)提供者承擔“內(nèi)容生產(chǎn)者”的責任,該規(guī)定意味著提供者應(yīng)承擔知識產(chǎn)權(quán)侵權(quán)、人格權(quán)侵權(quán)、個人信息侵權(quán)等一系列責任。而暫行辦法則將“內(nèi)容生產(chǎn)者責任”改為了“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任”,并在其后增加了“履行網(wǎng)絡(luò)信息安全義務(wù)”,是否意味著暫行辦法將服務(wù)提供者的義務(wù)范圍限縮至“網(wǎng)絡(luò)信息安全”內(nèi),將有待進一步解釋。另外,服務(wù)提供者還負有與用戶簽訂服務(wù)協(xié)議明確雙方權(quán)利義務(wù),“警示”、“限制功能”以及“保存記錄”和“報告”的義務(wù)等。盡管如此,由于生成式人工智能使用場景多元,而該條款所明確的網(wǎng)絡(luò)信息安全義務(wù)不足以涵蓋提供者的所有義務(wù),我們建議:a)在多個身份重合時,考慮不同身份下應(yīng)當承擔的義務(wù)及責任,進行獨立評估。例如,生成式服務(wù)提供者通常也是著作權(quán)法下的網(wǎng)絡(luò)服務(wù)提供者,需要評估其是否構(gòu)成對侵權(quán)內(nèi)容的“明知”或“應(yīng)知”;又如,生成式服務(wù)提供者同時又是廣告發(fā)布者時,需要考慮廣告發(fā)布者的義務(wù),對生成的廣告內(nèi)容盡到審核義務(wù);b)當存在多個服務(wù)主體時,則應(yīng)當通過協(xié)議、平臺規(guī)則等方式明確各自的責任劃分;c)明確不同場景下人工智能服務(wù)提供者和使用者的責任劃分。如在涉及侵權(quán)的內(nèi)容系由使用者提供的情況下,應(yīng)當由使用者承擔內(nèi)容侵權(quán)責任,但服務(wù)提供者也應(yīng)盡到“警示”、“限制功能”以及“保存記錄”和“報告”等義務(wù)。亮點四:規(guī)定了提供者在提供人工智能服務(wù)中的義務(wù)1)服務(wù)協(xié)議的制定暫行辦法第九條第二款要求“提供者應(yīng)當與注冊其服務(wù)的生成式人工智能服務(wù)使用者簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù)”。自從以ChatGPT為代表的生成式人工智能模型“爆火”后,國內(nèi)各界的關(guān)注重點即在于人工智能輸出的內(nèi)容權(quán)利歸屬何方以及侵權(quán)責任劃分問題。目前不少生成式人工智能模型即在服務(wù)協(xié)議中就生成內(nèi)容的權(quán)利歸屬、提供者與使用者的責任劃分、免責條款等進行約定,以避免潛在的爭議。目前主流生成式人工智能模型的權(quán)利歸屬模式主要分為以下四類:權(quán)利歸屬模式軟件開發(fā)者條款概述權(quán)利全部歸屬于用戶OpenAI《使用條款》3:用戶輸入的內(nèi)容,其權(quán)利歸屬于用戶所有;且在用戶遵守OpenAI公布的相關(guān)條款前提下,OpenAI將輸出內(nèi)容的所有權(quán)利分配給用戶,即用戶可以將輸出內(nèi)容用于任何目的,包括銷售或出版等商業(yè)目的。權(quán)利歸屬于用戶,但使用方式將根據(jù)具體情況予以限制有條件Canva《使用條款》4:我們提供各種內(nèi)容供你在設(shè)計中使用。你需要遵守一些關(guān)于你可以如何使用內(nèi)容,以及你可以將含有該內(nèi)容的設(shè)計用作什么用途的限制。這些限制依據(jù)內(nèi)容的類型和來源有所不同……你的設(shè)計可能同時包括用戶內(nèi)容和許可內(nèi)容。雖然你保留對你的用戶內(nèi)容的所有權(quán),使用任何包含許可內(nèi)容的設(shè)計均應(yīng)遵守《Canva可畫內(nèi)容許可協(xié)議》中適用的條款……我們不擁有你的設(shè)計,但是對設(shè)計的使用可能存在一些限制,具體取決于你的設(shè)計中包括哪些Canva提供的內(nèi)容。權(quán)利歸屬取決于用戶是否為付費用戶Midjourney《服務(wù)條款》5:“您擁有您使用服務(wù)創(chuàng)建的所有資產(chǎn)?!绻欠歉顿M用戶,則您不擁有您所創(chuàng)建的圖像。但是,Midjourney授予您在知識共享非商用4.0版本的公共版權(quán)國際許可。權(quán)利歸屬于軟件開發(fā)者,用戶取得授權(quán)Storyboard

That《版權(quán)政策》6:必須購買至少1年的帳戶才能在商業(yè)出版物中使用情節(jié)提要;用戶需告訴出版商其不擁有插圖的權(quán)利。2)使用者輸入信息的保密義務(wù)暫行辦法第十一條規(guī)定了人工智能服務(wù)提供者不得收集非必要信息和不得“非法”向他人提供使用者的輸入信息和使用記錄。使用者在生成式人工智能產(chǎn)品中輸入的內(nèi)容可能涉及個人隱私或者商業(yè)秘密,若被人工智能服務(wù)提供者非法對外提供,則可能導(dǎo)致隱私或者商業(yè)秘密泄露。即便提供者未將上述信息提供給第三方,若該等信息被作為訓(xùn)練數(shù)據(jù)用于訓(xùn)練人工智能模型,也可能出現(xiàn)在其他使用者向人工智能模型輸入特定指令后,上述涉密信息被輸出的情況。因此,目前有不少生成式人工智能模型就輸入信息可否用于模型的再訓(xùn)練在服務(wù)協(xié)議中進行了約定。如OpenAI在《使用條款》中明確指出不會使用用戶提供的API內(nèi)容來開發(fā)或改進其服務(wù),即不會將用戶輸入的內(nèi)容進行再訓(xùn)練。該等條款安排在一定程度上也能夠避免用戶和OpenAI對于內(nèi)容權(quán)利歸屬引發(fā)爭議,也避免了在數(shù)據(jù)訓(xùn)練階段泄露用戶輸入內(nèi)容的問題。3)生成內(nèi)容的標識暫行辦法第十二條規(guī)定了人工智能服務(wù)提供者的強制性標識義務(wù),即“提供者應(yīng)當按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對圖片、視頻等生成內(nèi)容進行標識”。參照《深度合成規(guī)定》的規(guī)定,人工智能服務(wù)提供者的標識分為兩類,一是使發(fā)布、傳播的人工智能生成的信息內(nèi)容可被自身識別、追溯的標識,該類標識有利于服務(wù)提供者對其制作生成的內(nèi)容予以追蹤,在爭議發(fā)生時或其他需要確定人工智能生成信息來源時能夠找到源頭。二是以顯著方式對社會公眾有效提示信息內(nèi)容的標識,此類標識是為了提示公眾該信息是通過人工智能生成的方式得到的,提示公眾注意該等內(nèi)容的真實性與準確性。需要注意的是,由于目前我國著作權(quán)法下“創(chuàng)作”主體仍應(yīng)為自然人,人工智能無法成為作品的作者,因此強制性標識不應(yīng)被視為類似于著作權(quán)法項下“作者”的標注,而僅起到追溯以及提示的作用。被標注的內(nèi)容是否屬于著作權(quán)法項下的作品,仍需要根據(jù)該內(nèi)容的具體創(chuàng)作過程進行判斷,即人類是否實質(zhì)性參與了人工智能的創(chuàng)作過程,內(nèi)容是否體現(xiàn)了人類的獨創(chuàng)性表達或個性化選擇、判斷及技巧等。因此也不宜因標注了人工智能信

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論