




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
隨著人工智能深度學(xué)習(xí)能力的不斷強(qiáng)化,人工智能技術(shù)大幅發(fā)展,ChatGPT、Bard等大模型的陸續(xù)推出,人工智能技術(shù)開(kāi)始被廣泛地應(yīng)用于人們?nèi)粘I畹姆椒矫婷?。不過(guò),正如過(guò)去諸多科幻類作品所展示的那樣,現(xiàn)實(shí)中,人工智能的發(fā)展帶來(lái)的科技倫理問(wèn)題也逐步顯現(xiàn)。例如,當(dāng)人工智能使用的訓(xùn)練數(shù)據(jù)本身存在虛假、錯(cuò)誤信息時(shí),或人工智能被用于炮制虛假、錯(cuò)誤信息時(shí),人工智能將助推虛假、錯(cuò)誤信息的傳播。再如,盡管人工智能技術(shù)研發(fā)的初衷是使得人們得以從一些簡(jiǎn)單重復(fù)的工作中脫離出來(lái)進(jìn)而從事更具有創(chuàng)造性的工作,人工智能自動(dòng)生成的繪畫(huà)、詩(shī)句、文章展現(xiàn)出的出乎人們意料的創(chuàng)造力,引發(fā)了社會(huì)對(duì)于人工智能取代人類的憂慮以及對(duì)就業(yè)市場(chǎng)的巨大沖擊。在近期的好萊塢編劇罷工事件中,為了避免被AI取代,好萊塢編劇們提出了AI生成的文學(xué)材料不得被視為人類撰寫(xiě)的文學(xué)材料、禁止利用編劇的勞動(dòng)成果來(lái)訓(xùn)練AI等一系列訴求。再如,人工智能系統(tǒng)可能包含強(qiáng)化或固化歧視或偏見(jiàn)的應(yīng)用程序和結(jié)果,這將加劇社會(huì)中已有的歧視、偏見(jiàn)與成見(jiàn)。此外,人類為使用人工智能提供的服務(wù),也將涉及向人工智能提供生理信息、行為偏好、興趣偏好等個(gè)人隱私信息,如前述信息被不當(dāng)收集和利用,人工智能將極有可能成為窺探個(gè)人隱私、侵?jǐn)_個(gè)人生活的工具。為了應(yīng)對(duì)上述人工智能帶來(lái)的倫理問(wèn)題,聯(lián)合國(guó)教育、科學(xué)及文化組織于2021年11月23日通過(guò)《人工智能倫理問(wèn)題建議書(shū)》(RecommendationontheEthicsofArtificialIntelligence,“《建議書(shū)》”),提出了人工智能系統(tǒng)生命周期的所有行為者應(yīng)尊重的價(jià)值觀和原則以及落實(shí)前述價(jià)值觀和原則的政策行動(dòng),建議會(huì)員國(guó)在自愿基礎(chǔ)上適用《建議書(shū)》的各項(xiàng)規(guī)定,根據(jù)本國(guó)的憲法實(shí)踐和治理結(jié)構(gòu)并依照國(guó)際人權(quán)法在內(nèi)的國(guó)際法采取適當(dāng)步驟,包括進(jìn)行必要的立法。目前,歐盟、美國(guó)和英國(guó)等國(guó)家和地區(qū)均已出臺(tái)了一系列監(jiān)管規(guī)則,與此同時(shí),我國(guó)科學(xué)技術(shù)部會(huì)同教育部、工業(yè)和信息化部、國(guó)家衛(wèi)生健康委等十部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》正式明確了我國(guó)的科技倫理審查體系。本文重點(diǎn)內(nèi)容包括:全球各地區(qū)的人工智能倫理治理體系的概述性介紹;我國(guó)最新出臺(tái)的《科技倫理審查辦法(試行)》的要點(diǎn)解讀;結(jié)合我國(guó)的監(jiān)管要求,對(duì)于大模型服務(wù)提供者的人工智能倫理治理責(zé)任的梳理;大模型服務(wù)提供者提供應(yīng)對(duì)人工智能加速突破和應(yīng)用所帶來(lái)的倫理風(fēng)險(xiǎn)與挑戰(zhàn)的可行路徑探索。一、國(guó)外AI倫理治理監(jiān)管體系概述目前歐盟、美國(guó)及英國(guó)均已出臺(tái)了與人工智能相關(guān)的監(jiān)管規(guī)則,科技倫理的治理是其中的重點(diǎn)。具體如下:《人工智能法案》(ArtificialIntelligenceAct)作為歐盟人工智能監(jiān)管體系的核心,在經(jīng)歷了一系列修正之后,目前將進(jìn)入歐盟委員會(huì)、議會(huì)和成員國(guó)三方談判協(xié)商的程序從而確定最終版本。《人工智能法案》是歐盟首部有關(guān)人工智能的綜合性立法,其以人工智能的概念作為體系原點(diǎn),以人工智能的風(fēng)險(xiǎn)分級(jí)管理作為制度抓手,以人工智能產(chǎn)業(yè)鏈上的不同責(zé)任主體作為規(guī)范對(duì)象,以對(duì)人工智能的合格評(píng)估以及問(wèn)責(zé)機(jī)制作為治理工具,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等全方位監(jiān)管人工智能的開(kāi)發(fā)和使用,詳細(xì)規(guī)定了人工智能市場(chǎng)中各參與者的義務(wù)。在倫理治理方面,《人工智能法案》強(qiáng)調(diào),人工智能應(yīng)該是一種以人為本的技術(shù),不應(yīng)該取代人類的自主性,也不應(yīng)該導(dǎo)致個(gè)人自由的喪失,而應(yīng)該主要服務(wù)于社會(huì)需求和共同利益,因此應(yīng)提供保障措施,以確保開(kāi)發(fā)和使用尊重歐盟價(jià)值觀和《歐洲聯(lián)盟基本權(quán)利憲章》(CharterofFundamentalRightsoftheEuropeanUnion)的道德嵌入式人工智能。對(duì)于AI系統(tǒng)的風(fēng)險(xiǎn)分級(jí)標(biāo)準(zhǔn),《人工智能法案》將倫理風(fēng)險(xiǎn)作為考量因素,將下述類型的AI系統(tǒng)歸為“存在不可接受風(fēng)險(xiǎn)的AI系統(tǒng)”,在歐盟成員國(guó)內(nèi)將完全禁止該等AI系統(tǒng)投入市場(chǎng)或者采用潛意識(shí)技術(shù)或有目的的操縱或欺騙技術(shù);利用個(gè)人或社會(huì)群體的弱點(diǎn)(例如已知的人格特征或社會(huì)經(jīng)濟(jì)狀況、年齡、身體精神能力);利用人的社會(huì)行為或人格特征進(jìn)行社會(huì)評(píng)分;在公眾場(chǎng)所的“實(shí)時(shí)”(包括即時(shí)和短時(shí)延遲)遠(yuǎn)程生物識(shí)別系統(tǒng)。此外,在評(píng)估AI系統(tǒng)是否屬于“高風(fēng)險(xiǎn)AI系統(tǒng)”時(shí),《人工智能法案》要求考量AI系統(tǒng)對(duì)《歐洲歐盟基本權(quán)利憲章》所保護(hù)的基本權(quán)利造成的不利影響的程度,該等基本權(quán)利包括:人的尊嚴(yán)、尊重私人和家庭生活、保護(hù)個(gè)人數(shù)據(jù)、言論和信息自由、集會(huì)和結(jié)社自由以及不受歧視的權(quán)利、受教育權(quán)、消費(fèi)者保護(hù)、工人權(quán)利、殘疾人權(quán)利、性別平等、知識(shí)產(chǎn)權(quán)、獲得有效補(bǔ)救和公平審判的權(quán)利、辯護(hù)權(quán)和無(wú)罪推定、良好管理的權(quán)利。“高風(fēng)險(xiǎn)AI系統(tǒng)”投放市場(chǎng)及交付使用均受到嚴(yán)格的管控并需履行評(píng)估及備案等一系列要求。美國(guó)在聯(lián)邦層面尚未通過(guò)一部完整且專門的針對(duì)AI系統(tǒng)的法案,而是試圖通過(guò)調(diào)整政府機(jī)構(gòu)的權(quán)利,在現(xiàn)有的立法框架及監(jiān)管規(guī)則內(nèi)對(duì)人工智能進(jìn)行規(guī)制。在倫理治理方面,目前聯(lián)邦層面的合規(guī)重點(diǎn)主要涉及反歧視、保護(hù)數(shù)據(jù)隱私等要求。例如:(1)《2022年算法問(wèn)責(zé)法案》(AlgorithmicAccountabilityActof2022)2022年2月,美國(guó)眾議院頒布了《2022年算法問(wèn)責(zé)法案》,要求使用自動(dòng)化決策系統(tǒng)做出關(guān)鍵決策的企業(yè)研究并報(bào)告這些系統(tǒng)對(duì)消費(fèi)者的影響,其內(nèi)容包括是否會(huì)因?yàn)橄M(fèi)者的種族、性別、年齡等生成對(duì)消費(fèi)者有偏見(jiàn)或歧視性的自動(dòng)決策等。該法案形成了“評(píng)估報(bào)告—評(píng)估簡(jiǎn)報(bào)—公開(kāi)信息”三層信息披露機(jī)制。此外,聯(lián)邦貿(mào)易委員會(huì)還將建立可公開(kāi)訪問(wèn)的信息存儲(chǔ)庫(kù),公開(kāi)發(fā)布關(guān)于自動(dòng)化決策系統(tǒng)的有限信息。(2)《人工智能權(quán)利法案藍(lán)圖》(BlueprintforanAIBillofRight)2022年10月,美國(guó)白宮科技政策辦公室(OSTP)頒布了《人工智能權(quán)利法案藍(lán)圖》,提出了指導(dǎo)人工智能的設(shè)計(jì)、使用和部署的五項(xiàng)原則:技術(shù)的安全性和有效性、防止算法歧視、保護(hù)數(shù)據(jù)隱私、告知及解釋義務(wù)以及人類參與決策,并在技術(shù)指南部分針對(duì)五項(xiàng)原則中的每一項(xiàng)均解釋了原則的重要性、原則所指引的期望以及各級(jí)政府到各種規(guī)模的公司等多種組織為維護(hù)原則可以采取的具體的實(shí)施步驟、原則的實(shí)踐案例。(3)《美國(guó)數(shù)據(jù)隱私和保護(hù)法案》(theAmericanDataPrivacyandProtectionAct,“ADPPA”)2022年6月,美國(guó)參眾兩院共同發(fā)布了ADPPA,ADPPA規(guī)定,如人工智能所使用的數(shù)據(jù)集涵蓋個(gè)人信息、數(shù)據(jù)與隱私,則構(gòu)成“覆蓋算法”;使用“覆蓋算法”的大數(shù)據(jù)持有人,如果對(duì)個(gè)人或群體構(gòu)成相應(yīng)傷害風(fēng)險(xiǎn),并單獨(dú)或部分使用“覆蓋算法”來(lái)收集、處理或傳輸覆蓋數(shù)據(jù),則應(yīng)當(dāng)根據(jù)ADPPA規(guī)定的評(píng)估標(biāo)準(zhǔn)進(jìn)行隱私影響評(píng)估。另外,ADPPA還對(duì)隱私政策的告知與退出機(jī)制、反偏見(jiàn)等內(nèi)容做出了規(guī)定。ADPPA規(guī)定,企業(yè)或代表企業(yè)的服務(wù)提供商需要告知個(gè)人有“選擇退出”的權(quán)利,即拒絕企業(yè)對(duì)其個(gè)人數(shù)據(jù)的收集、處理或傳輸。(4)《關(guān)于通過(guò)聯(lián)邦政府進(jìn)一步促進(jìn)種族平等和支持服務(wù)不足社區(qū)的行政命令》(ExecutiveOrderonFurtherAdvancingRacialEquityandSupportforUnderservedCommunitiesThroughtheFederal2023年2月,拜登簽署了《關(guān)于通過(guò)聯(lián)邦政府進(jìn)一步促進(jìn)種族平等和支持服務(wù)不足社區(qū)的行政命令》,規(guī)定人工智能大模型應(yīng)避免由于大量輸入訓(xùn)練數(shù)據(jù)中存在的對(duì)種族、性別、年齡、文化和殘疾等的偏見(jiàn)而導(dǎo)致訓(xùn)練結(jié)果輸出內(nèi)容中存在偏見(jiàn)。聯(lián)邦政府在設(shè)計(jì)、開(kāi)發(fā)、獲取和使用人工智能和自動(dòng)化系統(tǒng)時(shí),各機(jī)構(gòu)應(yīng)在符合適用法律的前提下,防止、糾正歧視和促進(jìn)公平,包括保護(hù)公眾免受算法歧視。2021年5月,英國(guó)中央數(shù)字與數(shù)據(jù)辦公室、人工智能辦公室與內(nèi)閣辦公室聯(lián)合發(fā)布了《自動(dòng)決策系統(tǒng)的倫理、透明度與責(zé)任框架》(Ethics,TransparencyandAccountabilityFrameworkforAutomatedDecision-Making,“ETAF”),對(duì)人工智能涉及的算法和自動(dòng)化決策的倫理治理要求進(jìn)行規(guī)定。ETAF強(qiáng)調(diào),算法和自動(dòng)化決策在上線之前應(yīng)該進(jìn)行嚴(yán)格的、受控的和分階段的測(cè)試。在整個(gè)原型和測(cè)試過(guò)程中,需要人類的專業(yè)知識(shí)和監(jiān)督來(lái)確保技術(shù)上的彈性和安全,以及準(zhǔn)確和可靠的系統(tǒng)。測(cè)試時(shí),需要考慮自動(dòng)化決策系統(tǒng)的準(zhǔn)確性、安全性、可靠性、公平性和可解釋性。ETAF規(guī)定,企業(yè)必須對(duì)算法或自動(dòng)決策系統(tǒng)做一個(gè)平等影響評(píng)估,使用高質(zhì)量和多樣化的數(shù)據(jù)集,發(fā)現(xiàn)和抵制所使用數(shù)據(jù)中明顯的偏見(jiàn)和歧視。ETAF指出,算法或計(jì)算機(jī)系統(tǒng)應(yīng)該被設(shè)計(jì)為完全可以負(fù)責(zé)和可被審計(jì)的,算法和自動(dòng)化的責(zé)任和問(wèn)責(zé)制度應(yīng)該明確。二、我國(guó)與AI倫理治理相關(guān)的法律法規(guī)和行業(yè)規(guī)范概覽在我國(guó),2017年,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》并在該規(guī)劃中提出了制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求,之后《中華人民共和國(guó)科學(xué)技術(shù)進(jìn)步法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》、《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南—人工智能倫理安全風(fēng)險(xiǎn)防范指引》等一系列法律法規(guī)和相關(guān)規(guī)定相繼對(duì)于AI倫理治理的要求予以規(guī)定。2022年中共中央辦公廳、國(guó)務(wù)院辦公廳發(fā)布了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,該意見(jiàn)是我國(guó)首個(gè)國(guó)家層面的、專門針對(duì)科技倫理治理的指導(dǎo)性文件,提出了科技倫理治理原則以及基本要求。2023年10月新發(fā)布的《科技倫理審查辦法(試行)》對(duì)于科技倫理審查的基本程序、標(biāo)準(zhǔn)、條件等提出統(tǒng)一要求,標(biāo)志著我國(guó)AI倫理治理監(jiān)管體系建設(shè)進(jìn)入了新階段。我們?cè)谙卤碇惺崂砹宋覈?guó)與AI倫理治理相關(guān)的法律法規(guī)及其主要內(nèi)容:2.行業(yè)規(guī)范除前序法律法規(guī)和相關(guān)規(guī)定以外,在《新一代人工智能發(fā)展規(guī)劃》等政策指引下,各機(jī)構(gòu)、行業(yè)也積極響應(yīng),陸續(xù)發(fā)布了一系列AI倫理治理相關(guān)的行業(yè)規(guī)范,包括國(guó)家新一代人工智能治理專業(yè)委員會(huì)制定的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》、《新一代人工智能倫理規(guī)范》、國(guó)家人工智能標(biāo)準(zhǔn)化總體組等制定的《人工智能倫理治理標(biāo)準(zhǔn)化指南》、同濟(jì)大學(xué)上海市人工智能社會(huì)治理協(xié)同創(chuàng)新中心研究團(tuán)隊(duì)編制的《人工智能大模型倫理規(guī)范操作指引》、中國(guó)社會(huì)科學(xué)院國(guó)慶調(diào)研重大項(xiàng)目《我國(guó)人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關(guān)行業(yè)的AI倫理治理建議。下表梳理了我國(guó)與AI倫理治理相關(guān)的行業(yè)規(guī)范及其主要內(nèi)容:三、《科技倫理審查辦法(試行)》要點(diǎn)2023年10月8日,科學(xué)技術(shù)部、教育部、工業(yè)和信息化部等多部門聯(lián)合發(fā)布《科技倫理審查辦法(試行)》(“《科技倫理審查辦法》”),該辦法將于2023年12月1日起正式實(shí)施。該辦法對(duì)于涉及以人為研究參與者的科技活動(dòng),包括利用人類生物樣本、個(gè)人信息數(shù)據(jù)等的科技活動(dòng),或不直接涉及人或?qū)嶒?yàn)動(dòng)物,但可能在生命健康、生態(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等方面帶來(lái)倫理風(fēng)險(xiǎn)挑戰(zhàn)的科技活動(dòng)進(jìn)行的科技倫理審查和監(jiān)管做出了明確的規(guī)定,由此可見(jiàn),該辦法的適用范圍幾乎涵蓋所有科技活動(dòng),包括人工智能相關(guān)的科技活動(dòng)。在審查主體方面,《科技倫理審查辦法》明確要求從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)。其他有倫理審查需求的單位可根據(jù)實(shí)際情況設(shè)立科技倫理(審查)委員會(huì)。單位應(yīng)在設(shè)立科技倫理(審查)委員會(huì)后30日內(nèi),通過(guò)國(guó)家科技倫理管理信息登記平臺(tái)進(jìn)行登記,登記內(nèi)容包括科技倫理(審查)委員會(huì)組成、章程、工作制度等,相關(guān)內(nèi)容發(fā)生變化時(shí)應(yīng)及時(shí)更新,并在每年3月31日前,向國(guó)家科技倫理管理信息登記平臺(tái)提交上一年度科技倫理(審查)委員會(huì)工作報(bào)告。科技倫理(審查)委員會(huì)的主要職責(zé)包括:制定完善科技倫理(審查)委員會(huì)的管理制度和工作規(guī)范;提供科技倫理咨詢,指導(dǎo)科技人員對(duì)科技活動(dòng)開(kāi)展科技倫理風(fēng)險(xiǎn)評(píng)估;開(kāi)展科技倫理審查,按要求跟蹤監(jiān)督相關(guān)科技活動(dòng)全過(guò)程;對(duì)擬開(kāi)展的科技活動(dòng)是否屬于《需要開(kāi)展倫理審查復(fù)核的科技活動(dòng)清單》范圍作出判斷;組織開(kāi)展對(duì)委員的科技倫理審查業(yè)務(wù)培訓(xùn)和科技人員的科技倫理知識(shí)培訓(xùn);受理并協(xié)助調(diào)查相關(guān)科技活動(dòng)中涉及科技倫理問(wèn)題的投訴舉報(bào);按照主管部門要求進(jìn)行登記、報(bào)告,配合地方、相關(guān)行業(yè)主管部門開(kāi)展涉及科技倫理審查的相關(guān)工作。在科技倫理(審查)委員會(huì)的人員組成方面,科技倫理(審查)委員會(huì)人數(shù)應(yīng)不少于7人,設(shè)主任委員1人,副主任委員若干;委員任期不超過(guò)5年,可以連任。委員會(huì)成員應(yīng)由具備相關(guān)科學(xué)技術(shù)背景的同行專家以及倫理、法律等相應(yīng)專業(yè)背景的專家組成,并應(yīng)當(dāng)有不同性別和非本單位的委員,民族自治地方應(yīng)有熟悉當(dāng)?shù)厍闆r的委員。由此可見(jiàn),科技倫理(審查)委員會(huì)的設(shè)立具備一定門檻,根據(jù)《科技倫理審查辦法》,如單位或個(gè)人涉及開(kāi)展需進(jìn)行科技倫理審查的科技活動(dòng),但單位未設(shè)立科技倫理(審查)委員會(huì)或個(gè)人無(wú)單位的,應(yīng)書(shū)面委托其他單位的科技倫理(審查)委員會(huì)開(kāi)展倫理審查工作。根據(jù)《科技倫理審查辦法》,科技倫理(審查)委員會(huì)開(kāi)展科技倫理審查的流程如下:根據(jù)《科技倫理審查辦法》,針對(duì)納入科技部發(fā)布的《需要開(kāi)展倫理審查復(fù)核的科技活動(dòng)清單》的科技活動(dòng),通過(guò)科技倫理(審查)委員會(huì)的科技審查后,除非國(guó)家實(shí)行行政審批等監(jiān)管措施且將符合倫理要求作為審批條件、監(jiān)管內(nèi)容的,還需由科技活動(dòng)承擔(dān)單位(即開(kāi)展科技活動(dòng)的單位)報(bào)請(qǐng)所在地方或相關(guān)行業(yè)主管部門組織成立復(fù)核專家組[1]開(kāi)展專家復(fù)核,并由負(fù)責(zé)該等科技活動(dòng)的科技審查的科技倫理(審查)委員會(huì)根據(jù)專家復(fù)核意見(jiàn)作出科技倫理審查決定;前序科技倫理(審查)委員會(huì)應(yīng)在納入清單管理的科技活動(dòng)獲得倫理審查批準(zhǔn)后30日內(nèi),通過(guò)國(guó)家科技倫理管理信息登記平臺(tái)進(jìn)行登記,登記內(nèi)容包括科技活動(dòng)實(shí)施方案、倫理審查與復(fù)核情況等,相關(guān)內(nèi)容發(fā)生變化時(shí)應(yīng)及時(shí)更新,并在每年3月31日前向國(guó)家科技倫理管理信息登記平臺(tái)提交上一年度納入清單管理的科技活動(dòng)實(shí)施情況報(bào)告。根據(jù)科技部于2023年10月8日附隨《科技倫理審查辦法》發(fā)布的《需要開(kāi)展倫理審查復(fù)核的科技活動(dòng)清單》,“具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”、“面向存在安全、人身健康風(fēng)險(xiǎn)等場(chǎng)景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)”均屬于需要開(kāi)展倫理審查復(fù)核的科技活動(dòng)。因此,人工智能相關(guān)科技活動(dòng)除通過(guò)科技倫理(審查)委員會(huì)的科技審查以外,極有可能還需在復(fù)核專家組進(jìn)行倫理審查復(fù)核。4.審查內(nèi)容根據(jù)《科技倫理審查辦法》,針對(duì)所有需要依法進(jìn)行科技倫理審查的科技活動(dòng),科技倫理審查的具體內(nèi)容包擬開(kāi)展的科技活動(dòng)應(yīng)符合增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開(kāi)透明的科技倫理原則,參與科技活動(dòng)的科技人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件等符合相關(guān)要求;擬開(kāi)展的科技活動(dòng)具有科學(xué)價(jià)值和社會(huì)價(jià)值,其研究目標(biāo)的實(shí)現(xiàn)對(duì)增進(jìn)人類福祉、實(shí)現(xiàn)社會(huì)可持續(xù)發(fā)展等具有積極作用。科技活動(dòng)的風(fēng)險(xiǎn)受益合理,倫理風(fēng)險(xiǎn)控制方案及應(yīng)急預(yù)案科學(xué)恰當(dāng)、具有可操作性;所制定的利益沖突申明和管理方案合理。針對(duì)利用人類生物樣本、個(gè)人信息數(shù)據(jù)等的科技活動(dòng)在內(nèi)的涉及以人作為研究參與者的科技活動(dòng),還需審查下所制定的招募方案公平合理,生物樣本的收集、儲(chǔ)存、使用及處置合法合規(guī),個(gè)人隱私數(shù)據(jù)、生物特征信息等信息處理符合個(gè)人信息保護(hù)的有關(guān)規(guī)定,對(duì)研究參與者的補(bǔ)償、損傷治療或賠償?shù)群戏?quán)益的保障方案合理,對(duì)脆弱人群給予特殊保護(hù);所提供的知情同意書(shū)內(nèi)容完整、風(fēng)險(xiǎn)告知客觀充分、表述清晰易懂,獲取個(gè)人知情同意的方式和過(guò)程合規(guī)恰針對(duì)涉及數(shù)據(jù)和算法的科技活動(dòng),還需審查下述內(nèi)容:數(shù)據(jù)的收集、存儲(chǔ)、加工、使用等處理活動(dòng)以及研究開(kāi)發(fā)數(shù)據(jù)新技術(shù)等符合國(guó)家數(shù)據(jù)安全和個(gè)人信息保護(hù)等有關(guān)規(guī)定,數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)及應(yīng)急處理方案得當(dāng);算法、模型和系統(tǒng)的設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等遵守公平、公正、透明、可靠、可控等原則,符合國(guó)家有關(guān)要求,倫理風(fēng)險(xiǎn)評(píng)估審核和應(yīng)急處置方案合理,用戶權(quán)益保護(hù)措施全面得當(dāng)。四、國(guó)內(nèi)大模型服務(wù)提供者的AI倫理治理責(zé)任如我們?cè)凇洞竽P秃弦?guī)之現(xiàn)實(shí)初探》一文中所述,向境內(nèi)公眾提供大模型服務(wù)的大模型服務(wù)提供者,包括平臺(tái)運(yùn)營(yíng)方和技術(shù)支持方,均屬于生成式人工智能服務(wù)提供者,從而均應(yīng)當(dāng)承擔(dān)相應(yīng)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 兩部門要求做好“三區(qū)”人才支持計(jì)劃教師專項(xiàng)計(jì)劃工作
- 醫(yī)美運(yùn)營(yíng)合同范本
- 仁懷酒廠收購(gòu)合同范本
- 廚師勞務(wù)合同范本單位
- 出售恒安小區(qū)房子合同范本
- 個(gè)人買賣狗狗合同范本
- 廠區(qū)門面房租賃合同范例
- 《荷葉圓圓》說(shuō)課稿
- 叉車 吊車合同范本
- 農(nóng)村私房承建合同范本
- 2025年度科技園區(qū)委托中介代理出租管理合同
- 2025年湖南省高職單招《職業(yè)技能測(cè)試》核心考點(diǎn)試題庫(kù)500題(重點(diǎn))
- 2025年無(wú)錫科技職業(yè)學(xué)院高職單招高職單招英語(yǔ)2016-2024歷年頻考點(diǎn)試題含答案解析
- 《復(fù)式條形統(tǒng)計(jì)圖》(說(shuō)課稿)-2023-2024學(xué)年四年級(jí)下冊(cè)數(shù)學(xué)人教版
- 微量注射泵培訓(xùn)
- 2025年紹興市上虞大眾勞動(dòng)事務(wù)代理(所)有限公司招聘筆試參考題庫(kù)附帶答案詳解
- 酒店會(huì)議接待服務(wù)方案
- 2025年人教版新教材英語(yǔ)小學(xué)三年級(jí)下冊(cè)教學(xué)計(jì)劃(含進(jìn)度表)
- 2025年山東商務(wù)職業(yè)學(xué)院高職單招高職單招英語(yǔ)2016-2024年參考題庫(kù)含答案解析
- 人工智能在企業(yè)人力資源招聘中的運(yùn)用研究
- 2023年2024年演出經(jīng)紀(jì)人之演出經(jīng)紀(jì)實(shí)務(wù)考試題庫(kù)附答案(達(dá)標(biāo)題)
評(píng)論
0/150
提交評(píng)論