人工智能算法造成危害的原因分析3900字_第1頁
人工智能算法造成危害的原因分析3900字_第2頁
人工智能算法造成危害的原因分析3900字_第3頁
人工智能算法造成危害的原因分析3900字_第4頁
人工智能算法造成危害的原因分析3900字_第5頁
已閱讀5頁,還剩5頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

分析完算法的危害表現(xiàn),本節(jié)擬從算法自身技術運行角度、算法外部監(jiān)管角理者,算法主體對算法的研發(fā)和升級起著主導和關鍵作用。1之所以會出現(xiàn)算法個人信息,最下方往往會出現(xiàn)所謂的“隱私保護條例”,這看似是平臺在征求個金夢《立法倫理與算法正義——算法主體行為的法律規(guī)制》[J]政法論壇.2021年1月第39卷第1期:了提升透明度的要求,稱要建立健全公開透明的人的信息,該招聘就會被認定為違法,而不論該信息對于招聘結果是否產生影3同時,歐盟國家也建立了一些專門機構來規(guī)范算法的合理運行,例如利用歐盟證券和市場管理部門監(jiān)管算法歧視現(xiàn)象。4目前,我國相繼出臺了《中華人民共和國數(shù)據(jù)安全法(草案)》、《中華人民共和國網(wǎng)絡安全法》,也制定了《數(shù)據(jù)安全管理辦法》(以下簡稱“辦法”)。除了辦法第二十三條5和第二十四條6涉及算法之外,我國目前沒有其他法律規(guī)范就算法作出明確規(guī)定,表明我國法律體系在規(guī)制算法方面仍有較大的空白。《網(wǎng)絡安全法》中甚至規(guī)定,對于因網(wǎng)絡安全引起的突發(fā)事件,要依照《突發(fā)事件應對法》和《安全生產法》有關的規(guī)定。7雖說這樣的規(guī)定也有其合理之處,但對于更深層次的責任追究,例如由算法引起的網(wǎng)絡安全事件,對于算法的規(guī)制問題卻避而不談。反觀美國,法院對于算法歧視案件規(guī)定了“審查三部曲”,2019年還專門出臺了《算法責任法案》,這都可以看出美國對于算法的規(guī)制正走在世界的前列,而且美國學界對于算法的討論也比中國要早的多。不過值得肯定的是,目前我國正在制定的《個人信息保護法》和已經(jīng)出臺的《電子商務法》已經(jīng)體現(xiàn)出我國正在從算法和數(shù)據(jù)兩個層面著力保護公民免受算法侵害。由此可以看出,在國外早已對算法進行法律規(guī)制的背景下,我國相關的監(jiān)管機制至今仍不健全,因此我國可以借鑒國外對于算法的法律規(guī)制路徑,加緊制定相關法律法規(guī)。1.3算法倫理的缺失與不足算法問題層出不窮,現(xiàn)有的法律法規(guī)無法應對所有問題,這意味著需要重新塑造公眾對于算法的認知和法律的規(guī)則形態(tài)。另外,倘若算法發(fā)展到一定程度,今后司法活動中的起訴書、判決書等都有可能按照算法規(guī)定的路徑自動生成,證據(jù)材料也能經(jīng)由算法自動審查,這不可避免地會帶來一些隱患,例如當算法編程上出現(xiàn)問題,或是算法某個運行環(huán)節(jié)出錯,都可能導致嚴重的司法后果。如果要為此重新啟動人工審查,勢必會增加勞動量并耗費更多的人力資源。當然算法和?鄭智航徐昭曦《大數(shù)據(jù)時代算法歧視的法律規(guī)制與司法審查----以美國法律實踐為例》[J]比較法研究?《數(shù)據(jù)安全管理辦法》第二十三條:網(wǎng)絡運營者利用時,應當停止推送,并刪除已經(jīng)收集的設備識別碼等用戶數(shù)據(jù)和個人信息。網(wǎng)絡運營者開展定向推送活動應遵守法律、行政法規(guī),尊重社會公德、商業(yè)道德、公序良俗,誠實守信,嚴禁歧視、欺詐等行為。參見《中華人民共和國網(wǎng)絡安全法》人相比,出錯的幾率可以說是低得多,但是我們也不得不考慮到這個“萬一”,以及出錯后的彌補辦法。另外,由于算法是人工編寫的,在算法編程的過程中,很有可能加入編程者個人的主觀傾向,例如對性別的偏見、地域的歧視等一系列常見的歧視因素都可能被編入算法程序中,這毫無疑問會影響算法輸出的結果。美國某項調查研究表明,性別歧視廣泛存在于谷歌的廣告系統(tǒng)之中,同種情形下,男高收入工作往往喜歡推薦給男性用戶而非女性用戶。法律具有滯后性,價格共謀這一現(xiàn)象的出現(xiàn),也提現(xiàn)了反壟斷法具有滯后性的特點。預設倫理規(guī)范是反映市場競爭變化的有效手段。與我國不同的是,歐美國家對于機器人以及算法等相關產業(yè)的倫理道德研究已經(jīng)展開多年,不僅對于人工智能倫理學方面已經(jīng)有了諸多嶄新的認識,也出臺了一些相關的白皮書。同時,對于人工智能的研發(fā)人員,也有了相應的道德約束條款和操作指引性說明。對于這方面的研究,我國更應該緊追其后,乘勢而上。另外,對于任何的新興事物,我們應盡可能采取鼓勵支持,并且合理引導的態(tài)度,充分相信人工智能技術所帶來的利大于弊,才能支持繼續(xù)發(fā)展人工智能。如今,各行各業(yè)也基本達成這樣的共識:人工智能系統(tǒng)的研發(fā)和應用必須服從一些倫理原則。1.4對“技術中立”原則的不當引用“技術中立”原則來源于著名的環(huán)球電影制片公司起訴美國索尼公司8一案,1976年因該案而確立的“實質性非侵權用途規(guī)則”一直沿用至今。在中國涉及算法責任的案件如“快播案”等,也常援引“技術中立”為抗辯理由,這一原則強調技術自身的價值,一項合法并被廣泛運用的技術,則即使它被用于非法活動,也應當豁免技術開發(fā)者的責任。9但不能否認的是,由于算法自身的性質,技術中立確實是一種理想化狀態(tài),算法設計過程中加入個人因素、主觀考量和平臺利益因素是不可避免的,又因法律無法直接干預算法運轉,久而久之被過度使用的技術中立原則助長了算法黑箱行為,因此,即使技術中立常常被平臺當作抗辯理?王遷《“索尼案”二十年祭——回顧、反思與啟示》[J]《科技與法律》,2004,(04):59-68?邱遙堃《法院如何規(guī)制算法----從快播案切入》[J]《法律與社會科學》,2017,(01):49-68處理過程;三是由算法自主選擇數(shù)據(jù),輸入端、輸出端與處理過程均不公開。“技術中立”原則在以往的司法實踐中也常出現(xiàn):2013年,優(yōu)酷訴獵豹瀏對于技術的使用行為。另一方面,“技術中立”也并不意味著絕對免責?;ヂ?lián)網(wǎng)領域的著作權糾紛,侵權行為,就可以被免予處罰。這項規(guī)定名為“避風港原承擔相應的侵權責任。1同時,該領域也奉行“紅旗原則”:當侵權行為如紅旗后依然要履行及時刪除的義務,這是企業(yè)應當承擔的社會責任,與“技術中立”無關。對算法進

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論