人工智能安全風險防控與應對策略_第1頁
人工智能安全風險防控與應對策略_第2頁
人工智能安全風險防控與應對策略_第3頁
人工智能安全風險防控與應對策略_第4頁
人工智能安全風險防控與應對策略_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

一人工智能與安全的辯證關系從互聯(lián)網(wǎng)、云計算、大數(shù)據(jù)等新技術的發(fā)展歷程可以看出,任何一項新技術的發(fā)展和應用都存在著相互促進又相互制約的兩個方面,人工智能也不例外。一方面,技術的發(fā)展能帶來社會的進步與變革;另一方面,技術的應用要以安全為前提,要受到安全保障機制的制約。然而安全是伴生技術,往往會在新技術的發(fā)展之后才被關注到,因為人們首先會去享用新技術帶來的紅利,之后才會注意到新技術伴隨的種種安全問題。人工智能作為一項新技術,既能賦能安全,又會伴生安全問題。目前,人們普遍更關注人工智能技術的發(fā)展,突出其在軍事、交通、金融等各個領域的發(fā)展和應用。當人工智能技術發(fā)展到一定階段后,必然會面臨伴生安全問題的困擾,此時人們便會轉(zhuǎn)而強調(diào)技術的安全可控性。英國技術哲學家大衛(wèi)·科林格里奇在其《技術的社會控制》一書中闡述,一項技術的社會后果不能在技術生命的早期被預料到,然而當不希望看到的后果被發(fā)現(xiàn)以后,技術往往已經(jīng)成為整個經(jīng)濟和社會的一部分,此時想要控制它將會十分困難。這個觀點被許多科學哲學研究人員認同,也常被稱為“技術的控制困境”或“科林格里奇困境”。人工智能安全問題伴生效應,是指盡管人工智能技術在醞釀之初會根據(jù)以往的經(jīng)驗去充分考慮安全問題,但在新技術推出應用之后,勢必會在不斷的應用中發(fā)現(xiàn)新的安全問題伴生而來。因為當一種新技術剛剛走入公眾的視野之時,需要通過大量的應用實踐才能夠逐步提升其技術成熟度,通過市場上的“眾測”來完善其技術能力;而在這一過程中,因其所呈現(xiàn)出自身的不成熟、不完備,容易引發(fā)新的安全問題。人工智能的安全問題伴生效應也會表現(xiàn)在兩個方面:一是新技術的脆弱性導致系統(tǒng)自身出現(xiàn)問題,無法達到預設的功能目標,稱之為新技術的“內(nèi)生安全”;另一個是新技術脆弱性并沒有給系統(tǒng)自身運行帶來風險,但其脆弱性卻被利用引發(fā)其他領域安全問題,這稱之為“衍生安全”。綜上所述,人工智能技術具有安全賦能與安全伴生兩個效應。其中,安全賦能效應是指人工智能技術系統(tǒng)足夠強大,可以提升安全領域的防御能力,也可以被應用于安全攻擊;安全伴生效應是指人工智能技術存在問題或其可控性方面存在脆弱性,前者可以導致人工智能系統(tǒng)的運行出現(xiàn)問題,后者可以導致人工智能系統(tǒng)危及到其他領域的安全。本質(zhì)上來說,賦能攻擊與衍生安全的外顯行為都是人工智能系統(tǒng)會危及到其他領域的安全,差別僅僅是內(nèi)因的不同:賦能攻擊是攻擊者利用人工智能技術的強大特性來主動提升破壞性效果;衍生安全是由于人工智能技術的脆弱性被利用,或者人工智能系統(tǒng)在可控性方面的脆弱性導致自身“意外”地形成破壞性效果,或者自主地形成破壞性效果,從而影響到其他領域的安全狀況。二人工智能安全風險的類型人工智能安全風險分為內(nèi)生與衍生兩種。內(nèi)生安全是指人工智能技術存在問題或其可控性方面存在脆弱性,導致系統(tǒng)運行出現(xiàn)問題,無法達到預設的功能目標;衍生安全是指人工智能技術的脆弱性被利用,導致其危及到其他領域的安全。(一)人工智能的內(nèi)生安全人工智能內(nèi)生安全指的是人工智能系統(tǒng)自身存在脆弱性。部分原因是因為新技術自身不成熟,存在著一些安全漏洞,包含人工智能框架、數(shù)據(jù)、算法、模型任一環(huán)節(jié)都能給系統(tǒng)帶來脆弱性,但這些漏洞通常會被發(fā)現(xiàn)并且可被改進;還有一種情況是新技術存在著天然的缺陷,使得某些客觀存在的問題無法通過改進的方法來解決,此時只能采取其他手段加以防護。例如,可信計算是建立在可信根的基礎之上,而可信根的前提是系統(tǒng)的使用者就是可信根的擁有者,這才能夠讓不可被替換的可信根來保護系統(tǒng)的安全運行。但就云計算環(huán)境而言,由于云服務商擁有云資源,該資源僅僅是提供給云的租戶使用而已,使得計算資源的使用者與擁有者分開,導致可信根的擁有者與需要保障安全的使用者不再是同一個對象,從而使可信根的模式在云計算平臺上不再適用。同樣,量子的塌陷效應使之難以用于通信,因為一旦出現(xiàn)監(jiān)聽,通信就被中止,致使通信的可靠性成為量子通信系統(tǒng)的軟肋,使其大大降低了用量子通信系統(tǒng)構(gòu)建傳輸通道的可行性。事實上,這種情況一直伴生在各種技術中。例如,對抗樣本就是一種利用算法缺陷實施攻擊的技術,自動駕駛汽車的許多安全事故也可歸結(jié)為由于算法不成熟而導致的。由于互聯(lián)網(wǎng)上的系統(tǒng)必須通過開放端口來提供服務,而開放端口本質(zhì)上就相當于引入了一個攻擊面,從而形成了脆弱性,這就是互聯(lián)網(wǎng)服務的內(nèi)生安全問題。(二)人工智能的衍生安全衍生安全其本質(zhì)就是新技術自身的一些缺陷或脆弱性,并不會影響新技術自身的運行,但卻會被攻擊者利用而危害到其他的領域。例如物聯(lián)網(wǎng)的傳感部件具有信息輻射的特點,這并不影響物聯(lián)網(wǎng)的正常運行,卻使得信息泄露成為新的風險;社交網(wǎng)絡不支持強制實名制時并不影響社交網(wǎng)絡的正常運轉(zhuǎn),但卻有可能被利用而助力了謠言的傳播,從而無助于抑制負面行為,導致群體性事件的發(fā)生;近場通信在幫助人們便捷通信的時候,沒有設置強制性通信握手環(huán)節(jié)以確認通信的發(fā)起是否自愿,盡管這并不影響NFC的正常使用,但不法分子卻有可能利用這個缺失的環(huán)節(jié)來近距離盜刷用戶的手機錢包等。如上所述,衍生安全絕大多數(shù)情況下指的是新技術的脆弱性被攻擊者所利用,從而引發(fā)其他領域的安全問題。人工智能技術當然也存在著同樣的情況。近幾年,智能設備安全事故頻發(fā):2018年3月,優(yōu)步(Uber)的自動駕駛汽車在美國亞利桑那州坦佩市撞死一名在人行道外過馬路的婦女。2020年6月,中國臺北仙桃,特斯拉的自動駕駛系統(tǒng)把白色翻倒的卡車誤認為沒有障礙物,導致了車輛在開啟自動駕駛的狀態(tài)下毫無減速地撞上卡車。因為人工智能的智能化判定需要高度依賴輸入數(shù)據(jù),自動駕駛的前提是要對環(huán)境參數(shù)進行正確的感知,一旦感知出現(xiàn)錯誤,如沒有感知到對面的障礙物,其決策就是錯誤的。因此,這種依賴輸入的現(xiàn)象可以被視為人工智能系統(tǒng)的一種脆弱性。這種脆弱性并不影響人工智能系統(tǒng)自身的運行,但攻擊者可以利用這一點,如干擾自動駕駛汽車的雷達等傳感設備,從而達到讓自動駕駛汽車肇事的目的。此外,人工智能技術還是一個十分少見的特例。這是因為人工智能的脆弱性不一定都被攻擊者所利用,而是以一種“事故”的形式形成了對人類的直接威脅。人們經(jīng)??吹降哪切皺C器人傷人”“自動駕駛出事故”的現(xiàn)象,本質(zhì)上都是人工智能脆弱性所帶來的問題,這時即便沒有被攻擊者有意利用,但由于“人工智能行為體”在運行狀態(tài)下往往具有可傷害人類的“動能”,所以其自身就可以“自主”傷人。更有甚者,由于“人工智能行為體”具有自主學習能力,使得其可能在自我進化的過程中脫離人類控制,進而危及人類安全。而且,人工智能行為體系統(tǒng)功能越強大,其帶來的威脅往往也會越大。由此可見,凡是具備自我進化能力的系統(tǒng),都可能在不被他人主動利用其脆弱性的前提下引發(fā)安全問題,而人工智能技術的特殊性就在于其可成為打開“自我進化之門的鑰匙”。因此,確保人工智能技術發(fā)展過程“安全可控”無疑是至關重要的。三人工智能安全風險的危害及表現(xiàn)人工智能正以它的高速、準確和智能為人類社會發(fā)揮著巨大作用。但是,隨著人工智能的發(fā)展完善和應用領域的不斷拓展,也更加體會到人工智能技術在國家安全、網(wǎng)絡安全、社會生活各方面帶來的挑戰(zhàn)和沖擊。(一)國家安全風險人工智能國家安全風險重點表現(xiàn)為其基于某種政治企圖,服務于人工智能社會輿情預測管控背后的不知名主體,以達到擾亂他國輿情民意、激化他國社會矛盾和侵犯他國國家利益的目的。習近平總書記強調(diào):“大國網(wǎng)絡安全博弈,不單是技術博弈,還是理念博弈、話語權博弈?!被谌斯ぶ悄苓M行的社會輿情預測管控是網(wǎng)絡安全的重要組成部分,是關于國家政治安全與穩(wěn)定的重要空間和陣地。最近幾年,深度偽造作為人工智能技術和數(shù)字技術發(fā)展的產(chǎn)物,正在世界范圍內(nèi)快速擴散。近日,一條烏克蘭總統(tǒng)弗拉基米爾·澤連斯基(VolodymyrZelensky)的“視頻”被廣泛傳播,在視頻中澤連斯基呼吁烏克蘭士兵放下武器,該視頻引起大范圍討論。以致烏克蘭國防情報部門在推特上及時澄清,并專門向大家科普什么是Deepfake,科普視頻包括美國現(xiàn)任總統(tǒng)拜登等多國政要都以假冒形象出鏡。通過基于無監(jiān)督學習的生成對抗網(wǎng)絡技術實現(xiàn)智能圖像處理與虛假圖像生成,通過基于大數(shù)據(jù)聚類分析實現(xiàn)個性化新聞分發(fā)與推送等手段,能夠迅速、準確、高效地對于目標受眾心理與行為產(chǎn)生積極或消極影響。由于該項技術可以運用在包括總統(tǒng)在內(nèi)的任何人員身上,各國都開始擔心這種基于人工智能合成人類圖像的技術將成為針對本國散播不實謠言、煽動不安情緒的有利武器。人工智能武器研發(fā)可能引發(fā)國際軍備競賽。將發(fā)展人工智能列入國家戰(zhàn)略已成為很多國家的共識。在美國確定將發(fā)展人工智能技術作為其核心戰(zhàn)略之后,很多國家紛紛效仿,努力實現(xiàn)從開發(fā)到應用的跨越式進步,一場人工智能技術軍事化應用的競賽激烈展開。這些積極發(fā)展人工智能武器的國家大多以鞏固國家安全為借口或目標、以科技能力為支撐、以經(jīng)濟實力為保障,將發(fā)展人工智能武器視為“保持軍事領先”或“軍事彎道超車”的重要途徑,紛紛加快推進人工智能武器化進程。這種危險的、以人工智能來賦能攻擊的軍備競賽,給人類安全與世界和平帶來了巨大風險。例如,軍備競賽致使智能武器升級為自主系統(tǒng),其存在著可能危害人類的隱患。智能武器由智能化向自主化發(fā)展既是一個漸進過程,也是一個必然趨勢。當智能武器越過智能化的門檻升級為自主化時,人也就喪失了對于智能武器的最終控制權。這種智能軍事武器跨越式發(fā)展帶給人類不僅僅是成果開發(fā)的喜悅和實現(xiàn)目標的把握,伴隨而生的還有威脅人類生存的隱憂和恐懼。此外,從客觀現(xiàn)實風險看,智能武器部分替代人類,存在著戰(zhàn)爭束縛減少的不良效果。例如,按照美軍的規(guī)劃,未來美軍半數(shù)以上的防務工作都將由智能武器承擔。智能武器的出現(xiàn),將大量減少人類戰(zhàn)斗人員。這一重要變化,極大減少了對發(fā)動戰(zhàn)爭需要增員的重要約束條件,將使發(fā)動殘害人類生命安全和國家安全的戰(zhàn)爭幾率增加。(二)社會安全風險憤怒的失業(yè)者:現(xiàn)實治安秩序的不穩(wěn)定因素。人工智能技術發(fā)展最顯著的社會安全風險表現(xiàn)為逐漸頻繁出現(xiàn)的因機器自動化而降低勞動需求的現(xiàn)象,當越來越多的失業(yè)人群認為人工智能發(fā)展給社會帶來的是愈加分化的貧富差距和愈難實現(xiàn)的公平正義,無疑會對社會秩序的安全和穩(wěn)定造成極大的負面影響,甚至可能會造成社會動蕩。北京大學光華管理學院副院長周黎安在2021北京智源大會分論壇上表示,短期內(nèi)人工智能正對中等收入群體帶來一種結(jié)構(gòu)性的失業(yè)沖擊:即一方面是大量的人被替代下來、但又不適應新產(chǎn)業(yè)、新崗位所要求的新技能,而被迫失業(yè);另一方面是新崗位和新職業(yè)人才緊缺,供不應求。這就說明在較長一段時間內(nèi),產(chǎn)業(yè)結(jié)構(gòu)的調(diào)整速度趕不上人工智能技術的發(fā)展和應用速度,這就導致一段時間內(nèi)不論何種勞動者,收入份額占經(jīng)濟的比例都會下降,其中低端勞動力占比下降得更為迅速。除此之外,人工智能中隱含的算法歧視也不利于社會公正。雖然算法具有容觀性和確定性的特征,但算法的設計仍然是由人類工程師完成的,不同的算法工程師會設計出不同的算法,算法在細節(jié)上會繼承設計者的主觀特質(zhì),如果在設計中暗藏種族歧視或者價值偏見,最終可能被人工智能所體現(xiàn)。例如,開發(fā)的預測罪犯二次犯罪幾率的人工智能算法,因為其預測結(jié)果中的黑人犯罪概率遠遠高于其他人種而被指責帶有種族偏見傾向。換言之,人工智能技術發(fā)展所帶來的社會安全風險即其不斷加劇收入分化和社會不公正,甚至導致社會極化現(xiàn)象嚴重,以致現(xiàn)實社會秩序動蕩不安。人工智能技術的發(fā)展為人類帶來便利的同時也存在著潛在的社會環(huán)境風險和社會倫理危機。環(huán)境風險指人工智能技術的發(fā)展給人類帶來的生態(tài)環(huán)境問題,包括資源消耗、環(huán)境污染、生態(tài)失衡等。眾所周知,電子產(chǎn)品的制造過程會產(chǎn)生水污染物、大氣污染物以及固體廢棄物,對人體和環(huán)境會產(chǎn)生巨大的危害。同時,人工智能對計算資源的要求越來越高,依賴也越來越強,計算資源所占能源消耗的比重也越來越大。由此可知,人工智能產(chǎn)品的使用市場和使用量也將劇增,導致人工智能的廢棄件也會越來越多,人類面臨的環(huán)境問題將更加嚴峻。另一方面,深入探索人工智能的責任倫理問題能更好地規(guī)范人類社會的責任關系,其聚焦于誰來負責人工智能的過失及其給人類帶來的損失。例如,人們擔憂的社會倫理危機的具體內(nèi)容有:機器傷害甚至殺害人類的事故由誰來負責?人工智能在設計與投入使用的過程中涉及的人員是復雜的,包括設計者、生產(chǎn)者、銷售者、監(jiān)督者、使用者等,當事故發(fā)生時該由哪些人員來負責任變得難以協(xié)調(diào)和規(guī)范。不得不說,人工智能的發(fā)展給責任倫理理論提出了新的問題,除了對具體事件的責任判定,責任倫理還強調(diào)對未來負責。也就是說,現(xiàn)在所發(fā)展的人工智能技術不僅要保證在當下不產(chǎn)生相關的危害,更要保證不能在下一代人的身上產(chǎn)生危害?,F(xiàn)代的技術是不可逆的,這提醒人們要慎重對待人工智能引起的各種問題,人工智能技術引發(fā)的社會責任倫理危機不可小覷,值得人們深思和關注。(三)網(wǎng)絡安全風險智能新技術助力惡意網(wǎng)絡攻擊,滋生網(wǎng)絡暴力和侵權行為。人工智能驅(qū)動下的自動化網(wǎng)絡攻擊是當前熱門話題之一。黑客正在改進他們的武器,已經(jīng)在其攻擊戰(zhàn)術、技術和策略中積極引入人工智能技術,實現(xiàn)網(wǎng)絡攻擊自動化。網(wǎng)絡安全公司Cylance在美國2017年黑貌大會上征詢了100位信息安全專家的意見,有62%的信息安全專家認為黑客未來會利用人工智能技術賦能網(wǎng)絡攻擊。人工智能技術還可生成可擴展攻擊的智能僵尸網(wǎng)絡。這種蜂群網(wǎng)絡與傳統(tǒng)的僵尸網(wǎng)絡不同,利用人工智能技術構(gòu)建的網(wǎng)絡和集群內(nèi)部能相互通信和交流,并根據(jù)共享的本地情報采取行動,直接使用群體情報來執(zhí)行命令而無須由僵尸網(wǎng)絡的控制端來發(fā)出命令。當蜂群網(wǎng)絡識別并侵入更多設備時,它將能夠成倍增長,從而擴大了同時攻擊多個目標的能力。這在本質(zhì)上標志著智能物聯(lián)網(wǎng)設備可以被控制并對脆弱系統(tǒng)進行規(guī)?;?、智能化的主動攻擊。此外,個性化智能推薦融合了人工智能相關算法,根據(jù)用戶瀏覽記錄、交易信息等數(shù)據(jù),對用戶興趣愛好、行為習慣進行分析與預測,根據(jù)用戶偏好推薦信息內(nèi)容。智能推薦可被應用于負面信息的傳播,并可使虛假消息、違法信息、違規(guī)言論等不良信息內(nèi)容的傳播更加具有針對性和隱蔽性,在擴大負面影響的同時減少被舉報的可能。犯罪分子越多地利用機器學習來分析大量隱私記錄,以發(fā)現(xiàn)潛在的易攻擊目標人群,通過智能推薦算法投放定制化的釣魚郵件,提升攻擊的精準性,導致網(wǎng)絡暴力和侵權行為愈演愈烈。人工智能技術的發(fā)展與應用帶來了大量的信息安全風險:包括數(shù)據(jù)劫持、系統(tǒng)泄露、隱私安全和算法歧視等。如果智能系統(tǒng)的安全改進和防護措施不到位,便有可能出現(xiàn)致命的漏洞,容易被非法入侵和操控,并引發(fā)其他安全問題。一方面,新一輪人工智能浪潮的到來是由數(shù)據(jù)驅(qū)動的,人們往往要以犧牲個人數(shù)據(jù)為代價來獲得所需的服務。這些信息被收集后,一旦收集的平合出現(xiàn)防護漏洞,就有可能造成大面積的隱私泄露。云計算和大數(shù)據(jù)技術的廣泛應用更是加劇了這種隱私泄露的風險,而個人隱私泄露也會產(chǎn)生其他社會安全問題,比如對個人財產(chǎn)和人身安全造成的影響、相關企業(yè)信任度被降低等。如果人工智能掌握的是重要的國家情報,那么一旦泄露,后果更是不堪設想。另一方面,網(wǎng)絡空間的虛擬性使得敏感的個人數(shù)據(jù)更易于被收集。人工智能技術具有信息關聯(lián)的能力,一旦系統(tǒng)通過各種渠道獲知了足夠多與當事人相關的信息,如購物信息、訂閱信息、旅行信息、認證信息、信用信息、位置信息等,通過人工智能技術就能夠很容易地挖掘出人們的隱私,而且人們很難追蹤這些個人數(shù)據(jù)和隱私信息的泄露途徑與泄露程度。人工智能的長項是通過已知的數(shù)據(jù)進行訓練,以判斷那些未知的數(shù)據(jù)。例如,超市可以統(tǒng)計已知孕婦的消費習慣,并利用這些消費習慣訓練人工智能對孕婦的判斷能力。由此,超市根據(jù)顧客的消費習慣就可以推算出顧客是否是孕婦,以確定對之進行廣告的定向投放。但這對那些不想讓人們知道其懷孕的人來說,就是一種侵犯隱私的表現(xiàn)。四人工智能安全風險的應對策略技術是把雙刃劍,我們要發(fā)揮主觀能動性激發(fā)人工智能帶來的積極影響。針對人工智能技術的控制困境和安全風險,必須重視準入制度和標準規(guī)范建設,確保公眾知情權,呼吁社會各界共同努力,提升高精尖人才自主培養(yǎng)質(zhì)量。(一)重視準入制度和標準規(guī)范建設,搶占智能安全控制權人工智能作為高精尖技術,無疑是國家創(chuàng)新能力和核心競爭力的重要體現(xiàn),通過積極參與人工智能行為規(guī)范、倫理準則的研究與制訂,積極爭取人工智能安全治理的主導權和話語權。一方面,國家應設置市場準入制度,強制要求人工智能必須按照標準規(guī)范預留接口以支持保險箍的接入,否則不允許入境或進入市場銷售。準入制度主要針對的是人工智能設備制造商及零件制造商,判斷其是否支持保險箍的接入也需要從多個角度判斷。為了加速保險箍發(fā)展,應該優(yōu)先為具有破壞能力的機器人設置準入制度并強制執(zhí)行。例如,可以制定相應法律,要求具有破壞能力的機器人必須安裝有“保險箍”這類的制約系統(tǒng),就如同汽車必須設有剎車系統(tǒng)一樣,并且這一要求應該成為市場準入前提,以便保護人類不受機器人的潛在威脅。另一方面,比準入制度更重要且實施難度更大的是制定與保險箍相關的標準規(guī)范。如果沒有統(tǒng)一的標準規(guī)范,人工智能設備制造商就不知道應該預留何種接口、如何對保險箍認證、內(nèi)置算法如何接受干預、采用何種協(xié)議來通信、傳感器采集的數(shù)據(jù)如何共享、能源如何按需供給等,保險箍自然也就無法集成。在全球、全國、行業(yè)范圍內(nèi)制定標準規(guī)范是保險箍可以存在和發(fā)揮作用的基本前提,需要各國秉持開放共贏的精神,通過在國際范圍內(nèi)建立人工智能規(guī)范和標準,避免技術和政策不兼容導致的安全風險,積極推動各國人工智能安全發(fā)展。(二)確保公眾知情權,社會各界共同努力實現(xiàn)人工智能安全可控實現(xiàn)人工智能安全可控需要社會各界共同貢獻自己的力量。從政府決策者角度,制定人工智能安全可用的頂層方案至關重要,從政策、法律法規(guī)層面可以推進人工智能安全發(fā)展,限制人工智能惡意利用等;從企業(yè)角度,遵守人工智能安全的相關標準和規(guī)范研發(fā)智能系統(tǒng),保障人工智能系統(tǒng)的安全可用;從科研院所角度,大力研究保障人工智能安全的基礎理論,突破智能算法設計、數(shù)據(jù)評估、安全測評等關鍵技術;從社會輿論角度,加大人工智能安全的宣傳力度,讓社會大眾樹立正確的人工智能技術安全應用意識,并時刻提防人工智能帶來的安全隱患。與此同時,由于人工智能

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論