人工智能革命的前景與風險:風險管理(中文版)_第1頁
人工智能革命的前景與風險:風險管理(中文版)_第2頁
人工智能革命的前景與風險:風險管理(中文版)_第3頁
人工智能革命的前景與風險:風險管理(中文版)_第4頁
人工智能革命的前景與風險:風險管理(中文版)_第5頁
已閱讀5頁,還剩38頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能革命的前景和危險?2023伊薩卡。保留所有權利。?2023伊薩卡。保留所有權利。2.人工智能革命的承諾和危險:管理風險CONTENTS446678確認信息3.人工智能革命的前景和危險:管理風險ABSTRACT這是許多科幻電影的前提:技術超越了人類的智力,造成了嚴重的破壞,并最終接管了人類。雖現在現實生活中,但最近發(fā)行的ChatGPT感覺就像片頭字幕——而這只是許多生成式人工智能(AI)工智能項目“可能對社會和人類構成深遠的風門用于人工智能的新監(jiān)管機構的必要性。不過,其他行業(yè)領導者認為,生成式人工智能的好處和風們正在面對的技術有限,這些技術不如我們最大的希望那么有用,也不如我們最但有一個結論是肯定的:人工智能已經席卷了我們的業(yè)務和我們的世界,需要首席信息安全官(CISO理、高管和IT高級管理人員來跟上快速發(fā)展的風險1Futureoflife.該組織,“暫停巨型人工智能實驗:一封公開信”,2023年3月22日,/open-letter/pause-giant-ai-experiments/2Rundle,J.;“網絡安全主管導航人工智能風險和潛在回報”,《華爾街日報,2023年5月25日,/文章/cybersecurity-chiefs-navigate-ai-risks-and-potential-rewards-9138b76d?2023伊薩卡。保留所有權利。4.人工智能革命的前景和危險:管理風險當企業(yè)智慧遇到人工智能時人工智能的現狀際上都是由機器學習技術或大型語言模型(。例如,在輸入一個3000億個單詞的數據集后,53Openai.“介紹ChatGPT”,2022年11月30日,/blog/chatgpt4巴特。谷歌。試試巴德,Google,“/的人工智能實驗5Iyer,A.;“ChatGPT的智慧背后:3000億字,570GB數據”,《分析印度》雜志,2022年12月15日,https://分析印度語。com/behind-chatgpts-wisdom-300-bn-words-570-gb-data/6D,“威震天-圖靈自然語言生成”,NVIDIA開發(fā)者,2022年10月3日,https://開發(fā)人員。英偉達。com/megatron-turing-natural-language-generation?2023伊薩卡。保留所有權利。5.人工智能革命的前景和危險:管理風險期到制定飲食計劃的各種任務。ChatGP軟Office365中,作為微軟365副駕駛。7微軟Word、Excel或PowerPoint的人都數級增長。爆炸性增長的一個例子8在使用Ch7Spataro,J.;“介紹微軟365副駕駛-你的工作副駕駛,”微軟官方博客,2023年3月16日,https://博客。微軟。com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/8Ruby,D.;“30+詳細的ChatGPT統計數據-用戶和事實”,需求頁,2023年7月7日,/chatgpt-statistics/ ?2023伊薩卡。保留所有權利。6.人工智能革命的前景和危險:管理風險對人工智能還是不人工智能議所證明的那樣。從自動化日常任務到生成創(chuàng)造性內容,聽起來自信和合法,導致用戶在尋找他們的問題的相關答案時感到困惑或誤導。三星電子公司總部所在地11蘋果12摩根大通13和威瑞森通信14出于安全考慮,嚴重限制了生成式人工智能的職場使用。從車輪到汽車,歷史表明,任何能讓我們用更少的努力做更多事情的技術都廣受歡迎——作為生成技術人工智能已經證明。識別人工智能的風險和回報布什內爾,S。T.;關于亨利·福特的真相,萊利和李公司,美國,1992年10元。stackoverflow.“臨時政策:ChatGPT被禁止”,/questions/421831/temporary-policy-chatgpt-is-banned11考利;“三星限制代碼泄露后使用生成人工智能。2023年5月8日,https://tech。co/news/samsung-restricts-generative-ai-use#:~:text=New%20Policy%20Bans%20Samsung%20Employeesz蒂利12歲;M。Kruppa;“蘋果公司限制員工使用ChatGPT,和其他公司一樣擔心泄密,”《華爾街日報》,2023年5月18日,/articles/apple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34?mod=文章內聯13盧克帕特;“摩根大通限制員工使用ChatGPT”,《華爾街日報》,2023年2月22日,/articles/jpmorgan-restricts-employees-from-using-chatgpt-2da5dc34?mod=文章內聯14Moneylife.在文章中,“摩根大通限制工人使用ChatGPT”,2023年2月23日,https://www。moneylife.in/article/jpmorgan-chase-restricts-workers-from-using-chatgpt/69948.html?2023伊薩卡。保留所有權利。7.人工智能革命的前景和危險:管理風險1.確定人工智能的好處。2.識別人工智能風險。3.采用持續(xù)的風險管理方法。4.實施適當的人工智能安全協議。進行人工智能效益分析豐富好處,15從將醫(yī)療保健和教育帶給服務不足的人,再15蓋茨;“人工智能的時代已經開始”,2023年3月21日,https://www。gatesnotes.ai時代已經開始了16奧,一個;“AI機器人ChatGPT通過美國醫(yī)療執(zhí)照考試,”Medscape,2023年1月26日,https://www.麥德景。com/viewarticle/987549;斯隆,K;“ChatGPT通過法學院考試,”路透社,2023年1月25日https://www.路透社。com/legal/transactional/chatgpt-passes-law-school-exams-despite-mediocre-performance-2023-01-25/;businesstoday.在“人工智能的下一步”:ChatGPT通過美國醫(yī)學執(zhí)照考試和沃頓商學院的MBA考試”中,《今日商業(yè)》,2023年1月25日,https://www.businesstoday.in/technology/story/next-step-for-ai-chatgpt-clears-us-medical-licensing-exam-and-whartons-mba-exam-367569-2023-01-25;部落的健康狀況?!叭斯ぶ悄苷谕ㄟ^醫(yī)學院考試”,2023年1月24日,/chatgpt/;惠特福德,E;福布斯如何讓ChatGPTAI在20分鐘內寫2篇大學論文”,福布斯,2022年12月9日,/sites/emmawhitford/2022/12/09/heres-how-forbes-got-the-chatgpt-ai-to-write-2-college-essays-in-20-minutes/?sh=313d2f3b56ad;哈特森先生;“人工智能學會了以驚人的進步編寫計算機代碼”,《科學》,2022年12月8日,https://www.科學org/content/article/ai-learns-write-computer-code-驚人的進步?2023伊薩卡。保留所有權利。8.人工智能革命的前景和危險:管理風險公司會做什么,他們?yōu)槭裁匆@樣做?公司會做什么,他們?yōu)槭裁匆@樣做?他們是怎么做的?該公司的競爭對手是如何利用人工智能工具的呢?他們依賴什么工具和才能,他們成功的標準是什么?對人工智能的投資成本是多少,它能帶來多少投資回報?該公司對其安全協議和機制將有助于確保數據質量、完整性和機密性(例如,知識產權、個人可識別信息等)有多少信心?當人工智能消除了重大的成本和人才障礙時,該公司當前的戰(zhàn)略和目標將如何發(fā)展?員工和合作伙伴可以給人工智能創(chuàng)新桌帶來什么?A公司是一個行業(yè)領導者,憑借一種旗艦產品主導識別人工智能風險。17Vallance,B.;C.變異;“AI“教父”杰弗里·辛頓退出谷歌后警告會有危險,”BBC新聞,https://www。bbc.世界-美國-加拿大-65452940?2023伊薩卡。保留所有權利。9.人工智能革命的前景和危險:管理風險絡攻擊,并可能引入新的攻擊。從數據泄露社會風險18歲的瓊斯,J.;“人工智能可以使3億個工作崗位實現自動化。以下是最危險(也是至少)危險的因素,”ZDNET,2023年5月27日,/article/ai-could-automate-25-of-all-jobs-heres-which-are-most-and-least-at-risk/;Elder,B.;“把你的辦公桌工作交給人工智能生產力奇跡,高盛說,《金融時報》,2023年3月27日,/content/50b15701-855a-4788-9a4b-5a0a9ee10561;尼爾-貝利,M.;E。布林霍爾夫森。核心;“思維機器:人工智能生產力繁榮的案例”,布魯金斯學會,2023年5月10日,/research/machines-of-mind-the-case-for-an-ai-powered-productivity-boom/;卡利亞瓦口;“研究:量化GitHub副駕駛對開發(fā)者生產力和幸福感的影響”,GitHub博客,2022年9月7日,https://github.blog/2022-09-07-research-quantifying-github-copi-lots-impact-on-developer-productivity-and-happiness/;Korinek,A;經濟研究的語言模型和認知自動化”,國家經濟研究局,/10.3386/w30957;BrynjolfssonE.;D。李;L。雷蒙德;“生成人工智能”,國家經濟研究局,/10.3386/w31161;ChuiM.;R。羅伯茨。是的;“生成型人工智能在這里:像ChatGPT這樣的工具如何改變你的業(yè)務,”麥肯錫,2022年12月20日,https://www.麥金賽。com/capabilities/quantumblack/our-insights/generative-ai-is-here-how-像聊天的工具可以改變你的業(yè)務19邦德,美國;“五角大樓爆炸的假病毒圖片可能是由人工智能創(chuàng)建的,”NPR,2023年5月22日,/2023/05/22/1177590231/fake-viral-images-of-an-explosion-at-the-pentagon-were-probably-created-by-ai?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險過3億個工作崗位20將受到ChatGPT模型的IP泄漏和無效ChatGPT泄露了公司的專有信息。21另一個OneDrive上搜索公司內部數據,有可ChatGPT分享敏感信息。22不過,還有更無效的所有權理概念”?!?0歲的瓊斯21麥迪森,L.;“三星員工使用ChatGPT犯了一個重大錯誤,”技術雷達,2023年4月4日,/news/samsung-workers-leaked-company-secrets-by-using-chatgpt22森格普塔;“亞馬遜警告員工關于ChatGPT,說不要與聊天機器人分享敏感信息,”今日印度,2023年1月27日,https://www。indiatoday.in/technology/news/story/amazon-warns-employees-chatgpt-do-not-share-sensitive-info-with-chatbot-2327014-2023-01-2723麥肯德里克;“誰最終擁有ChatGPT和其他人工智能平臺生成的內容?”,《福布斯》,2023年2月22日,https://www。福布斯。com/sites/joemckendrick/2022/12/21/who-ultimately-owns-content-generated-by-chatgpt-and-other-ai-platforms/?sh=21cf9785542324Brittain,B.;"U.S.版權局表示,一些人工智能輔助的作品可能受版權保護,”路透社,2023年3月15日,/world/us/us-copyright-office-says-some-ai-assisted-works-may-be-copyrighted-2023-03-15/25達菲,J.;“為什么作家知道使用ChatGPT是個壞主意”,PCMAG,2023年1月25日,/opinions/why-writers-know-usingchatgpt-is-a-bad-idea?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險對網絡安全和彈性的影響像PentestGPT這樣的人工智能滲透預測試工具,以及一個提示,“為我找到一個特定技術的安全漏洞,如ChatGPT已被用來創(chuàng)建一個信息竊取器戶的垃圾郵件中,英語語法和語法都有顯著提高。攻擊上升47%的一個因素31Zscaler在2022年看到的。$等《rruescpnusn個業(yè)務連續(xù)性計劃,兩knentOhneepoefrhpetrisvteopfpaotnI-irtoifinesdeilnI.ap良p是對內部系統的優(yōu)化他們同事的工資和其他敏感信息。雖然這種風險人工智能特有的,但考慮一下如何使用像PassGPT用于猜測和生成密碼的LLM)這樣的工具33這極大26門,J.;“網絡安全面臨著來自人工智能的挑戰(zhàn)technology/2023/05/11/hacking-ai-cybersecurity-future/2728 《華盛頓郵報》,2023年5月11日,/ ,“OPWNAI:網絡罪犯開始使用”ChatGPT,2023年1月6日/2023/opwnai-cybercriminals-starting-to-use-chatgpt/反對不斷發(fā)展的網絡威脅景觀的組織,包括生成的2023年4月3日,反對不斷發(fā)展的網絡威脅景觀的組織,包括生成的2023年4月3日,,,/news/風景darktrace-email-defends-organizations-against-evolving-cyber-threat-29同上?!?023年6月2日,https://www.“2023年6月2日,/video/6328691103112 /resources-industry-reports-threatlabz-phishing-report31Zscaler?!熬W絡釣魚報告”,https:// /resources-industry-reports-threatlabz-phishing-report黑莓,2023年2月2日/32辛格;“黑莓,2023年2月2日/baacyeeespesahgeedtadsge/;C2ibtlsaedceurirfeadci-hcapll-negnearl-cayreifiritalicn-lalie-niem'sinentt-xol-/nn3an,11?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險技能差距過度反應預期和意外使用制,以防止濫用其知識。例如,由于Cha利用越獄的方法36提示或使用諸如WormGPT等工具37為了數據完整性ChatGPT、Bard和其他節(jié)目往往會產生看起,不同的人工智能程序會提供不同的答案39對歷史問題特曼在推特上承認40“現在對任何重要的事面,我們有很多工作要做。”34W,“事實表:拜登-哈里斯政府宣布國家網絡安全戰(zhàn)略”,2023年3月2日,/briefing-room/statements-releases/2023/03/02/fact-sheet-biden-harris-administration-announces-national-cybersecurity-strategy/麥克唐納;“拜登敦促考慮聯邦數字身份框架,”生物識別更新,2022年4月18日,/202204/biden-urged-to-consider-federal-digital-identity-framework36Loynds,J.;“如何越獄ChatGPT:最佳提示&更多”,Dexerto,2023年8月1日,/tech/如何越獄-2143442/37凱利;“WormGPT-網絡罪犯使用生成人工智能工具發(fā)動BEC攻擊,”,|SlashNext,2023年7月13日,/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/38,“幻覺(人工智能)”,/wiki/Hallucination_(artificial_intelligence)#:~:text=For%20例子%2C%20a%20幻覺%20聊天機器人39麥克拉肯,H.;“如果ChatGPT不能更好地理解事實,其他事情就無關重要了,”《快公司》,2023年1月11日,/90833017/1740奧特曼,S;“ChatGPT非常有限,但在某些事情方面足夠好,足以制造對偉大的誤導印象。現在依賴它來做任何重要的事情都是錯誤的。這是進步的預覽;在穩(wěn)健性和真實性方面,我們有很多工作要做。,推特,2022年12月10日,/sama/status/1601731295792414720?lang=en?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險高了。這種情況于2023年5月在曼哈頓聯41b;“當你的律師使用聊天GPT時發(fā)生的事情,”紐約時報,2023年5月27日,/2023/05/27/航空公司訴訟。html?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險采用持續(xù)風險管理方法評估方法。例如,新的框架,如AI風險管理框架1.0)42從美國國家標準與技術研究所(NIST)開始,旨1.識別該公司的整體人工智能風險。2.定義該公司的風險偏好。3.監(jiān)控和管理風險。第一步:識別風險第二步:定義風險偏好42NIST,“人工智能風險管理框架(AIRMF1.0)”,2023年1月,/10.6028/nist.ai.100-1?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險第三步:監(jiān)視器和管理風險向所有員工傳達風險愿景優(yōu)先考慮風險管理活動解決所有需要采取行動的風險(如新的安全控制),并指導團隊成員解決他們的風險領域分配所有權和個人責任確定風險監(jiān)測的頻率構建人工智能安全程序:八個協議和實踐優(yōu)勢——這些組織可能沒有CISO或專門的一個:信任但要驗證?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險擊和滲透。2023年5月,OpenAI證實二:設計合格使用策略三:指定一個人工智能領導四:進行成本分析帶來財務負擔。對人工智能進行了全面的成本一種工具的成本效益,還需要計算安全控制的43Poremba,美國;“ChatGPT確認數據泄露,引發(fā)安全問題,”安全情報,https://安全情報。com/articles/chatgpt確認數據泄露44伯吉斯先生;《對ChatGPT的黑客行動才剛剛開始》,《連線》雜志,2023年4月13日,/story/chatgpt-jailbreak-生成性黑客攻擊45Wodecki,B.;“遇見羊駝:開源ChatGPT制造不到600美元,”人工智能業(yè)務,2023年3月20日,/nlp/meet-alpaca-the-open-source-chatgpt-made-for-less-than-600?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險五:適應和創(chuàng)建網絡安全程序智能為中心的安全實踐(e。g.,安全的設82%的IT專業(yè)人員46將考慮在未來兩IP泄漏:安全和隱私團隊應該具備適當的技能和控制措施,以防止IP泄漏。組織可以使用基于權限的訪問、可見性工具、防火墻和應用程序控件來確定員工在哪里和如何使用人工智能工具。這些措施可以防止未經授權的轉移有價值的公司數據,并限制潛在的損害。例如,當對數據建立適當的基于角色的訪問控制時,人力資源經理可以向LLM詢問來自LLM的工資,但只有公司律師可以詢問公開的人力資源案件。此外,數字過濾器還可以阻止用戶訪問私有的內部存儲庫。培訓和政策承諾還可以讓員工了解與人工智能工具共享敏感信息的嚴重后果。災難恢復和事件響應:人工智能可以通過多種方式協助進行業(yè)務連續(xù)性和事件響應規(guī)劃。通過分析運營數據,人工智能工具可以識別對業(yè)務連續(xù)性的威脅,幫助設計響應策略,并在模擬場景中進行測試。當意外的中斷發(fā)生時,人工智能可以將業(yè)務恢復計劃的某些階段自動化,例如優(yōu)化資源分配,以保持關鍵操作的運行。連續(xù)性:人工智能在組織內的使用為業(yè)務連續(xù)性帶來了獨特的挑戰(zhàn)。嚴重依賴人工智能進行業(yè)務流程和功能的組織可能會發(fā)現,如果人工智能工具停止運行,它們自己就無法運營。因此,在制定人工智能計劃和戰(zhàn)略時,必須特別考慮到業(yè)務的連續(xù)性。威脅情報:雖然市場上的許多威脅情報和網絡監(jiān)控工具已經以某種方式整合了機器學習,但最新的生成式人工智能工具可以提供關于輸出的新見解,甚至可以檢測到以前遺漏的威脅警報。谷歌發(fā)布了谷歌云安全AI工作臺47該公司可以分析代碼、周邊安全和網絡中的漏洞。該平臺創(chuàng)建了一個個性化的威脅檔案,幫助團隊通過可操作的情報和跨數據源的可見性主動加強防御。實施這樣的工具的組織可能會受益于關于威脅意識和補救措施的效率的提高。六、授權審計和可追溯性46歲的辛格,美國;“IT領導人預測,chatgpt支持的網絡攻擊即將到來,”黑莓,2023年2月2日,https://blogs.黑莓。com/en/2023/02/it-leaders-predict-chatgpt-enabled-cyberattacks-are-imminent47Potti,美國;“谷歌云計劃如何用生成式人工智能增強安全性”,谷歌云博客,2023年4月14日,/blog/products/identity-security/rsa-google-cloud-security-ai-workbench-generative-ai?2023伊薩卡。保留所有權利。人工智能革命的前景和危險:管理風險七:開發(fā)一套人工智能倫理學關于人工智能倫理的建議492021年11月。像I織50以及美國國防部51已經采用了人工智能的倫理原關。人工智能技術在許多領域都帶來了重大好處,八:社會適應。48.微軟負責任的人工智能標準,v2對外部發(fā)布的一般要求。(2022).https://query.推動。cms.rt.微軟。com/cms/api/am/binary/RE5cmFl49日聯合國教科文組織?!度斯ぶ悄軅惱怼罚琱ttps://www。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論