人工智能商業(yè)環(huán)境下的消費(fèi)者信任【論文】_第1頁
人工智能商業(yè)環(huán)境下的消費(fèi)者信任【論文】_第2頁
人工智能商業(yè)環(huán)境下的消費(fèi)者信任【論文】_第3頁
人工智能商業(yè)環(huán)境下的消費(fèi)者信任【論文】_第4頁
人工智能商業(yè)環(huán)境下的消費(fèi)者信任【論文】_第5頁
已閱讀5頁,還剩3頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能商業(yè)環(huán)境下的消費(fèi)者信任[摘要]提出建議。[關(guān)鍵詞]人工智能;消費(fèi)者信任;風(fēng)險(xiǎn);透明化20191023現(xiàn)“量子霸權(quán)”2001[1]。與此同時(shí),一批來自谷歌及加拿大高校、研究所的專家正在通過圖神經(jīng)網(wǎng)絡(luò)來“訓(xùn)練”人工智能的嗅覺,同時(shí)研究人員還嘗試讓機(jī)械臂獲得觸覺。人工智能的各個(gè)方面都在飛速發(fā)展,而人工智能基于算法的自主決策系統(tǒng)早已被廣泛醫(yī)學(xué)診斷、新聞、教育、就業(yè)、保險(xiǎn)、投資、廣告、治安和2016TimeETC研究顯示,盡管人工智能為人類生活帶來很多便利,人們與人工智能的互動(dòng)也變得越來越頻繁,但許多美國人并不信任的美國人甚至稱從未與人工智能接觸過然我國“互聯(lián)網(wǎng)+”對“貼心”推送廣告的擔(dān)憂,以及人工智能可能的風(fēng)險(xiǎn)甚至對超人工智能“奇點(diǎn)”消費(fèi)者信任及其與人工智能商業(yè)應(yīng)用的關(guān)系研究那么消費(fèi)者信任是交易行為得以成功的前提[5],只有有了信任人們才可能去實(shí)施某一行為[6]。經(jīng)濟(jì)學(xué)家認(rèn)為消更加復(fù)雜的是交往對象也由傳統(tǒng)消費(fèi)單一的交易主客體關(guān)系演進(jìn)為既包含傳統(tǒng)主客體關(guān)系又包含消費(fèi)者與人工智能環(huán)消費(fèi)者智能網(wǎng)購意愿的決定因素[7]。由此可知,人工智能商業(yè)應(yīng)用發(fā)展的當(dāng)務(wù)之急。消費(fèi)者信任與人工智能風(fēng)險(xiǎn)因素研究消費(fèi)者感知風(fēng)險(xiǎn)感知風(fēng)險(xiǎn)概念是由哈佛大學(xué)的鮑爾從心理學(xué)引入營銷:己不能明確預(yù)期的后果[8]。感知風(fēng)險(xiǎn)的后果有兩種類型;另一種是購買產(chǎn)品后帶來的時(shí)間、貨幣、心理等損失的不利后果。人工智能既是產(chǎn)品又是環(huán)境的雙重屬性,使消費(fèi)者能夠同時(shí)感知到兩者。隨著人工智能由弱人工智能走向強(qiáng)人工智能直到超人工智能,以及人工智能不透明的“思考決策”過程,消費(fèi)者首先感“被控制”的不利后果;同時(shí)人工智能產(chǎn)品可能產(chǎn)生的隱私侵權(quán)甚至人身傷害權(quán)責(zé)混亂風(fēng)險(xiǎn),也使得消費(fèi)者同時(shí)感知到人工智能產(chǎn)品9]信任度。消費(fèi)者被控制風(fēng)險(xiǎn)法的不斷演進(jìn),算法代替人類做決策越來越多,全球經(jīng)濟(jì)政治的運(yùn)行模式正在發(fā)生改變。人工智能算法不僅是一項(xiàng)新技術(shù),它已經(jīng)是新的生產(chǎn)要素,更可能是新的權(quán)力形態(tài),財(cái)富[10]果未來人工智能算法不透明問題沒有完全解決,消費(fèi)者被控制風(fēng)險(xiǎn)有可能上升到消費(fèi)者階級被控制,造成前所未有的社會(huì)及政治不平等[11]群被控制。因此,消費(fèi)者普遍對被控制風(fēng)險(xiǎn)表現(xiàn)出擔(dān)憂甚至恐懼[3],所以現(xiàn)階段消費(fèi)者對人工智能的信任度較低。消費(fèi)者責(zé)任風(fēng)險(xiǎn)人工智能的快速發(fā)展,在商業(yè)應(yīng)用中必然會(huì)逐步替代人類勞動(dòng)。目前,人工智能自動(dòng)駕駛交通事故、無人機(jī)錯(cuò)判誤殺平民等現(xiàn)象就遇到了權(quán)責(zé)混亂、無法追究的問題,人工智能““程序有可能是由眾多的人共同開發(fā)的,程序的產(chǎn)生可能無法追蹤到某個(gè)具體的個(gè)人或組織較大,使得消費(fèi)者對人工智能產(chǎn)品的信任度偏低??蒲腥藛T發(fā)現(xiàn),人們對人工智能的錯(cuò)誤很“敏感”[14],人們會(huì)帶著各種“偏見”放大人工智能的風(fēng)險(xiǎn)因素。在消費(fèi)者的意識里人工智能的各種風(fēng)險(xiǎn)會(huì)成倍增長,這種狀態(tài)困擾著消費(fèi)者并始終揮之不去,其結(jié)果是許多消費(fèi)者選擇不信任人工智能或者對人工智能保持警惕。消費(fèi)者信任與透明化人工智能發(fā)展研究糟糕的[15]。人類如何“引導(dǎo)”人工智能決定了其未來的發(fā)展方向,現(xiàn)有人工智能風(fēng)險(xiǎn)并非它的天然屬性,而是技術(shù)發(fā)展不確定性因素導(dǎo)致負(fù)面效應(yīng)的體現(xiàn)[16]工智能的問題都可以通過新的技術(shù)發(fā)展得到解決,難點(diǎn)在于如何影響技術(shù)向某個(gè)方向發(fā)展。透明化人工智能就是在人工智能消費(fèi)者不信任的背景驅(qū)動(dòng)下,通過新技術(shù)發(fā)展讓人工智能全部的“思考、判斷”過程都能被消費(fèi)者看到、聽到、感覺到,讓消費(fèi)者對人工智能“知人知面又知心”。人工智能軟件透明化人工智能環(huán)境以及智能產(chǎn)品都由智能軟件實(shí)際管理運(yùn)作著。人工智能軟件又被稱為“算法黑箱”,這是因?yàn)橄M(fèi)者么內(nèi)容,只有完全打開“算法黑箱”才能實(shí)現(xiàn)人工智能軟件透100%者對軟件算法進(jìn)行適當(dāng)?shù)男薷?。人工智能硬件透明化人工智能產(chǎn)品硬件透明化更多的是為了配合軟件透明技術(shù)進(jìn)行的硬件選材。比如智能產(chǎn)品硬件可以采用全透明材料制作,內(nèi)部選裝光、聲、溫度、煙等感應(yīng)設(shè)備,這樣既可以將軟件反饋信息的字符直接顯示在透明機(jī)體上,又可以將軟件運(yùn)算狀態(tài)、反饋信息通過光、溫度、聲音等方法直接、準(zhǔn)確地“表達(dá)”出來。同時(shí),透明的智能產(chǎn)品材質(zhì)可以使消費(fèi)者直觀的看到系統(tǒng)“思考區(qū)域”,有效地避免了人工智能產(chǎn)品“‘頭憋

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論