2024TensorFlow 技術(shù)發(fā)展與落地實踐_第1頁
2024TensorFlow 技術(shù)發(fā)展與落地實踐_第2頁
2024TensorFlow 技術(shù)發(fā)展與落地實踐_第3頁
2024TensorFlow 技術(shù)發(fā)展與落地實踐_第4頁
2024TensorFlow 技術(shù)發(fā)展與落地實踐_第5頁
已閱讀5頁,還剩5頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

TensorFlow技術(shù)發(fā)展與落地實踐TensorFlow簡介;然后講解了深度學習在服裝設計方向的機會與挑戰(zhàn);最后重點介紹深度學習的落地實踐。阿爾法圍棋(AlphaGo)是第一個擊敗人類職業(yè)圍棋選手、第一個戰(zhàn)勝圍棋世界冠軍的人工智能機器人,從AlphaGo開始,人工智能正式走入了大眾的視野,在10月18日,AlphaGo的父親DeepMind團隊推出了AlphaGoZero,從0訓練用了40天時間,以1000擊敗了當今的世界圍棋第一AlphaGoAlphaZeo在去年底通過自我對弈,就完爆上一代圍棋冠軍程序AlphaGo,且沒有采用任何的人類經(jīng)驗作訓練數(shù)據(jù),不管是AlphaGo還是AlphaGo他們的原理都是深度學習。深度學習的動機計算機語言一般都是按照固定流程完成任務,但是有一些任務,比如下五子棋、無人駕駛,人臉識別等,很難把他們的流程描述出來。這個時候就需要用到人工智能的方式來實現(xiàn)這些流程不確定的工作。深度學習的原理深度學習是指訓練神經(jīng)網(wǎng)絡,把樣本x輸入神經(jīng)網(wǎng)絡,每一個特征都與所有的神經(jīng)元相互聯(lián)系,通過習得一個函數(shù),映射到輸出y。神經(jīng)網(wǎng)絡的結(jié)構(gòu)包含輸入層、隱藏層、輸出層三部分,以判斷零件是否合格為例,一個神經(jīng)網(wǎng)絡可以是輸入層輸入零件的長度和零件的質(zhì)量,把參數(shù)權(quán)重w、偏置b和輸入x做wx+b運算,再通過激活函數(shù)激活得到神經(jīng)元的值傳到輸出層,如果輸出大于0則零件是合格,否則不合格。輸入層(Inputlayer),眾多神經(jīng)元接受大量非線形輸入x。輸入的x稱為輸入向量。輸出層(Outputlayer)x在神經(jīng)元鏈接中傳輸、分析,形成輸出結(jié)果。輸出的x稱為輸出向量。隱藏層(Hiddenlayer),簡稱“隱層”,是輸入層和輸出層之間眾多神經(jīng)元和鏈接組成的各個層面。深度學習的案例神經(jīng)網(wǎng)絡在自然語言上的應用:情感分類:理解情感的語義,先把文字抽象成特征向量,把特征向量輸入到神經(jīng)網(wǎng)絡,經(jīng)過一系列的運算得到正負值,正代表著好評,負代表著差評。神經(jīng)網(wǎng)絡在圖像上的應用:手寫數(shù)字識別、目標檢測輸入圖片得到像素矩陣,然后把像素矩陣輸入到神經(jīng)網(wǎng)絡,進行目標檢測,目標識別,識別出圖片中的人、狗和椅子,手寫數(shù)字也是同理。目前google也在使用深度學習的方式來做推薦:深度學習的趨勢可以看出從2012開始,深度學習的熱度持續(xù)增高,一直到2017年都處于持續(xù)增長狀態(tài)。2015年國內(nèi)開始興起人工智能,到2018年,經(jīng)過這三年的發(fā)展,人工智能的技術(shù)已經(jīng)得到很好的發(fā)展,在各種細分的領域得到很好的應用。TensorFlow簡介TensorFlow的前身TensorFlow是一個實現(xiàn)深度學習的框架,兩者相輔相成,互為基礎,他的前身是DistBeliefDistBelief只支持CPU,原因是google內(nèi)部的CPU資源非常豐富,可以通過并行的方式,實現(xiàn)高速度。TensorFlow介紹DistBelief后來發(fā)展為了TensorFlowTensorFlow不依賴Google內(nèi)部系統(tǒng)和架構(gòu),能夠支持GPU。TensorFlow早期版本變化TensorFlow不斷的再創(chuàng)新,增加新功能,迭代速度是非??斓摹?015年以后,TensorFlow的流行度遠超其他深度學習框架。caffeTensorFlow的學習資料會更多一些,所以剛?cè)腴T的新手推薦用TensorFlow。深度學習在服裝設計方向的機會與挑戰(zhàn)深度學習落地行業(yè)隨著深度學習的發(fā)展,深度學習已經(jīng)和很多行業(yè)結(jié)合起來,比如AI+金融,AI+醫(yī)療等,但是在服裝設計行業(yè)還很少,就目前來說,AI+服裝行業(yè)還是一片藍海。服裝設計行業(yè)存在的難題國內(nèi)的時尚一直以來都是緊跟歐美時尚,國內(nèi)的服裝設計師通過不斷的尋找歐美的時尚素材,然后進行二次創(chuàng)造,但是創(chuàng)作的過程存在兩個問題,一是時尚素材過于散,查找困難,二是設計師難以理解淘寶上的相關(guān)服裝數(shù)據(jù),沒辦法利用這些數(shù)據(jù)服務于設計,這也是知衣科技想要解決的問題,知衣科技是一家AI電商解決下圖是淘寶的數(shù)據(jù)工具:服裝設計問題多源:如果有上千個品牌方,就有上千個官網(wǎng),還有很多的時尚網(wǎng)站,如何去收集這些信息其實是一個難點。異構(gòu):設計師需要參考的既有圖像類的非結(jié)構(gòu)化數(shù)據(jù),也有文字這樣的半結(jié)構(gòu)化數(shù)據(jù),還有交易結(jié)構(gòu)化數(shù)據(jù),如何將這些數(shù)據(jù)有機的串聯(lián)起來存在挑戰(zhàn)。3)海量:在互聯(lián)網(wǎng)上有上百億的服裝信息,上億的商品交易信息。如何去處理這些圖片、文字、交易信息,去幫助設計師去選款是知衣科技要解決的問題。深度學習的落地實踐標簽問題和解決辦法深度學習的識別和分類都是比較成熟的技術(shù),但是如何把這些技術(shù)應用到服裝行業(yè)確是一個新的問題。目前時尚圖片的標注數(shù)據(jù)準確率低,因為時尚是一個專業(yè)性的東西,并不是每一個人都能理解時尚,所以很難標注,知衣科技的標注是由服裝學院的設計師們幫忙標注的,標注的準確率很高。在服裝識別中,我們把服裝分為了五大類:上衣、下衣、包、鞋子、連衣裙,再對五大類做細分,總共有150多種標簽,設計師需要的是更細的劃分,比如前幾年流行的一字肩,這種細節(jié)需要從大量的數(shù)據(jù)中去發(fā)現(xiàn)。目前標簽存在的兩大問題,一是標簽的稀疏性,有的標簽會比較少,比如雙面呢大衣,二是設計細節(jié)難打標簽,比如袖口的拉鏈,口袋的開口方向等,會有漏打漏標的情況,所以整體的標簽要治理出來是非常困難的,我們開發(fā)了一套專門針對服裝標簽的打標系統(tǒng),在部分標簽體系上能實現(xiàn)9395%的識別率,設計院校的學生的識別率在85%-90%,在這個專業(yè)領域上已經(jīng)比別人強了?;贔asterR-CNNModel的目標檢測整體的網(wǎng)絡構(gòu)造分兩層,第一層是FasterR-CNN識別服裝的過程,第二層是把識別到的服裝經(jīng)過一些風格的過濾器,輸出到不同的FeatureMap里,有些是形態(tài)的,有些是風格的,然后根據(jù)不同的風格進行聚類,再針對這些問題去做回歸。對圖片進行多個維度的識別,包括人臉識別,包括以圖搜圖,搜圖目的不同,他們背后的算法、邏輯和訓練方式也是不一樣的,比如淘寶的找同款或找相似,而我們要解決的是設計師選錯款的問題,理解設計師想找到什么圖片,這個問題我們抽象成了兩個場景,一是全圖搜索,看重的是整體的搭配,二是品類相似,是找單品相似款式。鄭澤宇,知衣科技聯(lián)合創(chuàng)始人兼CEO。國內(nèi)第一本TensorFlow讀物《TensorFlow:實戰(zhàn)Google深度學習框架》作者,該書銷量穩(wěn)居京東人工智能榜前3。歸國創(chuàng)業(yè)之前,鄭澤宇曾任美國谷歌高級工程師。從2013年加入Google,作為主要技術(shù)人員參與并領導了多個大數(shù)據(jù)項目。由他提出并主導的產(chǎn)品聚類項目用于銜接谷歌購物和谷歌知識圖譜(KnowledgeGraph)數(shù)據(jù),使得知識卡片形式的廣告逐步取代傳統(tǒng)的產(chǎn)品列表廣告,開啟了谷歌購物廣告在搜索頁面投遞的新紀元。2013年5月獲得美國CarnegieMellonUniversity大學語言技術(shù)研究所碩士學位。期間在國際會議上發(fā)表數(shù)篇學術(shù)論文,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論