版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
?非技術(shù)?人員,但是對(duì)?人?工智能和機(jī)器?學(xué)習(xí)有濃厚的興趣技術(shù)?小?白,希望快速梳理理機(jī)器?學(xué)習(xí)的相關(guān)概念想知道?人?工智能和機(jī)器?學(xué)習(xí)對(duì)我們的?工作和?生活會(huì)產(chǎn)?生哪些影響你將獲得什什么?所有機(jī)器?學(xué)習(xí)相關(guān)的重要概念理理解這些概念之間的關(guān)系建?立關(guān)于機(jī)器?學(xué)習(xí)的整個(gè)知識(shí)體系?人?工智能–ARTIFICIALINTELLIGENCE|AI目錄關(guān)于?人?工智能,你需要知道的3個(gè)重點(diǎn)AI?人?工智能的發(fā)展歷史?人?工智能今天和未來(lái)的局限在哪?里里?如何客觀的看待?人?工智能?AIAI相關(guān)的Siri、AI拍照、AI修圖…雖然?大家看得多,但是?大部分都是?一知半解。地?方?未來(lái)會(huì)發(fā)展成什什么樣?本篇?文章將完整的解答?大家的問(wèn)題。?文章內(nèi)容會(huì)讓不不懂技術(shù)的朋友也能輕松的看懂。90%要知道的3個(gè)重點(diǎn)?大家都看過(guò)或者聽(tīng)說(shuō)過(guò)類似的?言論或者電影:?人?工智能很危險(xiǎn)!AI對(duì)?人類是威脅?。ㄉ?至有?人給出了了具體的時(shí)間點(diǎn))機(jī)器??人會(huì)占領(lǐng)的地球,?人類將變?yōu)闄C(jī)器??人的奴?隸!……請(qǐng)?大家放100個(gè)?心,不不要神話?人?工智能,科幻電影?里里的劇情以?目前的技術(shù)發(fā)展來(lái)看,完全不不可能!這種擔(dān)?心就好像瑪雅?人預(yù)測(cè)2012年年地球?qū)?一樣!?人?工智能(AI)本質(zhì)上是?一種?工具那么我們應(yīng)該如何正確的看待?人?工智能(AI)?AI跟我們使?用的錘?子、汽?車、電腦……都?一樣,其本質(zhì)都是?一種?工具。?工具必須有?人?用才能發(fā)揮價(jià)值,如果他們獨(dú)?立存在是沒(méi)有價(jià)值的,就想放在?工具箱?里里的錘?子?一樣,沒(méi)有?人揮舞它就沒(méi)有任何價(jià)值。?人?工智能本質(zhì)上是?一種?工具?工具之間也有差別雖然錘?子、汽?車、電腦、AI都是?工具。但是他們還是有差別的。他們最核?心的差別就是效能(更更準(zhǔn)確的說(shuō)應(yīng)該是杠桿率)。我們把上?面?幾個(gè)?工具的使?用場(chǎng)景對(duì)?比?一下就能理理解了了:錘?子:錘?子的使?用場(chǎng)景中,?人出了了1份?力力,得到了了2倍的回報(bào)。汽?車:?人類跑步20分鐘達(dá)到的距離,汽?車2分鐘就能搞定!?而且這個(gè)過(guò)程中?人類不不需要出太多?力力?氣。汽?車的使?用場(chǎng)景中,?人出了了1份?力力,得到了了10電腦:?人類?自?己計(jì)算?一些復(fù)雜的問(wèn)題可能需要花1個(gè)?月甚?至更更久的時(shí)間(還不不?一定正確),?而電腦可能只需要1秒就完成了了,并且精確?無(wú)誤!?而?人們使?用電腦只需要敲?幾下鍵盤,點(diǎn)?幾下?鼠標(biāo)就可以了了。電腦的使?用場(chǎng)景中,?人出了了1份?力力,得到了了1,000,000倍的回報(bào)。?人?工智能:?人?工智能其實(shí)是超越了了之前電腦的邊界,以前電腦?無(wú)法做的事情AI可以做了了。所以從杠桿率上講,?人?工智能和電腦是在?一個(gè)量量級(jí)上的,但是它能做的事情更更多了了,?大?大超越了了傳統(tǒng)電腦的能?力力范圍,所以?大家?十分看好。但是(凡是都有但是),AI在很多很多場(chǎng)景和領(lǐng)域還是沒(méi)有價(jià)值,很多能?力力甚?至不不如?小學(xué)?生。所以,?目前AI的局限性依然很?大!所有?人都應(yīng)該知道的關(guān)于AI的3個(gè)重點(diǎn)??人?工智能(AI)的本質(zhì)是?一種?工具,歸根結(jié)底還是需要?人去使?用它。雖然有些場(chǎng)景AI已經(jīng)超越?人類了了(?比如AlphaGo下圍棋),但是還是有很多很多\h的場(chǎng)景,AI沒(méi)什什么價(jià)值(推薦深度好?文《?人?工智障2:你看到的AI與智能?無(wú)關(guān)》)。AI不不是萬(wàn)能(通?用)的,擅?長(zhǎng)AI不不能跟?人聊天,擅?長(zhǎng)AI不不能下圍棋。?大家在電影?里里看到的啥都會(huì)的機(jī)器??人短期內(nèi)還?無(wú)法實(shí)現(xiàn)?!甘彩裁词?人?工智能?」跟普通程序?qū)?比,深?入了了解AI開?門?見(jiàn)?山的給出?人?人都能聽(tīng)懂的解釋:?人?工智能(AI)是?一種?高級(jí)的計(jì)算機(jī)程序AI有明確的?目標(biāo)AI可以“看到”或者“聽(tīng)到”環(huán)境的變化,可以感受到環(huán)境的變化他會(huì)根據(jù)不不同的環(huán)境做出不不同的反應(yīng),從?而實(shí)現(xiàn)既定的?目標(biāo)。簡(jiǎn)單的說(shuō)清楚AI是什什么下?面是書?面語(yǔ)的版本,看著更更嚴(yán)謹(jǐn)(裝逼)?一些:?人?工智能(ArtificialIntelligence,簡(jiǎn)稱AI)是計(jì)算機(jī)科學(xué)下的?一個(gè)分?支。某些?方?面像?人?一樣,AI可以“看到”和“聽(tīng)到”環(huán)境的變化,同時(shí)可以根據(jù)環(huán)境的變化做出合理理的判斷和?行行動(dòng),從?而實(shí)現(xiàn)某些?目標(biāo)。下?面就針對(duì)“環(huán)境感知”、“合理理判斷”和“實(shí)現(xiàn)?目標(biāo)”3個(gè)層?面來(lái)詳細(xì)對(duì)?比?一下普通的計(jì)算機(jī)程序和?人?工智能:普通程序?人?工智能感普通程序只知道這是?一張圖?片或者AI可以“理理解”圖?片和視頻內(nèi)有什什么內(nèi)容,知環(huán)視頻,但是并不不知道?里里?面的內(nèi)容是什什么。AI也可以“理理解”聽(tīng)到的聲?音是什什么意思。境合普通程序是很多死規(guī)則的組合,在AI可以主動(dòng)優(yōu)化?自?己的規(guī)則,也就是?大家理理判任何情況下都只能按照死規(guī)則?走。常說(shuō)的“學(xué)習(xí)”,但跟?人類的學(xué)習(xí)還是有很?大差異!斷實(shí)普通程序是沒(méi)有?目標(biāo)感,只會(huì)根據(jù)AI是可以有“?目標(biāo)感”的,并通過(guò)反饋不不斷現(xiàn)規(guī)則?自動(dòng)運(yùn)?行行。優(yōu)化?自?己的的?行行為來(lái)更更好的實(shí)現(xiàn)?目標(biāo)。?目標(biāo)雖然上?面的對(duì)?比讓AI看上去很強(qiáng)?大,但是實(shí)際上并?非如此,AI在某些場(chǎng)景表現(xiàn)的很好,但是在某些場(chǎng)景表現(xiàn)的很不不理理想。AI并沒(méi)有想象中強(qiáng)?大,它也會(huì)犯低級(jí)錯(cuò)誤AI的確具備了了理理解圖?片、視頻和語(yǔ)?音(?非結(jié)構(gòu)化數(shù)據(jù))的能?力力,但并不不代表這些能?力力已經(jīng)很強(qiáng)?大的。AI經(jīng)常犯?一些低級(jí)錯(cuò)誤,下?面就是?一個(gè)具體的案例例:AI沒(méi)有想象中強(qiáng)?大,有時(shí)會(huì)犯很低級(jí)的錯(cuò)誤AIAI類,同時(shí)叢林林背景導(dǎo)致AI將?自?行行?車把?手誤認(rèn)為是?鳥。右:吉他把猴?子變成了了?人,?而叢林林把吉他變成了了?鳥上圖顯示了了在?一張叢林林猴?子的照?片中ps上?一把吉他的效果。這導(dǎo)致深度?網(wǎng)絡(luò)將猴?子誤認(rèn)為?人類,同時(shí)將吉他誤認(rèn)為?鳥,?大概是因?yàn)樗J(rèn)為?人類?比猴?子更更可能攜帶吉他,?而?鳥類?比吉他更更可能出現(xiàn)在附近的叢林林中。AI對(duì)數(shù)據(jù)的依賴相當(dāng)于?人類對(duì)空?氣的依賴?目前(截?止到2019年年)是深度學(xué)習(xí)最流?行行的時(shí)代,深度學(xué)習(xí)在各個(gè)領(lǐng)域雖然表現(xiàn)出了了很強(qiáng)?大的能?力力,但是并不不是?人?人都能玩轉(zhuǎn)深度學(xué)習(xí)的,因?yàn)樗枰?量量的帶標(biāo)注的數(shù)據(jù),這種條件不不是?人?人都具備的。簡(jiǎn)單的做?一個(gè)類?比,獅?子的?力力量量很強(qiáng)?大,狗的?力力量量相?比較就弱?小很多。雖然獅?子的戰(zhàn)?斗?力力很強(qiáng),但是獅?子需要吃很多東?西才能保持戰(zhàn)?斗?力力。?而狗就不不需要吃那么多的東?西。如果不不給獅?子吃?足夠的東?西,他可能會(huì)躺在地上完全喪失戰(zhàn)?斗?力力。深度學(xué)習(xí)就類似獅?子,想讓他發(fā)揮出戰(zhàn)?斗?力力,就需要給他喂養(yǎng)?大量量的數(shù)據(jù)(相當(dāng)于獅?子的??食物)。不不然再出?色的深度學(xué)習(xí)模型都?無(wú)法發(fā)揮任何價(jià)值。AI需要?大量量數(shù)據(jù)才能發(fā)揮價(jià)值獅?子對(duì)??食物也是?比較挑剔的,不不是給他吃啥都?行行的,?而深度學(xué)習(xí)更更是如此!數(shù)據(jù)是否有標(biāo)注、數(shù)據(jù)是否“?干凈”、數(shù)據(jù)是否有多樣性……都對(duì)深度學(xué)習(xí)的學(xué)習(xí)結(jié)果影響巨?大!總結(jié)?一下的話:AI對(duì)數(shù)據(jù)量量級(jí)要求極?高AI對(duì)數(shù)據(jù)規(guī)范要求極?高像Google這種擁有海?量量數(shù)據(jù)的公司最容易易在AI領(lǐng)域有較?大的突破和優(yōu)勢(shì),?而?一般的?小公司很難跨越數(shù)據(jù)的?門檻。?人?工智能的發(fā)展歷史AI不不是什什么全新的東?西,他已經(jīng)發(fā)展了了?大?幾?十年年了了!下?面我們介紹?一下最具代表性的3個(gè)發(fā)展階段。上圖是從1950年年?至2017年年之間,?人?工智能領(lǐng)域出現(xiàn)的?一些?里里程碑?式的事件??偨Y(jié)下來(lái)會(huì)分為3?大階段:第?一次浪潮(?非智能對(duì)話機(jī)器??人)20世紀(jì)50年年代到60年年代1950年年10?月,圖靈提出了了?人?工智能(AI)的概念,同時(shí)提出了了\h圖靈測(cè)試來(lái)測(cè)試AI。圖靈測(cè)試提出沒(méi)有?幾年年,?人們就看到了了計(jì)算機(jī)通過(guò)圖靈測(cè)試的“曙光”。1966年年,?心理理治療機(jī)器??人ELIZA誕?生那個(gè)年年代的?人對(duì)他評(píng)價(jià)很?高,有些病?人甚?至喜歡跟機(jī)器??人聊天。但是他的實(shí)現(xiàn)邏輯?非常簡(jiǎn)單,就是?一個(gè)有限的對(duì)話庫(kù),當(dāng)病?人說(shuō)出某個(gè)關(guān)鍵詞時(shí),機(jī)器??人就回復(fù)特定的話。第?一次浪潮并沒(méi)有使?用什什么全新的技術(shù),?而是?用?一些技巧讓計(jì)算機(jī)看上去像是真?人,計(jì)算機(jī)本身并沒(méi)有智能。第?二次浪潮(語(yǔ)?音識(shí)別)20世紀(jì)80年年代到90年年代在第?二次浪潮中,語(yǔ)?音識(shí)別是最具代表性的?幾項(xiàng)突破之?一。核?心突破原因就是放棄了了符號(hào)學(xué)派的思路路,改為了了統(tǒng)計(jì)思路路解決實(shí)際問(wèn)題。在《?人?工智能》?一書中,李李開復(fù)詳細(xì)介紹了了這個(gè)過(guò)程,他也是參與其中的重要?人物之?一。第?二次浪潮最?大的突破是改變了了思路路,摒棄了了符號(hào)學(xué)派的思路路,轉(zhuǎn)?而使?用了了統(tǒng)計(jì)學(xué)思路路解決問(wèn)題。第三次浪潮(深度學(xué)習(xí)+?大數(shù)據(jù))21世紀(jì)初2006速學(xué)習(xí)算法》,其他重要的深度學(xué)習(xí)學(xué)術(shù)?文章也在這?一年年被發(fā)布,在基本理理論層?面取得了了若?干重?大突破。之所以第三次浪潮會(huì)來(lái)主要是2個(gè)條件已經(jīng)成熟:2000量量數(shù)據(jù)的存儲(chǔ)和分析成為了了可能。\hGPU的不不斷成熟提供了了必要的算?力力?支持,提?高了了算法的可?用性,降低了了算?力力的成本。深度學(xué)習(xí)引領(lǐng)了了第三次AI浪潮在各種條件成熟后,深度學(xué)習(xí)發(fā)揮出了了強(qiáng)?大的能?力力。在語(yǔ)?音識(shí)別、圖像識(shí)別、\hNLP等領(lǐng)域不不斷刷新紀(jì)錄。讓AI產(chǎn)品真正達(dá)到了了可?用(例例如語(yǔ)?音識(shí)別的錯(cuò)誤率只有6%,?人臉識(shí)別的準(zhǔn)確率超過(guò)?人類,\hBERT在11項(xiàng)表現(xiàn)中超過(guò)?人類…)的階段。第三次浪潮來(lái)襲,主要是因?yàn)?大數(shù)據(jù)和算?力力條件具備,這樣深度學(xué)習(xí)可以發(fā)揮出巨?大的威?力力,并且AI的表現(xiàn)已經(jīng)超越?人類,可以達(dá)到“可?用”的階段,?而不不只是科學(xué)研究。?人?工智能3次浪潮的不不同之處前兩次熱潮是學(xué)術(shù)研究主導(dǎo)的,第三次熱潮是現(xiàn)實(shí)商業(yè)需求主導(dǎo)的。前兩次熱潮多是市場(chǎng)宣傳層?面的,?而第三次熱潮是商業(yè)模式層?面的。前兩次熱潮多是學(xué)術(shù)界在勸說(shuō)政府和投資?人投錢,第三次熱潮多是投資?人主動(dòng)向熱點(diǎn)領(lǐng)域的學(xué)術(shù)項(xiàng)?目和創(chuàng)業(yè)項(xiàng)?目投錢。前兩次熱潮更更多時(shí)提出問(wèn)題,第三次熱潮更更多時(shí)解決問(wèn)題。想進(jìn)?一步了了解AI的歷史,推薦閱讀李李開復(fù)的《\h?人?工智能》,上?面關(guān)于3次浪潮的內(nèi)容都摘抄?自這本書。?人?工智能今天和未來(lái)的局限在哪?里里?在探尋AI的邊界時(shí),我們可以先簡(jiǎn)單粗暴暴的把AI分為3類:弱?人?工智能強(qiáng)?人?工智能超?人?工智能弱?人?工智能、強(qiáng)?人?工智能、超?人?工智能弱?人?工智能弱?人?工智能也稱限制領(lǐng)域?人?工智能(NarrowAI)或應(yīng)?用型?人?工智能(AppliedAI),指的是專注于且只能解決特定領(lǐng)域問(wèn)題的?人?工智能。例例如:AlphaGo、Siri、FaceID……強(qiáng)?人?工智能?又稱通?用?人?工智能(ArtificialGeneralIntelligence)或完全?人?工智能(FullAI),指的是可以勝任?人類所有?工作的?人?工智能。強(qiáng)?人?工智能具備以下能?力力:知識(shí)表示的能?力力,包括常識(shí)性知識(shí)的表示能?力力規(guī)劃能?力力學(xué)習(xí)能?力力使?用?自然語(yǔ)?言進(jìn)?行行交流溝通的能?力力將上述能?力力整合起來(lái)實(shí)現(xiàn)既定?目標(biāo)的能?力力超?人?工智能假設(shè)計(jì)算機(jī)程序通過(guò)不不斷發(fā)展,可以?比世界上最聰明,最有天賦的?人類還聰明,那么,由此產(chǎn)?生的?人?工智能系統(tǒng)就可以被稱為超?人?工智能。我們當(dāng)前所處的階段是弱?人?工智能,強(qiáng)?人?工智能還沒(méi)有實(shí)現(xiàn)(甚?至差距較遠(yuǎn)),?而超?人?工智能更更是連影?子都看不不到。所以“特定領(lǐng)域”AI?無(wú)法逾越的邊界。?人?工智能未來(lái)的邊界是什什么?如果在深?入?一點(diǎn),從理理論層?面來(lái)解釋AI的局限性,就要把圖靈?大師搬出來(lái)了了。圖靈在上世紀(jì)30年年代中期,就在思考3個(gè)問(wèn)題:世界上是否所有數(shù)學(xué)問(wèn)題都有明確的答案?如果有明確的答案,是否可以通過(guò)有限的步驟計(jì)算出答案?對(duì)于那些有可能在有限步驟計(jì)算出來(lái)的數(shù)學(xué)問(wèn)題,能否有?一種假象的機(jī)械,讓他不不斷運(yùn)動(dòng),最后當(dāng)機(jī)器?停下來(lái)的時(shí)候,那個(gè)數(shù)學(xué)問(wèn)題就解決了了?圖靈還真設(shè)計(jì)出來(lái)?一套?方法,后?人稱它為圖靈機(jī)。今天所有的計(jì)算機(jī),包括全世界正在設(shè)計(jì)的新的計(jì)算機(jī),從解決問(wèn)題的能?力力來(lái)講,都沒(méi)有超出圖靈機(jī)的范疇。(?大家都是地球?人,差距怎么就這么?大呢???)通過(guò)上?面的3個(gè)問(wèn)題,圖靈已經(jīng)劃出了了界限,這個(gè)界限不不但適?用于今天的AI,也適?用于未來(lái)的AI。下?面我們?cè)龠M(jìn)?一步把邊界清晰的描述?一下:AI可以解決的問(wèn)題其實(shí)?非常局限世界上有很多問(wèn)題,只有?一?小部分是數(shù)學(xué)問(wèn)題在數(shù)學(xué)問(wèn)題?里里,只有?一?小部分是有解的在有解的問(wèn)題中,只有?一部分是理理想狀態(tài)的圖靈機(jī)可以解決的在后?一部分(圖靈機(jī)可解決的部分),?又只有?一部分是今天的計(jì)算機(jī)可以解決的AI可以解決的問(wèn)題,?又只是計(jì)算機(jī)可以解決問(wèn)題的?一部分。擔(dān)?心?人?工智能太強(qiáng)?大?你想多了了!在?一些特定場(chǎng)景中,AI可以表現(xiàn)的很好,但是在?大部分場(chǎng)景中,AI并沒(méi)有什什么?用。如何客觀的看待?人?工智能?技術(shù)總是在短期內(nèi)被?高估,但是在?長(zhǎng)期?又被低估。24%的?人擔(dān)?心機(jī)器??人會(huì)從?人類?手?里里接管地球\hPEGA6000AI的看法,有下?面?一些結(jié)果:34%的?人認(rèn)為?自?己使?用過(guò)AI,這些?人中84%的?人實(shí)際使?用過(guò)50%以上的?人搞不不清楚AI到底有哪些能?力力60%的?人并不不知道AmazonAlexa和GoogleHome使?用了了AI技術(shù)72%的?人懼怕AI技術(shù)對(duì)?人類的威脅,24%的?人擔(dān)?心機(jī)器??人會(huì)從?人類?手?里里接管地球\h查看更更多調(diào)查結(jié)果,可以訪問(wèn)《WhatconsumersreallythinkaboutAI:Aglobalstudy》【附帶1分鐘視頻】AI已經(jīng)來(lái)了了,并且會(huì)?飛速發(fā)展我們每天都在使?用的輸?入法就使?用了了很多AI相關(guān)的技術(shù),但是很多?人并不不知道。不不要?小看輸?入法?里里使?用的這些技術(shù),它能使我們的打字效率?大?大提?高,如果沒(méi)有這些技術(shù),我們會(huì)多花數(shù)百年年的時(shí)間在打字上!除了了輸?入法,?大家都使?用過(guò)的AI產(chǎn)品還有:美顏相機(jī)?里里的?一鍵美顏功能抖?音?里里的道具功能微信?里里的語(yǔ)?音轉(zhuǎn)?文字智能?手機(jī)?里里的操作系統(tǒng)……AIAI還會(huì)對(duì)各?行行各業(yè)產(chǎn)?生巨?大的影響。我們需要以開放的?心態(tài)擁抱AI,?大部分情況下它都是?人類的朋友,?而不不是敵?人。AI并沒(méi)有我們想象中那么厲害AlphaGo在圍棋上碾壓?人類AlphaGo戰(zhàn)勝李李世?石,這個(gè)熱點(diǎn)?幾乎所有?人都知道。很多?人通過(guò)這件事情開始擔(dān)?心AI未來(lái)對(duì)?人類的威脅。AlphaGo不不管下圍棋有多厲害,對(duì)我們的?生活都沒(méi)有半?毛錢的關(guān)系,那只是?一AI產(chǎn)?生偏?見(jiàn):AI的能?力力已經(jīng)超越了了?人類AI未來(lái)會(huì)?無(wú)所不不能AI對(duì)?人類是威脅,我們要限制AI的發(fā)展……不不要擔(dān)?心AI會(huì)取代你的?工作在“?人?工智能威脅論”?里里,?大家最擔(dān)?心的是AI會(huì)取代?大量量的?工作崗位,導(dǎo)致?大量量普通?老老百姓失業(yè)。這件事的確會(huì)發(fā)?生:蒸汽機(jī)出現(xiàn)后,機(jī)器?取代了了?大量量的底層勞動(dòng)?力力;電話出現(xiàn)后,不不再需要那么多的郵遞員了了;互聯(lián)?網(wǎng)出現(xiàn)后,更更是影響了了各?行行各業(yè);但是,這是?一件好事:每?一項(xiàng)新技術(shù)都會(huì)讓?一部分?人下崗,?而這些?人現(xiàn)在有了了更更好的崗位上?一些職業(yè)消失了了,但是會(huì)誕?生更更多的新職業(yè)(如果讓你選擇“美甲”和“耕地”,你會(huì)如何選擇?)簡(jiǎn)單總結(jié)?一下:可?見(jiàn)的未來(lái),AI還是?一種?工具AI跟計(jì)算機(jī)、互聯(lián)?網(wǎng)?一樣,是歷史潮流,我們要了了解它、適應(yīng)它、利利?用它AI的確會(huì)取代部分崗位,但是會(huì)出現(xiàn)更更多新職業(yè),不不?用擔(dān)?心下崗問(wèn)題AI協(xié)作,誰(shuí)的價(jià)值就會(huì)越?大機(jī)器?學(xué)習(xí)–MACHINELEARNING|ML?目錄機(jī)器?學(xué)習(xí)、?人?工智能、深度學(xué)習(xí)是什什么關(guān)系?什什么是機(jī)器?學(xué)習(xí)?監(jiān)督學(xué)習(xí)、?非監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)機(jī)器?學(xué)習(xí)實(shí)操的7個(gè)步驟15種經(jīng)典機(jī)器?學(xué)習(xí)算法機(jī)器?學(xué)習(xí)、?人?工智能、深度學(xué)習(xí)是什什么關(guān)系?1956AI概念,短短3年年后(1959)\hArthurSamuel就提出了了機(jī)器?學(xué)習(xí)的概念:Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.機(jī)器?學(xué)習(xí)研究和構(gòu)建的是?一種特殊算法(?而?非某?一個(gè)特定的算法),能夠讓計(jì)算機(jī)?自?己在數(shù)據(jù)中學(xué)習(xí)從?而進(jìn)?行行預(yù)測(cè)。所以,機(jī)器?學(xué)習(xí)不不是某種具體的算法,?而是很多算法的統(tǒng)稱。機(jī)器?學(xué)習(xí)包含了了很多種不不同的算法,深度學(xué)習(xí)就是其中之?一,其他?方法包括決策樹,聚類,?貝葉斯等。深度學(xué)習(xí)的靈感來(lái)?自?大腦的結(jié)構(gòu)和功能,即許多神經(jīng)元的互連。?人?工神經(jīng)?網(wǎng)絡(luò)(ANN)模擬?大腦?生物結(jié)構(gòu)的算法。不不管是機(jī)器?學(xué)習(xí)還是深度學(xué)習(xí),都屬于?人?工智能(AI)的范疇。所以?人?工智能、機(jī)器?學(xué)習(xí)、深度學(xué)習(xí)可以?用下?面的圖來(lái)表示:?人?工智能、機(jī)器?學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系什什么是機(jī)器?學(xué)習(xí)?在解釋機(jī)器?學(xué)習(xí)的原理理之前,先把最精髓的基本思路路介紹給?大家,理理解了了機(jī)器?學(xué)習(xí)最本質(zhì)的東?西,就能更更好的利利?用機(jī)器?學(xué)習(xí),同時(shí)這個(gè)解決問(wèn)題的思維還可以?用到?工作和?生活中。機(jī)器?學(xué)習(xí)的基本思路路把現(xiàn)實(shí)?生活中的問(wèn)題抽象成數(shù)學(xué)模型,并且很清楚模型中不不同參數(shù)的作?用利利?用數(shù)學(xué)?方法對(duì)這個(gè)數(shù)學(xué)模型進(jìn)?行行求解,從?而解決現(xiàn)實(shí)?生活中的問(wèn)題評(píng)估這個(gè)數(shù)學(xué)模型,是否真正的解決了了現(xiàn)實(shí)?生活中的問(wèn)題,解決的如何??無(wú)論使?用什什么算法,使?用什什么樣的數(shù)據(jù),最根本的思路路都逃不不出上?面的3步!機(jī)器?學(xué)習(xí)的基本思路路當(dāng)我們理理解了了這個(gè)基本思路路,我們就能發(fā)現(xiàn):不不是所有問(wèn)題都可以轉(zhuǎn)換成數(shù)學(xué)問(wèn)題的。那些沒(méi)有辦法轉(zhuǎn)換的現(xiàn)實(shí)問(wèn)題AI就沒(méi)有辦法解決。同時(shí)最難的部分也就是把現(xiàn)實(shí)問(wèn)題轉(zhuǎn)換為數(shù)學(xué)問(wèn)題這?一步。機(jī)器?學(xué)習(xí)的原理理下?面以監(jiān)督學(xué)習(xí)為例例,給?大家講解?一下機(jī)器?學(xué)習(xí)的實(shí)現(xiàn)原理理。假如我們正在教?小朋友識(shí)字(?一、?二、三)。我們?首先會(huì)拿出3張卡?片,然后便便讓?小朋友看卡?片,?一邊說(shuō)“?一條橫線的是?一、兩條橫線的是?二、三條橫線的是三”。不不斷重復(fù)上?面的過(guò)程,?小朋友的?大腦就在不不停的學(xué)習(xí)。當(dāng)重復(fù)的次數(shù)?足夠多時(shí),?小朋友就學(xué)會(huì)了了?一個(gè)新技能——認(rèn)識(shí)漢字:?一、?二、三。我們?用上?面?人類的學(xué)習(xí)過(guò)程來(lái)類?比機(jī)器?學(xué)習(xí)。機(jī)器?學(xué)習(xí)跟上?面提到的?人類學(xué)習(xí)過(guò)程很相似。上?面提到的認(rèn)字的卡?片在機(jī)器?學(xué)習(xí)中叫——訓(xùn)練集上?面提到的“?一條橫線,兩條橫線”這種區(qū)分不不同漢字的屬性叫——特征?小朋友不不斷學(xué)習(xí)的過(guò)程叫——建模學(xué)會(huì)了了識(shí)字后總結(jié)出來(lái)的規(guī)律律叫——模型通過(guò)訓(xùn)練集,不不斷識(shí)別特征,不不斷建模,最后形成有效的模型,這個(gè)過(guò)程就叫“機(jī)器?學(xué)習(xí)”!監(jiān)督學(xué)習(xí)、?非監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)機(jī)器?學(xué)習(xí)根據(jù)訓(xùn)練?方法?大致可以分為3?大類:監(jiān)督學(xué)習(xí)?非監(jiān)督學(xué)習(xí)強(qiáng)化學(xué)習(xí)除此之外,?大家可能還聽(tīng)過(guò)“半監(jiān)督學(xué)習(xí)”之類的說(shuō)法,但是那些都是基于上?面3類的變種,本質(zhì)沒(méi)有改變。監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)是指我們給算法?一個(gè)數(shù)據(jù)集,并且給定正確答案。機(jī)器?通過(guò)數(shù)據(jù)來(lái)學(xué)習(xí)正確答案的計(jì)算?方法。舉個(gè)栗栗?子:我們準(zhǔn)備了了?一?大堆貓和狗的照?片,我們想讓機(jī)器?學(xué)會(huì)如何識(shí)別貓和狗。當(dāng)我們使?用監(jiān)督學(xué)習(xí)的時(shí)候,我們需要給這些照?片打上標(biāo)簽。將打好標(biāo)簽的照?片?用來(lái)訓(xùn)練我們給照?片打的標(biāo)簽就是“正確答案”,機(jī)器?通過(guò)?大量量學(xué)習(xí),就可以學(xué)會(huì)在新照?片中認(rèn)出貓和狗。當(dāng)機(jī)器?遇到新的?小狗照?片時(shí)就能認(rèn)出他這種通過(guò)?大量量?人?工打標(biāo)簽來(lái)幫助機(jī)器?學(xué)習(xí)的?方式就是監(jiān)督學(xué)習(xí)。這種學(xué)習(xí)?方式效果?非常好,但是成本也?非常?高。\h了了解更更多關(guān)于監(jiān)督學(xué)習(xí)?非監(jiān)督學(xué)習(xí)?非監(jiān)督學(xué)習(xí)中,給定的數(shù)據(jù)集沒(méi)有“正確答案”,所有的數(shù)據(jù)都是?一樣的。?無(wú)監(jiān)督學(xué)習(xí)的任務(wù)是從給定的數(shù)據(jù)集中,挖掘出潛在的結(jié)構(gòu)。舉個(gè)栗栗?子:我們把?一堆貓和狗的照?片給機(jī)器?,不不給這些照?片打任何標(biāo)簽,但是我們希望機(jī)器?能夠?qū)⑦@些照?片分分類。將不不打標(biāo)簽的照?片給機(jī)器?通過(guò)學(xué)習(xí),機(jī)器?會(huì)把這些照?片分為2類,?一類都是貓的照?片,?一類都是狗的照?片。雖然跟上?面的監(jiān)督學(xué)習(xí)看上去結(jié)果差不不多,但是有著本質(zhì)的差別:?非監(jiān)督學(xué)習(xí)中,雖然照?片分為了了貓和狗,但是機(jī)器?并不不器?來(lái)說(shuō),相當(dāng)于分成了了A、B兩類。\h了了解更更多關(guān)于?非監(jiān)督學(xué)習(xí)強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)更更接近?生物學(xué)習(xí)的本質(zhì),因此有望獲得更更?高的智能。它關(guān)注的是智能體如何在環(huán)境中采取?一系列列?行行為,從?而獲得最?大的累積回報(bào)。通過(guò)強(qiáng)化學(xué)習(xí),?一個(gè)智能體應(yīng)該知道在什什么狀態(tài)下應(yīng)該采取什什么?行行為。最典型的場(chǎng)景就是打游戲。2019年年1?月25?日,AlphaStar(Google研發(fā)的?人?工智能程序,采?用了了強(qiáng)化學(xué)習(xí)的訓(xùn)練?方式)完虐星際爭(zhēng)霸的職業(yè)選?手職業(yè)選?手“TLO”和“MANA”。\h新聞鏈接了了解更更多關(guān)于強(qiáng)化學(xué)習(xí)機(jī)器?學(xué)習(xí)實(shí)操的7個(gè)步驟通過(guò)上?面的內(nèi)容,我們對(duì)機(jī)器?學(xué)習(xí)已經(jīng)有?一些模糊的概念了了,這個(gè)時(shí)候肯定會(huì)特別好奇:到底怎么使?用機(jī)器?學(xué)習(xí)?機(jī)器?學(xué)習(xí)在實(shí)際操作層?面?一共分為7步:收集數(shù)據(jù)數(shù)據(jù)準(zhǔn)備選擇?一個(gè)模型訓(xùn)練評(píng)估參數(shù)調(diào)整預(yù)測(cè)(開始使?用)機(jī)器?學(xué)習(xí)的7個(gè)步驟假設(shè)我們的任務(wù)是通過(guò)酒精度和顏?色來(lái)區(qū)分紅酒和啤酒,下?面詳細(xì)介紹?一下機(jī)器?學(xué)習(xí)中每?一個(gè)步驟是如何?工作的。案例例?目標(biāo):區(qū)分紅酒和啤酒步驟1:收集數(shù)據(jù)我們?cè)诔匈I來(lái)?一堆不不同種類的啤酒和紅酒,然后再買來(lái)測(cè)量量顏?色的光譜儀和?用于測(cè)量量酒精度的設(shè)備。這個(gè)時(shí)候,我們把買來(lái)的所有酒都標(biāo)記出他的顏?色和酒精度,會(huì)形成下?面這張表格。顏?色酒精度種類6105啤酒59913紅酒69314紅酒………這?一步?非常重要,因?yàn)閿?shù)據(jù)的數(shù)量量和質(zhì)量量直接決定了了預(yù)測(cè)模型的好壞。步驟2:數(shù)據(jù)準(zhǔn)備在這個(gè)例例?子中,我們的數(shù)據(jù)是很?工整的,但是在實(shí)際情況中,我們收集到的數(shù)據(jù)會(huì)有很多問(wèn)題,所以會(huì)涉及到數(shù)據(jù)清洗等?工作。當(dāng)數(shù)據(jù)本身沒(méi)有什什么問(wèn)題后,我們將數(shù)據(jù)分成3個(gè)部分:訓(xùn)練集(60%)、驗(yàn)證集(20%)、測(cè)試集(20%),?用于后?面的驗(yàn)證和評(píng)估?工作。數(shù)據(jù)要分為3個(gè)部分:訓(xùn)練集、驗(yàn)證集、測(cè)試集\h關(guān)于數(shù)據(jù)準(zhǔn)備部分,還有?非常多的技巧,感興趣的可以看看《AI數(shù)據(jù)集最常?見(jiàn)的6?大問(wèn)題\h(附解決?方案)》步驟3:選擇?一個(gè)模型研究?人員和數(shù)據(jù)科學(xué)家多年年來(lái)創(chuàng)造了了許多模型。有些?非常適合圖像數(shù)據(jù),有些?非常適合于序列列(如?文本或?音樂(lè)),有些?用于數(shù)字?jǐn)?shù)據(jù),有些?用于基于?文本的數(shù)據(jù)。在我們的例例?子中,由于我們只有2個(gè)特征,顏?色和酒精度,我們可以使?用?一個(gè)?小的線性模型,這是?一個(gè)相當(dāng)簡(jiǎn)單的模型。步驟4:訓(xùn)練?大部分?人都認(rèn)為這個(gè)是最重要的部分,其實(shí)并?非如此~數(shù)據(jù)數(shù)量量和質(zhì)量量、還有模型的選擇?比訓(xùn)練本身重要更更多(訓(xùn)練知識(shí)臺(tái)上的3分鐘,更更重要的是臺(tái)下的10年年功)。這個(gè)過(guò)程就不不需要?人來(lái)參與的,機(jī)器?獨(dú)?立就可以完成,整個(gè)過(guò)程就好像是在做算術(shù)題。因?yàn)闄C(jī)器?學(xué)習(xí)的本質(zhì)就是將問(wèn)題轉(zhuǎn)化為數(shù)學(xué)問(wèn)題,然后解答數(shù)學(xué)題的過(guò)程。步驟5:評(píng)估?一旦訓(xùn)練完成,就可以評(píng)估模型是否有?用。這是我們之前預(yù)留留的驗(yàn)證集和測(cè)試集發(fā)揮作?用F值。這個(gè)過(guò)程可以讓我們看到模型如何對(duì)尚未看到的數(shù)是如何做預(yù)測(cè)的。這意味著代表模型在現(xiàn)實(shí)世界中的表現(xiàn)。步驟6:參數(shù)調(diào)整完成評(píng)估后,您可能希望了了解是否可以以任何?方式進(jìn)?一步改進(jìn)訓(xùn)練。我們可以通過(guò)調(diào)整參數(shù)來(lái)做到這?一點(diǎn)。當(dāng)我們進(jìn)?行行訓(xùn)練時(shí),我們隱含地假設(shè)了了?一些參數(shù),我們可以通過(guò)認(rèn)為的調(diào)整這些參數(shù)讓模型表現(xiàn)的更更出?色。步驟7:預(yù)測(cè)我們上?面的6個(gè)步驟都是為了了這?一步來(lái)服務(wù)的。這也是機(jī)器?學(xué)習(xí)的價(jià)值。這個(gè)時(shí)候,當(dāng)我們買來(lái)?一瓶新的酒,只要告訴機(jī)器?他的顏?色和酒精度,他就會(huì)告訴你,這時(shí)啤酒還是紅酒了了。YouTube上有?一個(gè)視頻介紹了了這7個(gè)步驟\hThe7StepsofMachineLearning(需要科學(xué)上?網(wǎng))15種經(jīng)典機(jī)器?學(xué)習(xí)算法算法 訓(xùn)練?方式\h線性回歸 監(jiān)督學(xué)習(xí)\h邏輯回歸 監(jiān)督學(xué)習(xí)\h線性判別分析 監(jiān)督學(xué)習(xí)\h決策樹 監(jiān)督學(xué)習(xí)\h樸素?貝葉斯 監(jiān)督學(xué)習(xí)\hK鄰近 監(jiān)督學(xué)習(xí)\h學(xué)習(xí)向量量量量化 監(jiān)督學(xué)習(xí)\h?支持向量量機(jī) 監(jiān)督學(xué)習(xí)\h隨機(jī)森林林 監(jiān)督學(xué)習(xí)\hAdaBoost 監(jiān)督學(xué)習(xí)?高斯混合模型 ?非監(jiān)督學(xué)習(xí)\h限制波爾茲曼機(jī) ?非監(jiān)督學(xué)習(xí)\hK-means聚類 ?非監(jiān)督學(xué)習(xí)最?大期望算法 ?非監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)–SUPERVISEDLEARNING?目錄什什么是監(jiān)督學(xué)習(xí)?監(jiān)督學(xué)習(xí)的2個(gè)任務(wù):回歸、分類「回歸」案例例:芝麻信?用分是怎么來(lái)的?「分類」案例例:如何預(yù)測(cè)離婚主流的監(jiān)督學(xué)習(xí)算法什什么是監(jiān)督學(xué)習(xí)?監(jiān)督學(xué)習(xí)是機(jī)器?學(xué)習(xí)中的?一種訓(xùn)練?方式/學(xué)習(xí)?方式:監(jiān)督學(xué)習(xí)需要有明確的?目標(biāo),很清楚?自?己想要什什么結(jié)果。?比如:按照“既定規(guī)則”來(lái)分類、預(yù)測(cè)某個(gè)具體的值…監(jiān)督并不不是指?人站在機(jī)器?旁邊看機(jī)器?做的對(duì)不不對(duì),?而是下?面的流程:選擇?一個(gè)適合?目標(biāo)任務(wù)的數(shù)學(xué)模型先把?一部分已知的“問(wèn)題和答案”(訓(xùn)練集)給機(jī)器?去學(xué)習(xí)機(jī)器?總結(jié)出了了?自?己的“?方法論”?人類把”新的問(wèn)題”(測(cè)試集)給機(jī)器?,讓他去解答上?面提到的問(wèn)題和答案只是?一個(gè)?比喻,假如我們想要完成?文章分類的任務(wù),則是下?面的?方式:選擇?一個(gè)合適的數(shù)學(xué)模型把?一堆已經(jīng)分好類的?文章和他們的分類給機(jī)器?機(jī)器?學(xué)會(huì)了了分類的“?方法論”機(jī)器?學(xué)會(huì)后,再丟給他?一些新的?文章(不不帶分類),讓機(jī)器?預(yù)測(cè)這些?文章的分類監(jiān)督學(xué)習(xí)的2個(gè)任務(wù):回歸、分類監(jiān)督學(xué)習(xí)有2個(gè)主要的任務(wù):回歸分類回歸:預(yù)測(cè)連續(xù)的、具體的數(shù)值。?比如:?支付寶?里里的芝麻信?用分?jǐn)?shù)(下?面有詳細(xì)講解)分類:對(duì)各種事物分?門別類,?用于離散型(什什么是離散?)預(yù)測(cè)。?比如:「回歸」案例例:芝麻信?用分是怎么來(lái)的?下?面要說(shuō)的是個(gè)?人信?用評(píng)估?方法——\hFICO。他跟芝麻信?用類似,?用來(lái)評(píng)估個(gè)?人的信?用狀況。FICO評(píng)分系統(tǒng)得出的信?用分?jǐn)?shù)范圍在300~850分之間,分?jǐn)?shù)越?高,說(shuō)明信?用?風(fēng)險(xiǎn)越?小。下?面我們來(lái)模擬?一下FICO的發(fā)明過(guò)程,這個(gè)過(guò)程就是監(jiān)督學(xué)習(xí)?力力的回歸。步驟1:構(gòu)建問(wèn)題,選擇模型我們?首先找出個(gè)?人信?用的影響因素,從邏輯上講?一個(gè)?人的體重跟他的信?用應(yīng)該沒(méi)有關(guān)系,?比如我們身邊很講信?用的?人,有胖?子也有瘦?子。?而財(cái)富總額貌似跟信?用有關(guān),因?yàn)?馬云不不講信?用的損失是?非常巨?大的,所以?大家從來(lái)沒(méi)有聽(tīng)說(shuō)?馬云會(huì)不不還信?用卡!?而?一個(gè)乞丐不不講信?用的損失是很?小的,這條街混不不下去了了換?一條街繼續(xù)。所以根據(jù)判斷,找出了了下?面5個(gè)影響因素:付款記錄信?用記錄跨度(?自開戶以來(lái)的信?用記錄、特定類型賬戶開戶以來(lái)的信?用記錄新賬戶(近期開戶數(shù)?目、特定類型賬戶的開戶?比例例…)信?用類別(各種賬戶的數(shù)?目)這個(gè)時(shí)候,我們就構(gòu)建了了?一個(gè)簡(jiǎn)單的模型:f可以簡(jiǎn)單理理解為?一個(gè)特定的公式,這個(gè)公式可以將5個(gè)因素跟個(gè)?人信?用分形成關(guān)聯(lián)。我們的?目標(biāo)就是得到f這個(gè)公式具體是什什么,這樣我們只要有了了?一個(gè)?人的這5種數(shù)據(jù),就可以得到?一個(gè)?人的信?用分?jǐn)?shù)了了。步驟2:收集已知數(shù)據(jù)為了了找出這個(gè)公式f,我們需要先收集?大量量的已知數(shù)據(jù),這些數(shù)據(jù)必須包含?一個(gè)?人的5種數(shù)據(jù)和他/她的信?用狀態(tài)(把信?用狀態(tài)轉(zhuǎn)化為分?jǐn)?shù))。我們把數(shù)據(jù)分成?幾個(gè)部分,?一部分?用來(lái)訓(xùn)練,?一部分?用來(lái)測(cè)試和驗(yàn)證。步驟3:訓(xùn)練出理理想模型有了了這些數(shù)據(jù),我們通過(guò)機(jī)器?學(xué)習(xí),就能”猜測(cè)”出這5種數(shù)據(jù)和信?用分?jǐn)?shù)的關(guān)系。這個(gè)關(guān)系就是公式f。然后我們?cè)?用驗(yàn)證數(shù)據(jù)和測(cè)試數(shù)據(jù)來(lái)驗(yàn)證?一下這個(gè)公式是否OK。測(cè)試驗(yàn)證的具體?方法是:將5種數(shù)據(jù)套?入公式,計(jì)算出信?用分?用計(jì)算出來(lái)的信?用分跟這個(gè)?人實(shí)際的信?用分(預(yù)先準(zhǔn)備好的)進(jìn)?行行?比較評(píng)估公式的準(zhǔn)確度,如果問(wèn)題很?大再進(jìn)?行行調(diào)整優(yōu)化步驟4:對(duì)新?用戶進(jìn)?行行預(yù)測(cè)當(dāng)我們想知道?一個(gè)新?用戶的信?用狀況時(shí),只需要收集到他的這5種數(shù)據(jù),套進(jìn)公式f計(jì)算?一遍就知道結(jié)果了了!好了了,上?面就是?一個(gè)跟?大家息息相關(guān)的回歸模型,?大致思路路就是上?面所講的思路路,整個(gè)過(guò)\h程做了了?一些簡(jiǎn)化,如果想查看完整的過(guò)程,可以查看《機(jī)器?學(xué)習(xí)-機(jī)器?學(xué)習(xí)實(shí)操的7個(gè)步驟》「分類」案例例:如何預(yù)測(cè)離婚美國(guó)?心理理學(xué)家?戈特曼博?士?用?大數(shù)據(jù)還原婚姻關(guān)系的真相,他的?方法就是分類的思路路。?戈特曼博?士在觀察和聆聽(tīng)?一對(duì)夫妻5分鐘的談話后,便便能預(yù)測(cè)他們是否會(huì)離婚,且預(yù)測(cè)準(zhǔn)確率?高達(dá)94%!他的這項(xiàng)研究還出了了?一本書《\h幸福的婚姻》(?豆瓣8.4分)。步驟1:構(gòu)建問(wèn)題,選擇模型?戈特曼提出,對(duì)話能反映出夫妻之間潛在的問(wèn)題,他們?cè)趯?duì)話中的爭(zhēng)吵、歡笑、調(diào)侃和情感表露露創(chuàng)造了了某種情感關(guān)聯(lián)。通過(guò)這些對(duì)話中的情緒關(guān)聯(lián)可以將夫妻分為不不同的類型,代表不不同的離婚概率。步驟2:收集已知數(shù)據(jù)研究?人員邀請(qǐng)了了700對(duì)夫妻參與實(shí)驗(yàn)。他們單獨(dú)在?一間屋?子?里里相對(duì)坐下,然后談?wù)?一個(gè)有爭(zhēng)論的話題,?比如?金金錢和性,或是與姻親的關(guān)系。默?里里和?戈特曼讓每?一對(duì)夫妻持續(xù)談?wù)撨@個(gè)話題15分鐘,并拍攝下這個(gè)過(guò)程。觀察者看完這些視頻之后,就根據(jù)丈夫和妻?子之間的談話給他們打分。步驟3:訓(xùn)練出理理想模型?戈特曼的?方法并不不是?用機(jī)器?學(xué)習(xí)來(lái)得到結(jié)果,不不過(guò)原理理都是類似的。他得到的結(jié)論如下:?首先,他們將夫妻雙?方的分?jǐn)?shù)標(biāo)繪在?一個(gè)圖表上,兩條線的交叉點(diǎn)就可以說(shuō)明婚姻能否?長(zhǎng)久穩(wěn)定。如果丈夫或妻?子持續(xù)得負(fù)分,兩?人很可能會(huì)?走向離婚。重點(diǎn)在于定量量談話中正負(fù)作?用的?比率。理理想中的?比率是5∶1,如果低于這個(gè)?比例例,婚姻就遇到問(wèn)題了了。最后,將結(jié)果放在?一個(gè)數(shù)學(xué)模型上,這個(gè)模型?用差分?方程式凸顯出成功婚姻的潛在特點(diǎn)。?戈特曼根據(jù)得分,將這些夫妻分成5組:幸福的夫妻:冷靜、親密、相互扶持、關(guān)系友好。他們更更喜歡分享經(jīng)驗(yàn)。?無(wú)效的夫妻:他們盡最?大努?力力避免沖突,只是通過(guò)積極回應(yīng)對(duì)?方的?方式。多變的夫妻:他們浪漫?而熱情,可爭(zhēng)論異常激烈烈。他們時(shí)?而穩(wěn)定時(shí)?而不不穩(wěn)定,可總的來(lái)說(shuō)不不怎么幸福。敵對(duì)的夫妻:?一?方不不想談?wù)撃臣?,?一?方也同意,所以,兩者之間沒(méi)有交流。彼此?無(wú)感的夫妻:?一?方興致勃勃地想要爭(zhēng)論?一番,可另?一?方對(duì)討論的話題根本不不感興趣。該數(shù)學(xué)模型呈現(xiàn)了了兩種穩(wěn)定型夫妻(關(guān)系和諧的夫妻和關(guān)系不不和諧的夫妻)和兩種不不穩(wěn)定型夫妻(敵對(duì)夫妻和?無(wú)感夫妻)之間的區(qū)別。?而據(jù)預(yù)測(cè),不不穩(wěn)定的夫妻可能會(huì)?一直保持婚姻關(guān)系,盡管他們的婚姻不不穩(wěn)定。步驟4:對(duì)新?用戶進(jìn)?行行預(yù)測(cè)12年年以來(lái),每隔?一兩年年,默?里里和?戈特曼都會(huì)與參與研究的那700對(duì)夫妻交流。兩個(gè)?人的公式對(duì)離婚率的預(yù)測(cè)達(dá)到了了94%的準(zhǔn)確率。主流的監(jiān)督學(xué)習(xí)算法算法類型簡(jiǎn)介樸素?貝葉斯分類葉斯分類法假定?一個(gè)屬性值在給定類的影響?yīng)?立于其他屬性的——類條件獨(dú)?立性。決策樹分類決策樹是?一種簡(jiǎn)單但?廣泛使?用的分類器?,它通過(guò)訓(xùn)練數(shù)據(jù)構(gòu)建決策樹,對(duì)未知的數(shù)據(jù)進(jìn)?行行分類。\hSVM分類?支持向量量機(jī)把分類問(wèn)題轉(zhuǎn)化為尋找分類平?面的問(wèn)題,并通過(guò)最?大化分類邊界點(diǎn)距離分類平?面的距離來(lái)實(shí)現(xiàn)分類。邏輯回歸分邏輯回歸是?用于處理理因變量量為分類變量量的回歸問(wèn)題,常?見(jiàn)的是?二類分類或?二項(xiàng)分布問(wèn)題,也可以處理理多分類問(wèn)題,它實(shí)際上是屬于?一種分類?方法。線性回歸回線性回歸是處理理回歸任務(wù)最常?用的算法之?一。該算法的形式?十分歸簡(jiǎn)單,它期望使?用?一個(gè)超平?面擬合數(shù)據(jù)集(只有兩個(gè)變量量的時(shí)候就是?一條直線)?;貧w樹回回歸樹(決策樹的?一種)通過(guò)將數(shù)據(jù)集重復(fù)分割為不不同的分?支?而歸實(shí)現(xiàn)分層學(xué)習(xí),分割的標(biāo)準(zhǔn)是最?大化每?一次分離的信息增益。這種分?支結(jié)構(gòu)讓回歸樹很?自然地學(xué)習(xí)到?非線性關(guān)系。K鄰近分通過(guò)搜索K個(gè)最相似的實(shí)例例(鄰居)的整個(gè)訓(xùn)練集并總結(jié)那些K個(gè)類實(shí)例例的輸出變量量,對(duì)新數(shù)據(jù)點(diǎn)進(jìn)?行行預(yù)測(cè)。+回歸Adaboosting分\hAdaboost?目的就是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)?一系列列的弱分類器?或基本類分類器?,然后將這些弱分類器?組合成?一個(gè)強(qiáng)分類器?。+回歸神經(jīng)?網(wǎng)絡(luò)分它從信息處理理?角度對(duì)?人腦神經(jīng)元?網(wǎng)絡(luò)進(jìn)?行行抽象,建?立某種簡(jiǎn)單模類型,按不不同的連接?方式組成不不同的?網(wǎng)絡(luò)。+回歸LEARNING|UL?目錄什什么是?無(wú)監(jiān)督學(xué)習(xí)??無(wú)監(jiān)督學(xué)習(xí)的使?用場(chǎng)景常?見(jiàn)的2類?無(wú)監(jiān)督學(xué)習(xí)算法?無(wú)監(jiān)督學(xué)習(xí)是機(jī)器?學(xué)習(xí)領(lǐng)域內(nèi)的?一種學(xué)習(xí)?方式。本?文將給?大家解釋他的基本概念,告訴?大家?無(wú)監(jiān)督學(xué)習(xí)可以?用?用到哪些具體場(chǎng)景中。最后給?大家舉例例說(shuō)明2類?無(wú)監(jiān)督學(xué)習(xí)的思維:聚類、降維。以及具體的4種算法。什什么是?無(wú)監(jiān)督學(xué)習(xí)??無(wú)監(jiān)督學(xué)習(xí)是機(jī)器?學(xué)習(xí)中的?一種訓(xùn)練?方式/學(xué)習(xí)?方式:下?面通過(guò)跟監(jiān)督學(xué)習(xí)的對(duì)?比來(lái)理理解?無(wú)監(jiān)督學(xué)習(xí):監(jiān)督學(xué)習(xí)是?一種?目的明確的訓(xùn)練?方式,你知道得到的是什什么;?而?無(wú)監(jiān)督學(xué)習(xí)則是沒(méi)有明確?目的的訓(xùn)練?方式,你?無(wú)法提前知道結(jié)果是什什么。監(jiān)督學(xué)習(xí)需要給數(shù)據(jù)打標(biāo)簽;?而?無(wú)監(jiān)督學(xué)習(xí)不不需要給數(shù)據(jù)打標(biāo)簽。監(jiān)督學(xué)習(xí)由于?目標(biāo)明確,所以可以衡量量效果;?而?無(wú)監(jiān)督學(xué)習(xí)?幾乎?無(wú)法量量化效果如何。簡(jiǎn)單總結(jié)?一下:?無(wú)監(jiān)督學(xué)習(xí)是?一種機(jī)器?學(xué)習(xí)的訓(xùn)練?方式,它本質(zhì)上是?一個(gè)統(tǒng)計(jì)?手段,在沒(méi)有標(biāo)簽的數(shù)據(jù)可以發(fā)現(xiàn)潛在的?一些結(jié)構(gòu)的?一種訓(xùn)練?方式。它主要具備3個(gè)特點(diǎn):?無(wú)監(jiān)督學(xué)習(xí)沒(méi)有明確的?目的?無(wú)監(jiān)督學(xué)習(xí)不不需要給數(shù)據(jù)打標(biāo)簽?無(wú)監(jiān)督學(xué)習(xí)?無(wú)法量量化效果這么解釋很難理理解,下?面?用?一些具體案例例來(lái)告訴?大家?無(wú)監(jiān)督學(xué)習(xí)的?一些實(shí)際應(yīng)?用場(chǎng)景,通過(guò)這些實(shí)際場(chǎng)景,?大家就能了了解?無(wú)監(jiān)督學(xué)習(xí)的價(jià)值。?無(wú)監(jiān)督學(xué)習(xí)的使?用場(chǎng)景案例例1:發(fā)現(xiàn)異常有很多違法?行行為都需要”洗錢”,這些洗錢?行行為跟普通?用戶的?行行為是不不?一樣的,到底哪?里里不不?一樣?如果通過(guò)?人為去分析是?一件成本很?高很復(fù)雜的事情,我們可以通過(guò)這些?行行為的特征對(duì)?用戶進(jìn)?行行分類,就更更容易易找到那些?行行為異常的?用戶,然后再深?入分析他們的?行行為到底哪?里里不不?一樣,是否屬于違法洗錢的范疇。通過(guò)?無(wú)監(jiān)督學(xué)習(xí),我們可以快速把?行行為進(jìn)?行行分類,雖然我們不不知道這些分類意味著什什么,但是通過(guò)這種分類,可以快速排出正常的?用戶,更更有針對(duì)性的對(duì)異常?行行為進(jìn)?行行深?入分析。案例例2:?用戶細(xì)分這個(gè)對(duì)于?廣告平臺(tái)很有意義,我們不不僅把?用戶按照性別、年年齡、地理理位置等維度進(jìn)?行行?用戶細(xì)分,還可以通過(guò)?用戶?行行為對(duì)?用戶進(jìn)?行行分類。通過(guò)很多維度的?用戶細(xì)分,?廣告投放可以更更有針對(duì)性,效果也會(huì)更更好。案例例3:推薦系統(tǒng)?大家都聽(tīng)過(guò)”啤酒+尿尿不不濕”的故事,這個(gè)故事就是根據(jù)?用戶的購(gòu)買?行行為來(lái)推薦相關(guān)的商品的?一個(gè)例例?子。?比如?大家在淘寶、天貓、京東上逛的時(shí)候,總會(huì)根據(jù)你的瀏覽?行行為推薦?一些相關(guān)的商品,有些商品就是?無(wú)監(jiān)督學(xué)習(xí)通過(guò)聚類來(lái)推薦出來(lái)的。系統(tǒng)會(huì)發(fā)現(xiàn)?一些購(gòu)買?行行為相似的?用戶,推薦這類?用戶最”喜歡”的商品。常?見(jiàn)的2類?無(wú)監(jiān)督學(xué)習(xí)算法常?見(jiàn)的2類算法是:聚類、降維聚類:簡(jiǎn)單說(shuō)就是?一種?自動(dòng)分類的?方法,在監(jiān)督學(xué)習(xí)中,你很清楚每?一個(gè)分類是什什么,但是聚類則不不是,你并不不清楚聚類后的?幾個(gè)分類每個(gè)代表什什么意思。降維:降維看上去很像壓縮。這是為了了在盡可能保存相關(guān)的結(jié)構(gòu)的同時(shí)降低數(shù)據(jù)的復(fù)雜度?!妇垲愃惴ā筀均值聚類K均值聚類就是制定分組的數(shù)量量為K,?自動(dòng)進(jìn)?行行分組。K均值聚類的步驟如下:K個(gè)重?心。?一開始這些重?心是隨機(jī)的(也有?一些更更加有效的?用于初始化重?心的算法)尋找最近的重?心并且更更K個(gè)聚類中的?一個(gè)。每個(gè)數(shù)據(jù)點(diǎn)都被分配給離它們最近的重?心的聚類。這?里里的「接近程度」的度量量是?一個(gè)超參數(shù)——通常是歐?幾?里里得距離(Euclideandistance)。將重?心移動(dòng)到它們的聚類的中?心。每個(gè)聚類的重?心的新位置是通過(guò)計(jì)算該聚類中所有數(shù)據(jù)點(diǎn)的平均位置得到的。23步,直到每次迭代時(shí)重?心的位置不不再顯著變化(即直到該算法收斂)其過(guò)程如下?面的動(dòng)圖:「聚類算法」層次聚類如果你不不知道應(yīng)該分為?幾類,那么層次聚類就?比較適合了了。層次聚類會(huì)構(gòu)建?一個(gè)多層嵌套的分類,類似?一個(gè)樹狀結(jié)構(gòu)。層次聚類的步驟如下:N個(gè)聚類開始,每個(gè)數(shù)據(jù)點(diǎn)?一個(gè)聚類。N-1個(gè)聚類。重新計(jì)算這些聚類之間的距離。23N個(gè)數(shù)據(jù)點(diǎn)的?一個(gè)聚類。選擇?一個(gè)聚類數(shù)量量,然后在這個(gè)樹狀圖中劃?一條?水平線。「降維算法」主成分分析–PCA主成分分析是把多指標(biāo)轉(zhuǎn)化為少數(shù)?幾個(gè)綜合指標(biāo)。主成分分析經(jīng)常?用減少數(shù)據(jù)集的維數(shù),同時(shí)保持?jǐn)?shù)據(jù)集的對(duì)?方差貢獻(xiàn)最?大的特征。這是通過(guò)保留留低階主成分,忽略略?高階主成分做到的。這樣低階成分往往能夠保留留住數(shù)據(jù)的最重要?方?面。變換的步驟:\h第?一步計(jì)算矩陣X的樣本的協(xié)?方差矩陣S(此為不不標(biāo)準(zhǔn)PCA,標(biāo)準(zhǔn)PCA計(jì)算相關(guān)系數(shù)\h矩陣\hC)第?二步計(jì)算協(xié)?方差矩陣S(或C)的\he1,e2,…,eNt1,2,…,N第三步投影數(shù)據(jù)到特征向量量張成的空間之中。利利?用下?面公式,其中BV值是原樣本中對(duì)應(yīng)維度的值?!附稻S算法」奇異值分解–SVD奇異值分解(SingularValueDecomposition)是線性代數(shù)中?一種重要的矩陣分解,奇異值分解則是特征分解在任意矩陣上的推?廣。在信號(hào)處理理、統(tǒng)計(jì)學(xué)等領(lǐng)域有重要應(yīng)?用。了了解更更多奇異值分解的信息,可以查看\h維基百科?生成模型和GAN?無(wú)監(jiān)督學(xué)習(xí)的最簡(jiǎn)單?目標(biāo)是訓(xùn)練算法?生成?自?己的數(shù)據(jù)實(shí)例例,但是模型不不應(yīng)該簡(jiǎn)單地重現(xiàn)之前訓(xùn)練的數(shù)據(jù),否則就是簡(jiǎn)單的記憶?行行為。它必須是建?立?一個(gè)從數(shù)據(jù)中的基礎(chǔ)類模型。不不是?生成特定的?馬或彩虹照?片,?而是?生成?馬和彩虹的圖?片集;不不是來(lái)?自特定發(fā)?言者的特定話語(yǔ),?而是說(shuō)出話語(yǔ)的?一般分布。?生成模型的指導(dǎo)原則是,能夠構(gòu)建?一個(gè)令?人信服的數(shù)據(jù)示例例是理理解它的最有?力力證據(jù)。正如物理理學(xué)家理理查德·費(fèi)曼所說(shuō):我不不能創(chuàng)造的東?西,我就不不能了了解”(WhatIcannotcreate,Idonotunderstand.)。對(duì)于圖像來(lái)說(shuō),迄今為?止最成功的?生成模型是?生成對(duì)抗?網(wǎng)絡(luò)(GAN)。它由兩個(gè)?網(wǎng)絡(luò)組成:?一個(gè)?生成器?和?一個(gè)鑒別器?,分別負(fù)責(zé)偽造圖?片和識(shí)別真假。?生成器?產(chǎn)?生圖像的?目的是誘使鑒別者相信它們是真實(shí)的,同時(shí),鑒別者會(huì)因?yàn)榘l(fā)現(xiàn)假圖?片?而獲得獎(jiǎng)勵(lì)。GAN開始?生成的圖像是雜亂的和隨機(jī)的,在許多次迭代中被細(xì)化,形成更更加逼真的圖像,甚?至?無(wú)法與真實(shí)照?片區(qū)別開來(lái)。最近英偉達(dá)的GauGAN還能根據(jù)?用戶草圖?生成圖?片。強(qiáng)化學(xué)習(xí)-REINFORCEMENTLEARNING|RL?目錄什什么是強(qiáng)化學(xué)習(xí)?強(qiáng)化學(xué)習(xí)的應(yīng)?用場(chǎng)景強(qiáng)化學(xué)習(xí)的主流算法詳細(xì)介紹強(qiáng)化學(xué)習(xí)的基本概念、應(yīng)?用場(chǎng)景和主流的強(qiáng)化學(xué)習(xí)算法及分類。什什么是強(qiáng)化學(xué)習(xí)?強(qiáng)化學(xué)習(xí)并不不是某?一種特定的算法,?而是?一類算法的統(tǒng)稱。如果?用來(lái)做對(duì)?比的話,他跟監(jiān)督學(xué)習(xí),?無(wú)監(jiān)督學(xué)習(xí)是類似的,是?一種統(tǒng)稱的學(xué)習(xí)?方式。強(qiáng)化學(xué)習(xí)算法的思路路?非常簡(jiǎn)單,以游戲?yàn)槔绻谟螒蛑胁扇∧撤N策略略可以取得較?高的得分,那么就進(jìn)?一步「強(qiáng)化」這種策略略,以期繼續(xù)取得較好的結(jié)果。這種策略略與?日常?生活中的各種「績(jī)效獎(jiǎng)勵(lì)」?非常類似。我們平時(shí)也常常?用這樣的策略略來(lái)提?高?自?己的游戲?水平。在Flappybird這個(gè)游戲中,我們需要簡(jiǎn)單的點(diǎn)擊操作來(lái)控制?小?鳥,躲過(guò)各種?水管,?飛的越遠(yuǎn)越好,因?yàn)?飛的越遠(yuǎn)就能獲得更更?高的積分獎(jiǎng)勵(lì)。這就是?一個(gè)典型的強(qiáng)化學(xué)習(xí)場(chǎng)景:機(jī)器?有?一個(gè)明確的?小?鳥?角?色——需要控制?小?鳥?飛的更更遠(yuǎn)——?目標(biāo)整個(gè)游戲過(guò)程中需要躲避各種?水管——環(huán)境躲避?水管的?方法是讓?小?鳥?用?力力?飛?一下——?飛的越遠(yuǎn),就會(huì)獲得越多的積分——獎(jiǎng)勵(lì)你會(huì)發(fā)現(xiàn),強(qiáng)化學(xué)習(xí)和監(jiān)督學(xué)習(xí)、?無(wú)監(jiān)督學(xué)習(xí)最?大的不不同就是不不需要?大量量的“數(shù)據(jù)喂養(yǎng)”。?而是通過(guò)?自?己不不停的嘗試來(lái)學(xué)會(huì)某些技能。強(qiáng)化學(xué)習(xí)的應(yīng)?用場(chǎng)景強(qiáng)化學(xué)習(xí)?目前還不不夠成熟,應(yīng)?用場(chǎng)景也?比較局限。最?大的應(yīng)?用場(chǎng)景就是游戲了了。游戲2016年年:AlphaGoMaster擊敗李李世?石,使?用強(qiáng)化學(xué)習(xí)的\hAlphaGoZero僅花了了40天時(shí)間,就擊敗了了?自?己的前輩AlphaGoMaster。\h《被科學(xué)家譽(yù)為「世界壯舉」的AlphaGoZero,對(duì)普通?人意味著什什么?》2019年年1?月25?日:\hAlphaStar在《星際爭(zhēng)霸2》中以10:1擊敗了了?人類頂級(jí)職業(yè)玩家。\h《星際爭(zhēng)霸2?人類1:10輸給AI!DeepMind“AlphaStar”進(jìn)化神速》2019年年4?月13?日:OpenAI在《Dota2》的?比賽中戰(zhàn)勝了了?人類世界冠軍。\h《2:0!Dota2世界冠軍OG,被OpenAI按在地上摩擦》機(jī)器??人機(jī)器??人很像強(qiáng)化學(xué)習(xí)?里里的「代理理」,在機(jī)器??人領(lǐng)域,強(qiáng)化學(xué)習(xí)也可以發(fā)揮巨?大的作?用。\h《機(jī)器??人通過(guò)強(qiáng)化學(xué)習(xí),可以實(shí)現(xiàn)像?人?一樣的平衡控制》\h《深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)相結(jié)合,?谷歌訓(xùn)練機(jī)械臂的?長(zhǎng)期推理理能?力力》\h《伯克利利強(qiáng)化學(xué)習(xí)新研究:機(jī)器??人只?用?幾分鐘隨機(jī)數(shù)據(jù)就能學(xué)會(huì)軌跡跟蹤》其他強(qiáng)化學(xué)習(xí)在推薦系統(tǒng),對(duì)話系統(tǒng),教育培訓(xùn),?廣告,?金金融等領(lǐng)域也有?一些應(yīng)?用:《\h強(qiáng)化學(xué)習(xí)與推薦系統(tǒng)的強(qiáng)強(qiáng)聯(lián)合》《\h基于深度強(qiáng)化學(xué)習(xí)的對(duì)話管理理中的策略略?自適應(yīng)》《\h強(qiáng)化學(xué)習(xí)在業(yè)界的實(shí)際應(yīng)?用》強(qiáng)化學(xué)習(xí)的主流算法免模型學(xué)習(xí)(Model-Free)vs有模型學(xué)習(xí)(Model-Based)在介紹詳細(xì)算法之前,我們先來(lái)了了解?一下強(qiáng)化學(xué)習(xí)算法的2?大分類。這2個(gè)分類的重要差異是:智能體是否能完整了了解或?qū)W習(xí)到所在環(huán)境的模型有模型學(xué)習(xí)(Model-Based)對(duì)環(huán)境有提前的認(rèn)知,可以提前考慮規(guī)劃,但是缺點(diǎn)是如果模型跟真實(shí)世界不不?一致,那么在實(shí)際使?用場(chǎng)景下會(huì)表現(xiàn)的不不好。免模型學(xué)習(xí)(Model-Free)放棄了了模型學(xué)習(xí),在效率上不不如前者,但是這種?方式更更加容易易實(shí)現(xiàn),也容易易在真實(shí)場(chǎng)景下調(diào)整到很好的狀態(tài)。所以免模型學(xué)習(xí)?方法更更受歡迎,得到更更加?廣泛的開發(fā)和測(cè)試。免模型學(xué)習(xí)–策略略優(yōu)化(PolicyOptimization)這個(gè)系列列的?方法將策略略顯示表示為: 。它們直接對(duì)性能?目標(biāo) 進(jìn)?行行梯度下降進(jìn)?行行優(yōu)化,或者間接地,對(duì)性能?目標(biāo)的局部近似函數(shù)進(jìn)?行行優(yōu)化。優(yōu)化基本都是基于同策略略的,也就是說(shuō)每?一步更更新只會(huì)?用最新的策略略執(zhí)?行行時(shí)采集到的數(shù)據(jù)。策略略優(yōu)化通常還包括學(xué)習(xí)出,作為的近似,該函數(shù)?用于確定如何更更新策略略?;诓呗月詢?yōu)化的?方法舉例例:\hA2C/A3C,通過(guò)梯度下降直接最?大化性能\hPPO,不不直接通過(guò)最?大化性能更更新,?而是最?大化?目標(biāo)估計(jì)函數(shù),這個(gè)函數(shù)是?目標(biāo)函數(shù) 的近似估計(jì)。免模型學(xué)習(xí)–Q-Learning這個(gè)系列列的算法學(xué)習(xí)最優(yōu)?行行動(dòng)值函數(shù)的近似函數(shù):。它們通常使?用基于\h?貝爾曼?方程的?目標(biāo)函數(shù)。優(yōu)化過(guò)程屬于異策略略系列列,這意味著每次更更新可以使?用任意時(shí)間點(diǎn)的訓(xùn)練數(shù)據(jù),不不管獲取數(shù)據(jù)時(shí)智能體選擇如何探索環(huán)境。對(duì)應(yīng)的策略略是通過(guò)and之間的聯(lián)系得到的。智能體的?行行動(dòng)由下?面的式?子給出:基于Q-Learning的?方法\hDQN,?一個(gè)讓深度強(qiáng)化學(xué)習(xí)得到發(fā)展的經(jīng)典?方法以及\hC51,學(xué)習(xí)關(guān)于回報(bào)的分布函數(shù),其期望是有模型學(xué)習(xí)–純規(guī)劃\h這種最基礎(chǔ)的?方法,從來(lái)不不顯示的表示策略略,?而是純使?用規(guī)劃技術(shù)來(lái)選擇?行行動(dòng),例例如模型(model-predictivecontrol,MPC)。在模型預(yù)測(cè)控制中,智能體每次觀察環(huán)境的時(shí)候,都會(huì)計(jì)算得到?一個(gè)對(duì)于當(dāng)前模型最優(yōu)的規(guī)劃,這?里里的規(guī)劃指的是未來(lái)?一個(gè)固定時(shí)間段內(nèi),智能體會(huì)采取的所有?行行動(dòng)(通過(guò)學(xué)習(xí)值函數(shù),規(guī)劃算法可能會(huì)考慮到超出范圍的未來(lái)獎(jiǎng)勵(lì))。智能體先執(zhí)?行行規(guī)劃的第?一個(gè)?行行動(dòng),然后?立即舍棄規(guī)劃的剩余部分。每次準(zhǔn)備和環(huán)境進(jìn)?行行互動(dòng)時(shí),它會(huì)計(jì)算出?一個(gè)新的規(guī)劃,從?而避免執(zhí)?行行?小于規(guī)劃范圍的規(guī)劃給出的?行行動(dòng)。\hMBMF在?一些深度強(qiáng)化學(xué)習(xí)的標(biāo)準(zhǔn)基準(zhǔn)任務(wù)上,基于學(xué)習(xí)到的環(huán)境模型進(jìn)?行行模型預(yù)測(cè)控制有模型學(xué)習(xí)–ExpertIteration純規(guī)劃的后來(lái)之作,使?用、學(xué)習(xí)策略略的顯示表示形式:。智能體在模型中應(yīng)?用了了?一種規(guī)劃算法,類似蒙特卡洛洛樹搜索(MonteCarloTreeSearch),通過(guò)對(duì)當(dāng)前策略略進(jìn)?行行采樣?生成規(guī)劃的候選?行行為。這種算法得到的?行行動(dòng)?比策略略本身?生成的要好,所以相對(duì)于策略略來(lái)說(shuō),它是“專家”。隨后更更新策略略,以產(chǎn)?生更更類似于規(guī)劃算法輸出的?行行動(dòng)。\hExIt算法?用這種算法訓(xùn)練深層神經(jīng)?網(wǎng)絡(luò)來(lái)玩Hex\hAlphaZero這種?方法的另?一個(gè)例例?子除了了免模型學(xué)習(xí)和有模型學(xué)習(xí)的分類外,強(qiáng)化學(xué)習(xí)還有其他?幾種分類?方式:VSVSVS詳細(xì)請(qǐng)查看《\h強(qiáng)化學(xué)習(xí)?方法匯總》12種主流機(jī)器?學(xué)習(xí)算法詳解?目錄線性回歸邏輯回歸線性判別分析決策樹樸素?貝葉斯K鄰近算法學(xué)習(xí)向量量量量化?支持向量量機(jī)隨機(jī)森林林Adaboost限制玻爾茲曼機(jī)K均值聚類線性回歸–LINEARREGRESSION什什么是線性回歸算法線性回歸可能是統(tǒng)計(jì)學(xué)和機(jī)器?學(xué)習(xí)中最知名且易易于理理解的算法之?一。預(yù)測(cè)建模主要關(guān)注最?小化模型的誤差或使可能性最準(zhǔn)確的預(yù)測(cè),但代價(jià)是可解釋性。我們將借?用,重?用和竊取來(lái)?自許多不不同領(lǐng)域的算法,包括統(tǒng)計(jì)數(shù)據(jù)并將其?用于這些?目的。線性回歸的表示是通過(guò)查找稱為系數(shù)(B)的輸?入變量量的特定權(quán)重來(lái)描述最符合輸?入變量量和輸出變量量(y)之間關(guān)系的線的等式。我們將在給定輸?入x的情況下預(yù)測(cè)y,并且線性回歸學(xué)習(xí)算法的?目標(biāo)是找到系數(shù)B0和B1的值??梢允?用不不同的技術(shù)從數(shù)據(jù)中學(xué)習(xí)線性回歸模型,例例如?用于普通最?小?二乘和梯度下降優(yōu)化的線性代數(shù)解。線性回歸已經(jīng)存在了了200多年年,并且已經(jīng)被?廣泛研究。使?用此技術(shù)時(shí),?一些好的經(jīng)驗(yàn)法則是刪除?非常相似(相關(guān))的變量量,并盡可能消除數(shù)據(jù)中的噪?音。這是?一種快速?而簡(jiǎn)單的技術(shù)和良好的第?一種算法。百度百科版本線性回歸是利利?用數(shù)理理統(tǒng)計(jì)中回歸分析,來(lái)確定兩種或兩種以上變量量間相互依賴的定量量關(guān)系的?一種統(tǒng)計(jì)分析?方法,運(yùn)?用?十分?廣泛。其表達(dá)形式為y=w’x+e,e為誤差服從均值為0的正態(tài)分布?;貧w分析中,只包括?一個(gè)?自變量量和?一個(gè)因變量量,且?二者的關(guān)系可?用?一條直線近似表示,這種回歸分析稱為?一元線性回歸分析。如果回歸分析中包括兩個(gè)或兩個(gè)以上的?自變量量,且因變量量和?自變量量之間是線性關(guān)系,則稱為多元線性回歸分析。\h查看詳情維基百科版本在統(tǒng)計(jì)學(xué)中,線性回歸是?一種線性?方法,?用于建模標(biāo)量量響應(yīng)(或因變量量)與?一個(gè)或多個(gè)解釋變量量(或獨(dú)?立變量量)之間的關(guān)系。?一個(gè)解釋變量量的情況稱為簡(jiǎn)單線性回歸。對(duì)于多個(gè)解釋變量量,該過(guò)程稱為多元線性回歸。該術(shù)語(yǔ)不不同于多元線性回歸,其中預(yù)測(cè)了了多個(gè)相關(guān)因變量量,?而不不是單個(gè)標(biāo)量量變量量。在線性回歸中,使?用線性預(yù)測(cè)函數(shù)對(duì)關(guān)系進(jìn)?行行建模,其中未知模型參數(shù)是根據(jù)數(shù)據(jù)估計(jì)的。這種模型稱為線性模型。最常?見(jiàn)的是,給定解釋變量量(或預(yù)測(cè)變量量)的值的響應(yīng)的條件均值被假定為這些值的仿射函數(shù);不不太常?見(jiàn)的是,使?用條件中值或?一些其他分位數(shù)。與所有形式的回歸分析?一樣,線性回歸側(cè)重于條件概率分布給出預(yù)測(cè)變量量值的響應(yīng),?而不不是所有這些變量量的聯(lián)合概率分布,這是多變量量分析的領(lǐng)域。\h查看詳情邏輯回歸–LOGISTICREGRESSION什什么是邏輯回歸算法?邏輯回歸是統(tǒng)計(jì)領(lǐng)域機(jī)器?學(xué)習(xí)所借?用的另?一種技術(shù)。它是?二進(jìn)制分類問(wèn)題的?首選?方法(具有兩個(gè)類值的問(wèn)題)。邏輯回歸就像線性回歸?一樣,?目標(biāo)是找到加權(quán)每個(gè)輸?入變量量的系數(shù)的值。與線性回歸不不同,使?用稱為邏輯函數(shù)的?非線性函數(shù)來(lái)轉(zhuǎn)換輸出的預(yù)測(cè)。邏輯函數(shù)看起來(lái)像?一個(gè)?大S,并將任何值轉(zhuǎn)換為0到1的范圍。這很有?用,因?yàn)槲覀兛梢詫?一個(gè)規(guī)則應(yīng)?用于邏輯函數(shù)的輸出,以將值捕捉到0和1(例例如IF?小于0.5然后輸出1)并預(yù)測(cè)?一個(gè)類值。百度百科版本邏輯回歸是?一種?廣義的線性回歸分析模型,常?用于數(shù)據(jù)挖掘,疾病?自動(dòng)診斷,經(jīng)濟(jì)預(yù)測(cè)等領(lǐng)域。例例如,探討引發(fā)疾病的危險(xiǎn)因素,并根據(jù)危險(xiǎn)因素預(yù)測(cè)疾病發(fā)?生的概率等。以胃癌病情分析為例例,選擇兩組?人群,?一組是胃癌組,?一組是?非胃癌組,兩組?人群必定具有不不同的體征與?生活?方式等。因此因變量量就為是否胃癌,值為“是”或“否”,?自變量量就可以包括很多了了,如年年齡、性別、飲??食習(xí)慣、幽?門螺桿菌感染等。?自變量量既可以是連續(xù)的,也可以是分類的。然后通過(guò)logistic回歸分析,可以得到?自變量量的權(quán)重,從?而可以?大致了了解到底哪些因素是胃癌的危險(xiǎn)因素。同時(shí)根據(jù)該權(quán)值可以根據(jù)危險(xiǎn)因素預(yù)測(cè)?一個(gè)?人患癌癥的可能性。\h查看詳情由于學(xué)習(xí)模型的?方式,邏輯回歸所做的預(yù)測(cè)也可以?用作給定數(shù)據(jù)實(shí)例例屬于0級(jí)或1級(jí)的概率。這對(duì)于需要給出更更多基本原理理的問(wèn)題?非常有?用。?一個(gè)預(yù)測(cè)。與線性回歸?一樣,當(dāng)您刪除與輸出變量量?無(wú)關(guān)的屬性以及彼此?非常相似(相關(guān))的屬性時(shí),邏輯回歸確實(shí)更更有效。這是?一個(gè)學(xué)習(xí)?二元分類問(wèn)題的快速模型。維基百科版本在統(tǒng)計(jì)學(xué)中,邏輯模型是?一種?廣泛使?用的統(tǒng)計(jì)模型,在其基本形式中,使?用邏輯函數(shù)來(lái)模擬?二;存在更更復(fù)雜的擴(kuò)展。在回歸分析中,邏輯回歸是估計(jì)邏輯模型的參數(shù);它是?二項(xiàng)式回歸的?一種形式。在數(shù)學(xué)上,?二元邏輯模型具有?一個(gè)具有兩個(gè)可能值的因變量量,例例如通過(guò)/失敗,贏/輸,活/死或健康/?生病;這些由指示符變量量表示,其中兩個(gè)值標(biāo)記為“0”和“1”。在邏輯模型中,對(duì)數(shù)?比值(在對(duì)數(shù)的的可能性),?用于標(biāo)記為“1”的值是?一個(gè)線性組合的?一個(gè)或多個(gè)?自變量量(“預(yù)測(cè)”);?自變量量可以是?二進(jìn)制變量量(兩個(gè)類,由指示符變量量編碼)或連續(xù)變量量(任何實(shí)際值)。\h查看詳情線性判別分析–LINEARDISCRIMINANTANALYSIS|LDA什什么是線性判別分析?邏輯回歸是?一種傳統(tǒng)上僅限于兩類分類問(wèn)題的分類算法。如果您有兩個(gè)以上的類,則線性判別分析算法是?首選的線性分類技術(shù)。\hLDA的代表?非常簡(jiǎn)單。它包含數(shù)據(jù)的統(tǒng)計(jì)屬性,為每個(gè)類計(jì)算。對(duì)于單個(gè)輸?入變量量,這包括:每個(gè)分類的平均值。在所有類別中計(jì)算的?方差。通過(guò)計(jì)算每個(gè)類的判別值并對(duì)具有最?大值的類進(jìn)?行行預(yù)測(cè)來(lái)進(jìn)?行行預(yù)測(cè)。該技術(shù)假設(shè)數(shù)據(jù)具有?高斯分布(鐘形曲線),因此最好事先從數(shù)據(jù)中刪除異常值。它是分類預(yù)測(cè)建模問(wèn)題的?一種簡(jiǎn)單?而強(qiáng)?大的?方法。百度百科版本線性判別分析(lineardiscriminantanalysis,LDA)是對(duì)費(fèi)舍爾的線性鑒別?方法的歸納,這種?方法使?用統(tǒng)計(jì)學(xué),模式識(shí)別和機(jī)器?學(xué)習(xí)?方法,試圖找到兩類物體或事件的特征的?一個(gè)線性組合,以能夠特征化或區(qū)分它們。所得的組合可?用來(lái)作為?一個(gè)線性分類器?,或者,更更常?見(jiàn)的是,為后續(xù)的分類做降維處理理。\h查看詳情維基百科版本線性判別分析(LDA),正態(tài)判別分析(NDA)或判別函數(shù)分析是Fisher線性判別式的推?廣,這是?一種?用于統(tǒng)計(jì),模式識(shí)別和機(jī)器?學(xué)習(xí)的?方法,?用于找出表征或分離兩個(gè)或兩個(gè)特征的線性特征組合。更更多類的對(duì)象或事件。得到的組合可以?用作線性分類器?,或者更更常?見(jiàn)地,?用于在稍后分類之前降低維數(shù)。\h查看詳情決策樹–DECISIONTREE什什么是決策樹?決策樹是最簡(jiǎn)單的機(jī)器?學(xué)習(xí)算法,它易易于實(shí)現(xiàn),可解釋性強(qiáng),完全符合?人類的直觀思維,有著?廣泛的應(yīng)?用。決策樹到底是什什么?簡(jiǎn)單地講,決策樹是?一棵?二叉或多叉樹(如果你對(duì)樹的概念都不不清楚,請(qǐng)先去學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)課程),它對(duì)數(shù)據(jù)的屬性進(jìn)?行行判斷,得到分類或回歸結(jié)果。預(yù)測(cè)時(shí),在樹的內(nèi)部節(jié)點(diǎn)處?用某?一屬性值(特征向量量的某?一分量量)進(jìn)?行行判斷,根據(jù)判斷結(jié)果決定進(jìn)?入哪個(gè)分?支節(jié)點(diǎn),直到到達(dá)葉?子節(jié)點(diǎn)處,得到分類或回歸結(jié)果。這是?一種基于if-then-else規(guī)則的有監(jiān)督學(xué)習(xí)算法,決策樹的這些規(guī)則通過(guò)訓(xùn)練得到,?而不不是?人?工制定的。?一個(gè)簡(jiǎn)單的例例?子上?面的說(shuō)法過(guò)于抽象,下?面來(lái)看?一個(gè)實(shí)際的例例?子。銀?行行要?用機(jī)器?學(xué)習(xí)算法來(lái)確定是否給客戶發(fā)放貸款,為此需要考察客戶的年年收?入,是否有房產(chǎn)這兩個(gè)指標(biāo)。領(lǐng)導(dǎo)安排你實(shí)現(xiàn)這個(gè)算法,你想到了了最簡(jiǎn)單的線性模型,很快就完成了了這個(gè)任務(wù)。模型的決策邊界:-20+3年年收?入+20是否有房=0決策規(guī)則為:-20+3年年收?入+20是否有房>=0可貸款-20+3年年收?入+20是否有房<0不不可貸款你拿著精?心設(shè)計(jì)出來(lái)的模型去跟領(lǐng)導(dǎo)講,但是發(fā)現(xiàn)沒(méi)?人聽(tīng)得懂你在?干嘛,領(lǐng)導(dǎo)認(rèn)為你根本不不懂得怎么評(píng)估客戶。這次碰壁之后,你冥思苦想,給出了了另外?一個(gè)?方案。?風(fēng)控業(yè)務(wù)員是怎么判斷是否給?用戶貸款的?他們的做法很簡(jiǎn)單:?首先判斷客戶的年年收?入指標(biāo)。如果?大于20萬(wàn),可以貸款;否則繼續(xù)判斷。然后判斷客戶是否有房產(chǎn)。如果有房產(chǎn),可以貸款;否則不不能貸款。如果?用圖形表示這個(gè)決策過(guò)程,就是?一棵決策樹。決策過(guò)程從樹的根節(jié)點(diǎn)開始,在內(nèi)部節(jié)點(diǎn)處需要做判斷,直到到達(dá)?一個(gè)葉?子節(jié)點(diǎn)處,得到?jīng)Q策結(jié)果。決策樹由?一系列列分層嵌套的判定規(guī)則組成,是?一個(gè)遞歸的結(jié)構(gòu)。這個(gè)例例?子的決策樹如下圖所示:在上圖中,內(nèi)部節(jié)點(diǎn)?用矩形表示,葉?子節(jié)點(diǎn)?用橢圓表示。這個(gè)模型?一?目了了然,領(lǐng)導(dǎo)?一聽(tīng)就懂,?而且覺(jué)得你?非常專業(yè)。上?文內(nèi)容轉(zhuǎn)載?自公眾號(hào)SIGAI,\h原?文地址百度百科版本決策樹算法是?一種逼近離散函數(shù)值的?方法。它是?一種典型的分類?方法,?首先對(duì)數(shù)據(jù)進(jìn)?行行處理理,利利?用歸納算法?生成可讀的規(guī)則和決策樹,然后使?用決策對(duì)新數(shù)據(jù)進(jìn)?行行分析。本質(zhì)上決策樹是通過(guò)?一系列列規(guī)則對(duì)數(shù)據(jù)進(jìn)?行行分類的過(guò)程。\h查看詳情維基百科版本決策樹學(xué)習(xí)使?用決策樹(作為預(yù)測(cè)模型)從關(guān)于項(xiàng)?目(在分?支中表示)的觀察到關(guān)于項(xiàng)?目的?目標(biāo)值(在葉?子中表示)的結(jié)論。它是統(tǒng)計(jì),數(shù)據(jù)挖掘和機(jī)器?學(xué)習(xí)中使?用的預(yù)測(cè)建模?方法之?一。?目標(biāo)變量量可以采?用?一在這些樹結(jié)構(gòu)中,葉?子代表類標(biāo)簽,分?支代表連詞導(dǎo)致這些類標(biāo)簽的功能。?目標(biāo)變量量可以采?用連續(xù)值(通常是實(shí)數(shù))的決策樹稱為回歸樹。\h查看詳情NAIVEBAYESCLASSIFIERNBC什什么是樸素?貝葉斯?樸素?貝葉斯是?一種簡(jiǎn)單但令?人驚訝的強(qiáng)?大的預(yù)測(cè)建模算法。該模型由兩種類型的概率組成,可以直接根據(jù)您的訓(xùn)練數(shù)據(jù)計(jì)算:每個(gè)班級(jí)的概率給出每個(gè)x值的每個(gè)類的條件概率。?一旦計(jì)算,概率模型可?用于使?用?貝葉斯定理理對(duì)新數(shù)據(jù)進(jìn)?行行預(yù)測(cè)。當(dāng)您的數(shù)據(jù)是實(shí)值時(shí),通常假設(shè)?高斯分布(鐘形曲線),以便便您可以輕松估計(jì)這些概率。樸素?貝葉斯被稱為樸素,因?yàn)樗僭O(shè)每個(gè)輸?入變量量是獨(dú)?立的。這是?一個(gè)強(qiáng)有?力力的假設(shè),對(duì)于實(shí)際數(shù)據(jù)是不不現(xiàn)實(shí)的,然?而,該技術(shù)對(duì)于?大范圍的復(fù)雜問(wèn)題?非常有效。百度百科版本樸素?貝葉斯法是基于?貝葉斯定理理與特征條件獨(dú)?立假設(shè)的分類?方法。最為?廣泛的兩種分類模型是決策樹模型(DecisionTreeModel)和樸素?貝葉斯模型(NaiveBayesianModel,NBM)。和決策樹模型相?比,樸素?貝葉斯分類器?(NaiveBayesClassifier,NBC)發(fā)源于古典數(shù)學(xué)理理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。同時(shí),NBC模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不不太敏?感,算法也?比較簡(jiǎn)單。理理論上,NBC模型與其他分類?方法相?比具有最?小的誤差率。但是實(shí)際上并?非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)?立,這個(gè)假設(shè)在實(shí)際應(yīng)?用中往往是不不成?立的,這給NBC模型的正確分類帶來(lái)了了?一定影響。\h查看詳情維基百科版本在機(jī)器?學(xué)習(xí)中,樸素?貝葉斯分類器?是?一系列列簡(jiǎn)單的“概率分類器?”,它基于?貝葉斯定理理應(yīng)?用特征之間的強(qiáng)(天真)獨(dú)?立假設(shè)。?自20世紀(jì)50年年代以來(lái),樸素?貝葉斯就被?廣泛研究過(guò)。它在20世紀(jì)60年年代早期以不不同的名稱引?入?文本檢索社區(qū),并且仍然是?文本分類的流?行行(基線)?方法,即將?文檔判斷為屬于?一個(gè)類別或另?一個(gè)類別的問(wèn)題(例例如垃圾郵件或合法,體育或政治等)以詞頻為特征。通過(guò)適當(dāng)?shù)念A(yù)處理理,它在這個(gè)領(lǐng)域具有更更?高級(jí)的?方法,包括?支持向量量機(jī),具有競(jìng)爭(zhēng)?力力。它也適?用于?自動(dòng)醫(yī)療診斷。樸素?貝葉斯分類器?具有?高度可擴(kuò)展性,在學(xué)習(xí)問(wèn)題中需要多個(gè)變量量(特征/預(yù)測(cè)器?)數(shù)的線性參數(shù)。最?大似然的訓(xùn)練可以通過(guò)評(píng)估來(lái)完成閉合形式的表達(dá),這需要線性時(shí)間,?而不不是由昂貴的迭代逼近作為?用于許多其它類型的分類器?。在統(tǒng)計(jì)學(xué)和計(jì)算機(jī)科學(xué)?文獻(xiàn)中,樸素的?貝葉斯模型以各種名稱?而聞名,包括簡(jiǎn)單的?貝葉斯和獨(dú)?立?貝葉斯。所有這些名稱都引?用了了?貝葉斯定理理在分類器?決策規(guī)則中的使?用,但樸素?貝葉斯(必然)不不是?貝葉斯?方法。\h查看詳情K鄰近–K-NEARESTNEIGHBORS|KNN什什么是K鄰近算法?KNN算法?非常簡(jiǎn)單且?非常有效。KNN的模型表示是整個(gè)訓(xùn)練數(shù)據(jù)集。簡(jiǎn)單吧?通過(guò)搜索K個(gè)最相似的實(shí)例例(鄰居)的整個(gè)訓(xùn)練集并總結(jié)那些K個(gè)實(shí)例例的輸出變量量,對(duì)新數(shù)據(jù)點(diǎn)進(jìn)?行行預(yù)測(cè)。對(duì)于回歸問(wèn)題,這可能是平均輸出變量量,對(duì)于分類問(wèn)題,這可能是模式(或最常?見(jiàn))類值。訣竅在于如何確定數(shù)據(jù)實(shí)例例之間的相似性。如果您的屬性具有相同的?比例例(例例如,以英?寸為單位),則最簡(jiǎn)單的技術(shù)是使?用歐?幾?里里德距離,您可以根據(jù)每個(gè)輸?入變量量之間的差異直接計(jì)算該數(shù)字。KNN可能需要?大量量?jī)?nèi)存或空間來(lái)存儲(chǔ)所有數(shù)據(jù),但僅在需要預(yù)測(cè)時(shí)才進(jìn)?行行計(jì)算(或?qū)W習(xí)),及時(shí)。您還可以隨著時(shí)間的推移更更新和策劃您的訓(xùn)練實(shí)例例,以保持預(yù)測(cè)準(zhǔn)確。距離或接近度的概念可以在?非常?高的維度(許多輸?入變量量)中分解,這會(huì)對(duì)算法在您的問(wèn)題上的性能產(chǎn)?生負(fù)?面影響。這被稱為維度的詛咒。它建議您僅使?用與預(yù)測(cè)輸出變量量最相關(guān)的輸?入變量量。百度百科版本鄰近算法,或者說(shuō)K最近鄰(kNN,k-NearestNeighbor)分類算法是數(shù)據(jù)挖掘分類技術(shù)中最簡(jiǎn)單的?方法之?一。所謂K最近鄰,就是k個(gè)最近的鄰居的意思,說(shuō)的是每個(gè)樣本都可以?用它最接近的k個(gè)鄰居來(lái)代表。kNN算法的核?心思想是如果?一個(gè)樣本在特征空間中的k個(gè)最相鄰的樣本中的?大多數(shù)屬于某?一個(gè)類別,則該樣本也屬于這個(gè)類別,并具有這個(gè)類別上樣本的特性。該?方法在確定分類決策上只依據(jù)最鄰近的?一個(gè)或者?幾個(gè)樣本的類別來(lái)決定待分樣本所屬的類別。kNN?方法在類別決策時(shí),只與極少量量的相鄰樣本有關(guān)。由于kNN?方法主要靠周圍有限的鄰近的樣本,?而不不是靠判別類域的?方法來(lái)確定所屬類別的,因此對(duì)于類域的交叉或重疊較多的待分樣本集來(lái)說(shuō),kNN?方法較其他?方法更更為適合。\h查看詳情維基百科版本在模式識(shí)別中,k-最近鄰算法(k-NN)是?用于分類和回歸的?非參數(shù)?方法。在這兩種情況下,輸?入都包含特征空間中最近的k個(gè)訓(xùn)練樣例例。輸出取決于k-NN是?用于分類還是回歸:在k-NN分類中,輸出是類成員資格。對(duì)象通過(guò)其鄰居的多個(gè)投票進(jìn)?行行分類,其中對(duì)象被分配給其k個(gè)最近鄰居中最常?見(jiàn)的類(k是正整數(shù),通常是?小整數(shù))。如果k=1,則簡(jiǎn)單地將對(duì)象分配給該單個(gè)最近鄰居的類。在k-NN回歸中,輸出是對(duì)象的屬性值。該值是其k個(gè)最近鄰居的值的平均值。k-NN是?一種基于實(shí)例例的學(xué)習(xí)或懶惰學(xué)習(xí),其中函數(shù)僅在本地近似,并且所有計(jì)算都推遲到分類。該?-NN算法是最簡(jiǎn)單的所有中機(jī)器?學(xué)習(xí)算法。\h查看詳情L(zhǎng)EARNINGQUANTIZATION|LVQ什什么是學(xué)習(xí)向量量量量化?K鄰近算法的缺點(diǎn)是你需要堅(jiān)持整個(gè)訓(xùn)練數(shù)據(jù)集。學(xué)習(xí)向量量量量化算法(或簡(jiǎn)稱LVQ)是?一種?人?工神經(jīng)?網(wǎng)絡(luò)算法,允許您選擇要掛起的訓(xùn)練實(shí)例例數(shù)量量,并準(zhǔn)確了了解這些實(shí)例例應(yīng)該是什什么樣?子。學(xué)習(xí)?矢量量量量化算法(簡(jiǎn)稱LVQ)LVQ的表示是碼本向量量的集合。這些是在開始時(shí)隨機(jī)選擇的,并且適于在學(xué)習(xí)算法的多次\h迭代中最佳地總結(jié)訓(xùn)練數(shù)據(jù)集。在學(xué)習(xí)之后,可以使?用碼本向量量來(lái)進(jìn)?行行與K-NearestNeighbors類似的預(yù)測(cè)。通過(guò)計(jì)算每個(gè)碼本?矢量量和新數(shù)據(jù)實(shí)例例之間的距離來(lái)找到最相似的鄰居(最佳匹配碼本?矢量量)。然后返回最佳匹配單元的類值或(回歸情況下的實(shí)際值)作為預(yù)測(cè)。如果將數(shù)據(jù)重新縮放到相同范圍(例例如0到1之間),則可獲得最佳結(jié)果。如果您發(fā)現(xiàn)\hKNN在您的數(shù)據(jù)集上提供了了良好的結(jié)果,請(qǐng)嘗試使?用LVQ來(lái)降低存儲(chǔ)整個(gè)訓(xùn)練數(shù)據(jù)集的內(nèi)存要求。百度百科版本學(xué)習(xí)向量量量量化(Learning\hVectorQuantization,簡(jiǎn)稱LVQ)屬于原型聚類,即試圖找到?一組原型向量量來(lái)聚類,每個(gè)原型向量量代表?一個(gè)簇,將空間劃分為若?干個(gè)簇,從?而對(duì)于任意的樣本,可以將它劃?入到它距離最近的簇中,不不同的是LVQ假設(shè)數(shù)據(jù)樣本帶有類別標(biāo)記,因此可以利利?用這些類別標(biāo)記來(lái)輔助聚類。\h查看詳情維基百科版本LVQ可以被理理解為?人?工神經(jīng)?網(wǎng)絡(luò)的?一個(gè)特例例,更更確切地說(shuō),它應(yīng)?用了了?一種贏家通吃的Hebbian學(xué)習(xí)?方法。它是?自組織圖(\hSOM)的前體,與神經(jīng)?氣體有關(guān),也與k-最近鄰算法(k-NN)有關(guān)。LVQ由TeuvoKohonen發(fā)明。\h查看詳情?支持向量量機(jī)–SUPPORTVECTORMACHINE|SVM什什么是?支持向量量機(jī)??支持向量量機(jī)可能是最流?行行和最受關(guān)注的機(jī)器?學(xué)習(xí)算法之?一。超平?面是分割輸?入變量量空間的線。在SVM中,選擇超平?面以最佳地將輸?入變量量空間中的點(diǎn)與它們的類(0級(jí)或1級(jí))分開。在?二維中,您可以將其視為?一條線,并假設(shè)我們的所有輸?入點(diǎn)都可以被這條線完全分開。SVM學(xué)習(xí)算法找到導(dǎo)致超平?面最好地分離類的系數(shù)。?支持向量量機(jī)超平?面與最近數(shù)據(jù)點(diǎn)之間的距離稱為邊距??梢詫蓚€(gè)類分開的最佳或最佳超平?面是具有最?大邊距的線。只有這些點(diǎn)與定義超平?面和分類器?的構(gòu)造有關(guān)。這些點(diǎn)稱為?支持向量量。它們?支持或定義超平?面。實(shí)際上,優(yōu)化算法?用于找到使裕度最?大化的系數(shù)的值。SVM可能是最強(qiáng)?大的開箱即?用分類器?之?一,值得嘗試使?用您的數(shù)據(jù)集。?支持向量量機(jī)的基礎(chǔ)概念可以通過(guò)?一個(gè)簡(jiǎn)單的例例?子來(lái)解釋。讓我們想象兩個(gè)類別:紅?色和藍(lán)?色,我們的數(shù)據(jù)有兩個(gè)特征:x和y。我們想要?一個(gè)分類器?,給定?一對(duì)(x,y)坐標(biāo),輸出僅限于紅?色或藍(lán)?色。我們將已標(biāo)記的訓(xùn)練數(shù)據(jù)列列在下圖中:?支持向量量機(jī)會(huì)接受這些數(shù)據(jù)點(diǎn),并輸出?一個(gè)超平?面(在?二維的圖中,就是?一條線)以將兩類分割開來(lái)。這條線就是判定邊界:將紅?色和藍(lán)?色分割開。但是,最好的超平?面是什什么樣的?對(duì)于SVM來(lái)說(shuō),它是最?大化兩個(gè)類別邊距的那種?方式,換句句話說(shuō):超平?面(在本例例中是?一條線)對(duì)每個(gè)類別最近的元素距離最遠(yuǎn)。這?里里有?一個(gè)視頻(\h視頻地址)解釋可以告訴你最佳的超平?面是如何找到的。百度
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 共青科技職業(yè)學(xué)院《材料表面技術(shù)》2023-2024學(xué)年第一學(xué)期期末試卷
- 小朋友的安全課件
- 《營(yíng)養(yǎng)苗的培育》課件
- 贛西科技職業(yè)學(xué)院《微波電路》2023-2024學(xué)年第一學(xué)期期末試卷
- 《漫談?wù)n堂教學(xué)的有效性》課件
- 2022年上海市中級(jí)消防設(shè)施操作員《技能操作》近年真題(含答案)
- 小學(xué)生流感防治教育課件
- 三年級(jí)科學(xué)上冊(cè)第四單元1常見(jiàn)材料教案蘇教版
- 三年級(jí)英語(yǔ)上冊(cè)Unit1Hello第5課時(shí)教案人教PEP
- 小學(xué)生模擬法庭教學(xué)課件
- 農(nóng)村電商公共服務(wù)體系的建設(shè)與完善研究-以XX村為例
- 復(fù)合機(jī)器人行業(yè)分析
- 建立進(jìn)出校園安全控制與管理的方案
- 新課標(biāo)《普通高中化學(xué)課程標(biāo)準(zhǔn)(2022年版)》
- 阿里菜鳥裹裹云客服在線客服認(rèn)證考試及答案
- 水庫(kù)防恐反恐應(yīng)急預(yù)案
- 危險(xiǎn)化學(xué)品銷售管理臺(tái)帳
- 五輸穴及臨床應(yīng)用1
- 中國(guó)成人急性呼吸窘迫綜合征(ARDS)診斷與非機(jī)械通氣治療指南(2023版)解讀
- 綠植租擺服務(wù)投標(biāo)方案(完整技術(shù)標(biāo))
- 童話知識(shí)競(jìng)賽課件
評(píng)論
0/150
提交評(píng)論