人教A版高中數(shù)學(xué)選修12課件回歸分析的基本思想及其初步應(yīng)用-2_第1頁(yè)
人教A版高中數(shù)學(xué)選修12課件回歸分析的基本思想及其初步應(yīng)用-2_第2頁(yè)
人教A版高中數(shù)學(xué)選修12課件回歸分析的基本思想及其初步應(yīng)用-2_第3頁(yè)
人教A版高中數(shù)學(xué)選修12課件回歸分析的基本思想及其初步應(yīng)用-2_第4頁(yè)
人教A版高中數(shù)學(xué)選修12課件回歸分析的基本思想及其初步應(yīng)用-2_第5頁(yè)
已閱讀5頁(yè),還剩23頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人教A版高中數(shù)學(xué)選修1-2課件回歸分析的基本思想及其初步應(yīng)用人教A版高中數(shù)學(xué)選修1-2課件回歸分析的基本思想及其初步應(yīng)用人教A版高中數(shù)學(xué)選修12多媒體課件多思、創(chuàng)新、融合人教A版高中數(shù)學(xué)選修12多思、創(chuàng)新、融合回歸分析的基本思想及其初步應(yīng)用回歸分析的基本思想通過(guò)對(duì)必修的學(xué)習(xí),我們知道,變量之間存在關(guān)系時(shí),有兩種關(guān)系:確定性關(guān)系非確定性關(guān)系函數(shù)關(guān)系相關(guān)關(guān)系函數(shù)關(guān)系是非常明確的關(guān)系,相關(guān)關(guān)系卻是一種變化的,通過(guò)數(shù)學(xué)3的學(xué)習(xí)我們知道,回歸分析(regressionanalysis)是相關(guān)關(guān)系的一種分析方法,它是對(duì)具有相關(guān)關(guān)系的兩個(gè)變量進(jìn)行統(tǒng)計(jì)分析一般步驟為:通過(guò)對(duì)必修的學(xué)習(xí),我們知道,變量之間存在關(guān)

2、系時(shí),有兩種關(guān)系:散點(diǎn)圖求回歸方程利用回歸方程預(yù)報(bào)下面我們通過(guò)實(shí)際案例。進(jìn)一步學(xué)習(xí)回歸分析的基本思想及其應(yīng)用散點(diǎn)圖求回歸方程利用回歸方程預(yù)報(bào)下面我們通過(guò)實(shí)際案例。進(jìn)一步例1.從某大學(xué)中隨機(jī)選取8名女大學(xué)生。其身高和體重?cái)?shù)據(jù)如表所示:編號(hào)12345678身高cm165165157170175165155170體重kg4857505464614359求根據(jù)一名大學(xué)生的身高預(yù)報(bào)她的體重的回歸方程,并預(yù)報(bào)一名172cm的女大學(xué)生的體重。例1.從某大學(xué)中隨機(jī)選取8名女大學(xué)生。其身高和體重?cái)?shù)據(jù)如表所解利用前面的知識(shí)我們首先作身高x和體重y的散點(diǎn)圖:解利用前面的知識(shí)我們首先作身高x和體重y的散點(diǎn)圖:從圖可以

3、看出,樣本點(diǎn)的分布有比較好的線性關(guān)系,因此可以用線性回歸來(lái)刻畫(huà)它們之間的關(guān)系.會(huì)求它們的方程嗎?事實(shí)上,從散點(diǎn)圖可以看出,樣本點(diǎn)并不是分布在這條直線上,而是分布在它的兩邊,所以嚴(yán)格來(lái)說(shuō):y=bx+a不是真正的表示它們之間的關(guān)系,這時(shí)我們把身高和體重的關(guān)系做一下調(diào)整來(lái)模擬回歸關(guān)系:Y=bx+a+e其中a和b為模型的未知參數(shù),e稱為隨機(jī)誤差如何產(chǎn)生的?從圖可以看出,樣本點(diǎn)的分布有比較好的線性關(guān)系,因此可以用線性身高X(cm)體重y(kg)飲食習(xí)慣運(yùn)動(dòng)習(xí)慣質(zhì)量誤差身高X(cm)體重y(kg)飲食習(xí)慣運(yùn)動(dòng)習(xí)慣質(zhì)量誤差線性回歸模型y=bx+a+e與我們了的一次函數(shù)模型不同之處在于多了一個(gè)隨機(jī)誤差e,y的

4、值有它們一起決定解釋變量x預(yù)報(bào)變量y隨機(jī)誤差e如何估計(jì)a,b,e?線性回歸模型y=bx+a+e與我們了的一次函數(shù)模型不同之處在1.a,b的估計(jì):a,b的估計(jì)和最小二乘法估計(jì)一樣其中稱為樣本的中心1.a,b的估計(jì):a,b的估計(jì)和最小二乘法估計(jì)一樣其中稱為樣2.e的估計(jì)y=0.849x-85.712通過(guò)數(shù)學(xué)3的學(xué)習(xí)我們知道,它們之間是正相關(guān)的,我們用它們的相關(guān)系數(shù)r來(lái)衡量它們之間的相關(guān)性的強(qiáng)弱2.e的估計(jì)y=0.849x-85.712通過(guò)數(shù)學(xué)3的學(xué)在上面的例子中我們假設(shè)體重與身高沒(méi)有關(guān)系即:體重都為:則,她們身高體重的散點(diǎn)圖應(yīng)該在一條水平直線上:在上面的例子中我們假設(shè)體重與身高沒(méi)有關(guān)系即:體重都為

5、:則,她事實(shí)上,并非如此,它們和45.5之間存在差別,這時(shí)我們就引入隨機(jī)誤差,利用隨機(jī)誤差和解釋變量共同來(lái)預(yù)報(bào)變量y把所有的這種效應(yīng)利用總體偏差平方和合并成一個(gè)數(shù)總體偏差平方和解釋變量隨機(jī)誤差?事實(shí)上,并非如此,它們和45.5之間存在差別,這時(shí)我們就引入我們現(xiàn)在要弄清楚這個(gè)總的效應(yīng)中,有多少來(lái)自解釋變量,有多少來(lái)自隨機(jī)誤差,即:哪一個(gè)效應(yīng)起決定性作用?怎樣去刻畫(huà)每個(gè)效應(yīng)呢?根據(jù)我們?cè)跀?shù)學(xué)3總的知識(shí),我們知道:每個(gè)點(diǎn)與回歸方程的差異我們可以用來(lái)表示,記作:(殘差(residual)它剛好可以表示隨機(jī)誤差的效應(yīng)。為什么說(shuō)可以用殘差來(lái)表示隨機(jī)誤差的效應(yīng)?我們現(xiàn)在要弄清楚這個(gè)總的效應(yīng)中,有多少來(lái)自解釋

6、變量,有多少來(lái)為了回歸的準(zhǔn)確和計(jì)算的方便我們引入殘差平方和(residualsumofsquares)它代表隨機(jī)誤差的效應(yīng)求出了隨機(jī)誤差的效應(yīng)后,我們就比較容易得到解釋變量的效應(yīng)了。同學(xué)們知道怎樣求嗎?解釋變量的效應(yīng)總體偏差平方和殘差平方和回歸平方和(regressionsunofsquares)為了回歸的準(zhǔn)確和計(jì)算的方便我們引入殘差平方和(residua你會(huì)計(jì)算上面的總體偏差平方和、殘差平方和、回歸平方和嗎?354128.361225.639你會(huì)計(jì)算上面的總體偏差平方和、殘差平方和、回歸平方和嗎?35有了這些評(píng)估效應(yīng)的方法,我們就可以利用它們來(lái)刻畫(huà)總體效應(yīng),事實(shí)上,為了將我們的計(jì)算簡(jiǎn)化,我們

7、又引入相關(guān)指數(shù)R2來(lái)刻畫(huà)回歸的效果:殘差平方和總體偏差平方和顯然,當(dāng)R2的值越大,說(shuō)明殘差所占的比例越小,回歸效果約好;反之,回歸效果越差。一般的,當(dāng)R2越接近于1,說(shuō)明解釋變量和預(yù)報(bào)變量之間的相關(guān)性越強(qiáng),如果同一個(gè)問(wèn)題,采用不同的回歸方法分析,我們可以通過(guò)選擇R2大的來(lái)作為回歸模型有了這些評(píng)估效應(yīng)的方法,我們就可以利用它們來(lái)刻畫(huà)總體效應(yīng),事一般方法:1.利用散點(diǎn)圖觀察兩個(gè)變量是否線性相關(guān)2.利用殘差來(lái)判斷模型擬合的效果(殘差分析)利用殘差圖來(lái)分析數(shù)據(jù),對(duì)可疑數(shù)據(jù)(殘差較大的數(shù)據(jù))進(jìn)行重新調(diào)查,有錯(cuò)誤就更正,然后重新利用回歸模型擬合,如果沒(méi)有錯(cuò)誤,則需要找其他原因。一般方法:1.利用散點(diǎn)圖觀察

8、兩個(gè)變量是否線性相關(guān)2.利用殘差殘差圖:編號(hào)12345678身高cm165165157170175165155170體重kg4857505464614359殘差-6.3732.6272.419-4.6181.1376.627-2.8830.382問(wèn)題數(shù)據(jù)越窄越好殘差圖:編號(hào)12345678身高cm16516515717說(shuō)明1.回歸方程只適合對(duì)所研究總體的估計(jì)2.回歸方程是對(duì)數(shù)據(jù)的模擬,數(shù)據(jù)的改變,可能會(huì)導(dǎo)致回歸方程的變化3.不同的回歸樣本數(shù)據(jù),有不同的回歸方程,也適合不同的回歸總體,4.回歸方程是預(yù)報(bào)變量的平均值,而不是精確值5.回歸的好壞可以由相關(guān)指數(shù)來(lái)評(píng)價(jià)說(shuō)明1.回歸方程只適合對(duì)所研究總體

9、的估計(jì)2.回歸方程是對(duì)數(shù)據(jù)建立回歸方程的一般步驟:1.確定變量2.制作散點(diǎn)圖,觀察是否相關(guān)3.確定回歸方程的類型(線性回歸、指數(shù)回歸、對(duì)數(shù)回歸等)4.利用公式確定回歸參數(shù)5.利用殘差分析回歸是否合理或模型是否合適建立回歸方程的一般步驟:1.確定變量2.制作散點(diǎn)圖,觀察是否例2一只紅蛉蟲(chóng)的產(chǎn)卵數(shù)y與溫度x有關(guān),現(xiàn)收集了7組數(shù)據(jù),請(qǐng)建立y與x建德回歸方程溫度x21232527293235產(chǎn)卵數(shù)y/個(gè)711212466115325解1.制作散點(diǎn)圖例2一只紅蛉蟲(chóng)的產(chǎn)卵數(shù)y與溫度x有關(guān),現(xiàn)收集了7組數(shù)據(jù),請(qǐng)建2.觀察模擬樣本點(diǎn)不能直接利用線性回歸,根據(jù)我們的函數(shù)知識(shí),它應(yīng)該是一個(gè)指數(shù)模型:y=c1ec2

10、x其中c1c2為參數(shù)或二次函數(shù)模型,根據(jù)對(duì)數(shù)回歸知識(shí)我們知道:令z=lny將其變換到樣本點(diǎn)的分布直線z=a+bxx21232527293235z1.9462.3983.0453.1784.1904.7455.784z=0272x-3.843會(huì)求著條直線嗎?則:y=e0.272x-3.8432.觀察模擬樣本點(diǎn)不能直接利用線性回歸,根據(jù)我們的函數(shù)知識(shí),2.我們認(rèn)為樣本點(diǎn)集中在某二次函數(shù)y=c3x2+c4附近,c3c4為參數(shù),則,令tx2則:y=c5t+c6其中c5c6為參數(shù)t44152962572984110241225y711212466115325y=0.367t-202.54不適合利用線性回歸為什么這樣說(shuō)?2.我們認(rèn)為樣本點(diǎn)集中在某二次函數(shù)y=c3x2+c4附近,c4.殘差分析:X21232527293235合計(jì)(殘差平方和)R2Y711212466115329e(1)0.518-0.1671.760-9.1498.889-14.15332.9281450.6730.98e(2)47.69319.397-5.835-41.003-40.107-58.

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論