第二講相關(guān)分析與回歸分析_第1頁
第二講相關(guān)分析與回歸分析_第2頁
第二講相關(guān)分析與回歸分析_第3頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、第二講 相關(guān)分析與回歸分析第一節(jié) 相關(guān)分析1 1 變量的相關(guān)性1變量的相關(guān)性分兩種,一種是研究兩個變量X 與 Y 的相關(guān)性。本節(jié)只研究前者,即兩個變量之間的相關(guān)性;.2兩個變量 X 與 Y 的相關(guān)性研究,是探討這兩個變量之間的 關(guān)系密切到什么程度,能否給出一個定量的指標(biāo)。這個問題的難 處在于“關(guān)系”二字,從數(shù)學(xué)角度看,兩個變量X、 Y 之間的關(guān)系具有無限的可能性, 一個比較現(xiàn)實(shí)的想法是: 確立一種“樣板” 關(guān)系,然后把 X、Y 的實(shí)際關(guān)系與“樣板”關(guān)系比較 ,看它們“像” 到了什么程度,給出一個定量指標(biāo)。3取什么關(guān)系做“樣板 " 關(guān)系? 線性關(guān)系 。這是一種單調(diào)遞增 或遞減的關(guān)系,在

2、現(xiàn)實(shí)生活中廣為應(yīng)用;另外,現(xiàn)實(shí)世界中大量 的變量 服從正態(tài)分布 ,對這些變量而言 ,可以用線性關(guān)系或準(zhǔn)線性 關(guān)系構(gòu)建它們之間的聯(lián)系。1 2 相關(guān)性度量1 概率論中用 相關(guān)系數(shù) (correlation coefficient )度量兩個變量的 相關(guān)程度。為區(qū)別以下出現(xiàn)的 樣本相關(guān)系數(shù) ,有時也把這里定義的相關(guān) 系數(shù)稱為 總體相關(guān)系數(shù) .可見相關(guān)系數(shù)是判斷變量間線性關(guān)系的 重要指標(biāo)。2樣本相關(guān)系數(shù)我們也只能根據(jù)這個容量為 n 的樣本來判斷變量 X 和 Y 的相關(guān)性 達(dá)到怎樣的程度。這個估計(jì)稱為樣本相關(guān)系數(shù),或Pears on相關(guān)系數(shù)。它能夠根據(jù) 樣本觀察值計(jì)算出兩個變量相關(guān)系數(shù)的估計(jì)值和總體相關(guān)

3、系數(shù)一樣,如果xy 0,稱X和Y不相關(guān)。這時它們沒有線性關(guān)系。多數(shù)情況下,樣本相關(guān)系數(shù)取區(qū)間(1,1)中的一個值。相關(guān)系數(shù)的 絕對值越大,表明X和丫之間存在的關(guān)系越接近線性關(guān) 系.1 . 3相關(guān)性檢驗(yàn)兩個變量X和丫之間的相關(guān)性檢驗(yàn)是對原假設(shè)Ho: Corr (X,Y)二 0的顯著性進(jìn)行檢驗(yàn)。檢驗(yàn)類型為t。如果Ho顯著,則X和丫之間沒有線性關(guān)系。1 . 4 計(jì)算樣本相關(guān)系數(shù)Correlate'Bivariate例1數(shù)據(jù)data02,計(jì)算變量當(dāng)前薪金、起始薪金、受教育年 限和工作經(jīng)驗(yàn)之間的樣本相關(guān)系數(shù)。打開 Correlate'Bivariate 對話框,將變量 salary、sa

4、lbegin、educ 和prevexp輸入Variables,點(diǎn)擊 OK,即得表格:Correlati ons受教育年限當(dāng)前薪金起始新金工作經(jīng)驗(yàn) (月)受教 育年限Pearson Correlation1.661*.633*-.252*Sig. (2-tailed).000.000.000N474474474474當(dāng) 前薪金Pearson Correlation.661*1.880*-.097*Sig. (2-tailed).000.000.034N474474474474起 始薪金Pearson Correlation.633*.880*1.045Sig. (2-tailed).000.0

5、00.327N474474474474工 作經(jīng)驗(yàn) (月)Pearson Correlation-.252*-.097*.0451Sig. (2-tailed).000.034.327N474474474474*. Correlation is significant at the 0.01 level (2-tailed).*. Correlation is sig nifica nt at the 0.05 level (2-tailed).表格中的Pearson Correlation指樣本相關(guān)系數(shù),例如起始薪金與受 教育年限的相關(guān)系數(shù)為0。633; Sig.為相關(guān)性檢驗(yàn)結(jié)果,起始薪金與受

6、教育年限的相關(guān)性檢驗(yàn)結(jié)果為Sig.=0。000,在0.05和0.01的水平下,都能否定它們不相關(guān)的假設(shè)。N為觀察值個數(shù)。1 . 5偏相關(guān)系數(shù)1 .控制變量以上在計(jì)算變量X和Y的相關(guān)系數(shù)時,并沒有考慮有其他變量的影響。例如:計(jì)算當(dāng)前薪金(salary)與起始薪金 (salbegin)的相關(guān)系數(shù)得0.890,但是當(dāng)前薪金顯然還受到受教育年限(educ)的影響,這個影響在計(jì)算相關(guān)系數(shù)時沒有被扣除,因此 0.890這個數(shù)字不完全真實(shí)。如扣除educ的影響,在計(jì)算salary和salbegin的相關(guān)系數(shù),就更接近真實(shí)了。這個被扣除的變量就叫控制變量,這里educ便是控制變量.控制變量可以不止一個。2 .

7、偏相關(guān)系數(shù)扣除控制變量影響后得到的相關(guān)系數(shù)稱為偏相關(guān)系數(shù)(partial correlation ),計(jì)算命令為:Correlate'Partial。例2數(shù)據(jù)data02,計(jì)算當(dāng)前薪金與起始薪金在扣除受教育年限 影響后的偏相關(guān)系數(shù).在Partial Correlations 對話框中,將變量 salary、salbegin輸入 Variables,將變量 educ輸入 Controlling for,然后 |OK,得: I ICorrelati onsCon trol Variables當(dāng)前薪金起始薪金受教育年限當(dāng)前薪金Correlati on1.000.795Sign ifica n

8、ee (2-tailed).000df0471起始薪金Correlati on.7951.000Sign ifica nee (2-tailed).000df4710其中Corrlation指偏相關(guān)系數(shù),df自由度,Significanee是對原假設(shè)Ho:pCorr(X, Y)= 0檢驗(yàn)結(jié)果得到的水平值??梢姡浩嚓P(guān)系數(shù)值等于0。795;不能接受不相關(guān)的假設(shè)。第二節(jié) 線性回歸方程2 1 一元線性回歸方程1 .相關(guān)分析是以線性關(guān)系為“樣板”,討論變量X和丫的相關(guān)程度,這一程度用相關(guān)系數(shù)表示。我們不禁要問:這個“樣板”是什么?也就是把這個做“樣板”的線性表達(dá)式 :丫b0b1 X(1)給出來,這也就

9、相當(dāng)于把系數(shù)bo和bi估計(jì)出來。這樣,變量X和丫的關(guān)系就可以表示成為:丫bo b1 X丫(2)其中 為誤差, 是一個隨機(jī)變量 .顯然, 相關(guān)系數(shù)絕對值越大 ,誤差 在表達(dá)式中占的比重就越小 ,也就是 線性部分 丫 占的比重越大 , 這就有可能用線性表達(dá)式(1)近似表達(dá)變量X和丫的關(guān)系。稱線 性表達(dá)式(1)為變量丫對于X的(一元線性)回歸方程?;貧w分析的主要任務(wù)是回答 :1) 回歸方程(1)能否近似代表變量 X和丫的關(guān)系。這實(shí)際是對線 性部分與誤差部分各占比重的估量;2) 怎樣估計(jì)回歸方程(1),也就是怎樣估計(jì)參數(shù)bo和b1。 顯然,在任務(wù) 2)完成前,任務(wù) 1 )無從開始。2.回歸的基本假設(shè)解

10、決回歸分析的主要任務(wù)還是要從樣本:(Xi,YJ,i 1,2,., n (3)入手 .套用( 2),樣本( 3)可以寫成:Yibo6Xj i , i 1,2,., n (4)以下所有分析推導(dǎo)都從 (4)出發(fā)。顯然,需要用到一些數(shù)學(xué)方法。為此提出以下基本假設(shè):假設(shè)1E( i)= 0 ,i = 1,2 ,n;假設(shè)2Var( i)=2 const, i=1,2,n;假設(shè)3Cov( i, j)=0 , i j;假設(shè)4i N (0,2), i=1,2,,n.3 .回歸系數(shù)bo、6的最小二乘估計(jì)這一部分內(nèi)容實(shí)際是估計(jì)回歸方程。作為變量X和丫實(shí)際關(guān)系的近似,自然要求回歸方程(1)計(jì)算出的丫值與樣本觀察值具有最

11、 小誤差。即把X代入(1)計(jì)算出的丫值:Yibo biXi, i 1,2,., n (5)與實(shí)際觀察到的Yi誤差最小?;貧w系數(shù)的估計(jì)式.通過它,可以完全 確定回歸方程。4.回歸方程的評價確定了回歸方程后,一個重要問題浮出水面:這個回歸方程有多大的代表性?能否投入使用?1)平方和分解公式公式中的三個平方和分別叫做:總平方和(total)n 2ST i 1(Yi Y)2殘差平方和(Residual) SQYi)回歸平方和(Regression)SR n1(Y? Y)2于是(9)式也可以寫成: 式。ST = SE + SR。設(shè)就是平方和分解公平方和分解公式指出一個事實(shí):殘差平方和SE與回歸平方和SR

12、之和是一個常量, 而殘差平方和SE越大,表明回歸方程跟樣本 觀察值擬合得越差,反之則越好。但從回歸平方和SR看,則正好相反,即:SR越大,回歸方程跟樣本觀察值擬合得越好2 )判決系數(shù)與復(fù)相關(guān)系數(shù)SRST定義 回歸平方和SR與平方總和ST的比值稱為回歸方程的判 決系數(shù),用R2表示判決系數(shù),則有:(10 )判決系數(shù)的算術(shù)平方根 R2稱為回歸方程的復(fù)相關(guān)系數(shù) . 顯然:0 R21 判決系數(shù)或復(fù)相關(guān)系數(shù)接近 1則表示回歸方程與樣本觀察值擬合得比較好。判決系數(shù)也回答了 (2)中線性部分丫所占比重的問題。3)回歸方程的顯著性檢驗(yàn)原假設(shè)Ho: bi = 0 (回歸方程不顯著)SR檢驗(yàn)統(tǒng)計(jì)量:FSE /( n

13、 2 )在給定檢驗(yàn)的顯著性水平o (例如0.05 )后,如果計(jì)算得統(tǒng)計(jì)量F對應(yīng)得水平值Sig。 0,則拒絕接受H。,這時稱 原假設(shè)H。不 顯著,也就是回歸方程顯著,這就意味著:接受回歸方程近似代表 變量丫和X的關(guān)系。5 .回歸分析命令 RegressionLinear例3數(shù)據(jù)data04,計(jì)算身高(high )與體重(weight)的相關(guān)系數(shù), 并以身高為自變量,體重為因變量求線性回歸方程,同時計(jì)算判決系數(shù)、檢驗(yàn)回歸方程的顯著性(取檢驗(yàn)水平° = 0。05)。打開Lin ear Rgressio n對話框,將 因變量 體重(weight)輸入 Dependent,將變量身高(high

14、)輸入Independent,點(diǎn)擊OK,得輸出 文件表格系列:Variables Entered/RemovedModelVariablesEnteredVariablesRemovedMethod1high aEntera. All requested variables entered.b. Dependent Variable: weight該表格是變量進(jìn)入或移出回歸方程的記錄,它指出:進(jìn)入方 程的變量是high,沒有變量移出方程,使用的方法為Enter (在回歸方程的優(yōu)化一節(jié)中會討論).兩個注是:a。所有提供的自變量都進(jìn)入方程。b.因變量是weight.Model SummaryMod

15、elRR S quareAdjusted R S quareStd. Error of the Estimate1.849a.721.7093.752a. Predictors: (Constant), high模型概況表格.其中R Square是判決系數(shù),R是復(fù)相關(guān)系數(shù),Adjusted R Square是校正的判決系數(shù)(容以后介紹)。注 a.預(yù)測元素為:(常數(shù)),high。即回歸方程等號右端是這兩部分組成.ANOVAbModelSum of SquaresdfMean SquareFSig.1Regressi on907.6981907.69864.480.0005Residual351.

16、9312514.077Total1259.63026a. Predictors: (Con sta nt), highb. Depe ndent Variable: weight方差分析表.這部分做回歸方程的顯著性檢驗(yàn),原假設(shè)Ho:回歸方程不顯著。表中Sum of Square一列:Regression是回歸平方和, Residual是殘差平方和,Total是總平方和。df是相應(yīng)的自由度,Mea n Square為對應(yīng)均方和,它的定義是:Mean Sqare = Sum of Square dfF是統(tǒng)計(jì)量的值,F = Regressi on Mean Square Residual Mean

17、Square最后的Sig.是F值對應(yīng)的顯著性。由于 Sig.=0。000 0。05,故原假 設(shè)Ho為不顯著,即回歸方程顯著。最后一個表格是系數(shù)表Coefficie ntsModelUn sta ndardized Coefficie ntsStan dardized Coefficie ntstSig.BStd. ErrorBeta1(Co nsta nt)-84.60516.193-5.225.000high85.12910.601.8498.030.000a. Depe ndent Variable: weight其中Unstandard Coefficients (非標(biāo)準(zhǔn)化系數(shù))給出回歸

18、方程的常數(shù) 項(xiàng)(Con sta nt)與變量high的系數(shù),它們在B列中顯示。因此,回歸 方程是:weight 84.60585.129 high2. 2多元線性回歸方程1 .模型 在變量Y和變量X1,X2,,Xp, (p> 2)之間建立關(guān)系:Yb°bX b2X2bpXpY(11)其中 為隨機(jī)變量,表示誤差。線性部分Y b° 4X1b2X2bpXp(12)對于(X1, X2,Xp, Y)的一個容量為n的觀察值 (Xi1,Xi2, Xip ,Yi), i 1,2., n (13)應(yīng)有Yib° b1Xi1 b2Xi2bpXipY I, i 1,2,., n (1

19、4)對(14)中的隨機(jī)誤差i有與一元線性回歸相同的假設(shè)。稱(12)為變量Y對于變量X1,X2,,Xp的p元線性回歸方程。它的基本問 題和一元線性回歸方程相同,也是:回歸方程如何估計(jì);回歸方程能否近似代表原變量的實(shí)際關(guān)系。2 .回歸系數(shù)的估計(jì)弓I入以下向量y (丫1,丫2,Yn)(1, 2,,n) ,b(bo,bi,b2,,bp),1 X21X 22X2p1 X11 X12X1 p1 Xn1 Xn2X np則(14 )可以表示為矩陣形式:y Xb(15 )殘差平方和:n2SEi1(Yi b° bK1 b2Xi2bpXip)(y Xb) (y Xb)y y yX bb X y b X X

20、b將其對b求導(dǎo)數(shù):SE2X y 2X Xb = 0b如果矩陣X X可逆,解得:b(XX) 1 X yb?這就是參數(shù)b的最小二乘估計(jì)3 .回歸方程的顯著性檢驗(yàn)原假設(shè):Ho: b1 =b2 = bp = 0 (回歸方程不顯者)檢驗(yàn)統(tǒng)計(jì)量:FSR / p SE/( n p 1)其中SR、SE定義同一元回歸。4 .回歸系數(shù)的顯著性檢驗(yàn)多元線性回歸分析也有有別于一元線性回歸的特殊問題,回 歸系數(shù)的顯著性即是其一。1)偏回歸平方和2)回歸系數(shù)的顯著性檢驗(yàn)原假設(shè)Ho: bj=0 (自變量Xj不顯著)備選假設(shè) Ho: bj 0 (自變量Xj顯著) 檢驗(yàn)統(tǒng)計(jì)量匚SR( j)F jSE /(n p 1)b?j它等

21、價于統(tǒng)計(jì)量其中:?2=;1( YiY?)2' 。np 1tj5 .關(guān)于校正的判決系數(shù)( Adjusted R Square )由于判決系數(shù) R2的值會隨自變量個數(shù)增加而變大,因此它不能正確反映方程的擬合效果。校正判決系數(shù)旨在消除這種影響。它定義為:1 MSEMST2 . 3利用回歸方程做預(yù)測回歸方程用途的主要部分是可以用它來做預(yù)測。1.所謂回歸方程的預(yù)測,就是在給定點(diǎn)(x,0),x20), ,xP0)利用回 歸方程對變量丫作出估計(jì)。這是一個典型的點(diǎn)估計(jì)問題,估計(jì)量 就是回歸方程。2.從估計(jì)的角度出發(fā),回歸方程的預(yù)測除點(diǎn)估計(jì)外,還有區(qū)間估計(jì),即估計(jì)變量丫的置信區(qū)間.例4 數(shù)據(jù)data05

22、,求變量丫對于變量X1, X2, X3, X4的4元非標(biāo)準(zhǔn)化線性回歸方程,并做顯著性檢驗(yàn)(水平取0.05),同時利用所得回歸方程預(yù)測n 0=14的Y值。在Linear Regression對話框中:將因變量 Y輸入Dependent,將 自變量 X1, X2, X3, X4輸入 Independent(s),將no輸入 Selection Variable并點(diǎn)擊Rule |,在菜單中選擇 not equal to并填入14.返回, 點(diǎn)擊Save , 在Save對話框中選擇Predicted Values中的Un sta ndardized 和 Prediction In tervals 中的

23、In dividual,填入需要的置信度。返回,OKCoefficients a,bModelUn sta ndardized Coefficie ntsStan dardized Coefficie ntstSig.BStd. ErrorBeta1(Co nsta nt)62.40570.071.891.399x11.551.745.6072.083.071x2.510.724.528.705.501x3.102.755.043.135.896x4-.144.709-.160-.203.844a Depe ndent Variable: yb. Select ing only cases f

24、or which no = 14從表中可知,回歸方程是:Y 62.405 1.551X10.510X20.102X30.144X4在0。05的顯著性水平下,自變量都不顯著ANOVAb,cModelSum of SquaresdfMean SquareFSig.1Regressi on2667.8994666.975111.479.00(fResidual47.86485.983Total2715.76312a. Predictors: (Con sta nt), x4, X3, x1, Xb. Depe ndent Variable: yc. Select ing only cases for

25、 which no = 14此表顯示,在0.05的顯著性水平下,回歸方程顯著Model Summary b,cModelRR SquareAdjusted R SquareStd. Error of the Estimateno = 14 (Selected)1.991a.982.9742.4460a. Predictors: (Con sta nt), x4, X3, x1, x2b. Uni ess no ted otherwise, statistics are based only on cases for which no = 14 .c. Depe ndent Variable:

26、y進(jìn)一步還能得到判決系數(shù)為0。982,校正判決系數(shù)為0。974,復(fù)相關(guān)系數(shù)為0。991.關(guān)于no=14觀察值的丫預(yù)測值在原始數(shù)據(jù)文件中生成的新變 量PRE 1中,為94.19281,95%置信區(qū)間的左、右端點(diǎn)分別由新變 量LICI 1 和 UICI 1 給出,由是知為(69。87367,118.51195)。例5數(shù)據(jù)data05,求變量X1的偏回歸平方和。在例4中,ANOVA表給出回歸平方和是 2667。899,按照偏回 歸平方和的定義,求 丫對于X2,X3,X4的回歸方程,此時 ANOVA 表格ANOVAb,cModelSum of SquaresdfMean SquareFSig.1Reg

27、ressi on2641.9493880.650107.375.00(fResidual73.81598.202Total2715.76312a Predictors: (Con sta nt), x4, X3, x2b. Depe ndent Variable: yc. Select ing only cases for which no = 14顯示回歸平方和為2641.949,故變量X1的偏回歸平方和等于SR( X1)= 2667.8992641。949 = 25.95也就是方程中少了自變量X1,回歸平方和就要損失 25。95。2 . 4回歸方程的優(yōu)化本節(jié)討論在給定的顯著性水平下,建立一

28、個所有自變量都顯著的回歸方程的不同方法。為區(qū)別以下的方法,稱上一節(jié)討論的建立回歸方程的方法為強(qiáng)制進(jìn)入法(Enter方法)1 .前進(jìn)法(Forward)第一步 建立p個一元線性回歸方程:Y?氏1)£1)Xj, j 1,2,., p在通過顯著性檢驗(yàn)的回歸方程中,選擇F值最大者留下,不妨設(shè)這個方程就是:丫?哄)硏1)X 1第二步用入選的自變量 Xi與其余p 1個自變量生成p 1個搭配:X1, Xj,j=2 ,p,求出p 1個回歸方程:Y?瞬?2)X1曙X2, j2,3,p再從顯著的方程中,選擇X2最顯著的方程留下。以下的步驟與以上相同,直到剩下的自變量中沒有一個顯著為 止,最后的方程即所求

29、。例6 數(shù)據(jù)data05,用前進(jìn)法求回歸方程。做法同例 2,只是在 Lin ear Regression對話框的 Mathod 欄 將 Enter 改變?yōu)?Forward.Variables En tered/RemovedModelVariables En teredVariablesRemovedMethod1x4Forward (Criteri on: Probabilit y-of- F-to-e nter <=.050)2x1Forward (Criteri on: Probabilit y-of- F-to-e nter <=.050)a. Depe ndent Var

30、iable: yb. Models are based only on cases for Wich no = 14此表顯示:進(jìn)入變量檢 驗(yàn)的臨界概率為0.05,即顯著水平大于此值的變量都要出局。在此標(biāo)準(zhǔn)下,X4首選入方程,X1次選入方程,其 他變量落選.Model SummaryModelRR SquareAdjusted R SquareStd. Error of the Estimateno = 14 (Selected)1.821a.675.6458.96392.98衣.972.9672.7343a. Predictors: (Con sta nt), x4b. Predictors:

31、 (Con sta nt), x4, x1此表顯示:第一個方程(自變量只有 X4)的判決系數(shù)為0。645, 而第二個方程(自變量為X4和X1)的判決系數(shù)為0.967,有了很大的 提升。ANOVAc,dModelSum of SquaresdfMean SquareFSig.1Regressi on1831.89611831.89622.799.0013Residual883.8671180.352Total2715.763122Regressi on2641.00121320.500176.627.00$Residual74.762107.476Total2715.76312a. Predic

32、tors: (Con sta nt), x4b. Predictors: (Con sta nt), x4, xlc. Depe ndent Variable: yd. Select ing only cases for which no = 14此表顯示:第一、第二兩個回歸方程都顯著Coefficie ntsModelUn sta ndardized Coefficie ntsStan dardized Coefficie ntstSig.BStd.ErrorBeta1(Co nsta nt)117.5685.26222.342.000x4-.738.155-.821-4.775.0012(

33、Co nsta nt)103.0972.12448.540.000x4-.614.049-.683-12.621.000x11.440.138.56310.403.000a. Depe ndent Variable: yb. Select ing only cases for which no = 14此表顯示:第一個方程是 Y 117.5680.738X4,方程中沒有不顯著變量;第二個方程是丫 103.097 0.614X4 1.440Xi,方程中也沒 有不顯著變量。Excluded V ariables cModelBeta IntSig.Partial Correlati onColli

34、 nearity StatisticsTolera nee1x1.56310.403.000.957.940x2.32Z5.415.687.130.053x3-.511a-6.348.000-.895.9992x2.43“2.242.052.599.053x3-.175b-2.058.070-.566.289a. Predictors in the Model: (Con sta nt), x4b. Predictors in the Model: (Co nsta nt), x4, x1c. Depe ndent Variable: y此表顯示每次篩選中未進(jìn)入方程的變量。注意未進(jìn)入第二個方程

35、的變量X2和X3,它們的Sig。值分別是0。 052和0.070,均大于臨 界概率0。05,這就是它們被淘汰的原因。2 .退后法(Backward)做法與前進(jìn)法相反.即第一步將所有的 p個自變量都進(jìn)入方程,從第二步開始,每一步都將方程中最不顯著的自變量剔除,直到方程中沒有不顯著的自變量為止。例7 數(shù)據(jù)data05,用后退法求回歸方程。打開 Lin ear Regressio n 對話框,Method 一欄改為 Backward ,其他一切做法照舊.點(diǎn)擊OK,得輸出:Variables Entered/Removed b,cModelVariables En teredVariablesRemo

36、vedMethod1x4, x3, X,En terBackward (criteri on: Probabilit2x23x3y of F-to-remo ve >=. 100). Backward (criteri on: Probabilitx4y of F-to-remo ve >=. 100).a. All requested variables en tered.b. Depe ndent Variable: yc. Models are based only on cases for Wich no = 14此表顯示:剔除變量的臨界概率為0.100,第一個方程按照后退

37、法應(yīng)該把所有自變量都進(jìn)入方程,所以Model 1顯示X4, X3,X1,X2全都進(jìn)入方程,注意這時Method顯示的是Enter而非Backward,想一想這是為什么。 第二個方程也就是 Model 2把X3剔除出去,這時Method顯示Backward.第三個方程即 Model 3又把X4剔除出去,以 后沒有剔除動作,這 Model 3就是最終結(jié)果。Model SummaryModelRR SquareAdjusted R SquareStd. Error of the Estimateno = 14 (Selected)1.991a.982.9742.44602.991b.982.9762

38、.30873.98SP.979.9742.4063a. Predictors: (Con sta nt), x4, X3, x1, x2b. Predictors: (Con sta nt), x4, x1, x2c. Predictors: (Con sta nt), x1, X這張表格無需多做解釋。 提醒讀者,從中可以看到隨自變量個數(shù)增 加,判決系數(shù)確有增大的趨勢。ANOVAd,eModelSum ofSquaresdfMean SquareFSig.1Regressi on2667.8994666.975111.479.00(fResidual47.86485.983Total2715.

39、763122Regressi on2667.7903889.263166.832.00&Residual47.97395.330Total2715.763123Regressi on2657.85921328.929229.504.00Residual57.904105.790Total2715.76312a. Predictors: (Constant), x4, X>, x1, x2b. Predictors: (Con sta nt), x4, xl, x2c. Predictors: (Con sta nt), x1, Xd. Depe ndent Variable: y

40、e. Selecting only cases for which no = 14這張表也無需多做解釋,它指出三個模型都顯著Excluded V ariables cModelBeta IntSig.Partial Correlati onColli nearity StatisticsTolera nee2x3.0435.135.896.048.0213x3.10631.354.209.411.318x4-.263b-1.365.205-.414.053a. Predictors in the Model: (Co nsta nt), x4, x1, x2b. Predictors in t

41、he Model: (Co nsta nt), x1, x2c. Depe ndent Variable: y這是被剔除變量的清單。Model 2中變量X3被剔除理由是它的Sig.值為0.896,遠(yuǎn)大于臨界值0。100,并且是所有Sig.值大于臨界值 的變量中最大的一個。類似解釋Model 2。ModelUn sta ndardized Coefficie ntsStan dardized Coefficie ntstSig.BStd. ErrorBeta1(Co nsta nt)62.40570.071.891.399x11.551.745.6072.083.071x2.510.724.52

42、8.705.501x3.102.755.043.135.896x4-.144.709-.160-.203.8442(Co nsta nt)71.64814.1425.066.001x11.452.117.56812.410.000x2.416.186.4302.242.052x4-.237.173-.263-1.365.2053(Co nsta nt)52.5772.28622.998.000x11.468.121.57412.105.000x2.662.046.68514.442.000a. Depe ndent Variable: yb. Select ing only cases for which no = 14這是三個回歸方程的清單:模型1方程為Y 62.4051.551X10.510X20.102X30.144X4按系統(tǒng)給的0。100的檢驗(yàn)水平,除 X1顯著外,其余自變量均不 顯著,而且Sig。最大者為X3達(dá)到0.896,故剔除X3,重新回歸, 得模型2,方程為Y 71.6481.452 X10.416X20.2

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論