Biograafiad Omadused Analüüs

Määrake paarilise lineaarse regressiooni võrrandi parameetrid. Näidisvariatsioon jaoks

Paaritud lineaarne regressioon

TÖÖTUBA

Paaritud lineaarne regressioon: töötuba. -

Ökonomeetria õppes omandatakse kogemusi ökonomeetriliste mudelite loomisel, mudeli spetsifikatsiooni ja identifitseerimise otsuste tegemisel, mudeli parameetrite hindamise meetodi valimisel, selle kvaliteedi hindamisel, tulemuste tõlgendamisel, ennustavate hinnangute saamisel jne. Töötuba aitab õpilastel omandada neis küsimustes praktilisi oskusi.

Kinnitatud toimetuse ja kirjastusnõukogu poolt

Koostanud: M.B. Perova, majandusdoktor, professor

Üldsätted

Ökonomeetrilised uuringud saavad alguse teooriast, mis loob seosed nähtuste vahel. Efektiivset omadust mõjutavate tegurite kogu hulgast eristatakse kõige olulisemad tegurid. Pärast seda, kui uuritud tunnuste vahelise seose olemasolu on tuvastatud, määratakse selle seose täpne vorm regressioonanalüüsi abil.

Regressioonanalüüs on määrata analüütiline avaldis (funktsiooni definitsioonis), milles ühe väärtuse (efektiivse tunnuse) muutus on tingitud mõjust. sõltumatu väärtus(faktoriaalne märk). Seda seost saab kvantifitseerida, koostades regressioonivõrrandi või regressioonifunktsiooni.

Regressiooni põhimudel on paaris (ühefaktoriline) regressioonimudel. Paari regressioon– kahe muutuja seose võrrand juures ja X:

kus - sõltuv muutuja (tulemusmärk);

– sõltumatu, selgitav muutuja (faktoriaalne märk).

Olenevalt muutuse iseloomust juures muutusega X eristada lineaarset ja mittelineaarset regressiooni.

Lineaarne regressioon

Seda regressioonifunktsiooni nimetatakse esimese astme polünoomiks ja seda kasutatakse ajas ühtlaselt arenevate protsesside kirjeldamiseks.

Juhusliku liikme olemasolu (regressioonivead) seostatakse võrrandis arvesse võtmata muude tegurite mõjuga sõltuvale muutujale, mudeli võimaliku mittelineaarsusega, mõõtmisvigadega, seega ka välimusega. juhusliku vea võrrand regressioon võib olla tingitud järgmisest eesmärgist põhjustel:

1) valimi mitterepresentatiivsus. Paaritud regressioonimudel sisaldab tegurit, mis ei suuda täielikult seletada tulemuse atribuudi varieerumist, mida võivad paljud teised tegurid (puuduvad muutujad) palju suuremal määral mõjutada. Tööhõive, töötasu võivad sõltuda lisaks kvalifikatsioonile ka haridustasemest, töökogemusest, soost jne;

2) on võimalus, et mudelisse kaasatud muutujaid võidakse mõõta ekslikult. Näiteks kogutakse andmed pere toidukulutuste kohta küsitluses osalejate kirjetest, kellelt oodatakse oma igapäevaste kulutuste hoolikat fikseerimist. Loomulikult võib see põhjustada vigu.

Valimi vaatluse põhjal hinnatakse valimi regressiooni võrrandit ( regressioonijoon):

,

kus
– regressioonivõrrandi parameetrite hinnangud (
).

Sõltuvuse analüütiline vorm uuritud tunnuste paari vahel (regressioonifunktsioon) määratakse järgmise abil meetodid:

    Põhineb teoreetilisel ja loogilisel analüüsil uuritavate nähtuste olemus, nende sotsiaalmajanduslik olemus. Näiteks kui uurida seost elanike sissetulekute ja elanike pankades olevate hoiuste suuruse vahel, siis on ilmne, et seos on otsene.

    Graafiline meetod kui suhte olemust visuaalselt hinnata.

Seda sõltuvust on selgelt näha, kui koostate graafiku, kandes atribuudi väärtuse x-teljele X ja y-teljel - funktsiooni väärtused juures. Pannes graafikule väärtustele vastavad punktid X ja juures, saame korrelatsiooniväli:

a) kui punktid on kogu väljal juhuslikult hajutatud, näitab see nende tunnuste vahelise seose puudumist;

b) kui punktid on koondunud ümber telje, mis ulatub vasakust alumisest nurgast paremasse ülemisse, siis on märkide vahel otsene seos;

c) kui punktid on koondunud ümber telje, mis kulgeb vasakust ülanurgast paremasse alanurka, siis on tunnuste vaheline seos pöördvõrdeline.

Kui korrelatsiooniväljal ühendame punktid sirglõikudega, siis saame katkendlik joon mõningase tõusutrendiga. See on empiiriline link või empiiriline regressioonijoon. Selle välimuse järgi saab hinnata mitte ainult uuritavate tunnuste vahelise seose olemasolu, vaid ka vormi.

Paari regressioonivõrrandi koostamine

Regressioonivõrrandi konstrueerimine taandatakse selle parameetrite hindamisele. Neid parameetrite hinnanguid saab leida mitmel viisil. Üks neist on meetod vähimruudud(MNK). Meetodi olemus on järgmine. Iga väärtus vastab empiirilisele (vaadeldud) väärtusele . Koostades regressioonivõrrandi, näiteks sirge võrrandi, iga väärtus vastab teoreetilisele (arvutatud) väärtusele . Vaadeldud väärtused ei asu täpselt regressioonisirgel, st. ei sobi kokku . Nimetatakse sõltuva muutuja tegelike ja arvutatud väärtuste erinevus ülejäänud osa:

LSM võimaldab teil saada selliseid parameetrite hinnanguid, milles on efektiivse tunnuse tegelike väärtuste ruutude hälvete summa. juures teoreetilisest , st. jääkide ruutude summa, minimaalne:

Lineaarsete võrrandite ja lineaarseks taandatavate mittelineaarsete võrrandite puhul lahendatakse järgmine süsteem seoses a ja b:

kus n- näidissuurus.

Lahendades võrrandisüsteemi, saame väärtused a ja b, mis võimaldab meil kirjutada regressioonivõrrand(regressioonivõrrand):

kus on selgitav (sõltumatu) muutuja;

–selgitatud (sõltuv) muutuja;

Regressioonisirge läbib punkti ( ,) ja võrdsused on täidetud:

Võite kasutada valmis valemeid, mis tulenevad sellest võrrandisüsteemist:

kus - sõltuva tunnuse keskmine väärtus;

on sõltumatu tunnuse keskmine väärtus;

on sõltuvate ja sõltumatute tunnuste korrutise aritmeetiline keskmine;

on sõltumatu tunnuse dispersioon;

on kovariatsioon sõltuvate ja sõltumatute tunnuste vahel.

Näidis kovariatsioon kaks muutujat X, juures helistas keskmine väärtus nende muutujate keskmistest kõrvalekallete korrutis

Parameeter b juures X on suurepärane praktiline väärtus ja seda nimetatakse regressioonikoefitsiendiks. Regressioonikoefitsient näitab, mitu ühikut väärtus keskmiselt muutub juures X 1 selle mõõtühik.

Parameetri märk b paaris regressioonivõrrandis näitab seose suunda:

kui
, siis seos uuritavate näitajate vahel on otsene, s.o. faktortunnuse suurenemisega X saadud märk suureneb juures, ja vastupidi;

kui
, siis on uuritud näitajate vaheline seos pöördvõrdeline, s.t. faktortunnuse suurenemisega X tõhus märk juures väheneb ja vastupidi.

Parameetri väärtus a paaris regressioonivõrrandis võib mõnel juhul tõlgendada efektiivse tunnuse algväärtust juures. See parameetri tõlgendus a võimalik ainult siis, kui väärtus
omab tähendust.

Pärast regressioonivõrrandi koostamist vaadeldavad väärtused y võib ette kujutada järgmiselt:

Jäänused , samuti vigu , on juhuslikud muutujad, kuid need on erinevalt vigadest , jälgitav. Ülejäänud osa on sõltuva muutuja see osa y, mida ei saa seletada regressioonivõrrandiga.

Regressioonivõrrandi põhjal saab arvutada teoreetilised väärtused X mis tahes väärtuste jaoks X.

Majandusanalüüsis kasutatakse sageli funktsiooni elastsuse mõistet. Funktsiooni elastsus
arvutatakse suhtelise muutusena y suhtelisele muutusele x. Elastsus näitab, kui palju funktsioon muutub
kui sõltumatu muutuja muutub 1%.

Kuna elastsus lineaarne funktsioon
ei ole püsiv väärtus, kuid oleneb X, siis arvutatakse elastsuskoefitsient tavaliselt keskmise elastsusindeksina.

Elastsustegur näitab, mitu protsenti efektiivse atribuudi väärtus kokkuvõttes keskmiselt muutub juures faktorimärgi muutmisel X 1% selle keskmisest väärtusest:

kus
– muutujate keskmised väärtused X ja juures proovis.

Konstrueeritud regressioonimudeli kvaliteedi hindamine

Regressioonimudeli kvaliteet– konstrueeritud mudeli adekvaatsus esialgsetele (vaadeldud) andmetele.

Ühenduse tiheduse mõõtmiseks, s.o. et mõõta, kui lähedal see on funktsionaalsele, peate määrama kõrvalekaldeid mõõtva dispersiooni juures alates juures X ja muudest teguritest tingitud jääkvariatsiooni iseloomustamine. Need on regressioonimudeli kvaliteeti iseloomustavate näitajate aluseks.

Paaripõhise regressiooni kvaliteet määratakse iseloomustavate koefitsientide abil

1) ühenduse tihedus - korrelatsiooniindeks, paariline lineaarne korrelatsioonikordaja;

2) lähendusviga;

3) regressioonivõrrandi ja selle üksikute parameetrite kvaliteet - regressioonivõrrandi kui terviku ja selle üksikute parameetrite keskmised ruutvead.

Mis tahes regressioonivõrrandid on määratletud korrelatsiooniindeks, mis iseloomustab ainult korrelatsioonisõltuvuse tihedust, s.o. selle funktsionaalsele ühendusele lähendamise aste:

,

kus – faktoriaalne (teoreetiline) dispersioon;

on kogu dispersioon.

Korrelatsiooniindeks võtab väärtusi
, kus,

kui

kui
on suhe tunnuste vahel X ja juures on funktsionaalne, seda lähemal 1-ni, seda tihedamat seost uuritud tunnuste vahel peetakse. Kui a
, siis võib suhet pidada lähedaseks

Ühenduse tiheduse näitajate arvutamiseks vajalikud dispersioonid arvutatakse:

Kogu dispersioon, mõõtmine ühine variatsioon kõigi tegurite mõju tõttu:

Faktoriaalne (teoreetiline) dispersioon, saadud tunnuse varieerumise mõõtmine juures tegurimärgi toime tõttu X:

Jääkdispersioon, mis iseloomustab tunnuse varieerumist juures kõigi tegurite tõttu, välja arvatud X(st välistatud X):

Seejärel vastavalt dispersioonide liitmise reeglile:

Leiliruumi kvaliteet lineaarne regressiooni saab defineerida ka kasutades paaris lineaarne korrelatsioonikordaja:

,

kus
– muutujate kovariatsioon X ja juures;

– sõltumatu tunnuse standardhälve;

on sõltuva tunnuse standardhälve.

Lineaarne korrelatsioonikordaja iseloomustab uuritavate tunnuste vahelise seose tihedust ja suunda. Seda mõõdetakse vahemikus [-1; +1]:

kui
- siis on märkide vaheline seos otsene;

kui
- siis on märkide vaheline seos pöördvõrdeline;

kui
– siis puudub märkide vahel seos;

kui
või
- siis on tunnuste omavaheline suhe funktsionaalne, s.t. iseloomustab täiuslik kokkulangevus X ja juures. Mida lähemal 1-ni, seda tihedamat seost uuritud tunnuste vahel peetakse.

Kui korrelatsiooniindeks (paaritud lineaarne koefitsient korrelatsioonid) ruudus, saame determinatsioonikordaja.

Määramiskoefitsient- tähistab teguri dispersiooni osakaalu kogusummas ja näitab, mitu protsenti on saadud atribuudi varieeruvus juures seletatav faktori tunnuse varieerumisega X:

See ei hõlma kõiki variatsioone. juures faktori tunnusest X, vaid ainult see osa sellest, mis vastab lineaarse regressiooni võrrandile, s.o. näitab erikaal saadud tunnuse variatsioon, mis on lineaarselt seotud faktortunnuse varieerumisega.

Väärtus
- saadud atribuudi variatsiooni osakaal, mida regressioonimudel ei saanud arvesse võtta.

Korrelatsioonivälja punktide hajumine võib olla väga suur ning arvutatud regressioonivõrrand võib anda analüüsitava näitaja hindamisel suure vea.

Keskmine lähendusviga näitab arvutatud väärtuste keskmist kõrvalekallet tegelikest väärtustest:

Maksimaalne lubatud väärtus on 12–15%.

Standardviga kasutatakse sõltuva muutuja leviku mõõtmiseks ümber regressioonisirge. Kogu vaadeldud väärtuste komplekti puhul on standardne (rms) regressioonivõrrandi viga, mis on tegelike väärtuste standardhälve juures regressioonivõrrandiga arvutatud teoreetiliste väärtuste suhtes juures X .

,

kus
on vabadusastmete arv;

m on regressioonivõrrandi parameetrite arv (sirgevõrrandi jaoks m=2).

Keskmise ruutvea väärtust saab hinnata selle võrdlemise teel

a) efektiivse tunnuse keskmise väärtusega juures;

b) tunnuse standardhälbega juures:

kui
, siis on selle regressioonivõrrandi kasutamine asjakohane.

Hinnatakse eraldi standard (rms) võrrandi parameetrite ja korrelatsiooniindeksi vead:

;
;
.

X– standardhälve X.

Regressioonivõrrandi ja ühenduse tiheduse näitajate olulisuse kontrollimine

Selleks, et konstrueeritud mudelit saaks edasisteks majandusarvutusteks kasutada, ei piisa konstrueeritud mudeli kvaliteedi kontrollimisest. Samuti on vaja kontrollida regressioonivõrrandi ja seose läheduse näitaja vähimruutude meetodil saadud hinnangute olulisust (olulisust), s.o. on vaja kontrollida nende vastavust suhte tõelistele parameetritele.

Selle põhjuseks on asjaolu, et piiratud populatsiooni jaoks arvutatud näitajad säilitavad atribuudi individuaalsetele väärtustele omase juhuslikkuse elemendi. Seetõttu on need vaid hinnangud teatud statistilisele regulaarsusele. On vaja hinnata regressiooniparameetrite täpsuse ja olulisuse (usaldusväärsus, olulisus) astet. Under tähtsust mõista tõenäosust, et kontrollitud parameetri väärtus ei ole võrdne nulliga, ei sisalda vastupidiste märkide väärtusi.

Olulisuse test– eelduse kontrollimine, et parameetrid erinevad nullist.

Paaritud regressioonivõrrandi olulisuse hindamine taandub hüpoteeside kontrollimisele regressioonivõrrandi kui terviku ja selle üksikute parameetrite olulisuse kohta ( a, b), paari määramiskordaja või korrelatsiooniindeks.

Sel juhul võib välja tuua järgmise peamised hüpoteesidH 0 :

1)
– regressioonikordajad on ebaolulised ja ka regressioonivõrrand on ebaoluline;

2)
– paari determinatsioonikordaja on ebaoluline ja ka regressioonivõrrand on ebaoluline.

Alternatiivsed (või vastupidised) hüpoteesid on järgmised:

1)
– regressioonikordajad erinevad oluliselt nullist ja konstrueeritud regressioonivõrrand on oluline;

2)
– paari määramistegur erineb oluliselt nullist ja konstrueeritud regressioonivõrrand on oluline.

Paaritud regressioonivõrrandi olulisuse hüpoteesi kontrollimine

Regressioonivõrrandi kui terviku ja määramiskordaja statistilise ebaolulisuse hüpoteesi kontrollimiseks kasutame F- kriteerium(Fisheri kriteerium):

või

kus k 1 = m–1 ; k 2 = nm on vabadusastmete arv;

n on rahvastikuühikute arv;

m on regressioonivõrrandi parameetrite arv;

– tegurite hajutamine;

on jääkvariatsioon.

Hüpoteesi kontrollitakse järgmiselt:

1) kui tegelik (vaadeldud) väärtus F-kriteerium on suurem kui selle kriteeriumi kriitiline (tabeli) väärtus
, siis tõenäosusega
põhihüpotees regressioonivõrrandi või paari määramiskordaja ebaolulisuse kohta lükatakse tagasi ja regressioonivõrrand tunnistatakse oluliseks;

2) kui F-kriteeriumi tegelik (vaadatud) väärtus on väiksem selle kriteeriumi kriitilisest väärtusest
, siis tõenäosusega (
) aktsepteeritakse põhihüpoteesi regressioonivõrrandi või paari määramiskordaja ebaolulisuse kohta ja konstrueeritud regressioonivõrrand tunnistatakse ebaoluliseks.

kriitiline väärtus F- kriteerium leitakse vastavalt olulisuse astmele vastavate tabelite järgi ja vabadusastmete arv
.

Vabadusastmete arv– indikaator, mis on defineeritud kui erinevus valimi suuruse vahel ( n) ja selle valimi hinnanguliste parameetrite arv ( m). Paaritud regressioonimudeli puhul arvutatakse vabadusastmete arv järgmiselt
, kuna valimi põhjal hinnatakse kahte parameetrit (
).

Olulisuse tase - määratud väärtus
,

kus on usaldustõenäosus, et hinnanguline parameeter jääb usaldusvahemikku. Tavaliselt võetakse 0,95. Seega on tõenäosus, et hinnanguline parameeter ei lange usaldusvahemikku, võrdub 0,05 (5%) .

Seejärel arvutatakse paaris regressioonivõrrandi olulisuse hindamisel F-kriteeriumi kriitiline väärtus
:

.

Paari regressioonivõrrandi parameetrite ja korrelatsiooniindeksi olulisuse hüpoteesi testimine

Võrrandi parameetrite olulisuse kontrollimisel (eeldusel, et parameetrid erinevad nullist), püstitatakse põhihüpotees saadud hinnangute ebaolulisuse kohta (
. Alternatiivina (pöörd) püstitatakse hüpotees võrrandi parameetrite olulisuse kohta (
).

Pakutud hüpoteeside kontrollimiseks kasutame t - kriteerium (t- statistika) Üliõpilane. Täheldatud väärtus t-kriteeriumit võrreldakse väärtusega t- Studenti jaotustabeliga määratud kriteerium (kriitiline väärtus). kriitiline väärtus t- kriteeriumid
sõltub kahest parameetrist: olulisuse tasemest ja vabadusastmete arv
.

Väljapakutud hüpoteese kontrollitakse järgmiselt:

1) kui vaadeldava väärtuse moodul t-kriteerium on suurem kui kriitiline väärtus t-kriteeriumid, st.
, siis tõenäosusega
lükatakse tagasi põhihüpotees regressiooniparameetrite ebaolulisusest, s.t. regressiooniparameetrid ei ole võrdsed 0-ga;

2) kui vaadeldava väärtuse moodul t- kriteerium on kriitilisest väärtusest väiksem või sellega võrdne t-kriteeriumid, st.
, siis tõenäosusega
aktsepteeritakse põhihüpoteesi regressiooniparameetrite ebaolulisuse kohta, s.o. regressiooniparameetrid peaaegu ei erine 0-st või on võrdsed 0-ga.

Regressioonikordajate olulisuse hindamine Studenti testi abil viiakse läbi nende hinnangute võrdlemisel standardvea väärtusega:

;

Seda kasutatakse ka korrelatsiooni indeksi (lineaarkordaja) statistilise olulisuse hindamiseks t- Üliõpilase kriteerium.

Paaritud regressioon iseloomustab suhet kahe tunnuse vahel: resultant- ja faktoriaal. Oluline ja mittetriviaalne samm regressioonimudeli koostamisel on regressioonivõrrandi valik. See valik põhineb uuritava nähtuse teoreetilistel andmetel ja olemasolevate statistiliste andmete esialgsel analüüsil.

Leiliruumi võrrand lineaarne regressioon tundub, et:

kus on regressioonivõrrandiga saadud efektiivse tunnuse teoreetilised väärtused; - regressioonivõrrandi koefitsiendid (parameetrid).

Regressioonimudel on üles ehitatud statistiliste andmete põhjal ja seda saab kasutada kui individuaalsed väärtused funktsioonid ja rühmitatud andmed. Tunnustevahelise seose tuvastamiseks piisab suur hulk vaatlused, statistilised andmed grupeeritakse eelnevalt mõlema kriteeriumi järgi ja koostatakse korrelatsioonitabel. Abiga vastavustabel kuvatakse ainult paaridevaheline korrelatsioon, st. efektiivse tunnuse seos ühe teguriga. Regressioonivõrrandi parameetrite hindamine toimub vähimruutude meetodil, mis põhineb uuritava üldkogumi vaatluste sõltumatuse eeldusel ja nõudel, et empiiriliste andmete ruudus hälvete summa joondatud väärtustest. efektiivne tegur on minimaalne:

.

Sest lineaarvõrrand meil on regressioon:

Selle funktsiooni miinimumi leidmiseks võrdsustame selle osatuletised nulliga ja saame kahest lineaarsest võrrandist koosneva süsteemi, mida nimetatakse süsteemiks normaalvõrrandid:

kus on uuritava populatsiooni maht (vaatlusühikute arv).

Normaalvõrrandisüsteemi lahendamine võimaldab leida regressioonivõrrandi parameetrid.

Paaripõhine lineaarne regressioonikordaja on punkti keskmine väärtus, mistõttu on selle majanduslik tõlgendamine keeruline. Selle koefitsiendi tähendust võib tõlgendada kui keskmist mõju arvestamata (uurimiseks eraldamata) tegurite efektiivsele atribuudile. Koefitsient näitab, kui palju efektiivse atribuudi väärtus keskmiselt muutub, kui faktoratribuut muutub ühe võrra.

Pärast regressioonivõrrandi saamist on vaja kontrollida selle adekvaatsust ehk vastavust tegelikele statistilistele andmetele. Selleks kontrollitakse regressioonikordajate olulisust: selgub, mil määral on need näitajad tüüpilised kogu elanikkonnast kas need on asjaolude juhusliku kombinatsiooni tulemus.

Lihtsa lineaarse regressiooni kordajate olulisuse testimiseks populatsiooni suurusega alla 30 ühiku kasutatakse Studenti t-testi. Võrreldes parameetri väärtust selle keskmise veaga, määratakse kriteeriumi väärtus:


kus on parameetri keskmine viga .

Parameetrite keskmine viga arvutatakse järgmiste valemite abil:

; ,

- näidissuurus;

Saadud tunnuse standardhälve joondatud väärtustest;

Koefitsiendi märgi standardhälve kogu keskmisest:

või

Seejärel on kriteeriumi arvutatud (tegelikud) väärtused võrdsed:

- parameetri jaoks;

- parameetri jaoks.

Kriteeriumi arvutatud väärtusi võrreldakse kriitiliste väärtustega, mis määratakse õpilase tabeliga, võttes arvesse aktsepteeritud olulisuse taset ja vabadusastmete arvu, kus on valimi suurus, -1 ( on faktorimärkide arv). Sotsiaalmajanduslikes uuringutes võetakse olulisuse tasemeks tavaliselt 0,05 või 0,01. Parameeter tunnistatakse oluliseks, kui (lükatakse ümber hüpotees, et parameeter osutus saadud väärtusega võrdseks ainult juhuslike asjaolude tõttu, kuid tegelikkuses on see võrdne nulliga).

Regressioonimudeli adekvaatsust saab hinnata Fisheri testi abil. Kriteeriumi arvutatud väärtus määratakse valemiga ,

kus on mudeli parameetrite arv;

Näidissuurus.

Tabelis määratakse Fisheri kriteeriumi kriitiline väärtus aktsepteeritud olulisuse taseme ja vabadusastmete arvu jaoks , . Kui , siis regressioonimudel tunnistatakse selle kriteeriumi järgi adekvaatseks (hüpotees võrrandile omaste seoste ja reaalselt eksisteerivate seoste lahknevuse kohta lükatakse tagasi).

Korrelatsioon-regressioonanalüüsi teiseks ülesandeks on mõõta resultant- ja faktorimärgi sõltuvuse tihedust.

Igat tüüpi ühenduste puhul saab sõltuvuse läheduse mõõtmise probleemi lahendada teoreetilise korrelatsioonisuhte arvutamisega:

,

kus - efektiivtunnuse joondatud väärtuste seeria dispersioon faktortunnuse tõttu;

- dispersioon tegelike väärtuste seerias. See on summaarne dispersioon, mis on tegurist tuleneva dispersiooni (st teguri dispersiooni) ja jääkväärtuse dispersiooni (hälbe) summa. empiirilised väärtused joon joondatud teoreetilistest).

Põhineb dispersioonide liitmise reeglil teoreetilist korrelatsioonikorda saab väljendada jääkvariatsioonina:

.

Kuna dispersioon peegeldab rea varieerumist ainult teguri varieerumise tõttu ja dispersioon peegeldab kõigi tegurite varieerumist, siis nende suhe, mida nimetatakse teoreetiliseks määramiskoefitsiendiks, näitab, milline osakaal on kogu dispersioon seeria on hõivatud teguri varieerumisest põhjustatud dispersiooniga. Ruutjuur nende dispersioonide suhtest annab teoreetilise korrelatsioonisuhte. Mittelineaarsete seoste korral nimetatakse teoreetilist korrelatsioonisuhet korrelatsiooniindeksiks ja tähistatakse .

Kui , siis see tähendab, et muude tegurite roll variatsioonis puudub, jääkdispersioon on null ja suhe tähendab täielik sõltuvus variatsioonid alates . Kui , siis see tähendab, et variatsioon ei mõjuta variatsiooni mingil moel ja antud juhul . Seetõttu on korrelatsioonisuhe väärtused vahemikus 0 kuni 1. Mida lähemal on korrelatsioonisuhe 1-le, seda tihedam ühendus märkide vahel.

Lisaks kasutatakse ühendusvõrrandi lineaarse vormi korral teist ühenduse tiheduse indikaatorit - lineaarset korrelatsioonikordajat:

.

Lineaarne korrelatsioonikordaja võtab väärtused -1 kuni 1. Negatiivsed väärtused osutada pöördvõrdeline seos, positiivne - otse. Mida lähemal on korrelatsioonikordaja moodul ühtsusele, seda tihedam on tunnuste seos.

Aktsepteeritakse järgmisi lineaarse korrelatsioonikordaja piirhinnanguid:

Ühendust pole;

Suhtlemine on nõrk;

Suhtlemine on keskpärane;

Ühendus on tugev;

Seos on väga tugev.

Lineaarse korrelatsioonikordaja ruutu nimetatakse lineaarseks määramisteguriks.

Teoreetilise korrelatsioonisuhte ja lineaarse korrelatsioonikordaja kokkulangevuse või mittevastavuse fakti kasutatakse sõltuvuse vormi hindamiseks. Nende väärtused on samad ainult siis, kui lineaarne ühendus. Nende väärtuste lahknevus näitab tunnuste vahelise seose mittelineaarsust. Eeldatakse, et kui , siis võib seose lineaarsuse hüpoteesi lugeda kinnitatuks.

Seoste läheduse näitajad, eriti need, mis on arvutatud suhteliselt väikese statistilise üldkogumi andmete põhjal, võivad juhuslike põhjuste mõjul moonduda. See tingib vajaduse kontrollida nende usaldusväärsust (olulisust), mis võimaldab laiendada valimiandmetest saadud järeldusi üldkogumile.

Selleks arvutatakse korrelatsioonikordaja keskmine viga:

Kus on vabadusastmete arv lineaarse seosega.

Seejärel leitakse korrelatsioonikordaja ja selle keskmise vea suhe, st võrreldakse Studenti t-testi tabeliväärtusega.

Kui tegelik (arvutatud) väärtus on suurem kui tabel (kriitiline, lävi), siis loetakse lineaarset korrelatsioonikordajat oluliseks ning seost ja vahel loetakse reaalseks.

Peale konstrueeritud mudeli (regressioonivõrrandi) adekvaatsuse kontrollimist tuleb seda analüüsida. Parameetri tõlgendamise hõlbustamiseks kasutatakse elastsuskoefitsienti. See näitab keskmisi muutusi tulemuseks olevas atribuudis, kui faktoriatribuut muutub 1% ja arvutatakse järgmise valemiga:

Saadud mudeli täpsust saab hinnata väärtuse põhjal keskmine viga ligikaudsed hinnangud:

Lisaks on mõnel juhul informatiivsed andmed jääkide kohta, mis iseloomustavad x vaatluse kõrvalekaldeid arvutatud väärtustest. Erilist majanduslikku huvi pakuvad väärtused, mille jääknäitajad on kõige suuremad positiivsed või negatiivsed kõrvalekalded analüüsitava näitaja eeldatavast tasemest.

Lineaarse paari regressiooni kasutatakse ökonomeetrias laialdaselt selle parameetrite selge majandusliku tõlgendamise vormis. Lineaarne regressioon taandatakse vormi võrrandi leidmiseks

või . (3.6)

Tüüpvõrrand võimaldab teguri antud väärtusi X neil on efektiivse tunnuse teoreetilised väärtused, asendades sellega teguri tegelikud väärtused x.

Paaritud lineaarse regressiooni konstrueerimine taandatakse selle parameetrite hindamisele ja . Lineaarse regressiooni parameetrite hinnanguid saab leida erinevate meetoditega. Näiteks vähimruutude meetod (LSM).

Parameetrite hindamise vähimruutude meetodil ja on valitud nii, et saadud tunnuse tegelike väärtuste ruudus hälvete summa (y) arvutatud (teoreetilisest, mudelist) oli minimaalne. Teisisõnu, kogu joonte hulgast valitakse graafikul regressioonisirge nii, et punktide ja selle sirge vahelise ruuduga vertikaalsete kauguste summa oleks minimaalne (joon. 3.2):

, (3.7)

Riis. 3.2. Regressioonisirge punktide ja selle sirge vaheliste vertikaalsete kauguste minimaalse ruudu summaga

Edasiste järelduste tegemiseks avaldises (3.7) asendame mudeli väärtuse, st ja saame:

Funktsiooni (3.8) miinimumi leidmiseks on vaja arvutada iga parameetri osatuletised ja ja võrdsusta need nulliga:

Selle süsteemi teisendamisel saame parameetrite hindamiseks järgmise normaalvõrrandi süsteemi ja:

. (3.9)

Selle süsteemi maatrikskujul on vorm:

. (3.10)

Lahendades normaalvõrrandisüsteemi (3.10) maatrikskujul, saame:

Süsteemi (3.11) lahendi algebralise vormi saab kirjutada järgmiselt:

Pärast lihtsaid teisendusi saab valemi (3.12) kirjutada sobival kujul:

Tuleb märkida, et regressioonivõrrandi parameetrite hinnanguid saab saada ka teiste valemite abil, näiteks:

(3.14)

Siin on näidispaaride lineaarne korrelatsioonikordaja.

Pärast regressiooniparameetrite arvutamist saame kirjutada matemaatilise mudeli võrrandi regressioon:

Tuleb märkida, et parameeter näitab tulemuse keskmist muutust teguri muutusega ühe ühiku võrra. Seega, kui kulufunktsioonis (kell - kulud (tuhat rubla), X– toodanguühikute arv). Seetõttu koos tootmismahu suurenemisega (X) 1 ühiku eest tootmiskulud suurenevad keskmiselt 2 tuhande rubla võrra, s.o. toodangu täiendav kasv 1 ühiku võrra. nõuab kulude suurendamist keskmiselt 2 tuhande rubla võrra.

Regressioonikordaja selge majandusliku tõlgendamise võimalus on muutnud lineaarse regressioonivõrrandi ökonomeetrilistes uuringutes üsna tavaliseks.

Formaalselt - tähendus juures juures X= 0. Kui märgiteguril ei ole ega saa olla nullväärtust, siis ülaltoodud vabaliikme tõlgendus pole mõtet. Parameeter ei pruugi olla majanduslikku sisu. Püüab parameetrit majanduslikult tõlgendada võib viia absurdini, eriti kui < 0.

Näide 3.2. Oletame, et sama tüüpi tooteid tootvate ettevõtete rühma puhul võetakse arvesse kulufunktsiooni: . Parameetrite hinnangute arvutamiseks vajalik teave ja , esitatud tabelis. 3.1.

Tabel 3.1

Hinnanguline laud

ettevõtte number

Väljund, tuhat ühikut ()

Tootmiskulud, miljonit rubla ()

Normaalvõrrandite süsteem näeb välja selline:

.

Selle süsteemi lahendamine valemiga (4.13) annab tulemuse:

Kirjutame regressioonivõrrandi (4.16) mudeli:

Väärtuste asendamine võrrandis x, leiame teoreetilised (mudeli) väärtused y,(vt tabeli 3.1 viimast veergu).

Sel juhul parameetri väärtus pole majanduslikult mõtet.

Selles näites on meil:

Regressioonivõrrandit täiendatakse alati ühenduse tiheduse näitajaga. Lineaarse regressiooni kasutamisel toimib sellise indikaatorina lineaarne korrelatsioonikordaja. Lineaarse korrelatsioonikoefitsiendi valemit on erinevaid modifikatsioone. Mõned neist on loetletud allpool:

Nagu teate, on lineaarne korrelatsioonikordaja piirides: .

Kui regressioonikordaja , siis ja vastupidi, juures, .

Tabeli järgi. 4.1, oli lineaarse korrelatsioonikordaja väärtuseks 0,993, mis on üsna lähedane 1-le ja tähendab, et tootmiskuludel on väga tihe sõltuvus toodangu mahust.

Tuleb meeles pidada, et lineaarse korrelatsioonikordaja väärtus hindab vaadeldavate tunnuste seose lähedust selle lineaarsel kujul. Seetõttu ei tähenda lineaarse korrelatsioonikordaja absoluutväärtuse lähedus nullile tunnustevahelise seose puudumist. Mudeli teistsuguse spetsifikatsiooni korral võib omaduste seos olla üsna tihe.

Lineaarfunktsiooni valiku kvaliteedi hindamiseks arvutatakse lineaarse korrelatsioonikordaja ruut, nn. määramiskoefitsient. Determinatsioonikordaja iseloomustab efektiivtunnuse dispersiooni osakaalu y, seletatav regressiooniga, tulemuseks oleva tunnuse summaarses dispersioonis.

Vastavalt sellele iseloomustab väärtus teiste mudelis arvestamata tegurite mõjust põhjustatud hajumise osakaalu.

Meie näites. Järelikult seletab regressioonivõrrand 98,6% saadud atribuudi dispersioonist ja ainult 1,4% selle dispersioonist (s.o jääkdispersioonist) langeb muude tegurite osakaalule. Determinatsioonikoefitsiendi väärtus on üks lineaarse mudeli kvaliteedi hindamise kriteeriume. Mida suurem on seletatud variatsiooni osakaal, seda väiksem on teiste tegurite roll ja järelikult lineaarne mudel läheneb hästi algandmetele ja seda saab kasutada saadud funktsiooni väärtuste ennustamiseks. Seega, eeldades, et ettevõtte tootmismaht võib olla 6 tuhat . ühikut, on tootmiskulude prognoositav väärtus 221,01 tuhat rubla.

Lihtsaim mõistmise, tõlgendamise ja arvutustehnika poolest on regressiooni lineaarne vorm.

Lineaarse paari regressioonivõrrand , kus

a 0 , a 1 - mudeli parameetrid, ε i - juhuslik suurus (ülejäänud väärtus).

Mudeli parameetrid ja nende sisu:


Regressioonivõrrandit täiendatakse ühenduse tiheduse näitajaga. Selline näitaja on lineaarne korrelatsioonikordaja, mis arvutatakse järgmise valemi abil:

või .

Lineaarfunktsiooni valiku kvaliteedi hindamiseks arvutatakse lineaarse korrelatsioonikordaja ruut, nn. määramiskoefitsient. Determinatsioonikoefitsient iseloomustab regressiooniga seletatava resultantatribuudi dispersiooni osakaalu resultantatribuudi summaarses dispersioonis:

,

kus

.

Vastavalt sellele iseloomustab väärtus teiste mudelis arvestamata tegurite mõjust põhjustatud hajumise osakaalu.

Pärast regressioonivõrrandi koostamist kontrollitakse selle adekvaatsust ja täpsust ning neid mudeli omadusi uuritakse rea jääkide ε i (arvutuslike väärtuste kõrvalekalded tegelikest) analüüsi põhjal.

Jäägirea tase

Korrelatiivne ja regressioonanalüüs piiratud elanikkonnale. Sellega seoses võib regressiooni, korrelatsiooni ja määramise näitajaid juhuslike tegurite toimel moonutada. Et kontrollida, kuidas need näitajad on tüüpilised kogu populatsioonile, kas need on juhuslike asjaolude kombinatsiooni tulemus, on vaja kontrollida konstrueeritud mudeli adekvaatsust.

Mudeli adekvaatsuse kontrollimine seisneb mudeli olulisuse määramises ja süstemaatilise vea olemasolu või puudumise tuvastamises.

Väärtused 1 asjakohased andmed X i teoreetiliste väärtuste juures a 0 ja a 1, juhuslik. Nende põhjal arvutatud koefitsientide väärtused on samuti juhuslikud. a 0 ja a 1.

Individuaalsete regressioonikordajate olulisuse kontrollimine toimub vastavalt Üliõpilase t-test testides hüpoteesi, et iga regressioonikordaja on võrdne nulliga. Samal ajal selgitatakse välja, kui iseloomulikud on arvutatud parameetrid tingimuste kogumi kuvamiseks: kas saadud parameetrite väärtused on tegevuse tulemus juhuslikud muutujad. Vastavate regressioonikordajate jaoks kasutatakse sobivaid valemeid.

Studenti t-testi määramise valemid

kus

S a 0 ,S a 1 - vaba liikme ja regressioonikordaja standardhälbed. Valemid

kus

S ε - standardhälve mudeli jäägid (hinnangu standardviga), mis määratakse valemiga

T-kriteeriumi arvutatud väärtusi võrreldakse kriteeriumi tabeliväärtusega tαγ , mis määratakse (n - k— 1) vabadusastmed ja vastav olulisustase α. Kui t-kriteeriumi arvutatud väärtus ületab selle tabeliväärtust tαγ , siis tunnistatakse parameeter oluliseks. Sel juhul on peaaegu uskumatu, et parameetrite leitud väärtused on tingitud ainult juhuslikest kokkusattumistest.

Regressioonivõrrandi kui terviku olulisuse hindamine toimub - Fisheri kriteeriumi alusel, millele eelneb dispersioonanalüüs.

Muutuja keskmisest väärtusest kõrvalekallete ruutude kogusumma jagatakse kaheks osaks - "selgitatud" ja "seletamatu":

Hälvete ruudu summa;

Regressiooniga seletatavate hälvete ruudu summa (või ruudus hälvete summa);


- hälvete ruudu jääksumma, mis iseloomustab mudelis arvestamata tegurite mõju.

Skeem dispersioonanalüüs on tabelis 35 toodud kujul ( - vaatluste arv, - parameetrite arv muutujaga ).

Tabel 35 – dispersioonanalüüsi skeem

Dispersiooni komponendid Ruudude summa Vabadusastmete arv Dispersioon vabadusastme kohta
Kindral
faktoriaalne
Jääk

Dispersiooni määramine ühe vabadusastme kohta toob dispersioonid võrreldavale kujule. Võrreldes faktoriaal- ja jääkvariante ühe vabadusastme kohta, saame Fisheri kriteeriumi väärtuse:

Regressioonivõrrandi kui terviku olulisuse kontrollimiseks kasutage Fisheri F-test. Paaris lineaarse regressiooni korral määratakse regressioonimudeli olulisus järgmise valemiga: .

Kui antud olulisuse tasemel on F-kriteeriumi arvutatud väärtus γ 1 =k, γ 2 =( p-k- 1) vabadusastmed on suuremad kui tabel, siis peetakse mudelit oluliseks, lükatakse ümber hüpotees hinnanguliste tunnuste juhuslikkuse kohta ning tunnustatakse nende statistilist olulisust ja usaldusväärsust. Süstemaatilise vea olemasolu või puudumise kontrollimine (vähimruutude meetodi eelduste täitmine - LSM) viiakse läbi rea jääkide analüüsi põhjal. Arvutus juhuslikud vead Valemite abil saadakse lineaarse regressiooni parameetrid ja korrelatsioonikordaja

,

Jääkide jada juhuslikkuse omaduse testimiseks võite kasutada pöördepunktide (tippude) kriteeriumi. Punkti peetakse pöördepunktiks, kui järgmisi tingimusi: ε i -1< ε i >ε i +1 või ε i -1 > ε i< ε i +1

Järgmiseks arvutatakse pöördepunktide arv p. Juhuslikkuse test 5% olulisuse tasemega, s.o. koos usalduse tase 95% on ebavõrdsuse täitumine:

Nurksulgud tähendavad, et see on võetud terve osa number sulgudes. Kui ebavõrdsus on täidetud, peetakse mudelit adekvaatseks.

Võrdsuse testimiseks matemaatiline ootus jääkjada null, arvutatakse jääkide jada keskmine väärtus:

Kui = 0, siis loetakse, et mudel ei sisalda pidevat süstemaatilist viga ja on nullkeskmise kriteeriumi järgi adekvaatne.

Kui ≠ 0, siis testitakse nullhüpoteesi, et matemaatiline ootus on võrdne nulliga. Selleks arvutage Studenti t-test valemi järgi:

kus S ε on mudeli jääkide standardhälve (standardviga).

T-kriteeriumi väärtust võrreldakse tabeliga t αγ . Kui ebavõrdsus t > t αγ on täidetud, siis on mudel selle kriteeriumi järgi ebaadekvaatne

Jääkide seeria tasemete dispersioon peab olema kõigi väärtuste puhul sama X(kinnistu homoskedastilisus Kui see tingimus ei ole täidetud, siis heteroskedastilisus .

Heteroskedastilisuse hindamiseks väikese valimiga võib kasutada Goldfeld-Quandti meetod, mille põhiolemus on, et see on vajalik:

Otsige üles muutuja väärtused X kasvavas järjekorras;

Jagage järjestatud vaatluste kogum kahte rühma;

Koostage iga vaatlusrühma jaoks regressioonivõrrandid;

Määrake esimese ja teise rühma ruutude jääksummad, kasutades valemeid: ; , kus

n 1 - esimese rühma vaatluste arv;

n 2 - vaatluste arv teises rühmas.

Arvutage kriteerium või (lugeja peab sisaldama suurt ruutude summat). Tegemise ajal nullhüpotees homoskedastilisuse osas vastab kriteerium F calc F-kriteeriumile vabadusastmetega γ 1 =n 1 -m, γ 2 =n - n 1 - m) igaühe jaoks jääksumma ruudud (kus m hinnanguliste parameetrite arv regressioonivõrrandis). Mida rohkem Fcalc väärtus ületab F-kriteeriumi tabeliväärtust, seda enam rikutakse jääkide dispersioonide võrdsuse eeldust.

Jääkide järjestuse sõltumatust (autokorrelatsiooni puudumine) kontrollitakse Durbin-Watsoni d-testi abil. See määratakse järgmise valemiga:

Kriteeriumi arvutatud väärtust võrreldakse Durbin-Watsoni statistika alumise d 1 ja ülemise d 2 kriitilise väärtusega. Võimalikud on järgmised juhtumid:

1) kui d< d 1 , то гипотеза о независимости остатков отвергается и модель признается неадекватной по критерию независимости остатков;

2) kui d 1 < d < d 2 (kaasa arvatud need väärtused ise), leitakse, et ühe või teise järelduse tegemiseks puudub piisav alus. Vajalik kasutada lisakriteerium, näiteks esimene autokorrelatsioonikordaja:

Kui koefitsiendi mooduli arvutatud väärtus on väiksem kui tabeli väärtus r 1kr, siis nõustutakse autokorrelatsiooni puudumise hüpoteesiga; vastasel juhul lükatakse see hüpotees tagasi;

3) kui d 2 < d < 2, siis aktsepteeritakse jääkide sõltumatuse hüpotees ja tunnistatakse mudel selle kriteeriumi järgi adekvaatseks;

4) kui d> 2, siis see näitab negatiivne autokorrelatsioonülejäägid. Sel juhul tuleb kriteeriumi arvutatud väärtus teisendada valemi d′= 4 - d järgi ja võrrelda seda kriitilise väärtusega d′ , mitte d.

Jääkjada jaotuse vastavuse kontrollimine tavaline seadus jaotusi saab läbi viia R / S -kriteeriumi abil, mis määratakse järgmise valemiga:

kus S ε on mudeli jääkide standardhälve (standardviga). R/S - kriteeriumi arvutatud väärtust võrreldakse tabeli väärtused(alumine ja ülemine piir antud suhe) ja kui väärtus ei lange kriitiliste piiride vahele, siis antud olulisuse taseme juures lükatakse normaaljaotuse hüpotees tagasi; vastasel juhul nõustutakse hüpoteesiga

Regressioonimudelite kvaliteedi hindamiseks on soovitav kasutada ka korrelatsiooniindeks(mitmekordne korrelatsioonikordaja).

Korrelatsiooniindeksi määramise valem

kus

Sõltuva muutuja keskmisest kõrvalekallete ruudu summa. Määratakse valemiga:

Regressiooniga seletatud hälvete ruudu summa. Määratakse valemiga:

Hälvete ruudu jääksumma. Arvutatakse järgmise valemi järgi:

Võrrand saab esitada järgmiselt:

Korrelatsiooniindeksi väärtus on vahemikus 0 kuni 1. Mida suurem on indeksi väärtus, seda lähemal on saadud tunnuse arvutatud väärtused tegelikele. Korrelatsiooniindeksit kasutatakse muutujate mis tahes vormis seostamiseks; paaris lineaarse regressiooniga on see võrdne paari koefitsient korrelatsioonid.

Mudeli täpsuse mõõdikuna kasutatakse täpsuskarakteristikuid: Mudeli täpsuse mõõtmiseks arvutatakse järgmised näitajad:

- maksimaalne viga- vastab arvutatud väärtuste arvutusliku kõrvalekalde tegelikest väärtustest

- keskmine absoluutne viga - viga näitab, kui palju tegelikud väärtused keskmiselt mudelist erinevad

- jääkide jada dispersioon(jääkvariatsioon)

kus on jääkide rea keskmine väärtus. Määratakse valemiga

- keskmine ruutviga . See on dispersiooni ruutjuur: , kuidas vähem väärtust vead, seda täpsem mudel

- keskmine suhteline viga ligikaudsed.

Keskmine lähendusviga ei tohiks ületada 8-10%.

Kui regressioonimudel on tunnistatud piisavaks ja mudeli parameetrid on olulised, jätkake prognoosi koostamisega .

ennustatud väärtus muutuv juures saadakse sõltumatu muutuja eeldatava väärtuse asendamisel regressioonivõrrandis X prognoos.

Seda ennustust nimetatakse punkt. Punktprognoosi rakendamise tõenäosus on peaaegu null, seega on prognoosi usaldusvahemik arvutatud suure usaldusväärsusega.

Usaldusintervallid prognoos sõltuvad standardveast, eemaldamisest X jooksma oma keskmisest , vaatluste arv n ja prognoosi olulisuse tase α. Prognoosi usaldusvahemikud arvutatakse järgmise valemiga: või

kus

t tabel – määratakse Studenti jaotustabeliga olulisuse taseme α ja vabadusastmete arvu jaoks γ=n-k-1.

Näide13.

Kaheksa perede rühma küsitluse järgi on teada andmed elanikkonna toidule tehtavate kulutuste ja pere sissetulekute vahelise seose kohta (tabel 36).

Tabel 36 – Leibkonna toidule tehtavate kulutuste ja pere sissetulekute seosed

Kulud toidule, tuh. 0,9 1,2 1,8 2,2 2,6 2,9 3,3 3,8
Pere sissetulek, tuhat rubla 1,2 3,1 5,3 7,4 9,6 11,8 14,5 18,7

Oletame, et pere sissetulekute ja toidukulutuste vaheline seos on lineaarne. Oma oletuse kinnitamiseks konstrueerime korrelatsioonivälja (joonis 8).

Graafik näitab, et punktid on ühel sirgel.

Edasiste arvutuste hõlbustamiseks koostame tabeli 37.

Arvutage lineaarse paari regressioonivõrrandi parameetrid . Selleks kasutame valemeid:

Joonis 8 – Korrelatsiooniväli.

Saime võrrandi:

Need. pere sissetulekute suurenemisega 1000 rubla võrra. toidukulud suurenevad 168 rubla võrra.

Lineaarse korrelatsioonikordaja arvutamine.

100 r esimese tellimuse boonus

Valige töö tüüp Lõputöö Kursusetöö Abstract Magistritöö Aruanne praktikast Artikkel Aruande ülevaade Test Monograafia Probleemide lahendamine Äriplaan Vastused küsimustele loominguline töö Essee Joonistused Kompositsioonid Tõlked Esitlused Tippimine Muu Teksti ainulaadsuse suurendamine Kandidaaditöö Laboratoorsed tööd Abi võrgus

Küsi hinda

Paari regressioon on kahe muutuja seose võrrand

y ja x Liigid y= f(x),

kus y - sõltuv muutuja (tulemusmärk);

x on sõltumatu seletav muutuja (märk-tegur).

On lineaarsed ja mittelineaarsed regressioonid.

Vähimruutude meetod

Nendes parameetrites lineaarsete regressiooniparameetrite hindamiseks kasutatakse vähimruutude meetodit (LSM). . LSM võimaldab saada selliseid hinnanguid parameetrite kohta, mille korral efektiivtunnuse y tegelike väärtuste ruutude kõrvalekallete summa teoreetilistest väärtustest ŷ x teguri samade väärtustega x minimaalne, s.t.

5. Korrelatsiooninäitajate statistilise olulisuse hindamine, paaris lineaarse regressioonivõrrandi parameetrid, regressioonivõrrand tervikuna.

6. Kvantitatiivsete muutujate vahelise seose lähedusastme hindamine. Kovariatsioonikordaja. Korrelatsiooninäitajad: lineaarne korrelatsioonikordaja, korrelatsiooniindeks (= teoreetiline korrelatsioonisuhe).

kovariatsioonikordaja

Mch (y) – st. saame korrelatsioonisõltuvuse.

Korrelatsioonisõltuvuse olemasolu ei saa vastata küsimusele suhte põhjuse kohta. Korrelatsioon määrab ainult selle seose mõõdu, s.o. järjekindla variatsiooni mõõt.

Mu 2 muutujate vahelise seose mõõdu saab leida kovariatsiooni abil.

, ,

Kovariatsioonieksponenti väärtus sõltub mõõdetava γ muutuja ühikutest. Seetõttu kasutatakse järjepideva variatsiooni astme hindamiseks korrelatsioonikordajat – dimensioonita tunnust, millel on teatud variatsioonipiirid.

7. Determinatsioonikoefitsient. Regressioonivõrrandi standardviga.

Määramiskoefitsient (rxy2) - iseloomustab dispersiooniga seletatava tulemuseks oleva tunnuse y dispersiooni osakaalu tulemuseks oleva tunnuse summaarses dispersioonis. Mida lähemal on rxy2 1-le, seda parem regressioonimudel, see tähendab, et algmudel läheneb hästi algandmetele.

8. Parandusnäitajate statistilise olulisuse hindamine, paaris lineaarse regressioonivõrrandi parameetrid, regressioonivõrrand tervikuna: t- õpilase kriteerium, F- Fisheri kriteerium.

9. Mittelineaarsed mudelid regressioonid ja nende lineariseerimine.

Mittelineaarsed regressioonid jagunevad kahte klassi : regressioonid, mis on analüüsist välja jäetud selgitavate muutujate suhtes mittelineaarsed, kuid hinnanguliste parameetrite suhtes lineaarsed, ja regressioonid, mis on hinnanguliste parameetrite suhtes mittelineaarsed.

regressiooni näited, seletavates muutujates mittelineaarne, kuid hinnangulistes parameetrites lineaarne:


Mittelineaarsed regressioonimudelid ja nende lineariseerimine

Tunnuste mittelineaarse sõltuvusega, vähendatud väärtuseni lineaarne vorm, valikud mitmekordne regressioon määratakse ka MNC poolt, ainsaks erinevuseks on see, et seda ei kasutata taustainfo, vaid teisendatud andmetele. Seega, võttes arvesse võimsusfunktsiooni

,

teisendame selle lineaarseks vormiks:

kus muutujad on väljendatud logaritmides.

Lisaks on LSM-i töötlemine sama: konstrueeritakse normaalvõrrandite süsteem ja määratakse tundmatud parameetrid. Väärtust võimendades leiame parameetri a ja vastavalt üldine vorm võimsusfunktsiooni võrrandid.

Üldiselt ei tekita kaasatud muutujate mittelineaarne regressioon selle parameetrite hindamisel raskusi. See hinnang määratakse, nagu ka lineaarse regressiooni korral, vähimruutude abil. Niisiis, kahefaktorilises mittelineaarses regressioonivõrrandis

lineariseerimist saab läbi viia, lisades sellesse uusi muutujaid . Tulemuseks on neljafaktoriline lineaarne regressioonivõrrand

10.Multikollineaarsus. Multikollineaarsuse kõrvaldamise meetodid.

Suurimad raskused mitme regressiooni aparaadi kasutamisel tekivad tegurite multikollineaarsuse olemasolul, kui seotud on rohkem kui kaks tegurit lineaarne sõltuvus . Faktori multikollineaarsuse olemasolu võib tähendada, et mõned tegurid toimivad alati koos. Seetõttu ei ole sisendandmete varieeruvus enam täiesti sõltumatu ja iga teguri mõju ei saa eraldi hinnata.

Mida tugevam on tegurite multikollineaarsus, seda vähem usaldusväärne on vähimruutude meetodi (LSM) abil seletatud variatsiooni summa jaotuse hinnang üksikute tegurite vahel.

Multikollineaarsete tegurite kaasamine mudelisse on ebasoovitav järgmistel põhjustel:

ü mitmekordse regressiooni parameetrite tõlgendamine on keeruline; lineaarse regressiooni parameetrid kaotavad majanduslik mõte;

ü parameetrite hinnangud on ebausaldusväärsed, näitavad suuri standardvigu ja muutuvad koos vaatluste mahuga, mistõttu mudel ei sobi analüüsiks ja prognoosimiseks

Multikollineaarsuse kõrvaldamise meetodid

- muutuja(te) väljajätmine mudelist;

Taotlemisel tuleb siiski olla ettevaatlik seda meetodit. Sellises olukorras on võimalikud spetsifikatsioonivead.

- lisaandmete hankimine või uue valimi koostamine;

Mõnikord piisab multikollineaarsuse vähendamiseks valimi suuruse suurendamisest. Näiteks kui kasutate aastaandmeid, saate üle minna kvartaliandmetele. Andmete hulga suurendamine vähendab regressioonikoefitsientide dispersioone ja seega suurendab neid. statistiline olulisus. Uue proovi hankimine või vana laiendamine ei ole aga alati võimalik või sellega kaasnevad märkimisväärsed kulutused. Lisaks võib see lähenemine suureneda

autokorrelatsioon.

- mudeli spetsifikatsiooni muutmine;

Mõnel juhul saab multikollineaarsuse probleemi lahendada mudeli spetsifikatsiooni muutmisega: kas muudetakse mudeli kuju või lisatakse uusi selgitavaid muutujaid, mida mudelis ei arvestata.

- mõne parameetri eelinfo kasutamine;

11. Mitmekordse regressiooni klassikaline lineaarne mudel (CLMMR). Mitmekordse regressiooni ur-I parameetrite määramine ruutude meetodil.