Біографії Характеристики Аналіз

Побудувати нелінійне рівняння парної регресії. Парна регресія та кореляція

Найбільш простий з погляду розуміння, інтерпретації та техніки розрахунків є лінійна форма регресії.

Рівняння лінійної парної регресії, де

a 0 , a 1 - параметри моделі, i - випадкова величина (величина залишку).

Параметри моделі та їх зміст:


Рівняння регресії доповнюється показником тісноти зв'язку. Як такий показник виступає лінійний коефіцієнткореляції, який розраховують за формулою:

або .

Для оцінки якості підбору лінійної функціїрозраховується квадрат лінійного коефіцієнта кореляції коефіцієнтом детермінації. Коефіцієнт детермінації характеризує частку дисперсії результативної ознаки, що пояснюється регресією, загальної дисперсіїрезультативної ознаки:

,

де

.

Відповідно величина характеризує частку дисперсії , викликану впливом інших, неврахованих у моделі, чинників.

Після того, як рівняння регресії побудовано, виконується перевірка його адекватності та точності. Ці властивості моделі досліджуються на основі аналізу ряду залишків ε i (відхилень розрахункових значень від фактичних).

Рівень низки залишків

Кореляційний та регресійний аналізпроводиться для обмеженої за обсягом сукупності. У зв'язку з цим показники регресії, кореляції та детермінації можуть бути спотворені дією випадкових факторів. Щоб перевірити, наскільки ці показники характерні для всієї сукупності, чи є результатом збігу випадкових обставин, необхідно перевірити адекватність побудованої моделі.

Перевірка адекватності моделі полягає у визначенні значущості моделі та встановлення наявності чи відсутності систематичної помилки.

Значення у 1відповідні даним х i при теоретичних значеннях а 0і а 1 ,випадкові. Випадковими будуть і розраховані за ними значення коефіцієнтів а 0і а 1 .

Перевірка значимості окремих коефіцієнтів регресії проводиться за t-критерію Стьюденташляхом перевірки гіпотези рівності нулю кожного коефіцієнта регресії. При цьому з'ясовують, наскільки обчислені параметри характерні для відображення комплексу умов: чи отримані значення параметрів не є результатом дії випадкових величин. Для відповідних коефіцієнтів регресії застосовують відповідні формули.

Формули для визначення t-критерію Стьюдента

де

Sa 0 ,S a 1 - стандартні відхилення вільного члена та коефіцієнта регресії. Визначаються за формулами

де

S ε - стандартне відхиленнязалишків моделі (стандартна помилка оцінки), яка визначається за формулою

Розрахункові значення t-критерію порівнюють із табличним значенням критерію tαγ , .яке визначається при (n - k— 1) ступенях свободи та відповідному рівні значущості α. Якщо розрахункове значення t-критерію перевищує його табличне значення tαγ ,то параметр визнається значним. У такому разі практично неймовірно, що знайдені значення параметрів обумовлені лише випадковими збігами.

Оцінка значущості рівняння регресії загалом проводиться з урахуванням - критерію Фішера , якому передує дисперсійний аналіз.

Загальна сума квадратів відхилень змінної від середнього значення розкладається на дві частини - «пояснену» та «непояснену»:

Загальна сума квадратів відхилень;

Сума квадратів відхилень, пояснена регресією (або факторна сума квадратів відхилень);


- залишкова сума квадратів відхилень, що характеризує вплив неврахованих у моделі факторів.

Схема дисперсійного аналізумає вигляд, поданий у таблиці 35 (- число спостережень, - число параметрів при змінній).

Таблиця 35 – Схема дисперсійного аналізу

Компоненти дисперсії Сума квадратів Число ступенів свободи Дисперсія на один ступінь свободи
Загальна
Факторна
Залишкова

Визначення дисперсії однією ступінь свободи призводить дисперсії до порівняльного виду. Зіставляючи факторну та залишкову дисперсії в розрахунку на один ступінь свободи, отримаємо величину -критерію Фішера:

Для перевірки значущості рівняння регресії загалом використовують F-критерій Фішера. У разі парної лінійної регресії значимість моделі регресії визначається за такою формулою: .

Якщо при заданому рівні значущості розрахункове значення F-критерію з 1 =k, 2 =( п - k - 1) ступенями свободи більше табличного, то модель вважається значущою, гіпотеза про випадкову природу оцінюваних характеристик відхиляється і визнається їх статистична значимістьта надійність. Перевірка наявності чи відсутності систематичної помилки (виконання передумов методу найменших квадратів- МНК) здійснюється на основі аналізу низки залишків. Розрахунок випадкових помилок параметрів лінійної регресії та коефіцієнта кореляції виробляють за формулами

,

Для перевірки якості випадковості ряду залишків можна використовувати критерій поворотних точок (піків). Крапка вважається поворотною, якщо виконуються наступні умови: ε i -1< ε i >ε i +1 або ε i -1 > ε i< ε i +1

Далі підраховується кількість поворотних точок р. Критерієм випадковості із 5 % рівнем значимості, тобто. з довірчою ймовірністю 95% є виконання нерівності:

Квадратні дужки означають, що береться ціла частиначисла, укладеного у дужки. Якщо нерівність виконується, модель вважається адекватною.

Для перевірки рівності математичного очікуваннязалишкової послідовності нулю обчислюється середнє значення низки залишків:

Якщо = 0, то вважається, що модель не містить постійної систематичної помилки та адекватна за критерієм нульового середнього.

Якщо ≠ 0, то перевіряється нульова гіпотеза про рівність нуля математичного очікування. Для цього обчислюють t-критерій Стьюдента за формулою:

де S ε – стандартне відхилення залишків моделі (стандартна помилка).

Значення t-критерій порівнюють з табличним tαγ. Якщо виконується нерівність t > t αγ, то модель неадекватна за цим критерієм

Дисперсія рівнів низки залишків має бути однаковою всім значень х(властивість гомоскедастичність). Якщо ця умова не дотримується, то має місце гетероскедастичність .

Для оцінки гетероскедастичності при малому обсязі вибірки можна використовувати метод Гольдфельда-Квандта, суть якого полягає в тому, що необхідно:

Розташувати значення змінної хв порядку збільшення;

Розділити сукупність упорядкованих спостережень дві групи;

По кожній групі спостережень побудувати рівняння регресії;

Визначити залишкові суми квадратів для першої та другої груп за формулами: ; , де

n 1 - кількість спостережень у першій групі;

n 2 – число спостережень у другій групі.

Розрахувати критерій або (у чисельнику має бути велика сума квадратів). При виконанні нульової гіпотезипро гомоскедастичність критерій F розрахунку задовольнятиме F-критерію зі ступенями свободи γ 1 =n 1 -m, γ 2 =n - n 1 - m) для кожної залишкової сумиквадратів (де m число оцінюваних параметрів у рівнянні регресії). Чим більше величина F расч перевищує табличне значення F-критерію, тим більше порушена передумова про рівність дисперсій залишкових величин.

Перевірку незалежності послідовності залишків (відсутність автокореляції) здійснюють за допомогою d-критерію Дарбіна-Уотсона. Він визначається за такою формулою:

Розрахункове значення критерію порівнюється з нижнім d1 і верхнім d2 критичними значеннями статистики Дарбіна-Уотсона. Можливі такі випадки:

1) якщо d< d 1 , то гипотеза о независимости остатков отвергается и модель признается неадекватной по критерию независимости остатков;

2) якщо d 1 < d < d 2 (включаючи самі ці значення), то вважається, що немає достатніх підстав зробити той чи інший висновок. Необхідно використовувати додатковий критерійнаприклад перший коефіцієнт автокореляції:

Якщо розрахункове значення коефіцієнта по модулю менше табличного значення р 1кр, гіпотеза про відсутність автокореляції приймається; в іншому випадку ця гіпотеза відкидається;

3) якщо d 2 < d < 2, то гіпотеза про незалежність залишків приймається і модель визнається адекватною за цим критерієм;

4) якщо d>2, то це свідчить про негативної автокореляціїзалишків. У цьому випадку розрахункове значення критерію необхідно перетворити за формулою d′= 4 - dі порівнювати з критичним значенням d′ , а чи не d.

Перевірку відповідності розподілу залишкової послідовності нормальному законурозподілу можна здійснити за допомогою R/S - критерію, що визначається за формулою:

де S ε – стандартне відхилення залишків моделі (стандартна помилка). Розрахункове значення R/S - критерію порівнюють з табличними значеннями (нижньою та верхньою межами) даного відношення), і якщо значення не потрапляє в інтервал між критичними межами, то із заданим рівнем значущості гіпотеза про нормальність розподілу відкидається; інакше гіпотеза приймається

Для оцінки якості регресійних моделей доцільно також використовувати індекс кореляції(Коефіцієнт множинної кореляції).

Формула визначення індексу кореляції

де

Загальна сума квадратів відхилень залежної змінної від середнього значення. Визначається за такою формулою:

Сума квадратів відхилень, пояснена регресією. Визначається за такою формулою:

Залишкова сума квадратів відхилень. Обчислюється за такою формулою:

Рівняння можна уявити так:

Індекс кореляції приймає значення від 0 до 1. Чим вище значення індексу, тим ближчі розрахункові значення результативної ознаки до фактичних. Індекс кореляції використовується за будь-якої форми зв'язку змінних; при парній лінійній регресії він дорівнює парному коефіцієнтукореляції.

Як міра точності моделі застосовують точнісні характеристики: Для визначення міри точності моделі розраховують:

- максимальна помилка- відповідає відхилення розрахункового відхилення розрахункових значень від фактичних

- середня абсолютна помилка - Помилка показує, наскільки в середньому відхиляються фактичні значення від моделі

- дисперсія низки залишків(залишкова дисперсія)

де - Середнє значення низки залишків. Визначається за формулою

- середня квадратична помилка. Являє собою квадратний корінь з дисперсії: чим менше значенняпомилки, тим точніше модель

- середня відносна помилкаапроксимації.

Середня помилка апроксимації не повинна перевищувати 8-10%.

Якщо модель регресії визнана адекватною, а параметри моделі значимі, то переходять до побудови прогнозу .

Прогнозоване значеннязмінної увиходить при підстановці рівняння регресії очікуваної величини незалежної змінної хпрогн.

Цей прогноз називається точковим.Імовірність реалізації точкового прогнозу практично дорівнює нулю, тому розраховується довірчий інтервалпрогноз з великою надійністю.

Довірчі інтервали прогнозу залежать від стандартної помилкивидалення хпрогніть від свого середнього значення , кількості спостережень nта рівня значущості прогнозу α. Довірчі інтервали прогнозу розраховують за такою формулою: або

де

tтабл - визначається за таблицею розподілу Стьюдента для рівня значущості α та числа ступенів свободи γ=n-k-1.

Приклад13.

За даними проведеного опитування восьми груп сімей, відомі дані зв'язку витрат населення на продукти харчування з рівнем доходів сім'ї (таблиця 36).

Таблиця 36 – Зв'язки витрат населення на продукти харчування з рівнем доходів сім'ї

Витрати на продукти харчування, , тис. руб. 0,9 1,2 1,8 2,2 2,6 2,9 3,3 3,8
Доходи сім'ї, , тис. руб. 1,2 3,1 5,3 7,4 9,6 11,8 14,5 18,7

Припустимо, що зв'язок між доходами сім'ї та витратами на продукти харчування лінійний. Для підтвердження нашого припущення збудуємо поле кореляції (рисунок 8).

За графіком видно, що точки вишиковуються в деяку пряму лінію.

Для зручності подальших обчислень складемо таблицю 37.

Розрахуємо параметри лінійного рівняння парної регресії . Для цього скористаємося формулами:

Малюнок 8 – Поле кореляції.

Отримали рівняння:

Тобто. зі збільшенням доходу сім'ї на 1000 руб. Витрати харчування збільшуються на 168 крб.

Розрахунок лінійного коефіцієнта кореляції.

Парна регресія характеризує зв'язок між двома ознаками: результативним та факторним. Важливим та нетривіальним етапом побудови регресійної моделіє вибір рівняння регресії. Цей вибір ґрунтується на теоретичних даних про досліджуване явище та попередній аналіз наявних статистичних даних.

Рівняння парної лінійної регресії має вигляд:

де – теоретичні значення результативної ознаки, отримані за рівнянням регресії; - Коефіцієнти (параметри) рівняння регресії.

Модель регресії будується на підставі статистичних даних, причому можуть використовуватись як індивідуальні значенняознаки, і згруповані дані. Для виявлення зв'язку між ознаками достатньо великому числуспостережень статистичні дані попередньо групують за обома ознаками та будують кореляційну таблицю. За допомогою кореляційної таблицівідображається лише парна кореляційна зв'язок, тобто. зв'язок результативної ознаки з одним фактором. Оцінка параметрів рівняння регресії здійснюється методом найменших квадратів, в основі якого лежить припущення про незалежність спостережень досліджуваної сукупності та вимогу мінімальності суми квадратів відхилень емпіричних даних від вирівняних значень результативного фактора:

.

Для лінійного рівняння регресії маємо:

Для знаходження мінімуму цієї функції прирівняємо до нуля її приватні похідні та отримаємо систему двох лінійних рівнянь, яка називається системою нормальних рівнянь:

де - обсяг досліджуваної сукупності (кількість одиниць спостереження).

Рішення системи нормальних рівнянь дозволяє знайти параметри рівняння регресії.

Коефіцієнт парної лінійної регресії є середнім значенням у точці, тому його економічна інтерпретація утруднена. Сенс цього коефіцієнта можна трактувати як усереднений вплив на результативну ознаку неврахованих (не виділених на дослідження) чинників. p align="justify"> Коефіцієнт показує, на скільки в середньому змінюється значення результативної ознаки при зміні факторної ознаки на одиницю.

Після отримання рівняння регресії необхідно перевірити його адекватність, тобто відповідність фактичним статистичним даним. З цією метою проводиться перевірка значущості коефіцієнтів регресії: з'ясовується, наскільки ці показники характерні для всієї генеральної сукупності, чи вони є результатом випадкового збігу обставин.

Для перевірки значимості коефіцієнтів простої лінійної регресії за обсягом сукупності менше 30 одиниць використовується критерій Стьюдента. Порівнюючи значення параметра з його середньою помилкою, визначають величину критерію:


де - середня помилка параметра.

Середня помилка параметрів і розраховуються за такими формулами:

; ,

- Обсяг вибірки;

Середньоквадратичне відхилення результативної ознаки від вирівняних значень;

Середньоквадратичне відхилення факторної ознаки від загальної середньої:

або

Тоді розрахункові (фактичні) значення критерію відповідно дорівнюють:

- Для параметра;

- Для параметра .

Обчислені значення критерію порівнюються з критичними значеннями , які визначають за таблицею Стьюдента з урахуванням прийнятого рівня значущості та числа ступенів свободи , де обсяг вибірки, -1 ( - число факторних ознак). У соціально-економічних дослідженнях рівень значущості зазвичай беруть 0.05 чи 0.01. Параметр визнається значним, якщо (відхиляється гіпотеза у тому, що параметр лише з випадкових обставин дорівнював отриманої величині, а насправді дорівнює нулю).

Адекватність регресійної моделі може бути оцінена за допомогою критерію Фішера. Розрахункове значення критерію визначається за формулою ,

де - Число параметрів моделі;

Об'єм вибірки.

За таблицею визначається критичне значення - критерію Фішера для прийнятого рівня значущості та числа ступенів свободи. Якщо модель регресії визнається адекватною за цим критерієм (відкидається гіпотеза про невідповідність закладених у рівнянні і реально існуючих зв'язків).

Друге завдання кореляційно-регресійного аналізу – вимір тісноти залежності результативної та факторної ознаки.

Для всіх видів зв'язку задача вимірювання тісноти залежності може бути вирішена за допомогою обчислення теоретичного кореляційного відношення:

,

де - дисперсія у ряді вирівняних значень результативної ознаки, обумовлена ​​факторною ознакою;

- дисперсія у низці фактичних значень. Це загальна дисперсія, яка складається з дисперсії, обумовленої фактором (тобто факторної дисперсії), та дисперсії залишку (відхилення емпіричних значеньознаки від вирівняних теоретичних).

На підставі правила складання дисперсій теоретичне кореляційне відношення може бути виражене через залишкову дисперсію:

.

Оскільки дисперсія відбиває варіацію у ряду лише з допомогою варіації чинника , а дисперсія відбиває варіацію з допомогою всіх чинників, їх ставлення, іменоване теоретичним коефіцієнтом детермінації , показує, який питома вагау загальній дисперсії ряду займає дисперсія, що викликається варіацією фактора. Квадратний коріньіз відношення цих дисперсій дає теоретичне кореляційне відношення. При нелінійних зв'язках теоретичне кореляційне відношення називають індексом кореляції та позначають.

Якщо , це означає, що роль інших чинників у варіації відсутня, залишкова дисперсія дорівнює нулю і ставлення означає повну залежністьваріації від. Якщо , це означає, що варіація ніяк не впливає на варіацію , й у разі . Отже, кореляційне ставлення набуває значення від 0 до 1. Чим ближче кореляційне відношення до 1, тим вже зв'язокміж ознаками.

Крім того, при лінійній формі рівняння зв'язку застосовується інший показник тісноти зв'язку – лінійний коефіцієнт кореляції:

.

Лінійний коефіцієнт кореляції набуває значення від -1 до 1. Від'ємні значеннясвідчить про зворотну залежність, позитивні – на пряму. Чим ближче модуль коефіцієнта кореляції до одиниці, тим тісніше зв'язок між ознаками.

Прийнято такі граничні оцінки лінійного коефіцієнта кореляції:

Зв'язку немає;

Зв'язок слабкий;

Зв'язок середній;

Зв'язок сильний;

Зв'язок дуже сильний.

Квадрат лінійного коефіцієнта кореляції називають лінійним коефіцієнтом детермінації.

Факт збігу або розбіжності теоретичного кореляційного відношення та лінійного коефіцієнта кореляції використовується для оцінки форми залежності. Їх значення збігаються лише за наявності лінійного зв'язку. Розбіжність цих величин свідчить про нелінійність зв'язку між ознаками. Вважають, що якщо , то гіпотезу про лінійність зв'язку можна вважати підтвердженою.

p align="justify"> Показники тісноти зв'язку, особливо обчислені за даними порівняно невеликої статистичної сукупності, можуть спотворюватися дією випадкових причин. Це викликає необхідність перевірки їх надійності (значущості), що дозволяє поширювати висновки, отримані за вибірковими даними, на генеральну сукупність.

Для цього розраховується середня помилка коефіцієнта кореляції:

Де – число ступенів свободи за лінійної залежності.

Потім знаходиться відношення коефіцієнта кореляції до його середньої помилки, тобто , яке порівнюється з таблично значення критерію Стьюдента.

Якщо фактичне (розрахункове) значення більше табличного (критичного, порогового), то лінійний коефіцієнт кореляції вважається значним, а зв'язок між і – реальним.

Після перевірки адекватності збудованої моделі (рівняння регресії) її необхідно проаналізувати. Для зручності інтерпретації параметра використовують коефіцієнт еластичності. Він показує середні зміни результативної ознаки при зміні факторної ознаки на 1% і обчислюється за такою формулою:

Точність отриманої моделі може бути оцінена на підставі значення середньої помилкиапроксимації:

Крім того, в деяких інформативними є дані про залишки, що характеризують відхилення спостережень від розрахункових значень. Особливий економічний інтерес становлять значення, залишки яких мають найбільші позитивні або негативні відхиленнявід очікуваного рівня аналізованого показника.

І кореляція

1.1. Поняття регресії

Парною регресією називається рівняння зв'язку двох змінних у них

виду y= f(x),

де у – залежна змінна (результативна ознака); х - незалежна, що пояснює змінна (ознака-фактор).

Розрізняють лінійні та нелінійні регресії.

Лінійна регресія описується рівнянням: y= a+ b× x+e .

Нелінійні регресії діляться на два класи: регресії, нелінійні щодо включених в аналіз пояснюючих змінних, але лінійні за параметрами, що оцінюються, і регресії, нелінійні за оцінюваними параметрами.

Приклади регресій, нелінійних за змінними, що пояснюють , але чи-

нійних за оцінюваними параметрами:

· поліноми різних ступенів

· рівностороння гіпербола:

Приклади регресій, нелінійних за параметрами, що оцінюються:

· статечна

· Показова

· Експонентна

Найчастіше застосовуються такі моделі регресій:

- Прямий

– гіперболи

– параболи

показової функції

– статечна функція

1.2. Побудова рівняння регресії

Постановка задачі.За наявними даними nспостережень за спільним

зміною двох параметрів xі y{(xi,yi), i=1,2,...,n) необхідно визначити

аналітичну залежність ŷ =f(x), найкращим чиномописує дані спостережень.

Побудова рівняння регресії здійснюється у два етапи (передбачає вирішення двох завдань):

– специфікація моделі (визначення виду аналітичної залежності

ŷ =f(x));

– оцінка параметрів вибраної моделі.

1.2.1. Специфікація моделі

Парна регресія застосовується, якщо є домінуючий фактор, який і використовується як пояснювальна змінна.

Застосовується три основні методи вибору виду аналітичної залежності:

– графічний (з урахуванням аналізу поля кореляцій);

– аналітичний, т. е. виходячи з теорії взаємозв'язку, що вивчається;

- Експериментальний, тобто шляхом порівняння величини залишкової дисперсії Dост або середньої помилки апроксимації , розрахованих для різних

моделей регресії (метод перебору)

1.2.2. Оцінка параметрів моделі

Для оцінки параметрів регресій, лінійних за цими параметрами, використовується метод найменших квадратів (МНК) . МНК дозволяє отримати такі оцінки параметрів, при яких сума квадратів відхилень фактичних значень результативної ознаки від теоретичних значень ŷ xпри тих же значеннях фактора xмінімальна, тобто.

У разі лінійної регресії параметри а та bзнаходяться з наступної

системи нормальних рівнянь методу МНК:

(1.1)

Можна скористатися готовими формулами, які випливають із цієї

(1.2)

Для нелінійних рівнянь регресії, що наводяться до лінійних за допомогою перетворення ( x, y) → (x’, y’), система нормальних рівнянь має

вид (1.1) у перетворених змінних x’, y’.

Коефіцієнт bпри факторній змінній xмає таку інтерпретацію: він показує, наскільки зміниться у середньому величина yпри зміні фактора xна 1 одиницю виміру.

Гіперболічна регресія:

x' = 1/x; y’ = y.

Рівняння (1.1) та формули (1.2) набувають вигляду

Експонентна регресія:

Лінеарізуюче перетворення: x' = x; y’ = lny.

Модифікована експонента: , (0 < a 1 < 1).

Лінеарізуюче перетворення: x' = x; y’ = lny –К│.

Величина межі зростання Kвибирається попередньо на основі аналізу

поля кореляцій чи з якісних міркувань. Параметр a 0 береться зі

знаком «+», якщо yх > Kі зі знаком «–» в іншому випадку.

Ступінна функція:

Лінеарізуюче перетворення: x' = ln x; y’ = ln y.

Показова функція:

Лінеарізуюче перетворення: x' = x; y’ = lny.

https://pandia.ru/text/78/146/images/image026_7.jpg" width="459" height="64 src=">

Парабола другого порядку:

Парабола другого порядку має 3 параметри a 0, a 1, a 2, які визначаються із системи трьох рівнянь

1.3. Оцінка тісноти зв'язку

Тісноту зв'язку явищ, що вивчаються, оцінює лінійний коефіцієнт

парної кореляції rxy для лінійної регресії (–1 ≤ r xy≤ 1)

та індекс кореляції ρ xy для нелінійної регресії

Має місце співвідношення

Частку дисперсії, яка пояснюється регресією, в загальній дисперсії результативної ознаки характеризує коефіцієнт детермінації r2xy (для лінійної регресії) або індекс детермінації (Для нелінійної регресії).

Коефіцієнт детермінації- Квадрат коефіцієнта або індексу кореляції.

Для оцінки якості побудованої моделі регресії можна використовувати

показник (коефіцієнт, індекс) детермінації R 2 чи середню помилку апроксимації.

Чим вищий показник детермінації або чим нижча середня помилка апроксимації, тим краще модельвизначає вихідні дані.

Середня помилка апроксимації – середнє відносне відхилення

розрахункових значень від фактичних

Побудоване рівняння регресії вважається задовільним, якщо

значення не перевищує 10-12%.

1.4. Оцінка значущості рівняння регресії, його коефіцієнтів,

коефіцієнта детермінації

Оцінка значимості всього рівняння регресії загалом здійснюється з

допомогою F-Крітерія Фішера.

F- критерій Фішера полягає у перевірці гіпотези Але про статистичну незначущість рівняння регресії . Для цього виконується порівняння

фактичного Fфакт та критичного (табличного) Fтабл значень F-критерію

Фішера .

F факт визначається із співвідношення значень факторної та залишкової

дисперсій, розрахованих на один ступінь свободи

де n- Число одиниць сукупності; m- Число параметрів при змінних.

Для лінійної регресії m= 1 .

Для нелінійної регресії замість r 2 xyвикористовується R 2.

F табл - максимально можливе значення критерію під впливом випадкових факторів при ступенях свободи k1 = m, k2 = n - m- 1 (для лінійної регресії m= 1) та рівні значущості α.

Рівень значущості α можливість відкинути правильну гіпотезу

за умови, що вона вірна. Зазвичай величина приймається рівною 0,05 або

Якщо Fтабл< Fфакт, то Н 0 -Гіпотеза про випадкову природу оцінюваних показників відхиляється і визнається їх статистична значимість і надійність. Якщо Fтабл > Fфакт, то гіпотеза не відхиляється і визнається статистична незначимість, ненадійність рівняння регресії.

Для оцінки статистичної значущості коефіцієнтів лінійної регресіїта лінійного коефіцієнта парної кореляції застосовується

t- критерій Стьюдента та розраховуються довірчі інтервали кожного

із показників.

Згідно t-критерієм висувається гіпотеза Н 0 про випадкову природу показників, тобто про незначне їх відмінність від нуля. Далі розраховуються фактичні значення критерію tфакт для оцінюваних коефіцієнтів регресії та коефіцієнта кореляції шляхом зіставлення їх значень із величиною стандартної помилки

Стандартні помилки параметрів лінійної регресії та коефіцієнта

кореляції визначаються за формулами

Порівнюючи фактичне та критичне (табличне) значення t-статистики

tтабл і tфакт приймають чи відкидають гіпотезу Але.

t табл- максимально можливе значення критерію під впливом випадкових факторів при даному ступені свободи k = n- 2 та рівні значимості α.

Зв'язок між F-критерієм Фішера (при k 1 = 1; m=1) та t-критерієм Стьюдента виражається рівністю

Якщо tтабл< tфакт, то Але відхиляється, тобто. a, bі не випадково відрізняються

від нуля і сформувалися під впливом систематично діючого фактора х . Якщо tтабл > tфакт, то гіпотеза Але не відхиляється і визнається випадкова природа формування , bабо https://pandia.ru/text/78/146/images/image041_2.jpg" width="574" height="59">

Fтабл визначається з таблиці при ступенях свободи k 1 = 1, k 2 = n-2 і при

заданому рівні значущості. Якщо Fтабл< Fфакт, то визнається статистична значущість коефіцієнта детермінації. У формулі (1.6) величина mозначає число параметрів при змінних відповідному рівняннірегресії.

1.5. Розрахунок довірчих інтервалів

Розраховані значення показників (коефіцієнти a, b, ) є

наближеними, отриманими на основі наявних вибіркових даних.

Для оцінки того, наскільки точні значення показників можуть відрізнятись від розрахованих, здійснюється побудова довірчих інтервалів.

Довірчі інтервали визначають межі, в яких лежать точні значення визначених показників із заданим ступенем впевненості, що відповідає заданому рівню значущості α.

Для розрахунку довірчих інтервалів для параметрів aі bрівняння лінійної регресії визначаємо граничну помилку Δ для кожного показника:

Величина tтабл. являє собою табличне значення t-критерію Стьюдента під впливом випадкових факторів за ступенем свободи k= n–2 та заданому рівні значущості α.

Формули для розрахунку довірчих інтервалів мають такий вигляд:

https://pandia.ru/text/78/146/images/image045_3.jpg" width="188" height="62">

де tγ – значення випадкової величини, що підкоряється стандартному нормальному розподілу, що відповідає ймовірності γ = 1 - α/2 (α - рівень значущості);

z' = Z (rxy)– значення Z-розподілу Фішера, що відповідає отриманому значенню лінійного коефіцієнта кореляції rxy.

Граничні значення довірчого інтервалу ( r-, r+) для rxyвиходять

з граничних значень довірчого інтервалу ( z–, z+) для zза допомогою

функції, зворотної Z-розподілу Фішера

1.6. Точковий та інтервальний прогноз щодо рівняння лінійної

регресії

Точковий прогноз полягає в отриманні прогнозного значення у p, яке визначається шляхом підстановки рівняння регресії

відповідного (прогнозного
) значення x p

Інтервальний прогноз полягає в побудові довірчого інтервалу прогнозу, тобто нижньої та верхньої меж у pmin,у pmaxінтервалу, що містить точну величину для прогнозного значення width="37" height="44 src=">

і потім будується довірчий інтервал прогнозу, тобто визначаються нижня та верхня межа інтервалу прогнозу

Контрольні питання:

1. Що розуміємо під парною регресією?

2. Які завдання вирішуються при побудові рівняння регресії?

3. Які методи застосовують для вибору виду моделі регресії?

4. Які функції найчастіше використовуються для побудови рівняння парної регресії?

5. Який вид має система нормальних рівнянь методу найменших квадратів у разі лінійної регресії?

6. Який вид має система нормальних рівнянь методу найменших квадратів у разі гіперболічної, показової регресії?

7. За якою формулою обчислюється лінійний коефіцієнт парної кореляції r xy?

8. Як будується довірчий інтервал для лінійного коефіцієнта парної кореляції?

9. Як обчислюється індекс кореляції?

10. Як обчислюється та що показує індекс детермінації?

11. Як перевіряється значущість рівняння регресії та окремих коефіцієнтів?

12. Як будується довірчий інтервал прогнозу у разі лінійної регресії?

Лабораторна робота №1

Завдання.1 З даних табл. П1 для відповідного варіанту (табл. 1.1):

1. Обчислити лінійний коефіцієнт парної кореляції.

2. Перевірити важливість коефіцієнта парної кореляції.

3. Побудувати довірчий інтервал для лінійного коефіцієнта парної кореляції.

Завдання. 2 З даних табл. П1 для відповідного варіанту (табл. 1.1):

1. Побудувати запропоновані рівняння регресії, включаючи лінійну регресію.

2. Обчислити індекси парної кореляції кожного рівняння.

3. Перевірити значущість рівнянь регресії та окремих коефіцієнтів лінійного рівняння.

4. Визначити найкраще рівняння регресії з урахуванням середньої помилки апроксимації.

5. Побудувати інтервальний прогноз для значення x= x max для лінійного

рівняння регресії.

Вимоги до оформлення результатів

Звіт про лабораторну роботу повинен містити розділи:

1. Опис завдання;

2. Опис рішення лабораторної роботи (за етапами);

3. Виклад отриманих результатів.

Таблиця П1

Вихідні дані до лабораторним роботам1, 2

Наявність предметів тривалого користування у домашніх господарствах по регіонах Російської Федерації (європейська частинатериторії без республік Північного Кавказу) (за матеріалами вибіркового обстеженнябюджетів домашніх господарств; на 100 домогосподарств; штук)

Призначення сервісу. За допомогою сервісу в онлайн режиміможна знайти:
  • параметри рівняння лінійної регресії y=a+bx лінійний коефіцієнт кореляції з перевіркою його значущості;
  • тісноту зв'язку за допомогою показників кореляції та детермінації, МНК-оцінку, статичну надійність регресійного моделювання за допомогою F-критерію Фішера та за допомогою t-критерію Стьюдента , довірчий інтервал прогнозу для рівня значущості α

Рівняння парної регресії відноситься до рівняння регресії першого порядку. Якщо економетрична модель містить лише одну пояснювальну змінну, вона має назву парної регресії. Рівняння регресії другого порядкуі рівняння регресії третього порядкуставляться до нелінійних рівнянь регресії.

Приклад. Здійсніть вибір залежної (пояснюється) і пояснюючої змінної для побудови парної регресійної моделі. Дайте. Визначте теоретичне рівнянняпарної регресії. Оцініть адекватність збудованої моделі (інтерпретуйте R-квадрат, показники t-статистики, F-статистики).
Рішеннябудемо проводити на основі процесу економетричного моделювання.
1-й етап (постановочний) – визначення кінцевих цілей моделювання, набору чинників і показників, що беруть участь у моделі, їх ролі.
Специфікація моделі - визначення мети дослідження та вибір економічних змінних моделі.
Ситуаційне (практичне) завдання. По 10 підприємствам регіону вивчається залежність вироблення продукції одного працівника y (тис. крб.) від частки робочих високої кваліфікаціїв загальної чисельностіробочих x (у%).
2-й етап (апріорний) – передмодельний аналіз економічної сутностівивченого явища, формування та формалізація апріорної інформації та вихідних припущень, зокрема що стосується природи та генези вихідних статистичних даних та випадкових залишкових складових у вигляді низки гіпотез.
Вже на цьому етапі можна говорити про явну залежність рівня кваліфікації робітника та його виробленням, адже чим досвідченіший працівник, тим вища його продуктивність. Але як оцінити цю залежність?
Парна регресіяявляє собою регресію між двома змінними - y і x, тобто модель виду:

Де y – залежна змінна (результативна ознака); x - незалежна, або пояснює, змінна (ознака-фактор). Знак «^» означає, що між змінними x та y немає суворої функціональної залежності, тому практично в кожному окремому випадкувеличина y складається з двох доданків:

Де y – фактичне значення результативної ознаки; y x – теоретичне значення результативної ознаки, знайдене з рівняння регресії; ε – випадкова величина, що характеризує відхилення реального значення результативної ознаки від теоретичного, знайденого за рівнянням регресії.
Графічно покажемо регресійну залежність між виробленням продукції одного працівника і частки робітників високої кваліфікації.


3-й етап (параметризація) – власне моделювання, тобто. вибір загального виглядумоделі, у тому числі складу та форми зв'язків, що входять до неї, між змінними. Вибір виду функціональної залежності у рівнянні регресії називається параметризацією моделі. Вибираємо рівняння парної регресії, тобто. на кінцевий результат y впливатиме лише один фактор.
4-й етап (інформаційний) – збір необхідної статистичної інформації, тобто. реєстрація значень факторів, що беруть участь у моделі, і показників. Вибірка складається із 10 підприємств галузі.
5-й етап (ідентифікація моделі) – оцінювання невідомих параметрів моделі за наявними статистичними даними.
Щоб визначити параметри моделі, використовуємо МНК – метод найменших квадратів. Система нормальних рівнянь виглядатиме так:
a n + b∑x = ∑y
a∑x + b∑x 2 = ∑y x
Для розрахунку параметрів регресії збудуємо розрахункову таблицю (табл. 1).
xyx 2y 2x y
10 6 100 36 60
12 6 144 36 72
15 7 225 49 105
17 7 289 49 119
18 7 324 49 126
19 8 361 64 152
19 8 361 64 152
20 9 400 81 180
20 9 400 81 180
21 10 441 100 210
171 77 3045 609 1356

Дані беремо з таблиці 1 (останній рядок), у результаті маємо:
10a + 171 b = 77
171 a + 3045 b = 1356
Цю СЛАУ вирішуємо методом Крамера або методом зворотної матриці.
Отримуємо емпіричні коефіцієнти регресії: b = 0.3251, a = 2.1414
Емпіричне рівняння регресії має вигляд:
y = 0.3251 x + 2.1414
6-й етап (верифікація моделі) - зіставлення реальних та модельних даних, перевірка адекватності моделі, оцінка точності модельних даних.
Аналіз проводимо за допомогою

Парна лінійна регресія

ПРАКТИКУМ

Парна лінійна регресія: Практикум. -

Вивчення економетрики передбачає набуття студентами досвіду побудови економетричних моделей, прийняття рішень щодо специфікації та ідентифікації моделі, вибору методу оцінки параметрів моделі, оцінки її якості, інтерпретації результатів, отримання прогнозних оцінок та ін. Практикум допоможе студентам набути практичних навичок у цих питаннях.

Затверджено редакційно-видавничою радою

Упорядник: М.Б. Перова, д.е.н., професор

загальні положення

Економетричне дослідження починається з теорії, яка встановлює зв'язок між явищами. З усього кола чинників, які впливають результативний ознака, виділяються найбільш істотні чинники. Після того, як було виявлено наявність взаємозв'язку між ознаками, визначається точний вид цієї залежності за допомогою регресійного аналізу.

Регресійний аналізполягає у визначенні аналітичного виразу (у визначенні функції), в якому зміна однієї величини (результативної ознаки) обумовлена ​​впливом незалежної величини(Факторної ознаки). Кількісно оцінити цей взаємозв'язок можна за допомогою побудови рівняння регресії або регресійної функції.

Базовою регресійною моделлю є модель парної (однофакторної) регресії. Парна регресія- Рівняння зв'язку двох змінних уі х:

де - Залежна змінна (результативний ознака);

-незалежна, що пояснює змінна (факторна ознака).

Залежно від характеру зміни узі зміною хрозрізняють лінійні та нелінійні регресії.

Лінійна регресія

Ця регресійна функція називається поліномом першого ступеня і використовується для опису процесів, що поступово розвиваються в часі.

Наявність випадкового члена (помилки регресії) пов'язано з впливом на залежну зміну інших неврахованих у рівнянні факторів, з можливою нелінійністю моделі, помилками виміру, отже, поява випадкової помилки рівняннярегресії може бути обумовлено наступними об'єктивними причинами:

1) нерепрезентативність вибірки. У модель парної регресії включається фактор, не здатний повністю пояснити варіацію результативної ознаки, який може бути схильний до впливу багатьох інших факторів (пропущених змінних) значно більшою мірою. Наприклад, заробітна плата може залежати, крім кваліфікації, від рівня освіти, стажу роботи, статі та ін.;

2) існує ймовірність того, що змінні, що беруть участь у моделі, можуть бути виміряні з помилкою. Наприклад, дані щодо витрат сім'ї на харчування складаються на підставі записів учасників опитувань, які, як передбачається, ретельно фіксують свої щоденні витрати. Зрозуміло, у своїй можливі помилки.

На основі вибіркового спостереження оцінюється вибіркове рівняння регресії ( лінія регресії):

,

де
- Оцінки параметрів рівняння регресії (
).

Аналітична форма залежностіміж досліджуваною парою ознак (регресійна функція) визначається за допомогою наступних методів:

    На основі теоретичного та логічного аналізуприроди явищ, що вивчаються, їх соціально-економічної сутності. Наприклад, якщо вивчається залежність між доходами населення та розміром вкладів населення у банки, то очевидно, що зв'язок прямий.

    Графічний методколи характер зв'язку оцінюється візуально.

Цю залежність можна наочно побачити, якщо побудувати графік, відклавши на осі абсцис значення ознаки х, але в осі ординат – значення ознаки у. Нанісши на графік точки, що відповідають значенням хі у, отримаємо кореляційне поле:

а) якщо точки безладно розкидані по всьому полю – це говорить про відсутність залежності між цими ознаками;

б) якщо точки концентруються навколо осі, що йде від нижнього лівого кута до верхнього правого – то є пряма залежність між ознаками;

в) якщо точки концентруються навколо осі, що йде від верхнього лівого кута до нижнього правого – то зворотня залежністьміж ознаками.

Якщо на кореляційному полі з'єднаємо точки відрізками прямою, то отримаємо ламану лініюз деякою тенденцією до зростання. Це буде емпірична лінія зв'язку або емпірична лінія регресії. За її виглядом можна судити не тільки про наявність, а й про форму залежності між ознаками, що вивчаються.

Побудова рівняння парної регресії

Побудова рівняння регресії зводиться оцінки її параметрів. Ці оцінки параметрів можна знайти різними способами. Одним з них є спосіб найменших квадратів (МНК). Суть методу полягає у наступному. Кожному значенню відповідає емпіричне (спостережуване) значення . Побудувавши рівняння регресії, наприклад, рівняння прямої лінії, кожному значенню відповідатиме теоретичне (розрахункове) значення . Значення, що спостерігаються не лежать у точності лінії регресії, тобто. не збігаються з . Різниця між фактичним та розрахунковим значеннями залежної змінної називається залишком:

МНК дозволяє отримати такі оцінки параметрів, за яких сума квадратів відхилень фактичних значень результативної ознаки увід теоретичних , тобто. сума квадратів залишків, мінімальна:

Для лінійних рівнянь та нелінійних, що наводяться до лінійних, вирішується така система щодо аі b:

де n- Чисельність вибірки.

Розв'язавши систему рівнянь, отримаємо значення аі bщо дозволяє записати рівняння регресії(Регресійне рівняння):

де - Пояснення (незалежна) змінна;

-Пояснюється (залежна) змінна;

Лінія регресії проходить через точку ( ,) та виконуються рівності:

Можна скористатися готовими формулами, які випливають із цієї системи рівнянь:

де - Середнє значення залежної ознаки;

-Середнє значення незалежної ознаки;

-Середнє арифметичне значення твору залежної та незалежної ознак;

-Дисперсія незалежної ознаки;

-Ковариація між залежним і незалежним ознаками.

Вибірковою коваріацієюдвох змінних х, уназивається середня величинатвори відхилень цих змінних від своїх середніх

Параметр bпри хмає велике практичне значенняі називається коефіцієнта регресії. Коефіцієнт регресіїпоказує, наскільки одиниць у середньому змінюється величина у хна 1 одиницю свого виміру.

Знак параметра bу рівнянні парної регресії вказує на напрямок зв'язку:

якщо
, то зв'язок між показниками, що вивчаються пряма, тобто. зі збільшенням факторної ознаки хзбільшується і результативна ознака у, і навпаки;

якщо
, то зв'язок між показниками, що вивчаються зворотний, тобто. зі збільшенням факторної ознаки хрезультативна ознака узменшується, і навпаки.

Значення параметру ау рівнянні парної регресії часом можна трактувати як початкове значення результативного ознаки у. Таке трактування параметра аможлива лише в тому випадку, якщо значення
має сенс.

Після побудови рівняння регресії, значення, що спостерігаються yможна уявити як:

Залишки , як і помилки , є випадковими величинамипроте вони, на відміну від помилок спостерігаються. Залишок є та частина залежної змінної y, яку неможливо пояснити за допомогою рівняння регресії

На підставі рівняння регресії можуть бути обчислені теоретичні значення у хдля будь-яких значень х.

p align="justify"> В економічному аналізі часто використовується поняття еластичності функції. Еластичність функції
розраховується як відносна зміна yдо відносної зміни x. Еластичність показує, на скільки відсотків змінюється функція
за зміни незалежної змінної на 1%.

Оскільки еластичність лінійної функції
не є постійною величиною, а залежить від х, зазвичай розраховується коефіцієнт еластичності як середній показник еластичності.

Коефіцієнт еластичностіпоказує, наскільки відсотків у середньому за сукупністю зміниться величина результативної ознаки упри зміні факторної ознаки хна 1% від свого середнього значення:

де
- Середні значення змінних хі уу вибірці.

Оцінка якості побудованої моделі регресії

Якість моделі регресії- Адекватність побудованої моделі вихідним (спостерігається) даним.

Щоб виміряти тісноту зв'язку, тобто. виміряти, наскільки вона близька до функціональної, потрібно визначити дисперсію, яка вимірює відхилення увід у хта характеризує залишкову варіацію, обумовлену іншими факторами. Вони лежать в основі показників, що характеризують якість моделі регресії.

Якість парної регресії визначається за допомогою коефіцієнтів, що характеризують

1) тісноту зв'язку - індексу кореляції, парного лінійного коефіцієнта кореляції;

2) помилку апроксимації;

3) якість рівняння регресії та окремих його параметрів – середні квадратичні помилки рівняння регресії загалом та окремих його параметрів.

Для рівнянь регресії будь-якого виду визначається індекс кореляції, що характеризує лише тісноту кореляційної залежності, тобто. ступінь її наближення до функціонального зв'язку:

,

де - Факторна (теоретична) дисперсія;

-Загальна дисперсія.

Індекс кореляції набуває значення
, при цьому,

якщо

якщо
- то зв'язок між ознаками хі ує функціональною, Чим ближче до 1, тим більше тісним вважається зв'язок між ознаками, що вивчаються. Якщо
, то зв'язок можна вважати тісним

Дисперсії, необхідні обчислення показників тісноти зв'язку обчислюються:

Загальна дисперсія, що вимірює загальну варіаціюза рахунок дії всіх факторів:

Факторна (теоретична) дисперсія,що вимірює варіацію результативної ознаки уза рахунок дії факторної ознаки х:

Залишкова дисперсія, що характеризує варіацію ознаки уза рахунок усіх факторів, крім х(тобто при виключеному х):

Тоді за правилом складання дисперсій:

Якість парної лінійноїрегресії може бути визначено також за допомогою парного лінійного коефіцієнта кореляції:

,

де
- Коваріація змінних хі у;

-Середньоквадратичне відхилення незалежної ознаки;

-Середньоквадратичне відхилення залежної ознаки.

Лінійний коефіцієнт кореляції характеризує тісноту і напрямок зв'язку між ознаками, що вивчаються. Він вимірюється не більше [-1; +1]:

якщо
- то зв'язок між ознаками прямий;

якщо
- то зв'язок між ознаками зворотний;

якщо
- то зв'язок між ознаками відсутня;

якщо
або
- то зв'язок між ознаками є функціональним, тобто. характеризується повною відповідністю між хі у. Чим ближче до 1, тим більше тісним вважається зв'язок між ознаками, що вивчаються.

Якщо індекс кореляції (парний лінійний коефіцієнт кореляції) звести квадрат, то отримаємо коефіцієнт детермінації.

Коефіцієнт детермінації– являє собою частку факторної дисперсії у загальній та показує, на скільки відсотків варіація результативної ознаки упояснюється варіацією факторної ознаки х:

Він характеризує не всю варіацію увід факторної ознаки х, лише ту її частина, що відповідає лінійному рівнянню регресії, тобто. показує питому вагу варіації результативного ознаки, лінійно що з варіацією факторного ознаки.

Величина
- Частка варіації результативної ознаки, яку модель регресії врахувати не змогла.

Розсіювання точок кореляційного поля може бути дуже велике, і обчислене рівняння регресії може давати велику похибку в оцінці показника, що аналізується.

Середня помилка апроксимаціїпоказує середнє відхилення розрахункових значень від фактичних:

Максимально допустиме значення 12-15%.

Мірою розкиду залежної змінної навколо лінії регресії служить стандартна помилка. Для всієї сукупності значень, що спостерігаються, розраховується стандартна (середньоквадратична) помилка рівняння регресії, яка є середнім квадратичним відхиленням фактичних значень ущодо теоретичних значень, розрахованих за рівнянням регресії у х .

,

де
- Число ступенів свободи;

m- Число параметрів рівняння регресії (для рівняння прямої m=2).

Оцінити величину середньої квадратичної помилки можна зіставивши її

а) із середнім значення результативної ознаки у;

б) із середнім квадратичним відхиленням ознаки у:

якщо
то використання даного рівняння регресії є доцільним.

Окремо оцінюються стандартні (Середньоквадратичні) помилки параметрів рівняння та індексу кореляції:

;
;
.

х- Середнє квадратичне відхилення х.

Перевірка значущості рівняння регресії та показників тісноти зв'язку

Щоб побудовану модель можна було використовуватиме подальших економічних розрахунків, перевірки якості побудованої моделі недостатньо. Необхідно також перевірити значущість (суттєвість) отриманих з допомогою методу найменших квадратів оцінок рівняння регресії та показника тісноти зв'язку, тобто. необхідно перевірити їх у відповідність справжнім параметрам взаємозв'язку.

Це з тим, що обчислені за обмеженою сукупності показники зберігають елемент випадковості, властивий індивідуальним значенням ознаки. Тому є лише оцінками певної статистичної закономірності. Необхідна оцінка ступеня точності та значущості (надійності, суттєвості) параметрів регресії. Під значимістюрозуміють ймовірність того, що значення параметра, що перевіряється, не дорівнює нулю, не включає в себе величини протилежних знаків.

Перевірка значущості– перевірити, що параметри відрізняються від нуля.

Оцінка значущості парного рівняння регресіїзводиться до перевірки гіпотез про значущість рівняння регресії в цілому та окремих його параметрів ( a, b), парного коефіцієнта детермінації чи індексу кореляції.

У цьому випадку можуть бути висунуті наступні основні гіпотезиH 0 :

1)
- Коефіцієнти регресії є незначними і рівняння регресії також є незначним;

2)
– парний коефіцієнт детермінації незначний і рівняння регресії також незначним.

Альтернативною (або зворотною) виступають такі гіпотези:

1)
- Коефіцієнти регресії значно відрізняються від нуля, і побудоване рівняння регресії є значущим;

2)
– парний коефіцієнт детермінації істотно від нуля і побудоване рівняння регресії є значним.

Перевірка гіпотези про значущість рівняння парної регресії

Для перевірки гіпотези про статистичну незначущість рівняння регресії в цілому та коефіцієнта детермінації використовується F-Критерій(критерій Фішера):

або

де k 1 = m–1 ; k 2 = nm - Число ступенів свободи;

n- Число одиниць сукупності;

m- Число параметрів рівняння регресії;

-факторна дисперсія;

-залишкова дисперсія.

Гіпотеза перевіряється так:

1) якщо фактичне (спостерігається) значення F-критерію більше критичного (табличного) значення даного критерію
, то з ймовірністю
основна гіпотеза про незначущість рівняння регресії або парного коефіцієнта детермінації відкидається, і рівняння регресії визнається значущим;

2) якщо фактичне (спостерігається) значення F-критерію менше критичного значення даного критерію
, то з ймовірністю (
) основна гіпотеза про незначущість рівняння регресії чи парного коефіцієнта детермінації приймається, і побудоване рівняння регресії визнається незначним.

Критичне значення F-критерія знаходиться за відповідними таблицями в залежності від рівня значущості та числа ступенів свободи
.

Число ступенів свободи- Показник, який визначається як різниця між обсягом вибірки ( n) та числом оцінюваних параметрів за даною вибіркою ( m). Для моделі парної регресії число ступенів свободи розраховується як
, оскільки за вибіркою оцінюються два параметри (
).

Рівень значущості - Величина, що визначається
,

де - Довірча ймовірність потрапляння оцінюваного параметра довірчий інтервал. Зазвичай приймається 0,95. Таким чином – це ймовірність того, що оцінюваний параметр не потрапить у довірчий інтервал, що дорівнює 0,05 (5%).

Тоді у разі оцінки значущості рівняння парної регресії критичне значення F-критерію обчислюється як
:

.

Перевірка гіпотези про значущість параметрів рівняння парної регресії та індексу кореляції

При перевірці значущості параметрів рівняння (припущення, що параметри відрізняються від нуля) висувається основна гіпотеза про незначність отриманих оцінок (
. Як альтернативна (зворотна) висувається гіпотеза про значущість параметрів рівняння (
).

Для перевірки висунутих гіпотез використовується t -Критерій (t-статистика) Стьюдента. Спостережуване значення t-критерія порівнюється зі значенням t-Критерію, що визначається за таблицею розподілу Стьюдента (критичним значенням). Критичне значення t-критерія
залежить від двох параметрів: рівня значущості та числа ступенів свободи
.

Висунуті гіпотези перевіряються так:

1) якщо модуль значення, що спостерігається t-критерію більше критичного значення t-Критерію, тобто.
, то з ймовірністю
основну гіпотезу про незначущість властивостей регресії відкидають, тобто. параметри регресії не дорівнюють 0;

2) якщо модуль значення, що спостерігається t-критерія менша або дорівнює критичному значенню t-Критерію, тобто.
, то з ймовірністю
Основна гіпотеза про незначущість властивостей регресії приймається, тобто. параметри регресії майже відрізняються від 0 чи рівні 0.

Оцінка значущості коефіцієнтів регресії за допомогою критерію Стьюдента проводиться шляхом зіставлення їх оцінок із величиною стандартної помилки:

;

Для оцінки статистичної значущості індексу (лінійного коефіцієнта) кореляції застосовується також t-Критерій Стьюдента.