Regresja liniowa

Z Encyklopedia Zarządzania

Regresja liniowa - jest jedną z podstawowych technik wchodzących w skład modelowania ekonometrycznego. Regresja liniowa stanowi pierwsze przybliżenie analizowanych danych. Jednakże jest ono w wielu przypadkach mało dokładne, ale lecz szybkie (Michał Bernardelli 2012, s. 55). Wykorzystywana jest do analizowania relacji między zmiennymi numerycznymi. Zależność pomiędzy zmienną objaśnianą a objaśniająca jest zależnością liniową.

TL;DR

Regresja liniowa to podstawowa technika w modelowaniu ekonometrycznym, która analizuje relacje między zmiennymi numerycznymi. Model regresji liniowej opisuje zależność między zmienną zależną a zmienną niezależną. Metoda najmniejszych kwadratów służy do znalezienia najlepiej dopasowanej prostej. Regresja wieloraka uwzględnia wpływ wielu cech niezależnych na zmienną zależną.

Model Regresji liniowej

Przyjmując założenie o liniowej zależności między zmiennymi nasz model ma postać:

y = β0 + β1X + ε

Gdzie:

  • Y to zmienna zależna (również nazywana zmienną objaśnianą), której wartości chcemy wyjaśnić albo przewidzieć
  • X to zmienną niezależną (inaczej zmienną objaśniającą) nazywaną jest również predyktorem, zakładamy, że zmienna ta nie jest zdegenerowana do stałej. W przeciwnym razie nie byłoby sensu rozważać problemu regresji.
  • ε to błęd losowym (inaczej zakłóceniem, szumem), jedynym źródłem losowości
  • β0 to wyraz wolny będący punktem przecięcia linii Y = β0 + β1X z osią rzędnych.
  • β1 to współczynnik kierunkowym, czyli tangensem kąta pod którym linia Y = βo+ β1X nachylona jest do osi odciętych (Maciej Kostrzewski 2020, s. 1-2)

Postulat Gaussa

"Wykonując n pomiarów wielkości x i y będących w zależności liniowej y = ax+b uzyskujemy n par liczb (xi , yi ) i graficznym obrazem są punkty rozrzucone na pewnym obszarze, niekoniecznie na linii prostej. Rozbieżność wyniku pomiaru yi i wartości teoretycznej y z równania y = ax+b wynika z niepewności pomiarowej i można zapisać w postaci: yi - y = yi - (axi + b) dopasowanie metodą regresji liniowej oznacza, że:

Regresja liniowa polega na znalezieniu parametrów a i b prostej y = ax + b takich aby spełniały postulat Gaussa, gdzie a i b współczynniki regresji liniowej tj. aby suma kwadratów różnic między wartościami zmierzonymi yi i obliczonymi y była jak najmniejsza (przy założeniu, że wszystkie punkty pomiarowe obarczone są jednakowymi niepewnościami przypadkowymi o rozkładzie Gaussa)" (Tadeusz M. Molenda 2020, s. 5-7)

Metoda najmniejszych kwadratów

Jeżeli pomiędzy dwiema wielkościami fizycznymi występuje zależność liniowa to regresja liniowa jest prostą metodą wyznaczenia parametrów, najlepiej dopasowanej prostej. Uzyskane parametry dopasowania mogą następnie służyć nam do wyznaczenia szukanej wielkości fizycznej. Parametry prostej, która jest określona równaniem y = ax + b możemy wyznaczyć przy użyciu wzorów:

Gdzie:

  • xi, yi jest wartością doświadczalną,
  • n jest liczbą wykonanych pomiarów.

Błędy wyznaczonych wartości a i b określone są wzorami:

(Teresa Lewkowicz 2020, s. 1)

Regresja Wieroraka

W regresji wielorakiej uwzględnia się wpływ wielu cech niezależnych na wybraną cechę zależną. Załóżmy, że dysponujemy teraz układem k cech X1, X2,. . ., Xk. Model regresji wielokrotnej można zapisać w postaci: Y = Xβ + ε,

Gdzie

  • Y jest wektorem obserwacji zmiennej objaśnianej,
  • X jest macierzą z pomiarami zmiennych objaśniających (pierwsza kolumna to kolumna jedynek odpowiadająca za wyraz wolny w modelu).

W celu estymacji parametrów modelu używamy Metody Najmniejszych Kwadratów otrzymując:

Bardzo często w przypadku wykorzystania regresji wielorakiej naszego największego zainteresowania nie budzi prognoza, lecz interesuje nas, które zmienne wpływają na badane przez nas zjawisko w sposób pobudzający, a które je hamują. Zmienne, które wpływają na badane zjawisko nazywamy stymulantami, natomiast te, które je hamują nazywane sądestymulantami. Stymulantami są zmienne, które w oszacowanym modelu regresji mają dodatnie wartości parametrów regresji. Destymulanty to zmienne o ujemnych parametrach. Możemy jeszcze określić zmienne, które są neutralne (nieistotne), czyli takie, które nie mają żadnego wpływu na badane zjawisko (Tomasz Górecki 2020, s. 34-37)


Regresja liniowaartykuły polecane
Estymator obciążonyBłąd bezwzględnyAnaliza regresjiMetody statystyczneEstymacjaWspółczynnik korelacji rang SpearmanaRozkład normalnyTest zgodności chi-kwadratRozstęp

Bibliografia

  • Bernardelli M. (2012), Metoda szybkiej aktualizacjidekompozycji QR dla modeli liniowej regresji, Kolegium Analiz Ekonomicznych Szkoła Główna Handlowa w Warszawie
  • Górecki T. (2020), Analiza Danych W4, Collegium Mathematicum Uniwersytetu Poznańskiego
  • Hellwig Z. (1963), Regresja liniowa i jej zastosowanie w ekonomii, Państwowe Wydawnictwo Ekonomiczne, Warszawa
  • Kostrzewski M. (2020), Regresja, Wydział Matematyki Stosowanej Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie
  • Lewkowicz T. (2020), Regresja Liniowa, Politechnika Wrocławska
  • Molenda T. (2020), Regresja linowa metoda najmniejszych kwadratów, Instytut Fizyki US


Autor: Barbara Treśka

.