Regresja liniowa: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (→‎Metoda najmniejszych kwadratów: Usuwanie spacji, replaced: →)
m (Infobox5 upgrade)
Linia 1: Linia 1:
{{infobox4
|list1=
<ul>
<li>[[Estymator obciążony]]</li>
<li>[[Błąd bezwzględny]]</li>
<li>[[Analiza regresji]]</li>
<li>[[Metody statystyczne]]</li>
<li>[[Estymacja]]</li>
<li>[[Współczynnik korelacji rang Spearmana]]</li>
<li>[[Rozkład normalny]]</li>
<li>[[Test zgodności chi-kwadrat]]</li>
<li>[[Rozstęp]]</li>
</ul>
}}
'''[[Regresja]] liniowa''' - jest jedną z podstawowych technik wchodzących w skład modelowania ekonometrycznego. Regresja liniowa stanowi pierwsze przybliżenie analizowanych danych. Jednakże jest ono w wielu przypadkach mało dokładne, ale lecz szybkie (Michał Bernardelli 2012, s. 55). Wykorzystywana jest do analizowania relacji między zmiennymi numerycznymi. Zależność pomiędzy zmienną objaśnianą a objaśniająca jest zależnością liniową.
'''[[Regresja]] liniowa''' - jest jedną z podstawowych technik wchodzących w skład modelowania ekonometrycznego. Regresja liniowa stanowi pierwsze przybliżenie analizowanych danych. Jednakże jest ono w wielu przypadkach mało dokładne, ale lecz szybkie (Michał Bernardelli 2012, s. 55). Wykorzystywana jest do analizowania relacji między zmiennymi numerycznymi. Zależność pomiędzy zmienną objaśnianą a objaśniająca jest zależnością liniową.


Linia 72: Linia 58:
Destymulanty to zmienne o ujemnych parametrach. Możemy jeszcze
Destymulanty to zmienne o ujemnych parametrach. Możemy jeszcze
określić zmienne, które są neutralne (nieistotne), czyli takie, które nie mają żadnego wpływu na badane zjawisko (Tomasz Górecki 2020, s. 34-37)
określić zmienne, które są neutralne (nieistotne), czyli takie, które nie mają żadnego wpływu na badane zjawisko (Tomasz Górecki 2020, s. 34-37)
{{infobox5|list1={{i5link|a=[[Estymator obciążony]]}} &mdash; {{i5link|a=[[Błąd bezwzględny]]}} &mdash; {{i5link|a=[[Analiza regresji]]}} &mdash; {{i5link|a=[[Metody statystyczne]]}} &mdash; {{i5link|a=[[Estymacja]]}} &mdash; {{i5link|a=[[Współczynnik korelacji rang Spearmana]]}} &mdash; {{i5link|a=[[Rozkład normalny]]}} &mdash; {{i5link|a=[[Test zgodności chi-kwadrat]]}} &mdash; {{i5link|a=[[Rozstęp]]}} }}


==Bibliografia==
==Bibliografia==

Wersja z 02:03, 18 lis 2023

Regresja liniowa - jest jedną z podstawowych technik wchodzących w skład modelowania ekonometrycznego. Regresja liniowa stanowi pierwsze przybliżenie analizowanych danych. Jednakże jest ono w wielu przypadkach mało dokładne, ale lecz szybkie (Michał Bernardelli 2012, s. 55). Wykorzystywana jest do analizowania relacji między zmiennymi numerycznymi. Zależność pomiędzy zmienną objaśnianą a objaśniająca jest zależnością liniową.

TL;DR

Regresja liniowa to podstawowa technika w modelowaniu ekonometrycznym, która analizuje relacje między zmiennymi numerycznymi. Model regresji liniowej opisuje zależność między zmienną zależną a zmienną niezależną. Metoda najmniejszych kwadratów służy do znalezienia najlepiej dopasowanej prostej. Regresja wieloraka uwzględnia wpływ wielu cech niezależnych na zmienną zależną.

Model Regresji liniowej

Przyjmując założenie o liniowej zależności między zmiennymi nasz model ma postać:

y = β0 + β1X + ε

Gdzie:

  • Y to zmienna zależna (również nazywana zmienną objaśnianą), której wartości chcemy wyjaśnić albo przewidzieć
  • X to zmienną niezależną (inaczej zmienną objaśniającą) nazywaną jest również predyktorem, zakładamy, że zmienna ta nie jest zdegenerowana do stałej. W przeciwnym razie nie byłoby sensu rozważać problemu regresji.
  • ε to błęd losowym (inaczej zakłóceniem, szumem), jedynym źródłem losowości
  • β0 to wyraz wolny będący punktem przecięcia linii Y = β0 + β1X z osią rzędnych.
  • β1 to współczynnik kierunkowym, czyli tangensem kąta pod którym linia Y = βo+ β1X nachylona jest do osi odciętych (Maciej Kostrzewski 2020, s. 1-2)

Postulat Gaussa

"Wykonując n pomiarów wielkości x i y będących w zależności liniowej y = ax+b uzyskujemy n par liczb (xi , yi ) i graficznym obrazem są punkty rozrzucone na pewnym obszarze, niekoniecznie na linii prostej. Rozbieżność wyniku pomiaru yi i wartości teoretycznej y z równania y = ax+b wynika z niepewności pomiarowej i można zapisać w postaci: yi - y = yi - (axi + b) dopasowanie metodą regresji liniowej oznacza, że:

Regresja liniowa polega na znalezieniu parametrów a i b prostej y = ax + b takich aby spełniały postulat Gaussa, gdzie a i b współczynniki regresji liniowej tj. aby suma kwadratów różnic między wartościami zmierzonymi yi i obliczonymi y była jak najmniejsza (przy założeniu, że wszystkie punkty pomiarowe obarczone są jednakowymi niepewnościami przypadkowymi o rozkładzie Gaussa)" (Tadeusz M. Molenda 2020, s. 5-7)

Metoda najmniejszych kwadratów

Jeżeli pomiędzy dwiema wielkościami fizycznymi występuje zależność liniowa to regresja liniowa jest prostą metodą wyznaczenia parametrów, najlepiej dopasowanej prostej. Uzyskane parametry dopasowania mogą następnie służyć nam do wyznaczenia szukanej wielkości fizycznej. Parametry prostej, która jest określona równaniem y = ax + b możemy wyznaczyć przy użyciu wzorów:

Gdzie:

  • xi, yi jest wartością doświadczalną,
  • n jest liczbą wykonanych pomiarów.

Błędy wyznaczonych wartości a i b określone są wzorami:

(Teresa Lewkowicz 2020, s. 1)

Regresja Wieroraka

W regresji wielorakiej uwzględnia się wpływ wielu cech niezależnych na wybraną cechę zależną. Załóżmy, że dysponujemy teraz układem k cech X1, X2,. . ., Xk. Model regresji wielokrotnej można zapisać w postaci: Y = Xβ + ε,

Gdzie

  • Y jest wektorem obserwacji zmiennej objaśnianej,
  • X jest macierzą z pomiarami zmiennych objaśniających (pierwsza kolumna to kolumna jedynek odpowiadająca za wyraz wolny w modelu).

W celu estymacji parametrów modelu używamy Metody Najmniejszych Kwadratów otrzymując:

Bardzo często w przypadku wykorzystania regresji wielorakiej naszego największego zainteresowania nie budzi prognoza, lecz interesuje nas, które zmienne wpływają na badane przez nas zjawisko w sposób pobudzający, a które je hamują. Zmienne, które wpływają na badane zjawisko nazywamy stymulantami, natomiast te, które je hamują nazywane sądestymulantami. Stymulantami są zmienne, które w oszacowanym modelu regresji mają dodatnie wartości parametrów regresji. Destymulanty to zmienne o ujemnych parametrach. Możemy jeszcze określić zmienne, które są neutralne (nieistotne), czyli takie, które nie mają żadnego wpływu na badane zjawisko (Tomasz Górecki 2020, s. 34-37)


Regresja liniowaartykuły polecane
Estymator obciążonyBłąd bezwzględnyAnaliza regresjiMetody statystyczneEstymacjaWspółczynnik korelacji rang SpearmanaRozkład normalnyTest zgodności chi-kwadratRozstęp

Bibliografia


Autor: Barbara Treśka

.