Miksi tavallista pienimmän neliösumman menetelmää käytetään lineaarisessa regressiossa?

Miksi tavallista pienimmän neliösumman menetelmää käytetään lineaarisessa regressiossa?
Anonim

Vastaus:

Jos Gauss-Markofin olettamukset säilyvät, OLS tarjoaa minkä tahansa lineaarisen estimaattorin alhaisimman standardivirheen, joten paras lineaarinen puolueeton arvioija

Selitys:

Kun otetaan huomioon nämä oletukset

  1. Parametrin yhteisvaikutukset ovat lineaarisia, tämä tarkoittaa vain sitä # beta_0 ja beta_1 # ovat lineaarisia, mutta # X # muuttujan ei tarvitse olla lineaarinen se voi olla # X ^ 2 #

  2. Tiedot on otettu satunnaisnäytteestä

  3. Ei ole täydellistä monikollinaarisuutta, joten kaksi muuttujaa ei ole täysin korreloitu.

  4. #E (u #/#x_j) = 0 # keskimääräinen ehdollinen oletus on nolla, eli # X_j # muuttujat eivät anna tietoa havaitsemattomien muuttujien keskiarvosta.

  5. Vaihtelut ovat yhtä suuret kuin millä tahansa # X # toisin sanoen #var (u) = sigma ^ 2 #

Sitten OLS on paras lineaarinen estimaattori lineaaristen estimaattoreiden populaatiossa tai (Best Linear Unbiased Estimator) SININEN.

Jos sinulla on tämä lisäoletus:

  1. Vaihtelut jakautuvat normaalisti

Sitten OLS-estimaattori tulee parhaaksi estimaattoriksi riippumatta siitä, onko se lineaarinen tai epälineaarinen.

Tämä tarkoittaa lähinnä sitä, että jos oletukset 1-5 pitävät, OLS tarjoaa pienimmän standardivirheen missä tahansa lineaarisessa estimaattorissa ja jos 1-6 pidä, se antaa minkä tahansa estimaattorin pienimmän standardivirheen.