Regresjonsanalyse

Fra Wikipedia, den frie encyklopedi

Regresjonsanalyse er innen statistikk en kvantitativ analyse av sammenhenger mellom en avhengig variabel og en eller flere uavhengige variabler. I motsetning til korrelasjonsanalyse som kun påviser hvorvidt det er korrelasjon mellom variabler, så kan regresjonsanalyse vise i hvilken grad en variabel samvarierer med en annen variabel. Man skiller ofte mellom lineær regresjon og ikke-lineær regresjon. Regresjonsanalyse brukes mye innenfor statsvitenskap og medisin.

En modell med en enkel forklaringsvariabel (univariat modell) kan beskrives som Y = α + βX med følgende komponenter:

  • Y = Effektvariabelen som blir gitt av vår modell.
  • α (alfa) = Konstant. Dette er verdien Y vil ha dersom X = 0, og således skjæringspunktet på y-aksen.
  • β (beta) = Stigningstallet, eller også kalt helningskoeffisienten. β sier hvor mye i gjennomsnitt verdien til Y øker eller avtar med en enhets endring i X.

I denne modellen er det gitt at kun X (med α og β som koeffisienter) forklarer Y. En slik modell kalles deterministisk. Regresjonsanalysen når den er ikke-deterministisk: Y=α+βX+e, hvor e er et restledd som tar med alle variasjoner som resten av modellen (variabelen X) ikke forklarer. En modell med flere forklaringsvariabler (X1, X2 ...Xk) kalles en multivariat modell.

I matematikk betegner begrepet regresjon eller mer nøyaktig regresjonsanalyse, metoder for kurvetilpasning av innsamlede data. Kurvetilpasningen kan skje i en eller flere dimensjoner, og dataene inneholder i de fleste tilfellene målefeil. Kurvetilpasningen kan uttrykkes matematisk som:

i en dimensjon,

i n dimensjoner,

hvor y er den målte verdien i et gitt punkt spesifisert ved en eller flere uavhengige variable x. f er funksjonen man ønsker å finne og e er feilen eller residualet til målefeilen.