Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

0 leuk 0 niet-leuks
Welke redenen zijn er om een lineaire regressie (analyze --> regression --> linear) te gebruiken voor het toetsen van de samenhang tussen twee variabelen (met covariaten) in tegenstelling tot een (veel simpelere) correlatieanalyse?
in Bivariate statistiek door (260 punten)

1 Antwoord

0 leuk 0 niet-leuks
Een correlatie-analyse zoals deze wordt behandeld in het curriculum (de 'Pearson product-moment correlatie', oftewel de zero-order correlatie) is altijd bivariaat, oftewel, bij betreft altijd precies twee variabelen.

Je kunt dan dus geen covariate meenemen.

Als je het verband tussen twee variabelen wil bestuderen, wordt meestal correlatie gebruikt; regressie is een beetje 'overkill', en bovendien is het makkelijker om aan de hand van correlatie-coëfficienten te interpreteren hoe sterk twee variabelen samenhangen, dan aan de hand van regressie-coëfficienten.

Als je het verband tussen meer dan twee variabelen wil bestuderen, volstaat correlatie niet, en gebruik je dus regressie. In dat geval wordt de overlappende variantie tussen je voorspellers en de afhankelijke variabele uit het model verwijderd, en representeren de regressie-coëfficienten dus alleen de samenhang van het unieke deel van je variabelen; dat deel dat niet samenhangt met andere voorspellers in de voorspelling van de afhankelijke variabele.

Het voordeel hiervan is dat je alleen naar de unieke bijdrage van elke voorspeller kijkt; als een voorspeller significant correleert, maar geen significante beta (regressie-coëfficient) heeft als die variabele in een regressie-analyse wordt gestopt met een andere voorspeller, dan betekent dat dat dezelfde variantie in de afhankelijke variabele, die door die eerste voorspeller werd voorspeld (getuige de significante correlatie), door de tweede voorspeller wordt voorspeld. Het statistisch programma weet niet bij welke voorspeller die 'overlappende voorspelde variantie' hoort, en die wordt dus aan geen van beide voorspellers toegekend. Het is zo dus mogelijk om, bijvoorbeeld, een kleine subset aan voorspellers te kiezen waarmee een afhankelijke variabele evengoed voorspeld kan worden als met alle beschikbare voorspellers. Bovendien kan inzicht worden verworven in de delen van de afhankelijke variabele die precies door elke voorspeller worden voorspeld.

Het nadeel hiervan is dat psychologische variabelen vaak samenhangen; dat is zelfs deel van hun definitie. Door een deel van de variantie van een voorspeller te verwijderen uit de analyse, wordt de aard van de betreffende variabele veranderd. In de praktijk weet je dan vaak niet precies wat overblijft: je operationalisaties worden dus minder valide. Dit moet je dus goed in je achterhoofd houden bij regressie-analyse - zie ook http://oupsy.nl/help/2289/gevonden-significante-waarde-verklaren-combinatie-verband en http://oupsy.nl/help/258/correlaties-tussen-tussen-predictoren-regressieanalyses.
door (77.7k punten)
...