Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

0 leuk 1 niet-leuk

Beste docent,

Wat is het verband (of het verschil) tussen eta2 en R2?

Eta2 wordt gedefinieerd als: De onafhankelijke variabele heeft een effect op de afhankelijke variabele. Om na te gaan hoe groot dit effect is wordt de eta-kwadraat of correlatieratio gebruikt; dit zegt iets over de grootte van het effect van de variabele die is gebruikt om de groepen te maken op de gemeten variabele. Eta-kwadraat geeft aan hoeveel procent van de totale variantie in de afhankelijke variabele wordt verklaard door de verschillen in de onafhankelijke variabele.

R2 wordt gedefinieerd als: Een maat die als ruwe indicator wordt beschouwd voor de kwaliteit van de voorspelling. R2 zegt dus iets over de proportie variantie
in Y (de afhankelijke variabele) die door X (de onafhankelijke variabele) verklaard wordt.

Zoals ik het lees, zegt R2 dus iets over de kwaliteit van de voorspelling, en is eta kwadraat meer verklarend.

Echter zie ik in de terugkoppeling van Thema 6 - Opdracht 6.4.1. dat in de conclusie niet eta-kwadraat, maar R2 wordt genoemd: Maar liefst 53.2% van de variantie werd verklaard door de kantoorruimte. Voor het administratief en uitvoerend personeel was dat 27.6%.

Vandaar mijn vraag:

Wat is het verschil of verband tussen deze twee waardes en wanneer wordt gekozen voor R2 en wanneer voor eta2 als zowel een ANOVA als een regressie wordt uitgevoerd?

Groeten,

Rosanne

in Inleiding Onderzoek (OIO, PB02x2; was Inleiding Data Analyse, IDA) door (190 punten)

1 Antwoord

0 leuk 0 niet-leuks
$\eta^2$ wordt gebruikt in de context van variantie-analyse. Het is in een variantie-analyse de proportie van de variatie (SS) die door een voorspeller (factor) wordt verklaard (je kunt hem dus ook met de hand uitrekenen met behulp van de anovatabel.

$R^2$ wordt gebruik in de context van regressie-analyse. En daar is het ook de proportie verklaarde variatie.

Echter, $R^2$ heeft betrekking op het gehele model: alle voorspellers samen. $\eta^2$ wordt bij anova juist per voorspeller berekend.

Je hoofdvraag: wanneer kies je welke?

Wel, normaal voer je nooit zowel een anova als een regressie uit (behalve dan de anova-toets van je gehele regressie-model, maar dat is, net als Levene's test, een ander soort anova).

Achter de schermen zijn de twee methoden identiek. Je kunt je factoren in een anova (categorische voorspellers) allemaal dummy-coderen en in een regressie-analyse stoppen, en dan krijg je dezelfde uitkomsten. Dat is echter heel omslachtig; anova biedt een veel eenvoudiger 'interface' tot die statistische analyse. Regressie-analyse is de achterliggende, krachtiger techniek, maar niet altijd de meest handige.

Als je dus een design hebt waarbij je onafhankelijke variabelen het categorische meetniveau hebben, dan gebruik je een anova. Dit doe je dus voor de meeste experimenten.

Als je een design hebt waarbij je onafhankelijke variabelen het intervalniveau hebben, dan kun je geen anova gebruiken, en gebruik je dus regressie.

Ik kan geen situatie bedenken waarin je zowel anova als regressie zou gebruiken voor dezelfde onderzoeksvraag. Dus misschien is dat je antwoord? :-)

Overigens: samenhang en voorspelling is precies hetzelfde. Als twee variabelen samenhangen, kun je de ene variabele voorspellen uit de andere. Bij regressie is de 'voorspellingskant' vooral saillant, omdat je een voorspellingsmodel bouwt; maar de kern van je analyse betreft nog steeds de vraag hoe sterk de variabelen samenhangen.
door (77.8k punten)
...