Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

Hoe interpreteer ik de output van SPSS als het gaat om hierarchische meervoudige regressie analyses?

0 leuk 0 niet-leuks
Beste Allemaal,

Ik heb een vraag over een output in SPSS. Ik heb een hiërarchische regressie analyse uitgevoerd met in het eerste model mijn controle variabelen, in het tweede model mijn afhankelijke variabele en in het derde model mijn interactie variabele. Hoe kan ik zien of model 2 wat aan model 1 toevoegt? Naar welke waarden moet ik dan kijken? En hoe rapporteer ik dit? Is een rapportage zoals: Het hebben van kinderen (onafhankelijke variabele) is geen significante voorspeller voor motivatie (afhankelijke) na het controleren voor x variabelen.

Bedankt alvast!
gevraagd 30 mei 2017 in Multivariate statistiek door ferdie1 (160 punten)

1 Antwoord

0 leuk 0 niet-leuks

Ik neem aan dat je in Stap 2 de 'onafhankelijke' variabelen toevoegt.

Waar je naar verwijst is het principe van modelzuinigheid (ook wel Occam's Razor genoemd), waarin wordt gesteld dat als twee concurrende model hetzelfde verklarend zijn, dat er dan een voorkeur is voor het zuinigste model.

De vraag is dus in de eerste instantie: hoe goed past ieder model op zichzelf. Dan pas hebben we een manier om de twee modellen met elkaar te vergelijken.

Het makkelijkste is om naar de R^2 te kijken. in SPSS is het via mogelijk om de 'model change' statistics op te vragen, zodat niet alleen de R^2 van ieder model wordt weergegeven, maar ook hoeveel R^2 het volgende model in de hierarchie meer verklaard, en of deze winst significant meer is dan nul winst. [Dit kan in het regressiescherm via Statistics -> vink het vakje bij R_squared change aan]. Een significante deltaR^2 is dan een goede indicatie dat de toegenomen complexiteit van het model een meerwaarde heeft.

beantwoord 30 mei 2017 door Ron Pat-El (41,400 punten)
bewerkt 30 mei 2017 door Ron Pat-El

Beste Ron,

Bedankt voor je snelle reactie!

Ja, ik bedoel mijn onafhankelijke variabele. Kijk ik dan eigenlijk naar hoeveel de onafhankelijke variabele toevoegt aan het eerste model?

Ik heb net gekeken in SPSS, hier zie ik de Adjusted R square staan, is dit wat je bedoeld?

Adjusted R^2 is de R^2 (die de verklaarde variantie in de steekproef geeft) aangepast zodat deze een indicatie geeft van de R^2 in de populatie. Dit is daarom iets anders.

In SPSS kun je bij de regressieanalyses op de knop 'statistics' drukken. In de rechterkolom kun je dan het vakje aanvinken 'R squared change'. Dit geeft een tabel met toetsen over de verandering van R-kwadraat tussen de modellen. Ik zal het antwoord aanpassen, zodat de weg naar r-squared change hier ook in staat

Beste Ron, Heel erg bedankt voor de informatie. Als ik deze optie aankruis, krijg ik onderstaand model. In dit model moet ik me dus voornamelijk richten op de R Square change? Hieruit kan ik dus concluderen dat model 2 en 3 geen significante meerwaarde hebben ten opzichte van model 1, klopt dit? Zijn er nog meer waarden waar ik naar moet kijken voor de interpretatie/rapportage van de output?

Je interpretatie klopt. Wat dit mooi demonstreert is waarom het zo belangrijk is om eerst controlevariabelen te modelleren, en daarbovenop de onafhankelijke variabelen: na controle lijken de onafhankelijke variabelen geen toegevoegde waarde te hebben.

Dat gezegd hebbende: ik heb geen inzicht in de variabelen in stap1; als dit er teveel zijn, dan kan dat de unieke variantie op model2 enorm drukken, maar dat is een inhoudelijke zaak waar ik even verre van blijf.
Voor meer informatie over regressie analyse ga naar de bron hierover in Youlearn/Methoden en Technieken.
Oke, super Bedankt! Als laatste vraag ik me nog af of ik in model 2 alleen de onafhankelijke variabele moet toevoegen of de controle variabelen samen met de onafhankelijke variabelen?
Waarom zou je ze niet samennemen?
Ik dacht namelijk dat stel je hebt als afhankelijke variabele motivatie en als onafhankelijke variabele bezoek. En als controlevariabelen leeftijd en gesalcht. Dat je dan bij model 1: leeftijd en geslacht moest invoeren, bij model 2 alleen bezoek en bij model 3 alleen het interactie effect.

Maar je moet dus wel bij model 1 : leeftijd en geslacht, bij model 2: leeftijd geslacht en bezoek en bij model 3: leeftijd geslacht bezoek en de interactievariabele toevoegen

Klopt het op die manier?
lijkt mij in orde
Is de methode dan nog steeds Enter? Of verandert dit omdat er meerdere modellen zijn?
Op die wijze zoals boven besproken is de method dan nog steeds enter; dit is een handmatige methode. Alle overige methoden zijn geautomatiseerd
...