Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

Is het echt nodig om van alle variabelen in SPSS de frequencies, gemiddelden en verdelingen te "runnen"?

0 leuk 0 niet-leuks

Wat betreft mijn scriptie ben ik nu beland bij het onderdeel met de frequencies, gemiddelden en verdelingen. Dit klinkt misschien wat vreemd maar is het echt nodig om van al mijn variabelen (oftewel alle items zoals PBC1 - PBC10 etc etc) deze gegevens te "runnen"? Natuurlijk wil ik graag deze informatie bekijken maar voordat ik alles in mijn syntax ga invoeren, dacht ik dat het beter was om het eerst even aan jullie voor te leggen.

Als dit wel het geval is, dan kan ik dit volgens mij via een snellere weg in SPSS aangeven en daarna op "paste" drukken zodat hij het command invoert in mijn syntax. Klopt dat?

gevraagd 2 maart 2016 in Methodologie door Miss Psycho (390 punten)

1 Antwoord

1 leuk 0 niet-leuks

Ja, je moet van al je losse items naar de histogrammen (en eventueel frequentieverdelingen, maar histogrammen kun je meestal sneller beoordelen) kijken. Als er iets mis is wil je dat weten voordat je het item in je schaal betrekt immers :-)

Je kunt in SPSS bjivoorbeeld het volgende doen:

FREQ var1 var2 var3 /HISTOGRAM /ORDER VARIABLE.

Of, als je de frequentietabellen er niet bij wil:

FREQ var1 var2 var3 /FORMAT NOTABLE /HISTOGRAM /ORDER VARIABLE.

In R kun je dit bijna op dezelfde manier, als je userfriendlyscience hebt geladen:

freq(dat$var1);

Of, om ook een histogram te laten zien:

freq(dat$var1, plot=TRUE);

En om alleen een histogram te laten zien:

powerHist(dat$var1);

En als je meerdere variabelen tegelijk wil:

lapply(dat[, c('var1', 'var2', 'var3')], freq);

En weer, om ook histogrammen te krijgen:

lapply(dat[, c('var1', 'var2', 'var3')], freq, plot=TRUE);

En voor alleen histogrammen:

lapply(dat[, c('var1', 'var2', 'var3')], powerHist);

Deze histogrammen en frequentieverdelingen moet je vervolgens goed bestuderen om te kijken of er geen vreemde dingen in zitten. Als bijna alle deelnemers bijvoorbeeld hetzelfde antwoord geven, is dat vaak belangrijk om te weten, en betekent dat dat je het item misschien niet kunt gebruiken. Als een item scheef is verdeeld is dat niet zo'n probleem meestal, maar voor sommige schalen wel (zie voor meer informatie over normaliteit http://oupsy.nl/help/215/hoe-toets-ik-of-een-variabele-normaal-is-verdeeld). Tot slot wil je zeker weten dat alle verdelingen unimodaal zijn (i.e. met slechts 1 top). Hier is ook een test voor, de Dip test, maar ik heb nog niet uitgezocht hoe die precies werkt.

Verder wil je de verbanden tussen variabelen die samen een schaal gaan vormen bestuderen door correlatiematrices te bestellen. Voor elke correlatie moet je ook de bijbehorende scatterplot bestuderen, om zeker te weten dat die correlatie een adequate weerspiegeling is van het verband tussen die twee variabelen.

Het is vaak handig om alle histogrammen en frequentieverdelingen in een PDFje op te slaan zodat je die makkelijk kunt bespreken en bijvoorbeeld kunt delen met je begeleider (of co-auteurs). Meer mensen zien meer dan 1, tenslotte. Zie voor meer informatie http://oupsy.nl/help/1990/bezig-mijn-master-scriptie-belang-alle-output-bewaren-spss.

beantwoord 3 maart 2016 door gjp (63,300 punten)
bewerkt 3 maart 2016 door gjp
...