Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

0 leuk 0 niet-leuks

"Gebleken is dat als de onderzoeksgroep groter is dan 30 afwijkingen van de normaliteit veen of nauwelijks invloed hebben op het resultaat van de toets."

Wat wordt met bovenstaade bedoeld? Bron: digitale werkboek, pdf bestand met alle bronnen blz. 37 onderaan blz. 38 bovenaan.

Studiecentrum Eindhoven

 
in Inleiding Onderzoek (OIO, PB02x2; was Inleiding Data Analyse, IDA) door (4.1k punten)
bewerkt door
Wauw! Je opende net een heel nieuwe wereld voor me. Ik heb prompt R gedownload, en het "userfriendlyscience" package geinstalleerd. Ik ben al bezig met het genereren van random datasets van 2 variabelen met een vooraf bepaalde M's, SD's en correlatie. Heel leuk om mee te experimenteren! Dit is Diederik Stapel 2.0 :)

 

(sorry, opmerking op verkeerde plek geplaatst)

1 Antwoord

0 leuk 0 niet-leuks

[ edit door Gjalt-Jorn ] Zie ook de uitleg in http://oupsy.nl/help/112/wanneer-is-mijn-data-te-scheef-niet-normaal-verdeeld!

Veel toetsen hebben als doel om op een gefundeerde manier een “uitspraak” te doen over een populatie op basis van een onderzoeksstaal (“sample”) dat men neemt uit de populatie. Meestal is het immers onmogelijk om iedereen te onderzoeken: je onderzoekt een beperkt aantal gevallen, en op basis van de meetgegevens zou je graag een uitspraak doen over de hele populatie (extrapoleren dus).  De kern van die “uitspraken” is meestal “Mogen we op basis van de resultaten de nulhypothese redelijkerwijs verwerpen of niet?“ Uit onze toetsen komt steevast een p-waarde. De p-waarde zegt ons of we de uitspraak (verwerpen van nulhypothese) redelijkerwijze mogen doen of niet.

Het is belangrijk om te begrijpen wat de p-waarde betekent. Uitgaande van de veronderstelling dat de nulhypothese zou kloppen in de populatie, geeft de p-waarde de kans dat we de resultaten die we in onze meting kregen, zien in een willekeurige steekproef die op dezelfde manier werd samengesteld. Als bijvoorbeeld p = .30, dan zou je – veronderstellend dat de nulhypothese klopt in de totale populatie! - verwachten hetzelfde resultaat te krijgen in 30% van de experimenten waarin je uit dezelfde populatie een steekproef trekt zoals jij dat deed in jouw experiment. 30% acht men meestal veel te groot om redelijkerwijs te mogen aannemen dat de nulhypothese mag verworpen worden. 4% (p = .04) acht men voldoende klein om de nulhypothese te verwerpen. Wat men aanvaardbaar acht en wat niet hangt af van onderzoek tot onderzoek, maar dat is niet belangrijk in dit verhaal. Uiteraard wil dat ook zeggen dat je, zelfs als de nulhypothese zou waar zijn in de populatie, je bij p = .04 toch nog steeds in 1 experiment op 25 (= 1/25 = 0.04 = 4%) resultaten zoals de jouwe zou krijgen. Absoluut zeker ben je nooit, daarvoor zou je de hele populatie moeten meten…

Naargelang de aard van de nulhypothese gebruikt men een bepaalde toets. Drie vaak voorkomende uitspraken en de bijhorende testen draaien rond:

  • Er is (g)een significant verschil tussen de gemiddelden die we maten voor 1 of meer variabelen bij 1 of meer groepen (gepaarde/ongepaarde t-toets; ANOVA indien er meer dan 2 groepen zijn)
  • Er is (g)een samenhang tussen de waarden van twee variabelen (correlatie)
  • De waarde van een bepaalde variabele verklaart (niet) deze van een andere (regressie)

Veel toetsen hebben als voorwaarde dat de steekproevenverdeling van het verschil tussen de gemiddelden min of meer normaal verdeeld is de meetgegevens min of meer normaal verdeeld zijn. Uiteraard zijn meetgegevens nooit perfect normaal verdeeld. Het volstaat dat ze voldoende normaal verdeeld zijn opdat je met gerust gemoed bovenstaande (extrapolerende) uitspraken kunt doen op basis van de resulterende p-waardes. Als de meetgegevens echter onvoldoende normaal verdeeld zijn, dan produceren sommige toetsen een p waarde die niet zo vanzelfsprekend kan gebruikt worden. De berekening hangt namelijk af van de voorwaarde dat de gegevens min of meer normaal verdeeld zijn (als je geleerd wil doen: de “normality assumption”). Maar er is ook goed nieuws: bij de meeste toetsen (waaronder de t-toets en ANOVA – correlatieanalyse gebruikt achter de schermen ook een t toets) speelt die voorwaarde van normaliteit nauwelijks een rol als je ‘grote’ steekproeven neemt. Meestal – maar dat is eerder een afspraak, net als de Magische Grens van .05 of .01 bij de p waardes – beschouwt men 30 als ‘voldoende groot’ om, zelfs als de verdeling van de meetgegevens nogal stevig afwijkt van een ‘perfecte’ normaalverdeling, toch nog de resulterende p waarde te mogen gebruiken om een extrapolerende uitspraak over de populatie te doen.

Kortom, om op basis van kleine steekproeven (N < 30) toch met een gerust hart een uitspraak te mogen doen, zouden je meetgegevens best min of meer normaal verdeeld zijn. Zijn ze dat niet, dan probeer je het onderzoek best eerst eens te repliceren voor je je uitspraken uitbazuint :)

 

door (7.9k punten)
bewerkt door

Dit klopt niet helemaal - zie de link die ik bovenaan heb geplaatst. Daar staat ook een link naar een PDF waar te zien is dat met een steekproef van 3 mensen (ipv 30) normaliteit al wordt geschonden. Je steekproefscores hoeven NOOIT normaal verdeeld te zijn; dat is geen aanname van de t-toets! De steekproevenverdeling moet normaal verdeeld zijn.

Verder nog een dingetje: correlaties gebruiken achter de schermen geen t-toets. Een Pearson r kan worden getoetst op de verdeling van Pearson's r. Je kunt de t-verdeling ook gebruiken, maar dan doe je geen t-toets, en gelden andere aannames.

Weer wat bijgeleerd! Dank!
Ik heb je antwoord iets ge-edit, ik hoop dat dat ok is! Feel free om verder te editen natuurlijk :-) Het is jouw antwoord :-)

Ik ben weer aan het broeden geslagen… Field (2009) zegt dat de door jou genoemde Kolgomorov-Smirnov test “tells us if the distriubtion of the sample is not significantly different from a normal distribution (i.e. it is probably normal)” (p. 144).

Maar uit jouw uitleg begrijp ik nu dat het lichtjes anders is. Deze KS-test gaat op basis van de gegevens van één steekproef proberen te bepalen of de (theoretische) steekproevenverdeling (van steekproeven van dezelfde grootte als de jouwe) vermoedelijk ‘voldoende’ normaal verdeeld is. Ik neem aan dat de ‘graad van normaliteit’ van de steekproefgegevens daarin een rol speelt, maar dit niet (het enige) is wat de test nagaat. Klopt dat?

Welke invloed heeft de steekproefgrootte eigenlijk op de p-waarde van die KS-test? Gaat de test bij N>30 meestal een grote p waarde geven? Of wordt de test ‘strenger’ bij grote p waarden, maar hoeven we er geen rekening mee te houden op voorwaarde dat onze steekproef ‘voldoende’ groot is?

Field, A. P. (2009). Discovering statistics using SPSS (3rd ed.). Thousand Oaks, California; London: SAGE Publications.

 

Um. Nee hoor, de KS toets kan alleen de verdeling van je steekproefscores bekijken. Die is vaak niet zo interessant, maar dat deottie wel :-) Hij kijkt dus niet naar je steekproevenverdeling.

KS is inderdaad bijna altijd significant bij een grote steekproef, ongeacht de verdelingsvorm! Zoals alle NHST toetsen :-)

Dus je redenering klopt :-)

Hierom heb ik een functie geschreven, 'normalityAssessment', in het package userfriendlyscience - zie http://userfriendlyscience.com. Die functie doet ongeveer dit:

> normalityAssessment(rnorm(35));
## SAMPLE DISTRIBUTION ###
Sample distribution of 35 observations
Mean=0.316, median=0.211, SD=1.159, and therefore SE of the mean = 0.196,
Kurtosis=0.042, Skewness=0.055
Shapiro-Wilk: p=0.84 (W=0.983; based on 35 observations)
Anderson-Darling: p=0.778 (A=0.234)
Kolmogorov-Smirnof: p=0.199 (D=0.177)

## SAMPLING DISTRIBUTION FOR THE MEAN ###
Sampling distribution of 5000 samples of n=35
Mean=0.311, median=0.31, SD=0.193,
Kurtosis=0.042, Skewness=0.055.
Shapiro-Wilk: p=0.493 (W=1; based on 5000 observations)
Anderson-Darling: p=0.73 (A=0.255)
Kolmogorov-Smirnof: p=0 (D=0.453)

Met dit plotje:

 

Zo kun je dus door visuele inspectie bepalen of je steekproevenverdeling (rechter plotje) normaal is verdeeld.

...