Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

Waarom is het beter om met de t-verdeling te werken ipv met de z-verdeling?

0 leuk 0 niet-leuks
Op pagina van 122 van Inleiding Data analyse, paragraaf 5.2 over de steekproevenverdeling van Bèta staat: 'Toch is het natuurlijk beter om standaard met de t-verdeling te werken (...) 'groot' genoeg is.''

Hoezo is dit 'toch natuurlijk beter'? Dit staat nergens uitgelegd waarom dit beter is? Er wordt een conclusie getrokken zonder uitleg. Het enige verschil, aangegeven in de tekst, is dat de t-verdeling gebruikt kan worden voor kleinere steekproeven, maar het wordt niet uitgelegd.
gevraagd 6 mei in Inleiding Data Analyse (IDA) door w.crombeecke (360 punten)

1 Antwoord

0 leuk 0 niet-leuks
 
Beste antwoord
De z-verdeling gaat ervan uit dat de populatievariantie bekend is. Dat is eigenlijk in onderzoek vrijwel nooit het geval. De t-verdeling gaat ervan uit dat de variantie geschat wordt, en dat is in de meeste gevallen ook het geval als we de SD nog berekenen uit de steekproefgegevens.

Omdat in de t-verdeling de aanname is dat de populatievariantie geschat wordt is inherent aan de t-verdeling ook het gebruik van vrijheidsgraden. Zie deze vrijheidsgraden als een soort 'penalty' voor kleinere steekproeven: de minder data, de minder vrijheidsgraden, de breder de t-verdeling wordt, waardoor significantie moeilijker te bereiken is. Dit maakt de t-verdeling voorzichtiger naarmate de steekproefgrootte kleiner wordt. Dit maakt het dan meer geschikt voor kleine steekproeven dan de z-verdeling
beantwoord 6 mei door Ron Pat-El (44,330 punten)
bewerkt 8 mei door Ron Pat-El

Dank! Ik begrijp het, bijna denk ik. Maar waarom is deze t-verdeling dan zo geschikt om te gebruiken voor kleine steekproeven?

Bedankt voor de doorvraag. Ik heb het antwoord over het voordeel in kleine steekproeven nu toegevoegd aan het antwoord.
Bedankt. Ik geloof dat ik het begrijp.

Het helpt om het te zien wellicht. hieronder een plaatje (van Wikipedia geplukt) die laat zien wat het verschil is tussen een normaal verdeling (blauw) en een t-verdeling (rood) bij df = 1. Je ziet dat de staarten dikker zijn waardoor significantie lastiger is

1df

Helemaal duidelijk. De gevonden waarde moet dus zodanig afwijken om de NHST te verwerpen dat wanneer dit gebeurt het hoogstwaarschijnlijk niet op toeval berust. 

Even nog een vraag mbt tot de t-waarde. Ik merk dat ik dit toch een heel lastig onderdeel vind, en ik weet niet zeker of ik het begrijp. 

- De t-verdeling wordt dus opgesteld aan de hand van de aanname dat er geen verband tussen de variabelen bestaat. Dus t = 0.
- De gevonden waarde, B1, in de steekproef wordt vervolgens gedeeld door de standaardfout van het gehele regressiemodel. en hier komt vervolgens de t-waarde uit die we plaatsen in de steekproevenverdeling van de regressiecoëfficiënten (t-verdeling). 
- Maar wat is de standaardfout van het gehele regressiemodel? En hoe is deze af te lezen in SPSS (zie afbeelding).
- De gevonden t-waarde wordt vervolgens omgezet in de p-waarde en aan de hand daarvan, en de afgesproken Alpha, kan worden geconcludeerd of het gevonden verband significant is.

Klopt dit zo? 

Dit kan misschien beter als een nieuwe vraag gesteld worden, omdat het zo van de thematiek van de hoofdvraag afwijkt.
...