Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

0 leuk 0 niet-leuks
in Methodologie door (360 punten)
Ik vind het antwoord over Principale Componenten Analyse heel verhelderend, waarvoor mijn dank. Ik heb het gebruikt voor mijn verslag. Mijn begeleider echter zet een dikke streep door het woord factor. Het is geen factoranalyse maar componenten analyse. Dien ten gevolge zou men dus van componenten moeten spreken in plaats van factoren.

2 Antwoorden

1 leuk 0 niet-leuks
 
Beste antwoord

Een principale componenten analyse geeft je een indruk van de mate waarin variabelen (meestal items van een vragenlijst) één construct meten, of meerdere constructen. Als je bijvoorbeeld een persoonlijkheidsvragenlijst afneemt, en je voert een principale componenten analyse uit, dan verwacht je vijf onderliggende factoren te vinden (de big five). Als je een vragenlijst afneemt die maar één variabele hoort te meten, verwacht je slechts één onderliggende factor te vinden.

Een principale componenten analyse doe je dus in principe altijd voordat je gemiddelden uitrekent.

Bij een zelfgemaakte vragenlijst moet je even kijken of de structuur is zoals je die had bedoeld; het kan immers zijn dat je inschatting niet klopt en dan de vragenlijst meer of minder verschillende schalen bevat. In dat geval kun je items laten vallen, of de schalen anders samenstellen. Als de uitkomst van de factoranalyse is zoals je had verwacht hoef je niets aan te passen natuurlijk.

Bij een al bestaande vragenlijst moet je kijken of deze werkt zoals hij zou moeten werken; het kan immers zijn dat de factor-structuur in jouw geval anders is. Als je een andere structuur vindt dan de vragenlijst zou moeten hebben, kan dat drie oorzaken hebben. Ten eerste zou het puur toeval kunnen zijn; ten tweede kan het zijn dat je een vreemde steekproef hebt, die niet vergelijkbaar is met de populatie waarin de vragenlijst is gevalideerd; en ten derde zou het kunnen dat de validatie niet klopt (validatie is immers ook slechts onderzoek, en niet zaligmakend).

In zo'n geval moet je beslissen hoe je hiermee omgaat. Je rapporteert dan sowieso dat je een andere structuur hebt (en je kunt eventueel de tabel met geroteerde factorladingen als bijlage bij je artikel stoppen). Vervolgens heb je een aantal opties:

  1. Je kunt deze andere structuur negeren; het voordeel daarvan is dat het meetinstrument hetzelfde blijft, en de normeringstabellen etc nog van toepassing blijven (behalve dus als je steekproef niet vergelijkbaar is met de populatie waarin de vragenlijst is gestandaardiseerd), maar het nadeel is dat je de aannamen van middeling van je items schendt (zie hieronder);
  2. Je kunt deze andere structuur gebruiken om de gemiddelden te berekenen door bijvoorbeeld items te laten vallen of bij andere (sub-)schalen in te delen; het voordeel daarvan is dat de aannamen van het meetrinstrument nog kloppen (elke (sub-)schaal bestaat uit een middeling van items die hetzelfde construct meten), maar het nadeel is dat je niet precies hetzelfde meetinstrument gebruikt als andere studies die die vragenlijst gebruikten.
  3. Je kunt 1 en 2 combineren, door je analyses te herhalen met beide structuren. Dit is de netste oplossing. Als er hetzelfde uitkomt; mooi zo, dan kun je de uitkomsten van één van de twee analyses rapporteren, en in een voetnoot aangeven dat de uitkomsten van de andere analyse hetzelfde waren. Als er iets anders uitkomt, moet je gaan kijken naar de verschillen, en hoe die het gevolg kunnen zijn van die verschillende factorstructuur.

Als je de factoranalyse (principale componenten analyse) hebt uitgevoerd, kun je daarna per factor ((sub-)schaal) kijken hoe de interne consistentie is. Dit kan met Cronbach's alpha, maar beter is het om de GLB of Omega te gebruiken; zie voor meer informatie, en links naar pagina's met uitleg over hoe je die uitrekent, http://oupsy.nl/help/4/wanneer-is-cronbachs-alpha-hoog-genoeg

door (77.8k punten)
geselecteerd door
Bedankt voor de duidelijke uitleg!
Ik heb nog wel één vraag. Sommige vragenlijsten meten meerdere constructen, zoals bij het begrip 'intelligentie'. Met een IQ-vragenlijst kun je het totale IQ-begrip meten, maar ook een aantal subschalen (bijvoorbeeld verbaal redeneren, ruimtelijk inzicht etc.). Als je in een onderzoek uit wilt gaan van het totale IQ-begrip (dus een optelling van alle subschalen), mag je dan verwachten dat er uit de factoranalyse maar één component voortvloeit? Op basis van de subschalen zou het niet vreemd zijn als er meerdere factoren gevonden worden. Maar, ik wil uiteindelijk alleen gebruik maken van de totaalscores (het totale begrip 'intelligentie'). Mag je in dit geval (dus als er meerdere factoren gevonden worden) dus geen somschaal maken?
Goede vraag!

Meestal middel je items in één schaal omdat je de betrouwbaarheid wil verhogen; bij elke meting (elk item) heb je immers meetfout. Die meetfout is normaal gezien normaal verdeeld, met een gemiddelde van 0. Hoe meer metingen (items) je dus middelt, hoe minder last je van die meetfout hebt; omdat de meetfouten per item normaal zijn verdeeld met gemiddelde 0, middelen meerdere meetfouten uit naar 0. De betrouwbaarheid van een schaal drukt uit hoe groot de invloed van meetfout is (hoe kleiner de invloed van meetfout, hoe groter de betrouwbaarheid). Dus hoe meer metingen (items) je middelt, hoe groter de betrouwbaarheid. Dit geldt natuurlijk alleen als die metingen (items) ook allemaal dezelfde variabele meten!

Er is nog een andere reden om items te combineren in één schaal, en dat is om de validiteit te verhogen. Betrouwbaarheid heeft betrekking op de nauwkeurigheid waarmee je iets meet; validiteit gaat over of je wel echt meet wat je wil meten. Je kunt mensen bijvoorbeeld op een weegschaal plaatsen; en dan heb je een meetinstrument met een hoge betrouwbaarheid; maar als je doel is om openness (van de big five) te meten, is je meetinstrument niet valide. Validiteit verhoog je door te zorgen dat je items alle relevante aspecten van een construct meten, zonder dat dingen worden gemeten die niet tot het betreffende construct behoren. Door dus items te middelen die juist verschillende delen van een variabele meten, kun je de validiteit verhogen.

Deze zelfde redeneringen gelden natuurlijk voor variabelen in plaats van items; ook die kun je middelen om betrouwbaarheid te verhogen (als de variabelen metingen van dezelfde variabele representeren) of om betrouwbaarheid te verhogen (als de variabelen metingen van verschillende aspecten van een variabele representeren).

Subschalen voor verbaal redeneren en ruimtelijk inzicht meten dus verschillende aspecten van intelligentie. Omdat deze aspecten geen herhaalde metingen van hetzelfde construct zijn, verlaag je de betrouwbaarheid van je meting door deze twee te middelen. Tegelijkertijd verhoog je de validiteit van je meting. Als je onderzoeksvraag het gehele construct intelligentie betreft, is het dus beter om te middelen.

Zoals je ziet staan verschillende aspecten van een meetinstrument soms haaks op elkaar. Een optimaal betrouwbaar meetinstrument bevat uitsluitend herhaalde metingen (items) die elke keer precies hetzelfde meten; een optimaal valide meetinstrument bevat juist items die allemaal net iets anders meten, om zo alle verschillende aspecten van een variabele in kaart te brengen.
Aaaha, zo!!! Ik begin het te begrijpen! Maaar. Stel, je vindt niet de factorstructuur die je verwacht te vinden (bijv. 15 factoren i.p.v. 10). Als je dan items weg laat vallen of anders indeelt (waarmee je de betrouwbaarheid dus verhoogt), verlaag je dan dus tegelijkertijd ook weer de validiteit? Of zie ik dat weer verkeerd? Is dit dan ook geen reden om een andere factorstructuur te negeren?

Er kunnen verschillende redenen zijn waarom items niet goed/anders/onverwacht samenhangen, bijvoorbeeld:

  • Meetfout (toeval);
  • Het item werkt niet goed (bijvoorbeeld slechte bewoording, etc);
  • Het item werkt niet goed voor je doelgroep (e.g. te ingewikkeld voor je doelgroep, of wordt in de culturele context van je doelgroep anders geinterpreteerd);
  • Het item meet iets anders dan de bedoeling is;
  • Et cetera

Dus, als iets niet goed werkt, moet je echt naar de items zelf gaan kijken. Door naar de correlaties tussen alle items te kijken, kun je bepalen wat je moet doen. [Dit is overigens altijd een goed advies: kijk naar je data. Maak scatterplots en histogrammen, en bestudeer wat er eigenlijk gebeurt. Dit kan vaak helpen bij het bepalen wat er speelt.]

Zoals ik aangaf zijn er verschillende opties als je iets anders vindt dan je verwacht; wat je ook kiest, zorg dat je rapporteert wat je vindt, zodat je lezer dit weet.

Een misschien enigszins abstracte opmerking die met deze discussie te maken heeft is de volgende. Er wordt in de literatuur over latente variabelen ook wel een onderscheid gemaakt tussen zogenaamde reflective measurements en formative measurements.

Factor analyse gaat meestal uit van een reflectieve meting, wat wil zeggen dat er een onderliggende latente (dus niet geobserveerde) variabele of factor bestaat die de geobserveerde metingen van de items veroorzaakt. In termen van een conceptueel model lopen de pijlen dus van de niet-geobserveerde factor (latente variabele) naar de geobserveerde items. Bij een formatieve meting daarentegen wordt de latente variabele geconstrueerd door de geobserveerde items. De pijlen lopen nu van geobserveerd naar latent.

Er zijn wetenschappers die vinden dat er veel gevallen zijn waar er ten onrechte vanuit wordt gegaan van een reflectieve meting.

Bij IQ wordt meestal aangenomen dat dit een latent begrip is dat de scores op allerlei verschillende testen veroorzaakt (reflectieve meting). Maar dit is voor discussie vatbaar. Je zou ook kunnen zeggen dat IQ geoperationaliseerd wordt door de scores op deze tests (formatieve meting).

Bedankt voor de snelle reacties en duidelijke uitleg! Ik kan hier verder mee. Het is een interessant onderwerp. Ik vind het wel apart dat er in veel artikelen niet gesproken wordt over factoranalyse (overigens wel in artikelen waarbij er gekeken wordt naar de psychometrische eigenschappen van bepaalde vragenlijsten; maar dan staat het onderwerp zelf centraal). Is dat toeval? Of vinden zij altijd dezelfde factorstructuur dan verwacht?

Ik kan een aantal redenen bedenken waarom factoranalyses niet worden besproken in artikelen:

  • Als er hetzelfde uitkomt als je zou verwachten, vinden mensen het niet waard het te melden;
  • Als er iets anders uitkomt, verzwijgen mensen het omdat het de validiteit van hun meetinstrument op losse schroeven zet;
  • Mensen realiseren zich niet dat validatie niet betekent dat een instrument onfeilbaar is; en realiseren zich dus niet dat controle van de factorstructuur nodig blijft;
  • Journals geven niet de ruimte die nodig is om alles te beschrijven, en dit is een van de dingen die vervalt;
  • Onderzoekers zijn niet bekend met factor-analyse, en denken er dus niet aan, of weten niet hoe ze het moeten aanpakken.

Er zijn vast nog meer redenen te bedenken; en geen idee hoe vaak elke reden voorkomt . . . Maar, here you go :-)

Peter: hele interessante discussie!!! Niet voor hier, vrees ik, jammer genoeg :-)

0 leuk 0 niet-leuks
Ik vind het antwoord over Principale Componenten Analyse heel verhelderend, waarvoor mijn dank. Ik heb het gebruikt voor mijn verslag. Mijn begeleider echter zet een dikke streep door het woord factor. Het is geen factoranalyse maar componenten analyse. Dien ten gevolge zou men dus van componenten moeten spreken in plaats van factoren.
door (180 punten)
...