Dit is een site voor studenten van de Open Universiteit. Voordat je een vraag kunt stellen moet je even een account aanmaken (dit systeem is niet gekoppeld aan je OU studentnummer en wachtwoord).

Welkom bij het vraag- en antwoord systeem van de onderzoeks-practica van de studie psychologie bij de Open Universiteit.

Houd er, als je een vraag stelt, rekening mee dat je de richtlijnen volgt!

Bij hogere orde factoranalyse krijg ik een factorlading >1. Waardoor komt dat? [gesloten]

0 leuk 0 niet-leuks
Geachte,

Ik voer een hogere orde factoranalyse uit op de gemiddelde subschalen van een samengestelde vragenlijst. Eerst heb ik PCA gedaan met eigenwaarden >1 (geen rotatie). Daaruit kwamen 2 componenten naar voren. Een PAF met Direct Oblimin rotatie en 2 vaste factoren gaf een "diffuus" beeld. Vervolgens probeerde ik verschillende opties uit zoals componenten-/factoranalyse eerst op de ene en dan op de andere factor afzonderlijk. Een 3-factor oplossing met PAF en Direct Oblimin laat echter  een factorlading van >1 ( = 1.063) zien.  Mijn vragen daarbij:

Is dit een ramp ;-) ...?
Komt dat door de geforceerde 3-factoroplossing (het gebeurt namelijk ook bij een 4-factoroplossing)?
Hoe moet ik dit interpreteren?

Hartelijk dank weer (en voor de heldere uitleg die ik op deze site vind)!
Gesloten met het bericht: Dit is opgelost in de opmerkingen.
gevraagd 20 maart 2015 in Methodologie door 837450080 (220 punten)
gesloten 23 juni 2017 door gjp
Interessante vraag; en niet makkelijk om tot een antwoord te komen.

Er zijn een aantal delen van de vraag die me nog niet helder zijn:

hogere orde: bedoel je hiermee meerdimensioneel, of echt dat er factoren op factoren worden gestapeld, zoals in een structureel vergelijkingsmodel?

PCA is niet hetzelfde als PAF: dit zijn twee zeer verschillende manieren om met de covariantiematrix om te gaan. Het kan zijn dat PAF en direct oblimin samen net iets teveel vrijheid geven aan de factorladingen, waardoor er eentje af en toe uit de band schiet, maar vaker is het een teken van model-mispecificatie, bijvoorbeeld door te gecorreleerde variabelen in de analyse te verwerken, of juist niet gecorreleerd genoeg. Kun je iets meer uitleggen over het gebruik van "de gemiddelde subschalen van een samengestelde vragenlijst". Dit is nog erg vaag en kan iets zinvols betekenen als "een construct in subschalen opgedeeld gemeten met een vragenlijst", tot minder zinvol "allerlei vragenlijsten bij elkaar".
Als het mogelijk is om de geroteerde factoroplossing te tonen dan zou dat ook helpen.
Ik waag een poging tot meer helderheid:

Ik onderzoek 3 verschillende vragenlijsten op psychometrische kwaliteit/ interne structuur en voer een externe validatie uit van de subschalen van deze lijsten. Daarbij heb ik o.m. PCA, parallelle PCA, PAF met rotatie, hiërarchische clusteranalyse en CFA met OMG methode gedaan. Een van de analyses is een hogere orde factoranalyse. Daarbij heb ik de gemiddelde schalen berekend van de afzonderlijke subschalen van de 3 lijsten. Op deze gem. schalen voer ik nu een PCA en dan PAF uit. Er komen 2 componenten naar voren uit de PCA. Daarna onderzoek ik iedere component afzonderlijk met een PAF (= hogere orde analyse) om te zien hoe de gem. subschalen opnieuw uitsplitsen in factoren; welke schalen samen groeperen en of dat mijn hypothesen (opnieuw) ondersteunen en in lijn is met de andere analyses die ik heb uitgevoerd. Het onderzoek is prima gelukt. Alleen krijg ik bij deze laatste analyses op een factor een subschaal die laadt met een waarde >1 (zoals hier boven beschreven).

Ik vraag mij af of dat normaal is en waaraan deze >1 nwaarde toegeschreven kan worden.

Ik hoop dat mijn vraag nu duidelijker is. Het gaat dus om de vraag of het mogelijk is  dat een item/variabele op een factor kan laden met een getal >1, en waarom dat zo is (d.w.z. hoe ik dat kan interpreteren).

 

Bedankt weer!

Ik denk dat ik de oplossing heb gevonden - voor degenen die belangstelling hebben: Het gaat om zg. inferentie met Heywood cases. Probleem is opgelost door enkele cases uit de data te verwijderen die volgens een scartterplot  uitschieters waren.

Zie ook artikel: http://web.missouri.edu/~kolenikovs/papers/heywood-8.pdf

Causes of Heywood cases
*Outliers (Bollen 1987).
*Non-convergence and underidentification (Van Driel 1978, Boomsma & Hoogland 2001).
*Empirical underidentification (Rindskopf 1984).
* Structurally misspecified models (Van Driel 1978, Dillon, Kumar & Mulani 1987, Sato 1987, Bollen 1989, Kolenikov & Bollen 2008).
*Sampling fluctuations (Van Driel 1978, Boomsma 1983, Anderson & Gerbing 1984).
Fijn om te lezen. Heywood cases (negatieve schatters van varianties) kunnen goed geidentificeerd worden door te controleren of de variantie negatief is. Ik ben echter nog niet een situatie tegengekomen dat ze de uiteindelijke factorcorrelatie boven 1 opdrijven. Dat is altijd leuk om bij te leren.
...