Nog een extra antwoord, vooruitlopend op mijn vermoeden dat de t-toets was uitgevoerd voordat de begeleider had gesuggereerd een var. analyse (variantieanalyse; dit bedoelde je neem ik aan met 'fact.' analyse? Kan namelijk voor factoriele variantie analyse staan, of voor factor analyse :-)).
In anova (en andere multivariate analyses) geldt dat als je design niet 'orthogonaal' is, oftewel, als je cellen niet precies evenveel deelnemers bevatten, een deel van de verklaarde variantie in de afhankelijke variabele toegeschreven kan worden aan meerdere voorspellers (factoren) tegelijkertijd. Je voorspellers hangen immers samen, en als je voorspellers samenhangen, weet SPSS (or R, of PSPP, of JASP) niet bij welke voorspeller stukjes verklaarde variantie horen.
De standaard aanpak van dit probleem deze uitdaging in SPSS is de zogenaamde 'Type 3 Sums of Squares', die betekent dat alle overlappende verklaarde variantie uit het model wordt gegooid. Dit kan betekenen dat de sterkte van het verband tussen een voorspeller en de afhankelijke variabele verandert.
Een andere verklaring is te vinden in de vrijheidsgraden; die worden verdeeld over de voorspellers, en hoe minder vrijheidsgraden de error-term heeft, hoe groter de $MS_\text{error}$ uiteindelijk is, want
$$MS_\text{error} = \frac{SS_\text{error}}{Df_\text{error}}$$
Multivariate analyses kunnen dus minder power hebben dan bivariate analyses. Dit is overigens ook de reden dat je niet-significante interactie-termen altijd uit je model moet verwijderen; dan krijgt de error-term die vrijheidsgraden weer terug.
Dit is een goed voorbeeld van een aantal nuances van multivariate analyses die maken dat de conclusies op basis van multivariate analyses niet altijd voor de hand liggen; alles hangt met elkaar samen, dus je moet heel goed weten wat je doet als je multivariate analyses uitvoert.