Reinout's uitleg klopt: de $p$-waarde is een functie van hoeveel variantie een voorspeller verklaart in de afhankelijke variabele (ten opzichte van de errorvariantie).
Sterker nog, de $p$-waarde is een functie van de $F$-waarde, en de $F$-waarde is de variantie die wordt verklaard door de voorspeller (of factor, of onafhankelijke variabele), gedeeld door de variantie die niet wordt verklaard (de error):
$$F = \frac{MS_{factor}}{MS_{error}}$$
($MS$ staat voor Mean Squares, oftewel variantie; en $MS_{factor}$ is de variantie die wordt verklaard door de factor, dus de conditie, of de onafhankelijke variabele, of 'het effect')
De $p$-waarde is een deterministische functie van de $F$-waarde en de beide bijhorende vrijheidsgraden.
Een laatste ding dat je moet begrijpen is dat Anova vaak werkt met de zogenaamde "Type III sums of squares": dit is wat complexer (en hoef je verder niet te begrijpen), maar betekent kort samengevat dat als wat variantie in de afhankelijke variabele wordt verklaard door meerdere variabelen tegelijk, die variantie helemaal buiten beschouwing wordt gelaten.
Ok, met die bouwstenen gaan we nu werken.
Dus, er zijn drie redenen waarom die $p$-waarden anders zijn.
Ten eerste: er zijn minder vrijheidsgraden over voor de error. Een deel van die vrijheidsgraden wordt immers opgebruikt door de andere termen in het model (i.e. andere voorspellers, en de interactie). Hierdoor wordt een andere $F$-verdeling gebruikt (want de $F$-verdeling die wordt gebruikt om met de $F$-waarde de $p$-waarde op te zoeken, is een functie van de beide vrijheidsgraden), maar dit betekent ook dat de $MS_{error}$ groter is, want de $SS_{error}$ wordt door een kleinere $Df$ gedeeld.
Ten tweede is er minder errorvariantie omdat er meerdere termen in het model zitten, en die termen verklaren allemaal wat van de afhankelijke variabele. Er is dus minder onverklaarde variantie (i.e. errorvariantie).
Ten derde overlapt 'conditie' misschien met andere voorspellers in het model (in de verklaring van de afhankelijke variabele) waardoor die overlappende variantie uit het model wordt gesneden. Dat beinvloedt dus tegelijkertijd de $MS_{factor}$ en de $MS_{error}$.
Om al die redenen zullen de $p$-waarden dus verschillen.
Overigens hebben $p$-waarden sowieso van studie tot studie andere waarden - dus je hoeft je nooit zorgen te maken over relatief kleine verschillen.