Je verwart inderdaad, zoals Reinout suggereert, de berekening voor Type 1-fouten en Type 2-fouten. Dat wil zeggen, je berekening klopt wel. Bij Type 1-fouten gebruikten we deze berekening:
$\text{kans op minimaal 1 Type-1 fout} =$
$1 - (1 - \text{kans op Type-1 fout per p-waarde})^\text{aantal p-waarden}$
En bij Type-2 fouten werkt die natuurlijk ook:
$\text{kans op minimaal 1 Type-2 fout} =$
$1 - (1 - \text{kans op Type-2 fout per p-waarde})^\text{aantal p-waarden}$
Maar, je denkfout is dat je veronderstelt dat beide $p$-waarden betrekking hebben op dezelfde nulhypothese. Maar, waarom zou je twee keer dezelfde nulhypothese toetsen? Sterker nog, als je dat zou doen, bijvoorbeeld met een $t$-toets en een Anova ($F$-toets), of met een correlatie ($r$) en met regressie (de $F$-toets van $R^2$, of de $t$-toets van de $\beta$), dan komt daar exact dezelfde $p$-waarde uit. Je berekent geen nieuwe $p$-waarde: je berekent dezelfde $p$-waarde alleen via een andere route.
Als je meerder $p$-waarden berekent, dan doe je dat noodzakelijkerwijs om meerdere (verschillende) nulhypothesen te toetsen.
Dit betekent dat dezelfde 'dynamiek' als bij Type 1-fouten van toepassing is: hoe meer $p$-waarden je berekent, hoe groter dan kans dat je minimaal één keer een Type 2-fout maakt.
Als de vraag was geweest: "Hoe groot is de kans dat je minimaal één keer terecht de nulhypothese verwerpt?" had je redenering wel geklopt! Maar dan betreft de vraag precies het omgekeerde: minimaal één keer géén Type 2-fout maken.