Als je 1 voorspeller in je regressiemodel hebt, is het dezelfde toets (namelijk: is de Pearson r gelijk aan 0 of niet).
Als je meerdere voorspellers hebt, toetst de Anova bij regressie-analyse je volledige model, terwijl de regressiecoefficienten juist over individuele voorspellers gaan.
Bij regressie-analyse kun je met de coefficienten een formule bouwen waarmee je voor elke deelnemer in je dataset de beste voorspelling voor de afhankelijke variabele kunt berekenen. Die 'beste voorspelling' kun je dan correleren met de echte geobserveerde waarde voor die afhankelijke variabele. Die correlatie, de multipele correlatie ($R$), wordt getoetst met de Anova.
Dus, hoe beter je regresiecoefficienten werken, hoe hoger je $R$, en dus hoe hoger je $R^2$.
De toetsen van de regressiecoefficienten ($\beta$'s) en de anova hangen dus inderdaad samen!
Als je meerdere voorspellers hebt, en je $R^2$ is niet significant, dan betekent dat dat je model geen significante proportie van de variantie in je afhankelijke variabele voorspelt. Je kunt je afvragen hoe zinvol het dan is om te kijken of er misschien individuele voorspellers wel significant zijn. Mocht dat wel het geval zijn, dan wordt de interpretatie lastig. Maakt de toets van $R^2$ dan een Type-2 fout, of maakt de toets van de regressie-coefficient dan een Type-1 fout?