$\eta^2$ wordt gebruikt in de context van variantie-analyse. Het is in een variantie-analyse de proportie van de variatie (SS) die door een voorspeller (factor) wordt verklaard (je kunt hem dus ook met de hand uitrekenen met behulp van de anovatabel.
$R^2$ wordt gebruik in de context van regressie-analyse. En daar is het ook de proportie verklaarde variatie.
Echter, $R^2$ heeft betrekking op het gehele model: alle voorspellers samen. $\eta^2$ wordt bij anova juist per voorspeller berekend.
Je hoofdvraag: wanneer kies je welke?
Wel, normaal voer je nooit zowel een anova als een regressie uit (behalve dan de anova-toets van je gehele regressie-model, maar dat is, net als Levene's test, een ander soort anova).
Achter de schermen zijn de twee methoden identiek. Je kunt je factoren in een anova (categorische voorspellers) allemaal dummy-coderen en in een regressie-analyse stoppen, en dan krijg je dezelfde uitkomsten. Dat is echter heel omslachtig; anova biedt een veel eenvoudiger 'interface' tot die statistische analyse. Regressie-analyse is de achterliggende, krachtiger techniek, maar niet altijd de meest handige.
Als je dus een design hebt waarbij je onafhankelijke variabelen het categorische meetniveau hebben, dan gebruik je een anova. Dit doe je dus voor de meeste experimenten.
Als je een design hebt waarbij je onafhankelijke variabelen het intervalniveau hebben, dan kun je geen anova gebruiken, en gebruik je dus regressie.
Ik kan geen situatie bedenken waarin je zowel anova als regressie zou gebruiken voor dezelfde onderzoeksvraag. Dus misschien is dat je antwoord? :-)
Overigens: samenhang en voorspelling is precies hetzelfde. Als twee variabelen samenhangen, kun je de ene variabele voorspellen uit de andere. Bij regressie is de 'voorspellingskant' vooral saillant, omdat je een voorspellingsmodel bouwt; maar de kern van je analyse betreft nog steeds de vraag hoe sterk de variabelen samenhangen.