Als je zegt "het gaat hier om twee variabelen", bedoel je dan dat je in de regressie-analyse twee voorspellers opneemt? In dat geval is het mogelijk. Maar, dan betreft dit geen KDA, want daar voer je alleen enkelvoudige regressies uit?
Als je een enkelvoudige regressie-analyse uitvoert, dus met één voorspeller, dan is die analyse equivalent aan een correlatie-analyse: de p-waarden van je Anova, je beta (regressie-coefficient), en je Pearson r zullen exact hetzelfde zijn.
Maar, als je twee of meer voorspellers in je regressiemodel opneemt, en die voorspellers hangen minder sterk met elkaar samen dan ze met de afhankelijke variabele samenhangen, dan winnen de significantie-toetsen van de regressie-coefficienten aan power. Dat komt omdat er minder errorvariantie in de afhankelijke variabele over is, omdat elk van de variabelen wat van de variantie van die afhankelijke variabele verklaart. Dit kan alleen als je voorspellers niet te sterk met elkaar samenhangen, want door samenhang tussen je voorspellers verlies je juist weer power (zie de uitleg over collineariteit en VIF, http://oupsy.nl/help/258/correlaties-tussen-tussen-predictoren-regressieanalyses en http://oupsy.nl/help/35/wat-zijn-de-vif-en-tolerance-bij-regressie-analyse).