Een paar correcties.
De correlatiecoefficient is niet gelijk aan de regressiecoefficient. De correlatiecoefficient is de gestandaardiseerde covariantie:
$$r_{xy}=\frac{cov_{xy}}{sd_x sd_y}$$
Oftewel, de covariantie die, door middel van deling door het product van de standaarddeviaties, wordt gecorrigeerd voor de schaal van de beide variabelen. Hierdoor loopt de correlatie altijd van -1 tot 1, ongeacht de schaal van de correlerende variabelen.
De regressiecoefficient kan vervolgens worden berekend met:
$$\beta_\text{y voorspeld door x}=r_{xy} \frac{sd_y}{sd_x}$$
Of, andersom:
$$\beta_\text{x voorspeld door y}=r_{xy} \frac{sd_x}{sd_y}$$
De regressiecoefficient is dus alleen gelijk aan de correlatie als de standaarddeviaties van beide variabelen gelijk zijn; bijvoorbeeld als ze zijn gestandaardiseerd.
De proportie verklaarde variantie, $R^2$, is, net als de correlatiecoefficient, een bruikbare effectmaat; er wordt gesproken van een klein effect als de proportie verklaarde variantie groter is dan .01, een middelsterk effect als die groter is dan .09, en een sterk effect als die groter is dan .25.
De regressiecoefficient in een enkelvoudige regressie, of in een meervoudige regressie for that matter, kan nooit worden gebruikt als effectmaat. Dat wil zeggen, het is technisch niet fout als het een enkelvoudige regressie is met gestandaardiseerde voorspellers, maar wel heel onhandig: je gebruikt immers een maat die bijna nooit bruikbaar is voor het doel dat je gebruikt. Bovendien worden regressie-analyses meestal multivariaat gebruikt, en dan is het berekenen van effectmaten helemaal onhandig; die zijn dan immers conditioneel op het volledige model (als in, de andere voorspellers/covariaten).
Een ander belangrijk punt is dat je bij regressie-analyse niet de invloed van de ene variabelen op de andere meet. Invloed is een causaal concept, en zit dus in je design, niet in je analyses. Zonder experiment, geen causaliteit, en geen invloed. Hoeveel regressie-analyses je ook doet :-)
Overigens kun je de $r^2$ ook gewoon uitrekenen zonder eerst een regressie-analyse te doen; bij enkelvoudige regressie-analyse is $R$, de multipele correlatie, eigenlijk helemaal geen multipele correlatie, want er zijn niet multipele voorspellers; het is dus gewoon de bivariate correlatie $r$, en dus geldt dat $R^2=r^2$.
(zie trwns ook http://stats.stackexchange.com/questions/32464/how-does-the-correlation-coefficient-differ-from-regression-slope)