Je kunt uit een multipele regressie niets afleiden over correlaties. Dat komt door twee redenen.
De eerste is dat psychologische constructen vaak zo zijn gedefinieerd dat ze overlappende stukjes psychologie beschrijven. Ze verklaren dus dezelfde variantie in de afhankelijke variabele. Echter, die verklaarde variantie kan maar een keer worden toegekend aan een regressiecoefficient. Als die overlappende verklaarde variantie bijvoorbeeld helemaal wordt toegekend aan construct A, dan wordt er dus covariantie (en dus variantie) weggenomen bij de regressiecoefficient voor construct B. Die regressiecoefficient heeft dus niet langer betrekking op construct B, maar op een onbekende subset van construct B (i.e. een niet langer valide 'benadering' van B).
De tweede is dat zelfs als de voorspellers zo zijn gedefinieerd dat ze geen conceptuele overlap hebben, als ze onderling samenhangen een variant op dat eerste probleem optreedt. In dit geval kan dit ofwel het verminderen van bias ofwel het introduceren van bias betekenen (afhankelijk van hoe die samenhang tussen de voorspellers en de afhankelijke variabele precies tot stand is gekomen: dit kun je beredeneren met een Directed Acyclic Graph, maar zie zijn vrij complex en vallen buiten het curriculum). Of deze correctie van de regressiecoefficienten voor de onderlinge samenhang nu bias versterkt of vermindert, in beide gevallen zie je het terug in een bijstelling van de regressiecoefficienten ten opzichte van de correlatiecoefficienten. Die zijn dus hoger of lager.
Als je wil weten welke variabele het sterkst samenhangt met een afhankelijke variabele, kun je dus beter naar correlaties kijken dan naar regressiecoefficienten. Die laatste zijn alleen goed te interpreteren onder een serie aannames die in de sociale wetenschappen meestal niet realistisch zijn.
(Dat betekent overigens niet dat de regressiecoefficienten niet nuttig zijn - het totale regressiemodel (i.e. de regressievergelijking) is bijvoorbeeld nog steeds de beste manier om willekeurige waarden van de afhankelijke variabele te voorspellen uit de waarden van de onafhankelijke variabelen; en bovendien is R^2 nog steeds een goede indicatie van hoeveel van die afhankelijke variabele je kunt voorspellen met al die voorspellers samen.