MRA staat voor Multiple Regression Analysis - dit is dus alle regressie-analyse, behalve regressie-analyse met maar 1 voorspeller (een bivariate analyse; er zijn immers twee variabelen, de voorspeller en de afhankelijke variabele). Als je maar 1 voorspeller hebt, is het meestal beter om een correlatie-analyse te doen. In de praktijk zijn alle regressie-analyses dus MRA's. Ik zou die term dus gewoon vermijden, en alleen over regressie-analyse spreken :-)
HMRA staat voor Hierarchical MRA. Dit is een ambigue term, die twee dingen kan betekenen. Één mogelijke betekenis is dat het verwijst naar zogenaamde 'multi-level regressie', waarbij data niet onafhankelijk is (bijvoorbeeld bij herhaalde metingen, of patienten binnen ziekenhuizen, of scholieren binnen scholen, etc). Een andere mogelijke betekenis is dat het verwijst naar regressie-analyse waarbij meerder modellen na elkaar worden getoetst. In dit laatste geval is de regressie-analyse echter precies hetzelfde als wanneer je de modellen niet in één keer zou toetsen. Ook deze term kun je dus beter vermijden; in het eerste geval kun je beter van multi-level analyse (of regressie) spreken; en in het tweede geval is het voldoende duidelijk om van regressie-analyse te spreken. Als je meerdere modellen na elkaar toetst, moet je sowieso specificeren welke, dus het gebruik van de 'H' zou dus niets toevoegen.
Je gebruikt altijd de regressie-coefficienten uit het model dat je uiteindelijk gebruikt. Als er sprake is van interactie, kloppen de schattingen uit een model zonder interactie-term niet, dus kun je die niet gebruiken. Als er geen interactie is, maakt het niet veel uit; de regressie-coefficienten verschillen dan waarschijnlijk toch niet significant (regressie-coefficienten zijn puntschattingen, maar hebben natuurlijk een betrouwbaarheidsinterval; een regressie-coefficient van .2 is niet lager dan een regressie-coefficient van .8 -> dit kun je pas bepalen als je de betrouwbaarheidsintervallen bekijkt. Kleine verschillen in regressie-coefficienten zijn dus irrelevant; het zijn meestal vrij instabiele schattingen).
Tot slot die je nooit p-waarden te halveren. Dit is bijna altijd fout. Er zijn zeer uitzondelijke situaties waarin eenzijdige toetsing acceptabel is, maar die kom je bijna nooit tegen, tenminste, niet in de psychologie of onderwijswetenschappen. Zie http://oupsy.nl/help/299/moet-regressie-gerichte-hypothese-waarde-square-delen-niet voor wat meer uitleg.