Het is meer het probleem dat 'residuals' alleen bestaan wanneer er een model bestaat. Het zijn namelijk de verschillen tussen wat het model voorspelt, en wat de werkelijkheid is per observatie. De enige manier om het model te verkrijgen is om het model op te vragen. Dus je kunt het beter als een analyse met twee fasen te bezien: een deel datascreening, en dan de analyse zelf.
Afhankelijk van wat je met de assumptieschending zou willen doen kun je dan nog koers wijzigen. Ik zou niet puur op basis van nonnormale residuen bijvoorbeeld gaan kiezen voor een nonparametrische toets. Deze toetsen hebben dikwijls minder power, en het is maar de vraag of het verlies aan power van de nonparametrische toets opweegt tegen de power die verloren zou zijn bij nonnormale residueen.
Nonnormale residuen, vooral wanneer er scheefheid is (gemiddelde van de residuen is niet nul), dan wijst dat meestal op een 'hierarchische' gelaagdheid in de data, zoals bij multilevelanalyse wordt opgelost. Als je bijvoorbeeld verschillende klassen of scholen hebt verzameld, dan kunnen klas- of schooleffecten tot 'clusters' van waarnemingen leiden. Binnen klassen zijn waarnemingen meer gelijk dan tussen klassen bijvoorbeeld. Dit kan impact hebben op de residuen wanneer je niet voor die hierarchie corrigeert in je model.