Coefficient alpha is een slechte maat die je beter kunt vermijden: zie http://userfriendlyscience.com/reliability. Belangrijker dan dat het geen goede maat is, is het te veel sturen op en kwantitatieve indicator geen goede gewoonte. Zo negeren al die kwantitatieve indicatoren voor interne consistentie en/of betrouwbaarheid de validiteit van een meetinstrument. Kijk dus altijd (vooral) naar visualisaties, zoals scatterplots van de samenhang tussen items in een vragenlijst, en tussen variabelen met andere variabelen.
Verder: ik zou beide analyses rapporteren. Een (die waar je het minste vertrouwen in hebt) kun je slechts summier beschrijven, en uitgebreider in de supplemental materials. Maar omdat je niet precies weet wat je doet (met het verwijderen van die deelnemers), kun je niet goed een van beide analyses een andere status toekennen. Idealiter had je zoveel mensen gehad dat je twee voldoende grote subgroepen had gehad om hier meer in detail naar te kijken, maar nu is het moeilijk om echt te zeggen waarom e.g. die $R^2$ zo sterk toeneemt (toeval? Systematische verstoring door die deelnemers die je dan verwijdert?).
Dit maakt je interpretatie en discussie een stuk lastiger natuurlijk - maar jammer genoeg is er geen integere manier om dat verder te versimpelen, als de realiteit zo complex is.
Dus ik zou zeggen: beschrijf primair de analyses zonder die deelnemers; en beschrijf in parallel (maar secundair) wat er gebeurt als je ze had behouden.