Ik zou geen inhoudelijke beslissingen nemen (e.g. items al dan niet verwijderen) op basis van primair statistische gronden.
Statistiek is een uitwerking van je methode en ontologische en epistemologische aannames. Bovendien is elke waarde van elke schatter van steekproef tot steekproef verschillend. Je beslissingen "uitbesteden" aan de waarden die je berekent uit jouw ene steekproef is dus riskant.
De vraag is nu: wat zijn mogelijke oorzaken, en wat zijn mogelijke gevolgen?
De meest voor-de-hand liggende oorzaak is dat je 2 of meer items hebt die heel sterk correleren. Hier kun je naar kijken door een scattermatrix te maken en naar de correlatiematrix te kijken.
Het gevolg wordt waarschijnlijk ofwel dat de procedure voor de factor-analyse niet kan convergeren (dat merk je vanzelf), ofwel dat de twee of drie items die sterk correleren samen een factor vormen en die domineren. Daarvan moet je nadenken over of dat erg is gegeven het doel van je factoranalyse, de rol van die items in je totale set items, en hoe ze zich zouden moeten gedragen in termen van onderlinge samenhang.
Je geeft aan dat een inhoudelijke rechtvaardiging voor 1 item lastig is - dat lijkt me een signaal dat het verwijderen van dat item wellicht niet goed te onderbouwen is (en dus misschien niet moet worden gedaan).
Je kunt ook een mini-sensitiviteits-analyse uitvoeren: voer de factor-analyse uit met en zonder de problematische items, en kijk hoe de resultaten worden beinvloedt. Zo kun je wellicht vaststellen dat je de items ook kunt behouden, omdat verwijdering geen noemenswaardige effecten heeft.