Er zijn geen eenvoudige richtlijnen die het mogelijk maken te bepalen of een vragenlijst goed werkt. Er zijn wat richtlijnen (bijvoorbeeld dat minder antwoordopties meer gelegenheid laten voor discussie over de meetniveaus van de items), maar elk van de richtlijnen kun je, als je weet wat je doet, negeren. Geen enkele richtlijn is namelijk in alle situaties van toepassing.
De enige manier is de vragenlijst te valideren. Dit betekent dat je kwalitatieve en kwantitatieve methoden combineert om te kijken of alle vragen op de goede manier worden geinterpreteerd, of de schaal unidimensionaal is, en of de test-hertest betrouwbaarheids goed is (zie e.g. http://ehps.net/ehp/index.php/contents/article/download/1681/pdf_180 en http://userfriendlyscience.com/reliability voor meer informatie). In die validatie kunt je vaststellen of het gerechtvaardigd is om de vragen te combineren tot een enkele (sub-)schaal.
Als je verschillende vraagtypes gebruikt, is het risico dat je de vragen niet kunt combineren groter: maar het is nog steeds mogelijk dat je de vraagtypes wel gewoon kunt combineren. Als je minder antwoordopties gebruikt (e.g. 3 of 4) dan is de kans kleiner dat de items zich gedragen als intervalniveau variabelen, maar het is nog steeds mogelijk dat ze dat wel doen. Dus, je kunt nooit op basis van dit soort kenmerken een meetinstrumen verwerpen. Overigens: van de richtlijn dat je vragen door elkaar aan moet kunnen bieden of niet heb ik nog nooit gehoord. Dit kan soms misschien handig zijn, maar over het algemeen zijn er juist goede redenen om vragen in een bepaalde volgorde te plaatsen, en moeten die juist niet worden gemixt.
Echter, data uit eerdere studies over de validiteit en betrouwbaarheid van een instrument zijn niet bruikbaar om iets over jouw onderzoek te zeggen. Je moet altijd in jouw steekproef kijken of het meetinstrument zich gedroeg zoals het zich hoort te gedragen. De factor-analyse moet je dus herhalen, en je moet opnieuw naar de betrouwbaarheid kijken (maar idealiter niet met Cronbach's alpha, zie ook http://oupsy.nl/help/4/wanneer-is-cronbachs-alpha-hoog-genoeg?show=4#q4 en het artikel op http://ehps.net/ehp/index.php/contents/article/download/ehp.v16.i2.p56/1). Dit moet altijd: bij elke studie moet je verifieren of je operationalisaties in jouw steekproef valide zijn (zie ook http://www.tandfonline.com/doi/pdf/10.1080/17437199.2015.1124240).
Je laatste zin/vraag begrijp ik niet goed; kun je die toelichten in een opmerking?