Wel - je kunt de dip test natuurlijk toepassen in R :-)
(om het histogram op te nemen moet je het als plaatje inladen; dus eerst opslaan. Maar ik kan me er wel iets bij voorstellen :-))
Maar om wat dieper op je vraag in te gaan: je moet hier eigenlijk anders naar kijken.
Statistiek is eigenlijk de makkelijkste/oppervlakkigste van drie lagen die belangrijk zijn bij wetenschappelijk onderzoek.
Statistiek betreft de analyse van datareeksen die zijn verkregen middels toepassing van operationalisaties in steekproeven. De statistiek maakt het mogelijk om door de 'ruis' in die datareeksen in kaart te brengen inschattingen te maken over dingen die niet in je steekproef zitten, zoals over de populatie.
Maar, die statistiek is uitsluitende een middel: een middel dat doelgericht en met beleid moet worden toegepast. Vreemde uitkomsten in een analyse zijn meestal een indicatie dat er iets niet goed zit op een fundamentel niveau. Hier zijn er twee van.
Een niveau 'dieper' ligt de methodologie. Is je operationalisatie wel valide? Is je steekproef wel goed geworven? Als de validiteit van je operationalisaties of je procedures in het geding is, heb je al een antwoord op je vraag. De datareeksen die door de operationalisaties van je constructen zijn gegenereerd zijn dan niet goed te interpreteren. De uitkomsten van statistische analyses die je op die datareeksen los laat zijn dus niet interessant meer. Als een operationalisatie, zoals een meetinstrument, bijvoorbeeld niet valide is, dan weet je gelijk niet meer wat je eigenlijk hebt gemeten. Het bestuderen van een datareeks met onbekende oorsprong kan tot weinig inzichten leiden. Soms kan het hypothesegenererend zijn, maar dat is het dan wel.
Als je methodologie in orde is, kan het zijn dat er iets niet klopt met je theorie. Het zou bijvoorbeeld simpelweg zo kunnen zijn dat het betreffende theoretische construct zo is gedefinieerd dat deze een bimodale verdeling heeft onder bepaalde omstandigheden.
Probeer bij verwarrende of verrassende uitkomsten van je statistische analyses dus altijd eerst vanuit de methodologie en theorie te interpreteren of je kunt plaatsen wat er is gebeurd: hoe die datareeks tot stand kan zijn gekomen.
Als je dit niet begrijpt, dan loop je hier vast. Dichotomiseren is dan niet te rechtvaardigen: je hebt immers reden om aan te nemen dat je validiteit serieus is bedreigd. Domweg dichotomiseren kan wel, maar is niet integer vanuit wetenschappelijk oogpunt.
Als je wel begrijp wat er is gebeurd, dan zullen vervolgstappen vervolgens ook duidelijk zijn. Dichotomiseren kan een vervolgstap zijn, bijvoorbeeld als je concludeert dat je een fout hebt gemaakt bij de ontwikkeling of keuze van de operationalisatie (e.g. de cognitieve validiteit van de operationalisatie was te laag).
Als je dichotomiseert zou je zoektocht naar wat er nu precies speelde ook helderheid moeten geven over waar je dichotomiseert. De 'cut-off' die je kiest moet immers wel te verdedigen zijn; die moet eigenlijk een waarde hebben (e.g. een klinisch gehanteerde grens bij diagnose, 'slagen'/'falen' bij een toets, etc).