Ik vermoed dat deze vraag betrekking heeft op de cursus KDA. In dat geval betreft de bovenste regel het intercept en de tweede regel de voorspeller.
De gestandaardiseerde beta is de beta die je zou krijgen als je alle variabelen eerst zou standaardiseren, zodat ze dus een gemiddelde en een standaard deviatie van 0 zouden hebben. De beta's worden dan relatief; je kunt ze vergelijken, want ze zijn niet langer afhankelijk van de schaal van de variabelen waar ze betrekking op hebben. Een beta van 1 betekent dan altijd dat een toename van 1 standaard-deviatie voor die voorspeller leidt tot een toename van 1 standaard-deviatie in de afhankelijke variabele.
Bij de cursus KDA is altijd maar sprake van 1 voorspeller, waardoor deze relatieve effecten verder geen doel dienen; dit wordt pas interessant als je meerdere voorspellers tegelijk in je analyse betrekt.
Als alle variabelen zijn gestandaardiseerd is het intercept (de waarde van de afhankelijke variabele als alle andere variabelen de waarde 0 hebben) per definitie gelijk aan 0. Daarom ontbreekt de gestandaardiseerde beta voor het intercept.
Let op dat de ongestandaardiseerde beta's in SPSS trouwens "B's" worden genoemd, om de een of andere reden. Je kunt ook over regressie-coefficienten spreken in plaats van over beta's; dan loop je niet het risico dat je verwarring veroorzaakt als de een het 'SPSS-jargon' (een beta is alleen voor gestandaardiseerde regressiecoefficienten) en de ander het 'statistisch jargon' (beta is synoniem voor regressiecoefficient) hanteert.