Im einfachsten Fall der bivariaten Regression,
, werden die Schätzer der Regressionskoeffizienten mit
und
bezeichnet.
mißt die Veränderung in
, wenn sich
um eine Einheit ändert. Der Regressionskoeffizient
, die sogenannte Regressionskonstante, hat eine besondere Bedeutung. Sie entspricht dem Wert der Zielvariablen, wenn die unabhängige Variable den Wert 0 aufweist. Die Interpretation der Regressionskonstanten ist jedoch nur dann sinnvoll, wenn ein Wert von 0 empirisch bei der unabhängigen Variablen auftreten kann.
Beispiele: Die Humankapitaltheorie unterstellt, daß das durch Ausbildung entgangene Einkommen sowie die Ausbildungskosten im späteren Berufsleben durch höhere Einkommen ausgeglichen werden. Ein Mehr an Ausbildung führt zu einem höheren Einkommen im Beruf. Zur Untersuchung dieser Hypothese wurde eine Regression der Nettoarbeitseinkommen (, in DM) auf die Dauer der Schul- und Berufsausbildung (
, in Jahren) in einer Stichprobe von männlichen Beschäftigten berechnet, mit folgenden Schätzergebnissen:
,
.
zeigt, daß die untersuchten Personen mit jedem Jahr zusätzlicher Ausbildung 130 DM mehr verdienen. Hätte jemand gar keine Ausbildung genossen (
), würde er 670 DM verdienen, wie man an
erkennen kann. Die Regressionskonstante sollte jedoch nicht interpretiert werden, denn
ist in diesem Beispiel kein inhaltlich sinnvoller Wert. Das niedrigste vorkommende Ausbildungsniveau ist ein Hauptschulabschluß ohne Berufsausbildung, der mit 9 Jahren Ausbildungsdauer veranschlagt wurde. Für dieses Ausbildungsniveau ergibt sich aufgrund des Regressionsmodells ein geschätztes Arbeitseinkommen von 1.840 DM (
).
In einer multiplen Regression mit mehreren unabhängigen Variablen spricht man von multiplen Regressionskoeffizienten. Auch sie messen den Einfluß der jeweiligen unabhängigen Variablen auf die Zielvariable, dieses Mal jedoch unter Konstanthaltung aller anderen, im Modell kontrollierten unabhängigen Variablen (vgl. »Drittvariablenkontrolle bei kontinuierlichen Variablen«). Werden mehrere unabhängige Variablen berücksichtigt, entsteht in der Regel die Frage, welche davon die abhängige Variable am stärksten beeinflußt. Den Effekt der einzelnen Variablen mißt der jeweilige Regressionskoeffizient. Haben die unabhängigen Variablen jedoch unterschiedliche Maßeinheiten, läßt sich die Größe der Regressionskoeffizienten nicht vergleichen. Man berechnet daher zusätzlich sogenannte standardisierte Regressionskoeffizienten, die den Einfluß unterschiedlicher Maßeinheiten ausgleichen. Sie ergeben sich aus den ursprünglichen unstandardisierten Regressionskoeffizienten, indem man diese mit der Standardabweichung der entsprechenden unabhängigen Variablen multipliziert und durch die Standardabweichung der abhängigen Variablen dividiert. Das Problem unterschiedlicher Maßeinheiten wird quasi dadurch gelöst, daß alle Variablen des Regressionsmodells in einer einheitlichen statistischen Maßeinheit gemessen werden (vgl. »z-Transformation«). Im bivariaten Fall entspricht der standardisierte Regressionskoeffizient von im übrigen dem »Korrelationskoeffizienten
« der Variablen
und
.
Notation: Regressionskonstante und Regressionskoeffizient der linearen Einfachregression werden von vielen Autoren mit und
bezeichnet. Allgemeiner ist jedoch die Verwendung eines Buchstabens mit unterschiedlichen Indizes, wobei der Index 0 jeweils die Regressionskonstante kennzeichnet:
in der Stichprobe,
(griech.: beta) in der Grundgesamtheit. Leider werden die standardisierten Regressionskoeffizienten auch als Beta-Gewichte bezeichnet, was zu Verwechslungen mit den unstandardisierten Koeffizienten
führen kann.