Was ist das Konfidenzintervall?
Ein Konfidenzintervall in der Statistik bezieht sich auf die Wahrscheinlichkeit, dass ein Populationsparameter für einen bestimmten Zeitraum zwischen zwei festgelegten Werten liegt. Konfidenzintervalle messen den Grad der Unsicherheit oder Sicherheit bei einer Stichprobenmethode. Ein Konfidenzintervall kann eine beliebige Anzahl von Wahrscheinlichkeiten annehmen, wobei das häufigste ein Konfidenzniveau von 95% oder 99% ist.
Konfidenzintervall und Konfidenzniveau hängen zusammen, sind jedoch nicht genau gleich.
Grundlegendes zum Konfidenzintervall
Statistiker verwenden Konfidenzintervalle, um die Unsicherheit zu messen. Beispielsweise wählt ein Forscher zufällig verschiedene Proben aus derselben Population aus und berechnet für jede Probe ein Konfidenzintervall. Die resultierenden Datensätze sind alle unterschiedlich. Einige Intervalle enthalten den wahren Populationsparameter, andere nicht.
Ein Konfidenzintervall ist ein Wertebereich, der wahrscheinlich einen unbekannten Populationsparameter enthalten würde. Das Konfidenzniveau bezieht sich auf den Prozentsatz der Wahrscheinlichkeit oder Gewissheit, dass das Konfidenzintervall den wahren Populationsparameter enthält, wenn Sie mehrmals eine Zufallsstichprobe ziehen. Oder im Volksmund: "Wir sind zu 99% sicher ( Konfidenzniveau), dass die meisten dieser Datensätze (Konfidenzintervalle) den wahren Populationsparameter enthalten."
Die zentralen Thesen
- Ein Konfidenzintervall berechnet die Wahrscheinlichkeit, dass ein Populationsparameter zwischen zwei festgelegten Werten liegt. Konfidenzintervalle messen den Grad der Unsicherheit oder Sicherheit bei einer Stichprobenmethode. In den meisten Fällen spiegeln Konfidenzintervalle Konfidenzniveaus von 95% oder 99% wider.
Berechnen eines Konfidenzintervalls
Angenommen, eine Gruppe von Forschern untersucht die Höhen von High-School-Basketballspielern. Die Forscher nehmen eine zufällige Stichprobe aus der Bevölkerung und stellen eine durchschnittliche Körpergröße von 74 Zoll fest. Der Mittelwert von 74 Zoll ist eine Punktschätzung des Bevölkerungsmittelwerts. Eine Punktschätzung an sich ist von begrenztem Nutzen, da sie die mit der Schätzung verbundene Unsicherheit nicht aufdeckt. Sie wissen nicht genau, wie weit dieser 74-Zoll-Stichprobenmittelwert vom Bevölkerungsmittelwert entfernt sein könnte. Was fehlt, ist der Grad der Unsicherheit in dieser einzelnen Stichprobe.
Konfidenzintervalle liefern mehr Informationen als Punktschätzungen. Durch Festlegen eines 95% -Konfidenzintervalls unter Verwendung des Mittelwerts und der Standardabweichung der Probe und unter Annahme einer Normalverteilung, wie sie durch die Glockenkurve dargestellt wird, gelangen die Forscher zu einer Ober- und Untergrenze, die den wahren Mittelwert von 95% der Zeit enthält. Angenommen, das Intervall liegt zwischen 72 und 76 Zoll. Wenn die Forscher 100 zufällige Stichproben aus der Gesamtbevölkerung von High-School-Basketballspielern entnehmen, sollte der Mittelwert in 95 dieser Stichproben zwischen 72 und 76 Zoll liegen.
Wenn die Forscher noch mehr Selbstvertrauen wünschen, können sie das Intervall auf 99% Selbstvertrauen erweitern. Dies führt ausnahmslos zu einer größeren Bandbreite, da mehr Stichproben zur Verfügung stehen. Wenn sie ein Konfidenzintervall von 99% zwischen 70 und 78 Zoll festlegen, können sie erwarten, dass 99 von 100 ausgewerteten Proben einen Mittelwert zwischen diesen Zahlen enthalten. Ein Konfidenzniveau von 90% bedeutet, dass 90% der Intervallschätzungen den Populationsparameter enthalten. Ebenso bedeutet ein Konfidenzniveau von 99%, dass 95% der Intervalle den Parameter enthalten würden.
Häufige Missverständnisse zum Konfidenzintervall
Das größte Missverständnis in Bezug auf Konfidenzintervalle besteht darin, dass sie den Prozentsatz der Daten einer bestimmten Stichprobe darstellen, der zwischen der oberen und der unteren Grenze liegt. Beispielsweise könnte man das oben erwähnte 99% -Konfidenzintervall von 70 bis 78 Zoll fälschlicherweise so interpretieren, dass 99% der Daten in einer Zufallsstichprobe zwischen diesen Zahlen liegen. Dies ist falsch, obwohl eine separate Methode zur statistischen Analyse existiert, um eine solche Bestimmung vorzunehmen. Dazu müssen der Mittelwert und die Standardabweichung der Probe ermittelt und diese Zahlen auf einer Glockenkurve aufgetragen werden.