In der Statistik ist ein Konfidenzintervall eine spezielle Form der Schätzung eines bestimmten Parameters. Bei dieser Methode wird anstelle eines einzelnen Wertes ein ganzes Intervall akzeptabler Werte für den Parameter angegeben, zusammen mit einer Wahrscheinlichkeit, dass der tatsächliche (unbekannte) Wert des Parameters in dem Intervall liegt. Das Konfidenzintervall basiert auf den Beobachtungen aus einer Stichprobe und ist daher von Stichprobe zu Stichprobe unterschiedlich. Die Wahrscheinlichkeit, dass der Parameter in dem Intervall liegt, wird als Konfidenzniveau bezeichnet. Sehr oft wird dies als Prozentsatz angegeben. Das Konfidenzintervall wird immer zusammen mit dem Konfidenzniveau angegeben. Man spricht vielleicht vom "95%-Konfidenzintervall". Die Endpunkte des Konfidenzintervalls werden als Konfidenzgrenzen bezeichnet. Bei einem gegebenen Schätzverfahren in einer gegebenen Situation wird das Konfidenzintervall umso größer sein, je höher das Konfidenzniveau ist.

Die Berechnung eines Konfidenzintervalls erfordert im Allgemeinen Annahmen über die Art des Schätzprozesses - es handelt sich in erster Linie um eine parametrische Methode. Eine häufige Annahme ist, dass die Verteilung der Grundgesamtheit, aus der die Stichprobe stammt, normal ist. Daher sind Konfidenzintervalle, wie unten diskutiert, keine robusten Statistiken, obwohl Änderungen vorgenommen werden können, um die Robustheit zu erhöhen.