Die Statistik verwendet Variablen zur Beschreibung einer Messung. Eine solche Variable wird als signifikant bezeichnet, wenn die Wahrscheinlichkeit, dass ihr Ergebnis durch Zufall erzielt wurde, geringer ist als ein gegebener Wert. Statistische Hypothesentests werden verwendet, um die Signifikanz zu überprüfen.

Das Konzept der statistischen Signifikanz wurde von Ronald Fisher entwickelt, als er 1925 in seiner Veröffentlichung "Statistical Methods for Research Workers" statistische Hypothesentests entwickelte, die er als "Tests der Signifikanz" bezeichnete. Fisher schlug eine Wahrscheinlichkeit von einem von zwanzig (0,05) als bequemen Grenzwert vor, um die Nullhypothese abzulehnen. In ihrem Papier von 1933 empfahlen Jerzy Neyman und Egon Pearson, dass das Signifikanzniveau (z.B. 0,05), das sie α nannten, vor der Datenerhebung festgelegt werden sollte.

Trotz seines ursprünglichen Vorschlags von 0,05 als Signifikanzniveau beabsichtigte Fisher nicht, diesen Grenzwert festzulegen, und empfahl in seiner Publikation Statistical methods and scientific inference aus dem Jahr 1956, signifikante Werte je nach den spezifischen Umständen festzulegen.