I statistiken används variabler för att beskriva en mätning. En sådan variabel kallas signifikant om sannolikheten för att resultatet av den har erhållits av en slump är mindre än ett visst värde. Statistiska hypotesprövningar används för att kontrollera signifikansen.

Begreppet statistisk signifikans har sitt ursprung i Ronald Fisher när han utvecklade statistisk hypotesprövning, som han beskrev som "test av signifikans", i sin publikation Statistical Methods for Research Workers från 1925. Fisher föreslog en sannolikhet på en på tjugo (0,05) som en lämplig gräns för att förkasta nollhypotesen. I sin skrift från 1933 rekommenderade Jerzy Neyman och Egon Pearson att signifikansnivån (t.ex. 0,05), som de kallade α, skulle fastställas i förväg, innan datainsamling sker.

Trots sitt ursprungliga förslag om 0,05 som signifikansnivå hade Fisher inte för avsikt att fastställa detta gränsvärde, och i sin publikation Statistical methods and scientific inference från 1956 rekommenderade han att signifikansnivåerna skulle fastställas i enlighet med specifika omständigheter.