Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson.
Mediante esta teoría, se aborda el problema estadístico considerando una hipótesis determinada y una hipótesis alternativa , y se intenta dirimir cuál de las dos es la hipótesis verdadera, tras aplicar el problema estadístico a un cierto número de experimentos.
En estadística, se llama intervalo de confianza
a un par de números entre los cuales se estima que estará cierto valor
desconocido con una determinada probabilidad de acierto. Formalmente,
estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.
En estadística, la distribución χ² (de Pearson), llamada Chi cuadrado o Ji cuadrado, es una distribución de probabilidad continua con un parámetro que representa los grados de libertad de la variable aleatoria
donde son variables aleatorias normales independientes de media cero y varianza uno. El que la variable aleatoria tenga esta distribución se representa habitualmente así: .
Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi y se pronuncia en castellano como ji.
En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.
Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra.
En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.
El modelo exponencial
es un modelo demográfico y ecológico para modelizar el crecimiento de
las poblaciones y la difusión epidémica de un rasgo entre una población,
basado en el crecimiento exponencial.
En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a,b).
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta
que expresa, a partir de una frecuencia de ocurrencia media, la
probabilidad que ocurra un determinado número de eventos durante cierto
periodo de tiempo.
En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p
de ocurrencia del éxito entre los ensayos.
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de
En probabilidad y estadística, una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a números reales (p.e., su suma).
En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorioA dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
El teorema de la probabilidad total afirma lo siguiente:
Sea una partición sobre el espacio muestral y sea un suceso cualquiera del que se conocen las probabilidades condicionales , entonces la probabilidad del suceso viene dada por la expresión: