Escolar Documentos
Profissional Documentos
Cultura Documentos
Profesora: Bachiller:
Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar
una afirmación acerca de una población dependiendo de la evidencia proporcionada por
una muestra de datos. La estructura de la prueba de hipótesis se establece usando el
término hipótesis nula que se denota como H0 y hipótesis alternativa, que se denota con
H1 . La comprensión de las diferentes funciones que desempeñan la hipótesis nula y la
hipótesis alternativa es fundamental para entender los principios de la prueba de hipótesis.
La hipótesis alternativa H1 por lo general representa la pregunta que se responderá o la
teoría que se probará, por lo que su especificación es muy importante. La hipótesis nula
anula o se opone a H1. También es necesario mencionar que El rechazo de la hipótesis
nula cuando es verdadera se denomina error tipo I y No rechazar la hipótesis nula cuando
es falsa se denomina error tipo II.
Hipótesis Nula:
La hipótesis nula es una afirmación que no se rechaza a menos que los datos de la muestra
parezcan evidenciar que es falsa. Para afirmar que la hipótesis nula es verdadera se
requiere estudiar a toda la población. La hipótesis nula generalmente incluye un no en su
enunciado.
Las hipótesis nula son proposiciones que niegan o refutan la relación entre variables.
Ejemplo
Ho: No existe mayor cantidad de aficionados al futbol que al baloncesto.
Las hipótesis nulas se simbolizan con Ho.
Hipótesis que niegan que haya diferencia entre grupos que se comparan
Hipótesis que niegan la relación de causalidad entre dos o más variables (en todas sus
formas).
El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre
los grupos, si esta diferencia es significativa, y si no se debió al azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula
es aquella por la cual indicamos que la información a obtener es contraria a la hipótesis
de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia
que la causa determinada como origen del problema fluctúa, por tanto, debe rechazarse
como tal.
Ejemplo
Supongamos que un investigador cree que si un grupo de jóvenes se somete a un
entrenamiento intensivo de natación estos serán mejores nadadores que aquellos que no
recibieron entrenamiento.
Para demostrar su hipótesis toma al azar una muestra de jóvenes y también al azar los
distribuye en dos grupos, uno que se llamará experimental el cual recibirá entrenamiento y
otro que no recibirá entrenamiento alguno el cual se denominará: control.
Ho: “No hay diferencia entre el desempeño de natación entre el grupo de jóvenes que
recibió entrenamiento y el que no lo recibió."
Hipótesis Estadística
Es un procedimiento estadístico que permite aceptar o rechazar una afirmación hecha con
respecto a un fenómeno o suceso.
Para realizar una prueba de hipotesis se deben seguir seis pasos básicos para configurar y
realizar correctamente una prueba de hipótesis. Por ejemplo, el gerente de una fábrica de
tuberías desea determinar si el diámetro promedio de los tubos es diferente de 5 cm. El
gerente sigue los pasos básicos para realizar una prueba de hipótesis.
En primer lugar, el gerente formula las hipótesis. La hipótesis nula es: la media de
la población de todos los tubos es igual a 5 cm. Formalmente, esto se escribe como:
H0: μ = 5
Como tiene que asegurarse de que los tubos no sean más grandes ni más pequeños
de 5 cm, el gerente elige la hipótesis alternativa bilateral, que indica que la media
de la población de todos los tubos no es igual a 5 cm. Formalmente, esto se escribe
como H1: μ ≠ 5
Datos:
Ho: μ═350
Ha: μ≠ 350
α═0.05
Columna1
Media 372.8
Mediana 381
Moda 405
Desviación estándar 52.4143965
Curtosis 0.36687081
Rango 234
Mínimo 276
Máximo 510
Suma 11184
Cuenta 30
La regla de decisión la formulamos teniendo en cuenta que esta es una prueba de dos colas,
la mitad de 0.05, es decir 0.025, esta en cada cola. el área en la que no se rechaza Ho esta
entre las dos colas, es por consiguiente 0.95. El valor critico para 0.05 da un valor de Zc =
1.96.
Tipos de errores
Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es
aceptada cuando de hecho es falsa y debía ser rechazada.
Para entender la interrelación entre los errores de tipo I y tipo II, y para determinar cuál
error tiene consecuencias más graves para su situación, considere el siguiente ejemplo.
Un error de tipo I se produce si el investigador rechaza la hipótesis nula y concluye que los
dos medicamentos son diferentes cuando, en realidad, no lo son. Si los medicamentos
tienen la misma eficacia, el investigador podría considerar que este error no es muy grave,
porque de todos modos los pacientes se beneficiarían con el mismo nivel de eficacia
independientemente del medicamento que tomen. Sin embargo, si se produce un error de
tipo II, el investigador no rechaza la hipótesis nula cuando debe rechazarla. Es decir, el
investigador concluye que los medicamentos son iguales cuando en realidad son diferentes.
Este error puede poner en riesgo la vida de los pacientes si se pone en venta el
medicamento menos efectivo en lugar del medicamento más efectivo.
Cuando realice las pruebas de hipótesis, considere los riesgos de cometer errores de tipo I y
tipo II. Si las consecuencias de cometer un tipo de error son más graves o costosas que
cometer el otro tipo de error, entonces elija un nivel de significancia y una potencia para la
prueba que reflejen la gravedad relativa de esas consecuencias.
Ejemplo:
La probabilidad de que el promedio de las muestras exceda 20.75 min a causa del azar se
calcula del siguiente modo
con esta abscisa, se calcula la probabilidad (área hacia la derecha), resultando 0.0304.
Gráficamente
Este gráfico está hecho sobre valores reales, no normalizados. Para los cálculo se
usan estos últimos cuando se trabaja con tablas.
Entonces, la probabilidad de rechazar erróneamente la hipótesis =20 min es de
aproximadamente 0.03, o bien 3%.
Supóngase ahora que la media real del tiempo de secado es =21 min. Luego, la
probabilidad de obtener una media muestral menor o igual que 20.75 (y por lo tanto
equivocarse en la aceptación) está dada por:
Al contrastar una cierta hipótesis, la máxima probabilidad con la que estamos dispuesto a
correr el riesgo de cometerán error de tipo I, se llama nivel de significación.
Esta probabilidad, denota a menudo por se, suele especificar antes de tomar la muestra, de
manera que los resultados obtenidos no influyan en nuestra elección.
Por ejemplo, supongamos que usted desea determinar si el grosor de unos parabrisas de
vehículo supera los 4 mm, tal como lo exigen las normas de seguridad. Usted toma una
muestra de parabrisas y realiza una prueba t de 1 muestra con un nivel de significancia (α)
de 0.05 y plantea las hipótesis siguientes:
H0: μ = 4
H1: μ > 4
La significancia estadística por sí sola no implica que los resultados tengan una
consecuencia práctica. Si utiliza una prueba con una potencia muy alta, podría concluir que
una pequeña diferencia con respecto al valor hipotético es estadísticamente significativa.
Sin embargo, esa pequeña diferencia podría ser insignificante para su situación. Debe usar
su conocimiento especializado para determinar si la diferencia es significativa desde el
punto de vista práctico.
Por ejemplo, supongamos que usted está evaluando si la media de la población (μ) para las
horas trabajadas en una planta de manufactura es igual a 8. Si μ no es igual a 8, la potencia
de la prueba se acercará a 1 a medida que aumente el tamaño de la muestra y el valor p se
acerque a 0.
Con suficientes observaciones, es probable que incluso las diferencias triviales entre los
valores hipotéticos y reales de los parámetros se vuelvan significativas. Por ejemplo,
supongamos que el valor real de mu es 7 horas, 59 minutos y 59 segundos. Con una
muestra lo suficientemente grande, lo más probable es que usted rechace la hipótesis nula
de que μ es igual a 8 horas, aunque la diferencia no tenga importancia práctica.
Prueba Estadística
Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas
estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que
se ha obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o
de Gauss. Pero en muchas ocasiones esta suposición no resulta válida, y en otras la
sospecha de que no sea adecuada no resulta fácil de comprobar, por tratarse de muestras
pequeñas.
En estos casos disponemos de dos posibles mecanismos: Los datos se pueden transformar
de tal manera que sigan una distribución normal O bien se puede acudir a pruebas
estadísticas que no se basan en ninguna suposición en cuanto a la distribución de
probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas
no paramétricas (distribución free), mientras que las pruebas que suponen una distribución
de probabilidad determinada para los datos se denominan pruebas paramétricas.
1) Pruebas no Paramétricas:
Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos analizados adoptan una distribución
normal.
En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto
para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.
El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.
2) Pruebas Paramétricas:
Es una técnica estadística que sirve para decidir/determinar si las diferencias que existen
entre las medias de tres o más grupos (niveles de clasificación) son estadísticamente
significativas. Las técnicas de ANOVA se basan en la partición de la varianza para
establecer si la varianza explicada por los grupos formados es suficientemente mayor que
la varianza residual o no explicada.
El análisis de la varianza de un factor es el modelo más simple: una única variable nominal
independiente, con tres o más niveles, explica una variable dependiente continua.
Si ese cociente (la estadística de F) es tan grande que la probabilidad que ocurrió por
casualidad es baja (por ejemplo, P<=0.05), podemos concluir (en ese nivel de la
probabilidad) que esa fuente de la variación tenía un efecto significativo.
Condiciones generales de aplicaciôn.
Los errores experimentales han de ser independientes se consigue si los sujetos son
asignados aleatoriamente. es decir, se consigue esta condición si los elementos de los
diversos grupos han sido elegidos por muestreo aleatorio
b- Normalidad
Se supone que los errores experimentales se distribuyen normalmente. lo que supone que
cada una de las puntuaciones yi.i se distribuirá normalmente. para comprobarlo se puede
aplicar un test de ajuste a la distribución normal como et de kolmogov-smirnov.
la varianza de los subgrupos ha de ser homogénea σ21 = σ22 = …..= σ2k ya que están
debidas al error. se comprobarán mediante los test de: razón de varianzas (máx. /min), c de
cochran, barlett-box…
Método de análisis estadístico que es una extensión del análisis de la varianza, que permite
ajustar los estimadores del efecto de un tratamiento según posibles covariables y factores.
es una técnica estadística que combina anova (pues compara medias entre grupos) y
análisis de regresión (ajusta las comparaciones de las medias entres los grupos por
variables continuas o covariables)
5) Análisis de regresión
Un fabricante de cierta marca de cereal de arroz afirma que el contenido promedio de grasa
saturada no excede a 1.5 gramos por porción. Plantee las hipótesis nula y alternativa que se
utilizarán para probar esta afirmación y establezca en dónde se lo caliza la región crítica. Solución:
La afirmación del fabricante se rechazará sólo si μ es mayor que 1.5 miligramos y no se rechazará
si μ es menor o igual que 1.5 miligramos. Entonces, probamos H0 : μ = 1.5, H1 : μ > 1.5. El hecho
de no rechazar H0 no descarta valores menores que 1.5 miligramos. Como tenemos una prueba
de una cola, el símbolo mayor indica que la región crítica reside por com pleto en la cola derecha
de la distribución de nuestro estadístico de prueba X - .