Você está na página 1de 8

UNIVERSIDAD POLITECNICA SALESIANA

SEXTO NIVEL

RESUMENES

RESPONSABLES GRUPO 1:
 ARMAS SIMBAÑA ALISSON MICHELLE
 FERNÁNDEZ PICHUCHO GRACIELA LIZBETH
 HINOJOZA ORBEA MIKELE ALEJANDRO
 LINCANGO TUQUERRES JONATHAN RAFAEL
 TUSO ANALUISA WILLIAM STALIN

PRUEBAS DE NORMALIDAD

Es una prueba de hipótesis, no requiere que la distribución de la población sea caracterizada por
ciertos parámetros. Por ejemplo, muchas pruebas de hipótesis parten del supuesto de que la
población sigue una distribución normal con los parámetros μ y σ. Las pruebas no paramétricas
no parten de este supuesto, de modo que son útiles cuando los datos son considerablemente
no normales y resistentes a transformaciones.

1. Son métodos de distribución libre. No requieren conocer la distribución de la muestra,


ésta debe ser representativa de la población objeto de estudio.
2. Se utilizan estadísticos cuya distribución se determina con independencia de cuál sea la
distribución de la población, esto es, que los datos de cualquier caso en las variables
medidas no estén condicionados por los datos de otros casos en la muestra, permiten
conocer cómo es la forma de la distribución de la población de la que se ha extraído la
muestra.

Contrastes de Bondad de Ajuste: para conocer la forma de la población que ha originado la


muestra, las pruebas de bondad de ajuste se utilizan para contrastar si los datos de la muestra
pueden considerarse que proceden de una determinada distribución.

MÁXIMA VEROSIMILITUD

La evaluación por el método de máxima verosimilitud procura encontrar los valores más
probables de los parámetros de la distribución para un conjunto de datos. Maximizando el valor
de lo que se conoce como la “función de verosimilitud” La función de verosimilitud se basa en
la función de la densidad de la probabilidad fdp para una distribución dada.

 Es consistentemente asintótico: mientras que el tamaño de muestra aumenta, las


estimaciones convergen a los valores correctos.
 Es asintótico eficiente: para conjuntos de datos grandes produce las estimaciones más
exactas.
 Es asintótico imparcial: para conjuntos de datos grandes uno espera conseguir el valor
correcto en promedio.
 La distribución de las estimaciones mismas es normal, si el conjunto de datos es
bastante grande. cantidad de datos censurados. Esta polarización puede causar
discrepancias importantes en el análisis.

LA PRUEBA DE KOLMOGOROV-SMIRNOV

La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado en que la
distribución observada difiere de otra distribución. Es una alternativa a la prueba Ji Cuadrado de
bondad de ajuste cuanto el número de datos es pequeño. La prueba no debe ser aplicada si hay
muchos empates.

Cuando la prueba Kolmogorov-Smirnov kolmogorov se aplica para contrastar la hipótesis de


normalidad de la población, el estadístico de prueba es la máxima diferencia:

Siendo Fn(x) la función de distribución muestral y Fo(x) la función teórica o correspondiente a la


población normal especificada en la hipótesis nula.

La distribución del estadístico de Kolmogorov-Smirnov es independiente de la distribución


poblacional especificada en la hipótesis nula y los valores críticos de este estadístico están
tabulados. Si la distribución postulada es la normal y se estiman sus parámetros, los valores
críticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.
PRUEBA DE SHAPIRO-WILK

El contraste que se desarrolla en esta sección recibe el nombre de Shapiro-Wilks.

El método consiste en comenzar ordenando la muestra de menor a mayor, obteniendo el nuevo


vector muestral (x(1),x(2),…,x(n))(x(1),x(2),…,x(n)), siendo x(j)x(j) el jj-ésimo valor muestral tras
la ordenación. Cuando la muestra es como máximo de tamaño 50 se puede contrastar la
normalidad con la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la media y la
varianza muestral, S2, y se ordenan las observaciones de menor a mayor. También se calculan
las diferencias entre: el primero y el último; el segundo y el penúltimo; el tercero y el
antepenúltimo, etc. y se corrigen con unos coeficientes tabulados por Shapiro y Wilk. El
estadístico de prueba es:

Es igual a

Donde b es la suma de las diferencias corregidas.

Nota: Se rechazará la hipótesis nula de normalidad si el estadístico W es menor que el valor


crítico proporcionado por la tabla elaborada por los autores para el tamaño muestral y el nivel
de significación dado.

Importante saber que una vez dada una muestra aleatoria simple de tamaño n, (x1,x2,…,xn), se
quiere saber si procede de una población con distribución normal. Este problema es muy
frecuente, ya que son muchas las pruebas de inferencia estadística que exigen como condición
imprescindible que la población de procedencia de la muestra sea normal.

Los coeficientes (ain) suelen aparecer tabulados en los manuales. Obtenido el valor de W, su
distribución permite calcular el valor crítico del test que permite tomar una decisión sobre la
normalidad de la muestra.

El programa devuelve el valor del estadístico W, así como su probabilidad crítica, pc, la cual da
la clave para aceptar o rechazar la hipótesis nula de normalidad, que representamos por H0. Si
pc<0.05, se rechazará la hipótesis con un nivel de significación del 5%; si pc<0.01, se rechazará
con un nivel del 1%.

PRUEBA DE ANDERSON-DARLING

La prueba AD es una forma de estimación de mínima distancia, y uno de los estadísticos más
potentes para detectar discrepancia con respecto a normalidad. Se puede utilizar con un tamaño
muestral bajo (n ≤ 25). Tamaños muestrales muy grandes pueden rechazar el supuesto de
normalidad con tan solo pequeñas imperfecciones.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución
especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le
da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.

La prueba Anderson-Darling se define como:

Ho: Los datos siguen una distribución especificada.

Ha: Los datos no siguen la distribución especificada

Estadística de prueba: La estadística de la prueba Anderson-Darling se define como

A2=−n−S

F es la función de distribución acumulada de la distribución especificada. Tenga en cuenta que


Yi son los datos ordenados.

PROCEDIMIENTOS:

Esta explicación está basada en una prueba para una distribución normal.

 Los datos Xi para i = 1…,n de la variable X que se quiere probar se organizan


ascendentemente (menor a mayor).
 La media 𝑋̅ y desviación estándar s son calculadas para la muestra X. Los valores Xi se
estandarizan como , y determinar las probabilidades acumuladas Fi.
 2
Calcular A según la fórmula dada.
 Comparar con el valor de tablas (Tabla T-7) para determinar el valor 1 − 𝛼, y llegar a una
conclusión acerca de Ho

BIBLIOGRAFÍA
Marqués dos Santos, María José; Estadística Básica: un enfoque no paramétrico, Universidad
Nacional Autónoma de México, Facultad de Estudios Superiores Zaragoza.

INTEGRANTES GRUPO 2:

 JÁTIVA PAUL
 LUZURIAGA ESTEFANÍA
 PAZMIÑO SOLANGE
 TALAVERA BRYAN
 VEINTIMILLA EDISON
CADENAS DE MARKOV
La cadena de Markov es un proceso estocástico.

Proceso estocástico

Es un proceso que se desarrolla de manera aleatoria en el tiempo.

Definición formal
Proceso estocástico: es una familia de variables aleatorias {𝑋(𝑡), 𝑡 ∈ 𝑇} en donde t toma valores
del conjunto T.

Una sucesión de observaciones X1, X2, X3, . . . se denomina proceso estocástico sí:
 Los valores de estas observaciones no se pueden predecir exactamente.
 Pero se pueden especificar las probabilidades para los distintos valores posibles en
cualquier instante de tiempo.
 𝑋𝑛 : variable aleatoria que define el estado inicial del proceso.
 Xn : variable aleatoria que define el estado del proceso en el instante de tiempo n.

Clasificación de procesos estocásticos según conjunto de subíndiceT, y tipo de variable aleatoria


Xt.

Conjunto de subíndices (T)


t Discreto t Continuo
Espacio de estado (X)
Proceso de estado y tiempo
discretos:
Proceso de Saltos Puros
Cadena
Discreto (Ej.: N unidades producidas
(Ej.: Número de unidades
hasta el instante t).
producidas/semana).

Proceso Continuo y tiempo


Proceso continuo
discreto
Continuo (Ej.: velocidad de un vehículo
(Ej.: Tonelada de producción
en el instante t).
diaria de un producto)
Cadenas de Markov

Una cadena de Markov es un proceso estocástico que cumple con la propiedad de pérdida de
memoria.
Propiedad de perdida de la memoria consiste en que los estados futuros del proceso dependen
únicamente del presente, por lo mismo son independientes del pasado.

Definición formal

Considere el proceso (𝑋𝑛+1 , 𝑋𝑛 , 𝑋𝑛−1 , … , 𝑋1 , 𝑋0 )


Si 𝑋𝑛 = 𝑖  el proceso se encuentra en el estado i en el tiempo o etapa n.
Un proceso cumple con la propiedad Markoviana sí:

𝑃(𝑋𝑛+1 = 𝑗/𝑋𝑛 = 𝑖, 𝑋𝑛−1 = 𝐾𝑛−1 , … , 𝑋1 = 𝐾1 , 𝑋0 = 𝐾0 )


= 𝑃(𝑋𝑛+1 = 𝑗/𝑋𝑛 = 𝑖)

Cadenas de Markov
Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de
transición.
𝑃00 𝑃01 𝑃02 … 𝑃0𝑀
𝑃10 𝑃11 𝑃12 … 𝑃1𝑀
𝑃= 𝑃20 𝑃21 𝑃22 … 𝑃2𝑀
⋮ ⋮ ⋮ ⋱ ⋮
𝑃𝑀0 𝑃𝑀1 𝑃𝑀2 … 𝑃𝑀𝑀

0≤ 𝑃𝑖𝑗 𝑛 ≤ 1 𝑝𝑎𝑡𝑎 𝑡𝑜𝑑𝑜 𝑖, 𝑗, 𝑛 = 0, 1, 2, …

∑ 𝑃𝑖𝑗 = 1
𝑗=0

Cadenas de Markov

Representación gráfica de un proceso de Markov.

Un proceso de Markov puede representarse gráficamente si se conocen los M estados posibles


del sistema y las probabilidades de transición asociadas a ellos.
Ejercicio

Un estudiante de la carrera de Automotriz debe prepararse para rendir los exámenes finales,
para lo cual debe estudiar las materias de Física, Calculo y Algebra, donde la probabilidad es de
0.5, 0.5 y 0.4 respectivamente. Si el estudiante estudia Calculo el día lunes ¿Cuál es la
probabilidad de que el día jueves vuelva a estudiar Calculo?, además determine la matriz de
transición y represente la gráfica de Markov.

FISICA CALCULO ALGEBRA

FISICA 0.5 0.3 0.2

CALCULO 0.2 0.5 0.3

ALGEBRA 0.15 0.45 0.4

Matriz de transición.

0.5 0.3 0.2


0.2 0.5 0.3
0.15 0.45 0.4

Gráfica:

0.3

0.5 0.5

F 0.2 C

0.2 0.15 0.3 0.45

0.4
Resolución

Po = (0,1,0) probabilidad inicial.

Método 1.

0.5 0.3 0.2


P1 = [(0,1,0)] 0.2 0.5 0.3
0.15 0.45 0.4

P1 =[0 + 0.2 + 0] [0 + 0.5 + 0] [0 + 0.3 + 0]

P1 = [0.2 0.5 0.3]

0.5 0.3 0.2


P2 = [0.2, 0.5, 0.3] 0.2 0.5 0.3
0.15 0.45 0.4

P2 = [0.2, 0.5, 0.3] [0.06 + 0.25 + 0.135] [0.04 + 0.15 + 0.12]

P2 = [0.245, 0.445, 0.67]

0.5 0.3 0.2


P3 = [0.245, 0.445, 0.67] 0.2 0.5 0.3
0.15 0.45 0.4

P3 = [0.1225 + 0.089 + 0.1005] [0.0735 + 0.2225 + 0.3015] [0.134 + 0.201 + 0.268]

P3 =[0.312, 0.5975, 0.603]

⁂ La probabilidad que estudie cálculo el día jueves es de 0.5975

INTEGRANTES GRUPO 9:

 FERNÁNDEZ MAURICIO
 GIL KEVIN
 LUDEÑA ERIKA
 QUINTUÑA HENRY
 TIGSE ANDRÉS

Você também pode gostar